JP2010064154A - Robot control system, remote management device, robot, robot control and remote management methods, and robot control and remote management programs - Google Patents

Robot control system, remote management device, robot, robot control and remote management methods, and robot control and remote management programs Download PDF

Info

Publication number
JP2010064154A
JP2010064154A JP2008229890A JP2008229890A JP2010064154A JP 2010064154 A JP2010064154 A JP 2010064154A JP 2008229890 A JP2008229890 A JP 2008229890A JP 2008229890 A JP2008229890 A JP 2008229890A JP 2010064154 A JP2010064154 A JP 2010064154A
Authority
JP
Japan
Prior art keywords
robot
item
information
unit
remote management
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008229890A
Other languages
Japanese (ja)
Other versions
JP5040865B2 (en
Inventor
Fumio Nunofuji
文生 布藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2008229890A priority Critical patent/JP5040865B2/en
Publication of JP2010064154A publication Critical patent/JP2010064154A/en
Application granted granted Critical
Publication of JP5040865B2 publication Critical patent/JP5040865B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a robot control system preventing inappropriate advice and navigation to a user. <P>SOLUTION: The robot control system includes: a robot 10 capable of interacting with the user; and a remote management device 110 connected for communication with the robot via a communications network to control the robot. The remote management device 110 includes: an acquisition means 112 to acquire external information through the communications network on which an information providing space is constructed on demand; an item determination means 113 to determine an item related to the external information, an item search control means 114 to make the robot search for the item in the vicinity of the robot; and a behavior determination means 115 to determine a behavioral condition for announcement of information including the item. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、ロボット制御システム、遠隔管理装置、ロボット、遠隔管理方法、ロボット制御方法、遠隔管理プログラム及びロボット制御プログラムに関する。   The present invention relates to a robot control system, a remote management device, a robot, a remote management method, a robot control method, a remote management program, and a robot control program.

ロボット制御システムの関連技術として例えば特許文献1などが挙げられる。特許文献1では、ロボットは、音声や画像を通じてなされる利用者のリクエストに応じて、特定のサーバにリクエストを転送する。サーバは、ロボット側にない情報が要求されたときには、さらに、インターネットなどの広域ネットワーク上の情報空間を検索し、検索結果をロボットの動きや発話内容などのデータとしてロボット側に送信する。ロボットは、受信した前記データを用いて機体動作や音声として利用者のリクエストに答えることができる。   For example, Patent Document 1 is cited as a related technology of the robot control system. In Patent Literature 1, a robot transfers a request to a specific server in response to a user request made through sound or an image. When information that is not on the robot side is requested, the server further searches an information space on a wide area network such as the Internet, and transmits the search result to the robot side as data such as the movement of the robot and the content of speech. The robot can respond to the user's request as the body motion or voice using the received data.

より具体的には、特許文献1では、インターネット接続が可能なロボットは、利用者との会話のコンテキストに応じて、WWW(World Wide Web)情報空間を探索し、ニュースなどの生活・情報系のサービス、占いやゲームなどのエンターティンメント系のサービス、お店案内や辞書引きなどのデータベース系のサービス、モバイル・バンキングなどの取引系のサービス、音楽サービス、口演童話のようなストリーミング(streaming)サービスなどをユーザに提供できる。さらには、ロボット自身の行動制御を規定するプログラム・コードなども随時取得して、新規の動作を発現したりすることができる。
特許第003925140号公報
More specifically, in Patent Document 1, a robot that can be connected to the Internet searches a WWW (World Wide Web) information space according to the context of a conversation with a user, and uses a life / information system such as news. Services, entertainment services such as fortune-telling and games, database services such as store information and dictionary lookup, transaction services such as mobile banking, music services, streaming services such as oral fairy tales Etc. can be provided to the user. Furthermore, it is also possible to acquire a program code or the like that defines the behavior control of the robot itself at any time to express a new operation.
Japanese Patent No. 003925140

ところで、特許文献1のように、ロボットが利用者との対話の中で最新の情報(例えば天気予報など)を音声などにより提供するサービスでは、ロボットが例えば「大阪は、6時から雨の確率が60%になっているよ」と解答するのみであった。   By the way, as in Patent Document 1, in a service in which the robot provides the latest information (for example, weather forecast) in a dialogue with the user by voice or the like, the robot is, for example, “Osaka is the probability of rain from 6:00. Was only 60% ".

このため、傘が必要であるにもかかわらず、傘が手元にない場合には利用者自身が自分で傘を探しだしたりする必要があり、ロボットの言動が利用者に不親切であり、適切なアドバイスができなかった。
すなわち、利用者が所在する周囲の環境にアイテム(物品)が存在していないにもかかわらず、アイテムが利用者に必要であるかのような告知の仕方をロボットが言動してしまうことがあり、適切なアドバイスができなかった。
換言すれば、外部情報を利用者にロボットを通じて提供する際に、ロボットが所在する周囲の環境によっては、ロボットが利用者に対し適切かつ詳細なアドバイスやナビゲーションを与えることができなかった。
For this reason, if an umbrella is necessary but the umbrella is not at hand, the user needs to find the umbrella himself, and the robot's behavior is unfriendly to the user and appropriate I could not give any advice.
In other words, the robot may behave in a manner of notifying that the item is necessary for the user even though the item (article) does not exist in the surrounding environment where the user is located. Could not give proper advice.
In other words, when providing external information to the user through the robot, the robot cannot give appropriate and detailed advice or navigation to the user depending on the surrounding environment where the robot is located.

本発明の目的は、上述の関連技術の課題を解決することにあり、外部情報を利用者にロボットを通じて提供する際に、利用者に対する不適切なアドバイスやナビゲーションを防止できるロボット制御システム、遠隔管理装置、ロボット、遠隔管理方法、ロボット制御方法、遠隔管理プログラム及びロボット制御プログラムを提供することにある。   An object of the present invention is to solve the above-mentioned problems of the related art, and when providing external information to a user through a robot, a robot control system and remote management capable of preventing inappropriate advice and navigation for the user An apparatus, a robot, a remote management method, a robot control method, a remote management program, and a robot control program are provided.

上記目的を達成するため、本発明のロボット制御システムは、少なくとも利用者と対話可能なロボットと、前記ロボットと通信網を介して通信接続され前記ロボットを制御する遠隔管理装置と、を備え、前記遠隔管理装置は、前記利用者の前記ロボットに対する言動要求又は所定の時刻に生成されるサービス開始要求に基づいて、情報提供空間が構築された前記通信網を通じて外部情報を取得する取得手段と、前記外部情報に関連するアイテムを決定するアイテム決定手段と、前記アイテムが前記ロボットの周辺にあるかどうかを前記ロボットに探索させるための制御をし、前記アイテムの有無を判定するアイテム探索制御手段と、前記アイテム探索制御手段にて前記アイテムがあると判定された場合、前記利用者に対して前記外部情報及び前記アイテムを含む情報を告知するように前記ロボットの言動条件を決定しこの言動条件をコンテンツとして生成する言動決定手段と、前記コンテンツを前記ロボットに供給するコンテンツ供給手段と、を備え、前記ロボットは、前記アイテム探索制御手段からのアイテム探索要求に応じて前記アイテムの探索を実行するアイテム探索実行手段と、前記コンテンツ供給手段からの前記コンテンツを受信し、前記コンテンツに含まれる前記言動条件を実行する言動実行制御手段と、を備えたことを特徴としている。   In order to achieve the above object, a robot control system of the present invention comprises at least a robot capable of interacting with a user, and a remote management device that is connected to the robot via a communication network and controls the robot, The remote management device is configured to acquire external information through the communication network in which an information providing space is constructed based on a request for behavior of the user to the robot or a service start request generated at a predetermined time; Item determining means for determining an item related to external information, control for causing the robot to search whether the item is in the vicinity of the robot, and item search control means for determining the presence or absence of the item, If the item search control means determines that the item is present, the external information and the user A behavior determining means for determining the behavior condition of the robot so as to announce information including the item and generating the behavior condition as content; and a content supply means for supplying the content to the robot. , Receiving an item search execution unit for searching for the item in response to an item search request from the item search control unit, and receiving the content from the content supply unit, and executing the behavior condition included in the content And a behavior execution control means.

本発明の遠隔管理装置は、少なくとも利用者と対話可能なロボットと通信網を介して通信接続され前記ロボットを遠隔制御するとともに前記ロボットに対して情報提供可能な遠隔管理装置であって、前記利用者の前記ロボットに対する言動要求又は所定の時刻に生成されるサービス開始要求に基づいて、情報提供空間が構築された前記通信網を通じて外部情報を取得する取得手段と、前記外部情報に関連するアイテムを決定するアイテム決定手段と、前記アイテムが前記ロボットの周辺にあるかどうかを前記ロボットに探索させ、前記アイテムの有無を判定するアイテム探索制御手段と、前記アイテム探索制御手段にて前記アイテムがあると判定された場合、前記利用者に対して前記外部情報及び前記アイテムを含む情報を告知するように前記ロボットの言動条件を決定しこの言動条件をコンテンツとして生成する言動決定手段と、前記コンテンツを前記ロボットに供給するコンテンツ供給手段と、を備えたことを特徴としている。   A remote management device according to the present invention is a remote management device that is connected to at least a robot capable of interacting with a user via a communication network, remotely controls the robot, and can provide information to the robot. An acquisition means for acquiring external information through the communication network in which an information providing space is constructed based on a request for behavior of the person to the robot or a service start request generated at a predetermined time, and an item related to the external information When there is the item in the item determination means to determine, the item search control means for causing the robot to search whether the item is in the vicinity of the robot, and determining the presence or absence of the item, and the item search control means If determined, the user is notified of the information including the external information and the item. A behavior determination means for determining the behavior condition of the robot that generates the behavior condition as content, it is characterized in that the content with a content supplying means for supplying to said robot.

本発明のロボットは、情報提供可能な遠隔管理装置と通信網を介して通信接続され少なくとも利用者と対話可能なロボットであって、前記遠隔管理装置にて取得された外部情報に関連するアイテムが前記ロボットの周辺にあるかどうかを探索するアイテム探索実行手段と、前記アイテムがある場合、前記利用者に対して前記外部情報及び前記アイテムを含む情報を告知するように前記ロボットの言動条件を実行する言動実行制御手段と、を備えたことを特徴としている。   The robot of the present invention is a robot that is communicably connected to a remote management device capable of providing information via a communication network and can interact with at least a user, and items related to external information acquired by the remote management device are Item search execution means for searching whether the robot is in the vicinity of the robot, and when there is the item, the robot's speech condition is executed so as to notify the user of the external information and the information including the item. And a speech execution control means.

本発明の遠隔管理方法は、少なくとも利用者と対話可能なロボットと、前記ロボットと通信網を介して通信接続され前記ロボットを制御する遠隔管理装置と、を備えたロボット制御システムにあって、前記ロボットを遠隔管理する遠隔管理方法であって、前記利用者の前記ロボットに対する言動要求又は所定の時刻に生成されるサービス開始要求に基づいて、情報提供空間が構築された前記通信網を通じて外部情報を取得し、前記外部情報に関連するアイテムを決定し、前記アイテムが前記ロボットの周辺にあるかどうかを前記ロボットに探索させ、前記アイテムの有無を判定するアイテム探索制御をし、前記アイテムがあると判定された場合、前記利用者に対して前記外部情報及び前記アイテムを含む情報を告知するように前記ロボットの言動条件を決定しこの言動条件をコンテンツとして生成する、ことを特徴としている。   The remote management method of the present invention is a robot control system comprising at least a robot capable of interacting with a user, and a remote management device that is connected to the robot via a communication network and controls the robot, A remote management method for remotely managing a robot, wherein external information is transmitted through the communication network in which an information providing space is constructed based on a request for speech from the user to the robot or a service start request generated at a predetermined time. Obtaining, determining an item related to the external information, causing the robot to search whether the item is in the vicinity of the robot, performing item search control for determining the presence or absence of the item, and If determined, the robot is notified so as to notify the user of the external information and information including the item. Determining the dynamic conditions to produce this behavior condition as content, it is characterized by.

本発明のロボット制御方法は、少なくとも利用者と対話可能なロボットと、前記ロボットと通信網を介して通信接続され前記ロボットを制御する遠隔管理装置と、を備えたロボット制御システムにあって、前記ロボットを制御するロボット制御方法であって、前記遠隔管理装置にて取得された外部情報に関連するアイテムが前記ロボットの周辺にあるかどうかを探索し、前記アイテムがある場合、前記利用者に対して前記外部情報及び前記アイテムを含む情報を告知するように前記ロボットの言動条件を実行する、ことを特徴としている。   A robot control method of the present invention is a robot control system comprising at least a robot capable of interacting with a user, and a remote management device that is connected to the robot via a communication network and controls the robot, A robot control method for controlling a robot, searching for whether an item related to external information acquired by the remote management device is in the vicinity of the robot. The robot's behavior condition is executed so as to notify the information including the external information and the item.

本発明の遠隔管理プログラムは、少なくとも利用者と対話可能なロボットと、前記ロボットと通信網を介して通信接続され前記ロボットを制御する遠隔管理装置と、を備えたロボット制御システムにあって、前記遠隔管理装置が備えたコンピュータに諸機能を実現可能な遠隔管理プログラムであって、前記利用者の前記ロボットに対する言動要求又は所定の時刻に生成されるサービス開始要求に基づいて、情報提供空間が構築された前記通信網を通じて外部情報を取得する取得機能と、前記外部情報に関連するアイテムを決定するアイテム決定機能と、前記アイテムが前記ロボットの周辺にあるかどうかを前記ロボットに探索させ、前記アイテムの有無を判定するアイテム探索制御機能と、前記アイテムがあると判定された場合、前記利用者に対して前記外部情報及び前記アイテムを含む情報を告知するように前記ロボットの言動条件を決定しこの言動条件をコンテンツとして生成する言動決定機能とを前記コンピュータに実現させることを特徴としている。   The remote management program of the present invention is a robot control system comprising at least a robot capable of interacting with a user, and a remote management device that is connected to the robot via a communication network and controls the robot, A remote management program capable of realizing various functions in a computer provided in a remote management device, wherein an information providing space is constructed based on a speech request to the robot of the user or a service start request generated at a predetermined time An acquisition function for acquiring external information through the communication network, an item determination function for determining an item related to the external information, and causing the robot to search whether the item is in the vicinity of the robot, If it is determined that there is an item search control function for determining the presence or absence of the item, the user It is characterized in that to realize a behavior decision function for generating the external information and determines the behavior condition of the robot so as to notify the information including the item this behavior condition as content for the computer.

本発明のロボット制御プログラムは、少なくとも利用者と対話可能なロボットと、前記ロボットと通信網を介して通信接続され前記ロボットを制御する遠隔管理装置と、を備えたロボット制御システムにあって、前記ロボットが備えたコンピュータに諸機能を実現可能なロボット制御ログラムであって、前記遠隔管理装置にて取得された外部情報に関連するアイテムが前記ロボットの周辺にあるかどうかを探索するアイテム探索実行機能と、前記アイテムがある場合、前記利用者に対して前記外部情報及び前記アイテムを含む情報を告知するように前記ロボットの言動条件を実行する言動実行制御機能と、を前記コンピュータに実現させることを特徴としている。   A robot control program according to the present invention is a robot control system comprising at least a robot capable of interacting with a user, and a remote management device that is connected to the robot via a communication network and controls the robot. An item search execution function for searching for whether or not an item related to external information acquired by the remote management device is in the vicinity of the robot, which is a robot control program capable of realizing various functions in a computer provided in the robot And, when there is the item, causing the computer to realize a behavior execution control function for executing the behavior condition of the robot so as to notify the user of the information including the external information and the item. It is a feature.

本発明によれば、外部情報をロボットを通じて利用者に提供する際に、ロボットが所在する周囲の環境にあるアイテムの存在を確認した上で言動を実行するので、ロボットが所在する周囲の環境に応じて利用者に適切かつ詳細なアドバイスやナビゲーションを行うことができる、という関連技術にない優れたロボット制御システム、遠隔管理装置、ロボット、遠隔管理方法、ロボット制御方法、遠隔管理プログラム及びロボット制御プログラムを提供することができる。   According to the present invention, when external information is provided to a user through a robot, the behavior is performed after confirming the presence of an item in the surrounding environment where the robot is located. The robot control system, the remote management device, the robot, the remote management method, the robot control method, the remote management program, and the robot control program, which are not available in related technology, are capable of providing appropriate and detailed advice and navigation to the user in response. Can be provided.

〔第1の実施の形態〕
(ロボット制御システムの基本的構成)
先ず、ロボット制御システムの基本的構成について説明する。図1に示すように、本発明のロボット制御システム1は、少なくとも利用者と対話可能なロボット10と、前記ロボット10と通信網NWを介して通信接続され前記ロボットを制御する遠隔管理装置としてのロボット制御サーバ110とを含むものである。
[First Embodiment]
(Basic configuration of robot control system)
First, the basic configuration of the robot control system will be described. As shown in FIG. 1, a robot control system 1 according to the present invention is a robot 10 that can communicate with at least a user, and a remote management device that controls the robot 10 connected to the robot 10 via a communication network NW. The robot control server 110 is included.

この遠隔管理装置としてのロボット制御サーバ110は、図5に示すように、利用者のロボット10に対する言動要求又は所定の時刻に生成されるサービス開始要求に基づいて、情報提供空間が構築された通信網NWを通じて天気情報などの外部情報を取得する取得手段としての外部情報取得部112と、この外部情報に関連する雨具などのアイテム(関連アイテム)を決定するアイテム決定手段としての関連アイテム情報決定部113とを含むものである。   As shown in FIG. 5, the robot control server 110 as the remote management device is a communication in which an information providing space is constructed based on a user's behavior request to the robot 10 or a service start request generated at a predetermined time. External information acquisition unit 112 as acquisition means for acquiring external information such as weather information through network NW, and related item information determination unit as item determination means for determining items (related items) such as rain gear related to this external information 113.

更に、ロボット制御サーバ110は、前記アイテムがロボット10の周辺にあるかどうかをロボット10に探索させるための制御をし、前記アイテムの有無を判定するアイテム探索制御手段としてのアイテム探索制御部114と、前記アイテム探索制御手段としてのアイテム探索制御部114にて前記アイテムがあると判定された場合、前記利用者に対して前記外部情報及び前記アイテムを含む情報を告知するように前記ロボットの言動条件を決定しこの言動条件をコンテンツとして生成する言動決定手段としての言動決定部115と、前記コンテンツを前記ロボットに供給するコンテンツ供給手段としてコンテンツ供給部116とを含む。   Further, the robot control server 110 performs control for causing the robot 10 to search whether or not the item is in the vicinity of the robot 10, and an item search control unit 114 as item search control means for determining the presence or absence of the item; When the item search control unit 114 as the item search control means determines that the item is present, the robot's behavior condition is to notify the user of the external information and the information including the item. And a behavior determining unit 115 as behavior determining means for generating the behavior condition as content, and a content supplying unit 116 as content supplying means for supplying the content to the robot.

ロボット10は、図4に示すように、ロボット制御サーバ110におけるアイテム探索制御部114からのアイテム探索要求に応じて前記アイテムの探索を実行するアイテム探索実行手段としてのアイテム探索実行部92と、ロボット制御サーバ110におけるコンテンツ供給部116からの前記コンテンツを受信し、前記コンテンツに含まれる前記言動条件を実行する言動実行制御手段としてのコンテンツ再生部(言動実行部)94とを含むものである。   As shown in FIG. 4, the robot 10 includes an item search execution unit 92 as an item search execution unit that executes a search for the item in response to an item search request from the item search control unit 114 in the robot control server 110, and a robot The control server 110 includes a content playback unit (speech execution unit) 94 as a speech execution control unit that receives the content from the content supply unit 116 and executes the speech condition included in the content.

アイテム探索実行部92は、ロボット10が備えるCCDカメラ(画像取得部)から取得した画像情報をもとに画像認識機能によりロボットの周囲にある各種物品を識別することができるように構成される。
又、アイテム探索実行部92は、ロボット10が備えるタグリーダ(タグ識別情報取得部)から取得したタグ識別情報をもとにロボットの周囲にある各種物品を識別することができるように構成される。
The item search execution unit 92 is configured to be able to identify various articles around the robot by an image recognition function based on image information acquired from a CCD camera (image acquisition unit) included in the robot 10.
The item search execution unit 92 is configured to identify various articles around the robot based on tag identification information acquired from a tag reader (tag identification information acquisition unit) included in the robot 10.

ロボット制御サーバ110のアイテム探索制御部114は、このアイテム探索実行部92により得られた情報をもとにアイテム探索を行う。すなわち、前記アイテム探索制御部114は、前記アイテムの有無を画像認識情報により探索する第1のアイテム探索制御部114aを備える。
また、アイテム探索制御部114は、前記画像認識情報により前記アイテムが無いと判定された場合に、前記アイテムの有無を予め前記アイテムに備えた無線電子タグからのタグ識別情報により探索する第2のアイテム探索制御部114bを備える。
The item search control unit 114 of the robot control server 110 performs an item search based on the information obtained by the item search execution unit 92. That is, the item search control unit 114 includes a first item search control unit 114a that searches for the presence / absence of the item using image recognition information.
In addition, when it is determined that the item does not exist based on the image recognition information, the item search control unit 114 searches for presence / absence of the item based on tag identification information from a wireless electronic tag provided in the item in advance. An item search control unit 114b is provided.

このようなロボット制御システムでは、ロボット制御サーバ110にて受信した天候等の外部情報を取得し、その外部情報に関連するアイテムを予め定義しておき、アイテムをロボット10が備える機能の一つである例えば画像認識などにより取得した場合に、利用者にナビゲーション、注意喚起等を行う。
例えば、雨天の天候情報をサーバより取得した場合に、室内で傘を画像認識すると、利用者に”傘を持っていく”よう通知する。
In such a robot control system, external information such as weather received by the robot control server 110 is acquired, an item related to the external information is defined in advance, and the item is one of the functions provided in the robot 10. For example, when it is acquired by image recognition or the like, navigation, alerting, etc. are performed to the user.
For example, when rainy weather information is acquired from a server, when an image of an umbrella is recognized indoors, the user is notified to “take the umbrella”.

これにより、ロボットが所在する周囲の環境にあるアイテムの存在を確認した上で言動を実行するので、ロボットが所在する周囲の環境に応じて利用者に適切かつ詳細なアドバイスやナビゲーションを行うことができる。   This confirms the presence of an item in the surrounding environment where the robot is located, and then executes the action, so appropriate and detailed advice and navigation can be given to the user according to the surrounding environment where the robot is located. it can.

以下、このような本発明の「ロボット制御システム」のさらに詳細な実施の形態の一例について、図面を参照して具体的に説明する。   Hereinafter, an example of a more detailed embodiment of the “robot control system” of the present invention will be specifically described with reference to the drawings.

(ロボット制御システムの全体構成)
先ず、本実施の形態のロボット制御システムの具体的構成について、全体構成から説明し、続いてロボットの全体構成、ロボットのコントローラの詳細構成、LEDの点灯パター、ロボット制御サーバ(遠隔管理装置)の詳細構成について説明することとする。図1は、本発明における第1実施の形態のロボット制御システムの全体の概略構成の一例を示すブロック図である。
(Whole structure of robot control system)
First, the specific configuration of the robot control system of the present embodiment will be described from the overall configuration, followed by the overall configuration of the robot, the detailed configuration of the controller of the robot, the LED lighting pattern, and the robot control server (remote management device). The detailed configuration will be described. FIG. 1 is a block diagram showing an example of an overall schematic configuration of the robot control system according to the first embodiment of the present invention.

図1に示すように、本実施の形態のロボット制御システム1は、1以上のロボット10と、ロボット10と無線通信接続されるAP(アクセスポイント)と、APと通信網NWを介して通信接続され各ロボット10と情報の授受を行なうことにより各ロボット10の遠隔管理を行い前記各ロボット10を制御するロボット制御サーバ110と、前記通信網NWを介してロボット制御サーバ110と通信可能に形成される情報提供サーバ130とを含む。
ロボット10は、例えば無線LANなどによってAP(アクセスポイント)との間で通信可能に構成される。APは、通信網NWに通信接続されている。
As shown in FIG. 1, the robot control system 1 according to the present embodiment includes one or more robots 10, an AP (access point) wirelessly connected to the robot 10, and a communication connection with the AP via a communication network NW. The robot 10 is configured to be able to communicate with the robot control server 110 via the communication network NW, and the robot control server 110 that performs remote management of each robot 10 and controls the robot 10 by exchanging information with each robot 10. Information providing server 130.
The robot 10 is configured to be able to communicate with an AP (access point) by, for example, a wireless LAN. The AP is communicatively connected to the communication network NW.

本実施の形態において、ロボット10は、利用者との対話が可能で、音声出力とともに、動作パターンを選択し、ロボットの言動を決定する。
本実施の形態において、ロボット10は、たとえば各種施設等で利用者に情報提供サービスを行う。本実施の形態におけるロボット制御システム1では、ロボット10が利用者に愛くるしい表現にて内容を伝えるようにロボットの言動を決定できる。
In the present embodiment, the robot 10 can interact with the user, select an operation pattern together with voice output, and determine the behavior of the robot.
In the present embodiment, the robot 10 provides information providing services to users at various facilities, for example. In the robot control system 1 according to the present embodiment, it is possible to determine the behavior of the robot so that the robot 10 conveys the content to the user with a lovely expression.

遠隔管理装置の一例であるロボット制御サーバ110、情報提供サーバ130は、それぞれ、プログラム制御により動作するものであり、ネットワーク関連の通信機能を有していれば、デスクトップ、ラップトップコンピュータ、その他無線・有線通信機能を有する情報機器、情報家電機器、またはこれに類するコンピュータなどいかなるコンピュータでもよく、移動式・固定式を問わない。   The robot control server 110 and the information providing server 130, which are examples of the remote management device, each operate by program control, and have a network-related communication function, so long as it has a network-related communication function. Any computer such as an information device having a wired communication function, an information home appliance, or a similar computer may be used, regardless of whether it is mobile or fixed.

ロボット制御サーバ110、情報提供サーバ130のハードウエア構成は、それぞれ、種々の情報等を表示するための表示部(スクリーン)、この表示部の表示画面上(の各種入力欄等)にデータを操作入力するための操作入力部(例えばキーボード・マウス・各種ボタン・表示操作部<画面上のボタン>・タッチパネル等)、各種信号・データを送受信するための送受信部ないしは通信部(モデムなど)、各種プログラム・各種データを記憶しておく記憶部(例えばメモリ、ハードディスク等)、これらの制御を司る制御部(例えばCPU、MPU、DSP等)などを有することができる。   The hardware configuration of the robot control server 110 and the information providing server 130 is such that a display unit (screen) for displaying various information and the like, and data is operated on the display screen (various input fields, etc.) of the display unit. Operation input unit for inputting (for example, keyboard, mouse, various buttons, display operation unit <button on screen>, touch panel, etc.), transmission / reception unit or communication unit (modem, etc.) for transmitting / receiving various signals / data, various types A storage unit (for example, a memory, a hard disk, etc.) that stores programs and various data, and a control unit (for example, a CPU, MPU, DSP, etc.) that controls these can be included.

(ロボットの全体構成)
図2は、図1に示すロボット制御システムにおけるロボットのハードウエア詳細構成の一例を示すブロック図である。
本実施形態のロボット10は、図2及び図3に示されるように、例えば、胴体部20と頭部50が連結されることにより構成されている。
(Whole structure of robot)
2 is a block diagram showing an example of a detailed hardware configuration of the robot in the robot control system shown in FIG.
As shown in FIGS. 2 and 3, the robot 10 according to the present embodiment is configured, for example, by connecting a body 20 and a head 50.

胴体部20は、例えば円筒形にて構成される。胴体部20の下端部には、左右にそれぞれ車輪61A,61Bが取り付けられており、それらの車輪61A,61Bは、独立に前後に回転することができる。また、胴体部20の下端部には、回動自在に支持されたキャスター62を有する。ロボット10は、このキャスター62、車輪61A、61Bの3点で支持できる。従って、前進,後退,旋回,信地旋回,超信地旋回等の動作が可能である。   The trunk | drum 20 is comprised by cylindrical shape, for example. Wheels 61A and 61B are respectively attached to the left and right sides of the lower end portion of the body portion 20, and these wheels 61A and 61B can be rotated back and forth independently. Moreover, the lower end part of the trunk | drum 20 has the caster 62 supported rotatably. The robot 10 can be supported at the three points of the caster 62 and the wheels 61A and 61B. Accordingly, it is possible to perform operations such as forward movement, backward movement, turn, cruciform turn, and super turn.

頭部50は、胴体部20に垂直に取り付けられた垂直軸(図3に示すZ軸)とその垂直軸に対して90度の角度で設置された水平軸(図3に示すX軸)に関して決められた範囲で各々回転する(図3に示すθ1方向、θ2方向)ことができる。
垂直軸は、頭部50の中心を通るように設置されており、水平軸は、胴体部20と頭部50が正面を向いた状態で頭部50の中心を通りかつ左右方向に水平に設置されている。つまり、頭部50は左右と上下の2自由度で、決められた範囲内で回転することができる。
また、胴体部20は、頭部50と独立して図3に示すθ3方向で回転することもできる。
The head 50 is related to a vertical axis (Z-axis shown in FIG. 3) vertically attached to the body 20 and a horizontal axis (X-axis shown in FIG. 3) installed at an angle of 90 degrees with respect to the vertical axis. Each can rotate within a predetermined range (θ1 direction and θ2 direction shown in FIG. 3).
The vertical axis is installed so as to pass through the center of the head 50, and the horizontal axis is installed horizontally through the center of the head 50 with the body part 20 and the head 50 facing the front and in the horizontal direction. Has been. That is, the head 50 can rotate within a predetermined range with two degrees of freedom, left and right and up and down.
Moreover, the trunk | drum 20 can also rotate in the (theta) 3 direction shown in FIG.

また、胴体部20には、図2に示されるように、ロボット全体の制御を司るコントローラ(ロボット制御装置)22と、ロボットの動力源となるバッテリ31と、スピーカ32(音声出力部)と、左右の車輪61A,61Bを動かすためのアクチュエータ34A,34B(駆動機構)と、予め物品に取り付けられた無線電子タグのタグ識別情報を無線通信にて読み取るためのタグリーダ44(ダグ識別情報取得部)と、ロボット10の感情状態をパターンとして表示可能な胸LED群45(感情パターン表示部)と、メンテナンス時の各部の状態などを表示可能なその他の各種LED群46(46A、46B)と、音の方向や周囲の雑音などを検出するための環境認識用の各種マイク群33と、障害物回避・衝突検知・持ち上げ防止・タッチ検出などの各種センサ群47(図3では47A〜47G)と、外部表示部などを接続可能な各種端子43と、他の通信装置と通信可能な通信I/F(通信インターフェース)43等が収納される。   As shown in FIG. 2, the body unit 20 includes a controller (robot control device) 22 that controls the entire robot, a battery 31 that serves as a power source for the robot, a speaker 32 (sound output unit), Actuators 34A and 34B (drive mechanism) for moving the left and right wheels 61A and 61B, and a tag reader 44 (dug identification information acquisition unit) for reading tag identification information of a wireless electronic tag attached to the article in advance by wireless communication A chest LED group 45 (emotion pattern display part) capable of displaying the emotional state of the robot 10 as a pattern, other various LED groups 46 (46A, 46B) capable of displaying the state of each part during maintenance, and sound Various microphone groups 33 for environment recognition to detect the direction and surrounding noise, obstacle avoidance, collision detection, lifting prevention, touch Various sensor groups 47 (47A to 47G in FIG. 3) such as an output, various terminals 43 to which an external display unit and the like can be connected, and a communication I / F (communication interface) 43 that can communicate with other communication devices are accommodated. Is done.

通信I/F43(送受信部)は、無線LAN、AP(アクセスポント)2、通信網NWなどを介して、他の通信装置との間で通信を行う。
スピーカ32は、文章を出力するための出力手段の一部である。アクチュエータ34A,34Bは、ロボット10を物理的に動作させるためのアクチュエータである。
The communication I / F 43 (transmission / reception unit) communicates with other communication devices via a wireless LAN, an AP (access point) 2, a communication network NW, and the like.
The speaker 32 is a part of output means for outputting a sentence. The actuators 34A and 34B are actuators for physically operating the robot 10.

頭部50には、図2に示すように、マイク53と、CCDカメラ51A,51Bと、頭部50を回転するためのアクチュエータ52A(スイヴェル用),52B(俯仰用)と、利用者の声や他の音を聞いているかどうかを表示するための耳LED群56と、感情状態を表示可能な顔(口)LED群57と、周辺の探索状況を表示可能な目LED群58(探索状況表示部)と、なでたり触られたりすることを検知するタッチセンサ54と、昼夜を問わず周辺を監視するためのサーモグラフィ55(温度分布検知部)などが収納されている。   As shown in FIG. 2, the head 50 includes a microphone 53, CCD cameras 51 </ b> A and 51 </ b> B, actuators 52 </ b> A (for swivel) and 52 </ b> B (for supine) for rotating the head 50, and user's voice. Ear LED group 56 for displaying whether or not other sounds are being listened to, face (mouth) LED group 57 capable of displaying an emotional state, and eye LED group 58 capable of displaying a surrounding search situation (search situation) A display unit), a touch sensor 54 that detects a stroke or touch, and a thermography 55 (temperature distribution detection unit) for monitoring the surroundings regardless of day or night are housed.

CCDカメラ51A、51Bは、ロボット周辺の人物を認識する場合、周囲の物品を検知する場合などに利用することもできる。
アクチュエータ52A,52Bは、ロボット10の頭部50を上下左右に回転させる。
The CCD cameras 51A and 51B can be used for recognizing a person around the robot, for detecting surrounding articles, and the like.
The actuators 52A and 52B rotate the head 50 of the robot 10 up, down, left and right.

頭部50におけるマイク53は、利用者からの発話を含む周囲の音声を集音し、得られた音声情報をコントローラ22に送出する。   The microphone 53 in the head 50 collects surrounding sounds including utterances from the user, and sends the obtained sound information to the controller 22.

頭部50におけるCCDカメラ51A,51Bは、ロボット周辺の人物及び物品や周囲の状況を撮像し、得られた画像情報を、コントローラ22に送出する。   The CCD cameras 51 </ b> A and 51 </ b> B in the head 50 take images of persons and articles around the robot and the surrounding situation, and send the obtained image information to the controller 22.

頭部50におけるタッチセンサ54、胴体部20における各種センサ群47に含まれるタッチセンサは、人間がタッチセンサに触れたことを検知し、接触検知情報をコントローラ22に送出する。   The touch sensors included in the touch sensor 54 in the head 50 and the various sensor groups 47 in the torso 20 detect that a human has touched the touch sensor, and send contact detection information to the controller 22.

コントローラ(ロボット制御装置)22は、CPU22Aやメモリ22Bを内蔵しており、CPU22Aにおいて、メモリ22Bに記憶された制御プログラムが実行されることにより、各種の処理を行う。   The controller (robot control device) 22 includes a CPU 22A and a memory 22B. The CPU 22A executes various processes by executing a control program stored in the memory 22B.

すなわち、コントローラ22は、マイク53や通信I/F42を介して得られる音声情報と、CCDカメラ51AおよびCCDカメラ51Bから得られる画像情報と、タッチセンサ54などから得られる接触検知情報とに基づいて、メモリ22Bから適宜情報を読み出し、周囲の状況やユーザからの指令を判断する。
さらに、コントローラ22は、この判断結果などに基づいて、続く言動を決定し、その決定結果に基づいて、スピーカ32,アクチュエータ34A,34B,52A,52B、各LEDやその他の各部のうち必要なものを駆動させる。
これにより、頭部50の上下左右の回転あるいはロボット10の移動や回転等の行動を行わせる。
また、コントローラ22は、合成音を生成し、スピーカ32に供給して、ロボット10に決定した発話を出力させる。
さらに、コントローラ22は、点灯制御信号を生成し、各種LEDに決定した点灯パターンを実行させる。
That is, the controller 22 is based on audio information obtained via the microphone 53 or the communication I / F 42, image information obtained from the CCD camera 51A and the CCD camera 51B, and contact detection information obtained from the touch sensor 54 or the like. Then, information is appropriately read out from the memory 22B, and the surrounding situation and a command from the user are determined.
Further, the controller 22 determines the subsequent behavior based on the determination result and the like, and based on the determination result, the necessary one of the speaker 32, the actuators 34A, 34B, 52A, 52B, each LED and other parts. Drive.
Thereby, actions such as rotation of the head 50 in the vertical and horizontal directions or movement and rotation of the robot 10 are performed.
In addition, the controller 22 generates a synthesized sound, supplies the synthesized sound to the speaker 32, and causes the robot 10 to output the determined utterance.
Further, the controller 22 generates a lighting control signal and causes the various LEDs to execute the determined lighting pattern.

以上のようにして、ロボットは、周囲の状況などに基づいて行動をとるようになっている。   As described above, the robot takes action based on the surrounding situation.

(ロボットにおけるコントローラの詳細機能構成)
次に、メモリ22Bに記憶された制御プログラムに従って動作するCPU22Aによって実現される各部の相互的な関連について図4を参照して説明する。
(Detailed function configuration of controller in robot)
Next, the mutual relationship of each part implement | achieved by CPU22A which operate | moves according to the control program memorize | stored in memory 22B is demonstrated with reference to FIG.

コントローラ(ロボット制御装置)22は、画像認識部231、音声認識部232、接触認識部233、言動決定部215、コンテンツ再生部(言動実行部)217、アイテム探索実行部92、音声認識辞書記憶部227、動作パターン情報記憶部224、シナリオ情報記憶部225、コンテンツ記憶部226を含む。
このうち、音声認識辞書記憶部227、動作パターン情報記憶部224、シナリオ情報記憶部225、コンテンツ記憶部226などは、メモリ22Bの記憶領域の一部により構成されている。また、これらの記憶部の情報は、遠隔管理装置であるロボット制御サーバ110から適宜、更新、変更、追加、削除を行うこともできる。
The controller (robot control device) 22 includes an image recognition unit 231, a voice recognition unit 232, a contact recognition unit 233, a behavior determination unit 215, a content reproduction unit (speech execution unit) 217, an item search execution unit 92, and a voice recognition dictionary storage unit. 227, an operation pattern information storage unit 224, a scenario information storage unit 225, and a content storage unit 226.
Among these, the speech recognition dictionary storage unit 227, the operation pattern information storage unit 224, the scenario information storage unit 225, the content storage unit 226, and the like are configured by a part of the storage area of the memory 22B. In addition, the information in these storage units can be updated, changed, added, and deleted as appropriate from the robot control server 110 which is a remote management device.

画像認識部231は、CCDカメラ51A、51Bからの画像情報に基づき物品認識(物品認識用画像認識機能)、人物認識(人物認識用画像認識機能)などを行うことができる。
画像認識部231における物品認識用画像認識機能は、CCDカメラ51A、51Bから入力される映像に対して画像処理(例えば特徴点パターン抽出など)を行い画像認識情報を生成し画像認識情報をアイテム探索実行部92へ送出する。
また、画像認識部231では、2CCDカメラによりステレオ視覚認識処理を行うことができる。
The image recognition unit 231 can perform article recognition (article recognition image recognition function), person recognition (person recognition image recognition function), and the like based on image information from the CCD cameras 51A and 51B.
The image recognition function for article recognition in the image recognition unit 231 performs image processing (for example, feature point pattern extraction) on images input from the CCD cameras 51A and 51B, generates image recognition information, and searches for items in the image recognition information. The data is sent to the execution unit 92.
In addition, the image recognition unit 231 can perform stereo visual recognition processing using a 2CCD camera.

更に、画像認識部231における人物認識用画像認識機能では、CCDカメラ51A、51Bから入力される映像に対して画像処理を施して人の識別を行い、人物記憶部(不図示)に人の識別子を記憶することもできる。
又、CCDカメラ51A、51Bに代えて他のイメージセンサを用いてもよく、さらには、対象物の形状や輪郭を捉えるカメラやセンサといった技術にとらわれない。またさらに、ロボットがテレビなどの映像表示機器に映像を表示し、そこに表示した内容を検知結果として利用するという方法も考えられる。
Furthermore, in the image recognition function for person recognition in the image recognition unit 231, image processing is performed on images input from the CCD cameras 51A and 51B to identify a person, and a person identifier is stored in a person storage unit (not shown). Can also be stored.
In addition, other image sensors may be used in place of the CCD cameras 51A and 51B, and further, the present invention is not limited to a technique such as a camera or a sensor that captures the shape or contour of an object. Furthermore, a method in which the robot displays an image on a video display device such as a television and uses the displayed content as a detection result is also conceivable.

音声認識部232は、マイク53(音声入力部)から入力される人間の音声情報を音声認識する。
音声認識辞書記憶部227は、音声認識単語の集合である音声認識語彙を記憶する音声認識単語記憶部を含む。音声認識単語記憶部は、各外国語の言語に応じて用意することができる。
音声認識部232は、マイク53が入力した音声情報と、音声認識辞書記憶部227に記憶された音声認識語彙とのマッチングを行う。
音声認識部232は、音声認識した音声認識結果を言動決定部215へ送出する。
音声認識結果は、「おはよう」、「こんにちは」や「何かお話して」などの、人がロボットに対して話しかけた言葉である。
音声認識部232が認識する言葉は、「おはよう」や「こんにちは」などの通常命令を含む。通常命令は、例えば、ロボット側から出力された話題に対するユーザ側の応答等をも含むものである。
The voice recognition unit 232 recognizes human voice information input from the microphone 53 (voice input unit).
The speech recognition dictionary storage unit 227 includes a speech recognition word storage unit that stores a speech recognition vocabulary that is a set of speech recognition words. The speech recognition word storage unit can be prepared according to the language of each foreign language.
The voice recognition unit 232 performs matching between the voice information input by the microphone 53 and the voice recognition vocabulary stored in the voice recognition dictionary storage unit 227.
The voice recognition unit 232 sends the voice recognition result of voice recognition to the behavior determination unit 215.
Speech recognition results, "Good morning", such as "Hello" or "to talk about something", a person is a word that spoke to the robot.
The speech recognition unit 232 recognizes words, including the usual instructions, such as "Good morning" or "Hello". The normal command includes, for example, a user response to a topic output from the robot side.

接触認識部233は、人がタッチセンサ54に触れたときに出力される検知情報を受け、これを接触認識情報として言動決定部215に送出する。   The contact recognition unit 233 receives detection information that is output when a person touches the touch sensor 54, and sends this detection information to the behavior determination unit 215 as contact recognition information.

また、タグリーダ44により、予め物品に取り付けられた識別タグ(無線電子タグ)のタグ識別情報が読み取られ、該読み取られたタグ識別情報は、アイテム探索実行部92に送出され、物品を認識できるようにしている。識別タグとしては、アクティブ、パッシブのRFIDタグ、超音波タグ、赤外線タグなど、電波や電磁波、超音波、赤外線などにより読み取り可能なタグを用いてよい。   The tag reader 44 reads tag identification information of an identification tag (wireless electronic tag) attached to the article in advance, and the read tag identification information is sent to the item search execution unit 92 so that the article can be recognized. I have to. As the identification tag, a tag that can be read by radio waves, electromagnetic waves, ultrasonic waves, infrared rays, or the like, such as active and passive RFID tags, ultrasonic tags, and infrared tags, may be used.

発話トリガー発生部234は、音声認識部232を参照して、予め決められた一定時間以上の間、音声認識部232から言動決定部215への出力が無い場合に、ユーザの応答に相当する発話トリガー情報を言動決定部215へ送出する。
発話トリガー情報は、音声認識部232によって音声認識が可能な言葉のうちから選ばれる一つの言葉であり、ランダム(任意)に選択される。したがって、発話トリガー情報は、話題選択命令であるか通常命令であるかのどちらかである。音声認識が可能な言葉の登録方法や乱数等を用いた任意選択の手法については慣用技術に属することであるので、ここでは特に説明しない。
発話トリガー情報の選択方法は、ランダム選択に限るものではない。それまでに音声認識した言葉や、発話トリガー発生部234が送出した言葉を予め決められた時間の範囲内で記憶しておき、そこに含まれない言葉を選ぶという方法を取ることもできる。
The utterance trigger generation unit 234 refers to the voice recognition unit 232, and when there is no output from the voice recognition unit 232 to the behavior determination unit 215 for a predetermined time or more, the utterance corresponding to the user's response The trigger information is sent to the behavior determining unit 215.
The utterance trigger information is one word selected from words that can be recognized by the voice recognition unit 232, and is selected randomly (arbitrarily). Therefore, the utterance trigger information is either a topic selection command or a normal command. Since a method for registering words that can be recognized by speech and an arbitrary selection method using random numbers and the like belong to conventional techniques, they are not specifically described here.
The selection method of the utterance trigger information is not limited to random selection. It is also possible to take a method of storing words that have been recognized by speech or words sent by the utterance trigger generation unit 234 within a predetermined time range and selecting words that are not included therein.

言動決定部215は、接触認識部233から接触認識情報が送られてきたとき、あるいは、音声認識部232から音声認識結果(例えば予め決められた通常命令を含む)が送られてきたとき、さらには画像認識部231における人物認識用画像認識機能から1以上の人物認識結果が送られてきたとき、またアイテム探索実行部92からのアイテム探索に必要な動作要求が送られてきたとき、それらに応じてロボットの言動(例えば応答言動)を決定することができる。   When the contact recognition information is sent from the contact recognition unit 233 or the voice recognition result (for example, including a predetermined normal command) is sent from the voice recognition unit 232, the behavior determination unit 215 further When one or more person recognition results are sent from the image recognition function for person recognition in the image recognition unit 231, or when an operation request necessary for item search is sent from the item search execution unit 92, In response, the behavior (for example, response behavior) of the robot can be determined.

また、言動決定部215は、発話トリガー発生部234から発話トリガー情報が送られてきたときに、その発話トリガー情報が「おはよう」や「こんにちは」などの、予め決められた通常命令に含まれるとき、対応するロボットの言動(例えば応答言動)を決定する。   Moreover, behavior determining unit 215, when the speech trigger information from the speech trigger generator 234 is sent, the utterance trigger information such as "Good morning" or "Hello", when included in the normal instruction to a predetermined The behavior (for example, response behavior) of the corresponding robot is determined.

具体的には、言動決定部215は、シナリオ選択部215aと、動作パターン選択部215bと、コンテンツ生成部215cとを含む。   Specifically, the behavior determination unit 215 includes a scenario selection unit 215a, an operation pattern selection unit 215b, and a content generation unit 215c.

シナリオ選択部215aは、対応するシナリオをシナリオ情報記憶部125を参照して選択する。
シナリオ情報記憶部225には、音声認識語に対応する(応答文章および動作パターンを含む)シナリオが記憶されている。
応答文章に対応する動作パターンは、ロボットのアクチュエータ34A,34B,52A,52Bを動かす命令になっている。
また、シナリオ情報記憶部225には、タッチセンサ47、54が人間に触れられたときの応答動作も記憶されている。
The scenario selection unit 215a selects a corresponding scenario with reference to the scenario information storage unit 125.
The scenario information storage unit 225 stores a scenario corresponding to the voice recognition word (including a response sentence and an action pattern).
The operation pattern corresponding to the response text is a command to move the actuators 34A, 34B, 52A, 52B of the robot.
The scenario information storage unit 225 also stores a response operation when the touch sensors 47 and 54 are touched by a human.

シナリオ選択部215aは、音声認識部232から音声認識語を受け取ったとき、シナリオ情報記憶部225に記憶されているシナリオの中から一つを選択して、シナリオに記述された発話ファイル及びそれに関連づけられた動作パターンを示すモーションファイルなどをコンテンツ生成部115cへ送出する。
また、シナリオ選択部215aは、接触認識部233から接触認識情報を受け取ったとき、接触認識情報に対応する動作パターンをシナリオ情報記憶部225から選択し、シナリオに記述された発話ファイル及びそれに関連づけられた動作パターンを示すモーションファイルなどをコンテンツ生成部115cへ送出する。
タッチセンサ47、54および接触認識部233の構造によっては、接触力の強弱やその継続時間に応じた接触認識情報を生成し、シナリオ選択部215aによって接触認識情報に応じた動作パターンを選択するといったことも可能である。
When the scenario selection unit 215a receives a speech recognition word from the speech recognition unit 232, the scenario selection unit 215a selects one of the scenarios stored in the scenario information storage unit 225 and associates it with the utterance file described in the scenario. A motion file or the like indicating the received operation pattern is sent to the content generation unit 115c.
Further, when the scenario selection unit 215a receives the contact recognition information from the contact recognition unit 233, the scenario selection unit 215a selects an operation pattern corresponding to the contact recognition information from the scenario information storage unit 225, and is associated with the utterance file described in the scenario. A motion file indicating the operation pattern is sent to the content generation unit 115c.
Depending on the structure of the touch sensors 47 and 54 and the contact recognition unit 233, contact recognition information corresponding to the strength of the contact force and the duration thereof is generated, and an operation pattern corresponding to the contact recognition information is selected by the scenario selection unit 215a. It is also possible.

動作パターン選択部215bは、シナリオ選択部215aが読み込んだシナリオに基づき、動作パターン情報記憶部224からロボットの動作パターンを選択する。   The motion pattern selection unit 215b selects a robot motion pattern from the motion pattern information storage unit 224 based on the scenario read by the scenario selection unit 215a.

動作パターン情報記憶部224には、ロボットが発話を行う際に、効果的な愛くるしい表現が実行できるような各動作パターンが記憶される。
本実施の形態において、動作パターンは、ロボットの利用者に対する愛くるしい表現を胸LED群、顔LED群、頭部の2方向の動作などを制御する各動作パターン、発話ファイルなどを含む。
The motion pattern information storage unit 224 stores motion patterns that can execute effective and lovely expressions when the robot speaks.
In the present embodiment, the operation pattern includes each operation pattern that controls the movement of the chest LED group, the face LED group, the head in two directions, etc., a speech file, etc.

コンテンツ生成部215cは、シナリオ選択部215aの指示を受け、シナリオ選択部215aにて選択されたシナリオと、動作パターン選択部215bが選択した動作パターンとに基づき、シナリオ選択部215aにて選択された基本構成のシナリオ内に、様々な要求に応じて動作パターン選択部215bが選択した動作パターンを設定するようにして、コンテンツを生成する。   The content generation unit 215c receives an instruction from the scenario selection unit 215a, and is selected by the scenario selection unit 215a based on the scenario selected by the scenario selection unit 215a and the operation pattern selected by the operation pattern selection unit 215b. In the scenario of the basic configuration, the operation pattern selected by the operation pattern selection unit 215b is set according to various requests, and content is generated.

言動実行部217は、言動決定部115のコンテンツ生成部215cから発話する文章を示す発話ファイルとそれに対応する動作を示す各モーションファイルを含むコンテンツが送られてきたとき、発話ファイルに基づく発話コマンドを生成して音声合成部217aへ送出すると共に、対応する動作を示す各モーションファイルに基づく各駆動コマンドをメカ制御部217b及びLED制御部217cへ送出する。   The speech execution unit 217 receives an utterance command based on the utterance file when a content including an utterance file indicating a sentence to be uttered and a motion file indicating an operation corresponding to the utterance file is sent from the content generation unit 215c of the behavior determination unit 115. It is generated and sent to the voice synthesizer 217a, and each drive command based on each motion file indicating the corresponding operation is sent to the mechanical controller 217b and the LED controller 217c.

コンテンツ再生部(言動実行部)217は、言動実行制御手段の一例であり、通常状態では、ロボット10のコンテンツ生成部215cからの指示によりコンテンツに含まれる言動条件を実行する。
また、コンテンツ再生部(言動実行部)217は、遠隔管理などのサービスを受けている状態では、ロボット制御サーバ110におけるコンテンツ供給部116からの前記コンテンツを受信し、前記コンテンツに含まれる前記言動条件を実行する。いずれの言動条件を優先するかは設定条件次第である。
コンテンツ再生部(言動実行部)217は、メカ制御部(駆動制御部)217b、音声合成部217a、LED制御部217cを含む。
The content reproduction unit (speech execution unit) 217 is an example of a behavior execution control unit, and in a normal state, the content reproduction unit (speech execution unit) 217 executes a speech condition included in the content according to an instruction from the content generation unit 215c of the robot 10.
In addition, the content playback unit (speech execution unit) 217 receives the content from the content supply unit 116 in the robot control server 110 in a state where a service such as remote management is received, and the speech condition included in the content Execute. It depends on the setting condition which speech condition is given priority.
The content reproduction unit (speech execution unit) 217 includes a mechanical control unit (drive control unit) 217b, a voice synthesis unit 217a, and an LED control unit 217c.

コンテンツ再生部217は、コンテンツ生成部215cの指示又はロボット制御サーバ110からの指示を受け、コンテンツ記憶部118から該当するモーションファイルや発話ファイルを読み出し、ロボットのモーション再生のためのメカ駆動コマンドやロボットの発話コマンド、LED駆動コマンドを発行して、メカ制御部(駆動制御部)217b、音声合成部217a、LED制御部217cにそれぞれ実行し、シナリオ再生を実行する。   The content playback unit 217 receives an instruction from the content generation unit 215c or an instruction from the robot control server 110, reads a corresponding motion file or utterance file from the content storage unit 118, and performs a mechanical drive command or robot for robot motion playback. Are issued to the mechanical control unit (drive control unit) 217b, the voice synthesis unit 217a, and the LED control unit 217c to execute scenario reproduction.

音声合成部217aは、言動決定部215から与えられる文章から合成音声を生成し、出力手段の一部である音声出力制御部(不図示)へ供給する。
音声出力制御部には、音声合成部217aからの合成音のディジタルデータが供給されるようになっており、それらのディジタルデータを、アナログの音声信号にD/A変換し、スピーカ12(音声出力部)に供給して出力させる。
The speech synthesizer 217a generates a synthesized speech from the text given from the behavior determining unit 215, and supplies the synthesized speech to a speech output control unit (not shown) that is part of the output means.
The voice output control unit is supplied with digital data of the synthesized sound from the voice synthesizer 217a. The digital data is D / A converted into an analog voice signal and the speaker 12 (voice output). To be output.

メカ制御部217bは、言動決定部215からのコンテンツに含まれる動作パターン(アクチュエータ動作パターン)に基づいて、アクチュエータ34A,34B,52A,52Bを各々駆動するための各駆動制御信号を生成し、これをアクチュエータ34A,34B,52A,52Bへ送出する。これにより、アクチュエータ34A,34B,52A,52Bは、各駆動制御信号にしたがって駆動し、ロボット10を動作させる。   The mechanical control unit 217b generates each drive control signal for driving each of the actuators 34A, 34B, 52A, 52B based on the operation pattern (actuator operation pattern) included in the content from the behavior determining unit 215, Is sent to the actuators 34A, 34B, 52A, 52B. Thus, the actuators 34A, 34B, 52A, 52B are driven according to the respective drive control signals to operate the robot 10.

LED制御部217c(点灯制御部)は、言動決定部215からのコンテンツに含まれる動作パターン(LED動作パターン)に基づいて、胸LED群45,顔LED群57,目LED群58,耳LED群56,その他の各種LED群46を各々駆動するための各点灯制御信号を生成し、これを胸LED群45,顔LED群57,目LED群58,耳LED群56,その他の各種LED群46へ送出する。これにより、胸LED群45,顔LED群57,目LED群58,耳LED群56,その他の各種LED群46は、各点灯制御信号にしたがって点滅する。   The LED control unit 217c (lighting control unit) is based on an operation pattern (LED operation pattern) included in the content from the behavior determining unit 215, and includes a chest LED group 45, a face LED group 57, an eye LED group 58, and an ear LED group. 56, each lighting control signal for driving each of the other various LED groups 46 is generated, which is generated as a chest LED group 45, a face LED group 57, an eye LED group 58, an ear LED group 56, and other various LED groups 46. To send. Thereby, the chest LED group 45, the face LED group 57, the eye LED group 58, the ear LED group 56, and the other various LED groups 46 blink according to each lighting control signal.

以上のような前提となる基本構成に加えて、本実施の形態では以下のような特徴的構成を有する。   In addition to the basic configuration as the premise as described above, the present embodiment has the following characteristic configuration.

アイテム探索実行部92(アイテム探索実行手段)は、ロボット制御サーバ110におけるアイテム探索制御部114からのアイテム探索要求に応じて前記アイテムの探索を実行する。   The item search execution unit 92 (item search execution means) executes a search for the item in response to an item search request from the item search control unit 114 in the robot control server 110.

アイテム探索実行部92は、第1のアイテム探索実行部92aを有し、この第1のアイテム探索実行部92aは、ロボット制御サーバ110からの第1のアイテム探索要求に基づいて、先ずCCDカメラ51A、51Bが特定の第1の方向を向いた状態で第1の視野中の周囲環境における第1画像を取得し、画像認識部231により前記第1の視野中における各物品の各特徴点パターンを抽出し、特徴点パターン情報(画像認識情報)を収集する。
次に、第1のアイテム探索実行部92aは、前記第1の方向から他の第2の方向にCCDカメラ51A、51Bを移動させ(アクチュエータ51A、51B、34A、34B、を駆動させる)、第2の方向を向いた状態で第2の視野中の周囲環境における第2画像を取得し、画像認識部231により前記第2の視野中における各物品の各特徴点パターンを抽出し、特徴点パターン情報(画像認識情報)を収集する。
更に、第1のアイテム探索実行部92aは、順次CCDカメラ51A、51Bの向きを移動させ(アクチュエータ51A、51B、34A、34B、を駆動させる)、左右360度、上下180度の全方角についての各視野中の周囲環境における各画像を取得し、画像認識部231により前記各視野中における各物品の各特徴点パターンを各々抽出し、特徴点パターン情報(画像認識情報)を収集する。
そして、第1のアイテム探索実行部92aは、収集された特徴点パターン情報(画像認識情報)を順次ないしはまとめてロボット制御サーバ110に送信する。
本実施の形態では、管理側主導の例であるので、物品の検出判定をロボット制御サーバ110側で行うこととしている。このため、ロボット10側で物品判定用の特徴点パターン情報記憶部(DB)をもつ必要がなく、メモリ22B消費量を低減して応答速度を向上させることができる。
このように、第1のアイテム探索実行部92aは、ロボット10が備えるCCDカメラ(画像取得部)から取得した画像情報をもとに画像認識機能によりロボットの周囲にある各種物品を識別するための情報収集を行う。
The item search execution unit 92 includes a first item search execution unit 92a. The first item search execution unit 92a first starts with the CCD camera 51A based on the first item search request from the robot control server 110. , 51B is in a specific first direction, the first image in the surrounding environment in the first field of view is acquired, and the feature point pattern of each article in the first field of view is acquired by the image recognition unit 231. Extract and collect feature point pattern information (image recognition information).
Next, the first item search execution unit 92a moves the CCD cameras 51A and 51B from the first direction to the other second direction (drives the actuators 51A, 51B, 34A, and 34B), and the first The second image in the surrounding environment in the second field of view is acquired in the state of facing the direction 2, and the feature point pattern of each article in the second field of view is extracted by the image recognition unit 231 to obtain the feature point pattern. Collect information (image recognition information).
Further, the first item search execution unit 92a sequentially moves the directions of the CCD cameras 51A and 51B (drives the actuators 51A, 51B, 34A, and 34B), and performs 360 ° left and right and 180 ° up and down all directions. Each image in the surrounding environment in each field of view is acquired, each feature point pattern of each article in each field of view is extracted by the image recognition unit 231, and feature point pattern information (image recognition information) is collected.
Then, the first item search execution unit 92a sequentially or collectively transmits the collected feature point pattern information (image recognition information) to the robot control server 110.
In the present embodiment, since it is an example led by the management side, the article detection determination is performed on the robot control server 110 side. For this reason, it is not necessary to have the feature point pattern information storage unit (DB) for article determination on the robot 10 side, and the consumption speed of the memory 22B can be reduced and the response speed can be improved.
As described above, the first item search execution unit 92a identifies various articles around the robot by the image recognition function based on the image information acquired from the CCD camera (image acquisition unit) provided in the robot 10. Collect information.

ここで、第1のアイテム探索実行部92aは、順次CCDカメラ51A、51Bの向きを移動させるようにアクチュエータ51A、51B、34A、34Bを駆動させる必要があるが、この駆動制御は、動作パターン情報記憶部224にアイテム探索用動作パターンを記憶させておき、動作パターン選択部215bに該パターンを選択するようにソフトウエア的に制御してもよいし、通常行うロボットの言動実行とは独立して探索専用の回路などによってアクチュエータ51A、51B、34A、34Bの駆動制御を行うようにしてもよい。さらには、探索専用のCCDカメラを回動可能に他に設け(物品探索用画像取得部)、収集するようにしてもよい。   Here, the first item search execution unit 92a needs to drive the actuators 51A, 51B, 34A, and 34B so as to sequentially move the directions of the CCD cameras 51A and 51B. The operation pattern for item search may be stored in the storage unit 224, and the operation pattern selection unit 215b may be controlled by software so that the pattern is selected. The drive control of the actuators 51A, 51B, 34A, and 34B may be performed by a dedicated search circuit or the like. Furthermore, a CCD camera dedicated for search may be provided in a rotatable manner (article search image acquisition unit) for collection.

又、アイテム探索実行部92は、第2のアイテム探索実行部92bを有し、この第2のアイテム探索実行部92bは、ロボット制御サーバ110からの第2のアイテム探索要求に基づいて、先ずタグリーダ44が特定の第1の方向の周囲環境におけるタグ識別情報を取得し、第1の方向における各物品のタグ識別情報を収集する。
次に、第2のアイテム探索実行部92bは、前記第1の方向から他の第2の方向にタグリーダ44を移動させ(アクチュエータ51A、51B、34A、34B、を駆動させる)、第2の方向を向いた状態で周囲環境におけるタグ識別情報を取得し、第2の方向における各物品のタグ識別情報を収集する。
更に、第2のアイテム探索実行部92bは、順次タグリーダ44を移動させ(アクチュエータ51A、51B、34A、34B、を駆動させる)、左右360度、上下180度の全方角についての周囲環境における各物品のタグ識別情報を取得し収集する。
そして、第2のアイテム探索実行部92bは、収集されたタグ識別情報を順次ないしはまとめてロボット制御サーバ110に送信する。
本実施の形態では、管理側主導の例であるので、物品の検出判定をロボット制御サーバ110側で行うこととしている。このため、ロボット10側で物品判定用のタグ識別情報記憶部(DB)をもつ必要がなく、メモリ22B消費量を低減して応答速度を向上させることができる。
このように、第2のアイテム探索実行部92bは、ロボット10が備えるタグリーダ(タグ識別情報取得部)から取得したタグ識別情報をロボットの周囲にある各種物品について情報収集を行う。
Further, the item search execution unit 92 includes a second item search execution unit 92b. The second item search execution unit 92b is based on the second item search request from the robot control server 110, and is first a tag reader. 44 acquires tag identification information in the surrounding environment in a specific first direction, and collects tag identification information of each article in the first direction.
Next, the second item search execution unit 92b moves the tag reader 44 from the first direction to another second direction (actuates the actuators 51A, 51B, 34A, and 34B), and the second direction. The tag identification information in the surrounding environment is acquired in the state of facing, and the tag identification information of each article in the second direction is collected.
Further, the second item search execution unit 92b sequentially moves the tag reader 44 (actuates the actuators 51A, 51B, 34A, and 34B), and each item in the surrounding environment for all directions of 360 degrees left and right and 180 degrees up and down. Acquire and collect tag identification information.
Then, the second item search execution unit 92b sequentially or collectively transmits the collected tag identification information to the robot control server 110.
In the present embodiment, since it is an example led by the management side, the article detection determination is performed on the robot control server 110 side. For this reason, it is not necessary to have a tag identification information storage unit (DB) for article determination on the robot 10 side, and the memory 22B consumption can be reduced and the response speed can be improved.
As described above, the second item search execution unit 92b collects information on the tag identification information acquired from the tag reader (tag identification information acquisition unit) included in the robot 10 for various articles around the robot.

また、第2のアイテム探索実行部92bは、タグリーダ44により予め物品に取り付けられた識別タグのタグ識別情報を読み取る処理を行い、目的のタグ識別情報を有する識別タグの位置情報を取得可能な位置情報取得機能を備える。   In addition, the second item search execution unit 92b performs a process of reading the tag identification information of the identification tag attached to the article in advance by the tag reader 44, and the position where the position information of the identification tag having the target tag identification information can be acquired. An information acquisition function is provided.

ここで、第2のアイテム探索実行部92bは、順次タグリーダ44を移動させるようにアクチュエータ51A、51B、34A、34Bを駆動させる必要があるが、この駆動制御は、動作パターン情報記憶部224にアイテム探索用動作パターンを記憶させておき、動作パターン選択部215bに該パターンを選択するようにソフトウエア的に制御してもよいし、通常行うロボットの言動実行とは独立して探索専用の回路などによってアクチュエータ51A、51B、34A、34Bの駆動制御を行うようにしてもよい。さらには、タグリーダを回動可能に設け、収集するようにしてもよい。   Here, the second item search execution unit 92b needs to drive the actuators 51A, 51B, 34A, and 34B so as to sequentially move the tag reader 44. This drive control is performed by the operation pattern information storage unit 224. An operation pattern for search may be stored, and the operation pattern selection unit 215b may be controlled by software so as to select the pattern. Thus, the drive control of the actuators 51A, 51B, 34A, and 34B may be performed. Furthermore, a tag reader may be provided so as to be rotatable and collected.

また、アイテム探索実行部92は、ロボットが所在する位置の近傍や周囲における環境情報(どの位置にどのような物品があるのか)を取得することもできる。
アイテム探索実行部92は、たとえば、2以上のCCDカメラ、温度センサ等の人体検知センサ、超音波タグセンサ、無線タグセンサ等各取得部からの情報をもとに探索するこもできる。
In addition, the item search execution unit 92 can also acquire environmental information (what kind of article is present at which position) in the vicinity of and around the position where the robot is located.
The item search execution unit 92 can also search based on information from each acquisition unit such as two or more CCD cameras, a human body detection sensor such as a temperature sensor, an ultrasonic tag sensor, and a wireless tag sensor.

(LED制御について)
LED制御部217cは、LEDの点滅速度を制御する。これにより、ロボットの心拍状態を擬似的に表現できる。
(About LED control)
The LED control unit 217c controls the blinking speed of the LED. Thereby, the heartbeat state of the robot can be simulated.

LED制御部217cは、各LEDの表示色パターンを制御する。これにより、ロボットの欲求状態を利用者は視認できる。   The LED control unit 217c controls the display color pattern of each LED. Thereby, the user can visually recognize the desire state of the robot.

また、LED制御部217cは、ロボットの欲求状態を表示する第1モードと、特別に表現すべきロボットの欲求の解消状況を表示する第2モードとを適宜切り替え選択制御するモード制御機能を備える。   In addition, the LED control unit 217c has a mode control function that appropriately switches and controls between a first mode that displays the desire state of the robot and a second mode that displays the cancellation status of the robot's desire to be specially expressed.

第1モードでは、例えばマズローの欲求段階にほぼ対応するように予め定義されたロボットの欲求段階に応じた表示パターンにて表示制御することができる。
例えば、第1欲求表示段階(タスク実現の欲求)では、利用者を楽しませたり、利用者に役立ったりしたいという欲求を示し、白とタスクの象徴色(第1の表示色パターン)を表示するように表示制御する。
また、第2欲求表示段階(コミュニケーションの欲求)では、利用者とのやりとりを上手くやりたいという欲求を示し、白(第2の表示色パターン)を表示するように表示制御する。
さらに、第3欲求表示段階(関係の欲求)では、他者と関わりたいという欲求を示し、オレンジ(第3の表示色パターン)を表示するように表示制御する。
さらにまた、第4欲求表示段階(安全の欲求)では、自分の身を守りたいという欲求を示し、赤(第4の表示色パターン)を表示するように表示制御する。
これらのうち、第1モードで心拍が通常(第1の点滅速度)の場合、
対話モード、自律行動モード、伝言や顔登録などタスク系サブシナリオモードにおいて表示制御することが好ましい。
一方、第1モードで心拍が早い(第2の点滅速度)の場合、なぞなぞやまいとなどエンタメ系サブシナリオモード、自動充電モード、緊急モードにおいて表示制御することが好ましい。
In the first mode, for example, display control can be performed with a display pattern corresponding to a robot's desire level that is defined in advance so as to substantially correspond to Maslow's desire level.
For example, in the first desire display stage (the desire for task realization), the desire to entertain the user or be useful to the user is displayed, and white and the symbol color of the task (first display color pattern) are displayed. Display control as follows.
Further, in the second desire display stage (communication desire), the display control is performed so as to display a white (second display color pattern) indicating a desire to exchange with the user well.
Further, in the third desire display stage (relationship desire), the desire to be involved with another person is shown, and display control is performed to display orange (third display color pattern).
Furthermore, in the fourth desire display stage (safety desire), the desire to protect oneself is displayed, and display control is performed to display red (fourth display color pattern).
Of these, if the heart rate is normal (first blinking speed) in the first mode,
It is preferable to perform display control in a task system sub-scenario mode such as a dialogue mode, an autonomous action mode, a message, and face registration.
On the other hand, when the heart rate is fast in the first mode (second blinking speed), display control is preferably performed in the entertainment sub-scenario mode such as riddles and performances, the automatic charging mode, and the emergency mode.

第2モードでは、ユーザからの設定入力によって、特別に表現したいリアクションを実行できる。
この第2モード(特別演出状態)では、ほめられ反応モードやダンスモード、歌モードにおいて表示制御することが好ましい。
表示色パターンの例としては例えば「嬉しい」場合はピンク、「楽しい」場合は3色、設定中は青などが挙げられる。
この場合、3色以上の組み合わせでは、明るい色、中間の色、暗い色を組み合わせる。
色を組み合わせる場合、暖色系と寒色系を組み合わせたり、色合い(色相)だけでなく見た目の明るさが異なる2色を組み合わせることが好ましい。
In the second mode, a reaction to be specifically expressed can be executed by a setting input from the user.
In the second mode (special effect state), display control is preferably performed in the praise reaction mode, dance mode, and song mode.
Examples of display color patterns include pink for “happy”, three colors for “fun”, and blue during setting.
In this case, a combination of three or more colors combines a light color, an intermediate color, and a dark color.
When combining colors, it is preferable to combine warm colors and cold colors, or to combine two colors that differ not only in hue (hue) but also in appearance.

例えば、「嬉しい」場合の表示パターンの例として、図8及び図9が挙げられる。図8では、胸LED群45のうちLED45a(第1表示部)、LED45b(第2表示部)、LED45c(第3表示部)の3つをハート型に配置し、ハートイメージを構成する。この場合の各LED45a、45b、45cの点灯パターンは、図9に示すように、第1の輝度(例えば0)と第2の輝度との間で変化させるパターンと、第1の輝度(例えば0)と第2の輝度より高い第3の輝度との間で変化させるパターンとを交互に繰り返し、3粒同時に次第に輝度を上げ点灯する第1の感情表示パターンとしている。   For example, FIGS. 8 and 9 are examples of display patterns in the case of “happy”. In FIG. 8, in the chest LED group 45, three LEDs 45a (first display unit), LED 45b (second display unit), and LED 45c (third display unit) are arranged in a heart shape to form a heart image. As shown in FIG. 9, the lighting pattern of each LED 45a, 45b, 45c in this case is a pattern that changes between the first luminance (for example, 0) and the second luminance, and the first luminance (for example, 0). ) And a pattern that changes between the third luminance higher than the second luminance are alternately repeated, and the first emotion display pattern in which the luminance is gradually increased and lighted at the same time for three grains.

また、例えば、「楽しい」場合の表示パターンの例として、図10及び図11が挙げられる。図10では、胸LED群45のうちLED45a(第1表示部)、LED45b(第2表示部)、LED45c(第3表示部)の3つをハート型に配置し、ハートイメージを構成する。この場合の各LED45a、45b、45cの表示色パターンは、各LED45a、45b、45cを赤、ピンク、オレンジとする第1サブ表示色パターンと、各LED45a、45b、45cを全てオレンジとする第2サブ表示色パターンと、各LED45a、45b、45cを全てピンクとする第3サブ表示色パターンと、を有し、第1サブ表示色パターン、第2サブ表示色パターン、第1サブ表示色パターン、第3サブ表示色パターンを交互に繰り返す表示色パターンとしている。これにより、各LED45a、45b、45cを各LED45c、45b、45aの順に回転するイメージを作り出すことができる。
さらに、図11に示すように、第1サブ表示色パターンにおける第1サブ点灯パターンは、第1の輝度と第2の輝度との間で第1周期にて3粒変化させるパターンとする。また、第2、第3サブ表示色パターンにおける第2サブ点灯パターンは、第1の輝度と第2の輝度との間で第1周期の半分の第2周期にて変化させるパターンとする。この際、各LED45c、45a、45b、45cの順に点灯し、これらを組み合わせてる第2の感情表示パターンとしている。
For example, FIGS. 10 and 11 are examples of display patterns in the case of “fun”. In FIG. 10, three LEDs 45a (first display unit), LED 45b (second display unit), and LED 45c (third display unit) in the chest LED group 45 are arranged in a heart shape to form a heart image. In this case, the display color patterns of the LEDs 45a, 45b, and 45c are the first sub-display color pattern that sets the LEDs 45a, 45b, and 45c to red, pink, and orange, and the second that sets all the LEDs 45a, 45b, and 45c to orange. A sub display color pattern and a third sub display color pattern in which each of the LEDs 45a, 45b, and 45c is all pink. A first sub display color pattern, a second sub display color pattern, a first sub display color pattern, The third sub display color pattern is a display color pattern that repeats alternately. Thereby, the image which rotates each LED45a, 45b, 45c in order of each LED45c, 45b, 45a can be created.
Furthermore, as shown in FIG. 11, the first sub lighting pattern in the first sub display color pattern is a pattern in which three grains are changed in the first period between the first luminance and the second luminance. In addition, the second sub lighting pattern in the second and third sub display color patterns is a pattern that is changed between the first luminance and the second luminance in the second period which is half of the first period. At this time, the LEDs 45c, 45a, 45b, and 45c are lit in the order, and the second emotion display pattern is formed by combining them.

また、例えば、盛り上がり系サブシナリオとして「なぞなぞ、お話」など場合の表示パターンの例として、図12及び図13が挙げられる。図12では、胸LED群45のうちLED45c(第3表示部)、LED45d(第4表示部)の2つを異なる大きさの表示パターンを構成する。この場合の各LED45c、45dの表示色パターンは、各LED45c、dをピンク、白とする表示色パターンを有する。
さらに、図13に示すように、LED45dの第1点灯パターンは、第1の輝度と第2の輝度との間で第1周期にて変化させるパターンとする。また、LED45cの第2点灯パターンは、第1の輝度と第2の輝度より低い第3の輝度との間で第1周期にて変化させ、第1の輝度の期間を第2の輝度の期間よりも長くするパターンとする。これらを組み合わせてる第3の感情表示パターンとしている。
これにより、白とピンクのパターンと白のみのパターンとが交互に繰り返し、楽しいコンテンツを一緒に行い心拍が早いイメージを作り出すことができる。
このようにして、ダンスなどの演劇的表現が増大し、エンタテイメントにも適するロボットを提供できる。
Further, for example, FIGS. 12 and 13 are examples of display patterns in the case of “mystery, story” as the climax subscenario. In FIG. 12, two LEDs 45c (third display unit) and LED 45d (fourth display unit) in the chest LED group 45 constitute display patterns having different sizes. The display color patterns of the LEDs 45c and 45d in this case have display color patterns in which the LEDs 45c and d are pink and white.
Furthermore, as shown in FIG. 13, the first lighting pattern of the LED 45 d is a pattern that changes between the first luminance and the second luminance in the first period. The second lighting pattern of the LED 45c is changed in the first period between the first luminance and the third luminance lower than the second luminance, and the first luminance period is changed to the second luminance period. The pattern is made longer than that. The third emotion display pattern is a combination of these.
Thereby, a white and pink pattern and a white-only pattern are alternately repeated, and it is possible to create an image with a fast heartbeat by performing fun content together.
In this way, theatrical expressions such as dance increase, and a robot suitable for entertainment can be provided.

以上の各表示パターンは、動作パターン情報記憶部224に記憶され、シナリオや外部情報、アイテムの種類などに応じて動作パターン選択部215bにより適宜選択変更され、LED制御部217cが選択されたパターンを実行制御する。   Each display pattern described above is stored in the operation pattern information storage unit 224, and is appropriately selected and changed by the operation pattern selection unit 215b according to the scenario, external information, item type, and the like, and the LED control unit 217c selects the selected pattern. Control execution.

(遠隔管理装置の詳細構成)
図5は、ロボット制御サーバの詳細構成の一例を示すブロック図である。
遠隔管理装置の一例であるロボット制御サーバ110は、図5に示すように、取得手段としての外部情報取得部112と、アイテム決定手段としての関連アイテム情報決定部113と、アイテム探索制御手段としてのアイテム探索制御部114と、言動決定手段としての言動決定部115と、コンテンツ供給手段としてコンテンツ供給部116と、関連アイテム情報記憶部121と、特徴点パターン情報記憶部122と、タグ識別情報記憶部123と、動作パターン情報記憶部124と、シナリオ情報記憶部125と、コンテンツ記憶部126とを含む。
(Detailed configuration of remote management device)
FIG. 5 is a block diagram illustrating an example of a detailed configuration of the robot control server.
As shown in FIG. 5, the robot control server 110, which is an example of a remote management device, includes an external information acquisition unit 112 as an acquisition unit, a related item information determination unit 113 as an item determination unit, and an item search control unit. Item search control unit 114, behavior determination unit 115 as a behavior determination unit, content supply unit 116 as a content supply unit, related item information storage unit 121, feature point pattern information storage unit 122, and tag identification information storage unit 123, an operation pattern information storage unit 124, a scenario information storage unit 125, and a content storage unit 126.

外部情報取得部112は、利用者のロボット10に対する言動要求又は所定の時刻に生成されるサービス開始要求に基づいて、情報提供空間が構築された通信網NWを通じて外部情報を取得する。
例えば、天気情報のサービスをうけるサービス提供開始時刻を予め利用者が登録の際に設定すると、現在時刻が当該時刻に至ったかどうかをチェックし、前記時刻であると判定された場合には、シナリオ選択部115aは、シナリオ情報記憶部125からサービス内容に応じたシナリオを読み込む。
外部情報取得部112が、外部情報を取得する際、情報提供サーバに対して情報検索を行い、外部情報を得ることになる。
ここでは、例えば天気予報サービスに対応するシナリオを選択した場合、当該シナリオに記述された天気予報情報の提供サイト(情報提供サーバ)にアクセスし、ロボットが所在する位置に応じた天気予報情報を取得する。
The external information acquisition unit 112 acquires external information through the communication network NW in which the information providing space is constructed based on a request for behavior of the user to the robot 10 or a service start request generated at a predetermined time.
For example, when the user provides a service provision start time for receiving weather information service in advance during registration, the current time is checked to see if it has reached the time. The selection unit 115a reads a scenario corresponding to the service content from the scenario information storage unit 125.
When the external information acquisition unit 112 acquires external information, the external information acquisition unit 112 searches the information providing server for information and obtains external information.
Here, for example, when a scenario corresponding to the weather forecast service is selected, the weather forecast information providing site (information providing server) described in the scenario is accessed, and the weather forecast information corresponding to the position where the robot is located is acquired. To do.

関連アイテム情報記憶部121は、外部情報と、この外部情報に関連するアイテムとが対応づけられて記憶されている。
外部情報が例えば天気予報の天候情報「雨」である場合には、関連するアイテムとして例えば「傘」などが挙げられる。このため、「雨」と「傘」とが対応づけられている。
The related item information storage unit 121 stores external information and items related to the external information in association with each other.
If the external information is, for example, the weather information “rain” in the weather forecast, “umbrella” or the like may be cited as a related item. For this reason, “rain” and “umbrella” are associated with each other.

関連アイテム情報決定部113は、関連アイテム情報記憶部121を参照し、外部情報に関連するアイテム(関連アイテム)を決定する。さらに、関連アイテム情報決定部113は、関連アイテム情報が得られた場合、得られた関連アイテム情報及び外部情報をアイテム探索制御部114に送出する。一方、関連アイテム情報決定部113は、関連アイテム情報が得られない場合、外部情報を言動決定部115の動作パターン選択部115bに送出する。   The related item information determination unit 113 refers to the related item information storage unit 121 and determines an item (related item) related to external information. Furthermore, when related item information is obtained, the related item information determination unit 113 sends the obtained related item information and external information to the item search control unit 114. On the other hand, when the related item information cannot be obtained, the related item information determination unit 113 sends the external information to the operation pattern selection unit 115b of the behavior determination unit 115.

例えば、関連アイテム情報決定部113は、外部情報が「雨」の場合、関連アイテムを「傘」と決定し、得られた「傘」という関連アイテム情報をアイテム探索制御部114に送出する。一方、関連アイテム情報決定部113は、外部情報が「晴れ」の場合、関連アイテムが見つからず、「晴れ」という外部情報を動作パターン選択部115bに送出する。   For example, when the external information is “rain”, the related item information determination unit 113 determines the related item as “umbrella” and sends the obtained related item information “umbrella” to the item search control unit 114. On the other hand, when the external information is “sunny”, the related item information determination unit 113 does not find the related item and sends the external information “sunny” to the operation pattern selection unit 115b.

アイテム探索制御部114は、前記アイテムがロボット10の周辺にあるかどうかをロボット10に探索させるための制御をし、前記アイテムの有無を判定する。
アイテム探索制御部114は、このアイテム探索実行部92により得られた情報をもとにアイテム探索を行う。すなわち、前記アイテム探索制御部114は、前記アイテムの有無を画像認識情報により探索する第1のアイテム探索制御部114aを備える。また、アイテム探索制御部114は、前記画像認識情報により前記アイテムが無いと判定された場合に、前記アイテムの有無を予め前記アイテムに備えた無線電子タグからのタグ識別情報により探索する第2のアイテム探索制御部114bを備える。
The item search control unit 114 performs control for causing the robot 10 to search whether or not the item is in the vicinity of the robot 10 and determines the presence or absence of the item.
The item search control unit 114 performs an item search based on the information obtained by the item search execution unit 92. That is, the item search control unit 114 includes a first item search control unit 114a that searches for the presence / absence of the item using image recognition information. In addition, when it is determined that the item does not exist based on the image recognition information, the item search control unit 114 searches for presence / absence of the item based on tag identification information from a wireless electronic tag provided in the item in advance. An item search control unit 114b is provided.

第1のアイテム探索制御部114aは、ロボット10の第1のアイテム探索実行部92aに対し第1のアイテム探索要求を送出し、ロボット10に関連アイテムの探索を実行させる。この際、CCDカメラ51A、51Bから得られた画像をもとに画像認識を行い関連アイテムの探索を行う。   The first item search control unit 114a sends a first item search request to the first item search execution unit 92a of the robot 10 to cause the robot 10 to search for related items. At this time, image recognition is performed based on images obtained from the CCD cameras 51A and 51B to search for related items.

特徴点パターン情報記憶部122は、予め登録段階で、ロボットの周辺にある各種物品の特徴点パターン情報(既登録特徴点パターン情報)が物品識別子とともに記憶されている。
第1のアイテム探索制御部114aは、ロボット10が収集して画像認識処理をした画像認識情報をロボット10より受信し、特徴点パターン情報記憶部122を参照してマッチング処理を行う。
The feature point pattern information storage unit 122 stores in advance the feature point pattern information (registered feature point pattern information) of various articles around the robot together with the article identifier at the registration stage.
The first item search control unit 114 a receives image recognition information collected by the robot 10 and subjected to image recognition processing from the robot 10, and performs matching processing with reference to the feature point pattern information storage unit 122.

第1のアイテム探索制御部114aは、関連アイテムを見つけた場合、関連アイテム情報を外部情報とともに動作パターン選択部115bに送出する。一方、第1のアイテム探索制御部114aは、関連アイテムが見つからない場合、第2のアイテム探索制御部114bに指示を行うとともに関連アイテム情報及び外部情報を第2のアイテム探索制御部114bに送出する。   When the first item search control unit 114a finds a related item, the first item search control unit 114a sends the related item information together with external information to the operation pattern selection unit 115b. On the other hand, when the related item is not found, the first item search control unit 114a instructs the second item search control unit 114b and sends the related item information and the external information to the second item search control unit 114b. .

第2のアイテム探索制御部114bは、ロボット10の第2のアイテム探索実行部92bに対し第2のアイテム探索要求を送出し、ロボット10に関連アイテムの探索を実行させる。この際、タグリーダ44から得られたタグ識別情報により関連アイテムの探索を行う。   The second item search control unit 114b sends a second item search request to the second item search execution unit 92b of the robot 10 to cause the robot 10 to search for related items. At this time, the related item is searched for based on the tag identification information obtained from the tag reader 44.

タグ識別情報記憶部123は、予め登録段階で、ロボットの周辺にある各種物品に取り付けられた無線電子タグのタグ識別情報(既登録タグ識別情報)が記憶されている。
第2のアイテム探索制御部11baは、ロボット10が収集したタグ識別情報をロボット10より受信し、タグ識別情報記憶部123を参照して前記関連アイテムに対応する物品があるかどうかの探索を行う。
The tag identification information storage unit 123 stores tag identification information (registered tag identification information) of wireless electronic tags attached to various articles around the robot in advance at the registration stage.
The second item search control unit 11ba receives the tag identification information collected by the robot 10 from the robot 10, and searches the tag identification information storage unit 123 to determine whether there is an article corresponding to the related item. .

第2のアイテム探索制御部114bは、関連アイテムを見つけた場合、関連アイテム情報とともに外部情報を動作パターン選択部115bに送出する。一方、第2のアイテム探索制御部114bは、関連アイテムが見つからない場合、関連アイテムがない旨の通知を外部情報とともに言動実行部115の動作パターン選択部115bに送出する。   When the second item search control unit 114b finds the related item, the second item search control unit 114b sends the external information together with the related item information to the operation pattern selection unit 115b. On the other hand, when the related item is not found, the second item search control unit 114b sends a notification that there is no related item to the operation pattern selection unit 115b of the behavior execution unit 115 together with external information.

例えば、第1のアイテム探索制御部114aは、関連アイテム情報が「傘」である場合、前記「傘」がロボット10の周辺にあるかどうかをロボット10に探索させる。
第1のアイテム探索制御部114aは、画像認識により「傘」を見つけた場合、関連アイテム情報「傘」を外部情報「雨」とともに動作パターン選択部115bに送出する。一方、第1のアイテム探索制御部114aは、「傘」が見つからない場合、第2のアイテム探索制御部114bに指示する。
第2のアイテム探索制御部114bは、タグ識別情報により「傘」を探索する。第2のアイテム探索制御部114bは、タグ識別情報により「傘」を見つけた場合、関連アイテム情報「傘」を外部情報「雨」とともに動作パターン選択部115bに送出する。一方、第2のアイテム探索制御部114aは、「傘」が見つからない場合、関連アイテムがない旨の通知を外部情報「雨」とともに言動実行部115の動作パターン選択部115bに送出する。
このように、アイテム探索制御部114は、アイテムが鞄の中にあるなど画像認識によりアイテムを発見できない場合でも、タグ識別情報によりアイテムを見つけ出すことができる。
For example, when the related item information is “umbrella”, the first item search control unit 114 a causes the robot 10 to search whether the “umbrella” is around the robot 10.
When the first item search control unit 114a finds “umbrella” by image recognition, the first item search control unit 114a sends the related item information “umbrella” together with the external information “rain” to the operation pattern selection unit 115b. On the other hand, when the “umbrella” is not found, the first item search control unit 114a instructs the second item search control unit 114b.
The second item search control unit 114b searches for “umbrella” based on the tag identification information. When the second item search control unit 114b finds “umbrella” by the tag identification information, the second item search control unit 114b sends the related item information “umbrella” together with the external information “rain” to the operation pattern selection unit 115b. On the other hand, when the “umbrella” is not found, the second item search control unit 114a sends a notification that there is no related item to the operation pattern selection unit 115b of the behavior execution unit 115 together with the external information “rain”.
As described above, the item search control unit 114 can find an item by tag identification information even when the item cannot be found by image recognition such as when the item is in a bag.

アイテム探索制御部114は、取得した環境情報を解析し、ロボットの近傍にある物品の種類、およびそれらの物品のロボットに対する位置を把握する。   The item search control unit 114 analyzes the acquired environment information and grasps the types of articles in the vicinity of the robot and the positions of those articles with respect to the robot.

アイテム探索制御部114は、取得した画像から物品と識別される領域を抜き出す検出を行う。
つづいて、アイテム探索制御部114は、検出した物品画像の大きさおよび形状、ならびにロボットの位置に基づき、ロボットの近傍にいる物品の種類、各物品のロボットに対する位置(角度および距離)を推定する。
The item search control unit 114 performs detection for extracting an area identified as an article from the acquired image.
Subsequently, the item search control unit 114 estimates the type of the article in the vicinity of the robot and the position (angle and distance) of each article with respect to the robot based on the size and shape of the detected article image and the position of the robot. .

また、予め物品画像と、その属性情報との対応データ等を取得しておき、アイテム探索部により物品の画像認識を行い、物品の有無の判定を行う。   Also, correspondence data between the article image and its attribute information is acquired in advance, and the item search unit performs image recognition of the article to determine the presence or absence of the article.

また、アイテム探索制御部114は、タグリーダから取得した情報をもとに探索することもできる。たとえば、予め物品に識別情報や属性情報を記憶したタグを付与しておくことができる。
この場合、アイテム探索制御部114は、タグリーダにより、タグから情報を読み取ることにより、ロボットの近傍にいる物品の種類、各物品のロボットに対する位置を推定することができる。
The item search control unit 114 can also search based on information acquired from the tag reader. For example, a tag storing identification information and attribute information in advance can be attached to the article.
In this case, the item search control unit 114 can estimate the type of the article in the vicinity of the robot and the position of each article with respect to the robot by reading information from the tag with the tag reader.

アイテム探索制御部114は、把握した物品の種類や位置等の状況を 記憶部 に記憶する。
アイテム探索制御部114は、取得する情報および記憶部に記憶された情報に基づき、物品配置の変化も検出する。
The item search control unit 114 stores the grasped status such as the type and position of the article in the storage unit.
The item search control unit 114 also detects a change in the article arrangement based on the information to be acquired and the information stored in the storage unit.

言動決定部115は、アイテム探索制御部114にて前記アイテムがあると判定された場合、前記利用者に対して前記外部情報及び前記アイテムを含む情報を告知するように前記ロボットの言動条件を決定しこの言動条件をコンテンツとして生成する。   When the item search control unit 114 determines that the item is present, the behavior determination unit 115 determines the behavior condition of the robot so as to notify the user of the external information and information including the item. This behavioral condition is generated as content.

シナリオ情報記憶部125は、ロボットの振る舞いについて記載されたシナリオを記憶する。シナリオは、たとえば、ロボットに再生させるべきモーションファイルや発話ファイル、およびその再生手段等が記述されたプログラムとすることができる。すなわち、シナリオ情報記憶部125は、モーションファイルや発話ファイルを指定し、順番に再生していくためのスクリプト言語などを記憶している。ここで、モーションファイルは、ロボットのモーションを示す。発話ファイルは、ロボットの発話を示す。
モーションファイルは、ロボットの動作パターンを有し、アクチュエータ34A,34B,52A,52Bを動作させるものである。
The scenario information storage unit 125 stores a scenario described about the behavior of the robot. The scenario can be, for example, a program in which a motion file or an utterance file to be reproduced by the robot and a reproduction means thereof are described. That is, the scenario information storage unit 125 stores a script language or the like for designating a motion file or an utterance file and sequentially reproducing it. Here, the motion file indicates the motion of the robot. The utterance file indicates the utterance of the robot.
The motion file has a robot operation pattern and operates the actuators 34A, 34B, 52A, and 52B.

シナリオ選択部115aは、設定またはユーザの指示に従い、シナリオ情報記憶部125からシナリオを選択し、それを読み込む。
シナリオ選択部115aは、シナリオ情報記憶部125から読み込んだシナリオに従い、動作パターン選択部115bおよびコンテンツ生成部115cに指示を行う。
The scenario selection unit 115a selects a scenario from the scenario information storage unit 125 and reads it according to the setting or user instruction.
The scenario selection unit 115a instructs the operation pattern selection unit 115b and the content generation unit 115c according to the scenario read from the scenario information storage unit 125.

動作パターン選択部115bは、アイテム探索部 が探索した物品の種類、およびシナリオ選択部115aが読み込んだシナリオに基づき、動作パターン情報記憶部124からロボットの動作パターンを選択する。   The motion pattern selection unit 115b selects a motion pattern of the robot from the motion pattern information storage unit 124 based on the type of article searched by the item search unit and the scenario read by the scenario selection unit 115a.

動作パターン情報記憶部124には、ロボットが発話を行う際に、効果的な愛くるしい表現が実行できるような各動作パターンが記憶される。
本実施の形態において、動作パターンは、ロボットの利用者に対する愛くるしい表現を胸LED群、顔LED群、頭部の2方向の動作などを制御する各動作パターンを含む。
The motion pattern information storage unit 124 stores motion patterns that can execute effective and lovely expressions when the robot speaks.
In the present embodiment, the operation pattern includes each operation pattern for controlling the movement of the chest LED group, the face LED group, the head in two directions, and the like for a lovely expression for the robot user.

たとえば、動作パターン選択部115bは、天候が雨の場合には、頭部をうつむき加減に動作させる頭部動作パターンとするために第1頭部モーションファイルを選択し、胸LED群を「悲しい」感情を示す点灯制御パターンとするために第1胸点灯制御モーションファイルを選択し、発話ファイルは「本日の天候は雨です」という音声情報の第1発話ファイルを選択する。
そして、選択されたシナリオに、前記第1発話ファイル、第1頭部モーションファイル、第1胸点灯制御モーションファイルのファイル名を設定し、コンテンツを生成する。
For example, when the weather is raining, the motion pattern selection unit 115b selects the first head motion file in order to make the head motion pattern that causes the head to crawl and adjust the chest LED group to “sad”. The first chest lighting control motion file is selected in order to obtain a lighting control pattern indicating emotion, and the first utterance file of voice information “Today's weather is rainy” is selected as the utterance file.
Then, the file names of the first utterance file, the first head motion file, and the first chest lighting control motion file are set in the selected scenario, and content is generated.

例えば、第1言動パターンは、判定の結果「傘」があると判定された場合であり、天気予報の雨に傘を関連づけた言動パターン「今日の天気は雨です。傘が**にありますので傘をお持ち下さい。」などが挙げられる。この際、動作パターンは、胸LED群、顔LED群、頭部の2方向の動作を「悲しい」動作となるパターンを選択設定する。
また、第2言動パターンは、判定の結果「傘」がないと判定された場合であり、「今日の天気は雨です。」「今日の天気は雨です。ここには傘はありません。」などが挙げられる。
さらに、第3の言動パターンは、「今日の天気は晴れです。」などが挙げられる。この際、動作パターンは、胸LED群、顔LED群、頭部の2方向の動作を「うれしい」動作となるパターンを選択設定する。
For example, the first behavior pattern is the case where it is determined that there is an “umbrella” as a result of the judgment, and the behavior pattern “Today's weather is rain. The umbrella is in **. Please bring an umbrella. " At this time, as the operation pattern, a pattern that makes the operation in two directions of the chest LED group, the face LED group, and the head “sad” is selected and set.
The second behavior pattern is a case where it is determined that there is no “umbrella” as a result of the determination, such as “Today's weather is rainy” or “Today's weather is rainy. There is no umbrella here”. Is mentioned.
Furthermore, the third behavior pattern includes “Today's weather is sunny”. At this time, as the operation pattern, a pattern that makes the operation in two directions of the chest LED group, the face LED group, and the head “a happy” operation is selected and set.

このようにして、動作パターン選択部115bは、動作パターン情報記憶部124から動作パターンを選択する。   In this manner, the operation pattern selection unit 115b selects an operation pattern from the operation pattern information storage unit 124.

また、動作パターン記憶部124は、各動作の時間の設定を含むことができる。動作パターン情報記憶部124には、物品の位置情報とロボットの現在位置とに基づき、物品まで移動するための動作パターンも記憶することができる。   Further, the operation pattern storage unit 124 can include setting of the time of each operation. The operation pattern information storage unit 124 can also store an operation pattern for moving to an article based on the position information of the article and the current position of the robot.

コンテンツ記憶部126は、モーションファイルおよび発話ファイルを記憶する。   The content storage unit 126 stores motion files and utterance files.

コンテンツ生成部115cは、シナリオ選択部115aの指示を受け、シナリオ選択部115aにて選択されたシナリオと、動作パターン選択部115bが選択した動作パターンとに基づき、シナリオ選択部115aにて選択された基本構成のシナリオ内に、アイテム探索結果などの結果に応じて動作パターン選択部115bが選択した動作パターンを設定するようにして、コンテンツを生成する。
具体的には、コンテンツ生成部115cは、ロボットが適切な動作を行うよう、ロボットの首、胴体、の一つ以上を移動させ、LEDを点灯動作させるためのモーションファイルを生成する。
また、コンテンツ生成部115cは、記憶部に記憶された物品の位置、および動作パターン選択部が選択した動作パターンに基づき、コンテンツを生成することもできる。
The content generation unit 115c receives an instruction from the scenario selection unit 115a, and is selected by the scenario selection unit 115a based on the scenario selected by the scenario selection unit 115a and the operation pattern selected by the operation pattern selection unit 115b. The content is generated by setting the operation pattern selected by the operation pattern selection unit 115b in accordance with the result such as the item search result in the scenario of the basic configuration.
Specifically, the content generation unit 115c generates a motion file for moving one or more of the robot's neck and torso and lighting the LED so that the robot performs an appropriate operation.
The content generation unit 115c can also generate content based on the position of the article stored in the storage unit and the operation pattern selected by the operation pattern selection unit.

コンテンツ供給部116は、前記コンテンツを前記ロボットに供給する。
コンテンツ供給部116は、コンテンツ生成部115cの指示を受け、コンテンツ記憶部118から該当するモーションファイルや発話ファイルを読み出し、ロボット10に送信し、ロボット10側のコンテンツ記憶部226に書き込むよう指示するとともに、ロボット10側のコンテンツ再生部217に当該ファイルを実行するように指示する。
The content supply unit 116 supplies the content to the robot.
Upon receiving an instruction from the content generation unit 115c, the content supply unit 116 reads out the corresponding motion file or utterance file from the content storage unit 118, transmits it to the robot 10, and instructs the content storage unit 226 on the robot 10 side to write it. Then, the content reproduction unit 217 on the robot 10 side is instructed to execute the file.

ロボット制御サーバ110側のアイテム探索制御部114は、ロボット10側のコンテンツ再生部217がコマンドを発行中も定期的に周囲の状況を取得することができる。
アイテム探索制御部114は、取得したデータを解析し、ロボットの近傍の物品の種類、およびそれらの物品のロボットに対する位置の変化を検出する。
アイテム探索制御部114は、動作パターン選択部115bに指示し、ロボットの移動などにより、ロボットの近傍にいる物品の数や位置に変化があった場合、動作パターン選択部215bは、新たな状況に応じて、動作パターン記憶部224から動作パターンを選択しなおすことができる。
The item search control unit 114 on the robot control server 110 side can periodically acquire the surrounding situation even while the content reproduction unit 217 on the robot 10 side issues a command.
The item search control unit 114 analyzes the acquired data, and detects the types of articles in the vicinity of the robot and changes in the positions of those articles with respect to the robot.
When the item search control unit 114 instructs the operation pattern selection unit 115b to change the number or position of articles in the vicinity of the robot due to movement of the robot or the like, the operation pattern selection unit 215b In response, the operation pattern can be selected again from the operation pattern storage unit 224.

(動作処理手順について)
(全体の概略動作)
次に、上述のような構成を有するロボット制御システムの全体の概略動作処理手順について、図6を参照しつつ説明する。図6は、図1のロボット制御システムにおける処理手順の一例を示すネットワークシーケンス図である。
(About operation procedure)
(Overall outline operation)
Next, an overall operation processing procedure of the entire robot control system having the above-described configuration will be described with reference to FIG. FIG. 6 is a network sequence diagram showing an example of a processing procedure in the robot control system of FIG.

本実施の形態に係るロボット制御システムにおける動作処理手順は、少なくとも利用者と対話可能なロボットと、前記ロボットと通信網を介して通信接続され前記ロボットを制御する遠隔管理装置とを備えたロボット制御システムを対象とするものである。   An operation processing procedure in the robot control system according to the present embodiment includes a robot control including at least a robot capable of interacting with a user, and a remote management device that is connected to the robot via a communication network and controls the robot. It is intended for the system.

この遠隔管理を行う際の動作処理手順は、基本的手順として、遠隔管理装置としてのロボット制御サーバが、前記利用者の前記ロボットに対する言動要求又は所定の時刻に生成されるサービス開始要求に基づいて、情報提供空間が構築された前記通信網を通じて外部情報を取得し(図6に示すステップS112:外部情報取得ステップ)、次に、前記外部情報に関連するアイテムを決定し(図6に示すステップS113:アイテム決定ステップ)、続いて、前記アイテムが前記ロボットの周辺にあるかどうかを前記ロボットに探索させ、前記アイテムの有無を判定するアイテム探索制御をし(図6に示すステップS120a:アイテム探索制御処理ステップ)、しかる後、前記アイテムがあると判定された場合、前記利用者に対して前記外部情報及び前記アイテムを含む情報を告知するように前記ロボットの言動条件を決定しこの言動条件をコンテンツとして生成する(図6に示すステップS131:言動決定ステップ)ことを行うものである。   The operation processing procedure at the time of performing remote management is based on a basic procedure in which a robot control server as a remote management device is based on a request for speech from the user to the robot or a service start request generated at a predetermined time. Then, external information is acquired through the communication network in which the information providing space is constructed (step S112 shown in FIG. 6: external information acquisition step), and then an item related to the external information is determined (step shown in FIG. 6). S113: Item determining step) Subsequently, the robot searches for whether or not the item is in the vicinity of the robot, and performs item search control for determining the presence or absence of the item (step S120a shown in FIG. 6: item search). Control processing step), and if it is determined that there is an item after that, the external to the user Determining the behavior condition of the robot so as to notify the broadcast and information comprising the items to produce this behavior condition as the content (step shown in FIG. 6 S131: behavior decision step) is performed that.

さらに、この遠隔管理を行う際の動作処理手順では、前記アイテム探索制御に際しては、前記アイテムの有無を画像認識情報により探索することができる(図6に示すステップS121、S123、S124からなるステップ)。   Furthermore, in the operation processing procedure when performing this remote management, the presence or absence of the item can be searched by the image recognition information in the item search control (steps consisting of steps S121, S123, and S124 shown in FIG. 6). .

また、この遠隔管理を行う際の動作処理手順では、前記アイテム探索制御に際しては、前記画像認識情報により前記アイテムが無いと判定された場合に、前記アイテムの有無を予め前記アイテムに備えた無線電子タグからのタグ識別情報により探索することができる(図6に示すステップS125、S127、S128からなるステップ)。   In the operation processing procedure when performing the remote management, in the item search control, when it is determined by the image recognition information that the item is not present, the wireless electronic device provided with the item in advance as to the presence or absence of the item. A search can be made based on tag identification information from the tag (steps consisting of steps S125, S127, and S128 shown in FIG. 6).

更に、ロボット側におけるロボット制御の際の動作処理手順では、前記遠隔管理装置にて取得された外部情報に関連するアイテムが前記ロボットの周辺にあるかどうかを探索し(図6に示すステップS120b:アイテム探索実行処理ステップ)、前記アイテムがある場合、前記利用者に対して前記外部情報及び前記アイテムを含む情報を告知するように前記ロボットの言動条件を実行する(図6に示すステップS133:言動実行処理ステップ)ことができる。   Further, in the operation processing procedure at the time of robot control on the robot side, it is searched whether or not there is an item related to the external information acquired by the remote management device around the robot (step S120b shown in FIG. 6: Item search execution processing step) When there is the item, the behavior condition of the robot is executed so as to notify the user of the external information and information including the item (step S133: behavior in FIG. 6). Execution processing step).

(動作処理手順の詳細)
以下、これを詳述する。
(Details of operation processing procedure)
This will be described in detail below.

まず、図6に示すように、プログラムがスタートすると、所定時刻かどうかを判定する(ステップS110:サービス提供開始時刻判定ステップ)。
例えば、天気情報のサービスをうけるサービス提供開始時刻を予め利用者が登録の際に設定すると、現在時刻が当該時刻に至ったかどうかをチェックする。
First, as shown in FIG. 6, when the program starts, it is determined whether it is a predetermined time (step S110: service provision start time determination step).
For example, if the user provides a service provision start time for receiving the weather information service in advance during registration, it is checked whether or not the current time has reached that time.

前記時刻であると判定された場合には、シナリオ選択部115aは、シナリオ情報記憶部125からサービス内容に応じたシナリオを読み込む(S111:シナリオ選択ステップ)。
又は、前記利用者の前記ロボットに対する言動要求の一例である音声指示入力(ステップS101)によりロボットが音声認識を行い(ステップS102)、音声認識結果がロボット制御サーバに伝達される(ステップS103)ことによっても情報提供サービス用のシナリオ選択を行うことができる。
どのシナリオを読み込むかは、設定またはユーザの指示に基づき決定される。
If it is determined that it is the time, the scenario selection unit 115a reads a scenario corresponding to the service content from the scenario information storage unit 125 (S111: scenario selection step).
Alternatively, the robot performs voice recognition (step S102) by voice instruction input (step S101), which is an example of the user's speech request to the robot, and the voice recognition result is transmitted to the robot control server (step S103). The scenario for the information providing service can also be selected.
Which scenario is read is determined based on settings or user instructions.

続いて、取得手段(外部情報取得部112)として機能するロボット制御サーバのコンピュータが、外部情報を取得する(S112:外部情報取得ステップ)。
このため、外部情報取得は、前記利用者の前記ロボットに対する言動要求又は所定の時刻に生成されるサービス開始要求に基づいて行われる。
この際、情報提供サーバに対して情報検索を行い(ステップS112a)、外部情報を得る(ステップS112b)ことになる。
ここでは、例えば天気予報サービスに対応するシナリオを選択した場合、当該シナリオに記述された天気予報情報の提供サイト(情報提供サーバ)にアクセスし、ロボットが所在する位置に応じた天気予報情報を取得する。
Subsequently, the computer of the robot control server that functions as an acquisition unit (external information acquisition unit 112) acquires external information (S112: external information acquisition step).
For this reason, external information acquisition is performed based on the user's behavior request to the robot or a service start request generated at a predetermined time.
At this time, information retrieval is performed on the information providing server (step S112a), and external information is obtained (step S112b).
Here, for example, when a scenario corresponding to the weather forecast service is selected, the weather forecast information providing site (information providing server) described in the scenario is accessed, and the weather forecast information corresponding to the position where the robot is located is acquired. To do.

次に、アイテム決定手段(関連アイテム情報決定部113)として機能するロボット制御サーバのコンピュータは、取得した外部情報に基づき、関連アイテム情報記憶部121を参照して外部情報に対応するアイテムが何であるかを決定する(ステップS113:アイテム決定ステップ)。
関連アイテム情報記憶部121には、予め外部情報とアイテムとが対応づけられて記憶されている。
このため、例えば、外部情報が天気予報情報である場合、天気予報「雨」に関連するアイテムとして「傘」という情報を取得することができる。
Next, the computer of the robot control server that functions as the item determination unit (related item information determination unit 113) refers to the related item information storage unit 121 based on the acquired external information, and what is the item corresponding to the external information. Is determined (step S113: item determination step).
In the related item information storage unit 121, external information and items are stored in advance in association with each other.
Therefore, for example, when the external information is weather forecast information, information “umbrella” can be acquired as an item related to the weather forecast “rain”.

そして、アイテム探索手段(アイテム探索制御部114)として機能するロボット制御サーバのコンピュータは、前記アイテムがロボットの周辺にあるかどうかをロボットに探索させ、前記アイテムの有無を判定するアイテム探索制御をする(ステップS120a:アイテム探索制御処理ステップ)。   Then, the computer of the robot control server that functions as item search means (item search control unit 114) causes the robot to search whether the item is in the vicinity of the robot, and performs item search control for determining the presence or absence of the item. (Step S120a: Item search control processing step).

より詳細には、ロボット制御サーバのコンピュータは、第1のアイテム探索要求をロボットに対して送信する(ステップS121:第1のアイテム探索要求送信ステップ)。
ロボットは、第1のアイテム探索要求を受信すると、この第1のアイテム探索要求に基づき画像認識情報を取得する処理を行う(ステップS122:画像認識情報取得ステップ)。
ロボットは、取得した画像認識情報をロボット制御サーバに通知し、ロボット制御サーバは、これを受信する(ステップS123:画像認識情報受信ステップ)。
ロボット制御サーバのコンピュータは、受信した画像認識情報と、特徴点パターン情報記憶部122の既登録画像認識情報とに基づいて、ロボットの周辺にアイテムがあるかどうかを判定する(ステップS124:第1のアイテム有無判定ステップ)。
例えば、アイテムが「傘」である場合には、ロボットが所在する周囲環境に実物の「傘」があるかどうかをCCDカメラ及び画像認識部による画像認識情報をもとに探索する。
More specifically, the computer of the robot control server transmits a first item search request to the robot (step S121: first item search request transmission step).
When the robot receives the first item search request, the robot performs a process of acquiring image recognition information based on the first item search request (step S122: image recognition information acquisition step).
The robot notifies the acquired image recognition information to the robot control server, and the robot control server receives this (step S123: image recognition information receiving step).
The computer of the robot control server determines whether there is an item around the robot based on the received image recognition information and the registered image recognition information in the feature point pattern information storage unit 122 (step S124: first). Item presence / absence determination step).
For example, when the item is “umbrella”, it is searched based on the image recognition information obtained by the CCD camera and the image recognition unit whether there is an actual “umbrella” in the surrounding environment where the robot is located.

さらに、ステップS124の判定の結果、アイテムが無いと判定された場合、タグリーダによる探索を行う。すなわち、画像認識による探索でアイテムが発見されなかったときには、タグリーダによってアイテムの探索を行う。
具体的には、ロボット制御サーバのコンピュータは、第2のアイテム探索要求をロボットに対して送信する(ステップS125:第2のアイテム探索要求送信ステップ)。
ロボットは、第2のアイテム探索要求を受信すると、この第2のアイテム探索要求に基づきタグ識別情報を取得する処理を行う(ステップS126:タグ識別情報取得ステップ)。
ロボットは、取得したタグ識別情報をロボット制御サーバに通知し、ロボット制御サーバは、これを受信する(ステップS127:タグ識別情報受信ステップ)。
ロボット制御サーバのコンピュータは、受信したタグ識別情報と、タグ識別情報記憶部123の既登録タグ識別情報とに基づいて、ロボットの周辺にアイテムがあるかどうかを判定する(ステップS128:第2のアイテム有無判定ステップ)。
例えば、アイテムが「傘」である場合には、ロボットが所在する周囲環境に実物の「傘」があるかどうかをタグリーダによるタグ識別情報をもとに探索する。
Furthermore, when it is determined that there is no item as a result of the determination in step S124, a search by a tag reader is performed. That is, when an item is not found by the search by image recognition, the item is searched by the tag reader.
Specifically, the computer of the robot control server transmits a second item search request to the robot (step S125: second item search request transmission step).
When receiving the second item search request, the robot performs processing for acquiring tag identification information based on the second item search request (step S126: tag identification information acquisition step).
The robot notifies the acquired tag identification information to the robot control server, and the robot control server receives the tag identification information (step S127: tag identification information reception step).
The computer of the robot control server determines whether there is an item around the robot based on the received tag identification information and the registered tag identification information in the tag identification information storage unit 123 (step S128: second). Item existence determination step).
For example, when the item is an “umbrella”, a search is performed based on tag identification information by the tag reader to determine whether or not the actual “umbrella” is in the surrounding environment where the robot is located.

次に、言動決定手段(言動決定部115)として機能するロボット制御サーバのコンピュータは、以上のステップS124及びステップS128の判定結果に基づいて、言動パターンを動作パターン情報記憶部124を参照することによって選択し、言動決定を行う(ステップS131:言動決定ステップ)。   Next, the computer of the robot control server functioning as the behavior determination unit (speech determination unit 115) refers to the behavior pattern information storage unit 124 for the behavior pattern based on the determination results of step S124 and step S128. Select and make a behavior decision (step S131: behavior decision step).

より詳細には、以上のステップS124の判定の結果アイテムが有ると判定された場合、又は、以上のステップS125の判定の結果アイテムが有ると判定された場合、外部情報とアイテムとを含む情報の言動パターン(第1言動パターン)を選択し言動決定を行う。
一方、以上のステップS124の判定の結果アイテムが無いと判定された場合、又は、以上のステップS125の判定の結果アイテムが無いと判定された場合、外部情報とアイテムが無い旨の情報とを含む情報の言動パターン(第2言動パターン)を選択し言動決定を行う。
さらに、ステップS113のアイテム決定の際に、外部情報に対応するアイテムが関連づけられていない場合、外部情報のみの情報の言動パターン(第3言動パターン)を選択し言動決定を行う。
More specifically, when it is determined that there is an item as a result of the determination in the above step S124, or when it is determined that there is an item as a result of the determination in the above step S125, the information including the external information and the item A behavior pattern is selected by selecting a behavior pattern (first behavior pattern).
On the other hand, if it is determined that there is no item as a result of the determination in step S124, or if it is determined that there is no item as a result of the determination in step S125, external information and information indicating that there is no item are included. The behavior pattern of information is selected by selecting the behavior pattern (second behavior pattern).
Furthermore, when the item corresponding to the external information is not associated at the time of item determination in step S113, the behavior determination is performed by selecting the behavior pattern (third behavior pattern) of the information of only the external information.

例えば、第1言動パターンは、判定の結果「傘」があると判定された場合であり、天気予報の雨に傘を関連づけた言動パターン「今日の天気は雨です。傘が**にありますので傘をお持ち下さい。」などが挙げられる。
また、第2言動パターンは、判定の結果「傘」がないと判定された場合であり、「今日の天気は雨です。」「今日の天気は雨です。ここには傘はありません。」などが挙げられる。
さらに、第3の言動パターンは、「今日の天気は晴れです。」などが挙げられる。
For example, the first behavior pattern is the case where it is determined that there is an “umbrella” as a result of the judgment, and the behavior pattern “Today's weather is rain. The umbrella is in **. Please bring an umbrella. "
The second behavior pattern is a case where it is determined that there is no “umbrella” as a result of the determination, such as “Today's weather is rainy” or “Today's weather is rainy. There is no umbrella here”. Is mentioned.
Furthermore, the third behavior pattern includes “Today's weather is sunny”.

このようにして、動作パターン選択部115bは、動作パターン情報記憶部124から動作パターンを選択し、コンテンツ生成部115cは、動作パターン選択部104が選択した動作パターンと、シナリオ選択部115aが選択したシナリオに基づき、コンテンツを生成し、コンテンツ記憶部126に記憶する。   In this way, the operation pattern selection unit 115b selects an operation pattern from the operation pattern information storage unit 124, and the content generation unit 115c selects the operation pattern selected by the operation pattern selection unit 104 and the scenario selection unit 115a. Content is generated based on the scenario and stored in the content storage unit 126.

そして、コンテンツ供給手段(コンテンツ供給部116)として機能するロボット制御サーバのコンピュータは、コンテンツ記憶部126のコンテンツをロボットに対して送信する処理を行う(ステップS132:コンテンツ供給ステップ)。   Then, the computer of the robot control server functioning as the content supply means (content supply unit 116) performs a process of transmitting the content stored in the content storage unit 126 to the robot (step S132: content supply step).

次に、ロボットは、ロボット制御サーバからのコンテンツを受信すると、言動実行手段(コンテンツ再生部94)として機能するロボットのCPUは、言動実行を行う(ステップS133:言動実行ステップ)。
すなわち、コンテンツ再生部94は、該当するコンテンツ情報を再生し、音声による結果報告(ステップS133a)、動作による結果報告(ステップS133b)とを行う。
Next, when the robot receives the content from the robot control server, the CPU of the robot that functions as the speech execution means (content reproduction unit 94) executes the speech (step S133: speech execution step).
That is, the content reproduction unit 94 reproduces the corresponding content information, and performs a result report by voice (step S133a) and a result report by operation (step S133b).

ロボット制御サーバは、次のシナリオを選択するか否かを判断し(S140)、次のシナリオを選択する場合(S140のYES)、ステップS111に戻り、新たなシナリオを選択する。一方、ステップS140において、次のシナリオを選択しない場合(S140のNO)、処理を終了する。   The robot control server determines whether or not to select the next scenario (S140). If the next scenario is selected (YES in S140), the process returns to step S111 to select a new scenario. On the other hand, when the next scenario is not selected in step S140 (NO in S140), the process is terminated.

ここで、以上のステップS122、ステップS126からなるステップは、アイテム探索実行処理ステップないしはアイテム探索実行処理機能ということもできる。   Here, the step consisting of the above steps S122 and S126 can also be called an item search execution processing step or an item search execution processing function.

このようにすることで、図7に示すように、利用者USとロボットPOとの対話中に、ロボットPOは、外部情報を通信網を介して取得するが、この外部情報に関連するアイテムが周囲環境SP内にあるかどうかを探索する。
そして、傘立てBO内の傘P1をCCDカメラを通じて画像認識により認識できる。
或いは、傘P1しか認識されない場合には、タグリーダによってタグ識別情報を得ることにより、机DE内の折り畳み傘P2を認識することができる。
これらを認識した上で、利用者USに対して「今日の天気は雨です。傘が**にありますので傘をお持ち下さい。」などの言動を行うことができる。
In this way, as shown in FIG. 7, during the dialogue between the user US and the robot PO, the robot PO obtains external information via the communication network. It is searched whether it is in the surrounding environment SP.
The umbrella P1 in the umbrella stand BO can be recognized by image recognition through a CCD camera.
Alternatively, when only the umbrella P1 is recognized, the folding umbrella P2 in the desk DE can be recognized by obtaining tag identification information with a tag reader.
After recognizing these, it is possible to perform actions such as “Today's weather is rainy. Please bring an umbrella because there is an umbrella in **”.

また、アイテム探索実行処理、アイテム探索制御処理の際に、画像認識及びタグ識別情報のいづれか一方又は双方により、利用者が既に傘を持参しているか否かを判定する機能を実行することもできる。この場合、既に傘を含む鞄などを持参しており、出かける直前に玄関などでロボットに対して天気を聞くといった場合が想定され、このような場合、ロボットは、他の種々の言動実行、例えば「今日の午後の天気は雨だけど、既に鞄に折りたたみ傘が入っているので、そちらをご使用下さい。傘立ての傘はあらためて持参する必要はありません」などの言動を行なうこともできる。   In addition, in the item search execution process and the item search control process, it is possible to execute a function of determining whether the user has already brought an umbrella by one or both of image recognition and tag identification information. . In this case, it is assumed that the user has already brought a bag including an umbrella and listens to the robot at the entrance immediately before going out. In such a case, the robot performs various other actions such as "It's raining this afternoon, but there's a folding umbrella already in the bag, so please use it. You don't need to bring an umbrella stand again."

以上のように本実施の形態によれば、外部情報に関連するアイテムがロボットの周辺にある場合に、前記外部情報及びアイテムを含む情報を利用者に告知することができる。
これにより、ロボットが所在する周囲の環境にあるアイテムの存在を確認した上で言動を実行するので、ロボットが所在する周囲の環境に応じて利用者に適切かつ詳細なアドバイスやナビゲーションを行うことができる。利用者の利便性を向上させることができる。
As described above, according to the present embodiment, when an item related to external information is in the vicinity of the robot, the information including the external information and the item can be notified to the user.
This confirms the presence of an item in the surrounding environment where the robot is located, and then executes the action, so appropriate and detailed advice and navigation can be given to the user according to the surrounding environment where the robot is located. it can. User convenience can be improved.

ここで、図4、図5に示すブロック図における一部の各ブロックは、コンピュータにより実行可能なプログラムにより機能化された状態を示すソフトウエアモジュール構成であってもよい。   Here, a part of each block in the block diagrams shown in FIG. 4 and FIG. 5 may have a software module configuration showing a state functionalized by a program executable by a computer.

すなわち、物理的構成は例えば一又は複数のCPU(或いは一又は複数のCPUと一又は複数のメモリ)等ではあるが、各部(回路・手段)によるソフトウエア構成は、プログラムの制御によってCPUが発揮する複数の機能を、それぞれ複数の部(手段)による構成要素として表現したものである。   That is, the physical configuration is, for example, one or a plurality of CPUs (or one or a plurality of CPUs and one or a plurality of memories), etc., but the software configuration by each unit (circuit / means) is exhibited by the CPU by controlling the program. A plurality of functions are expressed as components by a plurality of units (means).

CPUがプログラムによって実行されている動的状態(プログラムを構成する各手順を実行している状態)を機能表現した場合、CPU内に各部(手段)が構成されることになる。プログラムが実行されていない静的状態にあっては、各手段の構成を実現するプログラム全体(或いは各手段の構成に含まれるプログラム各部)は、メモリなどの記憶領域に記憶されている。   When the CPU dynamically expresses a dynamic state (a state in which each procedure constituting the program is executed) executed by the program, each unit (means) is configured in the CPU. In a static state in which the program is not executed, the entire program (or each program part included in the configuration of each unit) that realizes the configuration of each unit is stored in a storage area such as a memory.

以上に示した各部、モジュール(手段)は、プログラムにより機能化されたコンピュータをプログラムの機能と共に実現し得るように構成しても、また、固有のハードウエアにより恒久的に機能化された複数の電子回路ブロックからなる装置で構成してもよい。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現でき、いずれかに限定されるものではない。   Each of the units and modules (means) described above may be configured so that a computer functionalized by a program can be realized together with the functions of the program, or a plurality of functions that are permanently functionalized by specific hardware. You may comprise with the apparatus which consists of an electronic circuit block. Therefore, these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and is not limited to any one.

また、各部は、通信可能な専用のコンピュータからなる装置としてそれぞれ構成し、これらの各装置によりシステムを構成してもよい。逆に、各部を単一の装置として構成したシステムであってもよい。   In addition, each unit may be configured as a device including a dedicated computer capable of communication, and the system may be configured by each of these devices. Conversely, a system in which each unit is configured as a single device may be used.

[第2の実施の形態]
次に、本発明にかかる第2の実施の形態について、図14に基づいて説明する。以下には、前記第1の実施の形態の実質的に同様の構成に関しては説明を省略し、異なる部分についてのみ述べる。図14は、本発明のロボット制御システムの第2の実施の形態の一例を示すブロック図である。
[Second Embodiment]
Next, a second embodiment according to the present invention will be described with reference to FIG. In the following, description of the substantially similar configuration of the first embodiment will be omitted, and only different parts will be described. FIG. 14 is a block diagram showing an example of the second embodiment of the robot control system of the present invention.

上述の第1の実施の形態では、ロボット制御サーバ側主導で処理を行う構成の一例を示したが、本実施の形態では、ロボット側で主な処理を行う構成の一例を示している。
本実施の形態では、ロボット側に前記第1の実施の形態におけるロボット制御サーバ110の機能を備えるようにしている。本実施の形態の場合、ロボット制御サーバの管理側制御手段は、サービス内容に応じた外部情報の取得とロボットへの提供を行う機能のみを備え、アイテム有無判定などをロボット側で行うようにしている。
In the first embodiment described above, an example of a configuration in which processing is performed on the initiative of the robot control server side is shown. However, in the present embodiment, an example of a configuration in which main processing is performed on the robot side is illustrated.
In the present embodiment, the function of the robot control server 110 in the first embodiment is provided on the robot side. In the case of this embodiment, the management side control means of the robot control server has only the function of acquiring external information according to the service content and providing it to the robot, and makes the presence / absence determination of items on the robot side. Yes.

具体的には、本実施の形態のロボット制御システムにおけるロボット210のコントローラ22は、図14に示すように、前記第1の実施の形態におけるロボット10が有する機能に加え、前記第1の実施の形態におけるロボット制御サーバ110が有する機能と同様の外部情報取得部212、関連アイテム情報決定部213、関連アイテム情報記憶部221、特徴点パターン情報記憶部222、タグ識別情報記憶部223を備える。   Specifically, as shown in FIG. 14, the controller 22 of the robot 210 in the robot control system of the present embodiment, in addition to the functions of the robot 10 in the first embodiment, The external control unit 110 includes an external information acquisition unit 212, a related item information determination unit 213, a related item information storage unit 221, a feature point pattern information storage unit 222, and a tag identification information storage unit 223 that are similar to the functions of the robot control server 110 in the embodiment.

また、ロボット210のコントローラ22は、前記第1の実施の形態におけるロボット制御サーバ110のアイテム探索制御部114とロボット10のアイテム探索実行部92の双方の機能を備えたアイテム探索部214と、その他の各処理部218とを備える。   In addition, the controller 22 of the robot 210 includes an item search unit 214 having the functions of both the item search control unit 114 of the robot control server 110 and the item search execution unit 92 of the robot 10 in the first embodiment, and others. Each processing unit 218.

アイテム探索部214は、前記第1の実施の形態におけるロボット制御サーバ110の第1のアイテム探索制御部114aとロボット10の第1のアイテム探索実行部92aの双方の機能を備えた第1のアイテム探索部214aと、前記第1の実施の形態におけるロボット制御サーバ110の第2のアイテム探索制御部114bとロボット10の第2のアイテム探索実行部92bの双方の機能を備えた第2のアイテム探索部214bとを備える。
また、アイテム探索部214は、アイテム探索制御手段の一部で一例であるということもできる。
The item search unit 214 is a first item having the functions of both the first item search control unit 114a of the robot control server 110 and the first item search execution unit 92a of the robot 10 in the first embodiment. A second item search having the functions of both the search unit 214a, the second item search control unit 114b of the robot control server 110 in the first embodiment, and the second item search execution unit 92b of the robot 10. Part 214b.
In addition, the item search unit 214 is an example of a part of the item search control unit.

第1のアイテム探索部214aは、関連アイテム情報決定部113からの指示を受けて作動し、CCDカメラ51A、51Bから入力される映像に対して画像認識部231により画像処理された画像認識情報(特徴点パターン情報)に基づいて、予め登録された特徴点パターン情報記憶部222の既登録特徴点パターン情報との照合により物品を識別しアイテムの判定を行う。
第1のアイテム探索部214aは、予め登録段階では、特徴点パターン記憶部122に物品の識別子を特徴点パターン情報とともに記憶することできる。物品の識別子は、IDである場合もあるし、物品名である場合もある。
The first item search unit 214a operates in response to an instruction from the related item information determination unit 113, and performs image recognition information (image recognition information (231) processed by the image recognition unit 231 with respect to the video input from the CCD cameras 51A and 51B. Based on the feature point pattern information), an item is identified and an item is determined by matching with previously registered feature point pattern information in the feature point pattern information storage unit 222 registered in advance.
The first item search unit 214a can store the identifier of the article together with the feature point pattern information in the feature point pattern storage unit 122 in advance in the registration stage. The identifier of an article may be an ID or an article name.

第1のアイテム探索部214aは、周囲の物品を検知し、関連アイテムに合致する物品の探索を行ない、関連アイテムに合致する物品を見つけた場合には、関連アイテム情報を言動決定部215の動作パターン選択部215bに送出する。発見できない場合、第2のアイテム探索部214bを作動させる。   When the first item search unit 214a detects surrounding items, searches for items that match the related items, and finds items that match the related items, the first item search unit 214a uses the related item information as the operation of the behavior determination unit 215. The data is sent to the pattern selection unit 215b. If not found, the second item search unit 214b is activated.

また、検知対象とする物品を予め登録しておいて、入力された画像の中から探す際には、画像自体のマッチングで検出する手法や、特徴を抽出したあとで学習により識別を行う手法など様々な手法を採用できる。
第1のアイテム探索部214aは、CCDカメラ51A、51Bの視野中に存在する物品例えば「傘」を検知し、その「傘」を検知すると、関連アイテム情報「傘」を動作パターン選択部215bへ送出できる。
Also, when pre-registering articles to be detected and searching from the input image, a method of detecting by matching the image itself, a method of identifying by learning after extracting features, etc. Various methods can be adopted.
The first item search unit 214a detects an article, for example, an “umbrella” existing in the field of view of the CCD cameras 51A and 51B. When the first item search unit 214a detects the “umbrella”, the related item information “umbrella” is sent to the operation pattern selection unit 215b. Can be sent out.

第2のアイテム探索部214bは、タグリーダ44から入力されるタグ識別情報に基づいて、予め登録されたタグ識別情報記憶部223の既登録タグ識別情報との照合により物品を識別しアイテムの判定を行う。
また、第2のアイテム探索部214bは、目的のタグ識別情報を有する識別タグの位置情報を取得可能な位置情報取得機能を備える。
Based on the tag identification information input from the tag reader 44, the second item search unit 214b identifies the item by identifying the article by collating with the registered tag identification information in the tag identification information storage unit 223 registered in advance. Do.
Further, the second item search unit 214b has a position information acquisition function capable of acquiring the position information of the identification tag having the target tag identification information.

この際、アイテム探索部214は、ロボットから物品までの距離なども推定可能であり、動作パターン情報記憶部224で予め用意されている動作パターンに位置情報を書き込むことによって、言動実行部では、ロボットが言動実行をする際にアイテム位置まで案内動作することも可能となる。
位置情報は、第1、第2のアイテム探索部214a、214bのいずれによっても求めることができる。或いは必要に応じて双方を組み合わせるようにしてもよい。
At this time, the item search unit 214 can also estimate the distance from the robot to the article, etc., and by writing the position information in the motion pattern prepared in advance in the motion pattern information storage unit 224, the speech execution unit It is also possible to perform a guidance operation up to the item position when performing the behavior.
The position information can be obtained by any of the first and second item search units 214a and 214b. Or you may make it combine both as needed.

その他の各処理部218は、ロボット制御サーバからサービス提供される情報に基づきコントローラ22の各記憶部を更新する機能、発話トリガー発生機能などが挙げられる。例えば、関連アイテム情報や音声認識辞書、画像認識エンジン、動作パターン(LED点灯表示パターンや頭部動作パターン、発話ファイル)などを適宜、更新、追加、削除などを行うことができる。   The other processing units 218 include a function for updating each storage unit of the controller 22 based on information provided by the robot control server, a speech trigger generation function, and the like. For example, related item information, a voice recognition dictionary, an image recognition engine, an operation pattern (LED lighting display pattern, head operation pattern, utterance file), and the like can be appropriately updated, added, deleted, and the like.

(動作について)
次に、メモリ22Bの制御プログラムに従って外部情報取得部212、関連アイテム情報決定部213、アイテム探索部214、言動決定部215、コンテンツ再生部(言動実行部)217として機能するコントローラ22(ロボット制御装置)のCPUの処理動作を説明する。
(About operation)
Next, the controller 22 (robot control device) that functions as the external information acquisition unit 212, the related item information determination unit 213, the item search unit 214, the behavior determination unit 215, and the content reproduction unit (speech execution unit) 217 according to the control program in the memory 22B. ) Will be described.

まず、図15に示すように、利用者の前記ロボットに対する言動要求の一例である音声指示入力(ステップS210)によりロボットが音声認識を行い音声認識結果が言動実行部に伝達されると、シナリオ選択部215aは、シナリオ情報記憶部225からサービス内容に応じたシナリオを読み込む(S211:シナリオ選択ステップ)。
どのシナリオを読み込むかは、設定またはユーザの指示に基づき決定される。
First, as shown in FIG. 15, when the robot recognizes a voice in response to a voice instruction input (step S210), which is an example of a behavior request to the robot, a scenario is selected. The unit 215a reads a scenario corresponding to the service content from the scenario information storage unit 225 (S211: scenario selection step).
Which scenario is read is determined based on settings or user instructions.

続いて、取得手段(外部情報取得部212)として機能するロボットのコントローラが、外部情報を取得する(S212〜S216:外部情報取得ステップ)。
この際、ロボット制御サーバに対して情報取得要求を送信し(ステップS212)、続いてロボット制御サーバが情報提供サーバに対して情報検索を行い(ステップS213)、ロボット制御サーバが外部情報を得る(ステップS214)と、ロボット制御サーバからロボットに外部情報が通知され(ステップS215)、ロボットが外部情報を取得できる(ステップS216)。
Subsequently, the controller of the robot that functions as an acquisition unit (external information acquisition unit 212) acquires external information (S212 to S216: external information acquisition step).
At this time, an information acquisition request is transmitted to the robot control server (step S212), then the robot control server searches the information providing server for information (step S213), and the robot control server obtains external information (step S213). In step S214), the robot control server notifies the robot of external information (step S215), and the robot can acquire the external information (step S216).

その後のステップS217からステップS211までは、前記第1の実施の形態と同様の処理をロボット側が行うこととなる。
この際、アイテム探索部は、ロボットから物品までの距離なども推定可能で動作パターン情報記憶部予め用意されている動作パターンに位置情報を書き込むことによって、ロボットが言動実行をする際にアイテム位置まで案内動作する(ステップS232)も可能となる。
In subsequent steps S217 to S211, the robot side performs the same processing as in the first embodiment.
At this time, the item search unit can estimate the distance from the robot to the article, etc., and the operation pattern information storage unit writes the position information to the operation pattern prepared in advance, so that the item position is A guidance operation (step S232) is also possible.

このように本実施の形態では、前記第1の実施の形態と同様の作用効果を奏しながらも、アイテム位置までロボットが案内するので、利用者に対してさらに詳細なアドバイス、ナビゲーションを行うことができる。   As described above, in this embodiment, the robot guides to the item position while providing the same operational effects as the first embodiment, so that more detailed advice and navigation can be performed for the user. it can.

その他の構成およびその他のステップないしは機能並びにその作用効果については、前述した実施の形態の場合と同一となっている。また、上記の説明において、上述した各ステップの動作内容及び各部の構成要素並びにそれらによる各機能をプログラム化(ソフトウエアプログラム)し、コンピュータに実行させてもよい。   Other configurations, other steps or functions, and the effects thereof are the same as those in the above-described embodiment. In the above description, the operation content of each step described above, the constituent elements of each unit, and the functions thereof may be programmed (software program) and executed by a computer.

さらに、以上説明した方法は、コンピュータがプログラムを記録媒体から読み込んで実行することによっても実現することが出来る。すなわち、上述のプログラムを、情報記録媒体に記録した構成であってもよい。   Furthermore, the method described above can also be realized by a computer reading a program from a recording medium and executing it. That is, the structure which recorded the above-mentioned program on the information recording medium may be sufficient.

[その他の各種変形例]
また、本発明にかかる装置及び方法は、そのいくつかの特定の実施の形態に従って説明してきたが、本発明の主旨および範囲から逸脱することなく本発明の本文に記述した実施の形態に対して種々の変形が可能である。
[Other variations]
Also, although the apparatus and method according to the present invention have been described according to some specific embodiments thereof, the embodiments described in the text of the present invention can be used without departing from the spirit and scope of the present invention. Various modifications are possible.

また、ロボット制御サーバからの制御項目例としては、ロボットの遠隔操作を行う処理の他、利用者の名前などの登録処理、利用者の国籍によりロボットが発話する言語を選択する処理、アンケート機能・目覚まし機能・タイムキーパ機能など利用者の利用する機能内容の登録処理、最新ニュース情報提供サービス登録処理、天気予報提供サービス登録処理、イベント情報提供サービス登録処理、ロボットに新たにコンテンツを追加する処理、ロボットを遠隔監視によりロボットの状態管理を行う処理機能、ロボットの言動を遠隔操作で補助する処理などが挙げられる。   Examples of control items from the robot control server include remote processing of the robot, registration processing of the user's name, etc., processing of selecting the language spoken by the robot according to the user's nationality, questionnaire function / Registration of function contents used by users such as alarm function and time keeper function, latest news information provision service registration process, weather forecast provision service registration process, event information provision service registration process, process for newly adding content to a robot, robot A processing function for managing the state of the robot by remote monitoring, a processing for assisting the robot's behavior by remote operation, and the like.

さらに、ロボット制御サーバは、コンテンツ更新機能、ユーザ履歴蓄積機能、遠隔操作コックピット機能、半自動機能、使用開始アラーム機能、映像をログとする使用履歴記録機能、異常検出アラーム機能、ユーザの質問に対する回答機能などを備えてよい。   Furthermore, the robot control server has a content update function, a user history storage function, a remote operation cockpit function, a semi-automatic function, a use start alarm function, a use history recording function using a video as a log, an abnormality detection alarm function, and a function for answering user questions. Etc. may be provided.

これらの機能を用いてロボット制御システムによる情報提供サービスの例としては、例えば、認知症の脳トレとして活用できる脳トレロボとしての機能、サーモグラフによる昼夜問わずに監視可能な監視ロボとしての機能、語学練習用として活用できる語学練習ロボとしての機能、音声応答機能・遠隔操作機能・遠隔設定機能によるタイムキーパーロボとしての機能などが挙げられる。   Examples of information providing services by robot control systems using these functions include, for example, a function as a brain trerobo that can be used as a brain training for dementia, a function as a monitoring robot that can be monitored day and night by a thermograph, Functions as a language practice robot that can be used for language practice, functions as a time keeper robot with voice response function, remote operation function, and remote setting function.

また、他の情報提供サービスの例としては、アンケート機能(オペレータ・フィードバック、リアルタイム、アフター)、コメント(ライブメッセージ収集)昨日、ユーザ属性記録機能(年齢、性別)、準備しておいたコンテンツを順次展開する機能(特定時刻に言動を実行する)、ユーザの履歴(内容・頻度)に応じた対話・情報提供機能、複数クライアントの使用場所の履歴を活用した観光案内機能、メンタル状況などの健康管理機能、ユーザ履歴(内容・頻度)に応じた対話・情報提供、ユーザ間、家族間のメッセージの取次ぎ、人・店の呼び出し、取次ぎ機能、予約システムとしての機能、店舗商品案内機能などが挙げられる。   Other examples of information services include questionnaire function (operator feedback, real-time, after-sales), comment (live message collection) yesterday, user attribute recording function (age, gender), and prepared content in sequence. Functions to be deployed (execution at specific times), dialogue / information provision function according to user's history (content / frequency), tourist information function utilizing the history of multiple client locations, health management such as mental status Functions, dialogue / information provision according to user history (content / frequency), intermediary of messages between users and family members, calling of people / stores, intermediary functions, functions as a reservation system, store product guidance functions, etc. .

このような機能を利用することによって、例えば、利用者が「今日のニュースは?」と話しかけると、ロボットは「今日は、**が発生したよ」という発話とともに当該発話に対応する動作(頭部の2方向の動作及び各LEDの表示パターン)を実行することができる。
また、利用者が「今日は何があるの?」と話しかけると、ロボットは「午後に広場で、**がある」という発話とともに当該発話に対応する動作(頭部の2方向の動作及び各LEDの表示パターン)を実行することができる。
さらに、利用者が「明日**時に起こしてね」と話しかけると、ロボットは所定の時刻に「**時だよ**さん、起きて」という発話とともに当該発話に対応する動作(頭部の2方向の動作及び各LEDの表示パターン)を実行することができる。
また、ロボット制御システムが他の例えば病院情報システムや電子カルテシステムなどと通信網を介して通信接続することにより、患者IDなどを用いて、ロボットが利用者との対話の最中に、所定の時刻になると服用すべき薬のリストを実際にその場所に前記薬があるかどうかをチェックしつつロボットの愛くるしい表現動作(頭部の2方向の動作及び各LEDの表示パターン)とともに告知したりすることもでき、利用者(例えば患者など)をなごませることもできる。
By using such a function, for example, when a user speaks “What is today's news?”, The robot responds to the utterance along with the utterance “Today, ** has occurred”. Operation in two directions and display pattern of each LED).
In addition, when the user talks, “What is there today?”, The robot responds to the utterance with the utterance “There is a ** in the square in the afternoon” LED display pattern) can be executed.
Furthermore, when the user speaks “Wake me up to ** tomorrow”, the robot will respond to the utterance with the utterance “Mr. The operation in two directions and the display pattern of each LED) can be executed.
In addition, the robot control system communicates with other, for example, hospital information systems, electronic medical record systems, and the like via a communication network, so that the robot uses a patient ID and the like during a dialog with the user. When the time comes, a list of medicines to be taken is announced along with the robot's lovely expression (two head movements and LED display patterns) while checking whether the medicine is actually there. You can also frustrate users (for example, patients).

例えば、上記構成部材の数、位置、形状等は上記実施の形態に限定されず、本発明を実施する上で好適な数、位置、形状等にすることができる。すなわち、上記実施の形態では、外部情報に関連するアイテム(物品)を1つ探索する場合を示したが、本発明は、これらの個数を制限するものではない。例えば、2以上の種類のアイテムを探索する場合であってもよい。   For example, the number, position, shape, and the like of the constituent members are not limited to the above-described embodiment, and can be set to a suitable number, position, shape, and the like in practicing the present invention. That is, although the case where one item (article) related to external information is searched for has been described in the above embodiment, the present invention does not limit the number of these items. For example, it may be a case where two or more types of items are searched.

また、アイテム探索を行う際には、CCDカメラ(画像取得部)からの画像情報を画像認識部により画像認識を行い、この画像認識情報と既登録画像認識情報に基づきアイテム探索を行う第1のアイテム探索と、タグリーダ(タグ識別情報取得部)からのタグ識別情報と既登録タグ識別情報とに基づきアイテム探索を行う第2のアイテム探索を行う構成としたが、他の手法によるアイテム探索を組み合わせてもよい。   Further, when performing an item search, the image information from the CCD camera (image acquisition unit) is recognized by the image recognition unit, and the item search is performed based on the image recognition information and the registered image recognition information. The item search is configured to perform the second item search that performs the item search based on the tag identification information from the tag reader (tag identification information acquisition unit) and the registered tag identification information. May be.

また、ロボット装置は、アーム部およびそれを駆動するアクチュエータを含む構成とすることもでき、コントローラによりアーム部を駆動するアクチュエータを制御して、ロボットに指切りや握手等をさせることもできる。これにより、例えば探索したアイテムを実際に探し出して、利用者の手元に手渡すなども可能となる。   Further, the robot apparatus may include an arm unit and an actuator that drives the arm unit, and the actuator that drives the arm unit may be controlled by a controller to cause the robot to perform finger-cutting, shaking hands, and the like. As a result, for example, the searched item can be actually found and handed to the user.

以上で説明したロボット制御システムの各構成要素は、任意のコンピュータのCPU、メモリ、メモリにロードされた図の構成要素を実現するプログラム、そのプログラムを格納するハードディスク等の記憶ユニット、ネットワーク接続用インターフェースを中心にハードウェアとソフトウェアの任意の組合せによって実現される。そして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。   Each component of the robot control system described above includes an arbitrary computer CPU, memory, a program for realizing the components shown in the diagram loaded in the memory, a storage unit such as a hard disk for storing the program, and a network connection interface. It is realized by any combination of hardware and software. It will be understood by those skilled in the art that there are various modifications to the implementation method and apparatus.

また、ロボット制御システムに用いられるロボットは、自律移動可能なロボット装置とすることもできる。ロボット制御システムは、ロボット装置内に組み込まれてもよく、ロボット装置外部に設けられ、外部からロボット装置を制御するようにすることもできる。
また、ロボット制御システムの一部のみがロボット装置内に組み込まれた構成とすることもできる。ロボット制御システムがロボット装置外部に設けられた場合、無線通信等の種々のネットワークを介して、ロボット装置に制御信号が送信される。また、ロボット制御システムの一部のみがロボット装置内に組み込まれ、残りがロボット装置外部に設けられた場合、それらの間のデータの授受も、無線通信等の種々のネットワークを介して行うことができる。
たとえば、本実施の形態において、外部情報取得部、関連アイテム決定部のみロボット装置外部に設け、それ以外の構成をロボット装置内に組み込んだ構成とすることができる。
Further, the robot used in the robot control system may be a robot device that can move autonomously. The robot control system may be incorporated in the robot apparatus, provided outside the robot apparatus, and controlled from the outside.
Further, only a part of the robot control system may be incorporated in the robot apparatus. When the robot control system is provided outside the robot apparatus, a control signal is transmitted to the robot apparatus via various networks such as wireless communication. In addition, when only a part of the robot control system is incorporated in the robot apparatus and the rest is provided outside the robot apparatus, data can be exchanged between them via various networks such as wireless communication. it can.
For example, in the present embodiment, only the external information acquisition unit and the related item determination unit may be provided outside the robot apparatus, and other configurations may be incorporated in the robot apparatus.

このように、前記実施の形態における「システム」とは、複数の装置が論理的に集合した物をいい、各構成の装置が同一筐体中にあるか否かは問わない。このため、本発明は、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。   As described above, the “system” in the above-described embodiment refers to a logical collection of a plurality of devices, and it does not matter whether the devices of each configuration are in the same housing. For this reason, this invention may be applied to the system comprised from a some apparatus, and may be applied to the apparatus which consists of one apparatus.

さらに、ロボットと遠隔管理装置との間の通信構造は、クライアントサーバーシステムに限らず、サーバを介さずに端末同士がネットワークを組み、相互にデータを送受信するピアツーピア(Peer To Peer)通信によるシステムであってもよい。また、通信構造に際し、いずれか一方又は双方に形成されるインタフェースの種類は、例えばパラレルインタフェース、USBインタフェース、IEEE1394、LANやWAN等のネットワークやその他これに類するもの、もしくは今後開発される如何なるインタフェースであっても構わない。   Furthermore, the communication structure between the robot and the remote management device is not limited to a client server system, but is a system based on peer-to-peer (Peer To Peer) communication in which terminals form a network without passing through a server and transmit / receive data to / from each other. There may be. In addition, in the communication structure, the type of interface formed on one or both of them is, for example, a parallel interface, USB interface, IEEE 1394, LAN, WAN, or the like, or the like, or any interface developed in the future. It does not matter.

さらに、遠隔管理装置は、例えば各種サーバーに限らず、パーソナルコンピュータ、EWS(エンジニアリングワークステーション)、中型コンピュータ、メインフレーム、携帯型情報端末、PDA、携帯電話機、ウエアラブル情報端末、各種情報通信機能を搭載した家電機器、ネットワーク機能を有するゲーム機器等であってもよい。   Furthermore, the remote management device is not limited to various servers, for example, and is equipped with a personal computer, EWS (engineering workstation), medium-sized computer, mainframe, portable information terminal, PDA, mobile phone, wearable information terminal, various information communication functions It may be a home appliance, a game device having a network function, or the like.

さらに、「通信」では、無線通信および有線通信は勿論、無線通信と有線通信とが混在した通信、即ち、ある区間では無線通信が行われ、他の区間では有線通信が行われるようなものであってもよい。さらに、ある装置から他の装置への通信が有線通信で行われ、他の装置からある装置への通信が無線通信で行われるようなものであってもよい。   Further, in “communication”, wireless communication and wired communication as well as communication in which wireless communication and wired communication are mixed, that is, wireless communication is performed in a certain section and wired communication is performed in another section. There may be. Further, communication from one device to another device may be performed by wired communication, and communication from another device to one device may be performed by wireless communication.

そして、この通信には通信網が含まれる。通信網を構成するネットワークとしては、例えば携帯電話回線網(基地局及び交換システムを含む)、公衆電話回線網、IP電話網、ISDN回線網などこれに類する各種回線網、インターネット(乃ち、TCP・IPプロトコルを用いた通信態様)やイントラネット、LAN<イーサネット(登録商標)、やギガビットイーサネット(登録商標)などを含む>、WAN、光ファイバー通信網、電力線通信網、ブロードバンド対応可能な各種専用回線網などいずれのハードウエア構成でもよい。さらに、ネットワークは、TCP・IPプロトコルの他、種々の通信プロトコルを用いたネットワークあるいはソフトウエア的に構築された仮想ネットワークやこれに類するあらゆるネットワークを含むネットワークなどいかなる通信プロトコルであってもよい。また、ネットワークは、有線に限らず、無線(衛星通信、各種高周波通信手段等を含む)ネットワーク(例えば、簡易電話システムや携帯電話のようなシングルキャリア通信システム、W―CDMAやIEEE802.11bに準拠した無線LANのようなスペクトラム拡散通信システム、IEEE802.11aやHiperLAN/2のようなマルチキャリア通信システム、などを含むネットワーク)であっても構わず、これらの組み合わせを利用してもよく、他のネットワークと接続されたシステムであってもよい。さらに、ネットワークは、ポイントツーポイント、ポイントツーマルチポイント、マルチポイントツーマルチポイントなど如何なる形態でもよい。   This communication includes a communication network. As a network constituting the communication network, for example, a cellular phone network (including a base station and an exchange system), a public phone network, an IP phone network, an ISDN network such as various network networks, the Internet (Nochi, TCP. Communication mode using IP protocol), Intranet, LAN (including Ethernet (registered trademark), Gigabit Ethernet (registered trademark), etc.), WAN, optical fiber communication network, power line communication network, various dedicated line networks compatible with broadband, etc. Any hardware configuration may be used. In addition to the TCP / IP protocol, the network may be any communication protocol such as a network using various communication protocols, a virtual network constructed in software, or a network including any network similar thereto. Further, the network is not limited to a wired network, but includes a wireless (including satellite communication, various high-frequency communication means, etc.) network (for example, a single carrier communication system such as a simple telephone system or a mobile phone, W-CDMA or IEEE 802.11b). Network including a spread spectrum communication system such as a wireless LAN, a multi-carrier communication system such as IEEE802.11a and HiperLAN / 2, etc., or a combination of these may be used. It may be a system connected to a network. Further, the network may take any form such as point-to-point, point-to-multipoint, multipoint-to-multipoint.

また、発明の範囲は図示例に限定されず、上記以外の様々な構成を採用することもできる。さらに、上記各実施の形態には種々の段階が含まれており、開示される複数の構成要件における適宜な組み合わせにより種々の発明が抽出され得る。つまり、上述の各実施の形態同士、あるいはそれらのいずれかと各変形例のいずれかとの組み合わせによる例をも含む。   Further, the scope of the invention is not limited to the illustrated example, and various configurations other than the above can be adopted. Further, the above embodiments include various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. That is, examples include combinations of the above-described embodiments, or any of them and any of the modifications.

本発明は、種々のロボット制御全般に利用できる。   The present invention can be used for various types of robot control in general.

本発明の第1の実施の形態によるロボット制御システムの全体構成の一例を示すブロック図である。It is a block diagram which shows an example of the whole structure of the robot control system by the 1st Embodiment of this invention. 図1に示すロボット制御システムにおけるロボットのハードウエア詳細構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware detailed structure of the robot in the robot control system shown in FIG. 図1に示すロボット制御システムにおけるロボットの外観の一例を示す説明である。2 is an explanation showing an example of an appearance of a robot in the robot control system shown in FIG. 1. 図1に示すロボット制御システムにおけるロボットのソフトウエア詳細構成の一例を示すブロック図である。It is a block diagram which shows an example of the detailed software configuration of the robot in the robot control system shown in FIG. 図1に示すロボット制御システムにおける遠隔管理装置の詳細構成の一例を示すブロック図である。It is a block diagram which shows an example of a detailed structure of the remote management apparatus in the robot control system shown in FIG. 本発明の第1の実施の形態によるロボット制御システムにおける全体の処理手順の一例を示すネットワークシーケンス図である。It is a network sequence diagram which shows an example of the whole process sequence in the robot control system by the 1st Embodiment of this invention. 図1に示すロボット制御システムにおけるロボットが設置される環境においてアイテムを探索する状況の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the condition which searches an item in the environment where the robot in the robot control system shown in FIG. 1 is installed. 図1に示すロボット制御システムにおけるロボットの胸LED群の点灯パターンによって感情パターンを表現する一例を説明するための説明図である。It is explanatory drawing for demonstrating an example which expresses an emotion pattern with the lighting pattern of the chest LED group of the robot in the robot control system shown in FIG. 図1に示すロボット制御システムにおけるロボットの胸LED群の点灯制御をする際の輝度の時間変化の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the time change of the brightness | luminance at the time of lighting control of the chest LED group of the robot in the robot control system shown in FIG. 図1に示すロボット制御システムにおけるロボットの胸LED群の点灯パターンによって感情パターンを表現する一例を説明するための説明図である。It is explanatory drawing for demonstrating an example which expresses an emotion pattern with the lighting pattern of the chest LED group of the robot in the robot control system shown in FIG. 図1に示すロボット制御システムにおけるロボットの胸LED群の点灯制御をする際の輝度の時間変化の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the time change of the brightness | luminance at the time of lighting control of the chest LED group of the robot in the robot control system shown in FIG. 図1に示すロボット制御システムにおけるロボットの胸LED群の点灯パターンによって感情パターンを表現する一例を説明するための説明図である。It is explanatory drawing for demonstrating an example which expresses an emotion pattern with the lighting pattern of the chest LED group of the robot in the robot control system shown in FIG. 図1に示すロボット制御システムにおけるロボットの胸LED群の点灯制御をする際の輝度の時間変化の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the time change of the brightness | luminance at the time of lighting control of the chest LED group of the robot in the robot control system shown in FIG. 本発明の第2の実施の形態によるロボット制御システムにおけるロボットの詳細構成の一例を示すブロック図である。It is a block diagram which shows an example of the detailed structure of the robot in the robot control system by the 2nd Embodiment of this invention. 本発明の第2の実施の形態によるロボット制御システムにおける全体の処理手順の一例を示すネットワークシーケンス図である。It is a network sequence diagram which shows an example of the whole process sequence in the robot control system by the 2nd Embodiment of this invention.

符号の説明Explanation of symbols

1 ロボット制御システム

10、210 ロボット
20 胴体部
22 コントローラ
22A CPU
22B メモリ
31 バッテリ
32 スピーカ(音声出力部)
33 マイク群(環境認識マイク)
34A、34B アクチュエータ
42 通信I/F
43 各種端子
44 タグリーダ(タグ識別情報取得部)
45 胸LED群(感情パターン表示部)
46 各種LED群
47 各種センサ群
50 頭部
51A、51B CCDカメラ(画像情報取得部)
52A、52B アクチュエータ
53 マイク(音声入力部)
54 タッチセンサ
55 サーモグラフィ
56 耳LED群
57 顔LED群
58 目LED群
92 アイテム探索実行部(アイテム探索実行手段)
92a 第1のアイテム探索実行部
92b 第2のアイテム探索実行部

110 ロボット制御サーバ(遠隔管理装置)
112、212 外部情報取得部(取得手段)
113、213 関連アイテム情報決定部(アイテム決定手段)
114 アイテム探索制御部(アイテム探索制御手段)
114a 第1のアイテム探索制御部
114b 第2のアイテム探索制御部
115、215 言動決定部(言動決定手段)
115a、215a シナリオ選択部
115b、215b 動作パターン選択部
115c、215c コンテンツ生成部
116 コンテンツ供給部(コンテンツ供給手段)
121、221 関連アイテム情報記憶部
122、222 特徴点パターン情報記憶部
123、223 タグ識別情報記憶部
124、224 動作パターン情報記憶部
125、225 シナリオ情報記憶部
126、226 コンテンツ記憶部

130 情報提供サーバ

214 アイテム探索部(アイテム探索制御手段)
214a 第1のアイテム探索部
214b 第2のアイテム探索部
217 コンテンツ再生部(言動実行制御手段)
217a 音声合成部
217b メカ制御部
217c LED制御部
227 音声認識辞書記憶部
231 画像認識部
232 音声認識部
233 接触認識部
234 発話トリガー発生部

NW 通信網
1 Robot control system

10, 210 Robot 20 Body 22 Controller 22A CPU
22B Memory 31 Battery 32 Speaker (Audio output unit)
33 Microphone group (environment recognition microphone)
34A, 34B Actuator 42 Communication I / F
43 Various terminals 44 Tag reader (tag identification information acquisition unit)
45 Chest LED group (Emotion pattern display)
46 Various LED groups 47 Various sensor groups 50 Head 51A, 51B CCD camera (image information acquisition unit)
52A, 52B Actuator 53 Microphone (voice input unit)
54 Touch Sensor 55 Thermography 56 Ear LED Group 57 Face LED Group 58 Eye LED Group 92 Item Search Execution Unit (Item Search Execution Unit)
92a First item search execution unit 92b Second item search execution unit

110 Robot control server (remote management device)
112, 212 External information acquisition unit (acquisition means)
113, 213 related item information determination part (item determination means)
114 Item Search Control Unit (Item Search Control Unit)
114a 1st item search control part 114b 2nd item search control part 115,215 behavior determination part (speech determination means)
115a, 215a Scenario selection unit 115b, 215b Operation pattern selection unit 115c, 215c Content generation unit 116 Content supply unit (content supply means)
121, 221 Related item information storage unit 122, 222 Feature point pattern information storage unit 123, 223 Tag identification information storage unit 124, 224 Operation pattern information storage unit 125, 225 Scenario information storage unit 126, 226 Content storage unit

130 Information provision server

214 Item Search Unit (Item Search Control Unit)
214a First item search unit 214b Second item search unit 217 Content playback unit (speech execution control means)
217a Speech synthesis unit 217b Mechanical control unit 217c LED control unit 227 Speech recognition dictionary storage unit 231 Image recognition unit 232 Speech recognition unit 233 Contact recognition unit 234 Speech trigger generation unit

NW communication network

Claims (14)

少なくとも利用者と対話可能なロボットと、前記ロボットと通信網を介して通信接続され前記ロボットを制御する遠隔管理装置と、を備え、
前記遠隔管理装置は、
前記利用者の前記ロボットに対する言動要求又は所定の時刻に生成されるサービス開始要求に基づいて、情報提供空間が構築された前記通信網を通じて外部情報を取得する取得手段と、
前記外部情報に関連するアイテムを決定するアイテム決定手段と、
前記アイテムが前記ロボットの周辺にあるかどうかを前記ロボットに探索させるための制御をし、前記アイテムの有無を判定するアイテム探索制御手段と、
前記アイテム探索制御手段にて前記アイテムがあると判定された場合、前記利用者に対して前記外部情報及び前記アイテムを含む情報を告知するように前記ロボットの言動条件を決定しこの言動条件をコンテンツとして生成する言動決定手段と、
前記コンテンツを前記ロボットに供給するコンテンツ供給手段と、
を備え、
前記ロボットは、
前記アイテム探索制御手段からのアイテム探索要求に応じて前記アイテムの探索を実行するアイテム探索実行手段と、
前記コンテンツ供給手段からの前記コンテンツを受信し、前記コンテンツに含まれる前記言動条件を実行する言動実行制御手段と、
を備えたことを特徴とするロボット制御システム。
A robot capable of interacting with at least a user, and a remote management device that is connected to the robot via a communication network and controls the robot,
The remote management device is:
An acquisition means for acquiring external information through the communication network in which an information providing space is constructed based on a request for speech from the user to the robot or a service start request generated at a predetermined time;
Item determining means for determining an item related to the external information;
Control for causing the robot to search whether the item is in the vicinity of the robot, and item search control means for determining the presence or absence of the item;
When the item search control means determines that the item is present, the behavior condition of the robot is determined so as to notify the user of the external information and the information including the item, and the behavior condition is set as the content. The behavior determination means to generate as
Content supply means for supplying the content to the robot;
With
The robot is
Item search execution means for executing a search for the item in response to an item search request from the item search control means;
Behavior execution control means for receiving the content from the content supply means and executing the behavior conditions included in the content;
A robot control system comprising:
請求項1に記載のロボット制御システムにおいて、
前記アイテム探索制御手段は、前記アイテムの有無を画像認識情報により探索することを特徴とするロボット制御システム。
The robot control system according to claim 1,
The item search control means searches for presence / absence of the item based on image recognition information.
請求項2に記載のロボット制御システムにおいて、
前記アイテム探索制御手段は、前記画像認識情報により前記アイテムが無いと判定された場合に、前記アイテムの有無を予め前記アイテムに備えた無線電子タグからのタグ識別情報により探索することを特徴とするロボット制御システム。
The robot control system according to claim 2, wherein
The item search control means searches for the presence / absence of the item in advance using tag identification information from a wireless electronic tag provided in the item when it is determined by the image recognition information that the item is not present. Robot control system.
少なくとも利用者と対話可能なロボットと通信網を介して通信接続され前記ロボットを遠隔制御するとともに前記ロボットに対して情報提供可能な遠隔管理装置であって、
前記利用者の前記ロボットに対する言動要求又は所定の時刻に生成されるサービス開始要求に基づいて、情報提供空間が構築された前記通信網を通じて外部情報を取得する取得手段と、
前記外部情報に関連するアイテムを決定するアイテム決定手段と、
前記アイテムが前記ロボットの周辺にあるかどうかを前記ロボットに探索させ、前記アイテムの有無を判定するアイテム探索制御手段と、
前記アイテム探索制御手段にて前記アイテムがあると判定された場合、前記利用者に対して前記外部情報及び前記アイテムを含む情報を告知するように前記ロボットの言動条件を決定しこの言動条件をコンテンツとして生成する言動決定手段と、
前記コンテンツを前記ロボットに供給するコンテンツ供給手段と、
を備えたことを特徴とする遠隔管理装置。
A remote management device capable of communicating with at least a robot capable of interacting with a user via a communication network and remotely controlling the robot and providing information to the robot;
An acquisition means for acquiring external information through the communication network in which an information providing space is constructed based on a request for speech from the user to the robot or a service start request generated at a predetermined time;
Item determining means for determining an item related to the external information;
Item search control means for causing the robot to search whether the item is in the vicinity of the robot and determining the presence or absence of the item;
When the item search control means determines that the item is present, the behavior condition of the robot is determined so as to notify the user of the external information and the information including the item, and the behavior condition is set as the content. The behavior determination means to generate as
Content supply means for supplying the content to the robot;
A remote management device characterized by comprising:
情報提供可能な遠隔管理装置と通信網を介して通信接続され少なくとも利用者と対話可能なロボットであって、
前記遠隔管理装置にて取得された外部情報に関連するアイテムが前記ロボットの周辺にあるかどうかを探索するアイテム探索実行手段と、
前記アイテムがある場合、前記利用者に対して前記外部情報及び前記アイテムを含む情報を告知するように前記ロボットの言動条件を実行する言動実行制御手段と、
を備えたことを特徴とするロボット。
A robot that can communicate with a remote management device capable of providing information via a communication network and can communicate with at least a user,
Item search execution means for searching whether an item related to external information acquired by the remote management device is in the vicinity of the robot;
When the item is present, behavior execution control means for executing behavior conditions of the robot so as to notify the user of the external information and information including the item;
A robot characterized by comprising
請求項5に記載のロボットであって、
前記利用者の前記ロボットに対する言動要求又は所定の時刻に生成されるサービス開始要求に基づいて、情報提供空間が構築された前記通信網を通じて外部情報を取得する取得手段と、
前記外部情報に関連するアイテムを決定するアイテム決定手段と、
前記言動条件を決定する言動決定手段と、
をさらに備えたことを特徴とするロボット。
The robot according to claim 5,
An acquisition means for acquiring external information through the communication network in which an information providing space is constructed based on a request for speech from the user to the robot or a service start request generated at a predetermined time;
Item determining means for determining an item related to the external information;
Behavior determining means for determining the behavior conditions;
A robot characterized by further comprising:
少なくとも利用者と対話可能なロボットと、前記ロボットと通信網を介して通信接続され前記ロボットを制御する遠隔管理装置と、を備えたロボット制御システムにあって、前記ロボットを遠隔管理する遠隔管理方法であって、
前記利用者の前記ロボットに対する言動要求又は所定の時刻に生成されるサービス開始要求に基づいて、情報提供空間が構築された前記通信網を通じて外部情報を取得し、
前記外部情報に関連するアイテムを決定し、
前記アイテムが前記ロボットの周辺にあるかどうかを前記ロボットに探索させ、前記アイテムの有無を判定するアイテム探索制御をし、
前記アイテムがあると判定された場合、前記利用者に対して前記外部情報及び前記アイテムを含む情報を告知するように前記ロボットの言動条件を決定しこの言動条件をコンテンツとして生成する、
ことを特徴とする遠隔管理方法。
A remote control method for remotely managing a robot, comprising: a robot capable of interacting with at least a user; and a remote management device that is connected to the robot via a communication network and controls the robot. Because
Based on the user's behavior request for the robot or a service start request generated at a predetermined time, external information is acquired through the communication network in which an information providing space is constructed,
Determining an item related to the external information;
Whether the item is in the vicinity of the robot, the robot searches, and item search control for determining the presence or absence of the item,
When it is determined that the item is present, the behavior condition of the robot is determined so as to notify the user of the information including the external information and the item, and the behavior condition is generated as content.
A remote management method characterized by that.
請求項7に記載の遠隔管理方法において、
前記アイテム探索制御に際しては、前記アイテムの有無を画像認識情報により探索することを特徴とする遠隔管理方法。
The remote management method according to claim 7,
In the item search control, a remote management method, wherein the presence or absence of the item is searched by image recognition information.
請求項8に記載の遠隔管理方法において、
前記アイテム探索制御に際しては、前記画像認識情報により前記アイテムが無いと判定された場合に、前記アイテムの有無を予め前記アイテムに備えた無線電子タグからのタグ識別情報により探索することを特徴とする遠隔管理方法。
The remote management method according to claim 8, wherein
In the item search control, when it is determined by the image recognition information that the item is not present, the presence or absence of the item is searched in advance using tag identification information from a wireless electronic tag provided in the item. Remote management method.
少なくとも利用者と対話可能なロボットと、前記ロボットと通信網を介して通信接続され前記ロボットを制御する遠隔管理装置と、を備えたロボット制御システムにあって、前記ロボットを制御するロボット制御方法であって、
前記遠隔管理装置にて取得された外部情報に関連するアイテムが前記ロボットの周辺にあるかどうかを探索し、
前記アイテムがある場合、前記利用者に対して前記外部情報及び前記アイテムを含む情報を告知するように前記ロボットの言動条件を実行する、
ことを特徴とするロボット制御方法。
A robot control system comprising at least a robot capable of interacting with a user, and a remote management device that is connected to the robot via a communication network and controls the robot, wherein the robot control method controls the robot. There,
Search whether there is an item related to the external information acquired by the remote management device around the robot,
When the item is present, the behavior condition of the robot is executed so as to notify the user of the external information and information including the item.
A robot control method characterized by the above.
少なくとも利用者と対話可能なロボットと、前記ロボットと通信網を介して通信接続され前記ロボットを制御する遠隔管理装置と、を備えたロボット制御システムにあって、前記遠隔管理装置が備えたコンピュータに諸機能を実現可能な遠隔管理プログラムであって、
前記利用者の前記ロボットに対する言動要求又は所定の時刻に生成されるサービス開始要求に基づいて、情報提供空間が構築された前記通信網を通じて外部情報を取得する取得機能と、
前記外部情報に関連するアイテムを決定するアイテム決定機能と、
前記アイテムが前記ロボットの周辺にあるかどうかを前記ロボットに探索させ、前記アイテムの有無を判定するアイテム探索制御機能と、
前記アイテムがあると判定された場合、前記利用者に対して前記外部情報及び前記アイテムを含む情報を告知するように前記ロボットの言動条件を決定しこの言動条件をコンテンツとして生成する言動決定機能と、
を前記コンピュータに実現させることを特徴とする遠隔管理プログラム。
A robot control system comprising at least a robot capable of interacting with a user, and a remote management device that is connected to the robot via a communication network and controls the robot, the computer comprising the remote management device A remote management program capable of realizing various functions,
An acquisition function for acquiring external information through the communication network in which an information providing space is constructed based on a request for speech from the user to the robot or a service start request generated at a predetermined time;
An item determination function for determining an item related to the external information;
An item search control function for causing the robot to search whether the item is in the vicinity of the robot and determining the presence or absence of the item;
A behavior determination function for determining the behavior condition of the robot so as to notify the user of the information including the external information and the item when it is determined that the item is present; ,
A remote management program for causing the computer to realize the above.
請求項11に記載の遠隔管理プログラムにおいて、
前記アイテム探索制御機能では、前記アイテムの有無を画像認識情報により探索する機能をその内容とし、これを前記コンピュータに実現させることを特徴とする遠隔管理プログラム。
The remote management program according to claim 11, wherein
The item search control function includes a function for searching for presence / absence of the item based on image recognition information, and causing the computer to realize this function.
請求項12に記載の遠隔管理プログラムにおいて、
前記アイテム探索制御機能では、前記画像認識情報により前記アイテムが無いと判定された場合に、前記アイテムの有無を予め前記アイテムに備えた無線電子タグからのタグ識別情報により探索する機能をその内容とし、これを前記コンピュータに実現させることを特徴とする遠隔管理プログラム。
The remote management program according to claim 12, wherein
In the item search control function, when it is determined by the image recognition information that the item does not exist, the content is a function of searching for the presence / absence of the item by tag identification information from a wireless electronic tag provided in the item in advance. A remote management program for causing the computer to realize this.
少なくとも利用者と対話可能なロボットと、前記ロボットと通信網を介して通信接続され前記ロボットを制御する遠隔管理装置と、を備えたロボット制御システムにあって、前記ロボットが備えたコンピュータに諸機能を実現可能なロボット制御ログラムであって、
前記遠隔管理装置にて取得された外部情報に関連するアイテムが前記ロボットの周辺にあるかどうかを探索するアイテム探索実行機能と、
前記アイテムがある場合、前記利用者に対して前記外部情報及び前記アイテムを含む情報を告知するように前記ロボットの言動条件を実行する言動実行制御機能と、
を前記コンピュータに実現させることを特徴とするロボット制御プログラム。
A robot control system comprising at least a robot capable of interacting with a user and a remote management device that is connected to the robot via a communication network and controls the robot. Is a robot control program that can realize
An item search execution function for searching whether an item related to external information acquired by the remote management device is in the vicinity of the robot;
When there is the item, a behavior execution control function for executing the behavior condition of the robot so as to notify the user of the information including the external information and the item;
Is realized by the computer.
JP2008229890A 2008-09-08 2008-09-08 Robot control system, remote management device, remote management method and program Active JP5040865B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008229890A JP5040865B2 (en) 2008-09-08 2008-09-08 Robot control system, remote management device, remote management method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008229890A JP5040865B2 (en) 2008-09-08 2008-09-08 Robot control system, remote management device, remote management method and program

Publications (2)

Publication Number Publication Date
JP2010064154A true JP2010064154A (en) 2010-03-25
JP5040865B2 JP5040865B2 (en) 2012-10-03

Family

ID=42190195

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008229890A Active JP5040865B2 (en) 2008-09-08 2008-09-08 Robot control system, remote management device, remote management method and program

Country Status (1)

Country Link
JP (1) JP5040865B2 (en)

Cited By (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011149902A2 (en) * 2010-05-24 2011-12-01 Intouch Technologies, Inc. Telepresence robot system that can be accessed by a cellular phone
US8340819B2 (en) 2008-09-18 2012-12-25 Intouch Technologies, Inc. Mobile videoconferencing robot system with network adaptive driving
US8384755B2 (en) 2009-08-26 2013-02-26 Intouch Technologies, Inc. Portable remote presence robot
US8401275B2 (en) 2004-07-13 2013-03-19 Intouch Technologies, Inc. Mobile robot with a head-based movement mapping scheme
US8463435B2 (en) 2008-11-25 2013-06-11 Intouch Technologies, Inc. Server connectivity control for tele-presence robot
US8515577B2 (en) 2002-07-25 2013-08-20 Yulun Wang Medical tele-robotic system with a master remote station with an arbitrator
US8670017B2 (en) 2010-03-04 2014-03-11 Intouch Technologies, Inc. Remote presence system including a cart that supports a robot face and an overhead camera
JP2014075045A (en) * 2012-10-04 2014-04-24 Sharp Corp Controller, method for controlling controller, device to be controlled, server, control program, and recording medium
JP2014104513A (en) * 2012-11-22 2014-06-09 Honda Motor Co Ltd Robot
US8836751B2 (en) 2011-11-08 2014-09-16 Intouch Technologies, Inc. Tele-presence system with a user interface that displays different communication links
US8849679B2 (en) 2006-06-15 2014-09-30 Intouch Technologies, Inc. Remote controlled robot system that provides medical images
US8849680B2 (en) 2009-01-29 2014-09-30 Intouch Technologies, Inc. Documentation through a remote presence robot
US8861750B2 (en) 2008-04-17 2014-10-14 Intouch Technologies, Inc. Mobile tele-presence system with a microphone system
US8897920B2 (en) 2009-04-17 2014-11-25 Intouch Technologies, Inc. Tele-presence robot system with software modularity, projector and laser pointer
US8902278B2 (en) 2012-04-11 2014-12-02 Intouch Technologies, Inc. Systems and methods for visualizing and managing telepresence devices in healthcare networks
JP2015013351A (en) * 2013-07-08 2015-01-22 有限会社アイドリーマ Program for controlling robot
JP2015036172A (en) * 2013-08-13 2015-02-23 三菱重工業株式会社 Industrial robot
US8996165B2 (en) 2008-10-21 2015-03-31 Intouch Technologies, Inc. Telepresence robot with a camera boom
US9098611B2 (en) 2012-11-26 2015-08-04 Intouch Technologies, Inc. Enhanced video interaction for a user interface of a telepresence network
US9138891B2 (en) 2008-11-25 2015-09-22 Intouch Technologies, Inc. Server connectivity control for tele-presence robot
US9160783B2 (en) 2007-05-09 2015-10-13 Intouch Technologies, Inc. Robot system that operates through a network firewall
US9174342B2 (en) 2012-05-22 2015-11-03 Intouch Technologies, Inc. Social behavior rules for a medical telepresence robot
US9193065B2 (en) 2008-07-10 2015-11-24 Intouch Technologies, Inc. Docking system for a tele-presence robot
US9198728B2 (en) 2005-09-30 2015-12-01 Intouch Technologies, Inc. Multi-camera mobile teleconferencing platform
USRE45870E1 (en) 2002-07-25 2016-01-26 Intouch Technologies, Inc. Apparatus and method for patient rounding with a remote controlled robot
JP2016018409A (en) * 2014-07-09 2016-02-01 シャープ株式会社 Vehicle travel control device, vehicle travel control system, and vehicle travel control method
US9264664B2 (en) 2010-12-03 2016-02-16 Intouch Technologies, Inc. Systems and methods for dynamic bandwidth allocation
US9296107B2 (en) 2003-12-09 2016-03-29 Intouch Technologies, Inc. Protocol for a remotely controlled videoconferencing robot
US9323250B2 (en) 2011-01-28 2016-04-26 Intouch Technologies, Inc. Time-dependent navigation of telepresence robots
US9361021B2 (en) 2012-05-22 2016-06-07 Irobot Corporation Graphical user interfaces including touchpad driving interfaces for telemedicine devices
US9469030B2 (en) 2011-01-28 2016-10-18 Intouch Technologies Interfacing with a mobile telepresence robot
WO2016203965A1 (en) * 2015-06-17 2016-12-22 Cocoro Sb株式会社 Emotion control system, system, and program
WO2017095570A1 (en) * 2015-12-03 2017-06-08 Intel Corporation Machine object determination based on human interaction
US9842192B2 (en) 2008-07-11 2017-12-12 Intouch Technologies, Inc. Tele-presence robot system with multi-cast features
JP2018030223A (en) * 2016-08-26 2018-03-01 株式会社メニコン Robot for searching lost objects
US9974612B2 (en) 2011-05-19 2018-05-22 Intouch Technologies, Inc. Enhanced diagnostics for a telepresence robot
WO2018174289A1 (en) * 2017-03-24 2018-09-27 株式会社 ゼンショーホールディングス Conversation control system, and robot control system
JP2019098462A (en) * 2017-12-01 2019-06-24 株式会社日立ビルシステム Guide robot system
WO2019123744A1 (en) * 2017-12-22 2019-06-27 ソニー株式会社 Information processing device, information processing method, and program
JP2019123055A (en) * 2018-01-18 2019-07-25 株式会社ユピテル apparatus
US10471588B2 (en) 2008-04-14 2019-11-12 Intouch Technologies, Inc. Robotic based health care system
US10769739B2 (en) 2011-04-25 2020-09-08 Intouch Technologies, Inc. Systems and methods for management of information among medical providers and facilities
US10808882B2 (en) 2010-05-26 2020-10-20 Intouch Technologies, Inc. Tele-robotic system with a robot face placed on a chair
US10875182B2 (en) 2008-03-20 2020-12-29 Teladoc Health, Inc. Remote presence system mounted to operating room hardware
JP2021018741A (en) * 2019-07-23 2021-02-15 株式会社コンシェルジュ Interactive input support system and program
US11154981B2 (en) 2010-02-04 2021-10-26 Teladoc Health, Inc. Robot user interface for telepresence robot system
US11205510B2 (en) 2012-04-11 2021-12-21 Teladoc Health, Inc. Systems and methods for visualizing and managing telepresence devices in healthcare networks
US11389064B2 (en) 2018-04-27 2022-07-19 Teladoc Health, Inc. Telehealth cart that supports a removable tablet with seamless audio/video switching
US11399153B2 (en) 2009-08-26 2022-07-26 Teladoc Health, Inc. Portable telepresence apparatus
US11636944B2 (en) 2017-08-25 2023-04-25 Teladoc Health, Inc. Connectivity infrastructure for a telehealth platform
US11742094B2 (en) 2017-07-25 2023-08-29 Teladoc Health, Inc. Modular telehealth cart with thermal imaging and touch screen user interface
US11862302B2 (en) 2017-04-24 2024-01-02 Teladoc Health, Inc. Automated transcription and documentation of tele-health encounters

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003345435A (en) * 2002-05-24 2003-12-05 Mitsubishi Heavy Ind Ltd Robot and robot system
JP2006079217A (en) * 2004-09-07 2006-03-23 Nec Corp Ic tag management device, robot including the same and ic tag management method
JP3925140B2 (en) * 2001-10-09 2007-06-06 ソニー株式会社 Information providing method, information providing apparatus, and computer program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3925140B2 (en) * 2001-10-09 2007-06-06 ソニー株式会社 Information providing method, information providing apparatus, and computer program
JP2003345435A (en) * 2002-05-24 2003-12-05 Mitsubishi Heavy Ind Ltd Robot and robot system
JP2006079217A (en) * 2004-09-07 2006-03-23 Nec Corp Ic tag management device, robot including the same and ic tag management method

Cited By (104)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10315312B2 (en) 2002-07-25 2019-06-11 Intouch Technologies, Inc. Medical tele-robotic system with a master remote station with an arbitrator
USRE45870E1 (en) 2002-07-25 2016-01-26 Intouch Technologies, Inc. Apparatus and method for patient rounding with a remote controlled robot
US9849593B2 (en) 2002-07-25 2017-12-26 Intouch Technologies, Inc. Medical tele-robotic system with a master remote station with an arbitrator
US8515577B2 (en) 2002-07-25 2013-08-20 Yulun Wang Medical tele-robotic system with a master remote station with an arbitrator
US9296107B2 (en) 2003-12-09 2016-03-29 Intouch Technologies, Inc. Protocol for a remotely controlled videoconferencing robot
US10882190B2 (en) 2003-12-09 2021-01-05 Teladoc Health, Inc. Protocol for a remotely controlled videoconferencing robot
US9375843B2 (en) 2003-12-09 2016-06-28 Intouch Technologies, Inc. Protocol for a remotely controlled videoconferencing robot
US9956690B2 (en) 2003-12-09 2018-05-01 Intouch Technologies, Inc. Protocol for a remotely controlled videoconferencing robot
US8983174B2 (en) 2004-07-13 2015-03-17 Intouch Technologies, Inc. Mobile robot with a head-based movement mapping scheme
US9766624B2 (en) 2004-07-13 2017-09-19 Intouch Technologies, Inc. Mobile robot with a head-based movement mapping scheme
US8401275B2 (en) 2004-07-13 2013-03-19 Intouch Technologies, Inc. Mobile robot with a head-based movement mapping scheme
US10241507B2 (en) 2004-07-13 2019-03-26 Intouch Technologies, Inc. Mobile robot with a head-based movement mapping scheme
US9198728B2 (en) 2005-09-30 2015-12-01 Intouch Technologies, Inc. Multi-camera mobile teleconferencing platform
US10259119B2 (en) 2005-09-30 2019-04-16 Intouch Technologies, Inc. Multi-camera mobile teleconferencing platform
US8849679B2 (en) 2006-06-15 2014-09-30 Intouch Technologies, Inc. Remote controlled robot system that provides medical images
US10682763B2 (en) 2007-05-09 2020-06-16 Intouch Technologies, Inc. Robot system that operates through a network firewall
US9160783B2 (en) 2007-05-09 2015-10-13 Intouch Technologies, Inc. Robot system that operates through a network firewall
US10875182B2 (en) 2008-03-20 2020-12-29 Teladoc Health, Inc. Remote presence system mounted to operating room hardware
US11787060B2 (en) 2008-03-20 2023-10-17 Teladoc Health, Inc. Remote presence system mounted to operating room hardware
US10471588B2 (en) 2008-04-14 2019-11-12 Intouch Technologies, Inc. Robotic based health care system
US11472021B2 (en) 2008-04-14 2022-10-18 Teladoc Health, Inc. Robotic based health care system
US8861750B2 (en) 2008-04-17 2014-10-14 Intouch Technologies, Inc. Mobile tele-presence system with a microphone system
US9193065B2 (en) 2008-07-10 2015-11-24 Intouch Technologies, Inc. Docking system for a tele-presence robot
US10493631B2 (en) 2008-07-10 2019-12-03 Intouch Technologies, Inc. Docking system for a tele-presence robot
US10878960B2 (en) 2008-07-11 2020-12-29 Teladoc Health, Inc. Tele-presence robot system with multi-cast features
US9842192B2 (en) 2008-07-11 2017-12-12 Intouch Technologies, Inc. Tele-presence robot system with multi-cast features
US8340819B2 (en) 2008-09-18 2012-12-25 Intouch Technologies, Inc. Mobile videoconferencing robot system with network adaptive driving
US9429934B2 (en) 2008-09-18 2016-08-30 Intouch Technologies, Inc. Mobile videoconferencing robot system with network adaptive driving
US8996165B2 (en) 2008-10-21 2015-03-31 Intouch Technologies, Inc. Telepresence robot with a camera boom
US9138891B2 (en) 2008-11-25 2015-09-22 Intouch Technologies, Inc. Server connectivity control for tele-presence robot
US10059000B2 (en) 2008-11-25 2018-08-28 Intouch Technologies, Inc. Server connectivity control for a tele-presence robot
US10875183B2 (en) 2008-11-25 2020-12-29 Teladoc Health, Inc. Server connectivity control for tele-presence robot
US8463435B2 (en) 2008-11-25 2013-06-11 Intouch Technologies, Inc. Server connectivity control for tele-presence robot
US8849680B2 (en) 2009-01-29 2014-09-30 Intouch Technologies, Inc. Documentation through a remote presence robot
US10969766B2 (en) 2009-04-17 2021-04-06 Teladoc Health, Inc. Tele-presence robot system with software modularity, projector and laser pointer
US8897920B2 (en) 2009-04-17 2014-11-25 Intouch Technologies, Inc. Tele-presence robot system with software modularity, projector and laser pointer
US10911715B2 (en) 2009-08-26 2021-02-02 Teladoc Health, Inc. Portable remote presence robot
US11399153B2 (en) 2009-08-26 2022-07-26 Teladoc Health, Inc. Portable telepresence apparatus
US9602765B2 (en) 2009-08-26 2017-03-21 Intouch Technologies, Inc. Portable remote presence robot
US10404939B2 (en) 2009-08-26 2019-09-03 Intouch Technologies, Inc. Portable remote presence robot
US8384755B2 (en) 2009-08-26 2013-02-26 Intouch Technologies, Inc. Portable remote presence robot
US11154981B2 (en) 2010-02-04 2021-10-26 Teladoc Health, Inc. Robot user interface for telepresence robot system
US9089972B2 (en) 2010-03-04 2015-07-28 Intouch Technologies, Inc. Remote presence system including a cart that supports a robot face and an overhead camera
US10887545B2 (en) 2010-03-04 2021-01-05 Teladoc Health, Inc. Remote presence system including a cart that supports a robot face and an overhead camera
US8670017B2 (en) 2010-03-04 2014-03-11 Intouch Technologies, Inc. Remote presence system including a cart that supports a robot face and an overhead camera
US11798683B2 (en) 2010-03-04 2023-10-24 Teladoc Health, Inc. Remote presence system including a cart that supports a robot face and an overhead camera
US11389962B2 (en) 2010-05-24 2022-07-19 Teladoc Health, Inc. Telepresence robot system that can be accessed by a cellular phone
WO2011149902A2 (en) * 2010-05-24 2011-12-01 Intouch Technologies, Inc. Telepresence robot system that can be accessed by a cellular phone
US10343283B2 (en) 2010-05-24 2019-07-09 Intouch Technologies, Inc. Telepresence robot system that can be accessed by a cellular phone
WO2011149902A3 (en) * 2010-05-24 2012-02-23 Intouch Technologies, Inc. Telepresence robot system that can be accessed by a cellular phone
US10808882B2 (en) 2010-05-26 2020-10-20 Intouch Technologies, Inc. Tele-robotic system with a robot face placed on a chair
US10218748B2 (en) 2010-12-03 2019-02-26 Intouch Technologies, Inc. Systems and methods for dynamic bandwidth allocation
US9264664B2 (en) 2010-12-03 2016-02-16 Intouch Technologies, Inc. Systems and methods for dynamic bandwidth allocation
US9785149B2 (en) 2011-01-28 2017-10-10 Intouch Technologies, Inc. Time-dependent navigation of telepresence robots
US10399223B2 (en) 2011-01-28 2019-09-03 Intouch Technologies, Inc. Interfacing with a mobile telepresence robot
US9323250B2 (en) 2011-01-28 2016-04-26 Intouch Technologies, Inc. Time-dependent navigation of telepresence robots
US11468983B2 (en) 2011-01-28 2022-10-11 Teladoc Health, Inc. Time-dependent navigation of telepresence robots
US9469030B2 (en) 2011-01-28 2016-10-18 Intouch Technologies Interfacing with a mobile telepresence robot
US11289192B2 (en) 2011-01-28 2022-03-29 Intouch Technologies, Inc. Interfacing with a mobile telepresence robot
US10591921B2 (en) 2011-01-28 2020-03-17 Intouch Technologies, Inc. Time-dependent navigation of telepresence robots
US10769739B2 (en) 2011-04-25 2020-09-08 Intouch Technologies, Inc. Systems and methods for management of information among medical providers and facilities
US9974612B2 (en) 2011-05-19 2018-05-22 Intouch Technologies, Inc. Enhanced diagnostics for a telepresence robot
US8836751B2 (en) 2011-11-08 2014-09-16 Intouch Technologies, Inc. Tele-presence system with a user interface that displays different communication links
US10331323B2 (en) 2011-11-08 2019-06-25 Intouch Technologies, Inc. Tele-presence system with a user interface that displays different communication links
US9715337B2 (en) 2011-11-08 2017-07-25 Intouch Technologies, Inc. Tele-presence system with a user interface that displays different communication links
US8902278B2 (en) 2012-04-11 2014-12-02 Intouch Technologies, Inc. Systems and methods for visualizing and managing telepresence devices in healthcare networks
US10762170B2 (en) 2012-04-11 2020-09-01 Intouch Technologies, Inc. Systems and methods for visualizing patient and telepresence device statistics in a healthcare network
US11205510B2 (en) 2012-04-11 2021-12-21 Teladoc Health, Inc. Systems and methods for visualizing and managing telepresence devices in healthcare networks
US11453126B2 (en) 2012-05-22 2022-09-27 Teladoc Health, Inc. Clinical workflows utilizing autonomous and semi-autonomous telemedicine devices
US9361021B2 (en) 2012-05-22 2016-06-07 Irobot Corporation Graphical user interfaces including touchpad driving interfaces for telemedicine devices
US10658083B2 (en) 2012-05-22 2020-05-19 Intouch Technologies, Inc. Graphical user interfaces including touchpad driving interfaces for telemedicine devices
US10603792B2 (en) 2012-05-22 2020-03-31 Intouch Technologies, Inc. Clinical workflows utilizing autonomous and semiautonomous telemedicine devices
US10328576B2 (en) 2012-05-22 2019-06-25 Intouch Technologies, Inc. Social behavior rules for a medical telepresence robot
US10892052B2 (en) 2012-05-22 2021-01-12 Intouch Technologies, Inc. Graphical user interfaces including touchpad driving interfaces for telemedicine devices
US11628571B2 (en) 2012-05-22 2023-04-18 Teladoc Health, Inc. Social behavior rules for a medical telepresence robot
US10780582B2 (en) 2012-05-22 2020-09-22 Intouch Technologies, Inc. Social behavior rules for a medical telepresence robot
US11515049B2 (en) 2012-05-22 2022-11-29 Teladoc Health, Inc. Graphical user interfaces including touchpad driving interfaces for telemedicine devices
US10061896B2 (en) 2012-05-22 2018-08-28 Intouch Technologies, Inc. Graphical user interfaces including touchpad driving interfaces for telemedicine devices
US9174342B2 (en) 2012-05-22 2015-11-03 Intouch Technologies, Inc. Social behavior rules for a medical telepresence robot
US9776327B2 (en) 2012-05-22 2017-10-03 Intouch Technologies, Inc. Social behavior rules for a medical telepresence robot
JP2014075045A (en) * 2012-10-04 2014-04-24 Sharp Corp Controller, method for controlling controller, device to be controlled, server, control program, and recording medium
JP2014104513A (en) * 2012-11-22 2014-06-09 Honda Motor Co Ltd Robot
US10334205B2 (en) 2012-11-26 2019-06-25 Intouch Technologies, Inc. Enhanced video interaction for a user interface of a telepresence network
US9098611B2 (en) 2012-11-26 2015-08-04 Intouch Technologies, Inc. Enhanced video interaction for a user interface of a telepresence network
US10924708B2 (en) 2012-11-26 2021-02-16 Teladoc Health, Inc. Enhanced video interaction for a user interface of a telepresence network
US11910128B2 (en) 2012-11-26 2024-02-20 Teladoc Health, Inc. Enhanced video interaction for a user interface of a telepresence network
JP2015013351A (en) * 2013-07-08 2015-01-22 有限会社アイドリーマ Program for controlling robot
JP2015036172A (en) * 2013-08-13 2015-02-23 三菱重工業株式会社 Industrial robot
JP2016018409A (en) * 2014-07-09 2016-02-01 シャープ株式会社 Vehicle travel control device, vehicle travel control system, and vehicle travel control method
WO2016203965A1 (en) * 2015-06-17 2016-12-22 Cocoro Sb株式会社 Emotion control system, system, and program
CN107924482A (en) * 2015-06-17 2018-04-17 情感爱思比株式会社 Emotional control system, system and program
JP2017010133A (en) * 2015-06-17 2017-01-12 Cocoro Sb株式会社 Emotion control system, system and program
WO2017095570A1 (en) * 2015-12-03 2017-06-08 Intel Corporation Machine object determination based on human interaction
US9975241B2 (en) 2015-12-03 2018-05-22 Intel Corporation Machine object determination based on human interaction
JP2018030223A (en) * 2016-08-26 2018-03-01 株式会社メニコン Robot for searching lost objects
WO2018174289A1 (en) * 2017-03-24 2018-09-27 株式会社 ゼンショーホールディングス Conversation control system, and robot control system
US11862302B2 (en) 2017-04-24 2024-01-02 Teladoc Health, Inc. Automated transcription and documentation of tele-health encounters
US11742094B2 (en) 2017-07-25 2023-08-29 Teladoc Health, Inc. Modular telehealth cart with thermal imaging and touch screen user interface
US11636944B2 (en) 2017-08-25 2023-04-25 Teladoc Health, Inc. Connectivity infrastructure for a telehealth platform
JP2019098462A (en) * 2017-12-01 2019-06-24 株式会社日立ビルシステム Guide robot system
WO2019123744A1 (en) * 2017-12-22 2019-06-27 ソニー株式会社 Information processing device, information processing method, and program
JP2019123055A (en) * 2018-01-18 2019-07-25 株式会社ユピテル apparatus
US11389064B2 (en) 2018-04-27 2022-07-19 Teladoc Health, Inc. Telehealth cart that supports a removable tablet with seamless audio/video switching
JP2021018741A (en) * 2019-07-23 2021-02-15 株式会社コンシェルジュ Interactive input support system and program

Also Published As

Publication number Publication date
JP5040865B2 (en) 2012-10-03

Similar Documents

Publication Publication Date Title
JP5040865B2 (en) Robot control system, remote management device, remote management method and program
KR102306624B1 (en) Persistent companion device configuration and deployment platform
JP4595436B2 (en) Robot, control method thereof and control program
US8103382B2 (en) Method and system for sharing information through a mobile multimedia platform
US20230305530A1 (en) Information processing apparatus, information processing method and program
JP2020531999A (en) Continuous selection of scenarios based on identification tags that describe the user&#39;s contextual environment for the user&#39;s artificial intelligence model to run by the autonomous personal companion
CN107000210A (en) Apparatus and method for providing lasting partner device
WO2012010437A1 (en) Humanoid robot equipped with a natural dialogue interface, method for controlling the robot and corresponding program
JP2003205483A (en) Robot system and control method for robot device
US11074491B2 (en) Emotionally intelligent companion device
CN107658016A (en) The Nounou intelligent guarding systems accompanied for health care for the aged
CN210155626U (en) Information processing apparatus
CN106730234A (en) A kind of intelligent mood persuasion system
CN110995812A (en) Cross-platform artificial intelligence assistant system application scheme
US20210201914A1 (en) Interactive playground system with enhanced user interaction and computerized method for providing enhanced user interaction in a playground system
CN112204563A (en) System and method for visual scene construction based on user communication
CN109119080A (en) Sound identification method, device, wearable device and storage medium
WO2020116233A1 (en) Information processing device, information processing method, and program
US11511410B2 (en) Artificial intelligence (AI) robot and control method thereof
JP2019124855A (en) Apparatus and program and the like
CN107895101A (en) The Nounou intelligent monitoring devices accompanied for health care for the aged
CN105388786B (en) A kind of intelligent marionette idol control method
WO2016206644A1 (en) Robot control engine and system
JP6864831B2 (en) Robot devices and programs
JP2002261966A (en) Communication support system and photographing equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100611

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120110

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120612

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120625

R150 Certificate of patent or registration of utility model

Ref document number: 5040865

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150720

Year of fee payment: 3