JP2008003807A - Robot control device, method, and program - Google Patents

Robot control device, method, and program Download PDF

Info

Publication number
JP2008003807A
JP2008003807A JP2006171812A JP2006171812A JP2008003807A JP 2008003807 A JP2008003807 A JP 2008003807A JP 2006171812 A JP2006171812 A JP 2006171812A JP 2006171812 A JP2006171812 A JP 2006171812A JP 2008003807 A JP2008003807 A JP 2008003807A
Authority
JP
Japan
Prior art keywords
service
data
robot
user
storage means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006171812A
Other languages
Japanese (ja)
Inventor
Hirohisa Tezuka
博久 手塚
Yoshiyuki Iwata
義行 岩田
Yukihiro Nakamura
幸博 中村
Norifumi Katabuchi
典史 片渕
Yoshimasa Yanagihara
義正 柳原
Yoshito Nanjo
義人 南條
Ayako Takenouchi
紋子 竹野内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2006171812A priority Critical patent/JP2008003807A/en
Publication of JP2008003807A publication Critical patent/JP2008003807A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a user with services appropriate for environments. <P>SOLUTION: A robot control device 2 includes: a storage means 9 wherein service identification data and sense classification data are stored in association with each other; a storage means 10 wherein robot identification data and capability holding data are stored in association with each other; a storage means 8 wherein environment data 21 are stored; a service selection means 14 which select service identification data associated with sense classification data in the case that contents of the sense classification data and contents of environment data 21 are consistent with each other; a robot selection means 16 which selects robot identification data associated with capability holding data in the case that a capability indicated by the capability holding data is a capability to be able to provide a service indicated by service identification data selected by the service selection means 14; and an instruction means 17 which gives an instruction to provide the service indicated by the service identification data selected by the service selection means 14, to a robot indicated by the robot identification data selected by the robot selection means 16. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、サービスを提供するロボットを選択し、この選択されたロボットによりサービスを提供させるための制御を行うロボット制御装置及び方法並びにプログラムに関する。   The present invention relates to a robot control apparatus, method, and program for selecting a robot that provides a service and performing control for providing the service by the selected robot.

オフィスビル、マンション等の受付・案内、入退出管理を対象に、絶対自己位置計測機能を有して、訪問客をカメラによる顔認証により認識し、予め登録済みの案内メニューにしたがって案内サービスを実施する自律移動ロボットが提案されている(ロボティクス・メカトロニクス講演会’05,ビルサービスロボットの開発)。   Targeting reception / guidance and entrance / exit management of office buildings, condominiums, etc., it has an absolute self-position measurement function, recognizes visitors by face authentication using a camera, and provides guidance services according to pre-registered guidance menus Autonomous mobile robots have been proposed (Robotics and Mechatronics Lecture '05, development of building service robots).

ロボティクス・メカトロニクス講演会’05,ビルサービスロボットの開発Robotics and Mechatronics Lecture '05, Development of building service robot

上記従来のロボット制御装置においては、サービスの被提供者である利用者に対して、この利用者の存在する環境に応じたサービス及びロボットが選択されることはない。
本発明は、以上のような実情に鑑みてなされたもので、利用者の存在する環境に応じたサービス及びロボットを選択し、環境に適切なサービスを提供するロボット制御装置及び方法並びにプログラムを提供することを目的とする。
In the conventional robot control apparatus, a service and a robot according to the environment in which the user exists are not selected for the user who is a service recipient.
The present invention has been made in view of the above circumstances, and provides a robot control apparatus, method, and program for selecting a service and a robot according to an environment in which a user exists and providing an appropriate service for the environment. The purpose is to do.

本発明の第1例に係るロボット制御装置は、ロボットが利用者に対して提供するサービスの識別に用いられるサービス識別データと、サービスを人間の感覚に応じて分類した結果を表す感覚分類データとを関連付けて記憶するサービスデータ記憶手段と、ロボットの識別に用いられるロボット識別データと、ロボットの保有能力データとを関連付けて記憶するロボットデータ記憶手段と、利用者にサービスが提供される環境の状態を人間の感覚に応じて表す環境データを記憶する環境データ記憶手段と、サービスデータ記憶手段に記憶されている感覚分類データの内容と環境データ記憶手段に記憶されている環境データの内容とが整合する場合に、感覚分類データと関連付けられているサービス識別データを選択するサービス選択手段と、ロボットデータ記憶手段に記憶されている保有能力データの示す能力が、サービス選択手段によって選択されたサービス識別データの示すサービスを提供可能な能力の場合に、保有能力データと関連付けられているロボット識別データを選択するロボット選択手段と、ロボット選択手段によって選択されたロボット識別データの示すロボットに、サービス選択手段によって選択されたサービス識別データの示すサービスを提供させるための命令を与える命令手段とを具備する。   The robot control apparatus according to the first example of the present invention includes service identification data used for identifying a service provided by a robot to a user, and sensory classification data representing a result of classifying a service according to a human sense. Service data storage means for storing the information in association with each other, robot data storage means for storing the robot identification data used for robot identification and the robot possessing ability data in association with each other, and the state of the environment in which the service is provided to the user The environmental data storage means for storing environmental data representing the human sensation according to the human sense, the content of the sensory classification data stored in the service data storage means and the content of the environmental data stored in the environmental data storage means Service selection means for selecting service identification data associated with sensory classification data, If the ability indicated by the possessed ability data stored in the network data storage means is an ability capable of providing the service indicated by the service identification data selected by the service selecting means, the robot identification data associated with the possessed ability data is obtained. Robot selection means for selecting, and command means for giving a command for causing the robot indicated by the robot identification data selected by the robot selection means to provide the service indicated by the service identification data selected by the service selection means.

これにより、利用者に対して、環境に適切なサービスを適切なロボットを用いて提供することができる。
本発明の第2例に係るロボット制御装置は、上記第1例のロボット制御装置において、利用者の識別に用いられる利用者識別データと、利用者の感覚特徴を表す利用者感覚データとを関連付けて記憶する利用者データ記憶手段をさらに具備し、サービス選択手段は、サービスデータ記憶手段に記憶されている感覚分類データの内容と、環境データ記憶手段に記憶されている環境データの内容と、利用者データ記憶手段に記憶されている利用者感覚データの内容とが整合する場合に、感覚分類データと関連付けられているサービス識別データを選択する、としている。
Thereby, it is possible to provide a user with a service suitable for the environment using a suitable robot.
A robot control device according to a second example of the present invention relates to user identification data used for user identification and user sensory data representing a user's sensory feature in the robot control device of the first example. User data storage means for storing the data, and the service selection means includes the content of the sensory classification data stored in the service data storage means, the content of the environmental data stored in the environmental data storage means, and the use The service identification data associated with the sensory classification data is selected when the contents of the user sensory data stored in the user data storage means match.

この第2例においては、利用者に対して、この利用者の感覚特徴と環境に応じて、適切なサービスを、適切なロボットにより提供することができる。
本発明の第3例に係るロボット制御装置は、上記第2例のロボット制御装置において、利用者データ記憶手段は、利用者識別データと、利用者感覚データと、サービス起動イベントとを関連付けて記憶し、サービス起動イベントの発生を検出するイベント検出手段をさらに具備し、サービス選択手段は、イベント検出手段によってサービス起動イベントが検出された場合に、感覚分類データの内容と、環境データの内容と、サービス起動イベントと関連付けられている利用者感覚データの内容とが整合する場合に、感覚分類データと関連付けられているサービス識別データを選択する、としている。
In the second example, an appropriate service can be provided to the user by an appropriate robot according to the sensory characteristics and environment of the user.
In the robot control apparatus according to the third example of the present invention, in the robot control apparatus of the second example, the user data storage means stores user identification data, user sense data, and a service activation event in association with each other. And event detection means for detecting the occurrence of a service activation event, the service selection means, when a service activation event is detected by the event detection means, the content of sensory classification data, the content of environmental data, The service identification data associated with the sensory classification data is selected when the contents of the user sensory data associated with the service activation event match.

この第3例においては、サービス起動イベントが発生した利用者に対して、この利用者の感覚特徴と環境に応じて、適切なサービスを適切なロボットにより提供することができる。
本発明の第4例に係るロボット制御装置は、上記第2例のロボット制御装置において、利用者データ記憶手段は、利用者識別データと、利用者感覚データと、利用者に対して提供されるサービスを特定するサービス特定データとを関連付けて記憶し、サービス起動イベントの発生を検出するイベント検出手段をさらに具備し、サービス選択手段は、イベント検出手段によってサービス起動イベントが検出された場合に、サービス起動イベントに関連付けられているサービス特定データを取得し、サービス特定データと整合するサービス識別データを取得し、サービス識別データに関連付けられている感覚分類データの内容と、環境データの内容と、サービス起動イベントと関連付けられている利用者感覚データの内容とが整合する場合に、感覚分類データと関連付けられているサービス識別データを選択する、としている。
In this third example, an appropriate service can be provided to a user who has generated a service activation event by an appropriate robot in accordance with the sensory characteristics and environment of the user.
In the robot control device according to the fourth example of the present invention, in the robot control device of the second example, the user data storage means is provided to the user identification data, user sense data, and the user. It further includes event detection means for associating and storing service specifying data for specifying a service, and detecting the occurrence of a service activation event. The service selection means is configured to detect a service activation event detected by the event detection means. Obtains service identification data associated with the activation event, retrieves service identification data consistent with the service identification data, content of sensory classification data associated with the service identification data, content of environmental data, and service activation When the content of the user sense data associated with the event is consistent, Associated with the classification data to select the service identification data is, it is set to.

この第4例においては、利用者データとサービスデータとが、サービス特定データとサービス識別データとによりリンクされている。したがって、利用者に対して、この利用者に割り当てられているサービスを、利用者の感覚特徴と環境に応じて適切なロボットにより提供することができる。   In this fourth example, user data and service data are linked by service specifying data and service identification data. Therefore, the service assigned to the user can be provided to the user by an appropriate robot according to the sensory characteristics and environment of the user.

本発明の第5例に係るロボット制御装置は、上記第1から第4までのロボット制御装置のいずれかにおいて、サービスデータ記憶手段は、サービス識別データと、サービス識別データの示すサービスを提供するために必要な能力を示すサービス提供能力データとを関連付けて記憶し、サービス選択手段は、サービス識別データとともに、サービス識別データと関連付けられているサービス提供能力データを選択し、ロボット選択手段は、ロボットデータ記憶手段に記憶されている保有能力データの示す能力と、サービスデータ記憶手段に記憶されているサービス提供能力データの示す能力とが整合する場合に、保有能力データと関連付けられているロボット識別データを選択する、としている。   In the robot control apparatus according to the fifth example of the present invention, in any of the first to fourth robot control apparatuses, the service data storage means provides service identification data and a service indicated by the service identification data. Service providing capability data indicating the capability required for the service is stored in association with each other, the service selecting unit selects service providing capability data associated with the service identification data together with the service identification data, and the robot selecting unit includes the robot data. If the capability indicated by the possessed capability data stored in the storage means matches the capability indicated by the service providing capability data stored in the service data storage means, the robot identification data associated with the retained capability data is To choose.

この第5例においては、サービスデータとロボットデータとが、サービス提供能力データとロボット保有能力データとによりリンクされており、サービスの提供に必要な能力を持つロボットを選択することができる。
本発明の第6例に係るロボット制御装置は、上記第1から第5までのロボット制御装置のいずれかにおいて、サービスデータ記憶手段は、サービス識別データと、サービス識別データの示すサービスの優先選択レベルとを関連付けて記憶し、サービス選択手段によって複数のサービス識別データが選択された場合に、優先選択レベルの高いサービス識別データを優先して選択する優先選択手段をさらに具備する、としている。
In the fifth example, the service data and the robot data are linked by the service providing ability data and the robot possessing ability data, and a robot having the ability necessary for providing the service can be selected.
In the robot control apparatus according to the sixth example of the present invention, in any of the first to fifth robot control apparatuses, the service data storage means includes service identification data and a priority selection level of a service indicated by the service identification data. Are stored in association with each other, and when a plurality of service identification data are selected by the service selection means, priority selection means for preferentially selecting service identification data having a high priority selection level is further provided.

この第6例においては、複数のサービス識別データのうち、優先度の高いサービス識別データを選択することができる。
なお、上記の第1乃至第6例は装置として表現されている。しかしながら、これに限らず、上記第1乃至第6例は、方法、プログラム、コンピュータ読み取り可能な記憶媒体などで表現されるとしてもよい。
In the sixth example, service identification data with high priority can be selected from among a plurality of service identification data.
The first to sixth examples are expressed as devices. However, the present invention is not limited to this, and the first to sixth examples may be expressed by a method, a program, a computer-readable storage medium, and the like.

本発明により、利用者の存在する環境に応じてサービス及びロボットを選択し、状況に合った適切なサービスを提供することができる。   According to the present invention, it is possible to select a service and a robot according to an environment in which a user exists and provide an appropriate service according to the situation.

以下、図面を参照しながら本発明の実施の形態について説明する。なお、以下の各図において同様の機能を実現する部分については同一の符号を付して説明を省略する。
(第1の実施の形態)
図1は、本実施の形態に係るロボット制御システムの一例を示すブロック図である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. In addition, in the following each figure, about the part which implement | achieves the same function, the same code | symbol is attached | subjected and description is abbreviate | omitted.
(First embodiment)
FIG. 1 is a block diagram showing an example of a robot control system according to the present embodiment.

ロボット制御システム1は、ロボット制御装置(プラットフォームサーバ)2、ネットワーク3、複数のロボット41〜4n、サービス機器5、センサ6を具備する。
なお、ロボット41〜4nは、それぞれの種別が異なっていてもよい。サービス機器5は、ロボットではないが、サービス提供に用いられる機器であり、例えば、ディスプレイなどの画像出力装置、スピーカなどの音出力装置などが用いられる。センサ6は、サービス提供に必要なデータ(人、ロボットの状態、位置、環境情報などのデータ)を検出する装置であり、例えば人体感知センサ、利用者(サービスの被提供者)の位置検出センサ、ロボットの位置検出センサ、カメラなどが用いられる。ロボット41〜4n、サービス機器5及びセンサ6は、ロボット制御装置2とネットワーク3経由でデータを受信又は送信する。サービス機器5及びセンサ6は、複数台備えられていてもよく、種別が異なっていてもよい。サービスは、1つ又は複数のサービスコマンドによって構成され、利用者に対して提供される。サービスコマンドは、いずれかの装置に対して発せられるコマンドである。
The robot control system 1 includes a robot control device (platform server) 2, a network 3, a plurality of robots 41 to 4 n, a service device 5, and a sensor 6.
The robots 41 to 4n may have different types. Although the service device 5 is not a robot, it is a device used for providing services. For example, an image output device such as a display, a sound output device such as a speaker, or the like is used. The sensor 6 is a device that detects data (data such as a person, a robot state, a position, and environmental information) necessary for providing a service. For example, a human body sensor, a position detection sensor for a user (service recipient) Robot position detection sensors, cameras, and the like are used. The robots 41 to 4n, the service device 5, and the sensor 6 receive or transmit data via the robot control device 2 and the network 3. A plurality of service devices 5 and sensors 6 may be provided, and the types may be different. A service is configured by one or a plurality of service commands and provided to a user. The service command is a command issued to any device.

例えば、「近寄って挨拶する」というサービスでは、「人に近づく」「停止する」「発話する」「待機状態にする」というサービスコマンドで構成される。
ロボット制御装置2は、利用者データ記憶装置7、環境データ記憶装置8、サービスデータ記憶装置9、ロボットデータ記憶装置10、サービス状態遷移データ記憶装置11、データ登録部12、イベント検出部13、サービス選択部14、優先選択部15、ロボット選択部16、命令部17、位置検出部18、状態検出部19を具備する。
For example, the service of “approaching to greet” includes service commands of “approaching a person”, “stopping”, “speaking”, and “entering a standby state”.
The robot control device 2 includes a user data storage device 7, an environment data storage device 8, a service data storage device 9, a robot data storage device 10, a service state transition data storage device 11, a data registration unit 12, an event detection unit 13, and a service. A selection unit 14, a priority selection unit 15, a robot selection unit 16, a command unit 17, a position detection unit 18, and a state detection unit 19 are provided.

利用者データ記憶装置7、環境データ記憶装置8、サービスデータ記憶装置9、ロボットデータ記憶装置10、サービス状態遷移データ記憶装置11には、それぞれ利用者データ20、環境データ21、サービスデータ22、ロボットデータ23、サービス状態遷移データ24が記憶されている。   User data storage device 7, environmental data storage device 8, service data storage device 9, robot data storage device 10, and service state transition data storage device 11 include user data 20, environmental data 21, service data 22, and robot, respectively. Data 23 and service state transition data 24 are stored.

本実施の形態において、ロボット制御装置2は、内蔵されている利用者データ記憶装置7、環境データ記憶装置8、サービスデータ記憶装置9、ロボットデータ記憶装置10、サービス状態遷移データ記憶装置11をアクセスする場合を例として説明するが、ロボット制御装置2は、外部の利用者データ記憶装置7、環境データ記憶装置8、サービスデータ記憶装置9、ロボットデータ記憶装置10、サービス状態遷移データ記憶装置11をアクセス可能としてもよい。   In the present embodiment, the robot control device 2 accesses the built-in user data storage device 7, environment data storage device 8, service data storage device 9, robot data storage device 10, and service state transition data storage device 11. As an example, the robot control device 2 includes an external user data storage device 7, an environmental data storage device 8, a service data storage device 9, a robot data storage device 10, and a service state transition data storage device 11. It may be accessible.

図2は、利用者データ20、環境データ21、サービスデータ22、ロボットデータ23、サービス状態遷移データ24の関係の一例を示す図である。
利用者データ20は、利用者ID20a、利用者名20b、利用者に対してサービス提供を開始するイベントを表すサービス起動イベント20c、利用者に対して提供されるサービスの分類を表すサービス分類20d、利用者に対して提供しているサービスの状態を示すサービス提供状態データ20e、人間の五感にそって利用者の有する感覚特徴のリストを表す利用者感覚データ20f、利用者位置・姿勢データ20gを持つ。
FIG. 2 is a diagram illustrating an example of a relationship among user data 20, environment data 21, service data 22, robot data 23, and service state transition data 24.
User data 20 includes a user ID 20a, a user name 20b, a service activation event 20c representing an event for starting service provision to the user, a service classification 20d representing a class of service provided to the user, Service providing status data 20e indicating the status of the service provided to the user, user sense data 20f representing a list of sensory features possessed by the user along the five human senses, and user position / posture data 20g. Have.

ここで、利用者ID20a及び利用者名20bは、利用者の識別に用いられる利用者識別データの一例である。
サービス起動イベント20cとしては、例えば、エリアに入る、エリアから出るなどのイベントが用いられる。
サービス分類20dは、利用者に提供されるサービスを特定するためのサービス特定データの一例である。サービス分類20dとしては、例えば、挨拶、説明、案内などが用いられる。
Here, the user ID 20a and the user name 20b are an example of user identification data used for user identification.
As the service activation event 20c, for example, an event such as entering or leaving an area is used.
The service classification 20d is an example of service specifying data for specifying a service provided to the user. As the service classification 20d, for example, greetings, explanations, guidance, and the like are used.

サービス提供状態データ20eは、例えば、未提供、提供中、提供済などを表す。
利用者感覚データ20fは、例えば、視覚、聴覚、嗅覚、触覚、味覚などの五感のうち利用者が感じることができる感覚を表す。
サービスデータ22は、サービスの属するサービス分類22a、サービスID22b、サービス名22c、サービスが提供される場合に利用者が用いる感覚を表す感覚分類データ22d、サービスの優先選択レベル(グレード)22e、サービスを提供するために必要となるロボットの能力を表すサービス提供能力データ22fを持つ。
The service provision status data 20e represents, for example, not provided, being provided, or provided.
The user sense data 20f represents a sense that the user can feel among the five senses such as sight, hearing, smell, touch, and taste.
The service data 22 includes a service classification 22a to which the service belongs, a service ID 22b, a service name 22c, a sensory classification data 22d representing a sense used by the user when the service is provided, a service priority selection level (grade) 22e, and a service. It has service providing capability data 22f representing the capability of the robot necessary for providing.

ここで、サービスID22b、サービス名22cは、サービスの識別に用いられるサービス識別データの一例である。サービス名22cは、例えば、近寄って発話、発話、近寄りなどを表す。
感覚分類データ22dは、サービスを利用者がどの感覚器官で知覚するかを予め分類した結果であり、例えば、視覚、聴覚、嗅覚、触覚、味覚のいずれか、又は任意の組み合わせを表す。
Here, the service ID 22b and the service name 22c are examples of service identification data used for service identification. The service name 22c represents, for example, approaching speech, speech, approaching, and the like.
The sensory classification data 22d is a result of previously classifying with which sensory organ the user perceives the service, and represents, for example, any one of visual, auditory, olfactory, tactile, and taste, or any combination.

優先選択レベル22eは、例えば、上・中・下のいずれか、または優先順位を表す数値などを表す。
サービス提供能力データ22fは、例えば、回転可能、移動可能、発声可能など、またはこれらの任意の組み合わせを表す。
ロボットデータ23は、ロボットごとに、ロボットID23a、ロボット名23b、ロボットが保有する能力を表すロボット保有能力データ23c、現在のロボットの状態を表すロボット状態データ23d、ロボット位置・姿勢データ23eを持つ。
The priority selection level 22e represents, for example, any one of upper, middle, and lower, or a numerical value indicating a priority order.
The service provision capability data 22f represents, for example, rotation, movement, utterance, or any combination thereof.
The robot data 23 has a robot ID 23a, a robot name 23b, robot possession ability data 23c representing the ability possessed by the robot, robot state data 23d representing the current robot state, and robot position / posture data 23e for each robot.

ここで、ロボットID23a及びロボット名23bは、ロボットの識別に用いられるロボット識別データの一例である。
ロボット保有能力データ23cは,例えば、回転可能、移動可能、発声可能などのうちのいずれか、または任意の組み合わせを表す。
Here, the robot ID 23a and the robot name 23b are an example of robot identification data used for robot identification.
The robot possession ability data 23c represents, for example, any one or any combination of rotatable, movable, and utterable.

ロボット状態データ23dは、例えば、未使用、移動中、発話中などを表す。
サービス状態遷移データ24は、サービスごとに、サービス遷移ID24a、イベント24b、状態データ24c、サービスコマンド24d、サービスID24eを持つ。
サービス状態遷移データ24は、発生したイベント及びロボットの状態から、ロボットに与えるサービスコマンドを選択可能とするデータである。サービスデータ22のサービスID22bと、サービス状態遷移データ24のサービスID24eとにより、サービスデータ22とサービス状態遷移データ24とはリンクされている。このサービス状態遷移データ24を用いることにより、起動イベント発生後、サービス状態遷移データ24のイベント24bに対応しているサービスコマンドがイベント24bが発生する毎に実行される。
The robot state data 23d represents, for example, unused, moving, speaking, etc.
The service state transition data 24 has a service transition ID 24a, an event 24b, state data 24c, a service command 24d, and a service ID 24e for each service.
The service state transition data 24 is data that makes it possible to select a service command to be given to the robot from the event that has occurred and the state of the robot. The service data 22 and the service state transition data 24 are linked by the service ID 22b of the service data 22 and the service ID 24e of the service state transition data 24. By using the service state transition data 24, a service command corresponding to the event 24b of the service state transition data 24 is executed every time the event 24b occurs after the activation event occurs.

利用者データ20のサービス分類20dを検索キーとして用いることにより、同じ内容のサービス分類22aを持つサービスデータ22を検索可能である。すなわち、発生したイベントに対する利用者に提供するサービスのリストを取得できる。さらに、利用者データ20の利用者感覚データ20fを検索キーとして用いることにより、同じ内容の感覚分類データ22dを持つサービスデータ22を検索可能である。   By using the service classification 20d of the user data 20 as a search key, it is possible to search for service data 22 having the same service classification 22a. That is, a list of services provided to the user for the event that has occurred can be acquired. Furthermore, by using the user sense data 20f of the user data 20 as a search key, the service data 22 having the sense classification data 22d having the same contents can be searched.

サービスデータ22のサービス提供能力データ22fを検索キーとして用いることにより、このサービス提供能力データ22fと同じ内容のロボット保有能力データ23cを持つロボットデータ23を検索可能である。すなわち、このサービスを実現可能な能力を持つロボットを検索できる。   By using the service providing capability data 22f of the service data 22 as a search key, the robot data 23 having the robot possessing capability data 23c having the same contents as the service providing capability data 22f can be searched. That is, it is possible to search for robots having the ability to realize this service.

利用者データ20のサービス起動イベント20cとロボットデータ23のロボット状態データ23dとを検索キーとして用いることにより、同じ内容のイベント24bと状態データ24cとを持つサービス状態遷移データ24を検索可能である。この検索されたサービス状態遷移データ24のサービスコマンド24dが、ロボットデータ23に関するロボットに送信され、サービスが提供される。   By using the service activation event 20c of the user data 20 and the robot state data 23d of the robot data 23 as search keys, the service state transition data 24 having the event 24b and the state data 24c having the same contents can be searched. The service command 24d of the retrieved service state transition data 24 is transmitted to the robot related to the robot data 23, and the service is provided.

環境データ21は、サービスの提供される空間の環境を表す値が記憶される。本実施の形態において、環境データ21は、視覚サービス、聴覚サービス、触覚サービス、嗅覚サービス、味覚サービスのそれぞれを提供するのにどの程度適しているかを表す。複数のエリアに対する複数の環境データを用いる場合には、個々の環境データにIDを持たせて各エリアについて定義する。   The environment data 21 stores a value representing the environment of the space where the service is provided. In the present embodiment, the environmental data 21 represents how suitable it is to provide each of visual services, auditory services, tactile services, olfactory services, and taste services. When using a plurality of environment data for a plurality of areas, each environment data is assigned an ID and defined for each area.

利用者データ20の利用者感覚データ20fと環境データ21とを検索キーとすることにより、この利用者データ20で表される利用者に対して、この環境データ21で表される環境で提供するのに適したサービスに関するサービスデータ22を検索することができる。   By using the user sense data 20f of the user data 20 and the environment data 21 as search keys, the user data 20 is provided to the user represented by the user data 20 in the environment represented by the environment data 21. It is possible to search service data 22 relating to a service suitable for the above.

上記図1において、データ登録部12は、利用者データ20、環境データ21、サービスデータ22、ロボットデータ23、サービス状態遷移データ24のうち定義すべきデータの登録を行う。例えば、データ登録部12を用いて、利用者データ20のうちサービス提供状態データ20e及び利用者位置・姿勢データ20gを除く他のデータ20a〜20d,20f、サービスデータ22、ロボットデータ23のうちロボット状態データ23d及びロボット位置・姿勢データ23eを除く他のデータ23a〜23c、サービス状態遷移データ24が登録される。   In FIG. 1, the data registration unit 12 registers data to be defined among user data 20, environment data 21, service data 22, robot data 23, and service state transition data 24. For example, by using the data registration unit 12, the user data 20 other than the service provision state data 20 e and the user position / posture data 20 g other than the data 20 a to 20 d and 20 f, the service data 22, and the robot data 23 among the robot data 23 Data 23a to 23c other than the state data 23d and the robot position / posture data 23e, and service state transition data 24 are registered.

状態検出部19は、センサ6、ロボット41〜4nなどから、ネットワーク3経由で、センサ6、ロボット41〜4nなどが観測したデータを受信し、例えば、環境データ記憶装置8の環境データ21を記憶又は更新する。なお、状態検出部19は、例えば、センサ6、ロボット41〜4nなどからのデータに基づいて、利用者データ20のサービス提供状態データ20eを記憶又は更新するとしてもよく、ロボットデータ23のロボット状態データ23dを記憶又は更新するとしてもよい。   The state detection unit 19 receives data observed by the sensor 6, the robots 41 to 4n, etc. from the sensor 6, the robots 41 to 4n, etc. via the network 3, and stores the environment data 21 of the environment data storage device 8, for example. Or update. The state detection unit 19 may store or update the service provision state data 20e of the user data 20 based on data from the sensor 6, the robots 41 to 4n, and the robot state of the robot data 23, for example. The data 23d may be stored or updated.

イベント検出部13は、例えばセンサなどのような利用者識別データ入力装置から利用者識別データを入力し、また、例えば、センサ6などの検出データをネットワーク3経由で受信し、この入力した利用者識別データに関連付けられているサービス起動イベント20cの発生を検出する。さらに、イベント検出部13は、イベント24bの検出も行う。イベント24bが検出された場合、イベント検出部13から命令部17に処理は移る。   The event detection unit 13 inputs user identification data from a user identification data input device such as a sensor, for example, and receives detection data such as the sensor 6 via the network 3, for example. The occurrence of the service activation event 20c associated with the identification data is detected. Furthermore, the event detection unit 13 also detects the event 24b. When the event 24b is detected, the process moves from the event detection unit 13 to the command unit 17.

サービス選択部14は、イベント検出部13によってサービス起動イベント20cが検出された場合に、利用者データ記憶装置7に記憶されている利用者データ20、環境データ記憶装置8に記憶されている環境データ21、サービスデータ記憶装置9に記憶されているサービスデータ22をアクセスする。   When the service activation event 20c is detected by the event detection unit 13, the service selection unit 14 stores the user data 20 stored in the user data storage device 7 and the environment data stored in the environment data storage device 8. 21. The service data 22 stored in the service data storage device 9 is accessed.

サービス選択部14は、イベント検出部13によってサービス起動イベント20cが検出された場合に、サービス起動イベント20cに関連付けられているサービス分類20dを取得し、この取得されたサービス分類20dと整合するサービス分類22aを取得する。   When the service activation event 20c is detected by the event detection unit 13, the service selection unit 14 acquires the service category 20d associated with the service activation event 20c, and matches the acquired service category 20d. 22a is acquired.

そして、サービス選択部14は、サービス分類22aに関連付けられている感覚分類データ22dの内容と、環境データ21の内容と、サービス起動イベント20cと関連付けられている利用者感覚データ20fの内容とが整合する場合に、感覚分類データ22dと関連付けられているサービス分類を選択する。   Then, the service selection unit 14 matches the contents of the sensory classification data 22d associated with the service classification 22a, the contents of the environment data 21, and the contents of the user sensory data 20f associated with the service activation event 20c. When the service classification is performed, the service classification associated with the sensory classification data 22d is selected.

ここで、整合とは、感覚分類データ22dに含まれている感覚が、利用者感覚データ20fに含まれており、感覚分類データ22dに含まれている感覚の評価が、環境データ21において高いことをいう。
優先選択部15は、サービス選択部14によって選択されたサービス分類を持つサービスデータが複数の場合、この選択された各サービスデータに関連付けられている優先選択レベル22eの高いサービスデータを選択する。
Here, “match” means that the sense included in the sensory classification data 22d is included in the user sensory data 20f, and the evaluation of the sensory included in the sensory classification data 22d is high in the environment data 21. Say.
When there are a plurality of service data having the service classification selected by the service selection unit 14, the priority selection unit 15 selects service data having a high priority selection level 22e associated with each selected service data.

ロボット選択部16は、サービス選択部14又は優先選択部15によって選択されたサービスデータと関連付けられているサービス提供能力データ22fの示す能力と、ロボットデータ記憶装置10に記憶されているロボット保有能力データ23cとが整合する場合に、ロボット保有能力データ23cと関連付けられているロボット識別データを選択する。さらに、ロボット選択部16は、整合するロボット識別データがない場合又は整合するロボット識別データが全て使用中の場合、優先選択レベルを下げてロボット識別データの選択を試みるとしてもよく、感覚分類データを切り替えてロボット識別データの選択を試みるとしてもよい。   The robot selection unit 16 includes the capability indicated by the service provision capability data 22f associated with the service data selected by the service selection unit 14 or the priority selection unit 15, and the robot possession capability data stored in the robot data storage device 10. If the data matches 23c, the robot identification data associated with the robot possessing ability data 23c is selected. Further, when there is no matching robot identification data or when all matching robot identification data is in use, the robot selection unit 16 may attempt to select the robot identification data by lowering the priority selection level. It may be possible to switch to try selecting robot identification data.

ここで、整合とは、ロボット保有能力データ23cの示す能力に、サービス提供能力データ22fの示す能力が含まれていることをいう。
なお、ロボット選択部16は、選択されたサービスデータと関連付けられているサービス分類22a又はサービス名22cの示すサービスを提供可能な能力を求め、この求めた能力を持つロボットのロボット識別データを選択するとしてもよい。例えば、サービス「近寄って発話」に基づいて、「移動能力」と「発話能力」を持つロボットのロボット識別データが選択されるとしてもよい。
Here, “match” means that the ability indicated by the service provision ability data 22f is included in the ability indicated by the robot possession ability data 23c.
The robot selection unit 16 obtains the ability to provide the service indicated by the service classification 22a or the service name 22c associated with the selected service data, and selects the robot identification data of the robot having the obtained ability. It is good. For example, robot identification data of a robot having “movement ability” and “speech ability” may be selected based on the service “approaching and speaking”.

命令部17は、イベント検出部13によって検出されたサービス起動イベント20c及びロボット選択部16によって選択されたロボット識別データと関連付けられているロボット状態データ23dと同一の内容であるイベント24bと状態データ24cを検索する。   The command unit 17 includes an event 24b and status data 24c having the same contents as the service activation event 20c detected by the event detection unit 13 and the robot status data 23d associated with the robot identification data selected by the robot selection unit 16. Search for.

命令部17は、検索されたイベント24bと状態データ24cと関連付けられているサービスコマンド24dを取得する。
そして、命令部17は、取得されたサービスコマンド24dを、ロボット選択部16によって選択されたロボット識別データの示すロボットに送信する。
The command unit 17 acquires a service command 24d associated with the retrieved event 24b and state data 24c.
Then, the instruction unit 17 transmits the acquired service command 24d to the robot indicated by the robot identification data selected by the robot selection unit 16.

なお、ロボットに送信されるサービスコマンド24dは、サービス選択部14又は優先選択部15によって選択されたサービス識別データの示すサービスを提供する命令に相当する。
位置検出部18は、センサ6、ロボット41〜4nなどからネットワーク3経由でデータを受信し、所定管理空間における利用者の位置を表す利用者位置・姿勢データ20gを、利用者識別データに関連付けて利用者データ記憶装置7に記憶する。
Note that the service command 24 d transmitted to the robot corresponds to a command for providing a service indicated by the service identification data selected by the service selection unit 14 or the priority selection unit 15.
The position detection unit 18 receives data from the sensor 6, the robots 41 to 4n, etc. via the network 3, and associates the user position / posture data 20g representing the position of the user in the predetermined management space with the user identification data. Store in the user data storage device 7.

また、位置検出部18は、センサ6、ロボット41〜4nなどからネットワーク3経由でデータを受信し、所定管理空間におけるロボットの位置を表すロボット位置・姿勢データ23eを、ロボット識別データに関連付けてロボットデータ記憶装置10に記憶する。   Further, the position detection unit 18 receives data from the sensor 6, the robots 41 to 4n, etc. via the network 3, and associates the robot position / posture data 23e representing the position of the robot in the predetermined management space with the robot identification data. Store in the data storage device 10.

以下において、利用者データ20、環境データ21、ロボットデータ23の具体例について説明する。
図3は、利用者データ20の一例を示す図である。
ある利用者についての利用者データ20は、利用者ID「U1」、利用者名「user_A」、利用者の携帯するタグID「1234」、サービス分類「10」、サービス起動イベント「エリアに入る」、サービス提供状態データ「未提供」、利用者位置データ「(120,35,-)」、利用者姿勢データ「(-,-,25)deg.」、利用者感覚データ「視覚、聴覚、嗅覚、触覚、味覚」から構成される。
Hereinafter, specific examples of the user data 20, the environment data 21, and the robot data 23 will be described.
FIG. 3 is a diagram illustrating an example of the user data 20.
User data 20 for a certain user includes a user ID “U1”, a user name “user_A”, a tag ID “1234” carried by the user, a service classification “10”, and a service activation event “entering area”. , Service provision status data "not provided", user position data "(120,35,-)", user attitude data "(-,-, 25) deg.", User sense data "visual, auditory, olfactory" , Tactile sense, taste ”.

図4は、環境データ21の種類とその内容との関係の一例を示す図である。
環境データ21は、利用者にサービスが提供される環境について、視覚、聴覚、触覚、臭覚、味覚の感じやすさから、利用者に対してこれらの感覚を用いるサービスが適しているか、普通であるか、不適であるか判断した三段階の評価値を表す。
FIG. 4 is a diagram showing an example of the relationship between the type of the environmental data 21 and its contents.
The environment data 21 is normal or appropriate for a service using these senses for the user because of the ease of visual, auditory, tactile, olfactory, and gustatory sensations in the environment in which the service is provided to the user. Or a three-stage evaluation value that is judged to be inappropriate.

例えば、暗い環境の場合には、ディスプレイ画面が見やすいため、視覚を用いるサービスが適しているとされる。明るい環境の場合に、ディスプレイ画面が見にくくなるため、視覚を用いるサービスは適していないとされる。しかしながら、同じ視覚を用いるサービスであっても、例えば、身体性を持つロボットがジェスチャーなどでサービスを提供する場合には、明るい環境が適していると設定することもできる。   For example, in a dark environment, since the display screen is easy to see, it is considered that a service using vision is suitable. Since the display screen is difficult to see in a bright environment, it is considered that a service using vision is not suitable. However, even if the services use the same vision, for example, when a robot with physicality provides services by gestures, it can be set that a bright environment is suitable.

例えば、静かな環境の場合には、音を聞き取りやすいため、聴覚を用いるサービスが適しているとされる。騒音・喧騒状態の場合には、音を聞き取りにくいため、聴覚を用いるサービスは適していないとされる。
例えば、環境の空間充填率(空間において物質・人物等が占める割合、混雑度)が低い場合には、利用者が他の物質・人物等と接触する機会が少ないため、利用者に接触するような触覚を用いるサービス(例えば、利用者に触れて案内を行うなど)が適しているとされる。
For example, in a quiet environment, it is easy to hear sound, so that a service using hearing is suitable. In the case of noise and noise, it is difficult to hear the sound, so the service using hearing is not suitable.
For example, when the space filling rate of the environment (the ratio of substances / persons etc. in the space, the degree of congestion) is low, there are few opportunities for users to contact other substances / people, etc. A service that uses a tactile sensation (for example, guidance by touching a user) is considered suitable.

例えば、環境の香り・匂いが弱い場合には、利用者は香り・匂いを感じやすいため、香り・匂いを用いるサービスが適しているとされる。環境の香り・匂いが強い場合には、利用者が香り・匂いを感じにくいため、香り・匂いを用いるサービスは適していないとされる。   For example, when the scent / smell of the environment is weak, the user can easily perceive the scent / smell. Therefore, a service using the scent / smell is considered suitable. If the scent or smell of the environment is strong, it is difficult for the user to feel the scent or smell. Therefore, the service using the scent or smell is not suitable.

図4においては、環境を、「適」「普通」「不適」という基準で評価しているが、環境の状態と感覚との関係付けはこの基準に限定されるものではなく、任意に設定可能である。環境に対するロボットやサービスの整合性は、ロボットの能力やサービスの内容にそって適宜定めることができる。   In FIG. 4, the environment is evaluated based on the criteria of “appropriate”, “normal”, and “inappropriate”, but the relationship between the state of the environment and the sense is not limited to this criterion and can be set arbitrarily. It is. The consistency of the robot and service with respect to the environment can be appropriately determined according to the capability of the robot and the content of the service.

環境データ21は、例えば、エリアごとに、各エリアに設置されている光センサ、音センサ、カメラ、香りセンサなどによって取得されたデータとしきい値とに基づいて、作成される。
本実施の形態において、例えば、カメラによって撮影されたエリアの画像データと、特定時の基準画像データとにおけるピクセルごとの差分値の総和から、環境が「暗い」「普通」「明るい」のいずれであるか、エリアの混雑度などを判断するとしてもよい。
The environmental data 21 is created for each area, for example, based on data and threshold values acquired by a light sensor, a sound sensor, a camera, a scent sensor, or the like installed in each area.
In the present embodiment, for example, the environment is “dark”, “normal”, or “bright” based on the sum of the difference values for each pixel between the image data of the area photographed by the camera and the reference image data at the time of specification. It may be determined whether the area is busy or not.

また、例えば、マイクで測定された音レベルから、環境が「静か」「普通」「騒音・喧騒」のいずれであるかを判断するとしてもよい。
なお、環境データ21は、上記のように自動に設定及び更新されるとしてもよく、手動で設定及び更新されるとしてもよい。
Further, for example, it may be determined from the sound level measured by the microphone whether the environment is “quiet”, “normal”, or “noise / noise”.
The environment data 21 may be automatically set and updated as described above, or may be manually set and updated.

図5は、本実施の形態に係るロボットデータ23の一例を示す図である。
あるロボットについてのロボットデータ23は、ロボットID「R0001」、ロボット名「RobotA」、ロボットの携帯するタグID「2345」、ロボット保有能力データ「移動可能、回転可能、発話可能」、ロボット状態データ「未使用」、ロボット位置データ「(100,25,-)」、ロボット姿勢データ「(-,-,15)deg.」から構成される。
FIG. 5 is a diagram showing an example of the robot data 23 according to the present embodiment.
The robot data 23 for a robot includes a robot ID “R0001”, a robot name “RobotA”, a tag ID “2345” carried by the robot, a robot possession ability data “movable, rotatable, utterable”, robot status data “ Unused ”, robot position data“ (100,25, −) ”, and robot posture data“ (−, −, 15) deg. ”.

また、ロボットデータ23は、各感覚について、ロボットのサービス提供可能範囲(現在値、最大値)を持つ。サービス提供可能範囲は、ロボット選択時に考慮される。
図6は、サービスデータ22の一例を示す図であり、図7は、サービス状態遷移データ24の一例を示す図である。
Further, the robot data 23 has a robot service available range (current value, maximum value) for each sense. The service provision range is considered when selecting a robot.
FIG. 6 is a diagram illustrating an example of the service data 22, and FIG. 7 is a diagram illustrating an example of the service state transition data 24.

以上説明した本実施の形態においては、利用者データ20、環境データ21、サービスデータ22、ロボットデータ23が人間の感覚に応じて管理される。環境の明るさ、音量、ロボットの台数、利用者の人数、その他の物品の増減などによって環境が変化した場合、逐次、環境データ21が書き換えられる。   In the present embodiment described above, user data 20, environment data 21, service data 22, and robot data 23 are managed according to human senses. When the environment changes due to the brightness of the environment, volume, number of robots, number of users, increase / decrease of other articles, etc., the environment data 21 is sequentially rewritten.

これにより、環境の状態に応じて、利用者の感覚にそった適切なサービスを提供することができる。
本実施の形態においては、環境データ21は、手動で自由に設定又は更新することができ、またセンサ6による測定値から自動で設定又は更新することができる。これにより、環境の動的な変化(利用者、ロボットに起因する変化も含む)に対応したサービスを提供することができる。
Thereby, according to the state of the environment, it is possible to provide an appropriate service according to the user's sense.
In the present embodiment, the environment data 21 can be freely set or updated manually, and can be automatically set or updated from the measured value by the sensor 6. Thereby, it is possible to provide a service corresponding to a dynamic change of the environment (including a change caused by the user and the robot).

本実施の形態においては、ロボットの位置、利用者の位置を所定の空間上で表すことができる。すなわち、本実施の形態では、異なるセンサから出力された位置データを絶対空間座標系にマッピングすることができ、様々なセンサによって測定されたデータに基づく位置データを共通の形式で取り扱うことができる。   In the present embodiment, the position of the robot and the position of the user can be represented on a predetermined space. That is, in this embodiment, position data output from different sensors can be mapped to the absolute space coordinate system, and position data based on data measured by various sensors can be handled in a common format.

本実施の形態においては、例えば利用者が弱視覚者の場合、聴覚及び触覚など、視覚を除く他の感覚を優先するサービスを提供することができ、また画像を大きく表示するサービスなど利用者の特性に応じたサービスを提供することができる。また、例えば利用者が弱聴覚者の場合、視覚及び触覚など、聴覚を除く他の感覚を優先するサービスを提供することができ、また出力音のボリュームを大きくするなど利用者の特性に応じたサービスを提供することができる。   In the present embodiment, for example, when the user is a weak visual person, it is possible to provide a service that gives priority to other senses other than vision, such as hearing and tactile sense. Services according to the characteristics can be provided. For example, when the user is a weak hearing person, it is possible to provide services that prioritize other sensations other than hearing, such as visual and tactile sensations, and increase the volume of output sound according to the characteristics of the user. Service can be provided.

なお、本実施の形態においては、環境データ21を用いた動作を行う場合と環境データ21を用いることなく動作を行う場合とを切り替え可能としてもよい。
(第2の実施の形態)
本実施の形態においては、上記第1の実施の形態に係るロボット制御装置2の動作の変形例について説明する。
In the present embodiment, the case where the operation using the environment data 21 is performed and the case where the operation is performed without using the environment data 21 may be switched.
(Second Embodiment)
In the present embodiment, a modified example of the operation of the robot control apparatus 2 according to the first embodiment will be described.

図8は、本実施の形態に係るロボット制御装置2の動作の一例を示すフローチャートである。
ステップS1において、データ登録部12及び状態検出部19は、管理者によって入力されたデータ及びセンサ6から受信したデータに基づいて、利用者データ記憶装置7、環境データ記憶装置8、サービスデータ記憶装置9、ロボットデータ記憶装置10、サービス状態遷移データ記憶装置11に、それぞれ利用者データ20、環境データ21、サービスデータ22、ロボットデータ23、サービス状態遷移データ24を記憶する。
FIG. 8 is a flowchart showing an example of the operation of the robot control apparatus 2 according to the present embodiment.
In step S1, the data registration unit 12 and the state detection unit 19 are based on the data input by the administrator and the data received from the sensor 6, and the user data storage device 7, the environmental data storage device 8, and the service data storage device. 9. The user data 20, environment data 21, service data 22, robot data 23, and service state transition data 24 are stored in the robot data storage device 10 and the service state transition data storage device 11, respectively.

ステップS2において、イベント検出部13は、サービス起動イベント20c又はイベント24bが発生したか否か判断する。
サービス起動イベント20cとイベント24bのいずれも発生していない場合、処理はステップS2に戻る。
イベント24bが発生した場合、ステップS3において、命令部17は、順次実行されるサービスコマンドの中から次に実行すべきサービスコマンドを選択する。その後処理は、ステップS13に移る。
In step S2, the event detection unit 13 determines whether a service activation event 20c or an event 24b has occurred.
If neither the service activation event 20c nor the event 24b has occurred, the process returns to step S2.
When the event 24b occurs, in step S3, the instruction unit 17 selects a service command to be executed next from service commands that are sequentially executed. Thereafter, the process proceeds to step S13.

サービス起動イベント20cが発生した場合、ステップS4において、サービス選択部14は、入力した利用者ID20a、発生したサービス起動イベント20c、サービス提供状態データ20eを条件として、これらに関連付けられているサービス分類20dを、利用者データ記憶装置7から選択する。   When the service activation event 20c occurs, in step S4, the service selection unit 14 uses the input user ID 20a, the generated service activation event 20c, and the service provision state data 20e as conditions, and the service classification 20d associated therewith. Is selected from the user data storage device 7.

ステップS5において、サービス選択部14は、サービスデータ記憶装置9から、選択されたサービス分類20dとサービス分類22aを条件に、この選択されたサービス分類20dと整合するサービス分類22aを取得し、この取得したサービス分類22aと関連付けられているサービスID22bとサービス提供能力データ22fとを選択する。   In step S5, the service selection unit 14 acquires, from the service data storage device 9, the service class 22a that matches the selected service class 20d on the condition of the selected service class 20d and the service class 22a, and acquires the service class 22a. The service ID 22b and the service providing capability data 22f associated with the service classification 22a are selected.

ステップS6において、ロボット選択部16は、サービス選択部14によって選択されたサービス提供能力データ22f及びロボット状態データ23dを条件として、選択されたサービス提供能力データ22fと同じ内容のロボット保有能力データ23cと関連付けられているロボットID23aを、ロボットデータ記憶装置10から選択する。   In step S6, the robot selecting unit 16 uses the service providing ability data 22f and the robot state data 23d selected by the service selecting unit 14 as conditions, and the robot possessing ability data 23c having the same contents as the selected service providing ability data 22f. The associated robot ID 23a is selected from the robot data storage device 10.

ステップS7において、サービス選択部14は、選択されたロボットID23aに対応するサービスID22bをいずれかの記憶装置に記憶する。
ステップS8において、サービス選択部14は、記憶されたサービスID22bがあるか判断する。
記憶されたサービスID22bがない場合、ステップS9において、表示装置にエラーが表示され、処理はステップS14に移る。
In step S7, the service selection unit 14 stores the service ID 22b corresponding to the selected robot ID 23a in any storage device.
In step S8, the service selection unit 14 determines whether there is a stored service ID 22b.
If there is no stored service ID 22b, an error is displayed on the display device in step S9, and the process proceeds to step S14.

記憶されたサービスID22bがある場合、ステップS10において、サービス選択部14は、記憶されたサービスID22bのうち、利用者データ20の利用者感覚データ20fと、環境データ21の内容と、サービスデータ22の感覚分類データ22dとが合致するサービスID22bを選択する。   When there is a stored service ID 22b, in step S10, the service selection unit 14 selects the user sense data 20f of the user data 20, the contents of the environment data 21, the service data 22 of the stored service ID 22b. The service ID 22b that matches the sensory classification data 22d is selected.

ステップS11において、優先選択部15は、上記ステップS10において選択されたサービスID22bのうち、関連付けられている優先選択レベル22eが最大のサービスID22bを選択する。
なお、サービス及びロボットの選択において、利用者の感覚に対応した条件を満たすサービス又はロボットが選択されなかった場合には、この条件の該当レベルを下げ、この下位の条件を満たすサービス又はロボットを選択する。
In step S11, the priority selection unit 15 selects the service ID 22b having the maximum associated priority selection level 22e from the service IDs 22b selected in step S10.
If a service or robot that satisfies the user's sense is not selected in selecting a service or robot, the service or robot that satisfies this lower level is selected by lowering the level of this condition. To do.

ステップS12において、命令部17は、サービス起動イベント20cと、選択されたロボットID23aに関連付けられているロボット状態データ23dとを条件として、サービス状態遷移データ24のサービスコマンド24dを選択する。
ステップS13において、命令部17は、選択されたロボットID23aの示すロボットに対して、選択されたサービスコマンド24dを送信する、
ステップS14において、処理が終了されるか否か判断される。終了でない場合、処理はステップS2に戻る。
In step S12, the command unit 17 selects the service command 24d of the service state transition data 24 on the condition of the service activation event 20c and the robot state data 23d associated with the selected robot ID 23a.
In step S13, the command unit 17 transmits the selected service command 24d to the robot indicated by the selected robot ID 23a.
In step S14, it is determined whether or not the process is terminated. If not, the process returns to step S2.

(第3の実施の形態)
本実施の形態においては、上記第1及び第2の実施の形態に係るロボット制御システム1の変形例について説明する。
上記第1及び第2の実施の形態においては、環境データ21、ロボットデータ23、サービスデータ22について、人間の感覚を条件として整合性を判断し、ロボット識別データ及びサービスコマンド24dが選択されている。
(Third embodiment)
In the present embodiment, a modified example of the robot control system 1 according to the first and second embodiments will be described.
In the first and second embodiments, the environmental data 21, the robot data 23, and the service data 22 are determined to be consistent on the condition of human sense, and the robot identification data and the service command 24d are selected. .

しかしながら、例えば、図9に示すように、エネルギー消費量、サービス提供所要時間などが設定されており、環境データ21、ロボットデータ23、サービスデータ22で表される人間の感覚が整合することと共に、エネルギー消費量が低いことやサービス提供所要時間が短いことなどを条件として、ロボット識別データ及びサービスコマンド24dが選択されるとしてもよい。   However, for example, as shown in FIG. 9, energy consumption, service provision time, and the like are set, and the human senses represented by the environmental data 21, the robot data 23, and the service data 22 are matched, The robot identification data and the service command 24d may be selected on condition that the energy consumption is low or the service provision time is short.

また、複数の利用者に対して同時にサービスを提供可能であることなどを、条件として用いてもよい。
なお、上記各実施の形態においては、同一の機能が実現可能であれば、様々に変更してもよい。例えば、利用者データ記憶装置7、環境データ記憶装置8、サービスデータ記憶装置9、ロボットデータ記憶装置10、サービス状態遷移データ記憶装置11は、自由に組み合わせてもよく、自由に分割してもよい。
Moreover, you may use as conditions that a service can be provided simultaneously with respect to several users.
In addition, in each said embodiment, as long as the same function is realizable, you may change variously. For example, the user data storage device 7, the environment data storage device 8, the service data storage device 9, the robot data storage device 10, and the service state transition data storage device 11 may be freely combined or freely divided. .

上記各実施の形態に係るロボット制御装置2の機能は、例えばプログラムによって制御されるプロセッサにより実現されるとしてもよい。
この場合におけるプログラムは、例えば磁気ディスク(フレキシブルディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリなどの記憶媒体に書き込んで、プロセッサを持つコンピュータに適用可能である。また、プログラムは、通信媒体により伝送してコンピュータに適用することも可能である。コンピュータは、プログラムを読み込み、このプログラムによって動作が制御されることにより、ロボット制御装置2としての機能を実現する。プログラムは、複数のコンピュータに分散して配置され、複数のコンピュータ間で互いに連携しつつ処理が実行されるとしてもよい。
The functions of the robot control device 2 according to each of the above embodiments may be realized by, for example, a processor controlled by a program.
The program in this case can be applied to a computer having a processor by writing it in a storage medium such as a magnetic disk (flexible disk, hard disk, etc.), an optical disk (CD-ROM, DVD, etc.), and a semiconductor memory. The program can also be applied to a computer by being transmitted through a communication medium. The computer reads the program and realizes the function as the robot control device 2 by controlling the operation by the program. The program may be distributed and arranged in a plurality of computers, and the processing may be executed while the plurality of computers cooperate with each other.

本発明は、ロボットによってサービスを提供する分野に有効である。   The present invention is effective in the field of providing services by robots.

本発明の第1の実施の形態に係るロボット制御システムの一例を示すブロック図。1 is a block diagram showing an example of a robot control system according to a first embodiment of the present invention. 利用者データ、環境データ、サービスデータ、ロボットデータ、サービス状態遷移データの関係の一例を示す図。The figure which shows an example of the relationship of user data, environmental data, service data, robot data, and service state transition data. 利用者データの一例を示す図。The figure which shows an example of user data. 環境データの種類とその内容との関係の一例を示す図。The figure which shows an example of the relationship between the kind of environmental data, and its content. ロボットデータの一例を示す図。The figure which shows an example of robot data. サービスデータの一例を示す図。The figure which shows an example of service data. サービス状態遷移データの一例を示す図。The figure which shows an example of service state transition data. 本発明の第2の実施の形態に係るロボット制御装置の動作の一例を示すフローチャート。The flowchart which shows an example of operation | movement of the robot control apparatus which concerns on the 2nd Embodiment of this invention. エネルギー消費量、サービス提供所要時間の設定状態の一例を示す図。The figure which shows an example of the setting state of energy consumption and service provision required time.

符号の説明Explanation of symbols

1…ロボット制御システム、2…ロボット制御装置、3…ネットワーク、41〜4n…ロボット、5…サービス機器、6…センサ、7…利用者データ記憶装置、8…環境データ記憶装置、9…サービスデータ記憶装置、10…ロボットデータ記憶装置、11…サービス状態遷移データ記憶装置、12…データ登録部、13…イベント検出部、14…サービス選択部、15…優先選択部、16…ロボット選択部、17…命令部、18…位置検出部、19…状態検出部、20…利用者データ、21…環境データ、22…サービスデータ、23…ロボットデータ、24…サービス状態遷移データ   DESCRIPTION OF SYMBOLS 1 ... Robot control system, 2 ... Robot control apparatus, 3 ... Network, 41-4n ... Robot, 5 ... Service equipment, 6 ... Sensor, 7 ... User data storage device, 8 ... Environmental data storage device, 9 ... Service data Storage device, 10 ... Robot data storage device, 11 ... Service state transition data storage device, 12 ... Data registration unit, 13 ... Event detection unit, 14 ... Service selection unit, 15 ... Priority selection unit, 16 ... Robot selection unit, 17 ... Command unit, 18 ... Position detection unit, 19 ... State detection unit, 20 ... User data, 21 ... Environment data, 22 ... Service data, 23 ... Robot data, 24 ... Service state transition data

Claims (8)

ロボットが利用者に対して提供するサービスの識別に用いられるサービス識別データと、前記サービスを人間の感覚に応じて分類した結果を表す感覚分類データとを関連付けて記憶するサービスデータ記憶手段と、
前記ロボットの識別に用いられるロボット識別データと、前記ロボットの保有能力データとを関連付けて記憶するロボットデータ記憶手段と、
前記利用者に前記サービスが提供される環境の状態を人間の感覚に応じて表す環境データを記憶する環境データ記憶手段と、
前記サービスデータ記憶手段に記憶されている前記感覚分類データの内容と前記環境データ記憶手段に記憶されている前記環境データの内容とが整合する場合に、前記感覚分類データと関連付けられている前記サービス識別データを選択するサービス選択手段と、
前記ロボットデータ記憶手段に記憶されている前記保有能力データの示す能力が、前記サービス選択手段によって選択されたサービス識別データの示す前記サービスを提供可能な能力の場合に、前記保有能力データと関連付けられている前記ロボット識別データを選択するロボット選択手段と、
前記ロボット選択手段によって選択されたロボット識別データの示すロボットに、前記サービス選択手段によって選択されたサービス識別データの示すサービスを提供させるための命令を与える命令手段と
を具備することを特徴とするロボット制御装置。
Service data storage means for storing service identification data used for identifying a service provided by a robot to a user and sensory classification data representing a result of classifying the service according to a human sense;
Robot data storage means for storing the robot identification data used for identifying the robot and the robot's possession ability data in association with each other;
Environmental data storage means for storing environmental data representing the state of the environment in which the service is provided to the user according to a human sense;
The service associated with the sensory classification data when the content of the sensory classification data stored in the service data storage means matches the content of the environmental data stored in the environmental data storage means Service selection means for selecting identification data;
When the ability indicated by the possessed ability data stored in the robot data storage means is an ability capable of providing the service indicated by the service identification data selected by the service selecting means, the ability is associated with the possessed ability data. Robot selection means for selecting the robot identification data,
Commanding means for giving a command for causing the robot indicated by the robot identification data selected by the robot selecting means to provide the service indicated by the service identification data selected by the service selecting means. Control device.
請求項1記載のロボット制御装置において、
前記利用者の識別に用いられる利用者識別データと、前記利用者の感覚特徴を表す利用者感覚データとを関連付けて記憶する利用者データ記憶手段をさらに具備し、
前記サービス選択手段は、前記サービスデータ記憶手段に記憶されている前記感覚分類データの内容と、前記環境データ記憶手段に記憶されている前記環境データの内容と、前記利用者データ記憶手段に記憶されている前記利用者感覚データの内容とが整合する場合に、前記感覚分類データと関連付けられている前記サービス識別データを選択する
ことを特徴とするロボット制御装置。
The robot control device according to claim 1,
User data storage means for storing user identification data used for identification of the user and user sensory data representing the sensory characteristics of the user in association with each other;
The service selection means is stored in the content of the sensory classification data stored in the service data storage means, the content of the environmental data stored in the environment data storage means, and the user data storage means. When the content of the user sense data is matched, the service identification data associated with the sense classification data is selected.
請求項2記載のロボット制御装置において、
前記利用者データ記憶手段は、前記利用者識別データと、前記利用者感覚データと、サービス起動イベントとを関連付けて記憶し、
前記サービス起動イベントの発生を検出するイベント検出手段をさらに具備し、
前記サービス選択手段は、前記イベント検出手段によって前記サービス起動イベントが検出された場合に、前記感覚分類データの内容と、前記環境データの内容と、前記サービス起動イベントと関連付けられている前記利用者感覚データの内容とが整合する場合に、前記感覚分類データと関連付けられている前記サービス識別データを選択する
ことを特徴とするロボット制御装置。
The robot control device according to claim 2, wherein
The user data storage means stores the user identification data, the user sense data, and a service activation event in association with each other,
Event detecting means for detecting occurrence of the service activation event;
The service selection means, when the service activation event is detected by the event detection means, the content of the sense classification data, the content of the environment data, and the user sense associated with the service activation event. The robot control device, wherein the service identification data associated with the sensory classification data is selected when the contents of the data match.
請求項2記載のロボット制御装置において、
前記利用者データ記憶手段は、前記利用者識別データと、前記利用者感覚データと、前記利用者に対して提供されるサービスを特定するサービス特定データとを関連付けて記憶し、
前記サービス起動イベントの発生を検出するイベント検出手段をさらに具備し、
前記サービス選択手段は、前記イベント検出手段によって前記サービス起動イベントが検出された場合に、前記サービス起動イベントに関連付けられている前記サービス特定データを取得し、前記サービス特定データと整合する前記サービス識別データを取得し、前記サービス識別データに関連付けられている前記感覚分類データの内容と、前記環境データの内容と、前記サービス起動イベントと関連付けられている前記利用者感覚データの内容とが整合する場合に、前記感覚分類データと関連付けられている前記サービス識別データを選択する
ことを特徴とするロボット制御装置。
The robot control device according to claim 2, wherein
The user data storage means stores the user identification data, the user sense data, and service specifying data for specifying a service provided to the user in association with each other,
Event detecting means for detecting occurrence of the service activation event;
The service selection means acquires the service identification data associated with the service activation event when the service activation event is detected by the event detection means, and matches the service identification data with the service identification data And the content of the sensory classification data associated with the service identification data, the content of the environment data, and the content of the user sensory data associated with the service activation event match. The robot control device selecting the service identification data associated with the sensory classification data.
請求項1乃至請求項4のいずれか1項記載のロボット制御装置において、
前記サービスデータ記憶手段は、前記サービス識別データと、前記サービス識別データの示す前記サービスを提供するために必要な能力を示すサービス提供能力データとを関連付けて記憶し、
前記サービス選択手段は、前記サービス識別データとともに、前記サービス識別データと関連付けられている前記サービス提供能力データを選択し、
前記ロボット選択手段は、前記ロボットデータ記憶手段に記憶されている前記保有能力データの示す能力と、前記サービスデータ記憶手段に記憶されている前記サービス提供能力データの示す能力とが整合する場合に、前記保有能力データと関連付けられている前記ロボット識別データを選択する
ことを特徴とするロボット制御装置。
The robot control device according to any one of claims 1 to 4,
The service data storage means stores the service identification data in association with service providing capability data indicating capability required to provide the service indicated by the service identification data;
The service selection means selects the service providing capability data associated with the service identification data together with the service identification data,
The robot selection means, when the ability indicated by the possessed ability data stored in the robot data storage means matches the ability indicated by the service providing ability data stored in the service data storage means, The robot control apparatus, wherein the robot identification data associated with the possessed ability data is selected.
請求項1乃至請求項5のいずれか1項記載のロボット制御装置において、
前記環境データは、人間の視覚と聴覚と触覚と嗅覚のうちの少なくとも一つに対して、前記環境におけるサービス提供の適切度を表し、
前記感覚分類データは、人間の視覚と聴覚と触覚と嗅覚のうちの少なくとも一つのうち、前記サービス識別データの示す前記サービスに適した感覚を表し、
前記サービス選択手段は、前記環境データにおいて適切度の高い感覚と、前記感覚分類データの示す感覚とが整合する場合に、前記感覚分類データに関連付けられているサービス識別データを選択する
ことを特徴とするロボット制御装置。
The robot control device according to any one of claims 1 to 5,
The environmental data represents the appropriateness of service provision in the environment for at least one of human vision, hearing, touch, and smell.
The sense classification data represents a sense suitable for the service indicated by the service identification data among at least one of human vision, hearing, touch, and smell.
The service selecting means selects service identification data associated with the sensory classification data when a high sense of appropriateness in the environmental data matches a sensory indicated by the sensory classification data. Robot control device.
ロボットが利用者に対して提供するサービスの識別に用いられるサービス識別データと、前記サービスを人間の感覚に応じて分類した結果を表す感覚分類データとを関連付けてサービスデータ記憶手段に記憶し、前記ロボットの識別に用いられるロボット識別データと、前記ロボットの保有能力データとを関連付けてロボットデータ記憶手段に記憶するとともに、前記利用者に前記サービスが提供される環境の状態を人間の感覚に応じて表す環境データを環境データ記憶手段に記憶し、
前記サービスデータ記憶手段に記憶されている前記感覚分類データの内容と前記環境データ記憶手段に記憶されている前記環境データの内容とが整合する場合に、前記感覚分類データと関連付けられている前記サービス識別データを前記サービスデータ記憶手段から選択し、
前記ロボットデータ記憶手段に記憶されている前記保有能力データの示す能力が、前記サービスデータ記憶手段から選択されたサービス識別データの示す前記サービスを提供可能な能力の場合に、前記保有能力データと関連付けられている前記ロボット識別データを前記ロボットデータ記憶手段から選択し、
前記ロボットデータ記憶手段から選択されたロボット識別データの示すロボットに、前記サービスデータ記憶手段から選択されたサービス識別データの示すサービスを提供させるための命令を与える
ことを特徴とするロボット制御方法。
Service identification data used for identifying a service provided to a user by a robot and sensory classification data representing a result of classifying the service according to a human sense are associated and stored in a service data storage unit, The robot identification data used for robot identification and the robot possession ability data are associated and stored in the robot data storage means, and the state of the environment in which the service is provided to the user according to the human sense Storing the environmental data to be represented in the environmental data storage means;
The service associated with the sensory classification data when the content of the sensory classification data stored in the service data storage means matches the content of the environmental data stored in the environmental data storage means Selecting identification data from the service data storage means;
When the ability indicated by the possessed ability data stored in the robot data storage means is an ability capable of providing the service indicated by the service identification data selected from the service data storage means, the ability data is associated with the possessed ability data. The robot identification data being selected from the robot data storage means,
A robot control method comprising: giving a command for providing a service indicated by service identification data selected from the service data storage means to a robot indicated by robot identification data selected from the robot data storage means.
コンピュータに読み込まれて動作するプログラムにおいて、
前記コンピュータは、
ロボットが利用者に対して提供するサービスの識別に用いられるサービス識別データと、前記サービスを人間の感覚に応じて分類した結果を表す感覚分類データとを関連付けて記憶するサービスデータ記憶手段と、
前記ロボットの識別に用いられるロボット識別データと、前記ロボットの保有能力データとを関連付けて記憶するロボットデータ記憶手段と、
前記利用者に前記サービスが提供される環境の状態を人間の感覚に応じて表す環境データを記憶する環境データ記憶手段と
をアクセス可能であり、
前記コンピュータを、
前記サービスデータ記憶手段に記憶されている前記感覚分類データの内容と前記環境データ記憶手段に記憶されている前記環境データの内容とが整合する場合に、前記感覚分類データと関連付けられている前記サービス識別データを選択するサービス選択手段、
前記ロボットデータ記憶手段に記憶されている前記保有能力データの示す能力が、前記サービス選択手段によって選択されたサービス識別データの示す前記サービスを提供可能な能力の場合に、前記保有能力データと関連付けられている前記ロボット識別データを選択するロボット選択手段、
前記ロボット選択手段によって選択されたロボット識別データの示すロボットに、前記サービス選択手段によって選択されたサービス識別データの示すサービスを提供させるための命令を与える命令手段
として機能させるためのプログラム。
In a program that loads and runs on a computer,
The computer
Service data storage means for storing service identification data used for identifying a service provided by a robot to a user and sensory classification data representing a result of classifying the service according to a human sense;
Robot data storage means for storing the robot identification data used for identifying the robot and the robot's possession ability data in association with each other;
Access to the environment data storage means for storing environment data representing the state of the environment in which the service is provided to the user according to a human sense;
The computer,
The service associated with the sensory classification data when the content of the sensory classification data stored in the service data storage means matches the content of the environmental data stored in the environmental data storage means Service selection means for selecting identification data;
When the ability indicated by the possessed ability data stored in the robot data storage means is an ability capable of providing the service indicated by the service identification data selected by the service selecting means, the ability is associated with the possessed ability data. Robot selection means for selecting the robot identification data,
A program for causing a robot indicated by robot identification data selected by the robot selection means to function as an instruction means for giving a command for providing a service indicated by the service identification data selected by the service selection means.
JP2006171812A 2006-06-21 2006-06-21 Robot control device, method, and program Pending JP2008003807A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006171812A JP2008003807A (en) 2006-06-21 2006-06-21 Robot control device, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006171812A JP2008003807A (en) 2006-06-21 2006-06-21 Robot control device, method, and program

Publications (1)

Publication Number Publication Date
JP2008003807A true JP2008003807A (en) 2008-01-10

Family

ID=39008142

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006171812A Pending JP2008003807A (en) 2006-06-21 2006-06-21 Robot control device, method, and program

Country Status (1)

Country Link
JP (1) JP2008003807A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019058694A1 (en) * 2017-09-20 2019-03-28 ソニー株式会社 Control device, control method, and control system
CN109949447A (en) * 2018-12-08 2019-06-28 浙江国自机器人技术有限公司 Identity identifying method for IDC crusing robot
CN110349314A (en) * 2019-07-10 2019-10-18 北京云迹科技有限公司 Robot passes through gate inhibition or the control method of gate

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05297846A (en) * 1992-04-15 1993-11-12 Nec Corp Autonomous type optimum display terminal
JPH09267283A (en) * 1996-03-29 1997-10-14 Mitsubishi Electric Corp Robot control device and communication method thereof
JP2003291083A (en) * 2002-03-28 2003-10-14 Toshiba Corp Robot device, robot controlling method, and robot delivery system
JP2003340757A (en) * 2002-05-24 2003-12-02 Mitsubishi Heavy Ind Ltd Robot
JP2004216528A (en) * 2003-01-16 2004-08-05 Matsushita Electric Works Ltd Personal service robot and method of creating work plan for the same
JP2004237392A (en) * 2003-02-05 2004-08-26 Sony Corp Robotic device and expression method of robotic device
JP2004248022A (en) * 2003-02-14 2004-09-02 Nec Corp Mobile phone and communicating method using the same
JP2005059185A (en) * 2003-08-19 2005-03-10 Sony Corp Robot device and method of controlling the same
JP2005103679A (en) * 2003-09-29 2005-04-21 Toshiba Corp Robot device
JP2005289307A (en) * 2004-04-05 2005-10-20 Seiko Epson Corp Flight guiding device, walk guiding method, and flight guiding program
JP2006007341A (en) * 2004-06-23 2006-01-12 Mitsubishi Heavy Ind Ltd Communication method, robot task executing method and system
JP2006055931A (en) * 2004-08-18 2006-03-02 Inst Of Systems Information Technologies Kyushu Robot device
JP2007276080A (en) * 2006-04-11 2007-10-25 Toyota Motor Corp Guide robot

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05297846A (en) * 1992-04-15 1993-11-12 Nec Corp Autonomous type optimum display terminal
JPH09267283A (en) * 1996-03-29 1997-10-14 Mitsubishi Electric Corp Robot control device and communication method thereof
JP2003291083A (en) * 2002-03-28 2003-10-14 Toshiba Corp Robot device, robot controlling method, and robot delivery system
JP2003340757A (en) * 2002-05-24 2003-12-02 Mitsubishi Heavy Ind Ltd Robot
JP2004216528A (en) * 2003-01-16 2004-08-05 Matsushita Electric Works Ltd Personal service robot and method of creating work plan for the same
JP2004237392A (en) * 2003-02-05 2004-08-26 Sony Corp Robotic device and expression method of robotic device
JP2004248022A (en) * 2003-02-14 2004-09-02 Nec Corp Mobile phone and communicating method using the same
JP2005059185A (en) * 2003-08-19 2005-03-10 Sony Corp Robot device and method of controlling the same
JP2005103679A (en) * 2003-09-29 2005-04-21 Toshiba Corp Robot device
JP2005289307A (en) * 2004-04-05 2005-10-20 Seiko Epson Corp Flight guiding device, walk guiding method, and flight guiding program
JP2006007341A (en) * 2004-06-23 2006-01-12 Mitsubishi Heavy Ind Ltd Communication method, robot task executing method and system
JP2006055931A (en) * 2004-08-18 2006-03-02 Inst Of Systems Information Technologies Kyushu Robot device
JP2007276080A (en) * 2006-04-11 2007-10-25 Toyota Motor Corp Guide robot

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019058694A1 (en) * 2017-09-20 2019-03-28 ソニー株式会社 Control device, control method, and control system
US11389949B2 (en) 2017-09-20 2022-07-19 Sony Corporation Control device, control method, and control system
CN109949447A (en) * 2018-12-08 2019-06-28 浙江国自机器人技术有限公司 Identity identifying method for IDC crusing robot
CN110349314A (en) * 2019-07-10 2019-10-18 北京云迹科技有限公司 Robot passes through gate inhibition or the control method of gate

Similar Documents

Publication Publication Date Title
KR102352655B1 (en) Cross-device hadnoffs
US10970605B2 (en) Electronic apparatus and method of operating the same
US20220303341A1 (en) Method and device for controlling home device
US10878135B2 (en) Wireless device security system
CN109478106B (en) Utilizing environmental context for enhanced communication throughput
CN108369672B (en) Presenting context-based guidance using electronic signs
US11170778B2 (en) Conversational control system and method for registering external device
JP2009076027A (en) Service recommendation method and service recommendation device for robots of network base
WO2017002488A1 (en) Information processing apparatus, information processing method, and program
JPWO2018029831A1 (en) Building beacon system
KR20160016579A (en) Mobile device and method for executing an application based on a specific zone
WO2012032714A1 (en) User device, server, and operating conditions setting system
Hersh Mobility technologies for blind, partially sighted and deafblind people: Design issues
US10569420B1 (en) Interfacing with autonomous devices
JP6665276B2 (en) Trigger area
US20190026265A1 (en) Information processing apparatus and information processing method
Christopoulou Context as a necessity in mobile applications
JP2008003807A (en) Robot control device, method, and program
Dias et al. Future directions in indoor navigation technology for blind travelers
WO2019044104A1 (en) Information processing device, information processing method, and program
CN114928623A (en) Apparatus and method for controlling information communication
US20220215833A1 (en) Method and device for converting spoken words to text form
JP6496220B2 (en) Information distribution apparatus and information distribution program
KR101604897B1 (en) Communication system for people with hearing and speaking disability
JP6810252B2 (en) Information processing terminal and automatic response method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101221

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110214

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110823