JP7095220B2 - Robot control system - Google Patents

Robot control system Download PDF

Info

Publication number
JP7095220B2
JP7095220B2 JP2016243027A JP2016243027A JP7095220B2 JP 7095220 B2 JP7095220 B2 JP 7095220B2 JP 2016243027 A JP2016243027 A JP 2016243027A JP 2016243027 A JP2016243027 A JP 2016243027A JP 7095220 B2 JP7095220 B2 JP 7095220B2
Authority
JP
Japan
Prior art keywords
robot
information
unit
map
interactive
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016243027A
Other languages
Japanese (ja)
Other versions
JP2018097710A (en
Inventor
良太 水谷
タプリヤ ローシャン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2016243027A priority Critical patent/JP7095220B2/en
Publication of JP2018097710A publication Critical patent/JP2018097710A/en
Application granted granted Critical
Publication of JP7095220B2 publication Critical patent/JP7095220B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ロボット制御システムに関する。 The present invention relates to a robot control system.

特許文献1には、ある環境中に多数の探索ロボットを配置し、各探索ロボットはカメラで周囲の画像を撮影して画像の特徴を抽出し、監督ロボットがその特徴を集めて顕著性を検出し各探索ロボットに通知し、探索ロボットは回転アンテナによって顕著な画像を見た探索ロボットの位置を知って移動手段で移動し、結果として、他とは異なる特徴を有する対象物を見た探索ロボットの周囲に他の探索ロボットが集まる、群ロボットシステムが開示されている。 In Patent Document 1, a large number of search robots are arranged in a certain environment, each search robot takes an image of the surroundings with a camera to extract the features of the image, and the supervising robot collects the features and detects the prominence. Notifying each search robot, the search robot knows the position of the search robot that saw a remarkable image by the rotating antenna and moves by means of transportation, and as a result, the search robot sees an object having different characteristics from the others. A group robot system is disclosed in which other exploration robots gather around the robot.

特許文献2には、ナビゲータロボット(自律ロボット)と機能ロボット(非自律ロボット)とからなるシステムが開示されている。ナビゲータロボットは、マッピング、位置確認、計画、及び制御の4つの主要なタスクを行い、機能ロボットは、掃除機がけ、掃き掃除、モップがけ、等のタスクを実行する。ナビゲータロボットは、機能ロボットが障害物の周りを移動する際に機能ロボットを操作する。 Patent Document 2 discloses a system including a navigator robot (autonomous robot) and a functional robot (non-autonomous robot). The navigator robot performs four main tasks of mapping, location confirmation, planning, and control, and the functional robot performs tasks such as vacuuming, sweeping, and mopping. The navigator robot operates the functional robot as it moves around an obstacle.

特開2007-287071号公報Japanese Unexamined Patent Publication No. 2007-287071 特許第4951180号公報Japanese Patent No. 4951180

本発明の目的は、移動可能なロボットを、当該ロボットのセンサでは特定できない、ロボットを通過させるべきではない場所を考慮した移動経路に沿って移動制御を行うことが可能なロボット制御システムを提供することである。 An object of the present invention is to provide a robot control system capable of performing movement control of a movable robot along a movement path considering a place where the robot should not pass, which cannot be specified by the sensor of the robot. That is.

請求項1記載の発明は、
移動可能なロボットと、
ロボットが移動する領域の地図を記憶する記憶手段と、
前記領域に存在する人に装着され、装着された人の脈拍、皮膚の導電率又は体温のいずれかの情報を生体情報として検出する生体センサと、
前記生体センサが検出した前記領域に存在する人の生体情報を取得する取得手段と、
取得された生体情報を用いて前記地図上で集中して作業を行っている人がいると推定される場所を、ロボットを通過させるべきではない場所の情報として更新する更新手段と、
ロボットの現在位置から目的地までの経路を、更新された地図を参照して前記ロボットを通過させるべきではない場所として回避して探索する探索手段と、
探索された経路に沿って前記ロボットが移動するよう制御する制御手段と、
を備えたロボット制御システムである。
The invention according to claim 1 is
With a movable robot,
A storage means for storing a map of the area where the robot moves,
A biosensor that is attached to a person present in the area and detects information on either the pulse, skin conductivity, or body temperature of the person wearing the area as biometric information .
An acquisition means for acquiring biometric information of a person existing in the region detected by the biosensor, and
An update means for updating a place where it is presumed that there is a person who is concentrated on the map using the acquired biometric information as information on a place where the robot should not pass.
A search means for avoiding and searching the route from the current position of the robot to the destination as a place where the robot should not pass by referring to the updated map.
A control means for controlling the movement of the robot along the searched path, and
It is a robot control system equipped with.

また、請求項2に記載の発明は、請求項1記載のロボット制御システムに係り、前記制御手段は、前記ロボットが前記地図上の、ロボットを通過させるべきではない場所の近辺を走行する際に、速度を低下させて移動するよう前記ロボットを制御する。 The invention according to claim 2 relates to the robot control system according to claim 1 , wherein the control means travels in the vicinity of a place on the map where the robot should not pass. , The robot is controlled to move at a reduced speed.

請求項1に記載のロボット制御システムの発明によれば、移動可能なロボットを、当該ロボットのセンサでは特定できない、集中して作業を行っている人がいる場所といったロボットを通過させるべきではない場所を考慮した移動経路に沿って移動制御を行うことが可能なロボット制御システムを提供することが可能となる。 According to the invention of the robot control system according to claim 1, a movable robot should not be passed through a robot such as a place where there is a person who is intensively working, which cannot be specified by the sensor of the robot. It is possible to provide a robot control system capable of performing movement control along a movement route in consideration of a place.

請求項2に記載のロボット制御システムの発明によれば、移動可能なロボットが人や他の障害物に衝突する可能性を、本発明の構成を有さないシステムに比べて、低くすることが可能となる。 According to the invention of the robot control system according to claim 2 , the possibility that a movable robot collides with a person or another obstacle can be reduced as compared with a system having no configuration of the present invention. It will be possible.

本発明の実施形態に係るロボット制御システム100の一例を示す全体概略図である。It is an overall schematic diagram which shows an example of the robot control system 100 which concerns on embodiment of this invention. 対話型ロボット20のハードウェア構成図である。It is a hardware block diagram of the interactive robot 20. 対話型ロボット20の機能ブロック図である。It is a functional block diagram of an interactive robot 20. サービス実行ロボット20のハードウェア構成図である。It is a hardware block diagram of the service execution robot 20. サービス実行ロボット20の機能ブロック図である。It is a functional block diagram of a service execution robot 20. 制御サーバ40のハードウェア構成図である。It is a hardware configuration diagram of the control server 40. 制御サーバ40の機能ブロック図を示す。The functional block diagram of the control server 40 is shown. 制御サーバ40の地図記憶部426に記憶されたワークプレイス10の地図、および経路情報処理部423によって探索された対話型ロボット20Aの移動経路の一例を示す説明図である。It is explanatory drawing which shows the map of the workplace 10 stored in the map storage unit 426 of the control server 40, and an example of the movement path of the interactive robot 20A searched by the route information processing unit 423. 制御サーバ40における移動制御の流れを示すフローチャートである。It is a flowchart which shows the flow of movement control in a control server 40. 図8の地図に対して地図更新情報を反映させるとともに、変更された移動経路の一例を示す説明図である。It is explanatory drawing which reflects the map update information on the map of FIG. 8, and shows an example of the changed movement route. 制御サーバ40からロボット派遣指示を受信した対話型ロボット20Aにおける制御の流れを示すフローチャートである。It is a flowchart which shows the flow of control in the interactive robot 20A which received the robot dispatch instruction from the control server 40.

本発明の一実施形態のロボット制御システムを、図1を参照して説明する。本実施形態のロボット制御システム100は、オフィスビルの一つのフロア(一つの階)等の比較的大きな所定の領域10(以下、ワークプレイスという)に配置される複数の対話型ロボット20と、複数のサービス実行ロボット30、制御サーバ40、ワークプレイス10の天井や壁に配置される複数の環境センサ50と、を備えて構成され、制御サーバ40は、各対話型ロボット20、各サービス実行ロボット30、及び環境センサ50にネットワーク60によって接続される。環境センサ50は、RGBカメラ、深度センサ、複数のマイクロフォン等(それぞれ図示せず)を含んで構成される。それぞれの環境センサ50は、ワークプレイス10を構成する特定の部分(例えば、特定の通路、部屋)に関する環境情報を検出し、その情報を制御サーバ40に送信する。制御サーバ40と各対話型ロボット20、各サービス実行ロボット30とは、ワークプレイス10の壁面等に設置されたアクセスポイント70を介して無線ネットワークにより接続される。 A robot control system according to an embodiment of the present invention will be described with reference to FIG. The robot control system 100 of the present embodiment includes a plurality of interactive robots 20 arranged in a relatively large predetermined area 10 (hereinafter referred to as a workplace) such as one floor (one floor) of an office building, and a plurality of interactive robots 20. The service execution robot 30, the control server 40, and a plurality of environment sensors 50 arranged on the ceiling or wall of the workplace 10 are provided, and the control server 40 includes each interactive robot 20 and each service execution robot 30. , And is connected to the environment sensor 50 by the network 60. The environment sensor 50 includes an RGB camera, a depth sensor, a plurality of microphones (not shown respectively), and the like. Each environment sensor 50 detects environmental information about a specific part (for example, a specific passage, a room) constituting the workplace 10, and transmits the information to the control server 40. The control server 40, each interactive robot 20, and each service execution robot 30 are connected by a wireless network via an access point 70 installed on the wall surface of the workplace 10.

また、ワークプレイス10には複数の利用者80が存在するが、本実施形態では、利用者80は、ワークプレイス10内で業務を行うオフィスワーカーである。それぞれの利用者80は、ウェアラブルセンサ55を腕等に装着しており、各ウェアラブルセンサ55はアクセスポイント70を介して制御サーバ40と接続される。ウェアラブルセンサ55は生体センサであり、利用者80の脈拍、皮膚の導電率、体温を測定し、それらの生体情報を環境情報として制御サーバ40に送信する。 Further, although there are a plurality of users 80 in the workplace 10, in the present embodiment, the user 80 is an office worker who works in the workplace 10. Each user 80 wears a wearable sensor 55 on an arm or the like, and each wearable sensor 55 is connected to a control server 40 via an access point 70. The wearable sensor 55 is a biological sensor that measures the pulse, skin conductivity, and body temperature of the user 80, and transmits the biological information to the control server 40 as environmental information.

ここで、図2、3を参照して、本実施形態の対話型ロボット20について説明する。図2は対話型ロボット20のハードウェア構成図である。図2に示すように、対話型ロボット20は、制御用マイクロプロセッサ210、メモリ211、ハードディスク・ドライブ(HDD)やソリッド・ステート・ドライブ(SSD)等の記憶装置212、通信インタフェース213、カメラ214、マイクロフォン215、スピーカ216、移動装置217を備えて構成され、それぞれ制御バス218に接続されている。 Here, the interactive robot 20 of the present embodiment will be described with reference to FIGS. 2 and 3. FIG. 2 is a hardware configuration diagram of the interactive robot 20. As shown in FIG. 2, the interactive robot 20 includes a control microprocessor 210, a memory 211, a storage device 212 such as a hard disk drive (HDD) and a solid state drive (SSD), a communication interface 213, and a camera 214. It is configured to include a microphone 215, a speaker 216, and a mobile device 217, and each is connected to a control bus 218.

制御用マイクロプロセッサ210は、記憶装置212に記憶された制御プログラムを実行することにより対話型ロボット20の各部の動作を制御統括する。メモリ211には、制御サーバ40から受信するロボット派遣指示、後述する派遣指示解釈部によって生成される制御情報が一時的に記憶される。さらに、メモリ211には、対話型ロボット20のカメラ241が撮影した周囲の状況、例えば壁や天井、障害物の画像、対話型ロボット20が利用者80と対話を行った際にカメラ241が撮影した利用者80の表情、挙動、身体の状態の画像、対話時の対話の音声、対話内容が一時的に記憶される。 The control microprocessor 210 controls and controls the operation of each part of the interactive robot 20 by executing the control program stored in the storage device 212. The memory 211 temporarily stores the robot dispatch instruction received from the control server 40 and the control information generated by the dispatch instruction interpretation unit described later. Further, in the memory 211, the surrounding situation taken by the camera 241 of the interactive robot 20, for example, an image of a wall, a ceiling, an obstacle, or a picture taken by the camera 241 when the interactive robot 20 has a dialogue with the user 80. The facial expression, behavior, image of the physical condition of the user 80, the voice of the dialogue at the time of dialogue, and the content of the dialogue are temporarily stored.

記憶装置212には対話型ロボット20の各部を制御するための制御プログラムが記憶される。通信インタフェース213は、対話型ロボット20がアクセスポイント70を介して制御サーバ40や他の対話型ロボット20或いはサービス実行ロボット30と通信を行うための通信制御を行う。 A control program for controlling each part of the interactive robot 20 is stored in the storage device 212. The communication interface 213 controls communication for the interactive robot 20 to communicate with the control server 40, another interactive robot 20, or the service execution robot 30 via the access point 70.

カメラ214は、対話型ロボット20の周囲の状況を撮影し、メモリ211に記憶する。また、利用者80と対話を行った際に、利用者80の表情、挙動、身体の状態の変化等を撮影し、メモリ211に記憶する。また、マイクロフォン215は、利用者と対話を行った際に、利用者の音声を検出し、メモリ211に記憶、つまり録音する。なお、メモリ211には、音声を直接録音するのではなく、音声内容を解釈した後の対話内容を記憶させてもよい。スピーカ216は、対話型ロボット20の後述する対話制御部が生成した音声を出力する。移動装置217は、対話型ロボット20を任意の場所に移動させるのに必要な車輪やモータ等の駆動装置により構成される。なお、移動装置217は現在位置を検出するためのGPS受信装置を含んでいてもよい。 The camera 214 captures the situation around the interactive robot 20 and stores it in the memory 211. Further, when the user 80 has a dialogue, the facial expression, the behavior, the change in the physical condition of the user 80, and the like are photographed and stored in the memory 211. Further, the microphone 215 detects the user's voice when interacting with the user, and stores or records the user's voice in the memory 211. Note that the memory 211 may store the dialogue content after interpreting the voice content, instead of directly recording the voice. The speaker 216 outputs the voice generated by the dialogue control unit described later of the interactive robot 20. The moving device 217 is composed of a driving device such as wheels and a motor necessary for moving the interactive robot 20 to an arbitrary place. The mobile device 217 may include a GPS receiving device for detecting the current position.

図3は、対話型ロボット20の機能ブロック図を示す。対話型ロボット20は、記憶装置212に記憶されている制御プログラムを制御用マイクロプロセッサ210において実行することにより、図3に示されるように、派遣指示受信部220、派遣指示解釈部221、現在位置検出部222、移動制御部223、周囲状況検出部224、周囲状況通知部225、対話制御部226として機能する。 FIG. 3 shows a functional block diagram of the interactive robot 20. By executing the control program stored in the storage device 212 in the control microprocessor 210, the interactive robot 20 has a dispatch instruction receiving unit 220, a dispatch instruction interpreting unit 221 and a current position, as shown in FIG. It functions as a detection unit 222, a movement control unit 223, an ambient condition detection unit 224, an ambient condition notification unit 225, and a dialogue control unit 226.

派遣指示受信部220は、制御サーバ40からロボット派遣指示情報を受信する。ロボット派遣指示情報には、実行すべきなのはどんなサービスか(対話型ロボット20の場合にはどんな対話サービスを提供するのか)、誰に対して提供するのか(サービス提供相手)、いつ提供するのか(サービス提供の時期)、どこで提供するのか(サービス提供場所)といった情報、および制御サーバ40において探索された、対話型ロボット20の現在位置からサービス提供場所である目的地までの移動経路情報が含まれる。派遣指示受信部220は、受信したロボット派遣指示情報をメモリ211に一時的に記憶する。また、派遣指示受信部220は、目的地に向かって移動中に制御サーバ40から送信されてきた更新された移動経路情報を受信し、メモリ211に記憶する。 The dispatch instruction receiving unit 220 receives the robot dispatch instruction information from the control server 40. For the robot dispatch instruction information, what kind of service should be executed (what kind of dialogue service is provided in the case of the interactive robot 20), to whom (service provider), and when to provide it (service provider). Information such as (time of service provision), where to provide the service (service provision location), and travel route information from the current position of the interactive robot 20 searched by the control server 40 to the destination which is the service provision location are included. .. The dispatch instruction receiving unit 220 temporarily stores the received robot dispatch instruction information in the memory 211. Further, the dispatch instruction receiving unit 220 receives the updated movement route information transmitted from the control server 40 while moving toward the destination, and stores it in the memory 211.

派遣指示解釈部221は、受信したロボット派遣指示情報を解釈し、対話型ロボット20の各部を動作させる具体的な制御情報を生成する。制御情報には、どのような内容の対話を行うのか、および移動経路に沿ってどのように対話型ロボット20を移動させるのかに関する情報が含まれており、メモリ211に一時的に記憶される。 The dispatch instruction interpretation unit 221 interprets the received robot dispatch instruction information and generates specific control information for operating each unit of the interactive robot 20. The control information includes information on what kind of dialogue is to be performed and how to move the interactive robot 20 along the movement path, and is temporarily stored in the memory 211.

現在位置検出部222は、対話型ロボット20の現在位置を検出する。具体的には、現在位置検出装置222は、移動装置217の車輪の回転角の情報に基づいて対話型ロボット20の移動距離と移動方向を算出し、記憶装置212に記憶された地図(不図示)から得られる情報と、カメラ214で撮影した壁や通路等の画像とを比較することによって対話型ロボット20の現在位置を検出する。なお、移動装置217がGPS受信装置を含んでいる場合には、GPS信号を解析することにより現在位置を検出してもよい。移動制御部223は、現在位置検出部222によって特定される現在位置を参照しつつ移動装置217の動作を制御し、制御サーバ40から受信した移動経路情報に沿って対話型ロボット20を移動させる。 The current position detection unit 222 detects the current position of the interactive robot 20. Specifically, the current position detecting device 222 calculates the moving distance and the moving direction of the interactive robot 20 based on the information of the rotation angle of the wheels of the moving device 217, and the map stored in the storage device 212 (not shown). ) And the image of the wall, passage, etc. taken by the camera 214, the current position of the interactive robot 20 is detected. When the mobile device 217 includes a GPS receiving device, the current position may be detected by analyzing the GPS signal. The movement control unit 223 controls the operation of the movement device 217 while referring to the current position specified by the current position detection unit 222, and moves the interactive robot 20 along the movement route information received from the control server 40.

周囲状況検出部224は、カメラ214によって撮影した対話型ロボット20の周囲の状況を解析し、障害物、他のロボット、人が存在するか否か、およびそれらの位置を判断し、その情報をメモリ211に記憶する。周囲状況通知部225は、周囲状況検出部224によって検出された周囲の状況についての情報、例えば、障害物、人、他のロボットの存在の有無やそれらの位置についての情報を、環境情報として制御サーバ40に送信する。 The surrounding situation detection unit 224 analyzes the surrounding situation of the interactive robot 20 taken by the camera 214, determines whether or not there are obstacles, other robots, and people, and their positions, and obtains the information. Store in memory 211. The surrounding situation notification unit 225 controls information about the surrounding situation detected by the surrounding situation detection unit 224, for example, information about the presence or absence of obstacles, people, and other robots and their positions as environmental information. Send to server 40.

対話制御部226は、派遣指示解釈部221で解釈された派遣指示に含まれる対話内容に基づいて対話型ロボット20が利用者80と行う対話を制御するとともに、利用者80に対する応答内容を生成する。具体的には、対話制御部226は、派遣指示に含まれる対話内容に応じて応答メッセージを生成し、スピーカ216に出力する。 The dialogue control unit 226 controls the dialogue performed by the interactive robot 20 with the user 80 based on the dialogue content included in the dispatch instruction interpreted by the dispatch instruction interpretation unit 221 and generates a response content to the user 80. .. Specifically, the dialogue control unit 226 generates a response message according to the dialogue content included in the dispatch instruction and outputs the response message to the speaker 216.

次に、図4、5を参照して、本実施形態のサービス実行ロボット30について説明する。サービス実行ロボット30は、例えば、運搬ロボット、ディスプレイロボット、プロジェクタロボット等である。なお、図4、5においては、サービス実行ロボットとして、ディスプレイロボットを例示して説明する。図4は、本実施形態のサービス実行ロボット30のハードウェア構成図である。サービス実行ロボット30は、制御用マイクロプロセッサ310、メモリ311、記憶装置312、通信インタフェース313、カメラ314、マイクロフォン315、移動装置316、表示装置317、入力装置318を備えて構成され、それぞれ制御バス319に接続されている。 Next, the service execution robot 30 of the present embodiment will be described with reference to FIGS. 4 and 5. The service execution robot 30 is, for example, a transport robot, a display robot, a projector robot, or the like. In FIGS. 4 and 5, a display robot will be illustrated as a service execution robot. FIG. 4 is a hardware configuration diagram of the service execution robot 30 of the present embodiment. The service execution robot 30 includes a control microprocessor 310, a memory 311, a storage device 312, a communication interface 313, a camera 314, a microphone 315, a mobile device 316, a display device 317, and an input device 318, each of which is a control bus 319. It is connected to the.

制御用マイクロプロセッサ310は、記憶装置312に記憶された制御プログラムを実行することによりサービス実行ロボット30の各部の動作を制御統括する。メモリ311は、通信インタフェース313を介して制御サーバ40から受信したロボット派遣指示、および後述する派遣指示解釈部によって生成される制御情報が一時的に記憶される。さらにメモリ311には、サービス実行ロボット30のカメラ314が撮影した周囲の状況、例えば壁や天井、障害物の画像、さらにマイクロフォン315が検出した音声等も一時的に記憶される。 The control microprocessor 310 controls and controls the operation of each part of the service execution robot 30 by executing the control program stored in the storage device 312. The memory 311 temporarily stores the robot dispatch instruction received from the control server 40 via the communication interface 313 and the control information generated by the dispatch instruction interpretation unit described later. Further, the memory 311 temporarily stores the surrounding conditions taken by the camera 314 of the service execution robot 30, such as images of walls, ceilings, obstacles, and sounds detected by the microphone 315.

記憶装置312は、ハードディスク・ドライブ(HDD)やソリッド・ステート・ドライブ(SSD)等であり、サービス実行ロボット30を制御するための制御プログラムが記憶されている。通信インタフェース313は、サービス実行ロボット30がアクセスポイント70及びネットワーク60を介して制御サーバ40と通信を行うための通信制御を行う。 The storage device 312 is a hard disk drive (HDD), a solid state drive (SSD), or the like, and stores a control program for controlling the service execution robot 30. The communication interface 313 controls communication for the service execution robot 30 to communicate with the control server 40 via the access point 70 and the network 60.

カメラ314は、サービス実行ロボット30が移動する際に、周囲の状況を撮影したり、利用者80がサービス実行ロボット30の表示装置317の前に立ってテレビ電話をかける、というような場合に利用者80の顔を撮影したりする。カメラ314によって撮影された画像はメモリ211に一時的に記憶される。マイクロフォン315は、利用者80の音声等を検出し、メモリ211に一時的に記憶する。移動装置316は、サービス実行ロボット30を任意の場所に移動させるのに必要な車輪やモータ等の駆動装置、及びGPS受信装置等の現在位置検出装置で構成される。 The camera 314 is used when the service execution robot 30 moves, the surrounding situation is photographed, or the user 80 stands in front of the display device 317 of the service execution robot 30 and makes a videophone call. The face of the person 80 is photographed. The image taken by the camera 314 is temporarily stored in the memory 211. The microphone 315 detects the voice of the user 80 and temporarily stores it in the memory 211. The moving device 316 is composed of a driving device such as wheels and a motor necessary for moving the service execution robot 30 to an arbitrary place, and a current position detecting device such as a GPS receiving device.

表示装置317は、液晶ディスプレイ、液晶ディスプレイの角度や高さを変えるための調節装置等で構成され、記憶装置312に記憶された情報や、通信インタフェース313、アクセスポイント70、及びネットワーク60を介して制御サーバ40やインターネット等から取得した情報を、液晶ディスプレイ上に表示する。入力装置318は、表示装置317を構成する液晶ディスプレイの表面に配置されたタッチパネルであり、利用者80が表示装置317に表示された情報を視認しながらタッチパネルの所定箇所に触れることにより、必要な情報を入力することができる。 The display device 317 is composed of a liquid crystal display, an adjustment device for changing the angle and height of the liquid crystal display, and the like, via the information stored in the storage device 312, the communication interface 313, the access point 70, and the network 60. Information acquired from the control server 40, the Internet, or the like is displayed on the liquid crystal display. The input device 318 is a touch panel arranged on the surface of the liquid crystal display constituting the display device 317, and is required by the user 80 touching a predetermined portion of the touch panel while visually recognizing the information displayed on the display device 317. You can enter information.

図5は、サービス実行ロボット30の機能ブロック図を示す。サービス実行ロボット30は、記憶装置312に記憶されている制御プログラムを制御用マイクロプロセッサ310において実行することにより、図5に示されるように、派遣指示受信部320、派遣指示解釈部321、現在位置検出部322、移動制御部323、周囲状況検出部324、周囲状況通知部325、サービス実行部326として機能する。 FIG. 5 shows a functional block diagram of the service execution robot 30. The service execution robot 30 executes the control program stored in the storage device 312 in the control microprocessor 310, and as shown in FIG. 5, the dispatch instruction receiving unit 320, the dispatch instruction interpreting unit 321, and the current position. It functions as a detection unit 322, a movement control unit 323, an ambient condition detection unit 324, an ambient condition notification unit 325, and a service execution unit 326.

派遣指示受信部320は、制御サーバ40からロボット派遣指示情報を受信する。ロボット派遣指示情報には、実行すべきなのはどんなサービスか(サービス内容)、だれに対して提供するのか(サービス提供相手)、いつ、或いはいつまでに提供するのか(サービス提供の時期)、およびどこで提供するのか(サービス提供場所、つまり目的地)といった情報、および制御サーバ40において探索された、サービス実行ロボット30の現在位置からサービス提供場所である目的地までの移動経路情報が含まれる。派遣指示受信部320は、受信したロボット派遣指示情報をメモリ311に一時的に記憶する。また、派遣指示受信部220は、目的地に向かって移動中に制御サーバ40から送信されてきた更新された移動経路情報を受信し、メモリ211に記憶する。 The dispatch instruction receiving unit 320 receives the robot dispatch instruction information from the control server 40. The robot dispatch instruction information includes what kind of service should be executed (service content), to whom (service provider), when or by when (service provision time), and where to provide it. Information such as whether to do so (service providing place, that is, destination), and movement route information from the current position of the service executing robot 30 searched by the control server 40 to the destination which is the service providing place are included. The dispatch instruction receiving unit 320 temporarily stores the received robot dispatch instruction information in the memory 311. Further, the dispatch instruction receiving unit 220 receives the updated movement route information transmitted from the control server 40 while moving toward the destination, and stores it in the memory 211.

派遣指示解釈部321は、受信したロボット派遣指示情報を解釈し、サービス実行ロボット30の各部を動作させる具体的な制御情報を生成する。制御情報には、いつ、どのように表示装置317を動作させるか、どんな情報を表示するか、といった具体的動作に関する情報(サービス実行ロボット30が運搬ロボットの場合には、どんなものをどのように収集、配布するかといった情報)、サービス実行ロボット30を移動させる場合には目的地の情報が含まれており、メモリ311に一時的に記憶される。 The dispatch instruction interpretation unit 321 interprets the received robot dispatch instruction information and generates specific control information for operating each unit of the service execution robot 30. The control information includes information on specific operations such as when and how to operate the display device 317 and what kind of information is displayed (when the service execution robot 30 is a transport robot, what and how). Information on whether to collect or distribute information), information on the destination is included when the service execution robot 30 is moved, and is temporarily stored in the memory 311.

現在位置検出部322は、サービス実行ロボット30の現在位置を検出する。具体的には、現在位置検出部322は、移動装置316の車輪の回転角の情報に基づいてサービス実行ロボット30の移動距離と移動方向を算出し、後述する地図と、カメラ314で撮影した壁や通路等の画像とを比較することによってサービス実行ロボット30の現在位置を検出する。なお、移動装置316がGPS受信装置を含んでいる場合には、GPS信号を解析することにより現在位置を検出してもよい。移動制御部323は、現在位置検出部322によって特定される現在位置を参照しつつ移動装置316の動作を制御し、制御サーバ40から受信した移動経路情報に沿ってサービス実行ロボット30を移動させる。 The current position detection unit 322 detects the current position of the service execution robot 30. Specifically, the current position detection unit 322 calculates the movement distance and the movement direction of the service execution robot 30 based on the information of the rotation angle of the wheels of the movement device 316, and the map described later and the wall photographed by the camera 314. The current position of the service execution robot 30 is detected by comparing with an image such as a passage or a passage. When the mobile device 316 includes a GPS receiving device, the current position may be detected by analyzing the GPS signal. The movement control unit 323 controls the operation of the movement device 316 while referring to the current position specified by the current position detection unit 322, and moves the service execution robot 30 along the movement route information received from the control server 40.

周囲状況検出部324は、カメラ314によって撮影したサービス実行ロボット30の周囲の状況を解析し、障害物や他のロボット、人が存在するか否か、およびそれらの位置を判断し、その情報をメモリ311に記憶する。周囲状況通知部325は、周囲状況検出部325によって検出された周囲の状況についての情報、例えば、障害物、人、他のロボットの存在の有無やそれらの位置についての情報を、環境情報として制御サーバ40に送信する。 The surrounding situation detection unit 324 analyzes the surrounding situation of the service execution robot 30 taken by the camera 314, determines whether or not there are obstacles, other robots, and people, and determines their positions, and outputs the information. It is stored in the memory 311. The surrounding situation notification unit 325 controls information about the surrounding situation detected by the surrounding situation detection unit 325, for example, information about the presence or absence of obstacles, people, and other robots and their positions as environmental information. Send to server 40.

サービス実行部326は、メモリ311に記憶されている制御情報にしたがって、表示装置317等を動作させ、制御サーバ40から受信したロボット派遣指示により特定されるサービスを実行する。 The service execution unit 326 operates the display device 317 and the like according to the control information stored in the memory 311 and executes the service specified by the robot dispatch instruction received from the control server 40.

次に、図6、7を参照して、本実施形態の制御サーバ40について説明する。図6は、制御サーバ40のハードウェア構成図である。図6に示すように、制御サーバ40は、CPU410、メモリ411、記憶装置412、通信インタフェース413、ユーザインタフェース414を備えて構成され、それぞれ制御バス415に接続されている。CPU410は、記憶装置412に記憶された制御プログラムに基づいて制御サーバ40各部の動作を制御統括する。メモリ411には、複数の環境センサ50、対話型ロボット20に設けられるセンサ、サービス実行ロボット30に設けられるセンサから送信されてきたワークプレイス10内の障害物、人、ロボットの位置についての情報、また、人が密集している場所、打ち合わせが行われている場所、集中して作業を行っている人がいる場所についての情報、また、対話型ロボット20やサービス実行ロボット30に送信されるロボット派遣指示、およびワークプレイス10の地図に対してリアルタイムに追加される地図更新情報が一時に的記憶される。 Next, the control server 40 of the present embodiment will be described with reference to FIGS. 6 and 7. FIG. 6 is a hardware configuration diagram of the control server 40. As shown in FIG. 6, the control server 40 includes a CPU 410, a memory 411, a storage device 412, a communication interface 413, and a user interface 414, and each is connected to a control bus 415. The CPU 410 controls and controls the operation of each part of the control server 40 based on the control program stored in the storage device 412. The memory 411 contains information about obstacles, people, and robot positions in the workplace 10 transmitted from a plurality of environment sensors 50, sensors provided in the interactive robot 20, and sensors provided in the service execution robot 30. In addition, information about places where people are crowded, places where meetings are held, places where people are working intensively, and robots transmitted to the interactive robot 20 and the service execution robot 30. The dispatch instruction and the map update information added in real time to the map of the workplace 10 are temporarily stored.

記憶装置412は、ハードディスク・ドライブ(HDD)やソリッド・ステート・ドライブ(SSD)等であり、制御サーバ40を制御するための制御プログラムが記憶されている。さらに、記憶装置412には、後述するワークプレイス10の地図が記憶される。通信インタフェース413は、制御サーバ40がアクセスポイント70を介して各対話型ロボット20、サービス実行ロボット30、環境センサ50、ウェアラブルセンサ55と各種データの送受信を行うための通信制御を行う。ユーザインタフェース414は、液晶ディスプレイ等の表示装置、及びキーボードやマウス等の入力装置によって構成されており、記憶装置412に記憶されている制御プログラムを管理者が調整したりするためのものである。 The storage device 412 is a hard disk drive (HDD), a solid state drive (SSD), or the like, and stores a control program for controlling the control server 40. Further, the storage device 412 stores a map of the workplace 10 described later. The communication interface 413 controls communication for the control server 40 to send and receive various data to and from the interactive robot 20, the service execution robot 30, the environment sensor 50, and the wearable sensor 55 via the access point 70. The user interface 414 is composed of a display device such as a liquid crystal display and an input device such as a keyboard and a mouse, and is for the administrator to adjust a control program stored in the storage device 412.

図7は、制御サーバ40の機能ブロック図を示す。制御サーバ40は、記憶装置412に記憶されている制御プログラムをCPU410において実行することにより、図7に示されるように、派遣要請受信部420、環境/ロボット情報取得部421、地図更新部422、経路情報処理部423、派遣指示情報処理部424、派遣指示/経路情報送信部425、地図記憶部426として機能する。 FIG. 7 shows a functional block diagram of the control server 40. By executing the control program stored in the storage device 412 in the CPU 410, the control server 40 has a dispatch request receiving unit 420, an environment / robot information acquisition unit 421, and a map updating unit 422, as shown in FIG. It functions as a route information processing unit 423, a dispatch instruction information processing unit 424, a dispatch instruction / route information transmission unit 425, and a map storage unit 426.

派遣要請受信部420は、ワークプレイス10内のある場所において、利用者80が手招き等でロボットの派遣を要請した場合に、環境センサ50によって送信されるロボット派遣要請情報を受信する。環境センサ50から受信するロボット派遣要請情報には、ロボット派遣要請の生じた場所、時刻、利用者80による要求の種類についての情報が含まれる。なお、ロボット派遣要請は、利用者80が音声によって明示的に派遣を必要とするロボットや提供を必要とするサービスを特定し、環境センサ50や利用者80の近くにいる対話型ロボット20がロボット派遣要請を検出するようにしてもよい。 The dispatch request receiving unit 420 receives the robot dispatch request information transmitted by the environment sensor 50 when the user 80 requests the dispatch of the robot by beckoning or the like at a certain place in the workplace 10. The robot dispatch request information received from the environment sensor 50 includes information about the place where the robot dispatch request is generated, the time, and the type of request by the user 80. In the robot dispatch request, the user 80 explicitly identifies the robot that needs to be dispatched or the service that needs to be provided by voice, and the interactive robot 20 near the environment sensor 50 and the user 80 is the robot. The dispatch request may be detected.

環境/ロボット情報取得部421は、ワークプレイス10内に配置された複数の環境センサ50、対話型ロボット20、およびサービス実行ロボット30から環境情報をリアルタイムに取得し、メモリ411に一時的に記憶する。なお、この環境情報には、障害物、人、他のロボットの存在の有無やそれらの位置についての情報、さらに、ワークプレイス10内に存在する人の生体情報が含まれる。また、それぞれの対話型ロボット20、サービス実行ロボット30は、環境情報として各ロボットの現在位置情報を環境情報に付与して記憶する。また、環境/ロボット情報取得部421は、ワークプレイス10内において稼働しているそれぞれの対話型ロボット20、サービス実行ロボット30の現在位置情報をリアルタイムに取得する。 The environment / robot information acquisition unit 421 acquires environment information in real time from a plurality of environment sensors 50, an interactive robot 20, and a service execution robot 30 arranged in the workplace 10, and temporarily stores the environment information in the memory 411. .. The environmental information includes information on the presence / absence of obstacles, humans, and other robots and their positions, as well as biological information of humans existing in the workplace 10. Further, each of the interactive robot 20 and the service execution robot 30 adds the current position information of each robot to the environmental information and stores it as environmental information. In addition, the environment / robot information acquisition unit 421 acquires the current position information of each of the interactive robots 20 and the service execution robot 30 operating in the workplace 10 in real time.

地図更新部422は、環境情報取得部421によって取得された環境情報に基づいて、後述する地図上の、ロボットを通過させるべきではない場所の情報を更新する。例えば、地図更新部422は、環境情報取得部421によって取得された、障害物、人、他のロボットの存在の有無や位置を含む環境情報に基づいて、人が密集している場所、打ち合わせが行われている場所、集中して作業を行っている人がいる場所、衝突危険性の高い場所の少なくとも1つを、ロボットを通過させるべきではない場所として特定し、それらの情報を地図上に反映させることによって地図を更新する。なお、その際に、地図更新部422は、環境情報取得部421によって取得された環境情報を用いて、後述する地図上の衝突危険性の高い場所における衝突危険性の度合いを算出し、その衝突危険性の度合いを地図上に動的に更新させてもよい。 The map update unit 422 updates the information on the location on the map, which will be described later, where the robot should not pass, based on the environmental information acquired by the environmental information acquisition unit 421. For example, the map update unit 422 has a place where people are crowded and a meeting based on the environmental information including the presence / absence and position of obstacles, people, and other robots acquired by the environmental information acquisition unit 421. Identify at least one of the places where it is done, where there are people working intensively, and where there is a high risk of collision as places where robots should not pass, and that information is on the map. Update the map by reflecting. At that time, the map updating unit 422 calculates the degree of collision risk at a place having a high collision risk on the map, which will be described later, using the environmental information acquired by the environmental information acquisition unit 421, and the collision. The degree of danger may be dynamically updated on the map.

経路情報処理部423は、対話型ロボット20の現在位置検出部222によって特定された現在位置、或いはサービス実行ロボット30の現在位置検出部322によって特定された現在位置からサービス提供場所である目的地までの移動経路を、後述する地図記憶部426に記憶された地図を参照して探索して移動経路情報を生成し、メモリ411に記憶する。さらに、経路情報処理部423は、それぞれの対話型ロボット20、サービス実行ロボット30から経路情報要求を受信したか否かを判定し、経路情報要求を受信した場合には当該対話型ロボット20又はサービス実行ロボット30の現在位置から目的地までの移動経路を、更新された地図を参照して探索する。さらに、経路情報処理部423は、対話型ロボット20、サービス実行ロボット30から送信されてくる現在位置情報に基づいて、当該ロボットが目的地到着したか否かを判定する。 The route information processing unit 423 is from the current position specified by the current position detection unit 222 of the interactive robot 20 or the current position specified by the current position detection unit 322 of the service execution robot 30 to the destination which is the service provision location. The movement route of the above is searched by referring to the map stored in the map storage unit 426, which will be described later, and the movement route information is generated and stored in the memory 411. Further, the route information processing unit 423 determines whether or not a route information request has been received from each of the interactive robot 20 and the service execution robot 30, and if the route information request is received, the interactive robot 20 or the service. The movement route from the current position of the execution robot 30 to the destination is searched by referring to the updated map. Further, the route information processing unit 423 determines whether or not the robot has arrived at the destination based on the current position information transmitted from the interactive robot 20 and the service execution robot 30.

派遣指示情報処理部424は、ロボット派遣要請受信部420において受信したロボット派遣要請、および各ロボットの現在位置の情報に基づいて、どのロボットを派遣すべきかを決定する。さらに、派遣指示情報処理部424は、実行すべきなのはどんなサービスか(対話型ロボット20の場合にはどんな対話サービスを提供するのか)、誰に対して提供するのか(サービス提供相手)、いつ提供するのか(サービス提供の時期)、どこで提供するのか(サービス提供場所)といった情報、および経路情報処理部423において探索された移動経路情報によって構成されるロボット派遣指示情報を生成する。 The dispatch instruction information processing unit 424 determines which robot should be dispatched based on the robot dispatch request received by the robot dispatch request receiving unit 420 and the information on the current position of each robot. Furthermore, the dispatch instruction information processing unit 424 provides what kind of service should be executed (what kind of dialogue service is provided in the case of the interactive robot 20), to whom it is provided (service provider), and when. It generates robot dispatch instruction information composed of information such as whether to provide the service (time of service provision), where to provide the service (service provision location), and movement route information searched by the route information processing unit 423.

派遣指示/経路情報送信部425は、ロボット派遣指示生成部424によって生成されたロボット派遣指示情報を、派遣指示情報処理部424で特定された、サービスを実行すべきロボット(特定の対話型ロボット20或いはサービス実行ロボット30)に送信する。また、経路情報処理部423によって新たに移動経路が探索され、それに基づいて新たな移動経路情報が生成された場合には、生成された新たな移動経路情報を該当する対話型ロボット20、サービス実行ロボット30に送信する。 The dispatch instruction / route information transmission unit 425 uses the robot dispatch instruction information generated by the robot dispatch instruction generation unit 424 as a robot (specific interactive robot 20) to execute a service specified by the dispatch instruction information processing unit 424. Alternatively, it is transmitted to the service execution robot 30). Further, when a new movement route is searched for by the route information processing unit 423 and new movement route information is generated based on the new movement route information, the generated new movement route information is used for the corresponding interactive robot 20 and service execution. It is transmitted to the robot 30.

地図記憶部426は、対話型ロボット20、サービス実行ロボット30が移動する領域の地図を記憶する。なお、本実施形態においては、地図記憶部426は、ワークプレイス10内の地図を記憶している。この地図には、ワークプレイス10内の通路、壁、部屋、出入口が登録されている。また、地図記憶部426に記憶された地図は、上述した地図更新部422によって、ロボットを通過させるべきではない場所の情報が更新される。ロボットを通過させるべきではない場所としては、人が密集している場所、打ち合わせが行われている場所、集中して作業を行っている人がいる場所、衝突危険性の高い場所とその衝突危険性の度合いが含まれる。 The map storage unit 426 stores a map of the area in which the interactive robot 20 and the service execution robot 30 move. In this embodiment, the map storage unit 426 stores the map in the workplace 10. In this map, passages, walls, rooms, and doorways in the workplace 10 are registered. Further, in the map stored in the map storage unit 426, the map update unit 422 described above updates the information of the place where the robot should not pass. Places where robots should not be passed include places where people are crowded, places where meetings are held, places where there are people who are working intensively, places where there is a high risk of collision and their collision risk. The degree of sex is included.

次に、図8~11を参照して、本実施形態のロボット制御システム100における処理の流れを説明する。なお、図8は、制御サーバ40の地図記憶部426に記憶されたワークプレイス10の地図、および経路情報処理部423によって探索された対話型ロボット20Aの移動経路の一例を示す説明図である。図9は、制御サーバ40における移動制御の流れを示すフローチャートである。図10は、図8の地図に対して地図更新情報を反映させるとともに、変更された移動経路の一例を示す説明図である。図11は、制御サーバ40からロボット派遣指示を受信した対話型ロボット20Aにおける制御の流れを示すフローチャートである。 Next, the flow of processing in the robot control system 100 of the present embodiment will be described with reference to FIGS. 8 to 11. Note that FIG. 8 is an explanatory diagram showing a map of the workplace 10 stored in the map storage unit 426 of the control server 40 and an example of the movement route of the interactive robot 20A searched by the route information processing unit 423. FIG. 9 is a flowchart showing the flow of movement control in the control server 40. FIG. 10 is an explanatory diagram showing an example of the changed movement route while reflecting the map update information on the map of FIG. FIG. 11 is a flowchart showing a control flow in the interactive robot 20A that has received a robot dispatch instruction from the control server 40.

図8に示すように、ワークプレイス10には、部屋A~部屋D、通路910~通路940が存在する。さらに、部屋Aには環境センサ50Aが設置されて部屋A内部の環境情報を検出し、通路920の壁面には環境センサ50Bが配置されて通路930の環境情報を検出し、通路910の壁面には環境センサ50C、50Dが配置され、それぞれ通路920、940の環境情報を検出する。また、ワークプレイス10には、2台の対話型ロボット20A、20Bと1台のサービス実行ロボット30Aが稼働している。なお、以下の説明では、部屋Aで業務をしている利用者80Aがロボット派遣要請を行った場合について説明する。 As shown in FIG. 8, the workplace 10 has rooms A to D and passages 910 to 940. Further, an environment sensor 50A is installed in the room A to detect the environmental information inside the room A, and an environment sensor 50B is arranged on the wall surface of the passage 920 to detect the environmental information of the passage 930 and to be on the wall surface of the passage 910. Is arranged with environment sensors 50C and 50D, and detects environmental information of passages 920 and 940, respectively. In addition, two interactive robots 20A and 20B and one service execution robot 30A are operating in the workplace 10. In the following description, a case where the user 80A working in the room A makes a robot dispatch request will be described.

利用者80Aがロボット派遣要請を行うと、部屋Aに設置された環境センサ50Aは、利用者80Aによるロボット派遣要請を検出し、ロボット派遣要請の生じた場所、時刻、および利用者80Aの要求の種類についての情報を含むロボット派遣要請情報を制御サーバ40に送信する。そこで、まず図9を参照しつつ、制御サーバ40における処理の流れを説明する。図9のステップS901において、制御サーバ40の派遣要請受信部420は、環境センサ50Aから送信されてきたロボット派遣要請情報を受信する。ステップS902において、派遣指示情報処理部424は、受信したロボット派遣要請情報に基づいて、派遣すべきロボットを決定する。ワークプレイス10にロボットが複数存在する場合、派遣指示情報処理部424は、ロボット派遣要請情報の内容、つまり提供すべきサービスの内容、および各ロボットの現在位置情報に基づいて、どの対話型ロボット20、或いはサービス実行ロボット30を派遣すべきかを決定する。例えば、図8の例では、派遣指示情報処理部424は、現在位置Pにいる対話型ロボット20Aを派遣すべきロボットとして決定する。なお、それぞれのロボットの現在位置は、環境/ロボット情報取得部421によってリアルタイムに取得しているものとする。 When the user 80A makes a robot dispatch request, the environment sensor 50A installed in the room A detects the robot dispatch request by the user 80A, and requests the place, time, and request of the user 80A. The robot dispatch request information including the information about the type is transmitted to the control server 40. Therefore, first, the flow of processing in the control server 40 will be described with reference to FIG. 9. In step S901 of FIG. 9, the dispatch request receiving unit 420 of the control server 40 receives the robot dispatch request information transmitted from the environment sensor 50A. In step S902, the dispatch instruction information processing unit 424 determines a robot to be dispatched based on the received robot dispatch request information. When there are a plurality of robots in the workplace 10, the dispatch instruction information processing unit 424 determines which interactive robot 20 is based on the content of the robot dispatch request information, that is, the content of the service to be provided, and the current position information of each robot. Or, determine whether the service execution robot 30 should be dispatched. For example, in the example of FIG. 8, the dispatch instruction information processing unit 424 determines the interactive robot 20A at the current position P as the robot to be dispatched. It is assumed that the current position of each robot is acquired in real time by the environment / robot information acquisition unit 421.

ステップS903において、制御サーバ40の経路情報処理部423は、対話型ロボット20Aの現在位置検出部222によって特定された現在位置Pからサービス提供場所である目的地Gまでの移動経路を、地図記憶部426に記憶された地図を参照して探索し、移動経路情報としてメモリ411に記憶する。経路情報処理部423によって探索される移動経路は、本実施形態においては、図8における紙面右方向をX方向、上方向をY方向とした場合、現在位置Pから通路910をX方向に通路940まで進み、次いでY方向に左折して通路940をY方向に進み、「部屋A」の出入口950をX方向に右折して「部屋A」に入り、目的地Gに達する経路Rである。 In step S903, the route information processing unit 423 of the control server 40 stores the movement route from the current position P specified by the current position detection unit 222 of the interactive robot 20A to the destination G, which is the service providing location, in the map storage unit. It searches with reference to the map stored in 426 and stores it in the memory 411 as movement route information. In the present embodiment, the movement route searched by the route information processing unit 423 is the passage 940 from the current position P to the passage 910 in the X direction when the right direction of the paper surface in FIG. 8 is the X direction and the upward direction is the Y direction. Then, turn left in the Y direction, proceed in the passage 940 in the Y direction, turn right at the entrance / exit 950 of the "room A" in the X direction, enter the "room A", and reach the destination G.

ステップS904において、派遣指示情報処理部424は、ステップS903において探索された移動経路情報、およびステップS901において受信したロボット派遣要請情報に基づいて、ロボット派遣指示情報を生成する。ロボット派遣指示情報には、例えば、上述の移動経路情報、および目的地Gまで移動した後に、利用者80Aに対して「要望を尋ねる」といった指示内容が含まれる。 In step S904, the dispatch instruction information processing unit 424 generates robot dispatch instruction information based on the movement route information searched in step S903 and the robot dispatch request information received in step S901. The robot dispatch instruction information includes, for example, the above-mentioned movement route information and instruction content such as "asking a request" to the user 80A after moving to the destination G.

ステップS905において、派遣指示/経路情報送信部425は、上記ステップS904において生成したロボット派遣指示情報を、ステップS902において派遣すべきロボットとして決定された対話型ロボット20、或いはサービス実行ロボット30(図8の例では対話型ロボット20A)に送信する。 In step S905, the dispatch instruction / route information transmission unit 425 transfers the robot dispatch instruction information generated in step S904 to the interactive robot 20 or the service execution robot 30 (FIG. 8) determined as the robot to be dispatched in step S902. In the example of, transmission is performed to the interactive robot 20A).

ステップS906において、環境/ロボット情報取得部421は、ワークプレイス10に設置された複数の環境センサ50、およびワークプレイス10内で稼働している複数の対話型ロボット20、サービス実行ロボット30からワークプレイス10内のそれぞれの部屋、通路等の各部分の環境情報を取得し、メモリ411に記憶する。ここで、例えば、図10に示すように、通路940の、通路910との接続箇所に近い場所で、利用者80B、80Cが立ち話をしているとする。そこで、通路940を撮影している環境センサ50C、および通路940を走行又はそこに待機しているサービス実行ロボット30により通路940の通路910との接続部付近に利用者80B、80Cが立ち話をしていることを検出し、環境情報として制御サーバ40に送信し、制御サーバ40の環境/ロボット情報取得部421が環境情報を取得する。なお、対話型ロボット20、サービス実行ロボット30が環境情報を送信する場合には、対話型ロボット20、サービス実行ロボット30の周囲情報検出部227、327によってロボット周囲の状況を検出し、周囲状況通知部225、328によって制御サーバ40に送信する。そして、制御サーバ40の環境/ロボット情報取得部421は、上述したように、送信されてきた環境情報を取得する。 In step S906, the environment / robot information acquisition unit 421 is connected to the workplace from the plurality of environment sensors 50 installed in the workplace 10, the plurality of interactive robots 20 operating in the workplace 10, and the service execution robot 30. Environmental information of each part such as each room and passage in 10 is acquired and stored in the memory 411. Here, for example, as shown in FIG. 10, it is assumed that the users 80B and 80C are talking at a place near the connection point of the passage 940 with the passage 910. Therefore, the users 80B and 80C talk to each other near the connection portion of the passage 940 with the passage 910 by the environment sensor 50C that is photographing the passage 940 and the service execution robot 30 that is traveling or waiting there. This is detected and transmitted to the control server 40 as environment information, and the environment / robot information acquisition unit 421 of the control server 40 acquires the environment information. When the interactive robot 20 and the service execution robot 30 transmit environmental information, the surrounding information detection units 227 and 327 of the interactive robot 20 and the service execution robot 30 detect the situation around the robot and notify the surrounding situation. It is transmitted to the control server 40 by the unit 225 and 328. Then, the environment / robot information acquisition unit 421 of the control server 40 acquires the transmitted environment information as described above.

ステップS907において、制御サーバ40の地図更新部422は、上記ステップS906において取得された環境情報を用いて地図記憶部426に記憶された地図上の、ロボットを通過させるべきではない場所の情報を更新する。例えば、図10における通路940の、通路910との接続箇所付近を、人が密集している場所であるので、ロボットを通過させるべきではない場所960として特定し、更新する。 In step S907, the map update unit 422 of the control server 40 uses the environmental information acquired in step S906 to update the information on the map stored in the map storage unit 426 where the robot should not pass. do. For example, the vicinity of the connection point of the passage 940 with the passage 910 in FIG. 10 is specified and updated as a place 960 where the robot should not pass because it is a place where people are crowded.

ステップS908において、経路情報処理部423は、ロボット派遣指示情報を送信した対話型ロボット20から経路情報要求を受信したか否かを判定する。経路情報処理部423により、経路情報要求は受信されていないと判定した場合には、ステップS906に戻り、環境センサ50、対話型ロボット20、サービス実行ロボット30から環境情報を取得し、リアルタイムに地図を更新する処理を行う(ステップS907)。 In step S908, the route information processing unit 423 determines whether or not the route information request has been received from the interactive robot 20 that has transmitted the robot dispatch instruction information. When the route information processing unit 423 determines that the route information request has not been received, it returns to step S906, acquires environmental information from the environment sensor 50, the interactive robot 20, and the service execution robot 30, and maps in real time. Is performed (step S907).

ステップS908において、経路情報要求を受信したと判定された場合、ステップS909において、経路情報処理部423は、地図記憶部426に記憶されている、更新された地図を参照し、対話型ロボット20の現在位置P’から目的地までの経路探索を再度行い、新たな移動経路情報を生成し、メモリ411に記憶する。なお、上述の例では、図10に示すように、対話型ロボット20の現在位置P’からロボットを通過させるべきではない場所960を回避した移動経路R’が探索されている。この移動経路R’は、現在位置P’からY方向へ左折して通路920を走行し、次いで通路930との接続部分においてX方向へ右折して通路930を走行し、さらに、右折して通路940を短い距離だけ走行し、「部屋A」の出入口950をX方向に左折して「部屋A」に入り、利用者80Aのところまで移動する経路で構成されている。 When it is determined in step S908 that the route information request has been received, in step S909, the route information processing unit 423 refers to the updated map stored in the map storage unit 426 and refers to the interactive robot 20. The route search from the current position P'to the destination is performed again, new movement route information is generated, and the route is stored in the memory 411. In the above example, as shown in FIG. 10, a movement path R'that avoids a place 960 where the robot should not pass is searched from the current position P'of the interactive robot 20. This movement path R'turns left in the Y direction from the current position P'and travels in the passage 920, then turns right in the X direction at the connection portion with the passage 930 and travels in the passage 930, and then turns right and travels in the passage. It is composed of a route that travels 940 for a short distance, turns left at the entrance / exit 950 of "Room A" in the X direction, enters "Room A", and travels to the user 80A.

ステップS910において、派遣指示/経路情報送信部425は、ステップS909において生成された新たな移動経路情報を、対話型ロボット20Aに送信する。ステップS911において、経路情報処理部423は、対話型ロボット20Aから送信されてきた現在位置情報に基づいて、当該対話型ロボット20Aが目的地に到着したか否かを判定し、目的地に到着していなければステップS906に戻り、ステップS906~S910までの処理を、対話型ロボット20が目的地に到着するまで行う。ステップS911において、対話型ロボット20が目的地に到着したと判定された場合は処理を終了する。 In step S910, the dispatch instruction / route information transmission unit 425 transmits the new movement route information generated in step S909 to the interactive robot 20A. In step S911, the route information processing unit 423 determines whether or not the interactive robot 20A has arrived at the destination based on the current position information transmitted from the interactive robot 20A, and arrives at the destination. If not, the process returns to step S906, and the processes from steps S906 to S910 are performed until the interactive robot 20 arrives at the destination. If it is determined in step S911 that the interactive robot 20 has arrived at the destination, the process ends.

次に、図11を参照しつつ、制御サーバ40からロボット派遣指示情報を受信した対話型ロボット20Aにおける処理の流れを説明する。図9のステップS905において、制御サーバ40の派遣指示/経路情報送信部425がロボット派遣指示情報を送信すると、図11のステップS1101において、対話型ロボット20Aの派遣指示受信部220は、ロボット派遣指示情報を受信し、派遣指示解釈部221は、受信したロボット派遣指示情報に基づいて制御情報を生成する。制御情報は、図8の部屋Aにいる利用者90Aの場所まで、対話型ロボット20Aの現在位置Pから移動経路Rを移動し、利用者90Aに対して「要望を尋ねる」といった動作を行うよう対話型ロボット20Aの各部を制御する指示で構成される。 Next, with reference to FIG. 11, the flow of processing in the interactive robot 20A that has received the robot dispatch instruction information from the control server 40 will be described. In step S905 of FIG. 9, when the dispatch instruction / route information transmission unit 425 of the control server 40 transmits the robot dispatch instruction information, in step S1101 of FIG. 11, the dispatch instruction receiving unit 220 of the interactive robot 20A gives a robot dispatch instruction. Upon receiving the information, the dispatch instruction interpretation unit 221 generates control information based on the received robot dispatch instruction information. The control information moves the movement path R from the current position P of the interactive robot 20A to the location of the user 90A in the room A of FIG. 8, and performs an operation such as "asking a request" to the user 90A. It is composed of instructions for controlling each part of the interactive robot 20A.

ステップS1102において、移動制御部223は、移動経路情報によって特定される経路に沿って対話型ロボット20が移動するよう移動装置217を制御する。ステップS1103において現在位置検出部222により現在位置を特定する。これは、移動装置217の車輪の回転角の情報に基づいて対話型ロボット20の移動距離と移動方向を算出し、対話型ロボット20の記憶装置212に記憶された地図(図示せず)と、カメラ214によって撮影した壁や通路等の画像とを比較することにより行われる。 In step S1102, the movement control unit 223 controls the movement device 217 so that the interactive robot 20 moves along the route specified by the movement route information. In step S1103, the current position is specified by the current position detection unit 222. This is a map (not shown) stored in the storage device 212 of the interactive robot 20 by calculating the moving distance and the moving direction of the interactive robot 20 based on the information of the rotation angle of the wheels of the moving device 217. This is done by comparing the images of walls, passages, etc. taken by the camera 214.

ステップS1104において、対話型ロボット20は、カメラ214によって対話型ロボット20の周囲の状況を撮影し、周囲状況検出部224は、撮影された画像を解析し、障害物や他のロボット、人が存在するか否か、およびそれらの位置を判断し、周囲状況通知部225は、障害物、人、他のロボットの存在の有無や位置についての情報を含む環境情報を制御サーバ40に送信する。 In step S1104, the interactive robot 20 photographs the surrounding situation of the interactive robot 20 by the camera 214, the surrounding situation detection unit 224 analyzes the captured image, and an obstacle, another robot, or a person is present. After determining whether or not to do so and their positions, the surrounding situation notification unit 225 transmits environmental information including information on the presence / absence and position of obstacles, people, and other robots to the control server 40.

ステップS1105において、移動制御部223は、上記ステップS1103において特定された現在位置を参照し、前回に特定された現在位置から所定距離、或いは所定時間移動したか否かを判定する。所定距離、或いは所定時間移動していないと判定された場合、ステップS1102に戻り、移動経路に沿って所定距離、或いは所定時間移動する間、ステップS1102~S1105の処理を実行する。ステップS1105において所定距離、或いは所定時間移動したと判定された場合、ステップS1106に進み、移動制御部223は、ステップS1103において特定された現在位置情報を参照し、対話型ロボット20が目的地に到着したか否かを判定する。 In step S1105, the movement control unit 223 refers to the current position specified in step S1103, and determines whether or not the user has moved a predetermined distance or a predetermined time from the current position specified last time. If it is determined that the vehicle has not moved a predetermined distance or a predetermined time, the process returns to step S1102, and the processes of steps S1102 to S1105 are executed while the vehicle travels a predetermined distance or a predetermined time along the movement route. If it is determined in step S1105 that the robot has moved a predetermined distance or a predetermined time, the process proceeds to step S1106, the movement control unit 223 refers to the current position information specified in step S1103, and the interactive robot 20 arrives at the destination. Determine if it has been done.

ステップS1106において、対話型ロボット20が目的地に到着したと判定された場合、ステップS1109に進み、対話制御部226は、ステップS1101において受信したロボット派遣指示情報に基づいて生成された制御情報に基づいて、利用者80Aに対して対話(サービス実行ロボット30の場合は、サービス提供)を行い、処理を終了する。ステップS1106において、対話型ロボット20が目的地に到達していないと判定された場合、ステップS1107に進む。 If it is determined in step S1106 that the interactive robot 20 has arrived at the destination, the process proceeds to step S1109, and the dialogue control unit 226 is based on the control information generated based on the robot dispatch instruction information received in step S1101. Then, a dialogue is performed with the user 80A (in the case of the service execution robot 30, the service is provided), and the process is terminated. If it is determined in step S1106 that the interactive robot 20 has not reached the destination, the process proceeds to step S1107.

ステップS1107において、移動制御部223は、新たな経路の情報の要求を制御サーバ40に対して行う。ステップS1108において、移動制御部223は、制御サーバ40から新たな移動経路情報を受信すると、それまでの移動経路情報に代えて新たな移動経路情報を今後の移動経路として、メモリ211に記憶させる。次いで、ステップS1102に戻り、移動制御部223は、新たな移動経路(ここでは、図10の移動経路R’)に沿って対話型ロボット20Aが移動するように制御を行い、対話型ロボット20Aが目的地Gに到着するまで上記ステップS1102~S1108の処理を実行する。 In step S1107, the movement control unit 223 requests the control server 40 for information on a new route. In step S1108, when the movement control unit 223 receives the new movement route information from the control server 40, the movement control unit 223 stores the new movement route information in the memory 211 as a future movement route instead of the previous movement route information. Next, returning to step S1102, the movement control unit 223 controls the interactive robot 20A to move along the new movement path (here, the movement path R'in FIG. 10), and the interactive robot 20A controls the movement. The processes of steps S1102 to S1108 are executed until the destination G is reached.

なお、上記の例においては、ある一台の対話型ロボット20Aが目的地に向かって移動する際に、ワークプレイス10内に設置された環境センサ50A~50D、ワークプレイス10内を走行又はそこに待機する他の対話型ロボット20B、サービス実行ロボット30を用いて周囲の環境情報を取得し、ロボットを通過させるべきではない場所を地図に反映することによって、当該対話型ロボット20Aだけでは把握できない、人が密集している場所、打ち合わせが行われている場所、といったロボットを通過させるべきではない場所を避けるように移動経路を変更する場合を説明した。しかしながら、ワークプレイス10内に存在する利用者80に取り付けられた生体センサ55によって利用者80の精神状態を検出し、その精神状態に応じてロボットを通過させるべきではない場所を特定し、そこを避けるように移動経路を変更するようにしてもよい。例えば、生体センサ55から利用者80の生体情報を取得し、取得した生体情報を利用して、利用者80が集中して業務を行っていることを推定できるが、その場合には、その箇所を避けるように経路探索を行うようにしてもよい。 In the above example, when one interactive robot 20A moves toward the destination, the environment sensors 50A to 50D installed in the workplace 10 travel in or in the workplace 10. By acquiring information on the surrounding environment using other standby interactive robots 20B and service execution robot 30 and reflecting the places where the robot should not pass on the map, the interactive robot 20A alone cannot grasp the information. I explained the case of changing the movement route so as to avoid places where the robot should not pass, such as places where people are crowded and places where meetings are held. However, the biological sensor 55 attached to the user 80 existing in the workplace 10 detects the mental state of the user 80, identifies the place where the robot should not pass according to the mental state, and determines the place. You may change the movement route to avoid it. For example, it is possible to acquire the biometric information of the user 80 from the biosensor 55 and use the acquired biometric information to estimate that the user 80 is concentrating on the work. You may try to search the route so as to avoid.

また、上記の例においては、対話型ロボット20は、環境情報に基づいて、ロボットを通過させるべきではない場所を回避する経路を探索して移動経路とする例を説明したが、本発明は、上記の例に限定されず、例えば、対話型ロボット20がロボットを通過させるべきではない場所の近辺を走行する際に、移動制御部223は、通常の走行速度よりも速度を低下させて移動するように対話型ロボット20の移動装置217を制御してもよい。さらに、制御サーバ40の地図更新部422は、環境センサ50や他の対話型ロボット20、サービス実行ロボット30から取得した環境情報を用いて地図記憶部426に記憶された地図上の衝突危険性の高い場所における衝突危険性の度合いを算出して動的に更新し、対話型ロボット20の移動制御部223は、対話型ロボット20が地図上の、衝突危険性の高い場所の近辺を走行する際に、地図更新部422によって更新された衝突危険性の度合いに応じて速度を低下させて移動するように対話型ロボット20の移動装置217を制御してもよい。 Further, in the above example, the interactive robot 20 has described an example in which the interactive robot 20 searches for a route to avoid a place where the robot should not pass and uses it as a movement route based on environmental information. Not limited to the above example, for example, when the interactive robot 20 travels in the vicinity of a place where the robot should not pass, the movement control unit 223 moves at a speed lower than the normal traveling speed. The moving device 217 of the interactive robot 20 may be controlled as described above. Further, the map update unit 422 of the control server 40 uses the environment information acquired from the environment sensor 50, the other interactive robot 20, and the service execution robot 30 to store the risk of collision on the map stored in the map storage unit 426. The degree of collision risk in a high place is calculated and dynamically updated, and the movement control unit 223 of the interactive robot 20 is used when the interactive robot 20 travels in the vicinity of a place having a high collision risk on a map. In addition, the moving device 217 of the interactive robot 20 may be controlled so as to move at a reduced speed according to the degree of collision risk updated by the map updating unit 422.

また、上記の例においては、対話型ロボット20が、目的地まで移動する例を説明したが、本発明においては、サービス実行ロボット30が目的地まで移動する場合にも等しく適用することが可能である。 Further, in the above example, the example in which the interactive robot 20 moves to the destination has been described, but in the present invention, it can be equally applied to the case where the service execution robot 30 moves to the destination. be.

さらに、上記の例においては、ワークプレイス10内に設置された環境センサ50、また、ワークプレイス10内で稼働している対話型ロボット20、サービス実行ロボット30から取得した環境情報を用いてロボットを通過させるべきではない場所を特定し、その場所を地図上に反映させ、その場所を回避したり、その付近を走行する際に速度を低下させたりする制御を行う場合について説明したが、反対に、取得した環境情報に基づいてロボットが寄り道をする場所、例えば、複数の利用者が立ち話をしている、暇を持て余している利用者いる等、を特定し、その場所を地図上に反映させ、ロボットが移動する際に、その場所を経由して目的地に向かうようにしてもよい。 Further, in the above example, the robot is used by using the environment sensor 50 installed in the workplace 10, the interactive robot 20 operating in the workplace 10, and the environment information acquired from the service execution robot 30. I explained the case of identifying a place that should not be passed, reflecting that place on the map, avoiding that place, and controlling to slow down when traveling in the vicinity, but on the contrary. Based on the acquired environmental information, identify the place where the robot makes a detour, for example, multiple users are talking, or there is a user who has spare time, and the place is reflected on the map. , When the robot moves, it may go to the destination via the place.

10 ワークプレイス
20 対話型ロボット
30 サービス実行ロボット
40 制御サーバ
50 環境センサ
55 ウェアラブルセンサ
60 ネットワーク
70 アクセスポイント
80 利用者
100 ロボット制御システム
210 制御用マイクロプロセッサ
211 メモリ
212 記憶装置
213 通信インタフェース
214 カメラ
215 マイクロフォン
216 スピーカ
217 移動装置
218 制御バス
220 派遣指示受信部
221 派遣指示解釈部
222 現在位置検出部
223 移動制御部
224 周囲状況検出部
225 周囲状況通知部
226 対話制御部
310 制御用マイクロプロセッサ
311 メモリ
312 記憶装置
313 通信インタフェース
314 カメラ
315 マイクロフォン
316 移動装置
317 表示装置
318 入力装置
319 制御バス
320 派遣指示受信部
321 派遣指示解釈部
322 現在位置検出部
323 移動制御部
324 周囲状況検出部
325 周囲状況通知部
326 サービス実行部
410 CPU
411 メモリ
412 記憶装置
413 通信インタフェース
414 ユーザインタフェース
415 制御バス
420 派遣要請受信部
421 環境/ロボット情報取得部
422 地図更新部
423 経路情報処理部
424 派遣指示情報処理部
425 派遣指示/経路情報送信部
426 地図記憶部
10 Workplace 20 Interactive robot 30 Service execution robot 40 Control server 50 Environmental sensor 55 Wearable sensor 60 Network 70 Access point 80 User 100 Robot control system 210 Control microprocessor 211 Memory 212 Storage device 213 Communication interface 214 Camera 215 Microphone 216 Speaker 217 Mobile device 218 Control bus 220 Dispatch instruction reception unit 221 Dispatch instruction interpretation unit 222 Current position detection unit 223 Movement control unit 224 Ambient status detection unit 225 Ambient status notification unit 226 Dialogue control unit 310 Control microprocessor 311 Memory 312 Storage device 313 Communication interface 314 Camera 315 Microprocessor 316 Mobile device 317 Display device 318 Input device 319 Control bus 320 Dispatch instruction receiver 321 Dispatch instruction interpretation unit 322 Current position detection unit 323 Movement control unit 324 Surrounding status detection unit 325 Surrounding status notification unit 326 Service Execution unit 410 CPU
411 Memory 412 Storage device 413 Communication interface 414 User interface 415 Control bus 420 Dispatch request reception unit 421 Environment / robot information acquisition unit 422 Map update unit 423 Route information processing unit 424 Dispatch instruction information processing unit 425 Dispatch instruction / route information transmission unit 426 Map storage

Claims (2)

移動可能なロボットと、
ロボットが移動する領域の地図を記憶する記憶手段と、
前記領域に存在する人に装着され、装着された人の脈拍、皮膚の導電率又は体温のいずれかの情報を生体情報として検出する生体センサと、
前記生体センサが検出した前記領域に存在する人の生体情報を取得する取得手段と、
取得された生体情報を用いて前記地図上で集中して作業を行っている人がいると推定される場所を、ロボットを通過させるべきではない場所の情報として更新する更新手段と、
ロボットの現在位置から目的地までの経路を、更新された地図を参照して前記ロボットを通過させるべきではない場所として回避して探索する探索手段と、
探索された経路に沿って前記ロボットが移動するよう制御する制御手段と、を備えたロボット制御システム。
With a movable robot,
A storage means for storing a map of the area where the robot moves, and
A biosensor that is attached to a person present in the area and detects information on either the pulse, skin conductivity, or body temperature of the person wearing the area as biometric information .
An acquisition means for acquiring biometric information of a person existing in the region detected by the biosensor, and
An update means for updating a place where it is presumed that there is a person who is concentrated on the map using the acquired biometric information as information on a place where the robot should not pass.
A search means for avoiding and searching the route from the current position of the robot to the destination as a place where the robot should not pass by referring to the updated map.
A robot control system including a control means for controlling the robot to move along a searched route.
前記制御手段は、前記ロボットが前記地図上の、ロボットを通過させるべきではない場所の近辺を走行する際に、速度を低下させて移動するよう前記ロボットを制御する請求項1記載のロボット制御システム。 The robot control system according to claim 1, wherein the control means controls the robot to move at a reduced speed when the robot travels in the vicinity of a place on the map where the robot should not pass. ..
JP2016243027A 2016-12-15 2016-12-15 Robot control system Active JP7095220B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016243027A JP7095220B2 (en) 2016-12-15 2016-12-15 Robot control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016243027A JP7095220B2 (en) 2016-12-15 2016-12-15 Robot control system

Publications (2)

Publication Number Publication Date
JP2018097710A JP2018097710A (en) 2018-06-21
JP7095220B2 true JP7095220B2 (en) 2022-07-05

Family

ID=62632320

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016243027A Active JP7095220B2 (en) 2016-12-15 2016-12-15 Robot control system

Country Status (1)

Country Link
JP (1) JP7095220B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109460020A (en) * 2018-10-31 2019-03-12 北京猎户星空科技有限公司 Robot map sharing method, device, robot and system
WO2024080225A1 (en) * 2022-10-13 2024-04-18 ソフトバンクグループ株式会社 Humanoid robot control system and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008065811A (en) 2006-08-08 2008-03-21 Matsushita Electric Ind Co Ltd Obstacle avoidance method and obstacle-avoidable mobile apparatus
WO2014091611A1 (en) 2012-12-13 2014-06-19 株式会社日立製作所 Autonomous travelling apparatus
JP2014209293A (en) 2013-04-16 2014-11-06 富士ゼロックス株式会社 Route searching device, self-propelled working apparatus, program, and recording medium
JP2015014919A (en) 2013-07-05 2015-01-22 綜合警備保障株式会社 Route generation device and route generation method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008065811A (en) 2006-08-08 2008-03-21 Matsushita Electric Ind Co Ltd Obstacle avoidance method and obstacle-avoidable mobile apparatus
WO2014091611A1 (en) 2012-12-13 2014-06-19 株式会社日立製作所 Autonomous travelling apparatus
JP2014209293A (en) 2013-04-16 2014-11-06 富士ゼロックス株式会社 Route searching device, self-propelled working apparatus, program, and recording medium
JP2015014919A (en) 2013-07-05 2015-01-22 綜合警備保障株式会社 Route generation device and route generation method

Also Published As

Publication number Publication date
JP2018097710A (en) 2018-06-21

Similar Documents

Publication Publication Date Title
US9796093B2 (en) Customer service robot and related systems and methods
JP6844124B2 (en) Robot control system
US20210346557A1 (en) Robotic social interaction
JP4838499B2 (en) User support device
JP6665506B2 (en) Remote control device, method and program
WO2012117508A1 (en) Information processing device, method and program
JP5764795B2 (en) Mobile robot, mobile robot learning system, and mobile robot behavior learning method
JP5318623B2 (en) Remote control device and remote control program
JP6961804B2 (en) Robot guidance system
US20130218395A1 (en) Autonomous moving apparatus and method for controlling the same
JP2013206237A (en) Autonomous travel robot and travel control method of autonomous travel robot
JP4886572B2 (en) robot
JP2010231698A (en) Network robot system, and robot control device, method and program
CN111103875B (en) Method, apparatus and storage medium for avoiding
JP4616664B2 (en) Robot control device, robot control method, robot control program, and mobile robot
Chen et al. CCNY smart cane
KR20180039378A (en) Robot for airport and method thereof
JP2019049785A (en) Robot management system and commodity proposing method
JP7095220B2 (en) Robot control system
JP6609588B2 (en) Autonomous mobility system and autonomous mobility control method
KR20180040907A (en) Airport robot
JP7013667B2 (en) Guidance device and guidance system
JP5732633B2 (en) Communication robot
JP2019079419A (en) Robot management system
JP2012203646A (en) Flow-state discrimination device, flow-state discrimination method, flow-state discrimination program, and robot control system using the device, method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201002

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20201102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210518

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20220112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220606

R150 Certificate of patent or registration of utility model

Ref document number: 7095220

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150