JP2012137909A - Movable body remote control system and control program for the same - Google Patents

Movable body remote control system and control program for the same Download PDF

Info

Publication number
JP2012137909A
JP2012137909A JP2010289307A JP2010289307A JP2012137909A JP 2012137909 A JP2012137909 A JP 2012137909A JP 2010289307 A JP2010289307 A JP 2010289307A JP 2010289307 A JP2010289307 A JP 2010289307A JP 2012137909 A JP2012137909 A JP 2012137909A
Authority
JP
Japan
Prior art keywords
information
obstacle
mobile
remote control
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010289307A
Other languages
Japanese (ja)
Other versions
JP5747191B2 (en
Inventor
Satoshi Tsukamoto
悟司 塚本
Tomohiro Miyasaka
朋宏 宮坂
Koji Oshima
浩嗣 大島
Susumu Ano
進 阿野
Shoichi Kitazawa
祥一 北沢
Masazumi Ueba
正純 上羽
Takahiro Adachi
隆弘 足立
Takaaki Akimoto
高明 秋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2010289307A priority Critical patent/JP5747191B2/en
Publication of JP2012137909A publication Critical patent/JP2012137909A/en
Application granted granted Critical
Publication of JP5747191B2 publication Critical patent/JP5747191B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable safe remote control of a movable body with simple structure, even in environment in which a communication failure area exists.SOLUTION: A movable robot remote control system 100 includes CPU (80, 20, 40) and memories (84, 22, 42). In storage areas of memories (170, 130, 150), map information (138) is stored. In temporary storage areas (180, 140, 160), information that shows communication failure areas (IO1 to IO5) in which radio communication failure occurs in an area corresponding to the map information is stored as virtual obstacle information (148). The CPU detects at least a position of a movable robot 10 in an area corresponding to the map information (S1, S5) on the basis of information from sensors(122, 124, 40, 46, 58, 70, 112a, 112b), and creates moving control information (182a) for moving a movable body so as to avoid the communication failure area (S75, S105) on the basis of at least the map information and the virtual obstacle information and the detection result.

Description

この発明は、移動体遠隔操縦システムおよびそのための制御プログラムに関し、特にたとえば、ロボットや無人搬送車両などの移動体を無線により遠隔操縦する、移動体遠隔操縦システムおよびそのための制御プログラムに関する。   The present invention relates to a mobile remote control system and a control program therefor, and more particularly, to a mobile remote control system and a control program therefor that remotely control a mobile body such as a robot or an automated guided vehicle by radio.

ロボットや無人搬送車両などの移動体を無線により遠隔操縦する場合、移動体に取り付けられたカメラの画像や、移動体に付属または環境に配置したセンサから得られるセンサ情報,位置情報,周囲状況を示す地図情報などを基に移動制御が行われる。特に、人や他の移動体などが存在する環境下では、これらとの接触事故を防ぐためにも情報をリアルタイムに更新する必要があり、制御に使用する通信は低遅延かつ高信頼を維持しないと安全な操縦が困難である。   When a mobile object such as a robot or an automated guided vehicle is remotely controlled by wireless, the image of a camera attached to the mobile object, sensor information obtained from sensors attached to the mobile object or placed in the environment, position information, and surrounding conditions are displayed. Movement control is performed based on the map information shown. In particular, in an environment where people or other moving objects exist, it is necessary to update information in real time to prevent accidents in contact with these, and communication used for control must be maintained with low delay and high reliability. Safe maneuvering is difficult.

しかし、屋内環境では、物陰や遠方となって電波が届きづらい場所(圏外)や、天井や壁,床で反射した複数経路の電波が相互干渉(マルチパス干渉)により弱めあう場所(不感帯)などのほか、同一地域において同一周波数を使用する他の無線機器からの電波のよる相互干渉の影響や、電磁ノイズの発生源、電子レンジなどの高周波利用設備からの電磁放射により、遠隔操縦に必要な通信品質が維持できない場所(通信障害領域)が多数存在するため、安定した通信を少ない設備で移動範囲全域にわたり確保するのは容易ではない。なかでも不感帯は送信アンテナに近い場所やアンテナが見える場所にも存在しうるため、移動体に面的な移動を行わせる無線操縦では、その移動範囲内に点在する不感帯が特に問題である。   However, in indoor environments, places where it is difficult to reach radio waves in the shadows or far away (out of service area), or places where the radio waves of multiple paths reflected from the ceiling, wall, or floor are weakened by mutual interference (multipath interference) (dead zone), etc. In addition, it is necessary for remote control due to the influence of mutual interference caused by radio waves from other wireless devices using the same frequency in the same region, electromagnetic radiation sources, and electromagnetic radiation from high-frequency equipment such as microwave ovens. Since there are many places (communication failure areas) where communication quality cannot be maintained, it is not easy to ensure stable communication over the entire moving range with a small number of facilities. In particular, the dead zone can exist in places close to the transmission antenna or in a place where the antenna can be seen. Therefore, the dead zone that is scattered within the moving range is a particular problem in wireless control that causes a moving object to move in a plane.

そこで、たとえば特許文献1では、移動ロボットは、移動しながら電波強度マップを作成し、通信不能な地点に移動した場合には電波強度マップに基づいて最も近い通信可能地点まで復帰するようにしている。
特許第4252333号公報
Therefore, in Patent Document 1, for example, the mobile robot creates a radio wave intensity map while moving, and when moving to a point where communication is impossible, the mobile robot returns to the nearest communicable point based on the radio wave intensity map. .
Japanese Patent No. 4252333

しかしながら、特に、可動扉や車両,歩行者,他の無線操縦による移動体など、移動する物や人に起因する反射波が原因となる干渉では、不感帯の位置や大きさが時間とともに変化する。そのため、特許文献1に記載されているような最後に通信可能であった地点まで戻るといった対策は、この種の動的な不感帯では効果が少ない。このため、一般的には、アンテナ配置やアンテナ自体を工夫したり、ダイバーシチなどにより通信障害が起こる可能性を確率的に減らす対策がとられる。しかし、これには、高価な機器や多数の無線設備が必要となったり、複数の周波数を同時に使用することで無線リソースが足りなくなったりする問題がある。そのうえ、不感帯の発生を確率的に減らすことはできても根本的に無くすことは困難である。   However, particularly in interference caused by reflected waves caused by moving objects and people such as movable doors, vehicles, pedestrians, and other wirelessly controlled moving bodies, the position and size of the dead zone change with time. Therefore, a countermeasure such as returning to a point where communication was finally possible as described in Patent Document 1 is less effective in this type of dynamic dead zone. For this reason, generally, measures are taken to probabilistically reduce the possibility of communication failure by devising the antenna arrangement or the antenna itself, or by diversity. However, this has a problem that expensive equipment and a large number of radio facilities are required, or radio resources are insufficient by using a plurality of frequencies simultaneously. In addition, it is difficult to fundamentally eliminate the dead zone even though it can be reduced probabilistically.

それゆえに、この発明の主たる目的は、新規な、移動体遠隔操縦システムおよびそのための制御プログラムを提供することである。   Therefore, a main object of the present invention is to provide a novel mobile remote control system and a control program therefor.

この発明の他の目的は、通信障害領域が存在する環境、とりわけ時間的に変化する不感帯が点在する環境でも、簡単な構成で移動体を安全に遠隔操縦できる、移動体遠隔操縦システムおよびそのための制御プログラムを提供することである。   Another object of the present invention is to provide a mobile remote control system and a mobile remote control system that can safely remote control a mobile body with a simple configuration even in an environment where a communication failure area exists, particularly in an environment where dead zones that change with time are scattered. Is to provide a control program.

この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、本発明の理解を助けるために後述する実施の形態との対応関係を示したものであって、本発明を何ら限定するものではない。   The present invention employs the following configuration in order to solve the above problems. The reference numerals in parentheses, supplementary explanations, and the like indicate correspondence relationships with embodiments described later to help understanding of the present invention, and do not limit the present invention in any way.

第1の発明は、移動体を無線通信により遠隔操縦するための移動体遠隔操縦システムであって、地図情報を記憶する第1メモリ、地図情報に対応する区域内で無線通信に障害が生じる通信障害領域を示す情報を仮想障害物情報として記憶する第2メモリ、センサからのセンサ情報に基づいて、地図情報に対応する区域での移動体の少なくとも位置を検出する検出手段、および、地図情報および仮想障害物情報と検出手段の検出結果とに少なくとも基づいて、通信障害領域での無線通信障害を回避するように移動体を制御する制御情報を作成する制御情報作成手段を備える。   A first invention is a mobile remote control system for remotely controlling a mobile body by wireless communication, and includes a first memory for storing map information and communication in which wireless communication fails in an area corresponding to the map information. A second memory for storing information indicating an obstacle region as virtual obstacle information, a detection means for detecting at least a position of a moving body in an area corresponding to map information based on sensor information from the sensor, and map information and Control information creating means is provided for creating control information for controlling the moving body so as to avoid a wireless communication failure in the communication failure area based at least on the virtual obstacle information and the detection result of the detecting means.

第1の発明である遠隔操縦システム(100)では、移動体(10)は無線通信により遠隔操縦される。第1メモリ(170,130,150)には、地図情報(138)が記憶される。第2メモリ(180,140,160)には、地図情報に対応する区域内で無線通信に障害が生じる通信障害領域(IO1〜IO5)を示す情報が仮想障害物情報(148)として記憶される。検出手段(S1,S5)は、センサ(122,124,40,46,58,70,112a,112b)からのセンサ情報に基づいて、地図情報に対応する区域での移動体の少なくとも位置を検出する。制御情報作成手段(S75,S105)は、地図情報および仮想障害物情報と、検出手段の検出結果とに少なくとも基づいて、通信障害領域での無線通信障害を回避するように移動体を制御する制御情報(182)を作成する。   In the remote control system (100) according to the first aspect of the invention, the mobile body (10) is remotely controlled by wireless communication. Map information (138) is stored in the first memory (170, 130, 150). In the second memory (180, 140, 160), information indicating communication failure areas (IO1 to IO5) in which a wireless communication failure occurs in an area corresponding to the map information is stored as virtual obstacle information (148). . The detection means (S1, S5) detects at least the position of the moving body in the area corresponding to the map information based on the sensor information from the sensors (122, 124, 40, 46, 58, 70, 112a, 112b). To do. The control information creation means (S75, S105) controls the moving body so as to avoid a wireless communication failure in the communication failure area based at least on the map information and the virtual obstacle information and the detection result of the detection means. Information (182) is created.

第1の発明によれば、仮想障害物情報を加味した地図情報と移動体の位置情報とに基づいて、通信障害領域での無線通信障害を回避するように移動体を制御することで、通信障害領域が存在する環境でも、高い通信品質の維持が可能となり、簡単な構成で移動体を安全に遠隔操縦できるようになる。   According to the first invention, communication is performed by controlling the mobile body so as to avoid a wireless communication failure in the communication failure area based on the map information including the virtual obstacle information and the position information of the mobile body. Even in an environment where an obstacle area exists, high communication quality can be maintained, and a mobile object can be remotely controlled safely with a simple configuration.

なお、通信障害領域には、地図情報に対応する区域内で、アンテナから遠く離れたり物理的障害物等に隠れたりして電波が届き難くなった領域(圏外)や、同一のアンテナから射出されて異なる経路を経た電波同士が干渉して相互に弱め合う領域(不感帯)などが含まれる。そして、このような通信障害領域には、移動したり変形したり拡大/縮小したりしない静的なものと、移動したり変形したり拡大/縮小したりする動的なものとの2種類がある。   In addition, the communication failure area is an area where radio waves are difficult to reach due to being far away from the antenna or hidden behind a physical obstacle in the area corresponding to the map information (out of service area), or from the same antenna. In other words, a region (dead zone) where radio waves passing through different paths interfere with each other and weaken each other is included. There are two types of such communication failure areas: static ones that do not move, deform, or expand / contract, and dynamic ones that move, deform, or expand / contract. is there.

第2の発明は、第1の発明に従属する移動体遠隔操縦システムであって、制御情報作成手段は、通信障害領域を回避するように移動体を移動させる移動制御情報(182a)を作成する。   The second invention is a mobile remote control system subordinate to the first invention, wherein the control information creation means creates movement control information (182a) for moving the mobile body so as to avoid a communication failure area. .

第2の発明によれば、移動制御情報に従って通信障害領域を回避するように移動体を移動させることで、圏外,不感帯などの通信障害領域が存在する環境でも、高い通信品質の維持が可能となる。   According to the second invention, it is possible to maintain high communication quality even in an environment where there is a communication failure area such as out of service area or dead zone by moving the mobile body so as to avoid the communication failure area according to the movement control information. Become.

なお、通信障害領域には、地図情報に対応する区域内で、複数のアンテナが見通しとなる領域や、多数の移動体が集まる領域も含まれてよい。この種の領域では、無線通信で使用する周波数を変更することで、その領域で生じる通信障害を回避できる可能性がある。このような場合、制御情報作成手段は、移動制御情報に代えて、またはこれに加えて、移動体に周波数を変更させる周波数変更制御情報を作成してもよい。   Note that the communication failure area may include an area where a plurality of antennas are visible in an area corresponding to the map information, and an area where a large number of mobile objects gather. In this type of region, there is a possibility that communication troubles occurring in that region can be avoided by changing the frequency used in wireless communication. In such a case, the control information creating means may create frequency change control information that causes the moving body to change the frequency instead of or in addition to the movement control information.

第3の発明は、第2の発明に従属する移動体遠隔操縦システムであって、地図情報には、静的な物理的障害物の位置が記述されており、第2メモリは、地図情報に対応する区域内で移動する動的な物理的障害物に関する物理的障害物情報(146)をさらに記憶し、制御情報作成手段は、地図情報,物理的障害物情報および仮想障害物情報と検出手段の検出結果とに基づいて、制御情報を作成する。   A third invention is a mobile remote control system subordinate to the second invention, wherein the map information describes a position of a static physical obstacle, and the second memory stores the map information. The physical obstacle information (146) relating to the dynamic physical obstacle moving in the corresponding area is further stored, and the control information creation means is map information, physical obstacle information, virtual obstacle information and detection means. Control information is created based on the detection result.

第3の発明によれば、さらに動的な物理的障害物情報も加味することで、移動体をより安全に遠隔操縦ができるようになる。   According to the third aspect of the present invention, the mobile object can be remotely controlled more safely by adding more dynamic physical obstacle information.

第4の発明は、第3の発明に従属する移動体遠隔操縦システムであって、検出手段は、動的な物理的障害物の少なくとも位置をさらに検出し、検出手段の検出結果に基づいて動的な物理的障害物の少なくとも位置を示す物理的障害物情報を作成する物理的障害物情報作成手段、および、地図情報および物理的障害物情報作成手段によって作成された物理的障害物情報に基づいて、当該地図情報に対応する区域内で発生する静的な通信障害領域および当該地図情報に対応する区域内で発生しかつ移動する動的な通信障害領域について少なくとも位置を示す仮想障害物情報を作成する仮想障害物情報作成手段をさらに備え、第2メモリは、物理的障害物情報作成手段によって作成された物理的障害物情報および仮想障害物情報作成手段によって作成された仮想障害物情報を記憶する。   A fourth invention is a mobile remote control system according to the third invention, wherein the detection means further detects at least a position of a dynamic physical obstacle and moves based on a detection result of the detection means. Based on physical obstacle information created by physical obstacle information creating means for creating physical obstacle information indicating at least the position of a physical obstacle, and map information and physical obstacle information creating means Virtual obstacle information indicating at least the position of a static communication failure area occurring in the area corresponding to the map information and a dynamic communication failure area occurring and moving in the area corresponding to the map information. Virtual obstacle information creating means for creating is further provided, and the second memory is created by the physical obstacle information and virtual obstacle information creating means created by the physical obstacle information creating means. Storing the virtual obstacle information.

第4の発明では、検出手段によって、動的な物理的障害物の少なくとも位置がさらに検出される。物理的障害物情報作成手段(S7)は、このような検出手段の検出結果に基づいて、動的な物理的障害物の少なくとも位置を示す物理的障害物情報を作成する。さらに、仮想障害物情報作成手段(S9)は、記憶された地図情報およびこうして作成された物理的障害物情報に基づいて、当該地図情報に対応する区域内で発生する静的な通信障害領域、および当該地図情報に対応する区域内で発生しかつ移動する動的な通信障害領域について、少なくとも位置を示す仮想障害物情報を作成する。第2メモリには、こうして作成された物理的障害物情報および仮想障害物情報が記憶される。   In the fourth invention, at least the position of the dynamic physical obstacle is further detected by the detecting means. The physical obstacle information creating means (S7) creates physical obstacle information indicating at least the position of the dynamic physical obstacle based on the detection result of such a detecting means. Further, the virtual obstacle information creating means (S9) is a static communication obstacle area generated in an area corresponding to the map information, based on the stored map information and the physical obstacle information thus created, In addition, virtual obstacle information indicating at least a position is created for a dynamic communication failure area that occurs and moves in an area corresponding to the map information. The second memory stores the physical obstacle information and virtual obstacle information thus created.

第4の発明によれば、地図に記載されていない動的な物理的障害物(人物,車両など)をセンサで検出し、さらに、地図に記載された静的な障害物に起因して発生する静的な通信障害領域と、こうして検出した動的な障害物に起因して発生しかつ移動する動的な通信障害領域とを、たとえば計算,計測,統計処理等によって検出することで、静的な不感帯や圏外領域に加えて、時間的に変化する不感帯が点在する環境でも、高い通信品質の維持が可能となり、簡単な構成で移動体を安全に遠隔操縦できるようになる。   According to the fourth aspect of the invention, a dynamic physical obstacle (such as a person or a vehicle) that is not described on the map is detected by the sensor, and is further generated due to a static obstacle described on the map. By detecting, for example, calculation, measurement, statistical processing, and the like, a static communication failure area that is generated and a dynamic communication failure area that is generated and moved due to the detected dynamic obstacle are statically detected. High communication quality can be maintained even in an environment where time-sensitive dead zones are scattered in addition to typical dead zones and out-of-service areas, and a mobile object can be safely remotely controlled with a simple configuration.

なお、仮想障害物情報作成手段は、地図情報および物理的障害物情報に基づいて、地図情報に対応する区域内で複数のアンテナが見通しとなる領域や多数の移動ロボットが集まる領域も通信障害領域としてさらに検出し、この種の領域も仮想障害物と見なした仮想障害物情報を作成してもよい。   Note that the virtual obstacle information creating means is based on the map information and the physical obstacle information, and the communication obstacle area is an area where a plurality of antennas are visible in the area corresponding to the map information or an area where many mobile robots gather. Further, virtual obstacle information may be created in which this type of area is also regarded as a virtual obstacle.

第5の発明は、第4の発明に従属する移動体遠隔操縦システムであって、検出手段は、移動体の移動方向と、動的な物理的障害物の移動方向とをさらに検出し、物理的障害物情報作成手段は、検出手段の検出結果に基づいて動的な物理的障害物の位置および移動方向を示す物理的障害物情報を作成し、仮想障害物情報作成手段は、地図情報および物理的障害物情報作成手段によって作成された物理的障害物情報に基づいて動的な障害領域の位置および移動方向を示す仮想障害物情報を作成し、制御情報作成手段は、移動体の移動方向に静的な物理的障害物および静的な仮想障害物の少なくとも1つが存在する場合(S99:YES)には直ちに回避移動を行わせる移動制御情報を生成し、移動体の移動方向に、静的な物理的障害物および静的な仮想障害のいずれも存在せず、かつ移動する動的な物理的障害物および移動する動的な仮想障害物の少なくとも1つが存在する場合(S99:N0→S101:YES)には、当該移動体の当該移動障害物への到達予想時間が閾値を下回った時点で回避移動を行わせる移動制御情報を生成する。   A fifth invention is a mobile remote control system according to the fourth invention, wherein the detecting means further detects the moving direction of the moving body and the moving direction of the dynamic physical obstacle, The physical obstacle information creating means creates physical obstacle information indicating the position and moving direction of a dynamic physical obstacle based on the detection result of the detecting means, and the virtual obstacle information creating means includes map information and Based on the physical obstacle information created by the physical obstacle information creating means, virtual obstacle information indicating the position and moving direction of the dynamic obstacle area is created, and the control information creating means is configured to move the moving object in the moving direction. If at least one of a static physical obstacle and a static virtual obstacle exists (S99: YES), movement control information for immediately performing avoidance movement is generated, and the moving object moves in the moving direction. Physical obstacles and static When none of the virtual obstacles exists and at least one of the moving physical obstacle and the moving virtual obstacle is present (S99: N0 → S101: YES), the moving object The movement control information for performing the avoidance movement when the estimated time of arrival at the moving obstacle falls below the threshold is generated.

第5の発明によれば、移動体の移動方向に存在する障害物が移動障害物か固定障害物かに応じて適切なタイミングで回避行動を行わせるので、移動体を安全かつ効率的に遠隔操縦できるようになる。   According to the fifth aspect of the invention, the avoiding action is performed at an appropriate timing according to whether the obstacle existing in the moving direction of the moving object is a moving obstacle or a fixed obstacle. You can control.

第6の発明は、第3ないし5のいずれかにの発明に従属する移動体遠隔操縦システムであって、地図情報に対応する区域に配置されて移動体との間で無線通信を行うためのアンテナ(202a〜206a)をさらに備え、仮想障害物情報作成手段は、地図情報および物理的障害物情報に基づいてアンテナからの電界の強度分布を計算し、計算された電界強度が閾値よりも小さい領域を通信障害領域として特定し、そして、特定された通信障害領域の少なくとも位置を示す情報を仮想障害物情報として作成する。   A sixth invention is a mobile remote control system according to any one of the third to fifth inventions, and is arranged in an area corresponding to map information to perform wireless communication with a mobile body. The antennas (202a to 206a) are further provided, and the virtual obstacle information creating means calculates the intensity distribution of the electric field from the antenna based on the map information and the physical obstacle information, and the calculated electric field strength is smaller than the threshold value. An area is specified as a communication failure area, and information indicating at least the position of the specified communication failure area is created as virtual obstacle information.

第6の発明によれば、精度の高い仮想障害物情報を計算によって作成することができる。   According to the sixth aspect, highly accurate virtual obstacle information can be created by calculation.

第7の発明は、第6の発明に従属する移動体遠隔操縦システムであって、ネットワーク(200)に接続されたサーバ(14)をさらに備え、アンテナは、移動体のネットワークへのアクセスポイント(202〜206)に設けられ、物理的障害物情報作成手段および仮想障害物情報作成手段はサーバに設けられ、そして制御情報作成手段は移動体に設けられる。   A seventh invention is a mobile remote control system according to the sixth invention, further comprising a server (14) connected to the network (200), wherein the antenna is an access point ( 202 to 206), the physical obstacle information creating means and the virtual obstacle information creating means are provided in the server, and the control information creating means is provided in the mobile body.

第7の発明によれば、障害物情報の作成機能をサーバ側に集約する一方、制御情報の作成機能を移動体側に持たせることで、特に移動体の個数が多い場合に、効率的な制御が行える。   According to the seventh invention, while the obstacle information creation function is consolidated on the server side, the control information creation function is provided on the mobile body side, so that efficient control can be achieved particularly when the number of mobile bodies is large. Can be done.

第8の発明は、第7の発明に従属する移動体遠隔操縦システムであって、ネットワークに接続された遠隔操作装置(12)をさらに備え、第1メモリおよび第2メモリは、サーバ,移動体および遠隔操縦装置の各々に設けられる。   An eighth invention is a mobile remote control system according to the seventh invention, further comprising a remote control device (12) connected to a network, wherein the first memory and the second memory are a server, a mobile And a remote control device.

第8の発明によれば、サーバからネットワークを介して移動体および遠隔操縦装置の各々に障害物情報を配信することで、より安全な遠隔操縦が可能になる。   According to the eighth aspect of the invention, it is possible to perform remote control more safely by distributing obstacle information from the server to each of the mobile body and the remote control device via the network.

第9の発明は、第1ないし8のいずれかにの発明に従属する移動体遠隔操縦システムであって、センサの一部(40,46,58,70,112a,112b)は移動体に設けられ、センサの他の一部(122,124)は地図情報に対応する区域に配置される。   A ninth invention is a mobile remote control system according to any one of the first to eighth inventions, wherein a part of the sensors (40, 46, 58, 70, 112a, 112b) is provided in the mobile body. The other part (122, 124) of the sensor is arranged in an area corresponding to the map information.

第9の発明によれば、移動体に搭載されたセンサからの情報と、移動体の移動区域内に配置されたセンサからの情報とに基づいて、移動体の位置や移動方向さらには動的な物理障害物の位置や移動方向を精度よく検出することができる。   According to the ninth aspect of the present invention, based on the information from the sensor mounted on the moving body and the information from the sensor arranged in the moving area of the moving body, the position and moving direction of the moving body, as well as dynamic It is possible to accurately detect the position and moving direction of a physical obstacle.

第10の発明は、移動体(10)を無線通信により遠隔操縦するための移動体遠隔操縦システム(100)のコンピュータ(80&84,20&22,40&42)において実行される制御プログラム(174,134,136)であって、制御プログラムはコンピュータを、地図情報(138)を記憶する第1メモリ(170,130,150)、地図情報に対応する区域内で無線通信に障害が生じる通信障害領域(IO1〜IO5)を示す情報を仮想障害物情報(148)として記憶する第2メモリ(180,140,160)、センサ(122,124,40,46,58,70,112a,112b)からのセンサ情報に基づいて、地図情報に対応する区域での移動体の少なくとも位置を検出する検出手段(S1,S5)、および、地図情報および仮想障害物情報と検出手段の検出結果とに少なくとも基づいて、通信障害領域通信障害領域での無線通信障害を回避するように前記移動体を制御する制御情報を作成する制御情報作成手段(S75)として機能させる。   The tenth invention is a control program (174, 134, 136) executed in a computer (80 & 84, 20 & 22, 40 & 42) of a mobile remote control system (100) for remotely maneuvering the mobile body (10) by wireless communication. The control program stores a computer, a first memory (170, 130, 150) for storing map information (138), and a communication failure area (IO1 to IO5) in which wireless communication fails in an area corresponding to the map information. ) Based on sensor information from the second memory (180, 140, 160) and the sensors (122, 124, 40, 46, 58, 70, 112a, 112b) that store information indicating virtual obstacle information (148). Detecting means (S1, S5) for detecting at least the position of the moving body in the area corresponding to the map information; and Control information creation means for creating control information for controlling the mobile body so as to avoid a radio communication failure in the communication failure area communication failure area based at least on the figure information and the virtual obstacle information and the detection result of the detection means Function as (S75).

第10の発明でも、第1の発明と同様に、高い通信品質の維持が可能となり、簡単な構成で移動体を安全に遠隔操縦できるようになる。   In the tenth invention, similarly to the first invention, it is possible to maintain high communication quality, and it is possible to safely remotely control the mobile body with a simple configuration.

この発明によれば、通信障害領域が存在する環境、とりわけ時間的に変化する不感帯が点在する環境でも、簡単な構成で移動体を安全に遠隔操縦できる、移動体遠隔操縦システムおよびそのための制御プログラムが実現される。   ADVANTAGE OF THE INVENTION According to this invention, the mobile remote control system and control for it which can carry out the remote control of a mobile body safely by simple structure also in the environment where a communication failure area exists, especially the environment where the dead zone which changes with time is dotted. The program is realized.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

この発明の一実施例である移動ロボット遠隔操縦システムの構成を示す図解図であり、このシステムは、移動ロボット、サーバおよび遠隔操縦装置を含む。It is an illustration figure which shows the structure of the mobile robot remote control system which is one Example of this invention, This system contains a mobile robot, a server, and a remote control apparatus. 移動ロボットの外観図を示す図解図である。It is an illustration figure which shows the external view of a mobile robot. 移動ロボットの電気的構成を示すブロック図である。It is a block diagram which shows the electric constitution of a mobile robot. 遠隔操縦装置の電気的構成の一例を示すブロック図である。It is a block diagram which shows an example of the electric constitution of a remote control device. サーバの電気的構成の一例を示すブロック図である。It is a block diagram which shows an example of the electrical structure of a server. 遠隔操作装置のディスプレイに表示される画面の一例を示す図解図であり、この画面には、移動ロボット遠隔操縦システムが適用される環境を示す地図が描かれる。It is an illustration figure which shows an example of the screen displayed on the display of a remote control apparatus, The map which shows the environment where a mobile robot remote control system is applied is drawn on this screen. 遠隔操作装置のディスプレイに表示される画面の他の一例を示す図解図であり、この画面には、図6の地図に重ねて、物理的/仮想的障害物がさらに描かれる。It is an illustration figure which shows another example of the screen displayed on the display of a remote control apparatus, and a physical / virtual obstacle is further drawn on this screen so that it may overlap with the map of FIG. サーバのメモリマップを示す図解図である。It is an illustration figure which shows the memory map of a server. 遠隔操縦装置のメモリマップを示す図解図である。It is an illustration figure which shows the memory map of a remote control apparatus. 移動ロボットのメモリマップを示す図解図である。It is an illustration figure which shows the memory map of a mobile robot. メモリマップ内の主要な項目の詳細を示す図解図であり、(A)は物理的障害物情報を、(B)は仮想障害物情報をそれぞれ示す。It is an illustration figure which shows the detail of the main items in a memory map, (A) shows physical obstruction information, (B) shows virtual obstruction information, respectively. サーバのCPU動作の一部を示すフロー図である。It is a flowchart which shows a part of CPU operation | movement of a server. 図12に示された仮想障害物の領域配置の計算処理の詳細を示すフロー図である。It is a flowchart which shows the detail of the calculation process of the area | region arrangement | positioning of the virtual obstacle shown by FIG. 遠隔操縦装置のCPU動作の一部を示すフロー図である。It is a flowchart which shows a part of CPU operation | movement of a remote control apparatus. 移動ロボットのCPU動作の一部を示すフロー図である。It is a flowchart which shows a part of CPU operation | movement of a mobile robot. 図15に示された移動制御情報生成処理の詳細を示すフロー図である。It is a flowchart which shows the detail of the movement control information generation process shown by FIG. 図12に示された仮想障害物の領域配置の計算方法を示す図解図であり、(A)は格子状に分割された地図を、(B)は各格子点での電解強度に基づいて検出される仮想障害物を示す。It is an illustration figure which shows the calculation method of the area | region arrangement | positioning of the virtual obstacle shown by FIG. 12, (A) detects the map divided | segmented into the grid | lattice form, (B) detects based on the electrolysis intensity | strength in each grid point Indicates a virtual obstacle.

図1を参照して、この発明の一実施例である移動ロボット遠隔操縦システム(以下“遠隔操縦システム”)100は、たとえば博物館,アトラクション施設,イベント会場などに配置された移動ロボット10を、別の場所たとえば研究室,監視センタなどから、LAN,インターネットなどのネットワーク200を介して遠隔操縦するためのシステムである。   Referring to FIG. 1, a mobile robot remote control system (hereinafter referred to as “remote control system”) 100 according to an embodiment of the present invention is different from mobile robot 10 disposed in, for example, a museum, an attraction facility, or an event venue. System for remote control via a network 200 such as a LAN or the Internet from a location such as a laboratory or a monitoring center.

最初に、概要を説明する。遠隔操縦システム100は、移動ロボット10,遠隔操縦装置12およびサーバ14を含む。ネットワーク200には、それぞれがアンテナ(202a〜206a:図6参照)を有する複数たとえば3つの無線アクセスポイント(以下“AP”)202〜206が設けられており、移動ロボット10は、AP202〜206のいずれか1つを介してネットワーク200に接続される。言い換えると、移動ロボット10は、移動に伴って接続先をたとえばAP202→AP204→…のように順次切替えていくこと(いわゆる“ハンドオーバ”)によって、ネットワーク200との接続を維持することができる。   First, an outline will be described. The remote control system 100 includes a mobile robot 10, a remote control device 12, and a server 14. The network 200 is provided with a plurality of, for example, three wireless access points (hereinafter “AP”) 202 to 206 each having an antenna (202a to 206a: see FIG. 6). It is connected to the network 200 via any one. In other words, the mobile robot 10 can maintain the connection with the network 200 by sequentially switching the connection destination in the order of AP202 → AP204 →... As it moves (so-called “handover”).

一方、遠隔操縦装置12およびサーバ14は、それぞれ専用のAP(図示せず)を介してネットワーク200に接続される。移動ロボット10と各AP202〜206との間の接続は、たとえばIEEE802.11方式などの無線接続であるが、遠隔操縦装置12およびサーバ14の各々とその専用APとの間の接続は、無線接続でも、LANケーブルなどによる有線接続でもよい。   On the other hand, the remote control device 12 and the server 14 are connected to the network 200 via dedicated APs (not shown). The connection between the mobile robot 10 and each of the APs 202 to 206 is a wireless connection such as, for example, the IEEE 802.11 system, but the connection between each of the remote control device 12 and the server 14 and the dedicated AP is a wireless connection. However, a wired connection such as a LAN cable may be used.

移動ロボット10は、たとえば自律型のロボットであり、遠隔操縦によってだけでなく、予め記憶した地図(間取り図)情報および自身に備わる各種センサからのセンサ情報に基づいて自律的に、移動ないし行動することもできる。移動ロボット10によるセンサ情報はまた、ネットワーク200経由で遠隔操縦装置12に送信される。   The mobile robot 10 is an autonomous robot, for example, and moves or acts autonomously based not only on remote control but also on prestored map (room plan) information and sensor information from various sensors provided in the mobile robot 10. You can also. Sensor information from the mobile robot 10 is also transmitted to the remote control device 12 via the network 200.

サーバ14には、複数たとえば2つのレーザレンジファインダ(以下“LRF”)122,124が接続される。各LRF122,124は、移動ロボット10が移動できる場所(環境)に設置されて、自身から移動ロボット10までの距離を計測し、距離データを出力する。サーバ14は、移動ロボット10に記憶されたものと同じ地図情報を記憶しており、この地図情報および各LRF122,124からの距離データに基づいて、環境における移動ロボット10(および他の移動体や人体などの物理的障害物)の位置および移動方向を計算する。この計算結果を示す位置&方向情報は、ネットワーク200経由で移動ロボット10および遠隔操縦装置12に送信される。   A plurality of, for example, two laser range finders (hereinafter “LRF”) 122 and 124 are connected to the server 14. Each LRF 122, 124 is installed in a place (environment) where the mobile robot 10 can move, measures the distance from itself to the mobile robot 10, and outputs distance data. The server 14 stores the same map information as that stored in the mobile robot 10, and based on this map information and distance data from each LRF 122, 124, the mobile robot 10 (and other mobile objects in the environment) Calculate the position and direction of movement of physical obstacles such as human bodies. The position & direction information indicating the calculation result is transmitted to the mobile robot 10 and the remote control device 12 via the network 200.

なお、LRFは一般に、レーザーを照射し、それが目標で反射して戻ってくるまでの時間に基づいて、当該目標までの距離を計測するものである。LRF122,124は、たとえば、トランスミッタ(図示せず)から照射したレーザーを回転ミラー(図示せず)で反射させて、前方を扇状に一定角度(たとえば0.5度)ずつスキャンすることで、単に目標までの距離を計測するだけでなく、目標の表面に関する2次元距離情報(表面の形状を角度および距離の2変数で記述した情報)も生成することができる。LRF122,124からの距離データには、このような2次元距離情報が含まれており、サーバ14は、目標が移動ロボット10であるか、他の移動体ないし人体といった物理的障害物であるかを識別することができる。   Note that LRF generally measures the distance to a target based on the time it takes to irradiate a laser and reflect it back at the target. For example, the LRFs 122 and 124 simply reflect a laser beam emitted from a transmitter (not shown) by a rotating mirror (not shown) and scan the front in a fan shape at a certain angle (for example, 0.5 degrees). In addition to measuring the distance to the target, it is also possible to generate two-dimensional distance information about the surface of the target (information describing the shape of the surface with two variables of angle and distance). The distance data from the LRFs 122 and 124 includes such two-dimensional distance information. Whether the server 14 is the mobile robot 10 or a physical obstacle such as another moving body or human body. Can be identified.

なお、ここでいう「物理的障害物」には、前述の地図情報に記述されている静的な障害物(たとえば建造物,壁など)は含まれない。つまり、単に「物理的障害物」という場合、車や人といった移動する(動的な)物理的障害物を意味する。   Here, the “physical obstacle” does not include a static obstacle (for example, a building or a wall) described in the above-described map information. In other words, the term “physical obstacle” simply means a moving (dynamic) physical obstacle such as a car or a person.

なお、環境に設置されて、移動ロボット10までの距離を計測するセンサ(距離センサ)は、LRFに限らず、たとえば赤外線距離センサやレーダなどでもよい。また、サーバ14には、距離センサ以外のセンサたとえばカメラ(イメージセンサ)なども接続されてよい。この場合、サーバ14は、LRF122,124からの距離データに加えて、カメラからの画像データも参照することで、移動ロボット10や物理的障害物をより高い精度で識別し、各々の領域配置(位置,サイズおよび形状など)をより正確に特定することができる。さらに、移動ロボット10が検出したセンサ情報をサーバ14に転送すれば、サーバ14は、物理的障害物の領域配置を特定する際にこれを利用することができる。   A sensor (distance sensor) that is installed in the environment and measures the distance to the mobile robot 10 is not limited to the LRF, and may be an infrared distance sensor or a radar, for example. The server 14 may be connected to a sensor other than the distance sensor, such as a camera (image sensor). In this case, the server 14 identifies the mobile robot 10 and the physical obstacle with higher accuracy by referring to the image data from the camera in addition to the distance data from the LRFs 122 and 124, and each region arrangement ( Position, size, and shape) can be specified more accurately. Furthermore, if the sensor information detected by the mobile robot 10 is transferred to the server 14, the server 14 can use this information when specifying the area arrangement of the physical obstacle.

こうして識別された物理的障害物に関する情報(種類ないし属性,領域配置など)は、物理的障害物情報として、サーバ14から移動ロボット10および遠隔操縦装置12に送信される。   Information (type or attribute, area arrangement, etc.) regarding the physical obstacle thus identified is transmitted from the server 14 to the mobile robot 10 and the remote control device 12 as physical obstacle information.

さらに、サーバ14は、地図情報および物理的障害物情報に基づいて、地図上での電界強度分布をレイトレーシングなどの手法で計算し、電界強度が閾値よりも低い領域の配置(位置,サイズおよび形状など)を特定する。その領域が移動している場合には、移動方向および速度も特定される。こうして特定された領域に関する情報(領域配置,移動方向および速度など)は、仮想障害物情報として、サーバ14から移動ロボット10および遠隔操縦装置12に送信される。   Further, the server 14 calculates the electric field strength distribution on the map based on the map information and the physical obstacle information by a method such as ray tracing, and the arrangement (position, size and Shape). If the area is moving, the moving direction and speed are also specified. Information regarding the area thus identified (area arrangement, moving direction, speed, etc.) is transmitted from the server 14 to the mobile robot 10 and the remote control device 12 as virtual obstacle information.

遠隔操縦装置12は、移動ロボット10から得たセンサ情報およびサーバ14から得た位置&方向情報,物理的障害物情報および仮想障害物情報などを表示するディスプレイ(30:図4参照)と、オペレータによって操作される操作パネル(28:図4参照)とを備える。オペレータは、ディスプレイ(30)に表示される各種情報を通じて移動ロボット10の動き(移動および/または動作を含む)を監視し、必要に応じてその動きを制御するべく操作パネル(28)を操作する。操作パネル(28)の操作に基づく操作情報は、ネットワーク200経由で移動ロボット10に送信される。   The remote control device 12 includes a display (30: see FIG. 4) for displaying sensor information obtained from the mobile robot 10, position & direction information obtained from the server 14, physical obstacle information, virtual obstacle information, and the like. And an operation panel (28: see FIG. 4). The operator monitors the movement (including movement and / or movement) of the mobile robot 10 through various information displayed on the display (30), and operates the operation panel (28) to control the movement as necessary. . The operation information based on the operation of the operation panel (28) is transmitted to the mobile robot 10 via the network 200.

移動ロボット10では、記憶している地図情報、自らのセンサ情報、サーバ14からの位置&方向情報,物理的障害物情報および仮想障害物情報、ならびに遠隔操縦装置12からの操作情報に基づいて動き制御情報が生成され、この生成された動き制御情報に基づいて各種モータ(92〜98,110,36aおよび36b:図3参照)が駆動される。こうして、移動ロボット10の自律的な/遠隔操縦による動きが実現される。   The mobile robot 10 moves based on the stored map information, its own sensor information, position and direction information from the server 14, physical obstacle information and virtual obstacle information, and operation information from the remote control device 12. Control information is generated, and various motors (92 to 98, 110, 36a and 36b: see FIG. 3) are driven based on the generated motion control information. In this way, the movement of the mobile robot 10 by autonomous / remote control is realized.

特に、移動ロボット10は、物理的障害物情報さらには仮想障害物情報を加味した地図情報に基づいて経路選択を行うことで、物理的障害物だけでなく、仮想障害物つまり電波強度の低い領域(圏外や不感帯)を回避しながら移動することができる。そして、物理的障害物情報および仮想障害物情報はリアルタイムに更新されるため、移動する物や人が存在したり、時間的に変化する不感帯が点在したりする環境でも、移動ロボット10を安全に遠隔操縦することができる。   In particular, the mobile robot 10 performs route selection based on map information including physical obstacle information or virtual obstacle information, so that not only a physical obstacle but also a virtual obstacle, that is, a region having a low radio wave intensity. It is possible to move while avoiding (out of service area and dead zone). Since physical obstacle information and virtual obstacle information are updated in real time, the mobile robot 10 can be safely operated even in an environment where there are moving objects or people, or in which there are time-sensitive dead zones. Can be remotely piloted.

なお、移動ロボット10は、相互作用指向のロボットでもあり、人間のようなコミュニケーション対象との間で、身振り手振りのような身体動作あるいは音声による会話といったコミュニケーション行動を実行する機能も有している。   Note that the mobile robot 10 is also an interaction-oriented robot, and has a function of executing a communication action such as a body motion such as gesture gesture or voice conversation with a communication target such as a human.

次に、各要素について詳しく説明する。図2はこの実施例の移動ロボット10の外観を示す正面図である。図2を参照して、移動ロボット10は台車30を含み、台車30の下面には右車輪32aおよび左車輪32b(特に区別しない場合には「車輪32」と記す)ならびに1つの従輪34が設けられる。右車輪32aおよび左車輪32bは、右車輪モータ36aおよび左車輪モータ36b(図4参照)によってそれぞれ独立に駆動され、台車30ひいては移動ロボット10全体を前後左右の任意方向に動かすことができる。また、従輪34は車輪32を補助する補助輪である。   Next, each element will be described in detail. FIG. 2 is a front view showing the appearance of the mobile robot 10 of this embodiment. Referring to FIG. 2, mobile robot 10 includes a carriage 30, and a lower surface of carriage 30 is provided with right wheel 32 a and left wheel 32 b (referred to as “wheel 32” unless otherwise specified) and one slave wheel 34. It is done. The right wheel 32a and the left wheel 32b are independently driven by the right wheel motor 36a and the left wheel motor 36b (see FIG. 4), respectively, and can move the carriage 30 and the entire mobile robot 10 in an arbitrary direction of front, rear, left and right. The slave wheel 34 is an auxiliary wheel that assists the wheel 32.

台車30の上には、円柱形のセンサ取り付けパネル38が設けられ、このセンサ取り付けパネル38には、多数の赤外線距離センサ40が取り付けられる。これらの赤外線距離センサ40は、センサ取り付けパネル38つまり移動ロボット10自身と、その周囲の物体(人間や障害物など)との距離を測定するものである。   A cylindrical sensor attachment panel 38 is provided on the carriage 30, and a large number of infrared distance sensors 40 are attached to the sensor attachment panel 38. These infrared distance sensors 40 measure the distance between the sensor mounting panel 38, that is, the mobile robot 10 itself, and the surrounding objects (such as humans and obstacles).

なお、この実施例では、距離センサとして、赤外線距離センサを用いるようにしてあるが、赤外線距離センサに代えて、小型のLRF、超音波距離センサまたはミリ波レーダなどを用いることもできるし、これらを適宜組み合わせて用いてもよい。   In this embodiment, an infrared distance sensor is used as the distance sensor. However, instead of the infrared distance sensor, a small LRF, an ultrasonic distance sensor, a millimeter wave radar, or the like can be used. May be used in appropriate combination.

センサ取り付けパネル38の上には、胴体42が直立するように設けられる。また、胴体42の前方中央上部(人の胸に相当する位置)には、上述した赤外線距離センサ40がさらに設けられており、これによって前方の対象たとえば人間との距離を計測する。また、胴体42には、その側面側上端部のほぼ中央から伸びる支柱44が設けられ、支柱44の上には、アンテナ118ならびに全方位カメラ46が設けられる。   A body 42 is provided on the sensor mounting panel 38 so as to stand upright. In addition, the above-described infrared distance sensor 40 is further provided in the upper front upper portion of the body 42 (a position corresponding to a human chest), thereby measuring the distance to a front object such as a human. Further, the body 42 is provided with a support pole 44 extending from substantially the center of the upper end of the side surface, and the antenna 118 and the omnidirectional camera 46 are provided on the support 44.

アンテナ118は、各AP202〜206と無線通信を行うための無指向性アンテナであり、任意の方向からの無線信号を受信し、任意の方向に無線信号を送信する。なお、アンテナ118として、その指向性を電気的に変化させることが可能な可変指向性アンテナ(アレーアンテナなど)を用いてもよい。   The antenna 118 is an omnidirectional antenna for performing wireless communication with each of the APs 202 to 206, receives a radio signal from an arbitrary direction, and transmits a radio signal in an arbitrary direction. Note that a variable directivity antenna (such as an array antenna) that can electrically change the directivity may be used as the antenna 118.

全方位カメラ46は、移動ロボット10の周囲を撮影するものであり、後述する眼カメラ70とは区別される。全方位カメラ46としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。なお、これら赤外線距離センサ40,アンテナ118および全方位カメラ46の設置位置は、当該部位に限定されず適宜変更されてもよい。   The omnidirectional camera 46 photographs the surroundings of the mobile robot 10 and is distinguished from an eye camera 70 described later. As the omnidirectional camera 46, for example, a camera using a solid-state imaging device such as a CCD or a CMOS can be employed. In addition, the installation positions of the infrared distance sensor 40, the antenna 118, and the omnidirectional camera 46 are not limited to the portions, and may be changed as appropriate.

胴体42の両側面上端部(人の肩に相当する位置)には、それぞれ、肩関節48Rおよび肩関節48Lによって、上腕50Rおよび上腕50Lが設けられる。図示は省略するが、肩関節48Rおよび肩関節48Lは、それぞれ、直交する3軸の自由度を有する。すなわち、肩関節48Rは、直交する3軸のそれぞれの軸廻りにおいて上腕50Rの角度を制御できる。肩関節48Rの或る軸(ヨー軸)は、上腕50Rの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。同様にして、肩関節48Lは、直交する3軸のそれぞれの軸廻りにおいて上腕50Lの角度を制御できる。肩関節48Lの或る軸(ヨー軸)は、上腕50Lの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。   An upper arm 50R and an upper arm 50L are provided at upper end portions on both sides of the torso 42 (position corresponding to a human shoulder) by a shoulder joint 48R and a shoulder joint 48L, respectively. Although illustration is omitted, each of the shoulder joint 48R and the shoulder joint 48L has three orthogonal degrees of freedom. That is, the shoulder joint 48R can control the angle of the upper arm 50R around each of three orthogonal axes. A certain axis (yaw axis) of the shoulder joint 48R is an axis parallel to the longitudinal direction (or axis) of the upper arm 50R, and the other two axes (pitch axis and roll axis) are orthogonal to the axes from different directions. It is an axis to do. Similarly, the shoulder joint 48L can control the angle of the upper arm 50L around each of three orthogonal axes. A certain axis (yaw axis) of the shoulder joint 48L is an axis parallel to the longitudinal direction (or axis) of the upper arm 50L, and the other two axes (pitch axis and roll axis) are orthogonal to the axes from different directions. It is an axis to do.

また、上腕50Rおよび上腕50Lのそれぞれの先端には、肘関節52Rおよび肘関節52Lが設けられる。図示は省略するが、肘関節52Rおよび肘関節52Lは、それぞれ1軸の自由度を有し、この軸(ピッチ軸)の軸回りにおいて前腕54Rおよび前腕54Lの角度を制御できる。   In addition, an elbow joint 52R and an elbow joint 52L are provided at the respective distal ends of the upper arm 50R and the upper arm 50L. Although illustration is omitted, each of the elbow joint 52R and the elbow joint 52L has one degree of freedom, and the angle of the forearm 54R and the forearm 54L can be controlled around the axis (pitch axis).

前腕54Rおよび前腕54Lのそれぞれの先端には、人の手に相当する球体56Rおよび球体56Lがそれぞれ固定的に設けられる。ただし、指や掌の機能が必要な場合には、人間の手の形をした「手」を用いることも可能である。また、図示は省略するが、台車30の前面、肩関節48Rと肩関節48Lとを含む肩に相当する部位、上腕50R、上腕50L、前腕54R、前腕54L、球体56Rおよび球体56Lには、それぞれ、接触センサ58(図3で包括的に示す)が設けられる。台車30の前面の接触センサ58は、台車30への人間や他の障害物の接触を検知する。したがって、移動ロボット10は、その自身の移動中に障害物との接触が有ると、それを検知し、直ちに車輪32の駆動を停止して移動ロボット10の移動を急停止させることができる。また、その他の接触センサ58は、当該各部位に触れたかどうかを検知する。なお、接触センサ58の設置位置は、当該部位に限定されず、適宜な位置(人の胸、腹、脇、背中および腰に相当する位置)に設けられてもよい。   A sphere 56R and a sphere 56L corresponding to a human hand are fixedly provided at the tips of the forearm 54R and the forearm 54L, respectively. However, when a finger or palm function is required, a “hand” in the shape of a human hand can be used. Although not shown, the front surface of the carriage 30, the portion corresponding to the shoulder including the shoulder joint 48R and the shoulder joint 48L, the upper arm 50R, the upper arm 50L, the forearm 54R, the forearm 54L, the sphere 56R, and the sphere 56L, A contact sensor 58 (shown generically in FIG. 3) is provided. A contact sensor 58 on the front surface of the carriage 30 detects contact of a person or another obstacle with the carriage 30. Therefore, the mobile robot 10 can detect the contact with the obstacle during its movement and immediately stop the driving of the wheel 32 to suddenly stop the movement of the mobile robot 10. Further, the other contact sensors 58 detect whether or not the respective parts are touched. In addition, the installation position of the contact sensor 58 is not limited to the said site | part, and may be provided in an appropriate position (position corresponding to a person's chest, abdomen, side, back, and waist).

胴体42の中央上部(人の首に相当する位置)には首関節60が設けられ、さらにその上には頭部62が設けられる。図示は省略するが、首関節60は、3軸の自由度を有し、3軸の各軸廻りに角度制御可能である。或る軸(ヨー軸)は移動ロボット10の真上(鉛直上向き)に向かう軸であり、他の2軸(ピッチ軸、ロール軸)は、それぞれ、それと異なる方向で直交する軸である。   A neck joint 60 is provided at the upper center of the body 42 (a position corresponding to a person's neck), and a head 62 is further provided thereon. Although illustration is omitted, the neck joint 60 has a degree of freedom of three axes, and the angle can be controlled around each of the three axes. A certain axis (yaw axis) is an axis that goes directly above (vertically upward) the mobile robot 10, and the other two axes (pitch axis and roll axis) are axes orthogonal to each other in different directions.

頭部62には、人の口に相当する位置に、スピーカ64が設けられる。スピーカ64は、移動ロボット10が、それの周辺の人間に対して音声ないし音によってコミュニケーションを取るために用いられる。また、人の耳に相当する位置には、マイク66Rおよびマイク66Lが設けられる。以下、右のマイク66Rと左のマイク66Lとをまとめてマイク66と言うことがある。マイク66は、周囲の音、とりわけコミュニケーションを実行する対象である人間の音声を取り込む。さらに、人の目に相当する位置には、眼球部68Rおよび眼球部68Lが設けられる。眼球部68Rおよび眼球部68Lは、それぞれ眼カメラ70Rおよび眼カメラ70Lを含む。以下、右の眼球部68Rと左の眼球部68Lとをまとめて眼球部68と言うことがある。また、右の眼カメラ70Rと左の眼カメラ70Lとをまとめて眼カメラ70と言うことがある。   The head 62 is provided with a speaker 64 at a position corresponding to a human mouth. The speaker 64 is used for the mobile robot 10 to communicate with a person around it by voice or sound. A microphone 66R and a microphone 66L are provided at a position corresponding to a human ear. Hereinafter, the right microphone 66R and the left microphone 66L may be collectively referred to as a microphone 66. The microphone 66 captures ambient sounds, in particular, the voices of humans who are subjects of communication. Furthermore, an eyeball part 68R and an eyeball part 68L are provided at positions corresponding to human eyes. The eyeball portion 68R and the eyeball portion 68L include an eye camera 70R and an eye camera 70L, respectively. Hereinafter, the right eyeball portion 68R and the left eyeball portion 68L may be collectively referred to as the eyeball portion 68. Further, the right eye camera 70R and the left eye camera 70L may be collectively referred to as an eye camera 70.

眼カメラ70は、移動ロボット10に接近した人間の顔や他の部分ないし物体などを撮影して、それに対応する映像信号を取り込む。また、眼カメラ70は、上述した全方位カメラ46と同様のカメラを用いることができる。たとえば、眼カメラ70は、眼球部68内に固定され、眼球部68は、眼球支持部(図示せず)を介して頭部62内の所定位置に取り付けられる。図示は省略するが、眼球支持部は、2軸の自由度を有し、それらの各軸廻りに角度制御可能である。たとえば、この2軸の一方は、頭部62の上に向かう方向の軸(ヨー軸)であり、他方は、一方の軸に直交しかつ頭部62の正面側(顔)が向く方向に直行する方向の軸(ピッチ軸)である。眼球支持部がこの2軸の各軸廻りに回転されることによって、眼球部68ないし眼カメラ70の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。なお、上述のスピーカ64、マイク66および眼カメラ70の設置位置は、当該部位に限定されず、適宜な位置に設けられてよい。   The eye camera 70 captures a human face approaching the mobile robot 10, other parts or objects, and captures a corresponding video signal. The eye camera 70 can be the same camera as the omnidirectional camera 46 described above. For example, the eye camera 70 is fixed in the eyeball unit 68, and the eyeball unit 68 is attached to a predetermined position in the head 62 via an eyeball support unit (not shown). Although illustration is omitted, the eyeball support portion has two degrees of freedom, and the angle can be controlled around each of these axes. For example, one of the two axes is an axis (yaw axis) in a direction toward the top of the head 62, and the other is orthogonal to the one axis and goes straight in a direction in which the front side (face) of the head 62 faces. It is an axis (pitch axis) in the direction to be. By rotating the eyeball support portion around each of these two axes, the tip (front) side of the eyeball portion 68 or the eye camera 70 is displaced, and the camera axis, that is, the line-of-sight direction is moved. Note that the installation positions of the speaker 64, the microphone 66, and the eye camera 70 described above are not limited to those portions, and may be provided at appropriate positions.

このように、この実施例の移動ロボット10は、車輪32の独立2軸駆動、肩関節48の3自由度(左右で6自由度)、肘関節52の1自由度(左右で2自由度)、首関節60の3自由度および眼球支持部の2自由度(左右で4自由度)の合計17自由度を有する。   As described above, the mobile robot 10 according to this embodiment includes independent two-axis driving of the wheels 32, three degrees of freedom of the shoulder joint 48 (6 degrees of freedom on the left and right), and one degree of freedom of the elbow joint 52 (two degrees of freedom on the left and right). The neck joint 60 has a total of 17 degrees of freedom: 3 degrees of freedom of the neck joint and 2 degrees of freedom of the eyeball support (4 degrees of freedom on the left and right).

図3は移動ロボット10の電気的な構成を示すブロック図である。図3を参照して、移動ロボット10は、CPU80を含む。CPU80は、マイクロコンピュータ或いはプロセッサとも呼ばれ、バス82を介して、メモリ84、モータ制御ボード86、センサ入力/出力ボード88および音声入力/出力ボード90に接続される。CPU80は、RTC(Real Time Clock)80aを含んでおり、各センサからの信号ないしデータ(センサ情報)に対してRTCに基づく時刻データを付加する。   FIG. 3 is a block diagram showing an electrical configuration of the mobile robot 10. Referring to FIG. 3, mobile robot 10 includes a CPU 80. The CPU 80 is also called a microcomputer or a processor, and is connected to the memory 84, the motor control board 86, the sensor input / output board 88 and the audio input / output board 90 via the bus 82. The CPU 80 includes an RTC (Real Time Clock) 80a, and adds time data based on the RTC to signals or data (sensor information) from each sensor.

メモリ84は、図示は省略をするが、不揮発メモリ(保存領域)としてSSD(Solid State Drive)およびROMと、揮発メモリ(一時記憶領域)としてRAMとを含む。SSD,ROMつまり保存領域(180:図10参照)には、移動ロボット10自身の動きや遠隔操縦装置12,サーバ14との間の通信を制御するための各種の制御プログラム,地図情報など(後述)が予め記憶される。RAMつまり一時記憶領域(190:図10参照)は、ワークメモリないしバッファメモリとして、送受信データを一時保持したり、制御プログラムによって参照される各種の情報(後述)を更新可能に記憶したりする。   Although not shown, the memory 84 includes an SSD (Solid State Drive) and ROM as a nonvolatile memory (storage area), and a RAM as a volatile memory (temporary storage area). In the SSD, ROM, that is, the storage area (180: see FIG. 10), various control programs for controlling the movement of the mobile robot 10 itself and the communication with the remote control device 12 and the server 14, map information, etc. (described later) ) Is stored in advance. A RAM, that is, a temporary storage area (190: see FIG. 10), as work memory or buffer memory, temporarily stores transmission / reception data and stores various information (described later) referred to by a control program in an updatable manner.

モータ制御ボード86は、たとえばDSPで構成され、各腕や首関節および眼球部などの各軸モータの駆動を制御する。すなわち、モータ制御ボード86は、CPU80からの制御データを受け、右眼球部68Rの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「右眼球モータ92」と示す。)の回転角度を制御する。同様に、モータ制御ボード86は、CPU80からの制御データを受け、左眼球部68Lの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「左眼球モータ94」と示す。)の回転角度を制御する。   The motor control board 86 is constituted by, for example, a DSP, and controls driving of each axis motor such as each arm, neck joint, and eyeball unit. That is, the motor control board 86 receives the control data from the CPU 80, and controls two motors for controlling the angles of the two axes of the right eyeball portion 68R (in FIG. 3, they are collectively referred to as “right eyeball motor 92”). Control the rotation angle. Similarly, the motor control board 86 receives two control data from the CPU 80 and controls two angles of the two axes of the left eyeball portion 68L (in FIG. 3, collectively referred to as “left eyeball motor 94”). ) To control the rotation angle.

また、モータ制御ボード86は、CPU80からの制御データを受け、肩関節48Rの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節52Rの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「右腕モータ96」と示す。)の回転角度を制御する。同様に、モータ制御ボード86は、CPU80からの制御データを受け、肩関節48Lの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節52Lの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「左腕モータ98」と示す。)の回転角度を制御する。   The motor control board 86 receives control data from the CPU 80, and includes a total of four motors including three motors for controlling the angles of the three orthogonal axes of the shoulder joint 48R and one motor for controlling the angle of the elbow joint 52R. The rotation angle of two motors (collectively indicated as “right arm motor 96” in FIG. 3) is controlled. Similarly, the motor control board 86 receives control data from the CPU 80, and includes a total of three motors for controlling the angles of the three orthogonal axes of the shoulder joint 48L and one motor for controlling the angle of the elbow joint 52L. The rotation angles of the four motors (collectively indicated as “left arm motor 98” in FIG. 3) are controlled.

さらに、モータ制御ボード86は、CPU80からの制御データを受け、首関節60の直交する3軸のそれぞれの角度を制御する3つのモータ(図3では、まとめて「頭部モータ110」と示す。)の回転角度を制御する。そして、モータ制御ボード86は、CPU80からの制御データを受け、右車輪32aを駆動する右車輪モータ36a、左車輪32bを駆動する左車輪モータ36bの回転角度を、それぞれ個別に制御する。なお、この実施例では、車輪モータ36を除くモータは、制御を簡素化するためにステッピングモータ(すなわち、パルスモータ)を用いる。ただし、車輪モータ36と同様に直流モータを用いるようにしてもよい。また、移動ロボット10の身体部位を駆動するアクチュエータは、電流を動力源とするモータに限らず適宜変更されてもよい。たとえば、他の実施例では、エアアクチュエータなどが適用されてもよい。   Further, the motor control board 86 receives the control data from the CPU 80, and shows three motors (collectively “head motor 110” in FIG. 3) that control the angles of the three orthogonal axes of the neck joint 60. ) To control the rotation angle. The motor control board 86 receives control data from the CPU 80 and individually controls the rotation angles of the right wheel motor 36a for driving the right wheel 32a and the left wheel motor 36b for driving the left wheel 32b. In this embodiment, a motor other than the wheel motor 36 uses a stepping motor (that is, a pulse motor) in order to simplify the control. However, a DC motor may be used similarly to the wheel motor 36. The actuator that drives the body part of the mobile robot 10 is not limited to a motor that uses an electric current as a power source, and may be changed as appropriate. For example, in another embodiment, an air actuator or the like may be applied.

センサ入力/出力ボード88は、モータ制御ボード86と同様に、たとえばDSPで構成され、各センサからの信号(センサ情報)を取り込んでCPU80に与える。すなわち、赤外線距離センサ40のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード88を通じてCPU80に入力される。また、全方位カメラ46からの映像信号が、必要に応じてセンサ入力/出力ボード88で所定の処理を施してからCPU80に入力される。眼カメラ70からの映像信号も、同様に、CPU80に入力される。また、上述した複数の接触センサ58(図3では、まとめて「接触センサ58」と示す。)からの信号がセンサ入力/出力ボード88を介してCPU80に与えられる。   Similar to the motor control board 86, the sensor input / output board 88 is configured by a DSP, for example, and takes in signals (sensor information) from each sensor and supplies them to the CPU 80. That is, data relating to the reflection time from each of the infrared distance sensors 40 is input to the CPU 80 through the sensor input / output board 88. The video signal from the omnidirectional camera 46 is input to the CPU 80 after being subjected to predetermined processing by the sensor input / output board 88 as necessary. Similarly, the video signal from the eye camera 70 is also input to the CPU 80. In addition, signals from the plurality of contact sensors 58 described above (collectively indicated as “contact sensors 58” in FIG. 3) are provided to the CPU 80 via the sensor input / output board 88.

また、センサ入力/出力ボード88には、右車輪32aの回転速度(車輪速)を検出する右車輪速センサ112a、左車輪32bの回転速度を検出する左車輪速センサ112bがさらに接続される。そして、右車輪速センサ112aおよび左車輪速センサ112bからのそれぞれから、一定時間における右車輪32aおよび左車輪32bの回転数(車輪速)に関するデータが、センサ入力/出力ボート88を通じて、CPU80に入力される。   The sensor input / output board 88 is further connected to a right wheel speed sensor 112a for detecting the rotational speed (wheel speed) of the right wheel 32a and a left wheel speed sensor 112b for detecting the rotational speed of the left wheel 32b. Then, from each of the right wheel speed sensor 112a and the left wheel speed sensor 112b, data regarding the rotation speed (wheel speed) of the right wheel 32a and the left wheel 32b in a certain time is input to the CPU 80 through the sensor input / output boat 88. Is done.

音声入力/出力ボード90も、他の入力/出力ボードと同様にたとえばDSPで構成され、図3ではCPU80,メモリ84または音声入力/出力ボード90から与えられる音声合成データに従った音声または声がスピーカ64から出力される。また、マイク66からの音声入力が、音声入力/出力ボード90を介してCPU80に与えられる。   Similarly to the other input / output boards, the voice input / output board 90 is constituted by a DSP, for example. In FIG. 3, the voice or voice according to the voice synthesis data provided from the CPU 80, the memory 84 or the voice input / output board 90 is displayed. Output from the speaker 64. In addition, voice input from the microphone 66 is given to the CPU 80 via the voice input / output board 90.

また、CPU80は、バス82を介して通信LANボード114に接続される。通信LANボード114は、たとえばDSPで構成され、CPU80から与えられた送信データを無線通信回路116に与え、無線通信回路116は送信データを、アンテナ118からネットワーク200を介して外部コンピュータ(遠隔操縦装置12,サーバ14)に送信する。また、通信LANボード114は、無線通信回路116を介してアンテナ118でデータを受信し、受信したデータをCPU80に与える。アンテナ118で受信される受信データには、遠隔操縦装置12からの操作情報、および/または、サーバ14からの位置&方向情報,物理的障害物情報および仮想障害物情報が含まれる。   The CPU 80 is connected to the communication LAN board 114 via the bus 82. The communication LAN board 114 is configured by a DSP, for example, and supplies transmission data given from the CPU 80 to the wireless communication circuit 116. The wireless communication circuit 116 sends the transmission data from the antenna 118 via the network 200 to an external computer (remote control device). 12, to the server 14). Further, the communication LAN board 114 receives data with the antenna 118 via the wireless communication circuit 116 and gives the received data to the CPU 80. The received data received by the antenna 118 includes operation information from the remote control device 12 and / or position & direction information, physical obstacle information, and virtual obstacle information from the server 14.

図4は、遠隔操縦装置12の電気的な構成を示すブロック図である。図4を参照して、遠隔操縦装置12は、CPU20,メモリ22,通信LANボード24,通信回路26,操作パネル28およびディスプレイ30を備える。通信回路26は、図示しない専用APを介してネットワーク200に無線または有線で接続される。   FIG. 4 is a block diagram showing an electrical configuration of the remote control device 12. Referring to FIG. 4, remote control device 12 includes CPU 20, memory 22, communication LAN board 24, communication circuit 26, operation panel 28, and display 30. The communication circuit 26 is connected to the network 200 wirelessly or via a dedicated AP (not shown).

操作パネル28は、各種の操作ボタン,タッチパネルなどで構成され、オペレータが移動ロボット10の動きを制御するべく行う操作を受け付けて、その操作データを出力する。CPU20は、RTC20aを含んでおり、操作パネル28により入力される操作データに対し、RTC20aに基づく時刻データを付加し、これ(時刻付き操作データ)を送信データ(操作情報)としてメモリ22に書き込む。CPU20はまた、メモリ22に記憶された送信データを時刻データに従って読み出し、通信LANボード24に与える。通信LANボード24は、たとえばDSPで構成され、CPU20から与えられた送信データを通信回路26からネットワーク200を通して移動ロボット10に送信する。   The operation panel 28 includes various operation buttons, a touch panel, and the like. The operation panel 28 receives an operation performed by the operator to control the movement of the mobile robot 10 and outputs the operation data. The CPU 20 includes the RTC 20a, adds time data based on the RTC 20a to the operation data input from the operation panel 28, and writes this (operation data with time) in the memory 22 as transmission data (operation information). The CPU 20 also reads the transmission data stored in the memory 22 according to the time data, and gives it to the communication LAN board 24. The communication LAN board 24 is configured by a DSP, for example, and transmits transmission data given from the CPU 20 to the mobile robot 10 from the communication circuit 26 through the network 200.

通信LANボード24はまた、移動ロボット10およびサーバ14からネットワーク200経由で送られてくるデータ(センサ情報ならびに位置&方向情報,物理的障害物情報および仮想障害物情報)を通信回路26で受信し、その受信データをCPU20に与える。CPU20は、与えられた受信データをメモリ22に書き込みつつ、こうしてメモリ22に記憶された受信データに基づいて、保持している地図情報,移動ロボット10からのセンサ情報ならびにサーバ14からの位置&方向情報,物理的障害物情報および仮想障害物情報を視覚的に示す障害物付きの地図画面(図7参照)をディスプレイ30に表示する。先述したようなオペレータによる操作は、こうしてディスプレイ30に表示される地図画面を参照しながら行われる。   The communication LAN board 24 also receives data (sensor information, position & direction information, physical obstacle information, and virtual obstacle information) sent from the mobile robot 10 and the server 14 via the network 200 by the communication circuit 26. The received data is given to the CPU 20. The CPU 20 writes the given received data into the memory 22 and, based on the received data thus stored in the memory 22, holds the map information, the sensor information from the mobile robot 10, and the position & direction from the server 14. A map screen with obstacles (see FIG. 7) visually showing information, physical obstacle information, and virtual obstacle information is displayed on the display 30. The operation by the operator as described above is performed with reference to the map screen displayed on the display 30 in this way.

メモリ22には、遠隔操縦装置12が以上のような動作を行うための各種の制御プログラム,地図情報など(図9参照:後述)が予め記憶される。   The memory 22 stores in advance various control programs, map information, and the like (see FIG. 9: described later) for the remote control device 12 to perform the operations described above.

図5は、サーバ14の電気的な構成を示すブロック図である。図5を参照して、サーバ14は、CPU40,メモリ42,通信LANボード44,通信回路46およびセンサ入力/出力ボード48を備える。通信回路46は、図示しない専用APを介してネットワーク200に無線または有線で接続される。センサ入力/出力ボード48には、図1に示したLRF122,124(さらにはレーダやカメラ)が接続される。   FIG. 5 is a block diagram showing an electrical configuration of the server 14. Referring to FIG. 5, the server 14 includes a CPU 40, a memory 42, a communication LAN board 44, a communication circuit 46, and a sensor input / output board 48. The communication circuit 46 is connected to the network 200 wirelessly or via a dedicated AP (not shown). The sensor input / output board 48 is connected to the LRFs 122 and 124 (and radar and camera) shown in FIG.

CPU40は、RTC40aを含んでおり、LRF122,124からセンサ入力/出力ボード48を通して入力される距離データ(さらにはレーダの計測データ,カメラの画像データ)に対して、RTC40aから得られる時刻データを付加し、この時刻付き距離データ(さらには時刻付き計測データ,時刻付き画像データ)をメモリ42に書き込む。CPU40はまた、こうしてメモリ42に記憶された時刻付き距離データ等と、予めメモリ42に記憶された地図情報とに基づいて、環境における移動ロボット10の位置および移動方向ならびに物理的障害物の領域配置を計算し、この計算結果に基づいて仮想障害物の領域配置をさらに計算し、そして結果(位置&方向情報,物理的障害物情報および仮想障害物情報)を送信データとして再びメモリ42に書き込む。   The CPU 40 includes an RTC 40a, and adds time data obtained from the RTC 40a to distance data (and radar measurement data and camera image data) input from the LRFs 122 and 124 through the sensor input / output board 48. Then, the distance data with time (and measurement data with time and image data with time) is written in the memory 42. The CPU 40 also determines the position and moving direction of the mobile robot 10 in the environment and the area arrangement of the physical obstacle based on the time-distance data stored in the memory 42 and the map information stored in the memory 42 in advance. Based on the calculation result, the area arrangement of the virtual obstacle is further calculated, and the results (position & direction information, physical obstacle information, and virtual obstacle information) are written in the memory 42 again as transmission data.

通信LANボード44は、たとえばDSPで構成され、こうしてメモリ42に記憶された送信データを通信回路46からネットワーク200を通して移動ロボット10に送信する。メモリ42には、サーバ14が以上のような動作を行うための各種の制御プログラム,地図情報など(図8参照:後述)が予め記憶される。   The communication LAN board 44 is configured by a DSP, for example, and transmits the transmission data thus stored in the memory 42 from the communication circuit 46 to the mobile robot 10 through the network 200. In the memory 42, various control programs for the server 14 to perform the above-described operations, map information, and the like (see FIG. 8: described later) are stored in advance.

図6には、遠隔操縦システム100が適用される環境に対応する地図が示される。遠隔操縦装置12で地図を表示させるモードが選択されると、ディスプレイ30には、メモリ22に記憶された地図情報に基づいて、図6に示すような地図画面が表示される。   FIG. 6 shows a map corresponding to the environment to which the remote control system 100 is applied. When a mode for displaying a map is selected by the remote control device 12, a map screen as shown in FIG. 6 is displayed on the display 30 based on the map information stored in the memory 22.

この環境は、たとえば博物館の一室であり、そこには、通路、6個の展示棚、および3個のAPに対応する3個のアンテナが適宜な位置に設けられている。移動ロボット10は、このような室内を自律的にまたは遠隔操縦によって移動する。   This environment is, for example, a room of a museum, in which three antennas corresponding to a passage, six exhibition shelves, and three APs are provided at appropriate positions. The mobile robot 10 moves in such a room autonomously or by remote control.

この環境に対応する地図画面には、図6に示されるように、通路の画像300、展示棚の画像302〜312、およびAP202〜206に対応するアンテナの画像202a〜206aが描画されている。なお、以下では、通路の画像300や展示棚の画像302を単に通路300や展示棚302のように略記する。   On the map screen corresponding to this environment, as shown in FIG. 6, a passage image 300, display shelf images 302 to 312, and antenna images 202 a to 206 a corresponding to APs 202 to 206 are drawn. In the following, the passage image 300 and the display shelf image 302 are simply abbreviated as the passage 300 and the display shelf 302.

なお、環境は、図6のような屋内環境とは限らず、屋外環境でもよい。その場合、図6に示された展示棚の画像302〜312はビルなどの建造物を、通路の画像300は道路を示すものとなる。   The environment is not limited to the indoor environment as shown in FIG. 6 and may be an outdoor environment. In this case, the display shelf images 302 to 312 shown in FIG. 6 indicate a building such as a building, and the passage image 300 indicates a road.

図7には、図6の地図上に物理的障害物および仮想障害物を配置した障害物付きの地図が示される。遠隔操作装置12で障害物付き地図を表示させる操作が行われると、ディスプレイ30には、メモリ22に記憶された地図情報,位置&移動方向情報,物理的障害物情報および仮想障害物情報に基づいて、図7に示すような障害物付き地図画面が表示される。この障害物付き地図画面には、図6の地図上にさらに、移動ロボット10を示すマーク“R”、物理的障害物を示すマーク“PO”、および仮想障害物を示すマーク“IO”が描画される。仮想障害物には、移動したり変形したり拡大/縮小したりするもの(動的な仮想障害物)と、移動も変形も拡大/縮小もしないもの(静的な仮想障害物)との2種類がある。   FIG. 7 shows a map with obstacles in which physical obstacles and virtual obstacles are arranged on the map of FIG. When an operation for displaying a map with an obstacle is performed by the remote control device 12, the display 30 is based on the map information, the position & moving direction information, the physical obstacle information, and the virtual obstacle information stored in the memory 22. Then, a map screen with obstacles as shown in FIG. 7 is displayed. On the map screen with an obstacle, a mark “R” indicating the mobile robot 10, a mark “PO” indicating a physical obstacle, and a mark “IO” indicating a virtual obstacle are further drawn on the map of FIG. Is done. There are two types of virtual obstacles: those that move, deform, and expand / contract (dynamic virtual obstacles) and those that do not move, deform, and expand / contract (static virtual obstacles). There are types.

たとえば、展示室の右奥手には、展示棚310に隠れてどのアンテナも見通せない領域があり、そこが圏外となっている。この圏外領域は、移動も変形も拡大/縮小もしないため、静的な仮想障害物として検出される。展示室の右奥手に描かれた2つのマーク“IO1”および“IO2”は、このような静的な仮想障害物を示している。   For example, in the right back of the exhibition room, there is an area hidden behind the exhibition shelf 310 from which no antenna can be seen, which is out of range. This out-of-service area is detected as a static virtual obstacle because it does not move, deform, or expand / contract. Two marks “IO1” and “IO2” drawn on the right back of the exhibition room indicate such static virtual obstacles.

また、展示棚312の右手にも圏外領域が生じているが、こちらの圏外領域は、移動はしないものの、付近を通行する人や車両の影響で変形したり拡大/縮小したりするので、動的な仮想障害物として検出される。展示棚312の右手に描かれたマーク“IO5”は、このような動的な仮想障害物を示す。   In addition, an out-of-range area is also generated on the right hand side of the display shelf 312, but this out-of-range area does not move, but it is deformed or enlarged / reduced by the influence of people or vehicles passing nearby, so Detected as a virtual obstacle. A mark “IO5” drawn on the right side of the display shelf 312 indicates such a dynamic virtual obstacle.

一方、通路300から展示棚306に向かって無人搬送車両(以下“車両”)が移動してきており、この車両が物理的障害物として地図上にマーク“PO1”で示されている。また、接近してきた車両に起因する不感帯が展示棚306の手前に発生しつつあり、この拡大する不感帯に対応する動的な仮想障害物を示すマーク“IO3”が、マーク“PO1”の近くに描画されている。   On the other hand, an automated guided vehicle (hereinafter referred to as “vehicle”) is moving from the passage 300 toward the display shelf 306, and this vehicle is indicated by a mark “PO1” on the map as a physical obstacle. In addition, a dead zone due to the approaching vehicle is occurring in front of the display shelf 306, and a mark “IO3” indicating a dynamic virtual obstacle corresponding to this expanding dead zone is near the mark “PO1”. Has been drawn.

また、展示棚308の手前を人が歩いており、この歩行者つまり物理的障害物を示すマーク“PO2”が展示棚308の手前に描画される。さらに、展示棚308の手前には、この歩行者に起因する不感帯が生じており、この移動する不感帯に対応する動的な仮想障害物を示すマーク“IO4”も描画される。   Also, a person is walking in front of the display shelf 308, and a mark “PO2” indicating this pedestrian, that is, a physical obstacle, is drawn in front of the display shelf 308. Furthermore, a dead zone due to the pedestrian is generated in front of the display shelf 308, and a mark “IO4” indicating a dynamic virtual obstacle corresponding to the moving dead zone is also drawn.

図8には、サーバ14のメモリマップが示される。図8を参照して、メモリ42には、保存領域130および一時記憶領域140が形成され、保存領域130には、通信制御プログラム132、位置&移動方向計算プログラム134、障害物領域配置計算プログラム136および地図情報138などが記憶される。通信制御プログラム132は、サーバ14がネットワーク200を通じて移動ロボット10および遠隔操作装置12と通信を行うための制御プログラムであり、図12のステップS11に対応する。位置&移動方向計算プログラム134は、一時記憶領域140に記憶された距離データ(2次元距離情報)142に基づいて移動ロボット10の位置および移動方向を計算するためのプログラムであり、図12のステップS5に対応する。障害物領域配置計算プログラム136は、LRF122,124からの距離データ142に基づいて、移動ロボット10の移動範囲に存在する障害物(物理的障害物および仮想障害物)の領域配置を計算するためのプログラムであり、図12のステップS7およびS9に対応する。地図情報138は、移動ロボット10の移動範囲に対応する地図情報であり、たとえば図6の地図画面に対応する。   FIG. 8 shows a memory map of the server 14. Referring to FIG. 8, a storage area 130 and a temporary storage area 140 are formed in the memory 42. The storage area 130 includes a communication control program 132, a position & movement direction calculation program 134, and an obstacle area arrangement calculation program 136. In addition, map information 138 and the like are stored. The communication control program 132 is a control program for the server 14 to communicate with the mobile robot 10 and the remote control device 12 through the network 200, and corresponds to step S11 in FIG. The position & moving direction calculation program 134 is a program for calculating the position and moving direction of the mobile robot 10 based on the distance data (two-dimensional distance information) 142 stored in the temporary storage area 140. Corresponds to S5. The obstacle area arrangement calculation program 136 is used to calculate the area arrangement of obstacles (physical obstacles and virtual obstacles) existing in the movement range of the mobile robot 10 based on the distance data 142 from the LRFs 122 and 124. This is a program and corresponds to steps S7 and S9 in FIG. The map information 138 is map information corresponding to the movement range of the mobile robot 10, and corresponds to, for example, the map screen of FIG.

一時記憶領域140には、距離データ142、位置&方向情報144、物理的障害物情報146および仮想障害物情報148などが一時記憶される。距離データ142は、LRF122,124から出力されたデータであり、これに基づいて移動ロボット10の位置および移動方向が計算される。また、距離データ142に含まれる2次元距離情報に基づいて、移動ロボット10および物理的障害物の領域配置が計算される。位置&方向情報144は、移動ロボット10(および他の移動体)の位置および移動方向を示す情報であり、移動ロボット10および遠隔操縦装置12の各々に送信される。物理的障害物情報146および仮想障害物情報148は、移動ロボット10の移動範囲に存在する物理的障害物および仮想障害物の領域配置を示す情報であり、移動ロボット10および遠隔操縦装置12の各々に送信される。   In the temporary storage area 140, distance data 142, position & direction information 144, physical obstacle information 146, virtual obstacle information 148, and the like are temporarily stored. The distance data 142 is data output from the LRFs 122 and 124, and the position and moving direction of the mobile robot 10 are calculated based on the data. Further, based on the two-dimensional distance information included in the distance data 142, the area arrangement of the mobile robot 10 and the physical obstacle is calculated. The position & direction information 144 is information indicating the position and moving direction of the mobile robot 10 (and other moving bodies), and is transmitted to each of the mobile robot 10 and the remote control device 12. The physical obstacle information 146 and the virtual obstacle information 148 are information indicating the area arrangement of the physical obstacle and the virtual obstacle existing in the movement range of the mobile robot 10, and each of the mobile robot 10 and the remote control device 12. Sent to.

図9には、遠隔操縦装置12のメモリマップが示される。図9を参照して、メモリ22には、保存領域150および一時記憶領域160が形成され、保存領域150には、通信制御プログラム152、入出力制御プログラム154および地図情報138などが記憶される。通信制御プログラム152は、遠隔操縦装置12がネットワーク200を通じて移動ロボット10およびサーバ14と通信を行うための制御プログラムであり、図14のステップS45に対応する。入出力制御プログラム154は、操作パネル28からの操作入力およびディスプレイ30への画面出力を制御するためのプログラムであり、図14のステップS41,S43およびS49に対応する。地図情報138は、サーバ14に記憶されているものと同じ地図情報である。   FIG. 9 shows a memory map of the remote control device 12. Referring to FIG. 9, storage area 150 and temporary storage area 160 are formed in memory 22, and communication control program 152, input / output control program 154, map information 138, and the like are stored in storage area 150. The communication control program 152 is a control program for the remote control device 12 to communicate with the mobile robot 10 and the server 14 through the network 200, and corresponds to step S45 in FIG. The input / output control program 154 is a program for controlling operation input from the operation panel 28 and screen output to the display 30, and corresponds to steps S41, S43 and S49 in FIG. The map information 138 is the same map information as that stored in the server 14.

一時記憶領域160には、センサ情報162、操作情報164、位置&方向情報144、物理的障害物情報146および仮想障害物情報148が一時記憶される。センサ情報162は、移動ロボット10から受信した情報であり、移動ロボット10に備わるセンサ(40,46,58,70,112aおよび112b)の検出結果を示す。操作情報164は、遠隔操縦装置12自身により行われた操作内容(コマンド)を示す情報であり、移動ロボット10に送信される。位置&方向情報144は、サーバ14から受信した情報であり、移動ロボット10(および他の移動体)の位置および移動方向を示す。物理的障害物情報146および仮想障害物情報148は、サーバ14から受信した情報であり、移動ロボット10の移動範囲に存在する物理的障害物および仮想障害物の領域配置を示す。   In the temporary storage area 160, sensor information 162, operation information 164, position & direction information 144, physical obstacle information 146, and virtual obstacle information 148 are temporarily stored. The sensor information 162 is information received from the mobile robot 10 and indicates detection results of sensors (40, 46, 58, 70, 112a and 112b) provided in the mobile robot 10. The operation information 164 is information indicating an operation content (command) performed by the remote control device 12 itself, and is transmitted to the mobile robot 10. The position & direction information 144 is information received from the server 14 and indicates the position and moving direction of the mobile robot 10 (and other moving bodies). The physical obstacle information 146 and the virtual obstacle information 148 are information received from the server 14 and indicate the area arrangement of the physical obstacle and the virtual obstacle existing in the movement range of the mobile robot 10.

図10には、移動ロボット10のメモリマップが示される。図10を参照して、メモリ84には、保存領域170、一時記憶領域180およびパラメータ領域190が形成され、保存領域170には、通信制御プログラム172、動き制御プログラム174および地図情報138などが記憶される。通信制御プログラム172は、移動ロボット10がネットワーク200を通じて遠隔操縦装置12およびサーバ14と通信を行うための制御プログラムであり、図15のステップS65およびS71に対応する。動き制御プログラム174は、動き制御情報182に基づいて移動ロボット10の動きを制御するためのプログラムであり、図15のステップS75およびS77に対応する。地図情報138は、サーバ14に記憶されているものと同じ地図情報である。   FIG. 10 shows a memory map of the mobile robot 10. Referring to FIG. 10, storage area 170, temporary storage area 180, and parameter area 190 are formed in memory 84, and communication control program 172, motion control program 174, map information 138, and the like are stored in storage area 170. Is done. The communication control program 172 is a control program for the mobile robot 10 to communicate with the remote control device 12 and the server 14 through the network 200, and corresponds to steps S65 and S71 in FIG. The motion control program 174 is a program for controlling the motion of the mobile robot 10 based on the motion control information 182 and corresponds to steps S75 and S77 in FIG. The map information 138 is the same map information as that stored in the server 14.

一時記憶領域180には、センサ情報162、操作情報164、位置&方向情報144,物理的障害物情報146、仮想障害物情報148および動き制御情報182が記憶される。センサ情報162は、移動ロボット10自身に備わるセンサ(40,46,58,70,112aおよび112b)の検出結果を示す情報であり、具体的には、周辺に存在する対象物や壁面までの距離を示す距離情報、周辺を各種カメラで捉えた画像情報、対象物との接触情報、および左右の車輪の速度を示す車輪速情報などが含まれる。操作情報164は、遠隔操縦装置12から受信した情報であり、遠隔操縦装置12により行われた操作内容(コマンド)を示す。位置&方向情報144は、サーバ14から受信した情報であり、移動ロボット10自身(およびその他の移動体)の位置および移動方向を示す。物理的障害物情報146および仮想障害物情報148は、サーバ14から受信した情報であり、移動ロボット10自身の移動範囲に存在する物理的障害物および仮想障害物の領域配置を示す。   The temporary storage area 180 stores sensor information 162, operation information 164, position & direction information 144, physical obstacle information 146, virtual obstacle information 148, and motion control information 182. The sensor information 162 is information indicating the detection result of the sensors (40, 46, 58, 70, 112a and 112b) provided in the mobile robot 10 itself, and specifically, the distance to the object or wall surface existing in the vicinity. Distance information indicating the image, image information obtained by capturing the periphery with various cameras, contact information with the object, wheel speed information indicating the speeds of the left and right wheels, and the like. The operation information 164 is information received from the remote control device 12 and indicates the operation content (command) performed by the remote control device 12. The position & direction information 144 is information received from the server 14 and indicates the position and moving direction of the mobile robot 10 itself (and other moving objects). The physical obstacle information 146 and the virtual obstacle information 148 are information received from the server 14 and indicate the area arrangement of the physical obstacle and the virtual obstacle existing in the movement range of the mobile robot 10 itself.

動き制御情報182は、移動ロボット10自身の動き(各種モータ36a,36b,92〜98および110の動作)を制御するための情報であり、上述したセンサ情報162,操作情報164,位置&方向情報144,物理的障害物情報146および仮想障害物情報148に基づいて生成される。動き制御情報182には、移動(主として右左の車輪モータ36aおよび36bの動作)を制御するための移動制御情報182aと、動作(主として右左の眼球モータ92および94,右左の腕モータ96および98ならびに頭部モータ110の動作)を制御するための動作制御情報182bとが含まれる。   The movement control information 182 is information for controlling the movement of the mobile robot 10 itself (operations of the various motors 36a, 36b, 92 to 98 and 110). The sensor information 162, the operation information 164, and the position & direction information described above. 144, generated based on physical obstacle information 146 and virtual obstacle information 148. The movement control information 182 includes movement control information 182a for controlling movement (mainly operations of the right and left wheel motors 36a and 36b), and operations (mainly right and left eyeball motors 92 and 94, right and left arm motors 96 and 98, and Operation control information 182b for controlling the operation of the head motor 110).

パラメータ領域190には、ユーザによって設定される各種のパラメータ、具体的にはモード192および目標位置194が記憶され、必要に応じて仮の目標位置196がさらに記憶される。モード192には、所定の位置(動かない目標)に向かって移動するモード(通常モード)と、動く目標を追尾するモード(追尾モード)との2種類がある。目標位置194は、目標の位置(座標)を示すパラメータである。仮の目標位置196は、目標への進行方向に障害物がある場合に、目標に代えて設定される仮の目標の位置(座標)を示すパラメータである。   Various parameters set by the user, specifically, the mode 192 and the target position 194 are stored in the parameter area 190, and a temporary target position 196 is further stored as necessary. There are two types of modes 192: a mode that moves toward a predetermined position (a target that does not move) (normal mode) and a mode that tracks a moving target (tracking mode). The target position 194 is a parameter indicating the target position (coordinates). The temporary target position 196 is a parameter indicating a temporary target position (coordinates) set in place of the target when there is an obstacle in the direction of travel to the target.

図11(A)には、物理的障害物情報146の構成例が示される。図11(A)を参照して、物理的障害物情報146には、各物理的障害物PO1,PO2について、その物理的障害物を識別するID、その物理的障害物を検出した時刻、その物理的障害物の地図上での領域配置(位置,サイズ,形状など)、ならびにその物理的障害物の移動方向および速度が記述される。   FIG. 11A shows a configuration example of physical obstacle information 146. Referring to FIG. 11A, the physical obstacle information 146 includes, for each physical obstacle PO1, PO2, an ID for identifying the physical obstacle, the time when the physical obstacle is detected, The area arrangement (position, size, shape, etc.) of the physical obstacle on the map, and the moving direction and speed of the physical obstacle are described.

図11(B)には、仮想障害物情報148の構成例が示される。図11(B)を参照して、仮想障害物情報148には、各仮想障害物IO1〜IO5について、その仮想障害物を識別するID、その仮想障害物を検出した時刻、その仮想障害物の地図上での領域配置(位置,サイズ,形状など)、ならびにその仮想障害物の移動方向および速度(静的な仮想障害物の場合は“固定”)が記述される。   FIG. 11B shows a configuration example of the virtual obstacle information 148. Referring to FIG. 11B, the virtual obstacle information 148 includes, for each virtual obstacle IO1 to IO5, an ID for identifying the virtual obstacle, the time when the virtual obstacle is detected, and the virtual obstacle information. The area layout (position, size, shape, etc.) on the map, and the moving direction and speed of the virtual obstacle (“fixed” in the case of a static virtual obstacle) are described.

なお、遠隔操縦システム100からサーバ14およびこれに付随するLRF122,124等を省略し、移動ロボット10が自身によるセンサ情報に基づいて位置&方向情報144,物理的障害物情報146および仮想障害物情報148を生成するようにしてもよい。または、サーバ14の役割をLRF122,124等からのセンサ情報の収集に限定し、移動ロボット10が自身によるセンサ情報およびサーバ14からのセンサ情報に基づいて位置&方向情報144,物理的障害物情報146および仮想障害物情報148を生成するようにしてもよい。   It should be noted that the server 14 and the LRFs 122 and 124 associated therewith are omitted from the remote control system 100, and the mobile robot 10 has position & direction information 144, physical obstacle information 146, and virtual obstacle information based on its own sensor information. 148 may be generated. Alternatively, the role of the server 14 is limited to the collection of sensor information from the LRFs 122, 124, etc., and the mobile robot 10 is based on the sensor information by itself and the sensor information from the server 14, and the position & direction information 144, physical obstacle information 146 and virtual obstacle information 148 may be generated.

サーバ14のCPU40は、メモリ42に記憶された通信制御プログラム132,位置&移動方向計算プログラム134および障害物領域配置計算プログラム136(図8参照)に基づいて、図12および図13のフローに従う処理を実行する。図12を参照して、まずステップS1で、LRF122,124から距離データ142を取得する。取得した距離データ142は、一時記憶領域140に書き込まれる。なお、サーバ14にカメラを接続する場合には、さらにカメラから画像データが取得されて一時記憶領域140に書き込まれる。   The CPU 40 of the server 14 performs processing according to the flow of FIGS. 12 and 13 based on the communication control program 132, the position & movement direction calculation program 134, and the obstacle area arrangement calculation program 136 (see FIG. 8) stored in the memory 42. Execute. Referring to FIG. 12, first, distance data 142 is acquired from LRFs 122 and 124 in step S1. The acquired distance data 142 is written in the temporary storage area 140. Note that when a camera is connected to the server 14, image data is further acquired from the camera and written to the temporary storage area 140.

一時記憶領域140には、前回の距離データ142も記憶されており、ステップS3では、今回取得した距離データ142を前回の距離データ142と比較して、変化があるか否かを判別し、ここでNOであればステップS1に戻る。なお、今回が初回の場合は、変化ありと見なされ、ステップS3の判別結果はYESとなる。ステップS3でYESであれば、ステップS5に進んで、今回の距離データ142および前回の距離データ142に基づいて移動ロボット10の位置および移動方向を計算する。この計算結果は、位置&方向情報144として一時記憶領域140に書き込まれる。   In the temporary storage area 140, the previous distance data 142 is also stored. In step S3, the distance data 142 acquired this time is compared with the previous distance data 142 to determine whether there is a change. If NO, the process returns to step S1. If this is the first time, it is considered that there is a change, and the determination result in step S3 is YES. If “YES” in the step S 3, the process proceeds to a step S 5 to calculate the position and the moving direction of the mobile robot 10 based on the current distance data 142 and the previous distance data 142. This calculation result is written in the temporary storage area 140 as position & direction information 144.

次に、ステップS7で、保存領域130に記憶された地図情報138および一時記憶領域140に記憶された距離データ142に含まれる2次元距離情報(さらにはカメラからの画像データ)に基づいて物理的障害物の領域配置を計算する。この計算結果は、物理的障害物情報146として一時記憶領域140に書き込まれる。次のステップS9では、保存領域130に記憶された地図情報138および一時記憶領域140に記憶された物理的障害物情報146に基づいて仮想障害物の領域配置を計算する(詳細は後述)。この計算結果は、仮想障害物情報148として一時記憶領域140に書き込まれる。   Next, in step S7, physical information is obtained based on the map information 138 stored in the storage area 130 and the two-dimensional distance information (and image data from the camera) included in the distance data 142 stored in the temporary storage area 140. Calculate the area layout of the obstacle. This calculation result is written in the temporary storage area 140 as physical obstacle information 146. In the next step S9, the area arrangement of the virtual obstacle is calculated based on the map information 138 stored in the storage area 130 and the physical obstacle information 146 stored in the temporary storage area 140 (details will be described later). This calculation result is written in the temporary storage area 140 as virtual obstacle information 148.

そしてステップS11で、一時記憶領域140に記憶された位置&方向情報144,物理的障害物情報146および仮想障害物情報148を、通信LANボード44を介して通信回路46から移動ロボット10および遠隔操縦装置12の各々に送信する。その後、ステップS1に戻って上記と同様の処理を繰り返す。   In step S 11, the position & direction information 144, the physical obstacle information 146 and the virtual obstacle information 148 stored in the temporary storage area 140 are transmitted from the communication circuit 46 via the communication LAN board 44 to the mobile robot 10 and remote control. Transmit to each of the devices 12. Then, it returns to step S1 and repeats the same process as the above.

これにより、移動ロボット10は、移動ロボット10自身の位置および移動方向を知ることができるので、自律的な移動が行える。また、遠隔操縦装置12を操作するオペレータは、移動ロボット10の位置および移動方向を知ることができるので、移動ロボット10の遠隔操縦が行える。なお、遠隔操縦システム100からサーバ14を省略して、移動ロボット10自身がセンサ情報156に基づいて位置および移動方向を計算してもよい。遠隔操縦装置12には、この計算結果(位置&方向情報144)が送信される。   Thereby, since the mobile robot 10 can know the position and moving direction of the mobile robot 10 itself, the mobile robot 10 can move autonomously. In addition, since the operator who operates the remote control device 12 can know the position and moving direction of the mobile robot 10, the mobile robot 10 can be remotely controlled. The server 14 may be omitted from the remote control system 100, and the mobile robot 10 itself may calculate the position and the moving direction based on the sensor information 156. This calculation result (position & direction information 144) is transmitted to the remote control device 12.

上記ステップS9つまり仮想障害物の領域配置の計算は、詳しくは図13のフローに従って実行される。図13を参照して、CPU40は、最初、ステップS21で、地図情報138に基づく地図上に、物理的障害物情報146に基づく物理的障害物を配置し、次に、ステップS23で、その地図を、たとえば図17(A)に示すように格子状に分割した後、ステップS25に進む。   The above-described step S9, that is, the calculation of the area arrangement of the virtual obstacle is executed in detail according to the flow of FIG. Referring to FIG. 13, CPU 40 first arranges a physical obstacle based on physical obstacle information 146 on a map based on map information 138 in step S21, and then, in step S23, the map. For example, as shown in FIG. 17A, the process proceeds to step S25.

ステップS25では、地図上で、各アンテナ202a〜206aから各格子点に至る電波を追跡(レイトレーシング)して、各格子点における電界強度を計算する。次のステップS27では、その計算結果つまり各格子点における電界強度に基づいて、電界強度が閾値を下回る格子点群を囲む領域を検出する。   In step S25, radio waves from each antenna 202a to 206a to each lattice point are traced (ray tracing) on the map, and the electric field strength at each lattice point is calculated. In the next step S27, based on the calculation result, that is, the electric field strength at each lattice point, a region surrounding the lattice point group whose electric field strength is below the threshold is detected.

たとえば、地図上のある区画において、図17(B)に示すように25個の格子点(1,1)〜(5,5)が定義されており、そのうち隣接する7個の格子点(2,2),(3,2),(2,3),(3,3),(4,3),(3,4)および(4,4)で電界強度が閾値を下回ったとすると、これら7個の格子点群を囲む領域IOiが検出される。なお、どの格子点の電界強度も閾値以上であるか、または、電界強度が閾値を下回る格子点があっても、それらの配置が離散的である場合には、該当領域なしとみなされる。   For example, in a certain section on the map, 25 grid points (1, 1) to (5, 5) are defined as shown in FIG. 17B, and 7 adjacent grid points (2 , 2), (3, 2), (2, 3), (3, 3), (4, 3), (3,4) and (4, 4) A region IOi surrounding the seven lattice point groups is detected. In addition, even if there is a grid point where the electric field strength of any grid point is equal to or higher than the threshold value or the electric field strength is lower than the threshold value, if the arrangement is discrete, it is considered that there is no corresponding region.

次に、こうして検出された領域のサイズが閾値より大であるか否かをステップS29で判別する。なお、閾値は、検出領域の形状を楕円形とみなして、長径2m,短径1mなどのように決められる。ステップS29でNOであれば、ステップS39でその領域に対応する登録情報を抹消(対応する登録情報がなければ素通り)する。その後、上位のフロー(図12参照)に戻る。ステップS29でYESであれば、ステップS31に進む。   Next, it is determined in step S29 whether or not the size of the area thus detected is larger than a threshold value. The threshold value is determined such that the major axis is 2 m, the minor axis is 1 m, etc., assuming that the shape of the detection region is an ellipse. If “NO” in the step S29, the registration information corresponding to the area is deleted (passing if there is no corresponding registration information) in a step S39. Thereafter, the process returns to the upper flow (see FIG. 12). If “YES” in the step S29, the process proceeds to a step S31.

ステップS31では、検出された領域を仮想障害物とみなして、その検出時刻および領域配置(位置,形状,サイズなど)を仮想障害物情報148(図10参照)に登録(または登録済みの情報を更新)する。次のステップS33では、検出された領域が移動しているか否かを仮想障害物情報148に登録された位置の変化に基づいて判別し、ここYESであれば、その位置変化から計算される移動方向/速度をステップS35で仮想障害物情報148にさらに登録する。ステップS33でNOであれば、移動方向/速度に代えて“固定”をステップS37で仮想障害物情報148にさらに登録する。こうして移動方向/速度または“固定”を登録した後、上位のフローに戻る。   In step S31, the detected area is regarded as a virtual obstacle, and its detection time and area arrangement (position, shape, size, etc.) are registered in the virtual obstacle information 148 (see FIG. 10) (or registered information is registered). Update. In the next step S33, it is determined whether or not the detected area is moving based on the change in the position registered in the virtual obstacle information 148. If YES here, the movement calculated from the position change is determined. The direction / speed is further registered in the virtual obstacle information 148 in step S35. If “NO” in the step S33, “fixed” is further registered in the virtual obstacle information 148 in a step S37 instead of the moving direction / speed. After registering the moving direction / speed or “fixed” in this way, the process returns to the upper flow.

遠隔操縦装置12のCPU20は、メモリ22に記憶された通信制御プログラム152および入出力制御プログラム154(図9参照)に基づいて、図14のフローに従う制御処理を実行する。図14を参照して、まずステップS41で、ディスプレイ30に障害物付き地図画面(図7参照)を初期表示し、次に、ステップS43で、操作パネル28への操作入力があったか否かを判別して、NOであればステップS47に進む。ステップS43でYESであれば、ステップS45で、その操作入力の内容を示す操作情報を、通信LANボード24を介して通信回路26から移動ロボット10に送信した後、ステップS47に進む。   The CPU 20 of the remote control device 12 executes control processing according to the flow of FIG. 14 based on the communication control program 152 and the input / output control program 154 (see FIG. 9) stored in the memory 22. Referring to FIG. 14, first, at step S41, a map screen with an obstacle (see FIG. 7) is initially displayed on display 30, and then at step S43, it is determined whether or not there is an operation input to operation panel 28. If NO, the process proceeds to step S47. If “YES” in the step S43, operation information indicating the contents of the operation input is transmitted from the communication circuit 26 to the mobile robot 10 via the communication LAN board 24 in a step S45, and then, the process proceeds to a step S47.

ステップS47では、通信LANボード24によって移動ロボット10またはサーバ14から各種の情報(センサ情報,位置&方向情報144,物理的障害物情報146,仮想障害物情報148)が受信されたか否かを判別し、NOであればステップS43に戻る。ステップS47でYESであれば、ステップS49でディスプレイ30の障害物付き地図画面を受信情報に基づいて更新した後、ステップS43に戻る。そして、上記と同様の処理を繰り返す。   In step S47, it is determined whether various information (sensor information, position & direction information 144, physical obstacle information 146, virtual obstacle information 148) is received from the mobile robot 10 or the server 14 by the communication LAN board 24. If NO, the process returns to step S43. If “YES” in the step S47, the map screen with an obstacle on the display 30 is updated based on the received information in a step S49, and then, the process returns to the step S43. Then, the same processing as described above is repeated.

これによって、ディスプレイ30には、移動ロボット10からのセンサ情報、ならびにサーバ14からの位置&方向情報144,物理的障害物情報146および仮想障害物情報148を視覚的に示す障害物付き地図画面が、リアルタイムに表示される。オペレータは、この画面を見ながら、必要に応じて操作パネル28を操作して、移動ロボット10の遠隔制御を行うことができる。   Thus, the display 30 has a map screen with obstacles that visually shows sensor information from the mobile robot 10, position & direction information 144 from the server 14, physical obstacle information 146, and virtual obstacle information 148. Displayed in real time. The operator can perform remote control of the mobile robot 10 by operating the operation panel 28 as necessary while viewing this screen.

移動ロボット10のCPU80は、通信制御プログラム172および動き制御プログラム174(図10参照)に基づいて、図15および図16のフローに従う制御処理を実行する。図15を参照して、最初、ステップS61で、初期処理を行う。初期処理には、一時記憶領域180の初期化、およびパラメータ領域190に記憶された各種パラメータ(モード192,目標位置194および仮の目標位置196)の初期設定といった処理が含まれる。   The CPU 80 of the mobile robot 10 executes control processing according to the flow of FIGS. 15 and 16 based on the communication control program 172 and the motion control program 174 (see FIG. 10). Referring to FIG. 15, first, initial processing is performed in step S61. The initial processing includes processing such as initialization of the temporary storage area 180 and initial setting of various parameters (mode 192, target position 194 and temporary target position 196) stored in the parameter area 190.

モード192の初期設定では、たとえば遠隔操縦装置12の操作パネル28を介して、通常モードおよび追尾モードのいずれか1つがユーザにより選択され、その選択されたモードが記憶される。目標位置194の初期設定では、通常モードの場合、任意の位置がユーザによって指定され、その指定された位置を示す座標が記憶される。一方、追尾モードの場合には、任意の目標(人物,車両など)がユーザによって指定され、その指定された目標の初期位置を示す座標が記憶される。仮の目標位置196の初期設定では、“未設定”が記憶される。   In the initial setting of the mode 192, for example, one of the normal mode and the tracking mode is selected by the user via the operation panel 28 of the remote control device 12, and the selected mode is stored. In the initial setting of the target position 194, in the normal mode, an arbitrary position is designated by the user, and coordinates indicating the designated position are stored. On the other hand, in the tracking mode, an arbitrary target (person, vehicle, etc.) is designated by the user, and coordinates indicating the initial position of the designated target are stored. In the initial setting of the temporary target position 196, “not set” is stored.

初期処理が完了すると、ステップS63に進んで、各種センサ(40,46,58,70,112aおよび112b)からセンサ情報を取得する。次のステップS65では、こうして取得したセンサ情報に基づいて、一時記憶領域180に記憶されたセンサ情報162を更新する。更新後のセンサ情報162は、通信LANボード114を介して、無線通信回路116によりアンテナ118で遠隔操縦装置12に送信される。その後、ステップS67に進む。   When the initial process is completed, the process proceeds to step S63, and sensor information is acquired from various sensors (40, 46, 58, 70, 112a and 112b). In the next step S65, the sensor information 162 stored in the temporary storage area 180 is updated based on the sensor information thus obtained. The updated sensor information 162 is transmitted to the remote control device 12 by the wireless communication circuit 116 via the communication LAN board 114 via the antenna 118. Thereafter, the process proceeds to step S67.

ステップS67では、サーバ14から各種の情報(位置&方向情報144,物理的障害物情報146および仮想障害物情報148)を受信したか否かを判別し、NOであればステップS71に進む。ステップS67でYESであれば、ステップS69で、一時記憶領域180に記憶された位置&方向情報144,物理的障害物情報146および仮想障害物情報148を受信情報に基づいて更新した後、ステップS71に進む。   In step S67, it is determined whether or not various types of information (position & direction information 144, physical obstacle information 146, and virtual obstacle information 148) are received from the server 14. If NO, the process proceeds to step S71. If “YES” in the step S67, the position & direction information 144, the physical obstacle information 146, and the virtual obstacle information 148 stored in the temporary storage area 180 are updated based on the received information in a step S69, and then the step S71. Proceed to

ステップS71では、遠隔操縦装置12から操作情報を受信したか否かを判別し、NOであればステップS75に進む。ステップS71でYESであれば、ステップS73で、一時記憶領域180に記憶された操作情報164を受信情報に基づいて更新した後、ステップS75に進む。   In step S71, it is determined whether or not operation information has been received from the remote control device 12. If NO, the process proceeds to step S75. If “YES” in the step S71, the operation information 164 stored in the temporary storage area 180 is updated based on the received information in a step S73, and then, the process proceeds to a step S75.

ステップS75では、センサ情報162,操作情報164,位置&方向情報144,物理的障害物情報146および仮想障害物情報148に基づいて動き制御情報182を生成し、そしてステップS77で、この動き制御情報182に基づいて各種モータ(92〜98,110,36aおよび36b)を駆動する。その後、ステップS63に戻って上記と同様の処理を繰り返す。これによって、移動ロボット10の様々な動き、たとえば先述したような移動やコミュニケーション行動などが実現される。   In step S75, motion control information 182 is generated based on sensor information 162, operation information 164, position & direction information 144, physical obstacle information 146 and virtual obstacle information 148, and in step S77, the motion control information Based on 182, various motors (92 to 98, 110, 36 a and 36 b) are driven. Then, it returns to step S63 and repeats the same process as the above. As a result, various movements of the mobile robot 10, such as movement and communication behavior as described above, are realized.

上記ステップS75で生成される動き制御情報182には、移動制御情報182aおよび動作制御情報182bが含まれており、このうち移動制御情報182aは、たとえば図16に示すフローに従って生成される。なお、動作制御情報182bについての説明は省略する。   The motion control information 182 generated in step S75 includes movement control information 182a and operation control information 182b. Of these, the movement control information 182a is generated, for example, according to the flow shown in FIG. Note that description of the operation control information 182b is omitted.

図16を参照して、最初のステップS91では、現時点のモード、つまりパラメータ領域190に記憶されたモード192が、追尾モードを示すか否かを判別する。ここでNO、つまりモード192が通常モードを示す場合には、ステップS95に進む。ステップS91でYESであれば、ステップS93で目標位置194を追尾相手の現在位置に更新した後、ステップS95に進む。なお、追尾相手の現在位置は、一時記憶領域180に記憶された位置&方向情報144から抽出される。   Referring to FIG. 16, in the first step S91, it is determined whether or not the current mode, that is, the mode 192 stored in the parameter area 190 indicates the tracking mode. If NO here, that is, if the mode 192 indicates the normal mode, the process proceeds to step S95. If “YES” in the step S91, the target position 194 is updated to the current position of the tracking partner in a step S93, and then the process proceeds to the step S95. Note that the current position of the tracking partner is extracted from the position & direction information 144 stored in the temporary storage area 180.

ステップS95では、目標位置194までの距離、つまり移動ロボット10自身と追尾相手との間の距離が、閾値(たとえば1m)以内か否かを判別し、ここでYESであれば、処理はステップS109(後述)に分岐する。   In step S95, it is determined whether or not the distance to the target position 194, that is, the distance between the mobile robot 10 itself and the tracking partner is within a threshold (for example, 1 m). If YES here, the process proceeds to step S109. Branch to (described later).

なお、ステップS95の判別で用いる閾値は、固定値とは限らず、可変値であってもよい。たとえば、閾値を1つのパラメータとしてパラメータ領域190に記憶し、ステップS61の初期処理を通じて、環境に応じた値(たとえば屋外では2m,屋内では1mなど)を設定してもよい。   Note that the threshold used in the determination in step S95 is not limited to a fixed value, and may be a variable value. For example, the threshold value may be stored in the parameter area 190 as one parameter, and a value corresponding to the environment (for example, 2 m outdoors, 1 m indoors, etc.) may be set through the initial processing in step S61.

ステップS95でNOであれば、ステップS97で、位置&方向情報144を参照して、移動ロボット10自身の位置および目標位置194から進行すべき方向を計算する。次のステップS99では、計算した進行方向に固定障害物があるか否かを地図情報138および仮想障害物情報148に基づいて判別する。ここで、固定障害物とは、具体的には、地図情報138に記載された静的な物理的障害物(屋外地図の場合は建物や道路など、間取り図の場合は壁面や展示棚など。固定的に決められた通行禁止区域も含めてよい)、および仮想障害物情報148に登録された“固定”障害物(静的な仮想障害物、および動的な仮想障害物のうち移動しないもの)のいずれかに該当する物または領域をいう。   If “NO” in the step S95, the position and direction information 144 are referred to in a step S97 to calculate the position to be traveled from the position of the mobile robot 10 itself and the target position 194. In the next step S99, it is determined based on the map information 138 and the virtual obstacle information 148 whether there is a fixed obstacle in the calculated traveling direction. Here, the fixed obstacle is specifically a static physical obstacle described in the map information 138 (a building or a road in the case of an outdoor map, a wall surface or an exhibition shelf in the case of a floor plan). Fixed fixed prohibited areas may be included), and “fixed” obstacles registered in virtual obstacle information 148 (static virtual obstacles and dynamic virtual obstacles that do not move) ) Refers to an object or area falling under any of the following.

ステップS97で計算した進行方向に上記のような固定障害物が存在する場合には、ステップS99でYESと判別して、ステップS105(後述)に進む。一方、計算した進行方向に上記のような固定障害物が存在しない場合には、ステップS99でNOと判別して、ステップS101に進む。ステップS101では、計算した進行方向に移動障害物があるか否かを物理的障害物情報146および仮想障害物情報148に基づいて判別する。ここで、移動障害物とは、具体的には、物理的障害物情報146に登録された動的な物理的障害物、および仮想障害物情報148に登録された“移動”障害物(動的な仮想障害物のうち移動するもの)のいずれかに該当する物または領域をいう。   If there is a fixed obstacle as described above in the traveling direction calculated in step S97, YES is determined in step S99, and the process proceeds to step S105 (described later). On the other hand, if there is no fixed obstacle as described above in the calculated traveling direction, NO is determined in the step S99, and the process proceeds to the step S101. In step S101, it is determined based on the physical obstacle information 146 and the virtual obstacle information 148 whether there is a moving obstacle in the calculated traveling direction. Here, the moving obstacle is specifically a dynamic physical obstacle registered in the physical obstacle information 146 and a “moving” obstacle registered in the virtual obstacle information 148 (dynamic Or an area corresponding to any one of the virtual obstacles that move).

ステップS97で計算した進行方向に上記のような移動障害物が存在しない場合には、ステップS101でNOと判別して、ステップS107(後述)に進む。一方、計算した進行方向に上記のような移動障害物が存在する場合には、ステップS101でYESと判別して、ステップS103に進む。ステップS103では、位置&方向情報144から抽出される移動ロボット10自身の速度と、物理的障害物情報146または仮想障害物情報148から抽出されるその移動障害物の速度とに基づいて、その移動障害物への到達予想時間を計算し、その計算した到達予想時間が閾値以上か否かを判別する。なお、到達予想時間は、たとえば、通信環境の悪化による影響がロボット制御の安全上許容される時間を基に、移動ロボット10自身の移動速度およびその移動障害物の移動速度の、2つの移動速度の関数として設定される。ステップS103でNOであればステップS105に進む一方、YESであればステップS107に進む。   If there is no moving obstacle as described above in the traveling direction calculated in step S97, NO is determined in step S101, and the process proceeds to step S107 (described later). On the other hand, if there is a moving obstacle as described above in the calculated traveling direction, YES is determined in the step S101, and the process proceeds to the step S103. In step S103, based on the speed of the mobile robot 10 extracted from the position & direction information 144 and the speed of the moving obstacle extracted from the physical obstacle information 146 or the virtual obstacle information 148, the movement is performed. The estimated arrival time to the obstacle is calculated, and it is determined whether or not the calculated estimated arrival time is equal to or greater than a threshold value. Note that the estimated arrival time has two movement speeds, for example, the movement speed of the mobile robot 10 itself and the movement speed of the moving obstacle based on the time when the influence of the deterioration of the communication environment is allowed for the safety of the robot control. Is set as a function of If NO in step S103, the process proceeds to step S105, and if YES, the process proceeds to step S107.

ステップS105では、その移動障害物を避ける仮の目標位置196を設定する。好ましくは、仮の目標位置196は、これに基づいて新たに計算される進行方向と、ステップS97で計算した進行方向との差分が、その移動障害物を回避可能な範囲で極力小さくなるような位置に設定される。これにより、迂回路をできるだけ短くすることができる。設定の後、ステップS97に戻って上記と同様の処理を繰り返す。なお、仮の目標位置196が設定された状態で実行されるステップS97では、目標位置194に代えて、仮の目標位置196を用いて計算する。   In step S105, a temporary target position 196 that avoids the moving obstacle is set. Preferably, the temporary target position 196 is such that the difference between the traveling direction newly calculated based on this and the traveling direction calculated in step S97 is as small as possible within the range in which the moving obstacle can be avoided. Set to position. Thereby, a detour can be made as short as possible. After the setting, the process returns to step S97 and the same processing as described above is repeated. In step S97 executed in a state where the temporary target position 196 is set, the calculation is performed using the temporary target position 196 instead of the target position 194.

ステップS107では、ステップS97で計算した進行方向への移動を示す移動制御情報182aを生成する。具体的には、ステップS97で計算した進行方向が、位置&方向情報144から抽出される移動ロボット10自身の現在の進行方向と一致していれば、右左の車輪モータ36aおよび36bの回転を現状維持させる移動制御情報182aを生成する。一方、計算した進行方向が現在の進行方向と異なっていれば、両者が一致するように右左の車輪モータ36aおよび36bの回転を変化させる移動制御情報182aを生成する。生成の後、上位のフロー(図15参照)に復帰する。   In step S107, movement control information 182a indicating movement in the traveling direction calculated in step S97 is generated. Specifically, if the traveling direction calculated in step S97 coincides with the current traveling direction of the mobile robot 10 itself extracted from the position & direction information 144, the rotation of the right and left wheel motors 36a and 36b is changed to the current state. The movement control information 182a to be maintained is generated. On the other hand, if the calculated traveling direction is different from the current traveling direction, movement control information 182a for changing the rotations of the right and left wheel motors 36a and 36b is generated so that they coincide with each other. After generation, the flow returns to the upper flow (see FIG. 15).

ステップS95でYESと判別された場合の処理は、以下のようになる。ステップS109では、目標位置194が仮の目標位置196であるか否か(つまり仮の目標位置196が設定されている状態か否か)を判別し、ここでYESであれば、仮の目標位置196を元の目標位置194に戻した後(つまり仮の目標位置196を削除した後)、ステップS97に戻る。したがって、次回のステップS97では、目標位置194が参照される。ステップS109でNOであれば、ステップS113で移動停止を示す移動制御情報182aを生成した後、上位のフローに復帰する。   The processing in the case where YES is determined in the step S95 is as follows. In step S109, it is determined whether or not the target position 194 is the temporary target position 196 (that is, whether or not the temporary target position 196 is set). After returning 196 to the original target position 194 (that is, after deleting the temporary target position 196), the process returns to step S97. Therefore, in the next step S97, the target position 194 is referred to. If “NO” in the step S109, the movement control information 182a indicating the movement stop is generated in a step S113, and then the process returns to the upper flow.

なお、図示はしていないが、図16のような移動方向の制御と同時に、移動速度の制御も、近隣障害物との距離,モード,周囲状況等に応じて適宜行われている。   Although not shown, the movement speed is controlled as appropriate according to the distance to the nearby obstacle, the mode, the surrounding situation, and the like simultaneously with the movement direction control as shown in FIG.

なお、物理的障害物は、この実施例では、LRF122,124によって検出したが、これに代えてレーダ,赤外線測距,カメラ画像の立体視処理などによって検出してもよく、これらの適宜な組み合わせによって検出してもよい。   In this embodiment, the physical obstacle is detected by the LRFs 122 and 124. Alternatively, the physical obstacle may be detected by radar, infrared distance measurement, stereoscopic image processing of the camera image, or the like, and an appropriate combination thereof. You may detect by.

一方、仮想障害物は、この実施例では、地図情報138および物理的障害物情報146を基にしたレイトレーシングの手法であるレイラウンチング法やイメージング法によって検出(予測)したが、これに限らず様々なレイトレーシングの手法やFDTD(Finite Difference Time Domain)法などの様々な電磁界解析手法を用いても予測できるほか、近隣障害物との距離や移動速度、周囲状況、電波の周波数など条件に応じてこれらを組み合わせて予測することもできる。または、移動体の位置と不感帯の発生確率,無線リソースへの影響量などとの間の関係を示す実測データを収集し、過去の実測データから統計的手法などにより予測することもできる。あるいは、電磁界解析手法や統計的手法などを用いた計算によって予測する以外に、環境に配置されたセンサや移動体に搭載されたセンサからもたらされる実測情報に基づいて検出してもよいし、計算による予測とセンサによる実測とを組み合わせて検出してもよい。   On the other hand, in this embodiment, the virtual obstacle is detected (predicted) by the ray launching method or the imaging method, which is a ray tracing method based on the map information 138 and the physical obstacle information 146, but is not limited thereto. It can be predicted using various ray tracing methods and various electromagnetic field analysis methods such as the FDTD (Finite Difference Time Domain) method, as well as conditions such as distance to nearby obstacles, moving speed, ambient conditions, radio frequency, etc. Accordingly, it is possible to predict by combining these. Alternatively, it is possible to collect actual measurement data indicating the relationship between the position of the moving object and the occurrence probability of the dead zone, the influence amount on the radio resource, and the like, and predict it from the past actual measurement data by a statistical method or the like. Alternatively, in addition to predicting by calculation using an electromagnetic field analysis method or a statistical method, detection may be performed based on actual measurement information provided from a sensor placed in an environment or a sensor mounted on a moving body, You may detect combining the prediction by calculation, and the measurement by a sensor.

また、この実施例では仮想障害物の判定に電界強度を用いているが、より高度な判定方法として、電界強度に代えてノイズ源の位置や伝搬路情報などから求められる信号対ノイズ比や所望波干渉波比を用いることも可能である。そのほかにも、これら物理的に決まる情報とエラー訂正能力などのシステムパラメータから計算したビット誤り率やパケットエラー率などの指標を用いることも可能である。   In this embodiment, the electric field strength is used for the determination of the virtual obstacle. However, as a more advanced determination method, the signal-to-noise ratio obtained from the position of the noise source, propagation path information, etc., or a desired method can be used instead of the electric field strength. It is also possible to use a wave interference wave ratio. In addition, it is also possible to use an index such as a bit error rate or a packet error rate calculated from these physically determined information and system parameters such as error correction capability.

以上から明らかなように、この実施例の移動ロボット遠隔操縦システム100は、移動ロボット10、遠隔操縦装置12、サーバ14、AP202〜206およびセンサ(122,124,40,46,58,70,112a,112b)を含む。遠隔操縦装置12およびサーバ14はそれぞれネットワーク200に接続され、移動ロボット10はAP202〜206を介してネットワーク200に接続される。移動ロボット10にはセンサの一部(40,46,58,70,112a,112b)が設けられ、サーバ14にはセンサの他の一部(122,124)が接続される。移動ロボット10,遠隔操縦装置12およびサーバ14の保存領域170,130および150には、静的な物理的障害物302〜312の配置を記述した地図情報138(図6参照)が記憶される。   As is apparent from the above, the mobile robot remote control system 100 of this embodiment includes the mobile robot 10, the remote control device 12, the server 14, the APs 202 to 206, and the sensors (122, 124, 40, 46, 58, 70, 112a). 112b). The remote control device 12 and the server 14 are each connected to the network 200, and the mobile robot 10 is connected to the network 200 via the APs 202 to 206. The mobile robot 10 is provided with a part of sensors (40, 46, 58, 70, 112a, 112b), and the server 14 is connected with another part of sensors (122, 124). In the storage areas 170, 130, and 150 of the mobile robot 10, the remote control device 12, and the server 14, map information 138 (see FIG. 6) describing the arrangement of static physical obstacles 302 to 312 is stored.

サーバ14のCPU40は、センサ(122,124,40,46,58,70,112a,112b)からのセンサ情報に基づいて、地図情報138に対応する区域での移動ロボット10の位置および移動方向を検出する(S1,S5)。また、地図情報138に対応する区域内で移動する動的な物理的障害物PO1,PO2(図7参照)の位置および移動方向をさらに検出し、検出結果に基づいて動的な物理的障害物PO1,PO2の少なくとも位置を示す物理的障害物情報146を作成する(S7)。検出結果を示す位置&移動方向情報144および作成された物理的障害物情報146は、ネットワーク200を通じて移動ロボット10および遠隔操縦装置14に送信され、この結果、移動ロボット10,遠隔操縦装置12およびサーバ14の一時記憶領域180,140および160に位置&移動方向情報144および物理的障害物情報146が記憶される。   The CPU 40 of the server 14 determines the position and moving direction of the mobile robot 10 in the area corresponding to the map information 138 based on the sensor information from the sensors (122, 124, 40, 46, 58, 70, 112a, 112b). Detect (S1, S5). Further, the position and moving direction of the dynamic physical obstacles PO1 and PO2 (see FIG. 7) that move within the area corresponding to the map information 138 are further detected, and the dynamic physical obstacle is detected based on the detection result. Physical obstacle information 146 indicating at least the positions of PO1 and PO2 is created (S7). The position & moving direction information 144 indicating the detection result and the created physical obstacle information 146 are transmitted to the mobile robot 10 and the remote control device 14 through the network 200. As a result, the mobile robot 10, the remote control device 12 and the server are transmitted. In the 14 temporary storage areas 180, 140 and 160, position & moving direction information 144 and physical obstacle information 146 are stored.

サーバ14のCPU40はさらに、地図情報138および物理的障害物情報146に基づいて、地図情報138に対応する区域内で発生する静的な通信障害領域IO1,IO2(図7参照)および当該地図情報138に対応する区域内で発生しかつ移動する動的な通信障害領域IO3〜IO5(図7参照)について少なくとも位置を示す仮想障害物情報148を作成する(S9)。作成された仮想障害物情報148は、ネットワーク200を通じて移動ロボット10および遠隔操縦装置12に送信され、この結果、移動ロボット10,遠隔操縦装置12およびサーバ14の一時記憶領域180,140および160に仮想障害物情報148がさらに記憶される。   The CPU 40 of the server 14 further, based on the map information 138 and the physical obstacle information 146, static communication failure areas IO1 and IO2 (see FIG. 7) that occur in the area corresponding to the map information 138 and the map information. The virtual obstacle information 148 indicating at least the position of the dynamic communication failure areas IO3 to IO5 (see FIG. 7) generated and moved in the area corresponding to 138 is created (S9). The created virtual obstacle information 148 is transmitted to the mobile robot 10 and the remote control device 12 through the network 200. As a result, the virtual obstacle information 148 is virtually stored in the temporary storage areas 180, 140, and 160 of the mobile robot 10, the remote control device 12, and the server 14. Obstacle information 148 is further stored.

遠隔操縦装置12のCPU20は、地図情報138,位置&方向情報144,物理的障害物情報146および仮想障害物情報148に基づいて、たとえば図7のような障害物付き地図画面をディスプレイ30に表示し(S41,S49)、操作パネル28による操作を受け付け(S43)、移動ロボット10に操作情報164を送信する(S45)。   The CPU 20 of the remote control device 12 displays a map screen with an obstacle as shown in FIG. 7 on the display 30 based on the map information 138, the position & direction information 144, the physical obstacle information 146, and the virtual obstacle information 148, for example. Then (S41, S49), the operation by the operation panel 28 is accepted (S43), and the operation information 164 is transmitted to the mobile robot 10 (S45).

移動ロボット10のCPU80は、地図情報138,位置&移動方向情報144,物理的障害物情報146,仮想障害物情報148および操作情報164に基づいて、静的な物理的障害物302〜312、動的な物理的障害物PO1,PO2、静的な仮想障害物IO1,IO2および動的な仮想障害物IO3〜IO5を回避するように移動ロボット10を移動させる移動制御情報182aを作成する(S75,S105)。   Based on the map information 138, the position & movement direction information 144, the physical obstacle information 146, the virtual obstacle information 148, and the operation information 164, the CPU 80 of the mobile robot 10 performs static physical obstacles 302 to 312, The movement control information 182a for moving the mobile robot 10 so as to avoid the physical obstacles PO1 and PO2, the static virtual obstacles IO1 and IO2, and the dynamic virtual obstacles IO3 to IO5 is created (S75, S105).

これにより、静的な不感帯や圏外領域に加えて、時間的に変化する不感帯が点在する環境でも、高い通信品質の維持が可能となり、簡単な構成で移動体を安全に遠隔操縦できるようになる。   As a result, in addition to static dead zones and out-of-service areas, it is possible to maintain high communication quality even in an environment where time-sensitive dead zones are scattered, so that mobile devices can be remotely controlled safely with a simple configuration. Become.

なお、この実施例では、サーバ14を用いたが、遠隔操縦装置12がサーバ14の機能を兼ねてもよい。ただし、サーバ14を用いることで、多数の移動ロボット10を遠隔操縦する場合の制御が容易になる。また、この実施例では、ネットワーク200(およびこれに設けられたAP202〜206)を介して遠隔操縦を行ったが、Bluetooth(登録商標)などの近距離無線通信により直接、移動ロボット10を遠隔操縦してもよい。   In this embodiment, the server 14 is used, but the remote control device 12 may also function as the server 14. However, the use of the server 14 facilitates control when a large number of mobile robots 10 are remotely controlled. In this embodiment, remote control is performed via the network 200 (and APs 202 to 206 provided therein). However, the mobile robot 10 is directly controlled by short-range wireless communication such as Bluetooth (registered trademark). May be.

なお、この実施例では、移動経路選択に使用する地図上に移動の妨げとなる無線の圏外領域や不感帯を仮想障害物として配置し、これらを避ける経路を選択することで、通信障害による遠隔操縦への悪影響を防止したが、仮想障害物は、圏外領域や不感帯に限らない。   In this embodiment, remote control due to a communication failure is performed by placing a wireless out-of-service area or dead zone as a virtual obstacle on the map used for moving route selection, and selecting a route to avoid them. The virtual obstacle is not limited to the out-of-service area or the dead zone.

たとえば、数多くのアンテナが同時に見通しとなる場所では、移動ロボット10の通信相手が定まらずに通信が困難ないし不安定となる場合があるため、圏外領域や不感帯と同様に仮想障害物として取り扱うことができる。また、多数の移動ロボット10が集まっている場所(移動ロボット10の密度が一定以上の領域)では、混信により通信が困難ないし不安定となる可能性があるため、これも同様に取り扱うことが可能である。   For example, in a place where many antennas are visible at the same time, the communication partner of the mobile robot 10 may not be determined, and communication may be difficult or unstable. Therefore, it may be handled as a virtual obstacle like an out-of-service area or dead zone. it can. Also, in places where a large number of mobile robots 10 are gathering (regions where the density of mobile robots 10 is more than a certain level), communication may be difficult or unstable due to interference, and this can be handled in the same way. It is.

そして、この種の通信障害領域については、これを避ける経路を選択する代わりに、仮想障害物に到達または接近した時点で無線通信に用いる周波数を変更することによって、その領域で生じる通信障害を回避できる可能性がある。そこで、移動制御情報182aに代えて、またはこれに加えて、移動ロボット10の通信LANボード114に、無線通信回路116が無線通信で用いる周波数を変更させる周波数変更情報(図示せず)を作成してもよい。   For this type of communication failure area, instead of selecting a route that avoids this, changing the frequency used for wireless communication when reaching or approaching a virtual obstacle avoids the communication failure that occurs in that area. There is a possibility. Therefore, instead of or in addition to the movement control information 182a, frequency change information (not shown) for changing the frequency used by the wireless communication circuit 116 for wireless communication is created in the communication LAN board 114 of the mobile robot 10. May be.

一般には、個々の無線リソースの利用を困難にしたり通信システム全体の安定動作に悪影響を与えたりする領域を仮想障害物として地図上に配置して、これを避ける経路を選択したり周波数を変更したりといった回避動作を行うことで、通信品質の維持が可能となり、円滑なロボット制御が実現される。   Generally, areas that make it difficult to use individual radio resources or adversely affect the stable operation of the entire communication system are placed on the map as virtual obstacles, and routes that avoid this are selected or the frequency is changed. By performing the avoidance operation such as the communication quality, the communication quality can be maintained, and smooth robot control is realized.

言い換えると、通信障害が起こる可能性を減らすのとは逆に、通信障害が起こりうる場所への移動を避けたり、発生を事前に予測して通信周波数を変更したりすることで、低遅延かつ高信頼の通信を維持することができ、その結果、安全な操縦が行える。   In other words, on the contrary to reducing the possibility of communication failure, avoiding movement to places where communication failure can occur or changing the communication frequency by predicting the occurrence in advance, low latency and Highly reliable communication can be maintained, and as a result, safe maneuvering can be performed.

なお、以上の説明では、一実施例である遠隔操縦システム100について説明したが、この発明は、移動ロボットや無人カートといった移動体を、ネットワークを介した無線通信または直接の無線通信によって、離れた場所から遠隔操縦するための遠隔操縦システムに適用できる。   In the above description, the remote control system 100 according to an embodiment has been described. However, the present invention can be used to separate a mobile body such as a mobile robot or an unmanned cart by wireless communication via a network or direct wireless communication. It can be applied to a remote control system for remote control from a place.

10 …移動ロボット
12 …遠隔操縦装置
14 …サーバ
20,40,80 …CPU
22,42,84 …メモリ
24,44,114 …通信LANボード
26,46 …通信回路
116 …無線通信回路
118 …移動ロボット用のアンテナ
122,124 …LRF(レーザレンジファインダ)
200 …ネットワーク
202〜206 …AP(アクセスポイント)
202a〜206a …AP用のアンテナ
DESCRIPTION OF SYMBOLS 10 ... Mobile robot 12 ... Remote control device 14 ... Server 20, 40, 80 ... CPU
22, 42, 84 ... Memory 24, 44, 114 ... Communication LAN board 26, 46 ... Communication circuit 116 ... Wireless communication circuit 118 ... Antenna for mobile robot 122, 124 ... LRF (laser range finder)
200 ... network 202 to 206 ... AP (access point)
202a to 206a ... AP antenna

Claims (10)

移動体を無線通信により遠隔操縦するための移動体遠隔操縦システムであって、
地図情報を記憶する第1メモリ、
前記地図情報に対応する区域内で無線通信に障害が生じる通信障害領域を示す情報を仮想障害物情報として記憶する第2メモリ、
センサからのセンサ情報に基づいて、前記地図情報に対応する区域での前記移動体の少なくとも位置を検出する検出手段、および
前記地図情報および前記仮想障害物情報と前記検出手段の検出結果とに少なくとも基づいて、前記通信障害領域での無線通信障害を回避するように前記移動体を制御する制御情報を作成する制御情報作成手段を備える、移動体遠隔操縦システム。
A mobile remote control system for remotely controlling a mobile body by wireless communication,
A first memory for storing map information;
A second memory for storing, as virtual obstacle information, information indicating a communication failure area where a failure occurs in wireless communication within an area corresponding to the map information;
Detection means for detecting at least a position of the moving body in an area corresponding to the map information based on sensor information from the sensor; and at least the map information, the virtual obstacle information, and a detection result of the detection means A mobile remote control system comprising control information creation means for creating control information for controlling the mobile body so as to avoid a radio communication failure in the communication failure area.
前記制御情報作成手段は、前記通信障害領域を回避するように前記移動体を移動させる移動制御情報を作成する、請求項1記載の移動体遠隔操縦システム。   The mobile control system according to claim 1, wherein the control information creation unit creates movement control information for moving the mobile body so as to avoid the communication failure area. 前記地図情報には、静的な物理的障害物の位置が記述されており、
前記第2メモリは、前記地図情報に対応する区域内で移動する動的な物理的障害物に関する物理的障害物情報をさらに記憶し、
前記制御情報作成手段は、前記地図情報,前記物理的障害物情報および前記仮想障害物情報と前記検出手段の検出結果とに基づいて、前記移動制御情報を作成する、請求項2記載の移動体遠隔操縦システム。
The map information describes the position of a static physical obstacle,
The second memory further stores physical obstacle information related to a dynamic physical obstacle moving within an area corresponding to the map information;
The moving body according to claim 2, wherein the control information creating means creates the movement control information based on the map information, the physical obstacle information, the virtual obstacle information, and a detection result of the detecting means. Remote control system.
前記検出手段は、前記動的な物理的障害物の少なくとも位置をさらに検出し、
前記検出手段の検出結果に基づいて前記動的な物理的障害物の少なくとも位置を示す物理的障害物情報を作成する物理的障害物情報作成手段、および
前記地図情報および前記物理的障害物情報作成手段によって作成された物理的障害物情報に基づいて、当該地図情報に対応する区域内で発生する静的な通信障害領域および当該地図情報に対応する区域内で発生しかつ移動する動的な通信障害領域について少なくとも位置を示す仮想障害物情報を作成する仮想障害物情報作成手段をさらに備え、
前記第2メモリは、前記物理的障害物情報作成手段によって作成された物理的障害物情報および前記仮想障害物情報作成手段によって作成された仮想障害物情報を記憶する、請求項3記載の移動体遠隔操縦システム。
The detecting means further detects at least a position of the dynamic physical obstacle;
Physical obstacle information creating means for creating physical obstacle information indicating at least a position of the dynamic physical obstacle based on a detection result of the detecting means; and the map information and physical obstacle information creating Based on the physical obstacle information created by the means, the static communication failure area that occurs in the area corresponding to the map information and the dynamic communication that occurs and moves in the area corresponding to the map information Further comprising virtual obstacle information creating means for creating virtual obstacle information indicating at least a position of the obstacle region;
The mobile object according to claim 3, wherein the second memory stores physical obstacle information created by the physical obstacle information creating unit and virtual obstacle information created by the virtual obstacle information creating unit. Remote control system.
前記検出手段は、前記移動体の移動方向と、前記動的な物理的障害物の移動方向とをさらに検出し、
前記物理的障害物情報作成手段は、前記検出手段の検出結果に基づいて前記動的な物理的障害物の位置および移動方向を示す物理的障害物情報を作成し、
前記仮想障害物情報作成手段は、前記地図情報および前記物理的障害物情報作成手段によって作成された物理的障害物情報に基づいて前記動的な障害領域の位置および移動方向を示す仮想障害物情報を作成し、
前記制御情報作成手段は、
前記移動体の移動方向に静的な物理的障害物および静的な仮想障害物の少なくとも1つが存在する場合には直ちに回避移動を行わせる移動制御情報を生成し、
前記移動体の移動方向に、静的な物理的障害物および静的な仮想障害のいずれも存在せず、かつ移動する動的な物理的障害物および移動する動的な仮想障害物の少なくとも1つが存在する場合には、当該移動体の当該移動障害物への到達予想時間が閾値を下回った時点で回避移動を行わせる移動制御情報を生成する、請求項4記載の移動体遠隔操縦システム。
The detection means further detects the moving direction of the moving body and the moving direction of the dynamic physical obstacle,
The physical obstacle information creating means creates physical obstacle information indicating the position and moving direction of the dynamic physical obstacle based on the detection result of the detecting means,
The virtual obstacle information creating means includes virtual obstacle information indicating the position and moving direction of the dynamic obstacle area based on the map information and the physical obstacle information created by the physical obstacle information creating means. Create
The control information creating means
When there is at least one of a static physical obstacle and a static virtual obstacle in the moving direction of the moving object, movement control information for immediately performing avoidance movement is generated,
There is neither a static physical obstacle nor a static virtual obstacle in the moving direction of the mobile body, and at least one of a dynamic physical obstacle that moves and a dynamic virtual obstacle that moves 5. The mobile remote control system according to claim 4, wherein, when there is one, the mobile control information for causing the mobile body to perform the avoidance movement when the estimated time of arrival of the mobile body to the mobile obstacle falls below a threshold value.
前記地図情報に対応する区域に配置されて前記移動体との間で無線通信を行うためのアンテナをさらに備え、
前記仮想障害物情報作成手段は、前記地図情報および前記物理的障害物情報に基づいて前記アンテナからの電界の強度分布を計算し、計算された電界強度が閾値よりも小さい領域を通信障害領域として特定し、そして、特定された通信障害領域の少なくとも位置を示す情報を前記仮想障害物情報として作成する、請求項3ないし5のいずれかに記載の移動体遠隔操縦システム。
An antenna for performing wireless communication with the mobile unit disposed in an area corresponding to the map information;
The virtual obstacle information creating means calculates an electric field intensity distribution from the antenna based on the map information and the physical obstacle information, and sets an area where the calculated electric field intensity is smaller than a threshold as a communication obstacle area. The mobile remote control system according to any one of claims 3 to 5, wherein information is specified and information indicating at least a position of the specified communication failure area is created as the virtual obstacle information.
ネットワークに接続されたサーバをさらに備え、
前記アンテナは、前記移動体の前記ネットワークへのアクセスポイントに設けられ、
前記物理的障害物情報作成手段および前記仮想障害物情報作成手段は前記サーバに設けられ、そして前記制御情報作成手段は前記移動体に設けられる、請求項6記載の移動体遠隔操縦システム。
A server connected to the network;
The antenna is provided at an access point to the network of the mobile;
The mobile remote control system according to claim 6, wherein the physical obstacle information creating means and the virtual obstacle information creating means are provided in the server, and the control information creating means is provided in the mobile body.
前記ネットワークに接続された遠隔操作装置をさらに備え、
前記第1メモリおよび前記第2メモリは、前記サーバ,前記移動体および前記遠隔操縦装置の各々に設けられる、請求項7記載の移動体遠隔操縦システム。
A remote control device connected to the network;
The mobile remote control system according to claim 7, wherein the first memory and the second memory are provided in each of the server, the mobile body, and the remote control device.
前記センサの一部は前記移動体に設けられ、前記センサの他の一部は前記地図情報に対応する区域に配置される、請求項1ないし8のいずれかに記載の移動体遠隔操縦システム。   The mobile remote control system according to any one of claims 1 to 8, wherein a part of the sensor is provided in the mobile body, and another part of the sensor is disposed in an area corresponding to the map information. 移動体を無線通信により遠隔操縦するための移動体遠隔操縦システムのコンピュータにおいて実行される制御プログラムであって、
前記制御プログラムは前記コンピュータを、
地図情報を記憶する第1メモリ、
前記地図情報に対応する区域内で無線通信に障害が生じる通信障害領域を示す情報を仮想障害物情報として記憶する第2メモリ、
センサからのセンサ情報に基づいて、前記地図情報に対応する区域での前記移動体の少なくとも位置を検出する検出手段、および
前記地図情報および前記仮想障害物情報と前記検出手段の検出結果とに少なくとも基づいて、前記通信障害領域での無線通信障害を回避するように前記移動体を制御する制御情報を作成する制御情報作成手段として機能させる、制御プログラム。
A control program executed in a computer of a mobile remote control system for remotely controlling a mobile body by wireless communication,
The control program controls the computer,
A first memory for storing map information;
A second memory for storing, as virtual obstacle information, information indicating a communication failure area where a failure occurs in wireless communication within an area corresponding to the map information;
Detection means for detecting at least a position of the moving body in an area corresponding to the map information based on sensor information from the sensor; and at least the map information, the virtual obstacle information, and a detection result of the detection means A control program that functions as control information creation means for creating control information for controlling the mobile body so as to avoid a radio communication failure in the communication failure area.
JP2010289307A 2010-12-27 2010-12-27 Mobile remote control system and control program therefor Active JP5747191B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010289307A JP5747191B2 (en) 2010-12-27 2010-12-27 Mobile remote control system and control program therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010289307A JP5747191B2 (en) 2010-12-27 2010-12-27 Mobile remote control system and control program therefor

Publications (2)

Publication Number Publication Date
JP2012137909A true JP2012137909A (en) 2012-07-19
JP5747191B2 JP5747191B2 (en) 2015-07-08

Family

ID=46675278

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010289307A Active JP5747191B2 (en) 2010-12-27 2010-12-27 Mobile remote control system and control program therefor

Country Status (1)

Country Link
JP (1) JP5747191B2 (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014149622A (en) * 2013-01-31 2014-08-21 Secom Co Ltd Autonomous flying robot
CN104057445A (en) * 2013-03-19 2014-09-24 株式会社安川电机 Robot system
JP2016192040A (en) * 2015-03-31 2016-11-10 株式会社日本総合研究所 Self-propelled traveling device, management device, and walking obstacle place determination system
CN106493748A (en) * 2016-11-23 2017-03-15 河池学院 A kind of robot CAS
CN106584457A (en) * 2016-11-23 2017-04-26 河池学院 Robot detecting system
CN106737856A (en) * 2016-11-23 2017-05-31 河池学院 A kind of robot CAS
WO2018122906A1 (en) * 2016-12-26 2018-07-05 株式会社日立製作所 Control device, control system, and autonomous mobile information processing device
KR20180112622A (en) * 2017-04-04 2018-10-12 엘지전자 주식회사 Method of configuring position based on identification of fixed object and moving object and robot implementing thereof
KR20180115521A (en) * 2017-04-13 2018-10-23 엘지전자 주식회사 Method of driving sensing extensible object and robot implementing thereof
JP2019057085A (en) * 2017-09-20 2019-04-11 株式会社東芝 Information processing apparatus, information processing method, program and communication system
JP2020504983A (en) * 2016-10-25 2020-02-13 アマゾン テクノロジーズ インコーポレイテッド Robot ad hoc network
JP2020165832A (en) * 2019-03-29 2020-10-08 本田技研工業株式会社 Route setting device, route setting method, and program
JP2021021661A (en) * 2019-07-29 2021-02-18 トヨタ自動車株式会社 Remote operation system, program, and vehicle
JPWO2022168258A1 (en) * 2021-02-05 2022-08-11
JP2022542128A (en) * 2019-07-25 2022-09-29 霊動科技(北京)有限公司 Self-powered system with RFID reader and built-in printer
JP7385780B1 (en) 2023-03-30 2023-11-22 Kddi株式会社 Information processing device, information processing method and program
JP7465796B2 (en) 2020-12-14 2024-04-11 Kddi株式会社 Mobile store management device and mobile store management system

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11073828B2 (en) 2017-12-08 2021-07-27 Samsung Electronics Co., Ltd. Compression of semantic information for task and motion planning
JP7350671B2 (en) 2020-02-25 2023-09-26 三菱重工業株式会社 Position estimation device, control device, industrial vehicle, logistics support system, position estimation method and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07110200A (en) * 1993-10-15 1995-04-25 Tech Res & Dev Inst Of Japan Def Agency Simultaneously guiding method for a plurality of underwater runners
JPH08303994A (en) * 1995-05-12 1996-11-22 Mitsubishi Heavy Ind Ltd Method for flying counterradar flying object
JP2003005833A (en) * 2001-06-25 2003-01-08 Yaskawa Electric Corp Radio controller for movable cart
JP2008152600A (en) * 2006-12-19 2008-07-03 Toyota Motor Corp Moving route generation method, autonomous moving object, and autonomous moving object control system
JP2010231698A (en) * 2009-03-30 2010-10-14 Advanced Telecommunication Research Institute International Network robot system, and robot control device, method and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07110200A (en) * 1993-10-15 1995-04-25 Tech Res & Dev Inst Of Japan Def Agency Simultaneously guiding method for a plurality of underwater runners
JPH08303994A (en) * 1995-05-12 1996-11-22 Mitsubishi Heavy Ind Ltd Method for flying counterradar flying object
JP2003005833A (en) * 2001-06-25 2003-01-08 Yaskawa Electric Corp Radio controller for movable cart
JP2008152600A (en) * 2006-12-19 2008-07-03 Toyota Motor Corp Moving route generation method, autonomous moving object, and autonomous moving object control system
JP2010231698A (en) * 2009-03-30 2010-10-14 Advanced Telecommunication Research Institute International Network robot system, and robot control device, method and program

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014149622A (en) * 2013-01-31 2014-08-21 Secom Co Ltd Autonomous flying robot
CN104057445A (en) * 2013-03-19 2014-09-24 株式会社安川电机 Robot system
JP2016192040A (en) * 2015-03-31 2016-11-10 株式会社日本総合研究所 Self-propelled traveling device, management device, and walking obstacle place determination system
JP2020504983A (en) * 2016-10-25 2020-02-13 アマゾン テクノロジーズ インコーポレイテッド Robot ad hoc network
CN106493748A (en) * 2016-11-23 2017-03-15 河池学院 A kind of robot CAS
CN106584457A (en) * 2016-11-23 2017-04-26 河池学院 Robot detecting system
CN106737856A (en) * 2016-11-23 2017-05-31 河池学院 A kind of robot CAS
WO2018122906A1 (en) * 2016-12-26 2018-07-05 株式会社日立製作所 Control device, control system, and autonomous mobile information processing device
JPWO2018122906A1 (en) * 2016-12-26 2019-10-31 株式会社日立製作所 Control device, control system, and information processing device capable of autonomous movement
KR20180112622A (en) * 2017-04-04 2018-10-12 엘지전자 주식회사 Method of configuring position based on identification of fixed object and moving object and robot implementing thereof
KR102329674B1 (en) * 2017-04-04 2021-11-19 엘지전자 주식회사 Method of configuring position based on identification of fixed object and moving object and robot implementing thereof
KR20180115521A (en) * 2017-04-13 2018-10-23 엘지전자 주식회사 Method of driving sensing extensible object and robot implementing thereof
KR102375094B1 (en) * 2017-04-13 2022-03-15 엘지전자 주식회사 Method of driving sensing extensible object and robot implementing thereof
JP2019057085A (en) * 2017-09-20 2019-04-11 株式会社東芝 Information processing apparatus, information processing method, program and communication system
JP2020165832A (en) * 2019-03-29 2020-10-08 本田技研工業株式会社 Route setting device, route setting method, and program
JP7236310B2 (en) 2019-03-29 2023-03-09 本田技研工業株式会社 Route setting device, route setting method and program
JP2022542128A (en) * 2019-07-25 2022-09-29 霊動科技(北京)有限公司 Self-powered system with RFID reader and built-in printer
JP7282345B2 (en) 2019-07-25 2023-05-29 霊動科技(北京)有限公司 Self-powered system with RFID reader and built-in printer
JP2021021661A (en) * 2019-07-29 2021-02-18 トヨタ自動車株式会社 Remote operation system, program, and vehicle
JP7331531B2 (en) 2019-07-29 2023-08-23 トヨタ自動車株式会社 Remote control system, program and vehicle
JP7465796B2 (en) 2020-12-14 2024-04-11 Kddi株式会社 Mobile store management device and mobile store management system
JPWO2022168258A1 (en) * 2021-02-05 2022-08-11
JP7237262B2 (en) 2021-02-05 2023-03-10 三菱電機株式会社 Production control device, production system, production control method, and production control program
JP7385780B1 (en) 2023-03-30 2023-11-22 Kddi株式会社 Information processing device, information processing method and program

Also Published As

Publication number Publication date
JP5747191B2 (en) 2015-07-08

Similar Documents

Publication Publication Date Title
JP5747191B2 (en) Mobile remote control system and control program therefor
CN108247647B (en) Cleaning robot
JP5324286B2 (en) Network robot system, robot control apparatus, robot control method, and robot control program
CN107992052B (en) Target tracking method and device, mobile device and storage medium
JP5768273B2 (en) A robot that predicts a pedestrian's trajectory and determines its avoidance behavior
JP6069606B2 (en) Robot control system and robot control method
JP5318623B2 (en) Remote control device and remote control program
KR101753361B1 (en) Smart cleaning system and method using a cleaning robot
JP2018190391A (en) Portable mobile robot and operation method thereof
GB2527207A (en) Mobile human interface robot
JP5946428B2 (en) Mobile robot system
JP2012111011A (en) Mobile robot
CN103472434B (en) Robot sound positioning method
JP5763384B2 (en) Movement prediction apparatus, robot control apparatus, movement prediction program, and movement prediction method
JP2016206876A (en) Travel route teaching system and method for autonomous mobile body
JP5470516B2 (en) Radio communication apparatus for operating mobile unit, communication control program, and mobile unit
CN111637890A (en) Mobile robot navigation method combined with terminal augmented reality technology
JP2018190363A (en) Portable mobile robot and operation method thereof
CN106679647A (en) Method and device for initializing pose of autonomous mobile equipment
KR20180031153A (en) Airport robot, and method for operating server connected thereto
US20190354246A1 (en) Airport robot and movement method therefor
JP2017170568A (en) Service providing robot system
JP2006127355A (en) Position estimation system for radio tag
JP6142307B2 (en) Attention target estimation system, robot and control program
JP5732633B2 (en) Communication robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131001

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140703

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140708

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150312

R150 Certificate of patent or registration of utility model

Ref document number: 5747191

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250