JP7174673B2 - Guide robot - Google Patents
Guide robot Download PDFInfo
- Publication number
- JP7174673B2 JP7174673B2 JP2019111956A JP2019111956A JP7174673B2 JP 7174673 B2 JP7174673 B2 JP 7174673B2 JP 2019111956 A JP2019111956 A JP 2019111956A JP 2019111956 A JP2019111956 A JP 2019111956A JP 7174673 B2 JP7174673 B2 JP 7174673B2
- Authority
- JP
- Japan
- Prior art keywords
- motion
- robot
- unit
- obstacle
- guidance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
- B25J9/1676—Avoiding collision or forbidden zones
Description
本発明は、案内ロボットに関する。 The present invention relates to a guiding robot.
案内ロボットを含むサービスロボットは、人が通行する空間において使用される場合も想定されている。例えば、ビル内において利用者に対する案内等の応対や、警備、巡回、清掃といった、従来は人が行っていた業務を代わりに行うものである。 Service robots, including guide robots, are also assumed to be used in spaces where people pass. For example, in a building, it performs tasks that were conventionally performed by people, such as providing guidance to users, guarding, patrolling, and cleaning.
このようなサービスロボットの利用状況においては、従来の産業用ロボットのようにロボットの設置エリアに安全柵を設けるなど、利用者に対するサービスを行うためのエリアを完全に分離することができない場合が多くなっている。このため、利用者に対する安全に特に配慮した構成とすることが重要となる。 In this kind of usage situation of service robots, it is often not possible to completely separate the area for providing services to users, such as setting up a safety fence in the robot installation area like conventional industrial robots. It's becoming Therefore, it is important to have a configuration that gives particular consideration to safety for users.
特許文献1には、環境情報に基づいて把握した周囲に存在する物体のうち、動作範囲を含む安全領域内に障害物が存在する場合に動作を一時的に停止し、障害物特定情報を外部に対して視覚的に出力する、自律動作型ロボットが開示されている。これにより、周囲の人間がロボットの認識した障害物が何であるかを容易に判断することが可能となると記載されている。 Japanese Patent Laid-Open No. 2004-100003 discloses a system in which, among objects present in the surroundings ascertained based on environmental information, when an obstacle exists within a safe area including the operating range, the operation is temporarily stopped, and the obstacle specifying information is sent to the outside. An autonomous robot is disclosed that provides visual output to a . It is described that this makes it possible for surrounding people to easily determine what the obstacle recognized by the robot is.
特許文献2には、筐体の重心を傾けることにより移動を制御する自律移動ロボットであって、周囲の物体を検出する複数の障害物検知センサと、筐体の傾き角度を検出する傾斜角度測定手段とを備え、傾斜角度測定手段の測定角度に従って、検出範囲を変更する障害物検知センサを有するものが開示されている。これにより、正しい障害物の検知が可能となると記載されている。 Patent Document 2 discloses an autonomous mobile robot that controls movement by tilting the center of gravity of the housing, and includes a plurality of obstacle detection sensors that detect surrounding objects and an inclination angle measurement that detects the tilt angle of the housing. and an obstacle detection sensor that changes the detection range according to the measured angle of the tilt angle measuring means. It is described that this enables correct detection of obstacles.
特許文献1に記載の自律動作型ロボットは、動作を一時的に停止する場合があり、その場合には、利用者に対する継続的なサービスが困難になる。 The autonomous robot described in Patent Literature 1 may temporarily stop its operation, in which case it becomes difficult to provide continuous service to the user.
特許文献2に記載の自律移動ロボットは、筐体の傾き角度が変化した場合には障害物の検知が可能であるが、ロボットの周囲の利用者、障害物等の状態に応じて動作を調整するものではない。 The autonomous mobile robot described in Patent Document 2 is capable of detecting obstacles when the inclination angle of the housing changes, but adjusts its operation according to the conditions of users, obstacles, etc. around the robot. not something to do.
本発明は、案内ロボットの利用者に対する安全性を確保するとともに、案内を停止することなく、案内ロボットの動作を継続することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to ensure safety for the user of a guide robot and to continue the operation of the guide robot without stopping guidance.
本発明の案内ロボットは、複数の動作候補を記憶した記憶部と、動作の障害となる物体を検知する複数のセンサと、実行動作を選択し各部位に指令を送信するロボット動作指令部と、を備え、ロボット動作指令部は、複数のセンサのうちいずれかのセンサにより物体との距離情報を取得し、距離情報に基づいて、記憶部の複数の動作候補から実行動作を選択することを特徴とする。 The guide robot of the present invention comprises a storage unit storing a plurality of candidate motions, a plurality of sensors for detecting objects that hinder the motion, a robot motion command unit for selecting a motion to be executed and transmitting a command to each part, The robot motion command unit acquires distance information from the object by one of the plurality of sensors, and selects an execution motion from a plurality of motion candidates in the storage unit based on the distance information. and
本発明によれば、案内ロボットの利用者に対する安全性を確保するとともに、案内を停止することなく、案内ロボットの動作を継続することができる。 According to the present invention, it is possible to ensure safety for the user of the guide robot and to continue the operation of the guide robot without stopping the guidance.
本発明は、自律的に動作を行うロボットであって、利用者に対する案内等の応対が可能なロボットに関する。よって、本発明に係るロボットは、「案内ロボット」又は「自律型ロボット」と呼ぶことができる。自律型ロボットは、ロボット本体のメモリ、演算部等を小さくする観点から、リモートブレインロボットであることが望ましい。リモートブレインロボットとは、リアルタイム性が要求される処理をロボット本体側で行い、要求されない処理を外部システムで担う構成を有するロボットをいう。 BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot that operates autonomously and that is capable of responding to users such as guidance. A robot according to the invention can thus be called a "guide robot" or an "autonomous robot". The autonomous robot is desirably a remote brain robot from the viewpoint of reducing the size of the robot main body's memory, calculation unit, and the like. A remote brain robot is a robot having a configuration in which real-time processing is performed on the robot body side and unrequired processing is handled by an external system.
以下、図面を参照して、本発明の実施例について詳細を説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図1は、実施例1に係る自律型ロボットのハードウェアの構成を示す正面図である。 FIG. 1 is a front view showing the hardware configuration of an autonomous robot according to the first embodiment.
本図において、自律型ロボット101は、人型であり、頭部、胴部、腕部及び脚部を備えている。腕部及び脚部には、関節部(肘部及び膝部)を設けている。胴部には、第一の外界センサ104及び第二の外界センサ105が設けられている。脚部の先端部には、車輪モータ部106が設けられている。腕部の関節部には、腕モータ部107が設けられている。頭部には、音声出力部108が設けられている。脚部の関節部には、膝モータ部117が設けられている。
In this figure, an
第一の外界センサ104及び第二の外界センサ105は、図示した位置に限定されるものではなく、周囲の状況を効率よく検知するために必要かつ十分に設けてよい。第一の外界センサ104及び第二の外界センサ105の種類も、特に限定されるものではなく、赤外線レーザを照射する赤外線センサ、超音波を利用する超音波センサ、カメラなどの画像センサなどを用いることができる。車輪モータ部106は、車輪を回転させる機能を有し、この機能により自律型ロボット101を自在に移動させることができる。腕モータ部107は、その回転により前腕部の上げ下げ等を行い、これにより前腕部を所望の位置・角度とする。
The first
なお、図示していないが、肩部にもモータが内蔵されており、上腕部の上げ下げ、回転等の動作を自在に行うことができる。 In addition, although not shown, a motor is also built in the shoulder portion, so that the upper arm portion can be raised, lowered, rotated, etc. freely.
音声出力部108は、利用者に音声による案内を行う場合等に使用される。
The
また、自律型ロボット101は、その内部にロボット制御部102を有し、外部に設けられたロボット指令生成部103に電気通信回線等のネットワークを介して接続される。ロボット制御部102は、CPU(中央演算処理装置)、メモリ等を備えている。ロボット指令生成部103は、自律型ロボット101の状況等に関する情報を自律型ロボット101等から受信するとともに、自律型ロボット101に対して案内や移動などの行動に関する指令を与える。ネットワークは、有線通信回線でもよいが、無線LAN等の無線通信が望ましい。
Further, the
図2は、図1の自律型ロボットの側面図である。 2 is a side view of the autonomous robot of FIG. 1; FIG.
図2に示すように、自律型ロボット101の曲面を有する胴部には、第二の外界センサ105が配置されている。また、車輪モータ部106及び膝モータ部117の構造が明瞭になっている。膝モータ部117を回転することにより、膝部の曲げ伸ばしを行うことができ、立ち上げる、かがむ、しゃがむ、ひざまづく等の動作を自在に行うことができる。よって、自律型ロボット101は、体高を自在に増減することができる。
As shown in FIG. 2, a second
図3は、実施例1の自律型ロボットが子どもに応対する状況を示す側面図である。 FIG. 3 is a side view showing a situation in which the autonomous robot of Example 1 responds to a child.
本図に示すように、子ども350が接近していることを第二の外界センサ105等により検知し、膝モータ部117の回転により、膝部を曲げ、かがんだ姿勢をとることができる。また、ひざまづくこともできる。小さい子ども350(乳児等)の検知に用いるセンサは、胴部に設けられた第二の外界センサ105だけでなく、脚部、膝部等の低い位置に設けられたセンサ(図示していない。)でもよく、例えば、車輪モータ部106又は膝モータ部117に設けられたセンサ(図示していない。)でもよい。
As shown in the figure, the second
図4は、実施例1の自律型ロボットの制御に関する構成を示すブロック図である。 FIG. 4 is a block diagram showing a configuration related to control of the autonomous robot according to the first embodiment;
なお、本図においては、自律型ロボット101の構成として音声出力部108及び音声出力制御部206を示しているが、これらについては、本実施例における必須の構成ではなく、実施例3において説明する。
In addition, in this figure, the
本図に示すように、自律型ロボット101には、ロボット制御部102、第一の外界センサ104、第二の外界センサ105、車輪モータ部106及び腕モータ部107が設けられている。ロボット制御部102は、第一の外界センサ104及び第二の外界センサ105で検出した距離情報等を収集するセンサ情報収集部201と、自律型ロボット101の各部位に指令を送信するロボット動作指令部202と、自律型ロボット101の動作の候補を記憶した動作候補データベース203(記憶部)と、車輪モータ部106を制御する車輪制御部204と、腕モータ部107を制御する腕動作制御部205と、を含む。ロボット動作指令部202とロボット指令生成部103とは、ネットワークを介して接続されている。
As shown in this figure, the
センサ情報収集部201で取得したセンサ情報は、ロボット動作指令部202に送られる。ロボット動作指令部202は、センサ情報収集部201で取り込まれたセンサ情報と、ロボット指令生成部103から送られた案内指示と、に従い、動作候補データベース203から次に実行する動作を取得する。また、センサ情報収集部201は、センサ決定部を含む。センサ決定部は、自律型ロボット101の姿勢に基づいて、複数のセンサのうち、有効とするセンサを決定する。
The sensor information acquired by the sensor
ロボット動作指令部202は、動作候補データベース203から次に実行する動作の候補を複数取得し、その中から適切な動作を選択してもよい。ここで、次に実行する適切な動作は、「実行動作」と呼ぶ。なお、実行動作には、動作の完全な停止は含まれないものとする。例えば、音声出力のみを実行する場合は、動作の完全な停止ではない。
The robot
ロボット動作指令部202は、例えば、動作候補データベース203から送られた動作の候補が自律型ロボット101の移動に関するものである場合、車輪制御部204に指令を送り、車輪モータ部106を稼働する。これにより、車輪モータ部106が回転し、自律型ロボット101が移動する。
For example, when the motion candidate sent from the
ロボット動作指令部202から送られた動作の候補が自律型ロボット101の腕部の動作に関するものである場合、腕動作制御部205に指令を受信し、腕モータ部107を稼働する。これにより、腕モータ部107が回転し、自律型ロボット101の腕部を所望の位置まで移動させる。
When the motion candidates sent from the robot
図5は、本実施例の自律型ロボットが案内指示を受けてから案内動作の実行に至るまでの制御プロセスを示すフローチャートである。なお、以下の説明においては、図1~4に記載の符号も用いる。 FIG. 5 is a flow chart showing the control process from when the autonomous robot of this embodiment receives a guidance instruction to when it executes a guidance operation. 1 to 4 are also used in the following description.
図5においては、まず、ロボット指令生成部103が自律型ロボット101のロボット動作指令部202に案内動作の指令を送信する(S301)。つぎに、ロボット動作指令部202は、センサ情報収集部201から利用者や障害物までの距離を取得する(S302)。この距離は、第一の外界センサ104により検出されたものである。なお、以下の説明においては、障害物は、ロボットの動作の障害となる物体であり、廊下や部屋の壁、ドア等だけでなく、利用者等の人も含むものとする。
In FIG. 5, first, the robot
ロボット動作指令部202は、ロボット指令生成部103からの動作指令と、センサ情報収集部201からの障害物までの距離情報とから、自律型ロボット101の動作範囲内に障害物があるかを判定する(S303)。
The robot
工程S303において障害物がないと判定した場合は、ロボット動作指令部202がロボット指令生成部103から送信された動作指令を取得する(S304)。そして、ロボット動作指令部202がロボット指令生成部103から送られた動作を実行する(S305)。
If it is determined in step S303 that there is no obstacle, the robot
一方、センサ情報収集部201で取得した第一の外界センサ104の検知範囲内に障害物があり、ロボット動作指令部202が動作不可であると判定した場合(S303)は、ロボット動作指令部202は、自律型ロボット101の動作が障害物に衝突しない動作(接触しない動作)の候補を動作候補データベース203から取得し(S306)、ロボット動作指令部202が動作指令を実行する(S307)。
On the other hand, if there is an obstacle within the detection range of the first
まとめると、次のようになる。 In summary:
ロボット動作指令部202は、第一の外界センサ104により検出した範囲内に障害物がある場合、障害物に接触しない動作を選択する。
If there is an obstacle within the range detected by the first
ここで、ロボット動作指令部202は、複数の動作の候補(動作候補)から動作を選択し、実際に動作を行う腕部、脚部等に動作指令を送る。よって、ロボット動作指令部202は、動作選択部でもある。当該選択の際には、自律型ロボット101の周囲の利用者の状況(性別、身長、体形、推定年齢、声の特徴、会話の内容、歩く速さ、周囲にいる人の数や密度等、集団(家族)の構成、服装等)、気温、湿度、明るさ(照度)、光の波長(スペクトル)、音の強さ(音圧レベル)、臭気物質の濃度(臭気センサ等により検出する。)、日時、曜日、時刻等を基準としてもよい。また、これらの基準から、音声出力部108の発声の要否、音量、波長、声色等を選択してもよい。
Here, the robot
なお、本明細書においては、動作に音声出力も含まれるものとする。 In this specification, it is assumed that the operation includes voice output.
つぎに、本実施例に係る自律型ロボットの実際の動作について説明する。 Next, the actual operation of the autonomous robot according to this embodiment will be explained.
ここでは、自律型ロボットがエレベーター利用者を腕部の動作によりエレベーター乗り場まで案内するユースケースを例に説明する。なお、この場合において、動作だけでなく、音声により案内することが望ましい。 Here, an example of a use case will be described in which an autonomous robot guides an elevator user to an elevator platform by arm motion. In this case, it is desirable to provide guidance not only by motion but also by voice.
図6Aは、ロボットが障害物検知をしないで動作した場合の状態を示す図である。 FIG. 6A is a diagram showing a state in which the robot operates without detecting obstacles.
図6Bは、実施例1の自律型ロボットが障害物の有無を判定して動作を選択した場合の状態を示す図である。 FIG. 6B is a diagram illustrating a state in which the autonomous robot of Example 1 determines the presence or absence of an obstacle and selects an action.
図6Aにおいては、エレベーター利用者401aをエレベーター乗り場402aに案内する際、ロボット701の近くに立っているエレベーター利用者401aに接触するかどうかについて判定することなく、距離dAに達する腕部の動作を行っている。このため、ロボット701の腕部がエレベーター利用者401aに接触してしまう。この場合、エレベーター利用者401aにけがを負わせるおそれがある。
In FIG. 6A, when guiding the
図6Bにおいては、エレベーター利用者401bをエレベーター乗り場402bに案内する際、自律型ロボット101は、近くに立っているエレベーター利用者401bを検知し、エレベーター利用者401bに接触するかどうかについて判定し、腕部の動作が図6Aの距離dAよりも短い距離dBに収まるように制御している。
In FIG. 6B, when guiding
これにより、自律型ロボット101の腕部がエレベーター利用者401bに接触することを防止することができる。また、案内を停止することなく、動作を継続することが可能となる。
This can prevent the arms of the
また、エレベーター利用者401bに接触しない場合であっても、エレベーター利用者401bを驚かせる動作となってしまう場合があり得る。このように判定される場合は、動作を更に制限する。これにより、エレベーター利用者401bを驚かせることなく案内することができる。
In addition, even if the
以上のように、自律型ロボット101の動作を制御することにより、安全性を向上させることができる。
As described above, by controlling the operation of the
なお、自律型ロボット101は、エレベーター利用者401bが実際にエレベーター乗り場402bを探しているかどうかについても、エレベーター利用者401bに問いかけるなどして判別した上で、案内動作を開始することが望ましい。
It is desirable that the
図7は、実施例2の自律型ロボットが案内指示を受けてから案内動作の実行に至るまでに2個のセンサを用いる制御プロセスを示すフローチャートである。なお、以下の説明においては、図1~4に記載の符号も用いる。また、以下の説明においては、実施例1との共通点については割愛する。 FIG. 7 is a flow chart showing a control process using two sensors from when the autonomous robot of Example 2 receives a guidance instruction to when it executes a guidance operation. 1 to 4 are also used in the following description. Moreover, in the following description, points common to the first embodiment are omitted.
図7においては、まず、ロボット指令生成部103が自律型ロボット101のロボット動作指令部202に案内動作の指令を送信する(S501)。また、センサ情報収集部201は、第一の外界センサ104から利用者や障害物までの距離を取得する(S502)。さらに、センサ情報収集部201は、第二の外界センサ105から利用者や障害物までの距離を取得する(S503)。そして、ロボット動作指令部202は、センサ情報収集部201からこれらの距離を取得する。
In FIG. 7, first, the robot
ロボット動作指令部202は、ロボット指令生成部103からの動作指令と、センサ情報収集部201からの障害物までの距離情報とから、自律型ロボット101の動作範囲内に障害物があるかを判定する(S504)。工程S504において障害物がないと判定した場合は、ロボット動作指令部202がロボット指令生成部103から送信された動作指令を取得する(S505)。そして、ロボット動作指令部202は、ロボット指令生成部103から送られた動作を実行する(S506)。
The robot
一方、センサ情報収集部201で取得した第一の外界センサ104の検知範囲内に障害物があり、ロボット動作指令部202が動作不可であると判定した場合(S504)は、ロボット動作指令部202は、自律型ロボット101の動作が障害物に衝突しない動作の候補を動作候補データベース203から取得する(S507)。
On the other hand, if there is an obstacle within the detection range of the first
第一の外界センサ104の検知範囲内の障害物に衝突しないと判定した場合(S508)は、ロボット動作指令部202は、障害物に達しない範囲内の動作を実行する(S510)。
When it is determined that the robot will not collide with an obstacle within the detection range of the first external sensor 104 (S508), the robot
一方、第一の外界センサ104の検知範囲内の障害物に衝突すると判定した場合(S508)は、さらに、第二の外界センサ105の検知範囲内の障害物に衝突するかどうかについて判定する(S509)。工程S509において障害物に衝突すると判定した場合は、工程S507の処理を再度実行する。一方、工程S509において障害物に衝突しない場合は、ロボット動作指令部202は、障害物に達しない範囲内の動作を実行する(S510)。
On the other hand, if it is determined that the vehicle will collide with an obstacle within the detection range of the first external sensor 104 (S508), it is further determined whether or not the vehicle will collide with an obstacle within the detection range of the second external sensor 105 ( S509). If it is determined in step S509 that the vehicle will collide with the obstacle, the process of step S507 is executed again. On the other hand, if the robot does not collide with the obstacle in step S509, the robot
このように、障害物に衝突するか否かにより、自律型ロボット101の動作を選択する。
Thus, the motion of the
図8は、実施例2の自律型ロボットが障害物の有無を判定して動作を選択した場合であって、左腕部の動作を制限し、右腕部を挙げる動作を選択した状態を示したものである。 FIG. 8 shows a state in which the autonomous robot of Example 2 determines the presence or absence of an obstacle and selects an action, restricting the action of the left arm and selecting the action of raising the right arm. is.
本図に示すように、エレベーター利用者601をエレベーター乗り場602に案内する際、第一の外界センサ104の検知範囲内の障害物に衝突すると判定した場合において、第二の外界センサ105の検知範囲内の障害物に衝突するかどうかについて判定し、第二の外界センサ105の検知範囲内の障害物に衝突しないと判定した場合には、右腕を挙げる動作により案内する。すなわち、図7の工程S508、S509及びS510を経た結果としての動作の例である。これにより、案内を停止することなく、動作を継続することが可能となる。
As shown in this figure, when it is determined that an
なお、第二の外界センサ105の検知範囲内においても障害物との接触のおそれがあると判定した場合は、障害物が検知されない場所まで自律型ロボット101が移動し、右腕部を挙げる動作で案内するように制御してもよい。
If it is determined that there is a risk of contact with an obstacle even within the detection range of the second
図7及び8に示す構成は、まとめると、次のようになる。 The configurations shown in FIGS. 7 and 8 can be summarized as follows.
ロボット動作指令部202は、第一の外界センサ104により検出した範囲内に障害物があり、動作目的(一つの動作目的)を実現可能な動作候補がない場合、第二の外界センサ105(他の外界センサ)に切替え、いずれの外界センサの検知範囲内においても障害物に接触しない動作を選択する。複数の動作候補は、一つの動作目的に対して設定されている。
When there is an obstacle within the range detected by the first
本実施例は、実施例1で用いた図4を用いて説明する。なお、以下の説明においては、図1~3及び5~8に記載の符号も用いる場合がある。また、以下の説明においては、実施例1又は2との共通点については割愛する。 This embodiment will be described with reference to FIG. 4 used in the first embodiment. 1 to 3 and 5 to 8 may also be used in the following description. Moreover, in the following description, points common to the first or second embodiment are omitted.
本実施例においては、図4の音声出力部108及び音声出力制御部206を使用する。
In this embodiment, the
音声出力部108は、図1及び2に示すように、自律型ロボット101の頭部に設置されている。音声出力部108は、外部に音声出力をする際に使用される。音声出力は、自律型ロボット101を利用する人に対する案内などに有用である。また、音声出力制御部206は、音声出力部108における音声の内容などを制御する。
The
図9は、本実施例の自律型ロボットが案内指示を受けてから案内動作の実行に至るまでの制御プロセスを示すフローチャートである。 FIG. 9 is a flow chart showing the control process from when the autonomous robot of this embodiment receives a guidance instruction to when it executes a guidance operation.
本図においては、まず、ロボット指令生成部103が自律型ロボット101のロボット動作指令部202に案内動作の指令を送信する(S801)。センサ情報収集部201は、第一の外界センサ104から利用者や障害物までの距離を取得する(S802)。そして、第一の外界センサ104に検知範囲内に障害物があるかを判定する(S803)。
In this figure, first, the robot
第一の外界センサ104に検知範囲内に障害物がない場合には、その方向に移動する動作により案内する(S804)。
If there is no obstacle within the detection range of the first
一方、第一の外界センサ104に検知範囲内に障害物がある場合には、腕部の動作を取得する(S805)。そして、第二の外界センサ105の検知範囲内に障害物があるかを判定する(S806)。第二の外界センサ105の検知範囲内に障害物がない場合には、腕部の動作により案内する(S807)。
On the other hand, if there is an obstacle within the detection range of the first
第二の外界センサ105の検知範囲内に障害物がある場合には、音声出力制御部206が案内のための音声出力に関する情報を取得し(S808)、音声により案内する(S809)。
If there is an obstacle within the detection range of the second
このように、障害物に衝突するか否かにより、自律型ロボット101の動作又は音声による案内を段階的に選択する。
In this way, depending on whether or not the robot collides with an obstacle, the guidance by the motion of the
図10A~10Cは、図9の動作又は音声による案内に対応する自律型ロボットの状況を示したものである。ここでは、自律型ロボットがエレベーターの利用者をエレベーター乗り場まで案内するユースケースを例に説明する。 10A-10C illustrate the autonomous robot situation corresponding to the motion or voice guidance of FIG. Here, an example use case will be described in which an autonomous robot guides elevator users to the elevator platform.
図10Aは、図9の工程S804に対応する動作を示したものである。 FIG. 10A shows the operation corresponding to step S804 of FIG.
すなわち、第一の外界センサ104に検知範囲内に障害物がない場合には、その方向に移動する動作により案内する。
That is, when there is no obstacle within the detection range of the first
図10Aにおいては、自律型ロボット101の第一の外界センサ104の検知範囲251及び第二の外界センサ105の検知範囲252を示している。自律型ロボット101は、左側にあるエレベーターに向かって、エレベーター利用者281を先導している。この場合は、障害物がないため、最短距離で直進し、エレベーター利用者281をエレベーター前まで案内する。このとき、自律型ロボット101は、音声出力部108を使用し、エレベーター利用者281に対し、目的地をわかりやすくして安心感を与えるよう、「こちらのエレベーターへどうぞ。」などと発話してもよい。
FIG. 10A shows a
図10Bは、図9の工程S807に対応する動作を示したものである。 FIG. 10B shows the operation corresponding to step S807 of FIG.
すなわち、第二の外界センサ105の検知範囲内に障害物がない場合には、腕部の動作により案内する。
That is, when there is no obstacle within the detection range of the second
図10Bにおいては、自律型ロボット101の前方に複数の人が立っているため、自律型ロボット101は、直進することができない。この場合は、第二の外界センサ105の検知範囲252における障害物の有無を判別し、第二の外界センサ105の検知範囲252に障害物がない場合は、移動を停止し、腕部の動作によりエレベーター利用者281を案内する。この場合も、エレベーター利用者281に対する音声による案内を同時に行ってもよい。
In FIG. 10B, since a plurality of people are standing in front of the
図10Cは、図9の工程S809に対応する動作を示したものである。 FIG. 10C shows the operation corresponding to step S809 of FIG.
すなわち、自律型ロボット101は、移動も、腕部等の動作も困難と判定される場合であり、音声のみにより案内する。
In other words, the
図10Cにおいては、自律型ロボット101の第一の外界センサ104の検知範囲251及び第二の外界センサ105の検知範囲252に複数の人が立っている。このため、自律型ロボット101は、移動することができない。この場合は、腕部の動作も危険を伴うため、音声のみによりエレベーター利用者281を案内する。音声による案内の内容は、例えば、「前方○○メートル先にエレベーターがあります。」等である。
In FIG. 10C , a plurality of people are standing within the
このように、動作の候補の中に、移動の動作、腕部の動作、音声出力等の優先順位を設けておくことにより、利用者等の安全確保についての判定をしながら、ロボットの動作を完全には停止することなく、縮小した動作又は限定した動作により案内を継続することが可能となる。すなわち、一つの動作目的に対して優先順位を保持した動作候補が設けられている。 In this way, by prioritizing movement motions, arm motions, voice output, etc. among motion candidates, robot motions can be determined while ensuring the safety of the user. Guidance can be continued with reduced or limited movement without a complete stop. In other words, motion candidates are provided with priorities for one motion purpose.
なお、本発明は、上記の実施例に限定されるものではなく、様々な変形が可能である。例えば、上記の実施例は、本発明を分かりやすく説明するために詳細に説明したものであり、本発明は、必ずしも説明した全ての構成を備える態様に限定されるものではない。また、実施例の構成の一部について、削除したり、他の構成を追加・置換したりすることが可能である。 It should be noted that the present invention is not limited to the above embodiments, and various modifications are possible. For example, the above embodiments have been described in detail in order to facilitate understanding of the present invention, and the present invention is not necessarily limited to aspects having all the described configurations. Moreover, it is possible to delete a part of the configuration of the embodiment, or to add or replace another configuration.
上記の実施例においては、自律型ロボットがリモートブレインロボットである場合について説明したが、本発明は、リモートブレインロボットに限定されるものではなく、ロボットがその内部にロボット指令生成部を有するものも含むものとする。 In the above embodiments, the autonomous robot is a remote brain robot, but the present invention is not limited to the remote brain robot, and the robot may have a robot command generator inside it. shall include
101:自律型ロボット、102:ロボット制御部、103:ロボット指令生成部、104:第一の外界センサ、105:第二の外界センサ、106:車輪モータ部、107:腕モータ部、108:音声出力部、117:膝モータ部、201:センサ情報収集部、202:ロボット動作指令部、203:動作候補データベース、204:車輪制御部、205:腕動作制御部、206:音声出力制御部、281、401a、401b、601:エレベーター利用者、350:子ども、402a、402b、602:エレベーター乗り場。
101: autonomous robot, 102: robot control unit, 103: robot command generation unit, 104: first external sensor, 105: second external sensor, 106: wheel motor unit, 107: arm motor unit, 108: voice Output unit 117: Knee motor unit 201: Sensor information collection unit 202: Robot motion command unit 203: Motion candidate database 204: Wheel control unit 205: Arm motion control unit 206: Voice
Claims (5)
動作の障害となる物体を検知する複数のセンサと、
実行動作を選択し各部位に指令を送信するロボット動作指令部と、を備えた案内ロボットにおいて、
前記ロボット動作指令部は、前記複数のセンサのうちいずれかのセンサにより前記物体との距離情報を取得し、前記距離情報に基づいて、前記記憶部の前記複数の動作候補から前記実行動作を選択し、
前記複数の動作候補には、優先順位が設けられ、
前記複数の動作候補は、移動を含む動作候補、腕部を用いる動作候補及び音声を用いる動作候補を含み、
前記優先順位は、前記移動を含む動作候補、前記腕部を用いる動作候補、前記音声を用いる動作候補の順であることを特徴とする案内ロボット。 a storage unit storing a plurality of motion candidates;
a plurality of sensors for detecting objects that impede movement;
A robot motion command unit that selects a motion to be executed and transmits a command to each part,
The robot motion command unit acquires distance information from the object by one of the plurality of sensors, and selects the execution motion from the plurality of motion candidates in the storage unit based on the distance information. death,
Priority is provided to the plurality of operation candidates,
The plurality of motion candidates include a motion candidate including movement, a motion candidate using an arm, and a motion candidate using voice;
The guidance robot , wherein the priority order is the motion candidate including the movement, the motion candidate using the arm, and the motion candidate using voice .
前記複数のセンサは、少なくとも前記胴部及び前記脚部に設けられている、請求項1記載の案内ロボット。 having a head, a torso, the arms, and legs including knees;
2. The guide robot according to claim 1, wherein said plurality of sensors are provided on at least said torso and said legs.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019111956A JP7174673B2 (en) | 2019-06-17 | 2019-06-17 | Guide robot |
CN202010369712.6A CN112092017A (en) | 2019-06-17 | 2020-04-28 | Guiding robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019111956A JP7174673B2 (en) | 2019-06-17 | 2019-06-17 | Guide robot |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020203339A JP2020203339A (en) | 2020-12-24 |
JP7174673B2 true JP7174673B2 (en) | 2022-11-17 |
Family
ID=73750418
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019111956A Active JP7174673B2 (en) | 2019-06-17 | 2019-06-17 | Guide robot |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7174673B2 (en) |
CN (1) | CN112092017A (en) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005335001A (en) | 2004-05-26 | 2005-12-08 | Sony Corp | Robot control device and method, recording medium, and program |
WO2006043396A1 (en) | 2004-10-19 | 2006-04-27 | Matsushita Electric Industrial Co., Ltd. | Robot apparatus |
JP2007118129A (en) | 2005-10-27 | 2007-05-17 | Advanced Telecommunication Research Institute International | Communication robot and caution control system using the same |
JP2007160440A (en) | 2005-12-12 | 2007-06-28 | Honda Motor Co Ltd | Control device of legged mobile robot |
JP2008213082A (en) | 2007-03-02 | 2008-09-18 | Sky Kk | Barker robot, barker robot control method and control program |
JP2008279529A (en) | 2007-05-09 | 2008-11-20 | Honda Motor Co Ltd | Moving type robot |
JP2011079103A (en) | 2009-10-08 | 2011-04-21 | Fujitsu Ltd | Method and program for controlling interference electromagnetic wave, and robot |
JP2011224737A (en) | 2010-04-21 | 2011-11-10 | Toyota Motor Corp | Guide robot, guide method, and program for controlling guide |
JP2012111011A (en) | 2010-11-26 | 2012-06-14 | Advanced Telecommunication Research Institute International | Mobile robot |
-
2019
- 2019-06-17 JP JP2019111956A patent/JP7174673B2/en active Active
-
2020
- 2020-04-28 CN CN202010369712.6A patent/CN112092017A/en active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005335001A (en) | 2004-05-26 | 2005-12-08 | Sony Corp | Robot control device and method, recording medium, and program |
WO2006043396A1 (en) | 2004-10-19 | 2006-04-27 | Matsushita Electric Industrial Co., Ltd. | Robot apparatus |
JP2007118129A (en) | 2005-10-27 | 2007-05-17 | Advanced Telecommunication Research Institute International | Communication robot and caution control system using the same |
JP2007160440A (en) | 2005-12-12 | 2007-06-28 | Honda Motor Co Ltd | Control device of legged mobile robot |
JP2008213082A (en) | 2007-03-02 | 2008-09-18 | Sky Kk | Barker robot, barker robot control method and control program |
JP2008279529A (en) | 2007-05-09 | 2008-11-20 | Honda Motor Co Ltd | Moving type robot |
JP2011079103A (en) | 2009-10-08 | 2011-04-21 | Fujitsu Ltd | Method and program for controlling interference electromagnetic wave, and robot |
JP2011224737A (en) | 2010-04-21 | 2011-11-10 | Toyota Motor Corp | Guide robot, guide method, and program for controlling guide |
JP2012111011A (en) | 2010-11-26 | 2012-06-14 | Advanced Telecommunication Research Institute International | Mobile robot |
Also Published As
Publication number | Publication date |
---|---|
CN112092017A (en) | 2020-12-18 |
JP2020203339A (en) | 2020-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5768273B2 (en) | A robot that predicts a pedestrian's trajectory and determines its avoidance behavior | |
JP5324286B2 (en) | Network robot system, robot control apparatus, robot control method, and robot control program | |
US8180486B2 (en) | Mobile robot and controller for same | |
JP5735102B2 (en) | Mobile human interface robot and method of operating a mobile human interface robot | |
JP4849244B2 (en) | Mobile robot and moving speed estimation method | |
JP5747191B2 (en) | Mobile remote control system and control program therefor | |
JP5142137B2 (en) | Remote controller | |
US9662788B2 (en) | Communication draw-in system, communication draw-in method, and communication draw-in program | |
JP5764795B2 (en) | Mobile robot, mobile robot learning system, and mobile robot behavior learning method | |
JP3675386B2 (en) | Autonomous mobile device and autonomous mobile device operation system | |
US20210346557A1 (en) | Robotic social interaction | |
JP4126291B2 (en) | Robot control program updating method and system | |
US20140297066A1 (en) | Remote control system | |
JP2012236244A (en) | Robot device, method of controlling the same, and program for controlling the same | |
JP2007118129A (en) | Communication robot and caution control system using the same | |
JP2007196300A (en) | Robot control system | |
JP2019198907A (en) | Robot system | |
JP2011224679A (en) | Reaction robot, reaction control method, and reaction control program | |
JP7174673B2 (en) | Guide robot | |
JP2006231447A (en) | Confirmation method for indicating position or specific object and method and device for coordinate acquisition | |
JP5552710B2 (en) | Robot movement control system, robot movement control program, and robot movement control method | |
JP2015066625A (en) | Attention object estimation system, robot, and control program | |
JP2005222560A (en) | Autonomous moving unit and autonomous moving unit operation system | |
JP7309371B2 (en) | robot control system | |
JP3931906B2 (en) | Autonomous mobile device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211122 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220831 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221004 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221019 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221101 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221107 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7174673 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |