JP2021171904A - Mobile robot, method for controlling mobile robot and control program - Google Patents
Mobile robot, method for controlling mobile robot and control program Download PDFInfo
- Publication number
- JP2021171904A JP2021171904A JP2020080556A JP2020080556A JP2021171904A JP 2021171904 A JP2021171904 A JP 2021171904A JP 2020080556 A JP2020080556 A JP 2020080556A JP 2020080556 A JP2020080556 A JP 2020080556A JP 2021171904 A JP2021171904 A JP 2021171904A
- Authority
- JP
- Japan
- Prior art keywords
- mobile robot
- head
- person
- movement
- moving
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 125
- 238000001514 detection method Methods 0.000 claims description 19
- 230000007246 mechanism Effects 0.000 claims description 13
- 210000003128 head Anatomy 0.000 description 161
- 230000008569 process Effects 0.000 description 101
- 238000010586 diagram Methods 0.000 description 21
- 230000006870 function Effects 0.000 description 12
- 230000008859 change Effects 0.000 description 5
- 210000000988 bone and bone Anatomy 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 230000036626 alertness Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
Abstract
Description
本発明は、例えば、移動ロボット等に関する。 The present invention relates to, for example, mobile robots and the like.
近年、工場や倉庫のみならず、商業ビルや空港、介護施設等、様々な場所にロボットが適用されている。例えば特許文献1では、工場で人と共有の作業領域を自律走行するような人協働型の移動ロボットが開示されている。
In recent years, robots have been applied not only to factories and warehouses, but also to various places such as commercial buildings, airports, and nursing care facilities. For example,
ところで、人協働型の移動ロボットは、狭い通路での移動や人とのすれ違い移動等にも対応するため、移動機構として全方位への移動を可能にする全方位移動台車が採用されることが多い。しかしながら、全方位移動台車は移動方向を予測することが難しいため、ロボットの移動に対して近くにいる人に警戒心をいだかせる場合がある。 By the way, in order to support movement in a narrow passage or passing by a person, a human-cooperative mobile robot may adopt an omnidirectional mobile trolley that enables movement in all directions as a movement mechanism. many. However, since it is difficult to predict the moving direction of the omnidirectional moving trolley, it may warn people nearby about the movement of the robot.
本発明は、上述の技術的課題を解決するためになされたものであり、その目的とするところは、全方位移動台車を備える移動ロボットにおいて、近くの人に警戒心をいだかせずに安心感を与えることにある。 The present invention has been made to solve the above-mentioned technical problems, and an object of the present invention is to provide a feeling of security in a mobile robot equipped with an omnidirectional mobile trolley without alerting nearby people. Is to give.
上述の技術的課題は、以下の構成を有する移動ロボット等により解決することができる。 The above-mentioned technical problem can be solved by a mobile robot or the like having the following configuration.
すなわち、本発明に係る移動ロボットは、全方位移動台車部により移動する移動ロボットであって、正面を顔部とする頭部と、前記頭部を駆動する駆動手段と、前記駆動手段を制御する頭部制御部と、を備え、前記頭部制御部は、前記駆動手段を制御して、前記移動ロボットが移動を開始する時または移動を開始する所定時間前に前記顔部を移動方向に向ける、機能を備えている。 That is, the mobile robot according to the present invention is a mobile robot that moves by an omnidirectional mobile carriage unit, and controls a head having a front surface as a face, a driving means for driving the head, and the driving means. The head control unit includes a head control unit, and the head control unit controls the driving means to direct the face portion in the movement direction when the mobile robot starts moving or a predetermined time before the movement starts. , Has the function.
このような構成によれば、移動ロボットが、移動を開始する時または移動を開始する所定時間前に顔部を移動方向に向けることで、近くの人に移動すること、および移動する方向を予告するので、予告なしの移動による人との衝突を回避できると共に人に予告なしの移動に対する警戒心をいだかせずに安心感を与えることができる。 According to such a configuration, the mobile robot may move to a nearby person and notify the moving direction by turning the face in the moving direction at the time of starting the movement or a predetermined time before the start of the movement. Therefore, it is possible to avoid a collision with a person due to the movement without notice, and to give a sense of security to the person without being alert to the movement without notice.
前記頭部制御部は、前記移動ロボットの移動中において、移動方向を変更する時または移動方向を変更する所定時間前に前記顔部を変更後の移動方向に向ける、ものであってよい。 The head control unit may be one that directs the face portion to the changed moving direction when changing the moving direction or before a predetermined time for changing the moving direction while the mobile robot is moving.
このような構成によれば、移動ロボットが、移動方向を変更(進路変更)する時または進路変更する所定時間前に顔部を変更後の移動方向に向けるので、予告なしの進路変更により起こり得る人との衝突を回避できると共に人に予告なしの進路変更に対する警戒心をいだかせずに安心感を与えることができる。 According to such a configuration, when the mobile robot changes the moving direction (changes the course) or turns the face in the changed moving direction before a predetermined time for changing the course, it may occur due to the change of the course without notice. It is possible to avoid collisions with people and give people a sense of security without being wary of changing course without notice.
前記所定時間は、前記移動ロボットの移動速度に応じて変更される、ものであってよい。 The predetermined time may be changed according to the moving speed of the mobile robot.
このような構成によれば、頭部を駆動するタイミングと、停止時からの移動または進路変更の開始タイミングとの間に変更可能な所定時間を設けることができるので、例えば移動速度に応じた自然な頭部の動きを調整でき、違和感のない頭部の動きを実現することができる。 According to such a configuration, a predetermined time that can be changed can be provided between the timing of driving the head and the start timing of movement or course change from the time of stop, so that, for example, it is natural according to the movement speed. The movement of the head can be adjusted, and the movement of the head can be realized without any discomfort.
前記駆動手段は、前記頭部を左右方向に回転駆動させる鉛直方向の回転軸を備える、ものであってよい。 The driving means may include a rotating shaft in the vertical direction for rotationally driving the head in the left-right direction.
このような構成によれば、鉛直方向の回転軸の回転を制御することで、頭部の左右方向への回転駆動を実現することができる。 According to such a configuration, by controlling the rotation of the rotation axis in the vertical direction, it is possible to realize the rotational drive of the head in the left-right direction.
移動経路を設定する移動経路設定部と、人の頭の位置を検出する検出部と、前記移動ロボットから所定距離内において、前記移動ロボットが前記移動経路を現在地からの移動方向に移動した場合に前記人と衝突するか否かを判定する衝突判定部と、をさらに備え、前記衝突判定部が前記人と衝突すると判定した場合は、前記頭部制御部は前記顔部を前記人の頭に向ける、ものであってよい。 A movement route setting unit that sets a movement route, a detection unit that detects the position of a person's head, and a case where the mobile robot moves the movement route in the movement direction from the current location within a predetermined distance from the mobile robot. A collision determination unit for determining whether or not to collide with the person is further provided, and when the collision determination unit determines that the collision with the person, the head control unit puts the face portion on the person's head. It may be something to point at.
このような構成によれば、移動ロボットが移動する際に衝突すると予測される人の頭に顔部を向けることができるので、人に移動方向を予告するだけでなく、衝突を回避するための退避行動を促すことができる。 According to such a configuration, the face can be directed to the head of a person who is predicted to collide when the mobile robot moves, so that the person is not only notified of the moving direction but also to avoid the collision. Evacuation behavior can be encouraged.
前記駆動手段は、前記頭部を上下方向に駆動させる水平方向の回転軸をさらに備える、ものであってよい。 The driving means may further include a horizontal rotation axis that drives the head in the vertical direction.
このような構成によれば、水平方向の回転軸の回転を制御することで、上下を仰ぎ見るような頭部の動作を実現することができるので、移動ロボットの頭部よりも高い位置又は低い位置にある人の頭に顔部を向けることができる。 According to such a configuration, by controlling the rotation of the rotation axis in the horizontal direction, it is possible to realize the movement of the head as if looking up and down, so that the position is higher or lower than the head of the mobile robot. You can turn your face to the head of the person in position.
イメージセンサをさらに備え、前記検出部は、前記イメージセンサが検出した画像データに基づいて前記人の頭の位置を検出する、ものであってよい。 An image sensor may be further provided, and the detection unit may detect the position of the person's head based on the image data detected by the image sensor.
このような構成によれば、画像データを解析する種々のアルゴリズム(ソフトウェア)を用いて、人の頭の位置を容易に検出することができる。 According to such a configuration, the position of the human head can be easily detected by using various algorithms (software) for analyzing the image data.
前記衝突判定部が複数の前記人に衝突すると判定した場合に最初に衝突すると予測される人を特定する人特定部をさらに備え、前記衝突判定部が複数の前記人に衝突すると判定した場合は、前記頭部制御部は前記顔部を前記人特定部が特定した前記人の頭に向ける、ものであってよい。 When the collision determination unit further includes a person identification unit that identifies the person who is predicted to collide first when it is determined that the collision determination unit collides with the plurality of persons, and the collision determination unit determines that the collision determination unit collides with the plurality of persons. The head control unit may direct the face portion to the head of the person specified by the person identification unit.
このような構成によれば、移動ロボットが移動すると衝突すると予測される人が複数いる場合であっても、人の行動原理と同様の順番で特定された人に対して、順次、違和感なく退避を促すことができる。 According to such a configuration, even if there are a plurality of people who are predicted to collide when the mobile robot moves, the people identified in the same order as the human behavior principle are sequentially evacuated without discomfort. Can be encouraged.
前記移動ロボットの移動を制御する移動制御部をさらに備え、前記ロボットの移動中に前記移動経路上に前記人を含む障害物が検出された場合は、前記移動制御部は前記移動ロボットを減速又は停止させる、ものであってよい。 A movement control unit that controls the movement of the mobile robot is further provided, and when an obstacle including the person is detected on the movement path during the movement of the robot, the movement control unit decelerates or decelerates the mobile robot. It may be something to stop.
このような構成によれば、移動中の移動ロボットが人と遭遇した場合であっても、余裕をもって、安全に退避を促すことができる。 According to such a configuration, even when a moving mobile robot encounters a person, it is possible to safely urge evacuation with a margin.
スピーカと、前記スピーカを用いて所定の音を出力する報知制御部と、をさらに備え、前記報知制御部は、前記頭部制御部が前記顔部を前記人の頭に向けた後、一定時間経過しても前記衝突判定部が当該人と衝突すると判定する場合は、所定の音を出力する、ものであってよい。 A speaker and a notification control unit that outputs a predetermined sound using the speaker are further provided, and the notification control unit is provided for a certain period of time after the head control unit directs the face portion toward the person's head. If it is determined that the collision determination unit collides with the person even after the lapse of time, a predetermined sound may be output.
このような構成によれば、スピーカを用いて人の聴覚に訴えることができるので、より強く、より明確に退避を促すことができる。 According to such a configuration, since it is possible to appeal to the human hearing by using the speaker, it is possible to promote the evacuation more strongly and more clearly.
マニピュレータ機構を有する一又は複数の腕部をさらに備える、ものであってよい。 It may further include one or more arms having a manipulator mechanism.
このような構成によれば、移動を予告する機能、または、それに加えて退避を促す機能を備える移動マニピュレータを実現することができる。 According to such a configuration, it is possible to realize a movement manipulator having a function of notifying the movement or a function of urging the evacuation in addition to the function of notifying the movement.
本発明は、方法として観念することもできる。すなわち、本発明にかかる移動ロボットの制御方法は、正面を顔部とする頭部と、前記頭部を駆動する駆動手段と、を備え、全方位移動台車部により移動する移動ロボットの制御方法であって、前記駆動手段を制御する頭部制御ステップ、を含み、前記頭部制御ステップでは、前記駆動手段を制御して、前記移動ロボットが移動を開始する時または移動を開始する所定時間前に前記顔部を移動方向に向ける。 The present invention can also be thought of as a method. That is, the method for controlling a mobile robot according to the present invention is a method for controlling a mobile robot that includes a head having a front face as a face and a driving means for driving the head, and is moved by an omnidirectional mobile trolley. The head control step includes a head control step for controlling the drive means, and the head control step controls the drive means when the mobile robot starts moving or before a predetermined time before the movement starts. The face is turned in the direction of movement.
本発明は、コンピュータプログラムとして観念することもできる。すなわち、本発明に係る移動ロボットの制御プログラムは、正面を顔部とする頭部と、前記頭部を駆動する駆動手段と、を備え、全方位移動台車部により移動する移動ロボットの制御プログラムであって、前記駆動手段を制御する頭部制御ステップ、を含み、前記頭部制御ステップでは、前記駆動手段を制御して、前記移動ロボットが移動を開始する時または移動を開始する所定時間前に前記顔部を移動方向に向ける。 The present invention can also be thought of as a computer program. That is, the control program for a mobile robot according to the present invention is a control program for a mobile robot that includes a head having a front face as a face and a driving means for driving the head, and is moved by an omnidirectional mobile trolley. The head control step includes a head control step for controlling the drive means, and the head control step controls the drive means when the mobile robot starts moving or before a predetermined time before the movement starts. The face is turned in the direction of movement.
本発明によれば、全方位移動台車を備える移動ロボットにおいて、近くの人に警戒心をいだかせずに安心感を与えることができる。 According to the present invention, in a mobile robot provided with an omnidirectional mobile trolley, it is possible to give a sense of security to a nearby person without causing caution.
<第1実施形態>
図1から図3は、本発明の第1実施形態に係る移動ロボット100の構成例を説明する図である。本実施形態の移動ロボット100は、人と共有の作業領域内を移動することが想定されるロボットであって、例えば、工場等で部品をピックして所定場所に運搬する機能等を有する移動マニピュレータや、空港等の施設で旅行者等の客を案内するサービスロボット等に適用されてよい。本実施形態では、移動ロボット100が、図2に示すような頭部30とマニピュレータ機構を有する腕部40とを備える略人型の移動マニピュレータに適用された例について説明する。
<First Embodiment>
1 to 3 are views for explaining a configuration example of the
図1に示すとおり、本実施形態の移動ロボット100は、移動ロボット100の動作を制御する制御装置として機能するコントローラ1と、移動機構駆動手段2と、頭部駆動手段3とを含んで構成される。
As shown in FIG. 1, the
本実施形態のコントローラ1は、移動経路設定部11、移動制御部12、および頭部方向制御部13等の機能部を有する。コントローラ1は、例えば、プロセッサとしての中央演算装置(CPU)、記憶媒体としての読み出し専用メモリ(ROM)およびランダムアクセスメモリ(RAM)、入出力インタフェース(I/Oインタフェース)等がバスを介して接続されて構成される情報処理装置である。また、コントローラ1が備えるROMには、前述の各機能部がそれぞれに有する各機能を実行するためのプログラム(制御プログラム)が格納されている。すなわち、コントローラ1は、記憶媒体に格納された各種プログラムを実行することによって、移動経路設定部11、移動制御部12、および頭部方向制御部13等の各機能部の機能を実現するように構成される。なお、コントローラ1を構成するプロセッサおよび記憶媒体として上述した構成は例示であって、これらに加えて、或いは代えて、GPU、フラッシュメモリ、ハードディスク、ストレージ等を含んでもよい。また、上述の各機能部の機能は、必ずしもコントローラ1のみによって実現される必要はなく、機能部毎に適宜選択された複数のコントローラがそれぞれ、或いは協調することによって実現されるように構成されてもよい。コントローラ1の各機能部の機能について以下説明する。
The
移動経路設定部11は、移動ロボット100が移動しようとする経路(移動経路)を設定する。具体的には、移動経路設定部11は、作業領域の地図情報(マップデータ)に基づいて所定位置から目的地までの経路を計画するいわゆるパスプランニングにより生成された経路を移動ロボット100の移動経路として設定する。ここでの所定位置は、予め定められた所定の位置であってもよいし、移動ロボット100の現在位置であってもよい。移動ロボット100が所定位置から目的地までの移動経路を生成する具体的な手法は特に限定されず、既存の移動マニピュレータ等の移動ロボットに用いられている公知の手法が適宜採用されてよい。ただし、設定される移動経路は必ずしもコントローラ1が生成する必要はない。移動経路設定部11は、例えば無線通信等を介して取得した目的地までの経路を移動ロボット100の移動経路として設定してもよい。
The movement
移動制御部12は、移動経路設定部11が設定した移動経路に沿って移動ロボット100を移動させるために、移動機構駆動手段2を制御する。移動機構駆動手段2については図2を参照して後述する。
The
頭部方向制御部13は、移動ロボット100に備わる頭部30(図2参照)を駆動するために、頭部駆動手段3を制御する。具体的には、頭部方向制御部13は、頭部駆動手段3を介して頭部30の正面の向く方向を制御する。頭部駆動手段3の詳細については図2を参照して後述する。
The head
図2は、移動ロボット100の構成を説明する図であって、主に移動ロボット100の外観例を示す。
FIG. 2 is a diagram for explaining the configuration of the
図示するように、本実施形態の移動ロボット100は、略人型の形状を有しており、ロボット本体部10と、ロボット本体部10を支持する移動台車20と、ロボット本体部10の上端に設けられた頭部30と、ロボット本体部10の前面から延びる腕部40とから構成されている。
As shown in the figure, the
ロボット本体部10を支持する移動台車20は、移動ロボット100が置かれた面(床面)の上を移動する機能を有する全方位移動台車である。全方位移動台車とは、駆動輪として例えば複数のオムニホイールを備え、全方向に移動することができるように構成された台車である。全方位移動台車は、全方位台車、全方向移動台車、または全方向台車と称されてもよい。また、全方位移動台車は、360度の全方向への移動が可能であり狭い通路等でも自在に移動できる特徴がある一方で、一般的な台車のように駆動輪の向く方向から移動方向を判断しずらいので、移動方向を予測するのが難しいという側面がある。本実施形態の移動台車20は、図示するように、外観に表されるスカート21の内側に、三つの駆動輪22と、駆動輪22をベルト等を介して駆動するための移動機構駆動手段2とから構成されてよい。本実施形態の移動機構駆動手段2は一または複数のモータから構成されるものとし、以下では、移動機構駆動手段2をモータ2とも称する。
The
頭部30は、略人型の移動ロボット100において、人の頭(首より上の部分)に相当する構成としてロボット本体部10の上端に設けられてよい。頭部30は、人が見た際にその正面を顔として認識できるように構成されるのが望ましい。頭部30は、正面が向く方向を制御可能に構成される。具体的には、本実施形態の移動ロボット100は、一又は複数の頭部駆動手段3(アクチュエータ3)を備え、頭部駆動手段3を介して頭部を動かすことによりその正面の向きを制御できるように構成される。なお、以下では、頭部30の正面を顔部31と称する。
The
本実施形態の移動ロボット100は、頭部30を床面に対して水平方向(左右方向)に回転させる鉛直方向の回転軸を有し頭部30の左右方向への回転駆動を可能とする頭部駆動手段3(サーボモータ3a)を有する。これにより、移動ロボット100は、頭部30のみを鉛直方向に対して左右へ回転駆動させることができる。ただし、サーボモータ3aの配置は、図示する配置に制限されず、顔部31の向きを左右方向に動かすことができる限り適宜変更されてよい。例えば、サーボモータ3aは、ロボット本体部10を移動台車20に対して左右へ回転駆動させるように設けられてもよい。この場合、サーボモータ3aは、頭部30をロボット本体部10とともに垂直方向に対して左右へ回転駆動させることにより顔部31の向きを変えることができる。
The
また、移動ロボット100は、頭部30を床面に対して上下方向に駆動させる水平方向の回転軸を有し頭部30の上下を仰ぎ見る動作を可能とする頭部駆動手段3(サーボモータ3b)を有してもよい。これにより、移動ロボット100は、顔部31の向きを上下方向にも動かすことができる。
Further, the
図3は、本実施形態の頭部30の構成例をより具体的に説明する図である。頭部30の形状は、正面を顔部31として認識できる限り特に制限されない。例えば、顔部31は、正面を顔部31として容易に認識されるように、頭部30の正面部分にのみ視認される構造的な特徴を有していることが望ましい。例えば、図3(a)のように、人の顔を模した二つの目に相当する構成を頭部30の正面にのみ設けることにより、正面を顔部31として容易に認識されることができる。また、図3(b)に示すように、例えば透過部材等を用いて構成された特徴的な部分(太矢印で示す部分)が頭部30の正面に設けられることでも正面を顔部31として容易に認識されることができる。また、図示しないが、例えば略長球形等の頭部30において、正面のみを平面にする等してもよい。
FIG. 3 is a diagram for more specifically explaining a configuration example of the
また、頭部30は、図示するように、人間の首に相当する構成(頸部)を介してロボット本体部10に設けられてもよいし、ロボット本体部10の上端に直接設けられてもよい。すなわち、サーボモータ3a、3bは、頸部に設けられてもよいし、頭部30に設けられてもよい。なお、頭部30の正面部分、例えば、図3(a)に示す目に相当する部分や図3(b)に示す透過部材からなる部分に、移動ロボット100の周辺環境を認識するためのセンサ或いはカメラ等の外部環境認識手段(検出手段)が設けられてもよい。外部環境認識手段は、移動ロボット100が自律走行するための構成として、および又は、第2実施形態で後述する検出手段4として構成されてよい。
Further, as shown in the figure, the
図2に示すとおり、移動ロボット100はロボット本体部10の前面に腕部40を備える。腕部40は、マニピュレータ機構を備え、運搬する物品等を把持するための把持機構41が自由端に相当する先端に設けられている。ただし、腕部40の形状、数、および配置は図示する態様に制限されず目的に応じて適宜変更されてよい。例えば、移動ロボット100は、ロボット本体部10の両側面に腕部40を備える双腕ロボットとして構成されてもよい。
As shown in FIG. 2, the
以上が、本実施形態の移動ロボット100の構成例である。なお、移動ロボット100は、図2では省略されているが、移動ロボット100の動作を制御するのに必要となる他の構成、例えば、腕部40等を駆動する他のアクチュエータや、電力源となるバッテリ等を備えてもよい。
The above is a configuration example of the
次に、図4および図5を参照して、移動ロボット100の動作について説明する。
Next, the operation of the
図4は、本実施形態の移動ロボット100が行う頭部駆動制御を説明するフローチャートである。コントローラ1が備える記憶媒体には、図示のフローチャートを参照して以下に説明する処理を実行する制御プログラムが格納されている。
FIG. 4 is a flowchart illustrating the head drive control performed by the
ステップS11では、コントローラ1はタスク取得処理を実行する。タスク取得処理は、移動ロボット100が後述の移動経路設定処理(S12)によって設定される移動経路を生成するために必要な情報を取得するための処理である。タスク取得処理では、コントローラ1は例えば、ピックする部品の識別情報(部品ID)や、目的地の位置情報(例えば位置座標)等を取得する。取得方法に制限はなく、公知の無線通信技術を利用して取得してもよいし、不図示の情報入力手段(例えばタッチパネル等)を介して取得するように構成されてもよい。
In step S11, the
ステップS12では、コントローラ1(移動経路設定部11)は、タスク取得処理によって取得した情報に応じて生成された経路を移動ロボット100の移動経路として設定する。例えば、タスク取得処理によって部品IDを取得した場合には、移動経路設定部11は、当該部品IDにより特定される部品が置かれている場所を目的地として生成された現在地から当該目的地までの経路を移動経路として設定する。目的地までの移動経路が設定されると、続いて頭部駆動処理が実行される(S13)。
In step S12, the controller 1 (movement route setting unit 11) sets the route generated according to the information acquired by the task acquisition process as the movement route of the
ステップS13では、コントローラ1(頭部方向制御部13)は顔部31の向く方向を制御する頭部駆動処理を実行する。本ステップにおける頭部駆動処理は、移動ロボット100が移動を開始すると同時に、または移動を開始する所定時間前に実行される。ここでの所定時間は適宜設定されてよく、例えば移動を開始する直前(例えば1秒以内)でもよいし、比較的長めの時間(例えば3秒以上)が設定されてもよい。
In step S13, the controller 1 (head direction control unit 13) executes a head drive process that controls the direction in which the
頭部駆動処理(S13)では、頭部方向制御部13が、顔部31が移動方向を向くようにサーボモータ3aを制御する。そして、顔部31が移動方向を向く動作を開始するのと同時に、もしくは当該動作を開始してから上述の所定時間を経過した時に、移動処理(S14)が実行される。
In the head drive process (S13), the head
ここで、頭部駆動処理を実行する際の移動ロボット100の動作について図5を参照して説明する。
Here, the operation of the
図5は、頭部駆動処理を実行する際の移動ロボット100の動作を説明する図である。本図では、移動マニピュレータとして機能する移動ロボット100が部品をピックした後、移動を開始する直前までの動作が表されている。図5(a)は、部品をピックする作業を行う移動ロボット100と、移動ロボット100の隣で作業をしている人(作業者)とを示す。図5(b)は、移動ロボット100が部品をピックする作業を終えて停止している状態を示す。この時、移動ロボット100は、移動経路設定処理(S12)を実行して移動経路を設定してよい。図示する矢印は、設定した移動経路の一部であって、移動ロボット100の直近の移動方向(現在地からの移動方向)を示している。
FIG. 5 is a diagram illustrating the operation of the
ここで、移動ロボット100が頭部駆動処理を行わずに移動を開始すると、移動方向にいる作業者は、自分に向かって突然動き出す移動ロボット100を避けきれずに衝突されるおそれがある。また、衝突を避けられたとしても、自分に向かって突然動き出す可能性のある移動ロボット100が近くにいる状況下では、移動ロボット100の次の動作を警戒し、その心理的な負担により作業効率が低下するおそれがある。本実施形態の移動ロボット100は、近くにいる人に次の動作を予告するための頭部駆動処理を実行することで、このようなおそれを解消することができるように構成される。
Here, if the
図5(c)は、移動ロボット100が頭部駆動処理を実行して、顔部31を移動方向に向けている状態を示す。頭部駆動処理が実行されることで、移動ロボット100は、近くの人に対して移動する方向を示すとともに、続く移動動作を予告することができる。これにより、移動ロボット100は、人に移動経路からの退避行動を促すことができるので、人との衝突を回避することができる。また、移動ロボット100が移動開始時または移動を開始する前に移動方向に顔部31を向けることが作業者等に周知されることにより、自分のいる方向に突然移動してくることに対する警戒心をいだかせずに、共有の作業領域にいる人に安心感を与えることができる。
FIG. 5C shows a state in which the
なお、移動開始前の停止状態における顔部31の方向と移動方向とが一致している場合には、移動ロボット100は、頭部駆動処理を実行せずに移動を開始してもよいが、顔部31の向きを、例えば上下左右のいずれかの方向に一旦動かして、その後に移動方向に向けるようにしてもよい。こうすることで、移動ロボット100は、停止状態における顔部31の方向と移動方向とが一致している場合であっても、頭部30の動きでこれから移動することを近くにいる人に予告することができる。以上が頭部駆動処理(S13)に係る動作の詳細である。図4のフローチャートに戻って以下説明を続ける。
If the direction of the
ステップS14では、コントローラ1(移動制御部12)は、移動ロボット100を目的地まで移動させる移動処理を実行する。移動処理では、移動制御部12がモータ2を制御して、自動ロボット100を設定された移動経路に沿って目的地まで移動させる。移動ロボット100を目的地まで移動させる具体的な手法は特に制限されず、公知の種々の手法が適宜採用されてよい。例えば、移動ロボット100は、パスプランニングにより計画された経路と、予め記憶されたマップデータとに基づいて、オドメトリ、スキャンマッチング等の公知の自己位置推定を行いながらモータ2を制御して、目的地までの自律的な移動(自律走行)を実現するように構成されてよい。
In step S14, the controller 1 (movement control unit 12) executes a movement process for moving the
なお、移動ロボット100は、移動中(移動処理中)においても頭部駆動処理を実行するように構成されてよい。すなわち、コントローラ1(頭部方向制御部13)は、移動ロボット100の移動中において、移動方向を変更する時または移動方向を変更する所定時間前に顔部31を変更後の移動方向に向けるように頭部駆動処理を実行してもよい。所定時間は、適宜設定されてよく、例えば移動ロボット100の現在の移動速度に応じて変更されてよい。例えば、移動速度が速ければ速いほど、所定時間を短く設定してもよい。この場合には、移動速度がゼロ、すなわち停止状態時に頭部駆動処理を実行してから移動を開始するまでにかかる所定時間よりも、移動中に頭部駆動処理を実行してから進路変更を開始するまでにかかる所定時間の方が短く設定される。このように、所定時間を移動ロボット100の移動速度に応じて変更可能とすることにより、移動ロボット100の移動速度に応じた頭部30の動きを調整することができるので、周囲の人に安心感を与えつつ違和感のない頭部30の自然な動きを実現することができる。
The
このようにして、移動ロボット100は、顔部31の向く方向によって、停止状態からの移動開始時だけでなく、移動中においても、移動方向を変更すること及びその変更後の移動方向を近くの人に予告することができる。移動ロボット100が目的地に到達すると移動処理が終了する。
In this way, the
以上が、第1実施形態の移動ロボット100が行う頭部駆動制御の詳細である。なお、図4で示すフローチャートは本実施形態の頭部駆動制御を説明するための例示であって、図示するとおりに必ず実行されることを制限するものではない。例えば、タスク取得処理及び移動経路設定処理は、頭部駆動処理の前に実行されなくてもよい。
The above is the details of the head drive control performed by the
以上が第1実施形態の移動ロボット100の詳細である。以上説明したように、移動ロボット100は、移動方向に顔部31を向けるので、近くにいる人に移動方向を予告することができる。その結果、移動ロボット100は、同じ空間を共有する人に対して、移動ロボット100の移動に対する警戒心をいだかせず、安心感を与えることができる。
The above is the details of the
<第2実施形態>
以下、第2実施形態の移動ロボット200について説明する。移動ロボット200は、周囲に存在する人の位置、特に人の頭の位置を検出可能に構成される点が第1実施形態と主に相違する。以下、図6〜図14を参照しながら移動ロボット100との相違点を中心に説明する。なお、移動ロボット100と同様の構成については説明を割愛する。
<Second Embodiment>
Hereinafter, the
図6は、移動ロボット200の構成を説明する図である。図示するように、本実施形態の移動ロボット200は、第1実施形態の移動ロボット100に加えて、検出手段4と、コントローラ1の機能部としての人検出部21および衝突予測部22と、をさらに備える。
FIG. 6 is a diagram illustrating the configuration of the
検出手段4は、移動ロボット200の周囲環境に存在する障害物を検出する。ここでの障害物は主に人である。検出手段4は、例えば、センサ(イメージセンサ、ライダ、レーザスキャナ等)、ステレオカメラ等の少なくとも一つを含む。本実施形態の検出手段4は、イメージセンサから構成されるものとし、検出手段4を以下ではセンサ4とも称する。なお、イメージセンサは、光学系を通して検出した光を電気信号に変換する撮像素子を有するセンサであってその種類については特に制限されない。センサ4は、少なくとも前方を含む周囲環境に存在する障害物を検出可能に構成され、例えば、図3(a)で示す顔部31に構成された人の目に相当する部分等に設けられてよい。また、いわゆる360度カメラと言われるような全方位を検出できるセンサ4が例えば頭部30の頭頂部に設けられてもよい。本実施形態のセンサ4は、移動ロボット100の少なくとも前方を含む周辺に存在する人の位置と姿勢を認識可能な画像データを検出して、検出データ(画像データ)をコントローラ1に送信する。
The detecting means 4 detects an obstacle existing in the surrounding environment of the
人検出部21は、センサ4が取得した画像データに基づいて、人の位置と姿勢とを検出する。ここで検出する姿勢は、必ずしも体全体の構えではなく、少なくとも人の頭の位置を判別可能であればよい。画像データに基づいて人の位置と姿勢とを検出する手法として、公知の種々の手法を採用し得るが、本実施形態では、画像データから人の骨格(ボーン)を検出して人の位置と姿勢とを検出する手法が採用される。当該手法は、ボーンモデル、ボーン検出等とも称される。このような手法を採用することにより、人検出部21は、移動ロボット200の周辺にいる人の頭の位置を容易に検出することができる。
The
衝突予測部22は、移動ロボット200が設定された移動経路に沿って移動した場合に、移動ロボット200と人とが衝突するか否かを予測する。移動ロボット200と人との衝突を予測する手法としては、公知の種々の手法が適宜採用されてよい。本実施形態で採用される衝突予測の具体例については図8を参照して後述する。
The
以上が移動ロボット200の主な構成である。以下、図7から図14を参照して、移動ロボット200の動作について説明する。
The above is the main configuration of the
図7は、第2実施形態の移動ロボット200が行う頭部駆動制御を説明するフローチャートである。コントローラ1が備える記憶媒体には、図示のフローチャートを参照して以下に説明する処理を実行する制御プログラムが格納されている。
FIG. 7 is a flowchart illustrating the head drive control performed by the
ステップS21〜ステップS23は、移動ロボット200が設定された移動経路に沿って移動を開始する時、又は移動を開始する前の停止状態時に実行される。
Steps S21 to S23 are executed when the
ステップS21では、コントローラ1(衝突予測部22)は、移動ロボット200と人とが衝突するか否かを予測する衝突判定処理を実行する。衝突判定処理の詳細について図8を参照して説明する。
In step S21, the controller 1 (collision prediction unit 22) executes a collision determination process for predicting whether or not the
図8は、本実施形態の衝突予測部22が行う衝突判定処理を説明する図である。図8では、移動ロボット200と人検出部21により検出された人300とが示されている。移動ロボット200から延びる点線矢印は、設定された移動経路を示す。また、移動ロボット200から延びる実線矢印は、移動ロボット200の直近の移動方向を示す。直近の移動方向とは、設定された移動経路上における現在地からの移動方向を示すものであり、原則として現在地を起点とする直線で示される。換言すれば、直近の移動方向とは、現在地から、移動経路上において最初に方向転換する地点(第1経由点)に向かう方向である。
FIG. 8 is a diagram illustrating a collision determination process performed by the
本実施形態の衝突判定処理は、移動ロボット200および人300を、上方から床面に投射された単純な二次元図形とみなし、当該二次元図形同士が干渉する否かを判定することにより行われる。図8で例示されるように、移動ロボット200は、例えば、移動台車20や腕部40の各リンクに対応して投射された円の連なりで表現される。また、人300は、腕を水平方向に伸ばした場合に水平方向に広がる領域を考慮した円で表現されている。なお、投射された二次元図形の外縁すなわち円の直径は、上方から見た移動ロボット200の水平方向幅の最大値、および人300が両腕を水平方向に広げた場合の水平方向幅の最大値にそれぞれ一致する必要は必ずしもない。投射された二次元図形は、若干広くして余裕を持たせたり、現実的な可動範囲を考慮して狭めたりするなど適宜調整されてよい。
The collision determination process of the present embodiment is performed by regarding the
また、移動ロボット200に対応する円は、移動ロボット200が所定距離または所定時間移動する間の移動経路に沿って生成される。図8では、点線円で示す所定距離内における移動経路を直近の移動方向に移動する移動ロボット200に対応する円が時系列に示されている。図示するように、本実施形態の上記所定距離は、直近の移動方向への移動距離(現在地から第1経由点までの距離)以下の距離に設定されてよい。本図では、移動ロボット200に対応する現在の円を(t)とし、移動経路に沿って時系列に生成された円を(t+1)、(t+2)として示している。そして、衝突予測部22は、移動ロボット200から所定距離内において、移動ロボット200に対応する円と人300に対応する円とが接触(干渉)するか否かを計算する。接触するか否かは、例えば円と円との中心間距離と、各円のそれぞれの半径とに基づいて容易に計算することができる。これにより、衝突予測部22は、例えば図示のように、移動ロボット200が(t+2)において人300と衝突し得ることを予測することができる。
Further, the circle corresponding to the
なお、図中の点線円で示す所定距離、すなわち現在地を基準とする衝突予測の距離的範囲は移動ロボット200の移動速度等に応じて適宜調整されてよい。また、図示の(t+1)、(t+2)で示す二次元図形の生成間隔は、移動ロボット200および人300の少なくともいずれか一方の移動速度、検出部21により人300を検出する際のサンプリング周波数等を考慮して適宜調整されてよい。なお、衝突検証用図形として上述のような二次元図形を生成する衝突判定手法は一例であって、これに限られない。衝突予測部22は、衝突検証用図形として三次元図形を生成する公知の他の衝突判定手法を採用してもよい。この場合には、移動ロボット200および人300の各リンクは、衝突検証用図形として3次元の球体またはポリゴンメッシュで表されてもよい。
The predetermined distance indicated by the dotted line circle in the figure, that is, the distance range of the collision prediction based on the current location may be appropriately adjusted according to the moving speed of the
以上が衝突予測部22が行う衝突判定処理(S21)の詳細である。以下、図7のフローチャートに戻って説明を続ける。
The above is the details of the collision determination process (S21) performed by the
衝突判定処理によって人と衝突しないと判定されると(S21、NO判定)、頭部駆動処理を行うステップS22の処理が実行される。本ステップに係る頭部駆動処理は、第1実施形態において上述した頭部駆動処理と同様である(S13、図5(c)参照)。頭部駆動処理が実行されると、設定された移動経路に沿って移動するために続く移動処理(S24)に進む。他方、人と衝突すると判定されると(YES判定)、ステップS23の人対応頭部駆動処理が実行される。 When it is determined by the collision determination process that the vehicle does not collide with a person (S21, NO determination), the process of step S22 for performing the head drive process is executed. The head drive process according to this step is the same as the head drive process described above in the first embodiment (see S13, FIG. 5 (c)). When the head drive process is executed, the process proceeds to the subsequent move process (S24) in order to move along the set movement path. On the other hand, if it is determined that the vehicle collides with a person (YES determination), the human-compatible head drive process in step S23 is executed.
ステップS23では、コントローラ1(頭部方向制御部13)は、人対応頭部駆動処理を実行する。人対応頭部駆動処理は、移動ロボット200の現在地から所定距離内において、移動ロボット200が現在地からの移動方向(直近の移動方向)に移動すると衝突すると判定された人に対して実行される処理である。
In step S23, the controller 1 (head direction control unit 13) executes the human-compatible head drive process. The human-compatible head drive process is a process executed for a person who is determined to collide when the
図9は、停止状態から移動を開始する際に実行される人対応頭部駆動処理(S23)を説明する図である。図9で示すように、人対応頭部駆動処理(S23)では、頭部方向制御部13は、頭部駆動手段3を制御して、顔部31を衝突すると判定された人の頭に向ける。図示するように顔部31を上方に向けるためには、頭部方向制御部13がサーボモータ3bの駆動を制御すればよい。
FIG. 9 is a diagram illustrating a human-compatible head drive process (S23) executed when the movement is started from the stopped state. As shown in FIG. 9, in the human-compatible head drive process (S23), the head
ここで、停止状態の移動ロボット200が移動を開始するにあたって、顔部31を人の頭に向ける場合と向けない場合の各状況を図10および図11を用いて整理する。図10および図11では、移動ロボット200と、移動ロボット200から延びる点線矢印で示す移動経路と、移動ロボット200から延びる実線矢印で示す直近の移動方向と、点線円で示す移動ロボット200からの所定距離と、人とが示されている。
Here, when the
図10は、顔部31を人の頭に向ける場合の状況を説明する図である。図10(a)で示すように、人が、所定距離内であって、且つ移動経路上における直近の移動方向にいる場合には、当然衝突すると予測されるので、移動ロボット200は顔部31を人の頭に向ける。また、図10(b)で示すように、人が、移動経路上における直近の移動方向からずれた位置にいる場合でも、所定距離内であって、且つ移動ロボット200が直近の移動方向に移動した場合に衝突すると予測される位置にいる場合には、移動ロボット200は顔部31を人の頭に向ける。これにより、移動ロボット200は、衝突すると予測される人に対して移動動作を予告することができるとともに、移動経路からの退避を促すことができる。
FIG. 10 is a diagram illustrating a situation when the
他方、図11は、顔部31を人の頭に向けない場合の状況を説明する図である。図11(a)および図11(b)では、人が所定範囲内におらず、移動ロボット200と衝突すると予測されないので、直近の移動方向にいるいないに関わらず、移動ロボット200は顔部31を人の頭に向けない。また、図11(c)および図11(d)では、人が所定範囲内にいるものの、移動ロボット200が直近の移動方向に移動しても当該人に近づく可能性が低いことなどを理由に、衝突しないと予測されるので、移動ロボット200は顔部31を人の頭に向けない。
On the other hand, FIG. 11 is a diagram illustrating a situation in which the
人対応頭部駆動処理(S23)が実行されると、衝突すると予測される人がいなくなるまで、すなわち、前段で行われた衝突判定処理(S21)によって衝突すると判定された人が移動経路上から立ち退く等するまで、ステップS21からステップS23の処理が繰り返し実行される。この間、移動ロボット200は、顔部31を人の頭に向けた状態を維持し、無言の圧力を与え続けることにより、直近の移動方向からの退避を促し続けることができる。
When the human-compatible head drive process (S23) is executed, until there are no people predicted to collide, that is, the person determined to collide by the collision determination process (S21) performed in the previous stage is from the movement path. The processes of steps S21 to S23 are repeatedly executed until eviction or the like. During this time, the
ただし、ステップS21からステップS23の処理を繰り返す間、必ずしも、顔部31を人の頭に向けた状態が維持され続ける必要はない。例えば、衝突が予測される人が一定時間立ち退かない場合には、衝突が予測される人が移動ロボット200の予告動作により早く気付くように、頭部30を左右に振るなどの目立つ動作を行ってもよい。また、移動ロボット200は、不図示の報知手段を備え、当該報知手段を用いて、衝突が予測される人に対して移動経路からの退避をより直接的に訴えるように構成されてよい。
However, while the processes of steps S21 to S23 are repeated, it is not always necessary to keep the
例えば、移動ロボット200は、報知手段としてのスピーカと、報知手段を制御するコントローラ1の機能部(報知手段制御部)と、をさらに備えてもよい。そして、移動ロボット200は、人対応頭部駆動処理(S23)によって顔部31を人の頭に向けた後、一定時間経過してもなお当該人と衝突すると判定され続けた場合には、スピーカから所定の音を出力するように構成されてよい。ここでの所定の音は、例えばブザー音からなる警告音でもよいし、「すみません、移動します」、「通ります」といった音声でもよい。これにより、移動ロボット200は、衝突が予測される人に対してより明確でより強い移動予告を行うことができる。
For example, the
衝突すると予測される人がいなくなると(S21、NO判定)、顔部31を移動方向に向けて(S22)、移動経路に沿って移動するための移動処理が実行される(S24)。
When there are no more people predicted to collide (S21, NO determination), the
以上、第2実施形態の人対応頭部駆動制御について説明した。続いて、図7に示すステップS24の移動処理の詳細について、図12を参照して説明する。 The human-friendly head drive control of the second embodiment has been described above. Subsequently, the details of the movement process in step S24 shown in FIG. 7 will be described with reference to FIG.
図12は、第2実施形態の移動ロボット200が行う移動処理を説明するフローチャートである。本フローチャートで説明する移動処理は、移動ロボット200が設定された移動経路に沿って目的地まで移動している間常時実行される。なお、コントローラ1が備える記憶媒体には、図示のフローチャートを参照して以下に説明する処理を実行する制御プログラムが格納されている。
FIG. 12 is a flowchart illustrating a movement process performed by the
ステップS221では、コントローラ1(衝突予測部22)は衝突判定処理を実行する。衝突判定処理は、第1実施形態において上述した手法と同様であってよい(図8参照)。ただし、本ステップで実行される衝突判定処理は、移動ロボット200の移動中に行われることを考慮して次のように実行されてもよい。
In step S221, the controller 1 (collision prediction unit 22) executes the collision determination process. The collision determination process may be the same as the method described above in the first embodiment (see FIG. 8). However, the collision determination process executed in this step may be executed as follows in consideration of being performed while the
図13は、特に移動ロボット200の移動中に実行される衝突判定処理を説明する図である。図13では、移動ロボット200と、移動ロボット200から延びる点線矢印で示す移動経路と、移動ロボット200から延びる実線矢印で示す直近の移動方向と、点線円で示す移動ロボット200からの所定距離と、一点鎖線円で示す減速開始エリアと、人とが示されている。
FIG. 13 is a diagram for explaining a collision determination process executed while the
移動時における移動制御部12は、人検出部21が移動経路上に人を検出した場合に、移動ロボット200の移動を減速または停止させる処理(減速処理)を実行してもよい。図13(a)に示す一点鎖線円は、人が検出された場合に減速処理を実行するように設定された減速開始エリア(減速開始距離)を例示する円である。
The
そして、減速処理が行われた後、所定範囲内における移動経路上であって且つ直近の移動方向に人が検出された場合に(図13(b)参照)、頭部方向制御部13は、人対応頭部駆動処理(S23)を実行する。これにより、移動中に人と遭遇した場合であっても、移動経路からの退避を衝突する前に安全に促すことができる。なお、減速開始エリアの大きさ、および停止を含む減速の度合いは、移動ロボット200および人の移動速度等を考慮して適宜調整されてよい。また、減速処理は、減速エリア内において人が検出された場合だけでなく、移動ロボット200の移動を妨げうる何らかの障害物が検出された場合にも実行されてよい。
Then, after the deceleration process is performed, when a person is detected on the movement path within a predetermined range and in the latest movement direction (see FIG. 13 (b)), the head
図12のステップS221に戻って説明を続ける。ステップS221において人と衝突しないと判定された場合には(NO判定)、目的地に到達するまで、ステップS221からステップS222の処理が繰り返し実行される。人と衝突すると判定された場合には(YES判定)、ステップS223の処理が実行される。 The explanation will be continued by returning to step S221 of FIG. If it is determined in step S221 that the vehicle does not collide with a person (NO determination), the processes of steps S221 to S222 are repeatedly executed until the destination is reached. If it is determined that the vehicle collides with a person (YES determination), the process of step S223 is executed.
ステップS223では、コントローラ1は、衝突判定処理によって衝突すると判定された人が複数か否かを判定する。複数ではなく一人であれば(NO判定)、衝突が予測される人の頭に顔部31を向けるために人対応頭部駆動処理(S225)を実行する。他方、複数人であれば(YES判定)、顔部31を向ける人を特定するために人特定処理(S224)を実行する。
In step S223, the
図14は、人特定処理を説明する図である。図14では、移動ロボット200と、移動ロボット200から延びる点線矢印で示す移動経路と、移動ロボット200から延びる実線矢印で示す直近の移動方向と、点線円で示す移動ロボット200からの所定距離と、人Aおよび人Bを含む複数の人と、が示されている。
FIG. 14 is a diagram illustrating a person identification process. In FIG. 14, the
図14に示す人Aおよび人Bは、両者とも衝突が予測される人である。このように、移動ロボット200が直近の移動方向に移動した場合に衝突すると予測される人が複数いる場合には、頭部30は、最初に衝突が予測される人の頭に顔部31を向けるように制御される。すなわち、人特定処理では、コントローラ1は、移動ロボット200が移動した際に最初に衝突すると予測される人を特定する。具体的には、移動ロボット200に一番近い人(人A)が、最初に衝突が予測される人と特定される。ただし、最初に衝突が予測される人を特定する際に、人の移動速度や移動方向が考慮されてもよい。この場合、例えば、人Aが移動ロボット200からゆっくりと遠ざかる一方で、人Bが移動ロボット200に速やかに近づいている場合には、人Bが最初に衝突が予測される人として特定される場合があってよい。人特定処理により顔部31を向ける人が特定されると、ステップS225の処理が実行される。
Person A and person B shown in FIG. 14 are both persons who are expected to collide. In this way, when there are a plurality of people who are predicted to collide when the
ステップS225では、コントローラ1(頭部方向制御部13)は、人の頭に顔部31を向けるために人対応頭部駆動処理を実行する。ここでの人対応頭部駆動処理は、図7のステップS23で説明した処理と同様である(図9等参照)。そして、衝突が予測される人がいなくなると(S221、NO判定)、目的地に到着するまで、ステップS221からステップS222の処理が繰り返し実行される。
In step S225, the controller 1 (head direction control unit 13) executes a human-compatible head drive process in order to direct the
そして、移動ロボット200が目的地に到着すると、コントローラ1(移動制御部12)は、移動ロボット200の移動を停止し、移動処理は終了する。これにより、移動ロボット200は、直近の移動方向に移動すると人と衝突すると予測される場合には、当該人の頭に対して顔部31を向けることで、移動ロボット200が移動することを直接的に訴えかけることができるので、当該人に対して移動経路からの退避をより強く促すことができる。
Then, when the
以上が、第2実施形態の移動ロボット200が行う頭部駆動制御および移動処理の詳細である。なお、図7および図12で示すフローチャートは本実施形態の頭部駆動制御および移動処理を説明するための例示であって、必ずしも図示するとおりに実行されることを制限するものではない。本実施形態の頭部駆動制御では、上述したように、少なくとも停止中又は移動中に人と衝突するか否かを判定し、人と衝突すると判定された場合に人対応頭部駆動処理が行わればよく適宜変更されてよい。
The above is the details of the head drive control and the movement process performed by the
例えば、図7に示す頭部駆動処理(S22)は、衝突判定処理(S21)の前に実行されてよい。特に、例えばセンサ4が顔部31に設けられ、頭部30の前方にいる人のみを検出するように構成されている場合には、衝突判定処理(S21)が実行される前に、移動方向に顔部31を向ける頭部駆動処理(S24)が実行されるのが望ましい。また、例えば、図12に示す人特定処理の一連の流れ(S223、S224)は、図7のステップS21のYES判定後に実行されてもよい。
For example, the head drive process (S22) shown in FIG. 7 may be executed before the collision determination process (S21). In particular, for example, when the
以上が第2実施形態の移動ロボット200の詳細である。以上説明したように、移動ロボット200は、移動すると衝突すると予測される人の頭に顔部31を向けるので、近くにいる人に移動方向を予告するだけでなく、衝突を回避するための退避を促すことができる。その結果、移動ロボット200は、同じ空間を共有する人が移動ロボット200の移動に対していだき得る警戒心を解消し、安心感を与えることができる。
The above is the details of the
以上、本発明の実施形態について説明したが、上記実施形態は本発明の適用例の一部を示したに過ぎず、本発明の技術的範囲を上記実施形態の具体的構成に限定する趣旨ではない。また、上記の実施形態は、矛盾が生じない範囲で適宜組み合わせ可能である。 Although the embodiments of the present invention have been described above, the above embodiments are only a part of the application examples of the present invention, and the technical scope of the present invention is limited to the specific configurations of the above embodiments. No. In addition, the above embodiments can be appropriately combined as long as there is no contradiction.
例えば、図2で示す移動ロボット100、200の構成は、少なくとも頭部30を備え、全方位移動台車部(移動台車20)により移動可能に構成される限り適宜変更されてよい。例えば、移動ロボット100、200は、ロボット本体部10を備えなくてもよい。この場合、頭部30は、移動台車20に直接設けられるように構成されてよい。
For example, the configurations of the
本発明は、少なくとも移動ロボット等を製造する産業において利用可能である。 The present invention can be used at least in an industry that manufactures mobile robots and the like.
1 コントローラ
2 移動機構駆動手段
3 頭部駆動手段
4 検出手段
10 ロボット本体部
11 移動経路設定部
12 移動制御部
13 頭部方向制御部(頭部制御部)
20 移動台車(全方位移動台車部)
21 人検出部(検出部)
22 衝突予測部
30 頭部
40 腕部
100 移動ロボット(第1実施形態)
200 移動ロボット(第2実施形態)
300 人
1
20 Mobile trolley (omnidirectional mobile trolley)
21 person detection unit (detection unit)
22
200 mobile robot (second embodiment)
300 people
Claims (13)
正面を顔部とする頭部と、
前記頭部を駆動する駆動手段と、
前記駆動手段を制御する頭部制御部と、を備え、
前記頭部制御部は、前記駆動手段を制御して、前記移動ロボットが移動を開始する時または移動を開始する所定時間前に前記顔部を移動方向に向ける、移動ロボット。 It is a mobile robot that moves by the omnidirectional mobile trolley.
The head with the front as the face and
The driving means for driving the head and
A head control unit that controls the driving means is provided.
The head control unit is a mobile robot that controls the driving means to turn the face portion in the moving direction when the mobile robot starts moving or before a predetermined time when the moving robot starts moving.
人の頭の位置を検出する検出部と、
前記移動ロボットから所定距離内において、前記移動ロボットが前記移動経路を現在地からの移動方向に移動した場合に前記人と衝突するか否かを判定する衝突判定部と、をさらに備え、
前記衝突判定部が前記人と衝突すると判定した場合は、前記頭部制御部は前記顔部を前記人の頭に向ける、請求項1から4のいずれか一項に記載の移動ロボット。 The movement route setting unit that sets the movement route and
A detector that detects the position of a person's head,
A collision determination unit for determining whether or not the mobile robot collides with the person when the mobile robot moves in the movement direction from the current location within a predetermined distance from the mobile robot is further provided.
The mobile robot according to any one of claims 1 to 4, wherein when the collision determination unit determines that the robot collides with the person, the head control unit directs the face to the person's head.
前記検出部は、前記イメージセンサが検出した画像データに基づいて前記人の頭の位置を検出する、請求項5又は6に記載の移動ロボット。 Equipped with an image sensor
The mobile robot according to claim 5 or 6, wherein the detection unit detects the position of the person's head based on the image data detected by the image sensor.
前記衝突判定部が複数の前記人に衝突すると判定した場合は、前記頭部制御部は前記顔部を前記特定部が特定した前記人の頭に向ける、請求項5から7のいずれか一項に記載の移動ロボット。 Further provided with a specific unit for identifying the person who is predicted to collide first when the collision determination unit determines that the person collides with the plurality of persons.
Any one of claims 5 to 7, wherein when the collision determination unit determines that the collision determination unit collides with a plurality of the person, the head control unit directs the face portion to the head of the person specified by the specific unit. The mobile robot described in.
前記ロボットの移動中に前記移動経路上に前記人を含む障害物が検出された場合は、前記移動制御部は前記移動ロボットを減速又は停止させる、請求項5から8のいずれか一項に記載の移動ロボット。 A movement control unit that controls the movement of the mobile robot is further provided.
The method according to any one of claims 5 to 8, wherein when an obstacle including the person is detected on the movement path during the movement of the robot, the movement control unit decelerates or stops the mobile robot. Mobile robot.
前記スピーカを用いて所定の音を出力する報知制御部と、さらに備え、
前記報知制御部は、前記頭部制御部が前記顔部を前記人の頭に向けた後、一定時間経過しても前記衝突判定部が当該人と衝突すると判定する場合は、所定の音を出力する、請求項5から9のいずれか一項に記載の移動ロボット。 With speakers
A notification control unit that outputs a predetermined sound using the speaker, and further provided.
When the head control unit determines that the collision determination unit collides with the person even after a certain period of time has passed after the face portion is directed toward the person's head, the notification control unit makes a predetermined sound. The mobile robot according to any one of claims 5 to 9, which outputs.
前記頭部を駆動する駆動手段と、を備え、全方位移動台車部により移動する移動ロボットの制御方法であって、
前記駆動手段を制御する頭部制御ステップ、を含み、
前記頭部制御ステップでは、前記駆動手段を制御して、前記移動ロボットが移動を開始する時または移動を開始する所定時間前に前記顔部を移動方向に向ける、移動ロボットの制御方法。 The head with the front as the face and
It is a control method of a mobile robot provided with a driving means for driving the head and moved by an omnidirectional moving carriage unit.
Including a head control step, which controls the driving means.
In the head control step, a method for controlling a mobile robot, in which the driving means is controlled to turn the face portion in a moving direction when the mobile robot starts moving or before a predetermined time when the moving robot starts moving.
前記頭部を駆動する駆動手段と、を備え、全方位移動台車部により移動する移動ロボットの制御プログラムであって、
前記駆動手段を制御する頭部制御ステップ、を含み、
前記頭部制御ステップでは、前記駆動手段を制御して、前記移動ロボットが移動を開始する時または移動を開始する所定時間前に前記顔部を移動方向に向ける、移動ロボットの制御プログラム。 The head with the front as the face and
A control program for a mobile robot that includes a driving means for driving the head and is moved by an omnidirectional moving carriage.
Including a head control step, which controls the driving means.
In the head control step, a control program for a mobile robot that controls the driving means to turn the face portion in a moving direction when the mobile robot starts moving or a predetermined time before the moving starts.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020080556A JP2021171904A (en) | 2020-04-30 | 2020-04-30 | Mobile robot, method for controlling mobile robot and control program |
PCT/JP2021/012348 WO2021220678A1 (en) | 2020-04-30 | 2021-03-24 | Mobile robot, method for controlling mobile robot, and control program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020080556A JP2021171904A (en) | 2020-04-30 | 2020-04-30 | Mobile robot, method for controlling mobile robot and control program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021171904A true JP2021171904A (en) | 2021-11-01 |
Family
ID=78281160
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020080556A Pending JP2021171904A (en) | 2020-04-30 | 2020-04-30 | Mobile robot, method for controlling mobile robot and control program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2021171904A (en) |
WO (1) | WO2021220678A1 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2739030B2 (en) * | 1993-10-25 | 1998-04-08 | 三菱重工業株式会社 | Crawler-type vehicle traveling control device |
JP2011204145A (en) * | 2010-03-26 | 2011-10-13 | Sony Corp | Moving device, moving method and program |
US8918213B2 (en) * | 2010-05-20 | 2014-12-23 | Irobot Corporation | Mobile human interface robot |
JP2016081403A (en) * | 2014-10-21 | 2016-05-16 | 株式会社Ihiエアロスペース | Unmanned moving body and method of creating route for unmanned moving body |
-
2020
- 2020-04-30 JP JP2020080556A patent/JP2021171904A/en active Pending
-
2021
- 2021-03-24 WO PCT/JP2021/012348 patent/WO2021220678A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2021220678A1 (en) | 2021-11-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021220679A1 (en) | Robot control device, method, and program | |
JP6436604B2 (en) | Method and system implemented by a computing system | |
JP6936081B2 (en) | robot | |
US10293484B2 (en) | Robot device and method of controlling the robot device | |
US9079307B2 (en) | Autonomous locomotion apparatus, autonomous locomotion method, and program for autonomous locomotion apparatus | |
JP6854722B2 (en) | robot | |
JP5324286B2 (en) | Network robot system, robot control apparatus, robot control method, and robot control program | |
JP5768273B2 (en) | A robot that predicts a pedestrian's trajectory and determines its avoidance behavior | |
JP2009113190A (en) | Autonomous working robot and method of controlling operation of autonomous working robot | |
JP2017080845A (en) | Robot control system | |
KR20170042547A (en) | Humanoid robot with collision avoidance and trajectory recovery capabilities | |
KR20090032130A (en) | Moving device | |
JP4940698B2 (en) | Autonomous mobile robot | |
US11241790B2 (en) | Autonomous moving body and control program for autonomous moving body | |
JPWO2016104265A1 (en) | Moving body | |
JP7036399B2 (en) | Autonomous mobile robots, their control devices and motion control programs | |
JP2003140747A (en) | Autonomous moving device and system for operating the same | |
JP2011224679A (en) | Reaction robot, reaction control method, and reaction control program | |
CN112631269A (en) | Autonomous mobile robot and control program for autonomous mobile robot | |
JP2013188815A (en) | Control device, control method and computer program | |
WO2021220678A1 (en) | Mobile robot, method for controlling mobile robot, and control program | |
JP5552710B2 (en) | Robot movement control system, robot movement control program, and robot movement control method | |
US11353880B2 (en) | Autonomous moving body and control program for autonomous moving body | |
JP7317436B2 (en) | ROBOT, ROBOT CONTROL PROGRAM AND ROBOT CONTROL METHOD | |
JP2009151382A (en) | Traveling object |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20200430 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231213 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240207 |