JP2021171904A - Mobile robot, method for controlling mobile robot and control program - Google Patents

Mobile robot, method for controlling mobile robot and control program Download PDF

Info

Publication number
JP2021171904A
JP2021171904A JP2020080556A JP2020080556A JP2021171904A JP 2021171904 A JP2021171904 A JP 2021171904A JP 2020080556 A JP2020080556 A JP 2020080556A JP 2020080556 A JP2020080556 A JP 2020080556A JP 2021171904 A JP2021171904 A JP 2021171904A
Authority
JP
Japan
Prior art keywords
mobile robot
head
person
movement
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020080556A
Other languages
Japanese (ja)
Inventor
義弘 坂本
Yoshihiro Sakamoto
史朗 佐久間
Shiro Sakuma
雄希 松尾
Yuki Matsuo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Robotics Inc
Original Assignee
Tokyo Robotics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Robotics Inc filed Critical Tokyo Robotics Inc
Priority to JP2020080556A priority Critical patent/JP2021171904A/en
Priority to PCT/JP2021/012348 priority patent/WO2021220678A1/en
Publication of JP2021171904A publication Critical patent/JP2021171904A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages

Abstract

To provide a mobile robot that includes an omnidirectional movement carrier and does not make people around the robot cautious, instead, builds a feeling of safety.SOLUTION: A mobile robot that moves with an omnidirectional movement carrier part includes: a head part installed to a robot body part and including a face part at the front surface; drive means for driving the head part; and a head part control unit for controlling the drive means. The head part control unit controls the drive means to orient the face part in a movement direction when the robot starts moving or a prescribed time before moving.SELECTED DRAWING: Figure 2

Description

本発明は、例えば、移動ロボット等に関する。 The present invention relates to, for example, mobile robots and the like.

近年、工場や倉庫のみならず、商業ビルや空港、介護施設等、様々な場所にロボットが適用されている。例えば特許文献1では、工場で人と共有の作業領域を自律走行するような人協働型の移動ロボットが開示されている。 In recent years, robots have been applied not only to factories and warehouses, but also to various places such as commercial buildings, airports, and nursing care facilities. For example, Patent Document 1 discloses a human-cooperative mobile robot that autonomously travels in a work area shared with humans in a factory.

特許第6412179号公報Japanese Patent No. 6412179

ところで、人協働型の移動ロボットは、狭い通路での移動や人とのすれ違い移動等にも対応するため、移動機構として全方位への移動を可能にする全方位移動台車が採用されることが多い。しかしながら、全方位移動台車は移動方向を予測することが難しいため、ロボットの移動に対して近くにいる人に警戒心をいだかせる場合がある。 By the way, in order to support movement in a narrow passage or passing by a person, a human-cooperative mobile robot may adopt an omnidirectional mobile trolley that enables movement in all directions as a movement mechanism. many. However, since it is difficult to predict the moving direction of the omnidirectional moving trolley, it may warn people nearby about the movement of the robot.

本発明は、上述の技術的課題を解決するためになされたものであり、その目的とするところは、全方位移動台車を備える移動ロボットにおいて、近くの人に警戒心をいだかせずに安心感を与えることにある。 The present invention has been made to solve the above-mentioned technical problems, and an object of the present invention is to provide a feeling of security in a mobile robot equipped with an omnidirectional mobile trolley without alerting nearby people. Is to give.

上述の技術的課題は、以下の構成を有する移動ロボット等により解決することができる。 The above-mentioned technical problem can be solved by a mobile robot or the like having the following configuration.

すなわち、本発明に係る移動ロボットは、全方位移動台車部により移動する移動ロボットであって、正面を顔部とする頭部と、前記頭部を駆動する駆動手段と、前記駆動手段を制御する頭部制御部と、を備え、前記頭部制御部は、前記駆動手段を制御して、前記移動ロボットが移動を開始する時または移動を開始する所定時間前に前記顔部を移動方向に向ける、機能を備えている。 That is, the mobile robot according to the present invention is a mobile robot that moves by an omnidirectional mobile carriage unit, and controls a head having a front surface as a face, a driving means for driving the head, and the driving means. The head control unit includes a head control unit, and the head control unit controls the driving means to direct the face portion in the movement direction when the mobile robot starts moving or a predetermined time before the movement starts. , Has the function.

このような構成によれば、移動ロボットが、移動を開始する時または移動を開始する所定時間前に顔部を移動方向に向けることで、近くの人に移動すること、および移動する方向を予告するので、予告なしの移動による人との衝突を回避できると共に人に予告なしの移動に対する警戒心をいだかせずに安心感を与えることができる。 According to such a configuration, the mobile robot may move to a nearby person and notify the moving direction by turning the face in the moving direction at the time of starting the movement or a predetermined time before the start of the movement. Therefore, it is possible to avoid a collision with a person due to the movement without notice, and to give a sense of security to the person without being alert to the movement without notice.

前記頭部制御部は、前記移動ロボットの移動中において、移動方向を変更する時または移動方向を変更する所定時間前に前記顔部を変更後の移動方向に向ける、ものであってよい。 The head control unit may be one that directs the face portion to the changed moving direction when changing the moving direction or before a predetermined time for changing the moving direction while the mobile robot is moving.

このような構成によれば、移動ロボットが、移動方向を変更(進路変更)する時または進路変更する所定時間前に顔部を変更後の移動方向に向けるので、予告なしの進路変更により起こり得る人との衝突を回避できると共に人に予告なしの進路変更に対する警戒心をいだかせずに安心感を与えることができる。 According to such a configuration, when the mobile robot changes the moving direction (changes the course) or turns the face in the changed moving direction before a predetermined time for changing the course, it may occur due to the change of the course without notice. It is possible to avoid collisions with people and give people a sense of security without being wary of changing course without notice.

前記所定時間は、前記移動ロボットの移動速度に応じて変更される、ものであってよい。 The predetermined time may be changed according to the moving speed of the mobile robot.

このような構成によれば、頭部を駆動するタイミングと、停止時からの移動または進路変更の開始タイミングとの間に変更可能な所定時間を設けることができるので、例えば移動速度に応じた自然な頭部の動きを調整でき、違和感のない頭部の動きを実現することができる。 According to such a configuration, a predetermined time that can be changed can be provided between the timing of driving the head and the start timing of movement or course change from the time of stop, so that, for example, it is natural according to the movement speed. The movement of the head can be adjusted, and the movement of the head can be realized without any discomfort.

前記駆動手段は、前記頭部を左右方向に回転駆動させる鉛直方向の回転軸を備える、ものであってよい。 The driving means may include a rotating shaft in the vertical direction for rotationally driving the head in the left-right direction.

このような構成によれば、鉛直方向の回転軸の回転を制御することで、頭部の左右方向への回転駆動を実現することができる。 According to such a configuration, by controlling the rotation of the rotation axis in the vertical direction, it is possible to realize the rotational drive of the head in the left-right direction.

移動経路を設定する移動経路設定部と、人の頭の位置を検出する検出部と、前記移動ロボットから所定距離内において、前記移動ロボットが前記移動経路を現在地からの移動方向に移動した場合に前記人と衝突するか否かを判定する衝突判定部と、をさらに備え、前記衝突判定部が前記人と衝突すると判定した場合は、前記頭部制御部は前記顔部を前記人の頭に向ける、ものであってよい。 A movement route setting unit that sets a movement route, a detection unit that detects the position of a person's head, and a case where the mobile robot moves the movement route in the movement direction from the current location within a predetermined distance from the mobile robot. A collision determination unit for determining whether or not to collide with the person is further provided, and when the collision determination unit determines that the collision with the person, the head control unit puts the face portion on the person's head. It may be something to point at.

このような構成によれば、移動ロボットが移動する際に衝突すると予測される人の頭に顔部を向けることができるので、人に移動方向を予告するだけでなく、衝突を回避するための退避行動を促すことができる。 According to such a configuration, the face can be directed to the head of a person who is predicted to collide when the mobile robot moves, so that the person is not only notified of the moving direction but also to avoid the collision. Evacuation behavior can be encouraged.

前記駆動手段は、前記頭部を上下方向に駆動させる水平方向の回転軸をさらに備える、ものであってよい。 The driving means may further include a horizontal rotation axis that drives the head in the vertical direction.

このような構成によれば、水平方向の回転軸の回転を制御することで、上下を仰ぎ見るような頭部の動作を実現することができるので、移動ロボットの頭部よりも高い位置又は低い位置にある人の頭に顔部を向けることができる。 According to such a configuration, by controlling the rotation of the rotation axis in the horizontal direction, it is possible to realize the movement of the head as if looking up and down, so that the position is higher or lower than the head of the mobile robot. You can turn your face to the head of the person in position.

イメージセンサをさらに備え、前記検出部は、前記イメージセンサが検出した画像データに基づいて前記人の頭の位置を検出する、ものであってよい。 An image sensor may be further provided, and the detection unit may detect the position of the person's head based on the image data detected by the image sensor.

このような構成によれば、画像データを解析する種々のアルゴリズム(ソフトウェア)を用いて、人の頭の位置を容易に検出することができる。 According to such a configuration, the position of the human head can be easily detected by using various algorithms (software) for analyzing the image data.

前記衝突判定部が複数の前記人に衝突すると判定した場合に最初に衝突すると予測される人を特定する人特定部をさらに備え、前記衝突判定部が複数の前記人に衝突すると判定した場合は、前記頭部制御部は前記顔部を前記人特定部が特定した前記人の頭に向ける、ものであってよい。 When the collision determination unit further includes a person identification unit that identifies the person who is predicted to collide first when it is determined that the collision determination unit collides with the plurality of persons, and the collision determination unit determines that the collision determination unit collides with the plurality of persons. The head control unit may direct the face portion to the head of the person specified by the person identification unit.

このような構成によれば、移動ロボットが移動すると衝突すると予測される人が複数いる場合であっても、人の行動原理と同様の順番で特定された人に対して、順次、違和感なく退避を促すことができる。 According to such a configuration, even if there are a plurality of people who are predicted to collide when the mobile robot moves, the people identified in the same order as the human behavior principle are sequentially evacuated without discomfort. Can be encouraged.

前記移動ロボットの移動を制御する移動制御部をさらに備え、前記ロボットの移動中に前記移動経路上に前記人を含む障害物が検出された場合は、前記移動制御部は前記移動ロボットを減速又は停止させる、ものであってよい。 A movement control unit that controls the movement of the mobile robot is further provided, and when an obstacle including the person is detected on the movement path during the movement of the robot, the movement control unit decelerates or decelerates the mobile robot. It may be something to stop.

このような構成によれば、移動中の移動ロボットが人と遭遇した場合であっても、余裕をもって、安全に退避を促すことができる。 According to such a configuration, even when a moving mobile robot encounters a person, it is possible to safely urge evacuation with a margin.

スピーカと、前記スピーカを用いて所定の音を出力する報知制御部と、をさらに備え、前記報知制御部は、前記頭部制御部が前記顔部を前記人の頭に向けた後、一定時間経過しても前記衝突判定部が当該人と衝突すると判定する場合は、所定の音を出力する、ものであってよい。 A speaker and a notification control unit that outputs a predetermined sound using the speaker are further provided, and the notification control unit is provided for a certain period of time after the head control unit directs the face portion toward the person's head. If it is determined that the collision determination unit collides with the person even after the lapse of time, a predetermined sound may be output.

このような構成によれば、スピーカを用いて人の聴覚に訴えることができるので、より強く、より明確に退避を促すことができる。 According to such a configuration, since it is possible to appeal to the human hearing by using the speaker, it is possible to promote the evacuation more strongly and more clearly.

マニピュレータ機構を有する一又は複数の腕部をさらに備える、ものであってよい。 It may further include one or more arms having a manipulator mechanism.

このような構成によれば、移動を予告する機能、または、それに加えて退避を促す機能を備える移動マニピュレータを実現することができる。 According to such a configuration, it is possible to realize a movement manipulator having a function of notifying the movement or a function of urging the evacuation in addition to the function of notifying the movement.

本発明は、方法として観念することもできる。すなわち、本発明にかかる移動ロボットの制御方法は、正面を顔部とする頭部と、前記頭部を駆動する駆動手段と、を備え、全方位移動台車部により移動する移動ロボットの制御方法であって、前記駆動手段を制御する頭部制御ステップ、を含み、前記頭部制御ステップでは、前記駆動手段を制御して、前記移動ロボットが移動を開始する時または移動を開始する所定時間前に前記顔部を移動方向に向ける。 The present invention can also be thought of as a method. That is, the method for controlling a mobile robot according to the present invention is a method for controlling a mobile robot that includes a head having a front face as a face and a driving means for driving the head, and is moved by an omnidirectional mobile trolley. The head control step includes a head control step for controlling the drive means, and the head control step controls the drive means when the mobile robot starts moving or before a predetermined time before the movement starts. The face is turned in the direction of movement.

本発明は、コンピュータプログラムとして観念することもできる。すなわち、本発明に係る移動ロボットの制御プログラムは、正面を顔部とする頭部と、前記頭部を駆動する駆動手段と、を備え、全方位移動台車部により移動する移動ロボットの制御プログラムであって、前記駆動手段を制御する頭部制御ステップ、を含み、前記頭部制御ステップでは、前記駆動手段を制御して、前記移動ロボットが移動を開始する時または移動を開始する所定時間前に前記顔部を移動方向に向ける。 The present invention can also be thought of as a computer program. That is, the control program for a mobile robot according to the present invention is a control program for a mobile robot that includes a head having a front face as a face and a driving means for driving the head, and is moved by an omnidirectional mobile trolley. The head control step includes a head control step for controlling the drive means, and the head control step controls the drive means when the mobile robot starts moving or before a predetermined time before the movement starts. The face is turned in the direction of movement.

本発明によれば、全方位移動台車を備える移動ロボットにおいて、近くの人に警戒心をいだかせずに安心感を与えることができる。 According to the present invention, in a mobile robot provided with an omnidirectional mobile trolley, it is possible to give a sense of security to a nearby person without causing caution.

図1は、第1実施形態の移動ロボットの概略構成図である。FIG. 1 is a schematic configuration diagram of a mobile robot according to the first embodiment. 図2は、第1実施形態の移動ロボットの外観を示すが概略構成図である。FIG. 2 shows the appearance of the mobile robot of the first embodiment, but is a schematic configuration diagram. 図3は、移動ロボットの頭部を説明する図である。FIG. 3 is a diagram illustrating a head of a mobile robot. 図4は、第1実施形態の頭部駆動制御を説明するフローチャートである。FIG. 4 is a flowchart illustrating the head drive control of the first embodiment. 図5は、頭部駆動処理に係る動作を説明する図である。FIG. 5 is a diagram illustrating an operation related to the head drive process. 図6は、第2実施形態の移動ロボットの概略構成図である。FIG. 6 is a schematic configuration diagram of the mobile robot of the second embodiment. 図7は、第2実施形態の頭部駆動制御を説明するフローチャートである。FIG. 7 is a flowchart illustrating the head drive control of the second embodiment. 図8は、衝突判定処理の手法を説明する図である。FIG. 8 is a diagram illustrating a method of collision determination processing. 図9は、人対応頭部駆動処理に係る動作を説明する図である。FIG. 9 is a diagram illustrating an operation related to a human-compatible head drive process. 図10は、人対応頭部駆動処理が実行される状況を説明する図である。FIG. 10 is a diagram illustrating a situation in which a human-compatible head drive process is executed. 図11は、人対応頭部駆動処理が実行されない状況を説明する図である。FIG. 11 is a diagram illustrating a situation in which the human-compatible head drive process is not executed. 図12は、第2実施形態の移動処理の詳細を説明するフローチャートである。FIG. 12 is a flowchart illustrating the details of the movement process of the second embodiment. 図13は、移動中に実行される衝突判定処理を説明する図である。FIG. 13 is a diagram illustrating a collision determination process executed during movement. 図14は、人特定部が行う特定処理を説明する図である。FIG. 14 is a diagram illustrating a specific process performed by the person identification unit.

<第1実施形態>
図1から図3は、本発明の第1実施形態に係る移動ロボット100の構成例を説明する図である。本実施形態の移動ロボット100は、人と共有の作業領域内を移動することが想定されるロボットであって、例えば、工場等で部品をピックして所定場所に運搬する機能等を有する移動マニピュレータや、空港等の施設で旅行者等の客を案内するサービスロボット等に適用されてよい。本実施形態では、移動ロボット100が、図2に示すような頭部30とマニピュレータ機構を有する腕部40とを備える略人型の移動マニピュレータに適用された例について説明する。
<First Embodiment>
1 to 3 are views for explaining a configuration example of the mobile robot 100 according to the first embodiment of the present invention. The mobile robot 100 of the present embodiment is a robot that is supposed to move in a work area shared with a person, and is, for example, a mobile manipulator having a function of picking parts and transporting them to a predetermined place in a factory or the like. Or, it may be applied to a service robot or the like that guides a customer such as a traveler at a facility such as an airport. In the present embodiment, an example in which the mobile robot 100 is applied to a roughly humanoid mobile manipulator including a head 30 and an arm portion 40 having a manipulator mechanism as shown in FIG. 2 will be described.

図1に示すとおり、本実施形態の移動ロボット100は、移動ロボット100の動作を制御する制御装置として機能するコントローラ1と、移動機構駆動手段2と、頭部駆動手段3とを含んで構成される。 As shown in FIG. 1, the mobile robot 100 of the present embodiment includes a controller 1 that functions as a control device for controlling the operation of the mobile robot 100, a moving mechanism driving means 2, and a head driving means 3. NS.

本実施形態のコントローラ1は、移動経路設定部11、移動制御部12、および頭部方向制御部13等の機能部を有する。コントローラ1は、例えば、プロセッサとしての中央演算装置(CPU)、記憶媒体としての読み出し専用メモリ(ROM)およびランダムアクセスメモリ(RAM)、入出力インタフェース(I/Oインタフェース)等がバスを介して接続されて構成される情報処理装置である。また、コントローラ1が備えるROMには、前述の各機能部がそれぞれに有する各機能を実行するためのプログラム(制御プログラム)が格納されている。すなわち、コントローラ1は、記憶媒体に格納された各種プログラムを実行することによって、移動経路設定部11、移動制御部12、および頭部方向制御部13等の各機能部の機能を実現するように構成される。なお、コントローラ1を構成するプロセッサおよび記憶媒体として上述した構成は例示であって、これらに加えて、或いは代えて、GPU、フラッシュメモリ、ハードディスク、ストレージ等を含んでもよい。また、上述の各機能部の機能は、必ずしもコントローラ1のみによって実現される必要はなく、機能部毎に適宜選択された複数のコントローラがそれぞれ、或いは協調することによって実現されるように構成されてもよい。コントローラ1の各機能部の機能について以下説明する。 The controller 1 of the present embodiment has functional units such as a movement route setting unit 11, a movement control unit 12, and a head direction control unit 13. In the controller 1, for example, a central processing unit (CPU) as a processor, a read-only memory (ROM) and a random access memory (RAM) as a storage medium, an input / output interface (I / O interface), and the like are connected via a bus. It is an information processing unit configured by the interface. Further, the ROM included in the controller 1 stores a program (control program) for executing each function of each of the above-mentioned functional units. That is, the controller 1 realizes the functions of each functional unit such as the movement route setting unit 11, the movement control unit 12, and the head direction control unit 13 by executing various programs stored in the storage medium. It is composed. The above-mentioned configurations as the processor and the storage medium constituting the controller 1 are examples, and in addition to or in place of these, a GPU, a flash memory, a hard disk, a storage, and the like may be included. Further, the functions of the above-mentioned functional units do not necessarily have to be realized only by the controller 1, and are configured to be realized by a plurality of controllers appropriately selected for each functional unit or by coordinating with each other. May be good. The functions of each functional unit of the controller 1 will be described below.

移動経路設定部11は、移動ロボット100が移動しようとする経路(移動経路)を設定する。具体的には、移動経路設定部11は、作業領域の地図情報(マップデータ)に基づいて所定位置から目的地までの経路を計画するいわゆるパスプランニングにより生成された経路を移動ロボット100の移動経路として設定する。ここでの所定位置は、予め定められた所定の位置であってもよいし、移動ロボット100の現在位置であってもよい。移動ロボット100が所定位置から目的地までの移動経路を生成する具体的な手法は特に限定されず、既存の移動マニピュレータ等の移動ロボットに用いられている公知の手法が適宜採用されてよい。ただし、設定される移動経路は必ずしもコントローラ1が生成する必要はない。移動経路設定部11は、例えば無線通信等を介して取得した目的地までの経路を移動ロボット100の移動経路として設定してもよい。 The movement route setting unit 11 sets a route (movement route) on which the mobile robot 100 intends to move. Specifically, the movement route setting unit 11 plans the route from a predetermined position to the destination based on the map information (map data) of the work area. The movement route of the mobile robot 100 is a route generated by so-called path planning. Set as. The predetermined position here may be a predetermined predetermined position or may be the current position of the mobile robot 100. The specific method for the mobile robot 100 to generate a movement path from a predetermined position to the destination is not particularly limited, and a known method used for a mobile robot such as an existing mobile manipulator may be appropriately adopted. However, the set movement route does not necessarily have to be generated by the controller 1. The movement route setting unit 11 may set the route to the destination acquired via wireless communication or the like as the movement route of the mobile robot 100.

移動制御部12は、移動経路設定部11が設定した移動経路に沿って移動ロボット100を移動させるために、移動機構駆動手段2を制御する。移動機構駆動手段2については図2を参照して後述する。 The movement control unit 12 controls the movement mechanism driving means 2 in order to move the mobile robot 100 along the movement path set by the movement route setting unit 11. The moving mechanism driving means 2 will be described later with reference to FIG.

頭部方向制御部13は、移動ロボット100に備わる頭部30(図2参照)を駆動するために、頭部駆動手段3を制御する。具体的には、頭部方向制御部13は、頭部駆動手段3を介して頭部30の正面の向く方向を制御する。頭部駆動手段3の詳細については図2を参照して後述する。 The head direction control unit 13 controls the head driving means 3 in order to drive the head 30 (see FIG. 2) provided in the mobile robot 100. Specifically, the head direction control unit 13 controls the front facing direction of the head 30 via the head driving means 3. The details of the head driving means 3 will be described later with reference to FIG.

図2は、移動ロボット100の構成を説明する図であって、主に移動ロボット100の外観例を示す。 FIG. 2 is a diagram for explaining the configuration of the mobile robot 100, and mainly shows an example of the appearance of the mobile robot 100.

図示するように、本実施形態の移動ロボット100は、略人型の形状を有しており、ロボット本体部10と、ロボット本体部10を支持する移動台車20と、ロボット本体部10の上端に設けられた頭部30と、ロボット本体部10の前面から延びる腕部40とから構成されている。 As shown in the figure, the mobile robot 100 of the present embodiment has a substantially humanoid shape, and is located on the robot main body 10, the mobile trolley 20 that supports the robot main body 10, and the upper end of the robot main body 10. It is composed of a head portion 30 provided and an arm portion 40 extending from the front surface of the robot main body portion 10.

ロボット本体部10を支持する移動台車20は、移動ロボット100が置かれた面(床面)の上を移動する機能を有する全方位移動台車である。全方位移動台車とは、駆動輪として例えば複数のオムニホイールを備え、全方向に移動することができるように構成された台車である。全方位移動台車は、全方位台車、全方向移動台車、または全方向台車と称されてもよい。また、全方位移動台車は、360度の全方向への移動が可能であり狭い通路等でも自在に移動できる特徴がある一方で、一般的な台車のように駆動輪の向く方向から移動方向を判断しずらいので、移動方向を予測するのが難しいという側面がある。本実施形態の移動台車20は、図示するように、外観に表されるスカート21の内側に、三つの駆動輪22と、駆動輪22をベルト等を介して駆動するための移動機構駆動手段2とから構成されてよい。本実施形態の移動機構駆動手段2は一または複数のモータから構成されるものとし、以下では、移動機構駆動手段2をモータ2とも称する。 The mobile trolley 20 that supports the robot main body 10 is an omnidirectional mobile trolley having a function of moving on a surface (floor surface) on which the mobile robot 100 is placed. The omnidirectional moving trolley is a trolley provided with, for example, a plurality of omni wheels as driving wheels and configured to be able to move in all directions. The omnidirectional moving trolley may be referred to as an omnidirectional trolley, an omnidirectional moving trolley, or an omnidirectional trolley. In addition, the omnidirectional moving trolley has the feature that it can move 360 degrees in all directions and can move freely even in a narrow passage, etc., while the moving direction is changed from the direction in which the drive wheels face like a general trolley. Since it is difficult to judge, it is difficult to predict the direction of movement. As shown in the figure, the moving carriage 20 of the present embodiment has three driving wheels 22 and a moving mechanism driving means 2 for driving the driving wheels 22 via a belt or the like inside the skirt 21 represented in the appearance. It may be composed of and. The moving mechanism driving means 2 of the present embodiment is composed of one or a plurality of motors, and hereinafter, the moving mechanism driving means 2 is also referred to as a motor 2.

頭部30は、略人型の移動ロボット100において、人の頭(首より上の部分)に相当する構成としてロボット本体部10の上端に設けられてよい。頭部30は、人が見た際にその正面を顔として認識できるように構成されるのが望ましい。頭部30は、正面が向く方向を制御可能に構成される。具体的には、本実施形態の移動ロボット100は、一又は複数の頭部駆動手段3(アクチュエータ3)を備え、頭部駆動手段3を介して頭部を動かすことによりその正面の向きを制御できるように構成される。なお、以下では、頭部30の正面を顔部31と称する。 The head 30 may be provided at the upper end of the robot main body 10 as a configuration corresponding to a human head (a portion above the neck) in the substantially humanoid mobile robot 100. It is desirable that the head 30 is configured so that the front surface of the head 30 can be recognized as a face when viewed by a person. The head 30 is configured to be able to control the direction in which the front faces. Specifically, the mobile robot 100 of the present embodiment includes one or a plurality of head driving means 3 (actuators 3), and controls the direction of the front surface thereof by moving the head via the head driving means 3. It is configured so that it can be done. In the following, the front surface of the head 30 will be referred to as a face portion 31.

本実施形態の移動ロボット100は、頭部30を床面に対して水平方向(左右方向)に回転させる鉛直方向の回転軸を有し頭部30の左右方向への回転駆動を可能とする頭部駆動手段3(サーボモータ3a)を有する。これにより、移動ロボット100は、頭部30のみを鉛直方向に対して左右へ回転駆動させることができる。ただし、サーボモータ3aの配置は、図示する配置に制限されず、顔部31の向きを左右方向に動かすことができる限り適宜変更されてよい。例えば、サーボモータ3aは、ロボット本体部10を移動台車20に対して左右へ回転駆動させるように設けられてもよい。この場合、サーボモータ3aは、頭部30をロボット本体部10とともに垂直方向に対して左右へ回転駆動させることにより顔部31の向きを変えることができる。 The mobile robot 100 of the present embodiment has a vertical rotation axis that rotates the head 30 in the horizontal direction (horizontal direction) with respect to the floor surface, and enables the head 30 to be rotationally driven in the left-right direction. It has a unit driving means 3 (servo motor 3a). As a result, the mobile robot 100 can rotate and drive only the head 30 to the left and right with respect to the vertical direction. However, the arrangement of the servomotor 3a is not limited to the arrangement shown in the drawing, and may be appropriately changed as long as the direction of the face portion 31 can be moved in the left-right direction. For example, the servomotor 3a may be provided so as to rotationally drive the robot main body 10 to the left and right with respect to the moving carriage 20. In this case, the servomotor 3a can change the direction of the face portion 31 by rotationally driving the head portion 30 together with the robot main body portion 10 to the left and right with respect to the vertical direction.

また、移動ロボット100は、頭部30を床面に対して上下方向に駆動させる水平方向の回転軸を有し頭部30の上下を仰ぎ見る動作を可能とする頭部駆動手段3(サーボモータ3b)を有してもよい。これにより、移動ロボット100は、顔部31の向きを上下方向にも動かすことができる。 Further, the mobile robot 100 has a head driving means 3 (servo motor) which has a horizontal rotation axis for driving the head 30 in the vertical direction with respect to the floor surface and enables an operation of looking up and down of the head 30. 3b) may be provided. As a result, the mobile robot 100 can also move the direction of the face portion 31 in the vertical direction.

図3は、本実施形態の頭部30の構成例をより具体的に説明する図である。頭部30の形状は、正面を顔部31として認識できる限り特に制限されない。例えば、顔部31は、正面を顔部31として容易に認識されるように、頭部30の正面部分にのみ視認される構造的な特徴を有していることが望ましい。例えば、図3(a)のように、人の顔を模した二つの目に相当する構成を頭部30の正面にのみ設けることにより、正面を顔部31として容易に認識されることができる。また、図3(b)に示すように、例えば透過部材等を用いて構成された特徴的な部分(太矢印で示す部分)が頭部30の正面に設けられることでも正面を顔部31として容易に認識されることができる。また、図示しないが、例えば略長球形等の頭部30において、正面のみを平面にする等してもよい。 FIG. 3 is a diagram for more specifically explaining a configuration example of the head 30 of the present embodiment. The shape of the head 30 is not particularly limited as long as the front surface can be recognized as the face portion 31. For example, it is desirable that the face portion 31 has a structural feature that can be visually recognized only on the front portion of the head portion 30 so that the front surface can be easily recognized as the face portion 31. For example, as shown in FIG. 3A, by providing a configuration corresponding to two eyes imitating a human face only on the front surface of the head 30, the front surface can be easily recognized as the face portion 31. .. Further, as shown in FIG. 3B, for example, a characteristic portion (a portion indicated by a thick arrow) configured by using a transparent member or the like is provided on the front surface of the head 30, so that the front surface is used as the face portion 31. It can be easily recognized. Further, although not shown, for example, in the head 30 having a substantially long spherical shape, only the front surface may be made flat.

また、頭部30は、図示するように、人間の首に相当する構成(頸部)を介してロボット本体部10に設けられてもよいし、ロボット本体部10の上端に直接設けられてもよい。すなわち、サーボモータ3a、3bは、頸部に設けられてもよいし、頭部30に設けられてもよい。なお、頭部30の正面部分、例えば、図3(a)に示す目に相当する部分や図3(b)に示す透過部材からなる部分に、移動ロボット100の周辺環境を認識するためのセンサ或いはカメラ等の外部環境認識手段(検出手段)が設けられてもよい。外部環境認識手段は、移動ロボット100が自律走行するための構成として、および又は、第2実施形態で後述する検出手段4として構成されてよい。 Further, as shown in the figure, the head 30 may be provided on the robot main body 10 via a configuration (neck) corresponding to a human neck, or may be provided directly on the upper end of the robot main body 10. good. That is, the servomotors 3a and 3b may be provided on the neck or the head 30. A sensor for recognizing the surrounding environment of the mobile robot 100 on the front portion of the head 30, for example, the portion corresponding to the eyes shown in FIG. 3 (a) and the portion made of the transparent member shown in FIG. 3 (b). Alternatively, an external environment recognition means (detection means) such as a camera may be provided. The external environment recognition means may be configured as a configuration for the mobile robot 100 to autonomously travel, or as a detection means 4 described later in the second embodiment.

図2に示すとおり、移動ロボット100はロボット本体部10の前面に腕部40を備える。腕部40は、マニピュレータ機構を備え、運搬する物品等を把持するための把持機構41が自由端に相当する先端に設けられている。ただし、腕部40の形状、数、および配置は図示する態様に制限されず目的に応じて適宜変更されてよい。例えば、移動ロボット100は、ロボット本体部10の両側面に腕部40を備える双腕ロボットとして構成されてもよい。 As shown in FIG. 2, the mobile robot 100 includes an arm portion 40 on the front surface of the robot main body portion 10. The arm portion 40 is provided with a manipulator mechanism, and a gripping mechanism 41 for gripping an article or the like to be transported is provided at a tip corresponding to a free end. However, the shape, number, and arrangement of the arm portions 40 are not limited to the illustrated modes and may be appropriately changed according to the purpose. For example, the mobile robot 100 may be configured as a dual-arm robot having arm portions 40 on both side surfaces of the robot main body portion 10.

以上が、本実施形態の移動ロボット100の構成例である。なお、移動ロボット100は、図2では省略されているが、移動ロボット100の動作を制御するのに必要となる他の構成、例えば、腕部40等を駆動する他のアクチュエータや、電力源となるバッテリ等を備えてもよい。 The above is a configuration example of the mobile robot 100 of the present embodiment. Although the mobile robot 100 is omitted in FIG. 2, the mobile robot 100 has other configurations required for controlling the operation of the mobile robot 100, for example, other actuators for driving the arm 40 and the like, and a power source. A battery or the like may be provided.

次に、図4および図5を参照して、移動ロボット100の動作について説明する。 Next, the operation of the mobile robot 100 will be described with reference to FIGS. 4 and 5.

図4は、本実施形態の移動ロボット100が行う頭部駆動制御を説明するフローチャートである。コントローラ1が備える記憶媒体には、図示のフローチャートを参照して以下に説明する処理を実行する制御プログラムが格納されている。 FIG. 4 is a flowchart illustrating the head drive control performed by the mobile robot 100 of the present embodiment. The storage medium included in the controller 1 stores a control program that executes the processes described below with reference to the illustrated flowchart.

ステップS11では、コントローラ1はタスク取得処理を実行する。タスク取得処理は、移動ロボット100が後述の移動経路設定処理(S12)によって設定される移動経路を生成するために必要な情報を取得するための処理である。タスク取得処理では、コントローラ1は例えば、ピックする部品の識別情報(部品ID)や、目的地の位置情報(例えば位置座標)等を取得する。取得方法に制限はなく、公知の無線通信技術を利用して取得してもよいし、不図示の情報入力手段(例えばタッチパネル等)を介して取得するように構成されてもよい。 In step S11, the controller 1 executes the task acquisition process. The task acquisition process is a process for the mobile robot 100 to acquire information necessary for generating a movement route set by the movement route setting process (S12) described later. In the task acquisition process, the controller 1 acquires, for example, identification information (part ID) of the part to be picked, position information of the destination (for example, position coordinates), and the like. The acquisition method is not limited, and the acquisition may be performed using a known wireless communication technique, or may be configured to be acquired via an information input means (for example, a touch panel or the like) (not shown).

ステップS12では、コントローラ1(移動経路設定部11)は、タスク取得処理によって取得した情報に応じて生成された経路を移動ロボット100の移動経路として設定する。例えば、タスク取得処理によって部品IDを取得した場合には、移動経路設定部11は、当該部品IDにより特定される部品が置かれている場所を目的地として生成された現在地から当該目的地までの経路を移動経路として設定する。目的地までの移動経路が設定されると、続いて頭部駆動処理が実行される(S13)。 In step S12, the controller 1 (movement route setting unit 11) sets the route generated according to the information acquired by the task acquisition process as the movement route of the mobile robot 100. For example, when the component ID is acquired by the task acquisition process, the movement route setting unit 11 moves from the current location generated with the location where the component specified by the component ID is placed to the destination. Set the route as a movement route. When the movement route to the destination is set, the head drive process is subsequently executed (S13).

ステップS13では、コントローラ1(頭部方向制御部13)は顔部31の向く方向を制御する頭部駆動処理を実行する。本ステップにおける頭部駆動処理は、移動ロボット100が移動を開始すると同時に、または移動を開始する所定時間前に実行される。ここでの所定時間は適宜設定されてよく、例えば移動を開始する直前(例えば1秒以内)でもよいし、比較的長めの時間(例えば3秒以上)が設定されてもよい。 In step S13, the controller 1 (head direction control unit 13) executes a head drive process that controls the direction in which the face unit 31 faces. The head drive process in this step is executed at the same time as the mobile robot 100 starts moving or before a predetermined time from starting the movement. The predetermined time here may be set as appropriate, for example, immediately before the start of movement (for example, within 1 second), or a relatively long time (for example, 3 seconds or more) may be set.

頭部駆動処理(S13)では、頭部方向制御部13が、顔部31が移動方向を向くようにサーボモータ3aを制御する。そして、顔部31が移動方向を向く動作を開始するのと同時に、もしくは当該動作を開始してから上述の所定時間を経過した時に、移動処理(S14)が実行される。 In the head drive process (S13), the head direction control unit 13 controls the servomotor 3a so that the face portion 31 faces the moving direction. Then, the movement process (S14) is executed at the same time when the face portion 31 starts the operation of facing the moving direction, or when the above-mentioned predetermined time has elapsed from the start of the operation.

ここで、頭部駆動処理を実行する際の移動ロボット100の動作について図5を参照して説明する。 Here, the operation of the mobile robot 100 when executing the head drive process will be described with reference to FIG.

図5は、頭部駆動処理を実行する際の移動ロボット100の動作を説明する図である。本図では、移動マニピュレータとして機能する移動ロボット100が部品をピックした後、移動を開始する直前までの動作が表されている。図5(a)は、部品をピックする作業を行う移動ロボット100と、移動ロボット100の隣で作業をしている人(作業者)とを示す。図5(b)は、移動ロボット100が部品をピックする作業を終えて停止している状態を示す。この時、移動ロボット100は、移動経路設定処理(S12)を実行して移動経路を設定してよい。図示する矢印は、設定した移動経路の一部であって、移動ロボット100の直近の移動方向(現在地からの移動方向)を示している。 FIG. 5 is a diagram illustrating the operation of the mobile robot 100 when executing the head drive process. In this figure, the operation of the mobile robot 100, which functions as a mobile manipulator, after picking a part and immediately before starting the movement is shown. FIG. 5A shows a mobile robot 100 that performs a work of picking parts and a person (worker) who is working next to the mobile robot 100. FIG. 5B shows a state in which the mobile robot 100 has finished picking parts and has stopped. At this time, the mobile robot 100 may execute the movement route setting process (S12) to set the movement route. The illustrated arrow is a part of the set movement path and indicates the latest movement direction (movement direction from the current location) of the mobile robot 100.

ここで、移動ロボット100が頭部駆動処理を行わずに移動を開始すると、移動方向にいる作業者は、自分に向かって突然動き出す移動ロボット100を避けきれずに衝突されるおそれがある。また、衝突を避けられたとしても、自分に向かって突然動き出す可能性のある移動ロボット100が近くにいる状況下では、移動ロボット100の次の動作を警戒し、その心理的な負担により作業効率が低下するおそれがある。本実施形態の移動ロボット100は、近くにいる人に次の動作を予告するための頭部駆動処理を実行することで、このようなおそれを解消することができるように構成される。 Here, if the mobile robot 100 starts moving without performing the head drive process, the worker in the moving direction may inevitably collide with the mobile robot 100 that suddenly starts moving toward himself / herself. In addition, even if a collision can be avoided, in a situation where a mobile robot 100 that may suddenly start moving toward itself is nearby, the next movement of the mobile robot 100 is warned, and the work efficiency is increased due to the psychological burden. May decrease. The mobile robot 100 of the present embodiment is configured to eliminate such a fear by executing a head drive process for notifying a nearby person of the next operation.

図5(c)は、移動ロボット100が頭部駆動処理を実行して、顔部31を移動方向に向けている状態を示す。頭部駆動処理が実行されることで、移動ロボット100は、近くの人に対して移動する方向を示すとともに、続く移動動作を予告することができる。これにより、移動ロボット100は、人に移動経路からの退避行動を促すことができるので、人との衝突を回避することができる。また、移動ロボット100が移動開始時または移動を開始する前に移動方向に顔部31を向けることが作業者等に周知されることにより、自分のいる方向に突然移動してくることに対する警戒心をいだかせずに、共有の作業領域にいる人に安心感を与えることができる。 FIG. 5C shows a state in which the mobile robot 100 executes the head drive process and directs the face portion 31 in the moving direction. By executing the head drive process, the mobile robot 100 can indicate the direction of movement to a nearby person and foretell the subsequent movement operation. As a result, the mobile robot 100 can urge a person to evacuate from the movement path, so that a collision with the person can be avoided. In addition, since it is known to workers and the like that the mobile robot 100 turns the face 31 in the moving direction at the start of the movement or before the movement starts, the caution against sudden movement in the direction in which the mobile robot 100 is located is warned. You can give a sense of security to people in a shared work area without having to worry about it.

なお、移動開始前の停止状態における顔部31の方向と移動方向とが一致している場合には、移動ロボット100は、頭部駆動処理を実行せずに移動を開始してもよいが、顔部31の向きを、例えば上下左右のいずれかの方向に一旦動かして、その後に移動方向に向けるようにしてもよい。こうすることで、移動ロボット100は、停止状態における顔部31の方向と移動方向とが一致している場合であっても、頭部30の動きでこれから移動することを近くにいる人に予告することができる。以上が頭部駆動処理(S13)に係る動作の詳細である。図4のフローチャートに戻って以下説明を続ける。 If the direction of the face portion 31 and the movement direction in the stopped state before the start of movement match, the mobile robot 100 may start the movement without executing the head drive process. The direction of the face portion 31 may be moved once in any of the up, down, left, and right directions, and then turned in the moving direction. By doing so, the mobile robot 100 notifies a nearby person that the movement of the head 30 will move from now on even if the direction of the face portion 31 in the stopped state and the movement direction match. can do. The above is the details of the operation related to the head drive process (S13). Returning to the flowchart of FIG. 4, the following description will be continued.

ステップS14では、コントローラ1(移動制御部12)は、移動ロボット100を目的地まで移動させる移動処理を実行する。移動処理では、移動制御部12がモータ2を制御して、自動ロボット100を設定された移動経路に沿って目的地まで移動させる。移動ロボット100を目的地まで移動させる具体的な手法は特に制限されず、公知の種々の手法が適宜採用されてよい。例えば、移動ロボット100は、パスプランニングにより計画された経路と、予め記憶されたマップデータとに基づいて、オドメトリ、スキャンマッチング等の公知の自己位置推定を行いながらモータ2を制御して、目的地までの自律的な移動(自律走行)を実現するように構成されてよい。 In step S14, the controller 1 (movement control unit 12) executes a movement process for moving the mobile robot 100 to the destination. In the movement process, the movement control unit 12 controls the motor 2 to move the automatic robot 100 to the destination along the set movement path. The specific method for moving the mobile robot 100 to the destination is not particularly limited, and various known methods may be appropriately adopted. For example, the mobile robot 100 controls the motor 2 while performing known self-position estimation such as odometry and scan matching based on the route planned by path planning and the map data stored in advance, and the destination. It may be configured to realize autonomous movement (autonomous driving) up to.

なお、移動ロボット100は、移動中(移動処理中)においても頭部駆動処理を実行するように構成されてよい。すなわち、コントローラ1(頭部方向制御部13)は、移動ロボット100の移動中において、移動方向を変更する時または移動方向を変更する所定時間前に顔部31を変更後の移動方向に向けるように頭部駆動処理を実行してもよい。所定時間は、適宜設定されてよく、例えば移動ロボット100の現在の移動速度に応じて変更されてよい。例えば、移動速度が速ければ速いほど、所定時間を短く設定してもよい。この場合には、移動速度がゼロ、すなわち停止状態時に頭部駆動処理を実行してから移動を開始するまでにかかる所定時間よりも、移動中に頭部駆動処理を実行してから進路変更を開始するまでにかかる所定時間の方が短く設定される。このように、所定時間を移動ロボット100の移動速度に応じて変更可能とすることにより、移動ロボット100の移動速度に応じた頭部30の動きを調整することができるので、周囲の人に安心感を与えつつ違和感のない頭部30の自然な動きを実現することができる。 The mobile robot 100 may be configured to execute the head drive process even during the movement (during the movement process). That is, the controller 1 (head direction control unit 13) directs the face portion 31 to the changed moving direction when changing the moving direction or before a predetermined time for changing the moving direction while the mobile robot 100 is moving. The head drive process may be executed. The predetermined time may be set as appropriate, and may be changed according to, for example, the current moving speed of the mobile robot 100. For example, the faster the moving speed, the shorter the predetermined time may be set. In this case, the movement speed is zero, that is, the head drive process is executed during the movement and then the course is changed rather than the predetermined time required from the execution of the head drive process to the start of the movement when the vehicle is stopped. The predetermined time required to start is set shorter. By making it possible to change the predetermined time according to the moving speed of the mobile robot 100 in this way, the movement of the head 30 according to the moving speed of the mobile robot 100 can be adjusted, so that people around the user can rest assured. It is possible to realize the natural movement of the head 30 without any discomfort while giving a feeling.

このようにして、移動ロボット100は、顔部31の向く方向によって、停止状態からの移動開始時だけでなく、移動中においても、移動方向を変更すること及びその変更後の移動方向を近くの人に予告することができる。移動ロボット100が目的地に到達すると移動処理が終了する。 In this way, the mobile robot 100 changes the moving direction and changes the moving direction after the change, not only at the start of the movement from the stopped state but also during the movement, depending on the direction in which the face portion 31 faces. You can give notice to people. When the mobile robot 100 reaches the destination, the movement process ends.

以上が、第1実施形態の移動ロボット100が行う頭部駆動制御の詳細である。なお、図4で示すフローチャートは本実施形態の頭部駆動制御を説明するための例示であって、図示するとおりに必ず実行されることを制限するものではない。例えば、タスク取得処理及び移動経路設定処理は、頭部駆動処理の前に実行されなくてもよい。 The above is the details of the head drive control performed by the mobile robot 100 of the first embodiment. It should be noted that the flowchart shown in FIG. 4 is an example for explaining the head drive control of the present embodiment, and does not limit the execution as shown in the drawing. For example, the task acquisition process and the movement route setting process do not have to be executed before the head drive process.

以上が第1実施形態の移動ロボット100の詳細である。以上説明したように、移動ロボット100は、移動方向に顔部31を向けるので、近くにいる人に移動方向を予告することができる。その結果、移動ロボット100は、同じ空間を共有する人に対して、移動ロボット100の移動に対する警戒心をいだかせず、安心感を与えることができる。 The above is the details of the mobile robot 100 of the first embodiment. As described above, since the mobile robot 100 directs the face portion 31 in the moving direction, it is possible to give a notice of the moving direction to a nearby person. As a result, the mobile robot 100 can give a sense of security to people who share the same space without being alert to the movement of the mobile robot 100.

<第2実施形態>
以下、第2実施形態の移動ロボット200について説明する。移動ロボット200は、周囲に存在する人の位置、特に人の頭の位置を検出可能に構成される点が第1実施形態と主に相違する。以下、図6〜図14を参照しながら移動ロボット100との相違点を中心に説明する。なお、移動ロボット100と同様の構成については説明を割愛する。
<Second Embodiment>
Hereinafter, the mobile robot 200 of the second embodiment will be described. The mobile robot 200 is mainly different from the first embodiment in that the position of a person existing in the vicinity, particularly the position of the head of the person, can be detected. Hereinafter, the differences from the mobile robot 100 will be mainly described with reference to FIGS. 6 to 14. The description of the same configuration as that of the mobile robot 100 will be omitted.

図6は、移動ロボット200の構成を説明する図である。図示するように、本実施形態の移動ロボット200は、第1実施形態の移動ロボット100に加えて、検出手段4と、コントローラ1の機能部としての人検出部21および衝突予測部22と、をさらに備える。 FIG. 6 is a diagram illustrating the configuration of the mobile robot 200. As shown in the figure, in addition to the mobile robot 100 of the first embodiment, the mobile robot 200 of the present embodiment includes a detection means 4, a human detection unit 21 and a collision prediction unit 22 as functional units of the controller 1. Further prepare.

検出手段4は、移動ロボット200の周囲環境に存在する障害物を検出する。ここでの障害物は主に人である。検出手段4は、例えば、センサ(イメージセンサ、ライダ、レーザスキャナ等)、ステレオカメラ等の少なくとも一つを含む。本実施形態の検出手段4は、イメージセンサから構成されるものとし、検出手段4を以下ではセンサ4とも称する。なお、イメージセンサは、光学系を通して検出した光を電気信号に変換する撮像素子を有するセンサであってその種類については特に制限されない。センサ4は、少なくとも前方を含む周囲環境に存在する障害物を検出可能に構成され、例えば、図3(a)で示す顔部31に構成された人の目に相当する部分等に設けられてよい。また、いわゆる360度カメラと言われるような全方位を検出できるセンサ4が例えば頭部30の頭頂部に設けられてもよい。本実施形態のセンサ4は、移動ロボット100の少なくとも前方を含む周辺に存在する人の位置と姿勢を認識可能な画像データを検出して、検出データ(画像データ)をコントローラ1に送信する。 The detecting means 4 detects an obstacle existing in the surrounding environment of the mobile robot 200. The obstacles here are mainly people. The detection means 4 includes, for example, at least one of a sensor (image sensor, lidar, laser scanner, etc.), a stereo camera, and the like. The detection means 4 of the present embodiment is composed of an image sensor, and the detection means 4 is also referred to as a sensor 4 below. The image sensor is a sensor having an image sensor that converts light detected through an optical system into an electric signal, and the type thereof is not particularly limited. The sensor 4 is configured to be able to detect an obstacle existing in the surrounding environment including at least the front, and is provided, for example, in a portion corresponding to the human eye, which is configured in the face portion 31 shown in FIG. 3A. good. Further, a sensor 4 capable of detecting all directions, which is a so-called 360-degree camera, may be provided on the crown of the head 30, for example. The sensor 4 of the present embodiment detects image data capable of recognizing the position and posture of a person existing in the vicinity including at least the front of the mobile robot 100, and transmits the detected data (image data) to the controller 1.

人検出部21は、センサ4が取得した画像データに基づいて、人の位置と姿勢とを検出する。ここで検出する姿勢は、必ずしも体全体の構えではなく、少なくとも人の頭の位置を判別可能であればよい。画像データに基づいて人の位置と姿勢とを検出する手法として、公知の種々の手法を採用し得るが、本実施形態では、画像データから人の骨格(ボーン)を検出して人の位置と姿勢とを検出する手法が採用される。当該手法は、ボーンモデル、ボーン検出等とも称される。このような手法を採用することにより、人検出部21は、移動ロボット200の周辺にいる人の頭の位置を容易に検出することができる。 The person detection unit 21 detects the position and posture of a person based on the image data acquired by the sensor 4. The posture to be detected here is not necessarily the posture of the whole body, but at least the position of the human head may be discriminated. Various known methods can be adopted as a method for detecting the position and posture of a person based on the image data, but in the present embodiment, the human skeleton (bone) is detected from the image data to determine the position of the person. A method of detecting the posture is adopted. This method is also referred to as a bone model, bone detection, or the like. By adopting such a method, the human detection unit 21 can easily detect the position of the head of a person in the vicinity of the mobile robot 200.

衝突予測部22は、移動ロボット200が設定された移動経路に沿って移動した場合に、移動ロボット200と人とが衝突するか否かを予測する。移動ロボット200と人との衝突を予測する手法としては、公知の種々の手法が適宜採用されてよい。本実施形態で採用される衝突予測の具体例については図8を参照して後述する。 The collision prediction unit 22 predicts whether or not the mobile robot 200 and a person collide with each other when the mobile robot 200 moves along a set movement path. As a method for predicting a collision between the mobile robot 200 and a person, various known methods may be appropriately adopted. A specific example of the collision prediction adopted in this embodiment will be described later with reference to FIG.

以上が移動ロボット200の主な構成である。以下、図7から図14を参照して、移動ロボット200の動作について説明する。 The above is the main configuration of the mobile robot 200. Hereinafter, the operation of the mobile robot 200 will be described with reference to FIGS. 7 to 14.

図7は、第2実施形態の移動ロボット200が行う頭部駆動制御を説明するフローチャートである。コントローラ1が備える記憶媒体には、図示のフローチャートを参照して以下に説明する処理を実行する制御プログラムが格納されている。 FIG. 7 is a flowchart illustrating the head drive control performed by the mobile robot 200 of the second embodiment. The storage medium included in the controller 1 stores a control program that executes the processes described below with reference to the illustrated flowchart.

ステップS21〜ステップS23は、移動ロボット200が設定された移動経路に沿って移動を開始する時、又は移動を開始する前の停止状態時に実行される。 Steps S21 to S23 are executed when the mobile robot 200 starts moving along the set movement path, or when the mobile robot 200 is in a stopped state before starting the movement.

ステップS21では、コントローラ1(衝突予測部22)は、移動ロボット200と人とが衝突するか否かを予測する衝突判定処理を実行する。衝突判定処理の詳細について図8を参照して説明する。 In step S21, the controller 1 (collision prediction unit 22) executes a collision determination process for predicting whether or not the mobile robot 200 collides with a person. The details of the collision determination process will be described with reference to FIG.

図8は、本実施形態の衝突予測部22が行う衝突判定処理を説明する図である。図8では、移動ロボット200と人検出部21により検出された人300とが示されている。移動ロボット200から延びる点線矢印は、設定された移動経路を示す。また、移動ロボット200から延びる実線矢印は、移動ロボット200の直近の移動方向を示す。直近の移動方向とは、設定された移動経路上における現在地からの移動方向を示すものであり、原則として現在地を起点とする直線で示される。換言すれば、直近の移動方向とは、現在地から、移動経路上において最初に方向転換する地点(第1経由点)に向かう方向である。 FIG. 8 is a diagram illustrating a collision determination process performed by the collision prediction unit 22 of the present embodiment. In FIG. 8, the mobile robot 200 and the person 300 detected by the person detection unit 21 are shown. The dotted arrow extending from the mobile robot 200 indicates a set movement path. Further, the solid line arrow extending from the mobile robot 200 indicates the latest moving direction of the mobile robot 200. The latest movement direction indicates the movement direction from the current location on the set movement route, and is indicated by a straight line starting from the current location in principle. In other words, the most recent movement direction is the direction from the current location to the first turning point (first waypoint) on the movement route.

本実施形態の衝突判定処理は、移動ロボット200および人300を、上方から床面に投射された単純な二次元図形とみなし、当該二次元図形同士が干渉する否かを判定することにより行われる。図8で例示されるように、移動ロボット200は、例えば、移動台車20や腕部40の各リンクに対応して投射された円の連なりで表現される。また、人300は、腕を水平方向に伸ばした場合に水平方向に広がる領域を考慮した円で表現されている。なお、投射された二次元図形の外縁すなわち円の直径は、上方から見た移動ロボット200の水平方向幅の最大値、および人300が両腕を水平方向に広げた場合の水平方向幅の最大値にそれぞれ一致する必要は必ずしもない。投射された二次元図形は、若干広くして余裕を持たせたり、現実的な可動範囲を考慮して狭めたりするなど適宜調整されてよい。 The collision determination process of the present embodiment is performed by regarding the mobile robot 200 and the person 300 as simple two-dimensional figures projected from above onto the floor surface, and determining whether or not the two-dimensional figures interfere with each other. .. As illustrated in FIG. 8, the mobile robot 200 is represented by, for example, a series of circles projected corresponding to each link of the mobile carriage 20 and the arm 40. Further, the person 300 is represented by a circle considering a region that expands in the horizontal direction when the arm is extended in the horizontal direction. The outer edge of the projected two-dimensional figure, that is, the diameter of the circle, is the maximum value of the horizontal width of the mobile robot 200 seen from above, and the maximum horizontal width when the person 300 spreads both arms in the horizontal direction. The values do not necessarily have to match. The projected two-dimensional figure may be appropriately adjusted by making it slightly wider to allow a margin or narrowing it in consideration of a realistic movable range.

また、移動ロボット200に対応する円は、移動ロボット200が所定距離または所定時間移動する間の移動経路に沿って生成される。図8では、点線円で示す所定距離内における移動経路を直近の移動方向に移動する移動ロボット200に対応する円が時系列に示されている。図示するように、本実施形態の上記所定距離は、直近の移動方向への移動距離(現在地から第1経由点までの距離)以下の距離に設定されてよい。本図では、移動ロボット200に対応する現在の円を(t)とし、移動経路に沿って時系列に生成された円を(t+1)、(t+2)として示している。そして、衝突予測部22は、移動ロボット200から所定距離内において、移動ロボット200に対応する円と人300に対応する円とが接触(干渉)するか否かを計算する。接触するか否かは、例えば円と円との中心間距離と、各円のそれぞれの半径とに基づいて容易に計算することができる。これにより、衝突予測部22は、例えば図示のように、移動ロボット200が(t+2)において人300と衝突し得ることを予測することができる。 Further, the circle corresponding to the mobile robot 200 is generated along the movement path while the mobile robot 200 moves for a predetermined distance or a predetermined time. In FIG. 8, circles corresponding to the mobile robot 200 that moves the movement path within the predetermined distance indicated by the dotted line circle in the latest movement direction are shown in chronological order. As shown in the figure, the predetermined distance of the present embodiment may be set to a distance equal to or less than the moving distance in the latest moving direction (distance from the current location to the first waypoint). In this figure, the current circle corresponding to the mobile robot 200 is shown as (t), and the circles generated in time series along the moving path are shown as (t + 1) and (t + 2). Then, the collision prediction unit 22 calculates whether or not the circle corresponding to the mobile robot 200 and the circle corresponding to the person 300 come into contact (interference) within a predetermined distance from the mobile robot 200. Whether or not they touch each other can be easily calculated based on, for example, the distance between the centers of the circles and the radius of each circle. As a result, the collision prediction unit 22 can predict that the mobile robot 200 can collide with the person 300 at (t + 2), for example, as shown in the figure.

なお、図中の点線円で示す所定距離、すなわち現在地を基準とする衝突予測の距離的範囲は移動ロボット200の移動速度等に応じて適宜調整されてよい。また、図示の(t+1)、(t+2)で示す二次元図形の生成間隔は、移動ロボット200および人300の少なくともいずれか一方の移動速度、検出部21により人300を検出する際のサンプリング周波数等を考慮して適宜調整されてよい。なお、衝突検証用図形として上述のような二次元図形を生成する衝突判定手法は一例であって、これに限られない。衝突予測部22は、衝突検証用図形として三次元図形を生成する公知の他の衝突判定手法を採用してもよい。この場合には、移動ロボット200および人300の各リンクは、衝突検証用図形として3次元の球体またはポリゴンメッシュで表されてもよい。 The predetermined distance indicated by the dotted line circle in the figure, that is, the distance range of the collision prediction based on the current location may be appropriately adjusted according to the moving speed of the mobile robot 200 and the like. Further, the generation interval of the two-dimensional figures shown by (t + 1) and (t + 2) in the figure is the moving speed of at least one of the mobile robot 200 and the person 300, the sampling frequency when the detection unit 21 detects the person 300, and the like. May be adjusted as appropriate in consideration of. The collision determination method for generating the above-mentioned two-dimensional figure as the collision verification figure is an example, and is not limited to this. The collision prediction unit 22 may adopt another known collision determination method that generates a three-dimensional figure as a collision verification figure. In this case, each link of the mobile robot 200 and the person 300 may be represented by a three-dimensional sphere or polygon mesh as a collision verification figure.

以上が衝突予測部22が行う衝突判定処理(S21)の詳細である。以下、図7のフローチャートに戻って説明を続ける。 The above is the details of the collision determination process (S21) performed by the collision prediction unit 22. Hereinafter, the description will be continued by returning to the flowchart of FIG.

衝突判定処理によって人と衝突しないと判定されると(S21、NO判定)、頭部駆動処理を行うステップS22の処理が実行される。本ステップに係る頭部駆動処理は、第1実施形態において上述した頭部駆動処理と同様である(S13、図5(c)参照)。頭部駆動処理が実行されると、設定された移動経路に沿って移動するために続く移動処理(S24)に進む。他方、人と衝突すると判定されると(YES判定)、ステップS23の人対応頭部駆動処理が実行される。 When it is determined by the collision determination process that the vehicle does not collide with a person (S21, NO determination), the process of step S22 for performing the head drive process is executed. The head drive process according to this step is the same as the head drive process described above in the first embodiment (see S13, FIG. 5 (c)). When the head drive process is executed, the process proceeds to the subsequent move process (S24) in order to move along the set movement path. On the other hand, if it is determined that the vehicle collides with a person (YES determination), the human-compatible head drive process in step S23 is executed.

ステップS23では、コントローラ1(頭部方向制御部13)は、人対応頭部駆動処理を実行する。人対応頭部駆動処理は、移動ロボット200の現在地から所定距離内において、移動ロボット200が現在地からの移動方向(直近の移動方向)に移動すると衝突すると判定された人に対して実行される処理である。 In step S23, the controller 1 (head direction control unit 13) executes the human-compatible head drive process. The human-compatible head drive process is a process executed for a person who is determined to collide when the mobile robot 200 moves in the movement direction (most recent movement direction) from the current location within a predetermined distance from the current location of the mobile robot 200. Is.

図9は、停止状態から移動を開始する際に実行される人対応頭部駆動処理(S23)を説明する図である。図9で示すように、人対応頭部駆動処理(S23)では、頭部方向制御部13は、頭部駆動手段3を制御して、顔部31を衝突すると判定された人の頭に向ける。図示するように顔部31を上方に向けるためには、頭部方向制御部13がサーボモータ3bの駆動を制御すればよい。 FIG. 9 is a diagram illustrating a human-compatible head drive process (S23) executed when the movement is started from the stopped state. As shown in FIG. 9, in the human-compatible head drive process (S23), the head direction control unit 13 controls the head drive means 3 and directs the face 31 to the head of a person determined to collide. .. In order to turn the face portion 31 upward as shown in the figure, the head direction control unit 13 may control the drive of the servomotor 3b.

ここで、停止状態の移動ロボット200が移動を開始するにあたって、顔部31を人の頭に向ける場合と向けない場合の各状況を図10および図11を用いて整理する。図10および図11では、移動ロボット200と、移動ロボット200から延びる点線矢印で示す移動経路と、移動ロボット200から延びる実線矢印で示す直近の移動方向と、点線円で示す移動ロボット200からの所定距離と、人とが示されている。 Here, when the mobile robot 200 in the stopped state starts moving, each situation when the face portion 31 is directed toward the human head and when the face portion 31 is not directed is arranged with reference to FIGS. 10 and 11. In FIGS. 10 and 11, the mobile robot 200, the movement path indicated by the dotted arrow extending from the mobile robot 200, the latest movement direction indicated by the solid arrow extending from the mobile robot 200, and the predetermined movement from the mobile robot 200 indicated by the dotted circle. The distance and the person are shown.

図10は、顔部31を人の頭に向ける場合の状況を説明する図である。図10(a)で示すように、人が、所定距離内であって、且つ移動経路上における直近の移動方向にいる場合には、当然衝突すると予測されるので、移動ロボット200は顔部31を人の頭に向ける。また、図10(b)で示すように、人が、移動経路上における直近の移動方向からずれた位置にいる場合でも、所定距離内であって、且つ移動ロボット200が直近の移動方向に移動した場合に衝突すると予測される位置にいる場合には、移動ロボット200は顔部31を人の頭に向ける。これにより、移動ロボット200は、衝突すると予測される人に対して移動動作を予告することができるとともに、移動経路からの退避を促すことができる。 FIG. 10 is a diagram illustrating a situation when the face portion 31 is directed toward a person's head. As shown in FIG. 10A, when a person is within a predetermined distance and is in the latest movement direction on the movement path, it is naturally predicted that the person will collide with the face 31. To the person's head. Further, as shown in FIG. 10B, even when the person is at a position deviated from the latest movement direction on the movement path, the mobile robot 200 moves in the latest movement direction within a predetermined distance. When the robot 200 is in a position where it is predicted that the robot will collide with the robot 200, the mobile robot 200 turns the face 31 toward the human head. As a result, the mobile robot 200 can announce the movement operation to the person who is predicted to collide, and can urge the person to evacuate from the movement path.

他方、図11は、顔部31を人の頭に向けない場合の状況を説明する図である。図11(a)および図11(b)では、人が所定範囲内におらず、移動ロボット200と衝突すると予測されないので、直近の移動方向にいるいないに関わらず、移動ロボット200は顔部31を人の頭に向けない。また、図11(c)および図11(d)では、人が所定範囲内にいるものの、移動ロボット200が直近の移動方向に移動しても当該人に近づく可能性が低いことなどを理由に、衝突しないと予測されるので、移動ロボット200は顔部31を人の頭に向けない。 On the other hand, FIG. 11 is a diagram illustrating a situation in which the face portion 31 is not directed toward the human head. In FIGS. 11 (a) and 11 (b), since the person is not within the predetermined range and is not predicted to collide with the mobile robot 200, the mobile robot 200 has a face 31 regardless of whether or not it is in the latest moving direction. Do not point at the person's head. Further, in FIGS. 11 (c) and 11 (d), although the person is within the predetermined range, it is unlikely that the mobile robot 200 will approach the person even if the mobile robot 200 moves in the latest moving direction. Since it is predicted that the robot will not collide, the mobile robot 200 does not turn the face 31 toward the human head.

人対応頭部駆動処理(S23)が実行されると、衝突すると予測される人がいなくなるまで、すなわち、前段で行われた衝突判定処理(S21)によって衝突すると判定された人が移動経路上から立ち退く等するまで、ステップS21からステップS23の処理が繰り返し実行される。この間、移動ロボット200は、顔部31を人の頭に向けた状態を維持し、無言の圧力を与え続けることにより、直近の移動方向からの退避を促し続けることができる。 When the human-compatible head drive process (S23) is executed, until there are no people predicted to collide, that is, the person determined to collide by the collision determination process (S21) performed in the previous stage is from the movement path. The processes of steps S21 to S23 are repeatedly executed until eviction or the like. During this time, the mobile robot 200 can continue to urge evacuation from the latest moving direction by maintaining the state in which the face portion 31 is directed toward the human head and continuing to apply silent pressure.

ただし、ステップS21からステップS23の処理を繰り返す間、必ずしも、顔部31を人の頭に向けた状態が維持され続ける必要はない。例えば、衝突が予測される人が一定時間立ち退かない場合には、衝突が予測される人が移動ロボット200の予告動作により早く気付くように、頭部30を左右に振るなどの目立つ動作を行ってもよい。また、移動ロボット200は、不図示の報知手段を備え、当該報知手段を用いて、衝突が予測される人に対して移動経路からの退避をより直接的に訴えるように構成されてよい。 However, while the processes of steps S21 to S23 are repeated, it is not always necessary to keep the face 31 facing the human head. For example, when a person who is predicted to collide does not evict for a certain period of time, a conspicuous action such as shaking the head 30 to the left or right is performed so that the person who is predicted to collide notices earlier by the advance notice action of the mobile robot 200. You may. Further, the mobile robot 200 may be provided with a notification means (not shown), and may be configured to more directly appeal to a person who is predicted to collide with evacuation from the movement path by using the notification means.

例えば、移動ロボット200は、報知手段としてのスピーカと、報知手段を制御するコントローラ1の機能部(報知手段制御部)と、をさらに備えてもよい。そして、移動ロボット200は、人対応頭部駆動処理(S23)によって顔部31を人の頭に向けた後、一定時間経過してもなお当該人と衝突すると判定され続けた場合には、スピーカから所定の音を出力するように構成されてよい。ここでの所定の音は、例えばブザー音からなる警告音でもよいし、「すみません、移動します」、「通ります」といった音声でもよい。これにより、移動ロボット200は、衝突が予測される人に対してより明確でより強い移動予告を行うことができる。 For example, the mobile robot 200 may further include a speaker as a notification means and a functional unit (notification means control unit) of the controller 1 that controls the notification means. Then, if the mobile robot 200 continues to be determined to collide with the person even after a certain period of time has passed after the face 31 is directed toward the person's head by the human-compatible head drive process (S23), the speaker It may be configured to output a predetermined sound from. The predetermined sound here may be, for example, a warning sound consisting of a buzzer sound, or a voice such as "I'm sorry, I'm moving" or "passing". As a result, the mobile robot 200 can give a clearer and stronger notice of movement to a person who is predicted to collide.

衝突すると予測される人がいなくなると(S21、NO判定)、顔部31を移動方向に向けて(S22)、移動経路に沿って移動するための移動処理が実行される(S24)。 When there are no more people predicted to collide (S21, NO determination), the face 31 is directed in the moving direction (S22), and a moving process for moving along the moving path is executed (S24).

以上、第2実施形態の人対応頭部駆動制御について説明した。続いて、図7に示すステップS24の移動処理の詳細について、図12を参照して説明する。 The human-friendly head drive control of the second embodiment has been described above. Subsequently, the details of the movement process in step S24 shown in FIG. 7 will be described with reference to FIG.

図12は、第2実施形態の移動ロボット200が行う移動処理を説明するフローチャートである。本フローチャートで説明する移動処理は、移動ロボット200が設定された移動経路に沿って目的地まで移動している間常時実行される。なお、コントローラ1が備える記憶媒体には、図示のフローチャートを参照して以下に説明する処理を実行する制御プログラムが格納されている。 FIG. 12 is a flowchart illustrating a movement process performed by the mobile robot 200 of the second embodiment. The movement process described in this flowchart is always executed while the mobile robot 200 is moving to the destination along the set movement route. The storage medium included in the controller 1 stores a control program that executes the processes described below with reference to the illustrated flowchart.

ステップS221では、コントローラ1(衝突予測部22)は衝突判定処理を実行する。衝突判定処理は、第1実施形態において上述した手法と同様であってよい(図8参照)。ただし、本ステップで実行される衝突判定処理は、移動ロボット200の移動中に行われることを考慮して次のように実行されてもよい。 In step S221, the controller 1 (collision prediction unit 22) executes the collision determination process. The collision determination process may be the same as the method described above in the first embodiment (see FIG. 8). However, the collision determination process executed in this step may be executed as follows in consideration of being performed while the mobile robot 200 is moving.

図13は、特に移動ロボット200の移動中に実行される衝突判定処理を説明する図である。図13では、移動ロボット200と、移動ロボット200から延びる点線矢印で示す移動経路と、移動ロボット200から延びる実線矢印で示す直近の移動方向と、点線円で示す移動ロボット200からの所定距離と、一点鎖線円で示す減速開始エリアと、人とが示されている。 FIG. 13 is a diagram for explaining a collision determination process executed while the mobile robot 200 is moving. In FIG. 13, the mobile robot 200, the movement path indicated by the dotted arrow extending from the mobile robot 200, the latest movement direction indicated by the solid arrow extending from the mobile robot 200, and the predetermined distance from the mobile robot 200 indicated by the dotted circle. The deceleration start area indicated by the alternate long and short dash line circle and the person are shown.

移動時における移動制御部12は、人検出部21が移動経路上に人を検出した場合に、移動ロボット200の移動を減速または停止させる処理(減速処理)を実行してもよい。図13(a)に示す一点鎖線円は、人が検出された場合に減速処理を実行するように設定された減速開始エリア(減速開始距離)を例示する円である。 The movement control unit 12 at the time of movement may execute a process (deceleration process) of decelerating or stopping the movement of the mobile robot 200 when the person detection unit 21 detects a person on the movement path. The alternate long and short dash line circle shown in FIG. 13A is a circle exemplifying a deceleration start area (deceleration start distance) set to execute deceleration processing when a person is detected.

そして、減速処理が行われた後、所定範囲内における移動経路上であって且つ直近の移動方向に人が検出された場合に(図13(b)参照)、頭部方向制御部13は、人対応頭部駆動処理(S23)を実行する。これにより、移動中に人と遭遇した場合であっても、移動経路からの退避を衝突する前に安全に促すことができる。なお、減速開始エリアの大きさ、および停止を含む減速の度合いは、移動ロボット200および人の移動速度等を考慮して適宜調整されてよい。また、減速処理は、減速エリア内において人が検出された場合だけでなく、移動ロボット200の移動を妨げうる何らかの障害物が検出された場合にも実行されてよい。 Then, after the deceleration process is performed, when a person is detected on the movement path within a predetermined range and in the latest movement direction (see FIG. 13 (b)), the head direction control unit 13 sets the head direction control unit 13. The human-compatible head drive process (S23) is executed. As a result, even if a person is encountered while moving, it is possible to safely urge evacuation from the moving path before the collision. The size of the deceleration start area and the degree of deceleration including the stop may be appropriately adjusted in consideration of the moving speed of the mobile robot 200 and the person. Further, the deceleration process may be executed not only when a person is detected in the deceleration area but also when some obstacle that may hinder the movement of the mobile robot 200 is detected.

図12のステップS221に戻って説明を続ける。ステップS221において人と衝突しないと判定された場合には(NO判定)、目的地に到達するまで、ステップS221からステップS222の処理が繰り返し実行される。人と衝突すると判定された場合には(YES判定)、ステップS223の処理が実行される。 The explanation will be continued by returning to step S221 of FIG. If it is determined in step S221 that the vehicle does not collide with a person (NO determination), the processes of steps S221 to S222 are repeatedly executed until the destination is reached. If it is determined that the vehicle collides with a person (YES determination), the process of step S223 is executed.

ステップS223では、コントローラ1は、衝突判定処理によって衝突すると判定された人が複数か否かを判定する。複数ではなく一人であれば(NO判定)、衝突が予測される人の頭に顔部31を向けるために人対応頭部駆動処理(S225)を実行する。他方、複数人であれば(YES判定)、顔部31を向ける人を特定するために人特定処理(S224)を実行する。 In step S223, the controller 1 determines whether or not there are a plurality of people who are determined to collide by the collision determination process. If there is only one person instead of a plurality (NO determination), the human-compatible head drive process (S225) is executed in order to direct the face 31 to the head of the person who is predicted to collide. On the other hand, if there are a plurality of persons (YES determination), the person identification process (S224) is executed in order to identify the person to whom the face portion 31 is directed.

図14は、人特定処理を説明する図である。図14では、移動ロボット200と、移動ロボット200から延びる点線矢印で示す移動経路と、移動ロボット200から延びる実線矢印で示す直近の移動方向と、点線円で示す移動ロボット200からの所定距離と、人Aおよび人Bを含む複数の人と、が示されている。 FIG. 14 is a diagram illustrating a person identification process. In FIG. 14, the mobile robot 200, the movement path indicated by the dotted arrow extending from the mobile robot 200, the latest movement direction indicated by the solid arrow extending from the mobile robot 200, the predetermined distance from the mobile robot 200 indicated by the dotted circle, and the predetermined distance from the mobile robot 200. A plurality of people, including person A and person B, are shown.

図14に示す人Aおよび人Bは、両者とも衝突が予測される人である。このように、移動ロボット200が直近の移動方向に移動した場合に衝突すると予測される人が複数いる場合には、頭部30は、最初に衝突が予測される人の頭に顔部31を向けるように制御される。すなわち、人特定処理では、コントローラ1は、移動ロボット200が移動した際に最初に衝突すると予測される人を特定する。具体的には、移動ロボット200に一番近い人(人A)が、最初に衝突が予測される人と特定される。ただし、最初に衝突が予測される人を特定する際に、人の移動速度や移動方向が考慮されてもよい。この場合、例えば、人Aが移動ロボット200からゆっくりと遠ざかる一方で、人Bが移動ロボット200に速やかに近づいている場合には、人Bが最初に衝突が予測される人として特定される場合があってよい。人特定処理により顔部31を向ける人が特定されると、ステップS225の処理が実行される。 Person A and person B shown in FIG. 14 are both persons who are expected to collide. In this way, when there are a plurality of people who are predicted to collide when the mobile robot 200 moves in the latest moving direction, the head 30 puts the face 31 on the head of the person who is predicted to collide first. Controlled to point. That is, in the person identification process, the controller 1 identifies the person who is predicted to collide first when the mobile robot 200 moves. Specifically, the person (person A) closest to the mobile robot 200 is identified as the person who is predicted to collide first. However, when identifying a person who is expected to collide for the first time, the moving speed and moving direction of the person may be taken into consideration. In this case, for example, when the person A slowly moves away from the mobile robot 200 while the person B quickly approaches the mobile robot 200, the person B is identified as the first person to be predicted to collide. There may be. When the person who turns the face 31 is identified by the person identification process, the process of step S225 is executed.

ステップS225では、コントローラ1(頭部方向制御部13)は、人の頭に顔部31を向けるために人対応頭部駆動処理を実行する。ここでの人対応頭部駆動処理は、図7のステップS23で説明した処理と同様である(図9等参照)。そして、衝突が予測される人がいなくなると(S221、NO判定)、目的地に到着するまで、ステップS221からステップS222の処理が繰り返し実行される。 In step S225, the controller 1 (head direction control unit 13) executes a human-compatible head drive process in order to direct the face 31 to the human head. The human-friendly head drive process here is the same as the process described in step S23 of FIG. 7 (see FIG. 9 and the like). Then, when no one is predicted to collide (S221, NO determination), the processes of steps S221 to S222 are repeatedly executed until the destination is reached.

そして、移動ロボット200が目的地に到着すると、コントローラ1(移動制御部12)は、移動ロボット200の移動を停止し、移動処理は終了する。これにより、移動ロボット200は、直近の移動方向に移動すると人と衝突すると予測される場合には、当該人の頭に対して顔部31を向けることで、移動ロボット200が移動することを直接的に訴えかけることができるので、当該人に対して移動経路からの退避をより強く促すことができる。 Then, when the mobile robot 200 arrives at the destination, the controller 1 (movement control unit 12) stops the movement of the mobile robot 200, and the movement process ends. As a result, when the mobile robot 200 is predicted to collide with a person when moving in the latest moving direction, the mobile robot 200 can directly move by pointing the face 31 toward the person's head. Since it is possible to appeal to the person concerned, it is possible to more strongly urge the person to evacuate from the movement route.

以上が、第2実施形態の移動ロボット200が行う頭部駆動制御および移動処理の詳細である。なお、図7および図12で示すフローチャートは本実施形態の頭部駆動制御および移動処理を説明するための例示であって、必ずしも図示するとおりに実行されることを制限するものではない。本実施形態の頭部駆動制御では、上述したように、少なくとも停止中又は移動中に人と衝突するか否かを判定し、人と衝突すると判定された場合に人対応頭部駆動処理が行わればよく適宜変更されてよい。 The above is the details of the head drive control and the movement process performed by the mobile robot 200 of the second embodiment. It should be noted that the flowcharts shown in FIGS. 7 and 12 are examples for explaining the head drive control and the movement process of the present embodiment, and do not necessarily limit the execution as shown in the drawings. In the head drive control of the present embodiment, as described above, it is determined at least whether or not the vehicle collides with a person while stopped or moving, and when it is determined that the vehicle collides with a person, a human-compatible head drive process is performed. It may be changed as appropriate.

例えば、図7に示す頭部駆動処理(S22)は、衝突判定処理(S21)の前に実行されてよい。特に、例えばセンサ4が顔部31に設けられ、頭部30の前方にいる人のみを検出するように構成されている場合には、衝突判定処理(S21)が実行される前に、移動方向に顔部31を向ける頭部駆動処理(S24)が実行されるのが望ましい。また、例えば、図12に示す人特定処理の一連の流れ(S223、S224)は、図7のステップS21のYES判定後に実行されてもよい。 For example, the head drive process (S22) shown in FIG. 7 may be executed before the collision determination process (S21). In particular, for example, when the sensor 4 is provided on the face 31 and is configured to detect only a person in front of the head 30, the moving direction is before the collision determination process (S21) is executed. It is desirable that the head drive process (S24) for directing the face portion 31 to the face is executed. Further, for example, the series of flow of the person identification process (S223, S224) shown in FIG. 12 may be executed after the YES determination in step S21 of FIG.

以上が第2実施形態の移動ロボット200の詳細である。以上説明したように、移動ロボット200は、移動すると衝突すると予測される人の頭に顔部31を向けるので、近くにいる人に移動方向を予告するだけでなく、衝突を回避するための退避を促すことができる。その結果、移動ロボット200は、同じ空間を共有する人が移動ロボット200の移動に対していだき得る警戒心を解消し、安心感を与えることができる。 The above is the details of the mobile robot 200 of the second embodiment. As described above, since the mobile robot 200 directs the face 31 to the head of a person who is predicted to collide when moving, the mobile robot 200 not only informs a nearby person of the moving direction but also retreats to avoid the collision. Can be encouraged. As a result, the mobile robot 200 can give a sense of security by eliminating the alertness that a person sharing the same space may have with respect to the movement of the mobile robot 200.

以上、本発明の実施形態について説明したが、上記実施形態は本発明の適用例の一部を示したに過ぎず、本発明の技術的範囲を上記実施形態の具体的構成に限定する趣旨ではない。また、上記の実施形態は、矛盾が生じない範囲で適宜組み合わせ可能である。 Although the embodiments of the present invention have been described above, the above embodiments are only a part of the application examples of the present invention, and the technical scope of the present invention is limited to the specific configurations of the above embodiments. No. In addition, the above embodiments can be appropriately combined as long as there is no contradiction.

例えば、図2で示す移動ロボット100、200の構成は、少なくとも頭部30を備え、全方位移動台車部(移動台車20)により移動可能に構成される限り適宜変更されてよい。例えば、移動ロボット100、200は、ロボット本体部10を備えなくてもよい。この場合、頭部30は、移動台車20に直接設けられるように構成されてよい。 For example, the configurations of the mobile robots 100 and 200 shown in FIG. 2 may be appropriately changed as long as they include at least the head 30 and are configured to be movable by the omnidirectional mobile trolley unit (moving trolley 20). For example, the mobile robots 100 and 200 do not have to include the robot main body 10. In this case, the head 30 may be configured to be provided directly on the moving carriage 20.

本発明は、少なくとも移動ロボット等を製造する産業において利用可能である。 The present invention can be used at least in an industry that manufactures mobile robots and the like.

1 コントローラ
2 移動機構駆動手段
3 頭部駆動手段
4 検出手段
10 ロボット本体部
11 移動経路設定部
12 移動制御部
13 頭部方向制御部(頭部制御部)
20 移動台車(全方位移動台車部)
21 人検出部(検出部)
22 衝突予測部
30 頭部
40 腕部
100 移動ロボット(第1実施形態)
200 移動ロボット(第2実施形態)
300 人
1 Controller 2 Movement mechanism driving means 3 Head driving means 4 Detection means 10 Robot main body 11 Movement route setting unit 12 Movement control unit 13 Head direction control unit (head control unit)
20 Mobile trolley (omnidirectional mobile trolley)
21 person detection unit (detection unit)
22 Collision prediction unit 30 Head 40 Arms 100 Mobile robot (first embodiment)
200 mobile robot (second embodiment)
300 people

Claims (13)

全方位移動台車部により移動する移動ロボットであって、
正面を顔部とする頭部と、
前記頭部を駆動する駆動手段と、
前記駆動手段を制御する頭部制御部と、を備え、
前記頭部制御部は、前記駆動手段を制御して、前記移動ロボットが移動を開始する時または移動を開始する所定時間前に前記顔部を移動方向に向ける、移動ロボット。
It is a mobile robot that moves by the omnidirectional mobile trolley.
The head with the front as the face and
The driving means for driving the head and
A head control unit that controls the driving means is provided.
The head control unit is a mobile robot that controls the driving means to turn the face portion in the moving direction when the mobile robot starts moving or before a predetermined time when the moving robot starts moving.
前記頭部制御部は、前記移動ロボットの移動中において、移動方向を変更する時または移動方向を変更する所定時間前に前記顔部を変更後の移動方向に向ける、請求項1に記載の移動ロボット。 The movement according to claim 1, wherein the head control unit directs the face portion to the changed movement direction when changing the movement direction or before a predetermined time for changing the movement direction while the mobile robot is moving. robot. 前記所定時間は、前記移動ロボットの移動速度に応じて変更される、請求項1又は2に記載の移動ロボット。 The mobile robot according to claim 1 or 2, wherein the predetermined time is changed according to the moving speed of the mobile robot. 前記駆動手段は、前記頭部を左右方向に回転駆動させる鉛直方向の回転軸を備える、請求項1から3のいずれか一項に記載の移動ロボット。 The mobile robot according to any one of claims 1 to 3, wherein the driving means includes a rotation axis in a vertical direction for rotationally driving the head in the left-right direction. 移動経路を設定する移動経路設定部と、
人の頭の位置を検出する検出部と、
前記移動ロボットから所定距離内において、前記移動ロボットが前記移動経路を現在地からの移動方向に移動した場合に前記人と衝突するか否かを判定する衝突判定部と、をさらに備え、
前記衝突判定部が前記人と衝突すると判定した場合は、前記頭部制御部は前記顔部を前記人の頭に向ける、請求項1から4のいずれか一項に記載の移動ロボット。
The movement route setting unit that sets the movement route and
A detector that detects the position of a person's head,
A collision determination unit for determining whether or not the mobile robot collides with the person when the mobile robot moves in the movement direction from the current location within a predetermined distance from the mobile robot is further provided.
The mobile robot according to any one of claims 1 to 4, wherein when the collision determination unit determines that the robot collides with the person, the head control unit directs the face to the person's head.
前記駆動手段は、前記頭部を上下方向に駆動させる水平方向の回転軸をさらに備える、請求項5に記載の移動ロボット。 The mobile robot according to claim 5, wherein the driving means further includes a horizontal rotation axis that drives the head in the vertical direction. イメージセンサをさらに備え、
前記検出部は、前記イメージセンサが検出した画像データに基づいて前記人の頭の位置を検出する、請求項5又は6に記載の移動ロボット。
Equipped with an image sensor
The mobile robot according to claim 5 or 6, wherein the detection unit detects the position of the person's head based on the image data detected by the image sensor.
前記衝突判定部が複数の前記人に衝突すると判定した場合に最初に衝突すると予測される人を特定する特定部をさらに備え、
前記衝突判定部が複数の前記人に衝突すると判定した場合は、前記頭部制御部は前記顔部を前記特定部が特定した前記人の頭に向ける、請求項5から7のいずれか一項に記載の移動ロボット。
Further provided with a specific unit for identifying the person who is predicted to collide first when the collision determination unit determines that the person collides with the plurality of persons.
Any one of claims 5 to 7, wherein when the collision determination unit determines that the collision determination unit collides with a plurality of the person, the head control unit directs the face portion to the head of the person specified by the specific unit. The mobile robot described in.
前記移動ロボットの移動を制御する移動制御部をさらに備え、
前記ロボットの移動中に前記移動経路上に前記人を含む障害物が検出された場合は、前記移動制御部は前記移動ロボットを減速又は停止させる、請求項5から8のいずれか一項に記載の移動ロボット。
A movement control unit that controls the movement of the mobile robot is further provided.
The method according to any one of claims 5 to 8, wherein when an obstacle including the person is detected on the movement path during the movement of the robot, the movement control unit decelerates or stops the mobile robot. Mobile robot.
スピーカと、
前記スピーカを用いて所定の音を出力する報知制御部と、さらに備え、
前記報知制御部は、前記頭部制御部が前記顔部を前記人の頭に向けた後、一定時間経過しても前記衝突判定部が当該人と衝突すると判定する場合は、所定の音を出力する、請求項5から9のいずれか一項に記載の移動ロボット。
With speakers
A notification control unit that outputs a predetermined sound using the speaker, and further provided.
When the head control unit determines that the collision determination unit collides with the person even after a certain period of time has passed after the face portion is directed toward the person's head, the notification control unit makes a predetermined sound. The mobile robot according to any one of claims 5 to 9, which outputs.
マニピュレータ機構を有する一又は複数の腕部をさらに備える、請求項1から10のいずれか一項に記載の移動ロボット。 The mobile robot according to any one of claims 1 to 10, further comprising one or more arms having a manipulator mechanism. 正面を顔部とする頭部と、
前記頭部を駆動する駆動手段と、を備え、全方位移動台車部により移動する移動ロボットの制御方法であって、
前記駆動手段を制御する頭部制御ステップ、を含み、
前記頭部制御ステップでは、前記駆動手段を制御して、前記移動ロボットが移動を開始する時または移動を開始する所定時間前に前記顔部を移動方向に向ける、移動ロボットの制御方法。
The head with the front as the face and
It is a control method of a mobile robot provided with a driving means for driving the head and moved by an omnidirectional moving carriage unit.
Including a head control step, which controls the driving means.
In the head control step, a method for controlling a mobile robot, in which the driving means is controlled to turn the face portion in a moving direction when the mobile robot starts moving or before a predetermined time when the moving robot starts moving.
正面を顔部とする頭部と、
前記頭部を駆動する駆動手段と、を備え、全方位移動台車部により移動する移動ロボットの制御プログラムであって、
前記駆動手段を制御する頭部制御ステップ、を含み、
前記頭部制御ステップでは、前記駆動手段を制御して、前記移動ロボットが移動を開始する時または移動を開始する所定時間前に前記顔部を移動方向に向ける、移動ロボットの制御プログラム。
The head with the front as the face and
A control program for a mobile robot that includes a driving means for driving the head and is moved by an omnidirectional moving carriage.
Including a head control step, which controls the driving means.
In the head control step, a control program for a mobile robot that controls the driving means to turn the face portion in a moving direction when the mobile robot starts moving or a predetermined time before the moving starts.
JP2020080556A 2020-04-30 2020-04-30 Mobile robot, method for controlling mobile robot and control program Pending JP2021171904A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020080556A JP2021171904A (en) 2020-04-30 2020-04-30 Mobile robot, method for controlling mobile robot and control program
PCT/JP2021/012348 WO2021220678A1 (en) 2020-04-30 2021-03-24 Mobile robot, method for controlling mobile robot, and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020080556A JP2021171904A (en) 2020-04-30 2020-04-30 Mobile robot, method for controlling mobile robot and control program

Publications (1)

Publication Number Publication Date
JP2021171904A true JP2021171904A (en) 2021-11-01

Family

ID=78281160

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020080556A Pending JP2021171904A (en) 2020-04-30 2020-04-30 Mobile robot, method for controlling mobile robot and control program

Country Status (2)

Country Link
JP (1) JP2021171904A (en)
WO (1) WO2021220678A1 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2739030B2 (en) * 1993-10-25 1998-04-08 三菱重工業株式会社 Crawler-type vehicle traveling control device
JP2011204145A (en) * 2010-03-26 2011-10-13 Sony Corp Moving device, moving method and program
US8918213B2 (en) * 2010-05-20 2014-12-23 Irobot Corporation Mobile human interface robot
JP2016081403A (en) * 2014-10-21 2016-05-16 株式会社Ihiエアロスペース Unmanned moving body and method of creating route for unmanned moving body

Also Published As

Publication number Publication date
WO2021220678A1 (en) 2021-11-04

Similar Documents

Publication Publication Date Title
WO2021220679A1 (en) Robot control device, method, and program
JP6436604B2 (en) Method and system implemented by a computing system
JP6936081B2 (en) robot
US10293484B2 (en) Robot device and method of controlling the robot device
US9079307B2 (en) Autonomous locomotion apparatus, autonomous locomotion method, and program for autonomous locomotion apparatus
JP6854722B2 (en) robot
JP5324286B2 (en) Network robot system, robot control apparatus, robot control method, and robot control program
JP5768273B2 (en) A robot that predicts a pedestrian&#39;s trajectory and determines its avoidance behavior
JP2009113190A (en) Autonomous working robot and method of controlling operation of autonomous working robot
JP2017080845A (en) Robot control system
KR20170042547A (en) Humanoid robot with collision avoidance and trajectory recovery capabilities
KR20090032130A (en) Moving device
JP4940698B2 (en) Autonomous mobile robot
US11241790B2 (en) Autonomous moving body and control program for autonomous moving body
JPWO2016104265A1 (en) Moving body
JP7036399B2 (en) Autonomous mobile robots, their control devices and motion control programs
JP2003140747A (en) Autonomous moving device and system for operating the same
JP2011224679A (en) Reaction robot, reaction control method, and reaction control program
CN112631269A (en) Autonomous mobile robot and control program for autonomous mobile robot
JP2013188815A (en) Control device, control method and computer program
WO2021220678A1 (en) Mobile robot, method for controlling mobile robot, and control program
JP5552710B2 (en) Robot movement control system, robot movement control program, and robot movement control method
US11353880B2 (en) Autonomous moving body and control program for autonomous moving body
JP7317436B2 (en) ROBOT, ROBOT CONTROL PROGRAM AND ROBOT CONTROL METHOD
JP2009151382A (en) Traveling object

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20200430

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240207