JP2022185811A - Autonomous traveling system, autonomous traveling method, and autonomous traveling program - Google Patents

Autonomous traveling system, autonomous traveling method, and autonomous traveling program Download PDF

Info

Publication number
JP2022185811A
JP2022185811A JP2021093667A JP2021093667A JP2022185811A JP 2022185811 A JP2022185811 A JP 2022185811A JP 2021093667 A JP2021093667 A JP 2021093667A JP 2021093667 A JP2021093667 A JP 2021093667A JP 2022185811 A JP2022185811 A JP 2022185811A
Authority
JP
Japan
Prior art keywords
information
mobile device
processing unit
autonomous mobile
worker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021093667A
Other languages
Japanese (ja)
Inventor
大樹 森
Daiki Mori
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2021093667A priority Critical patent/JP2022185811A/en
Priority to CN202210517825.5A priority patent/CN115437367A/en
Publication of JP2022185811A publication Critical patent/JP2022185811A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

To provide an autonomous traveling system, an autonomous traveling method, and an autonomous traveling program capable of improving the work efficiency of a worker who generates a traveling route for an autonomous traveling device.SOLUTION: An autonomous traveling device 10 comprises: a recognition processing unit 413 that recognizes a worker based on an image captured by a camera 43; a travel processing unit 418 that causes the autonomous traveling device 10 to travel while following the worker; a detection processing unit 415 that detects a predetermined gesture operation of the worker based on the captured image; a registration processing unit 414 that registers action information in which a specific action corresponding to a specific gesture operation and position information of the autonomous traveling device 10 are associated with each other when the detected gesture operation is a preset specific gesture operation; and a generation processing unit 416 that generates a traveling route based on locus information of a traveling locus along which the autonomous traveling device 10 travels following the worker and action information registered by the registration processing unit 414.SELECTED DRAWING: Figure 4

Description

本発明は、自律走行可能な自律走行装置を走行させる自律走行システム、自律走行方法、及び自律走行プログラムに関する。 TECHNICAL FIELD The present invention relates to an autonomous traveling system, an autonomous traveling method, and an autonomous traveling program for causing an autonomous traveling device capable of autonomous traveling to travel.

近年、労働力不足や人件費の高騰などにより、ショッピングモール、駅、空港などの施設を警備(監視)したり、清掃したりする作業者が不足している。そのため、自律走行可能に設計され、安全性を有する産業用の自律走行型の警備ロボット、清掃ロボットなどの移動ロボット(自律走行装置)の導入が進んでいる。 In recent years, due to labor shortages and soaring labor costs, there has been a shortage of workers to guard (monitor) and clean facilities such as shopping malls, stations, and airports. Therefore, the introduction of mobile robots (autonomous mobile devices) such as autonomous security robots and cleaning robots for industrial use, which are designed to be able to travel autonomously and have safety, are progressing.

この種の自律走行装置の中には、作業者の操作に基づいて走行経路を記憶する教示機能(ティーチング機能)を備えるものがある(例えば特許文献1参照)。例えば、作業者は、経路教示モードに設定して、作業エリアにおいて自律走行装置を運転操作しながら所望の経路を走行させて自律走行装置が走行した軌跡を走行経路として記憶させる。自律走行装置は、自律走行モードに設定されると、経路教示モードで記憶された前記走行経路を再現走行する。これにより、作業者の操作(教示操作)に基づいて生成された走行経路に従って自律走行装置を自律的に走行させることが可能になる。 Some autonomous mobile devices of this type have a teaching function (teaching function) that stores a travel route based on an operator's operation (see Patent Document 1, for example). For example, the operator sets the route teaching mode, drives the autonomous mobile device in the work area, drives the autonomous mobile device along a desired route, and stores the trajectory traveled by the autonomous mobile device as the travel route. When the autonomous traveling device is set to the autonomous traveling mode, the autonomous traveling device reproduces and travels the traveling route stored in the route teaching mode. This enables the autonomous mobile device to autonomously travel along the travel route generated based on the operator's operation (teaching operation).

特開2017-182175号公報JP 2017-182175 A

しかしながら、従来の技術では、作業者が自律走行装置を手動で移動させながら操作端末において走行経路の設定操作などを行う必要があり、作業者が操作に不慣れな場合、走行経路の設定操作(教示操作)に時間がかかり、作業効率が低下する問題が生じる。 However, in the conventional technology, it is necessary for the worker to manually move the autonomous mobile device while performing operations such as setting the travel route on the operation terminal. operation) takes a long time, resulting in a problem of reduced work efficiency.

本発明の目的は、自律走行装置の走行経路を生成する作業者の作業効率を向上させることが可能な自律走行システム、自律走行方法、及び自律走行プログラムを提供することにある。 An object of the present invention is to provide an autonomous traveling system, an autonomous traveling method, and an autonomous traveling program capable of improving the work efficiency of a worker who creates a traveling route for an autonomous traveling device.

本発明の一の局面に係る自律走行システムは、走行経路に基づいて自律走行装置を走行させるシステムである。前記自律走行システムは、前記自律走行装置に搭載される検出部の検出情報に基づいて作業者を認識する認識処理部と、前記自律走行装置を、前記作業者を追従して走行させる走行処理部と、前記検出情報に基づいて、前記作業者の所定の登録操作を検出する検出処理部と、前記検出処理部により検出される前記登録操作が予め設定された特定登録操作である場合に、当該特定登録操作に対応する特定動作と前記自律走行装置の位置情報とを互いに関連付けた動作情報を登録する登録処理部と、前記自律走行装置が前記作業者を追従して走行する走行軌跡の軌跡情報と、前記登録処理部により登録される前記動作情報とに基づいて、前記走行経路を生成する生成処理部と、を備える。 An autonomous mobile system according to one aspect of the present invention is a system that causes an autonomous mobile device to travel based on a travel route. The autonomous traveling system includes a recognition processing unit that recognizes a worker based on detection information from a detection unit mounted on the autonomous traveling device, and a traveling processing unit that causes the autonomous traveling device to follow and travel the worker. a detection processing unit that detects a predetermined registration operation of the worker based on the detection information; and if the registration operation detected by the detection processing unit is a preset specific registration operation, the a registration processing unit that registers motion information in which a specific motion corresponding to a specific registration operation and position information of the autonomous mobile device are associated with each other; and a generation processing unit that generates the travel route based on the motion information registered by the registration processing unit.

本発明の他の局面に係る自律走行方法は、走行経路に基づいて自律走行装置を走行させる方法である。前記自律走行方法では、一又は複数のプロセッサが、前記自律走行装置に搭載される検出部の検出情報に基づいて作業者を認識する認識ステップと、前記自律走行装置を、前記作業者を追従して走行させる走行ステップと、前記検出情報に基づいて、前記作業者の所定の登録操作を検出する検出ステップと、前記検出ステップにおいて検出される前記登録操作が予め設定された特定登録操作である場合に、当該特定登録操作に対応する特定動作と前記自律走行装置の位置情報とを互いに関連付けた動作情報を登録する登録ステップと、前記自律走行装置が前記作業者を追従して走行する走行軌跡の軌跡情報と、前記登録ステップにおいて登録される前記動作情報とに基づいて、前記走行経路を生成する生成ステップと、を実行する。 An autonomous traveling method according to another aspect of the present invention is a method of causing an autonomous traveling device to travel based on a travel route. In the autonomous traveling method, a recognition step in which one or more processors recognize a worker based on detection information from a detection unit mounted on the autonomous traveling device; a running step for running the vehicle with the vehicle, a detection step for detecting a predetermined registration operation of the worker based on the detection information, and a case where the registration operation detected in the detection step is a preset specific registration operation a registration step of registering motion information in which a specific motion corresponding to the specific registration operation and position information of the autonomous mobile device are associated with each other; and a generating step of generating the travel route based on the trajectory information and the motion information registered in the registering step.

本発明の他の局面に係る自律走行プログラムは、走行経路に基づいて自律走行装置を走行させるプログラムである。前記自律走行プログラムは、前記自律走行装置に搭載される検出部の検出情報に基づいて作業者を認識する認識ステップと、前記自律走行装置を、前記作業者を追従して走行させる走行ステップと、前記検出情報に基づいて、前記作業者の所定の登録操作を検出する検出ステップと、前記検出ステップにおいて検出される前記登録操作が予め設定された特定登録操作である場合に、当該特定登録操作に対応する特定動作と前記自律走行装置の位置情報とを互いに関連付けた動作情報を登録する登録ステップと、前記自律走行装置が前記作業者を追従して走行する走行軌跡の軌跡情報と、前記登録ステップにおいて登録される前記動作情報とに基づいて、前記走行経路を生成する生成ステップと、を一又は複数のプロセッサに実行させるためのプログラムである。 An autonomous traveling program according to another aspect of the present invention is a program for causing an autonomous traveling device to travel based on a travel route. The autonomous traveling program includes a recognition step of recognizing a worker based on detection information of a detection unit mounted on the autonomous traveling device, a traveling step of causing the autonomous traveling device to follow the worker, and a detection step of detecting a predetermined registration operation of the worker based on the detection information; a registration step of registering motion information in which a corresponding specific motion and position information of the autonomous mobile device are associated with each other; trajectory information of a travel trajectory along which the autonomous mobile device travels following the worker; and a generation step of generating the travel route based on the operation information registered in the above.

本発明によれば、自律走行装置の走行経路を生成する作業者の作業効率を向上させることが可能な自律走行システム、自律走行方法、及び自律走行プログラムを提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the autonomous traveling system, the autonomous traveling method, and the autonomous traveling program which can improve the work efficiency of the worker who generates the traveling route of an autonomous traveling apparatus can be provided.

図1は、本発明の実施形態に係る自律走行装置の前方側の外観を示す斜視図である。FIG. 1 is a perspective view showing the appearance of the front side of an autonomous mobile device according to an embodiment of the present invention. 図2は、本発明の実施形態に係る自律走行装置の後方側の外観を示す斜視図である。FIG. 2 is a perspective view showing the appearance of the rear side of the autonomous mobile device according to the embodiment of the present invention. 図3は、本発明の実施形態に係る自律走行装置の正面図である。FIG. 3 is a front view of an autonomous mobile device according to an embodiment of the invention. 図4は、本発明の実施形態に係る自律走行装置の構成を示す機能ブロック図である。FIG. 4 is a functional block diagram showing the configuration of the autonomous mobile device according to the embodiment of the invention. 図5は、本発明の実施形態に係る自律走行装置の記憶部に登録される地図情報の一例を示す図である。FIG. 5 is a diagram showing an example of map information registered in the storage unit of the autonomous mobile device according to the embodiment of the present invention. 図6は、本発明の実施形態に係る自律走行装置の記憶部に登録されるティーチング情報の一例を示す図である。FIG. 6 is a diagram showing an example of teaching information registered in the storage unit of the autonomous mobile device according to the embodiment of the present invention. 図7は、本発明の実施形態に係る自律走行装置の記憶部に登録されるジェスチャー情報の一例を示す図である。FIG. 7 is a diagram showing an example of gesture information registered in the storage unit of the autonomous mobile device according to the embodiment of the present invention. 図8は、本発明の実施形態に係る自律走行装置が作業者を追従して走行する様子を示す図である。FIG. 8 is a diagram showing how the autonomous mobile device according to the embodiment of the present invention travels while following a worker. 図9は、本発明の実施形態に係るティーチング操作の様子を示す図である。FIG. 9 is a diagram showing how the teaching operation is performed according to the embodiment of the present invention. 図10は、本発明の実施形態に係る自律走行装置に表示される操作画面の一例を示す図である。FIG. 10 is a diagram showing an example of an operation screen displayed on the autonomous mobile device according to the embodiment of the present invention. 図11は、本発明の実施形態に係る自律走行装置に表示される操作画面の一例を示す図である。FIG. 11 is a diagram showing an example of an operation screen displayed on the autonomous mobile device according to the embodiment of the present invention. 図12は、本発明の実施形態に係る自律走行装置に表示される操作画面の一例を示す図である。FIG. 12 is a diagram showing an example of an operation screen displayed on the autonomous mobile device according to the embodiment of the present invention. 図13は、本発明の実施形態に係る自律走行装置に表示される操作画面の一例を示す図である。FIG. 13 is a diagram showing an example of an operation screen displayed on the autonomous mobile device according to the embodiment of the present invention. 図14は、本発明の実施形態に係る自律走行装置に表示される操作画面の一例を示す図である。FIG. 14 is a diagram showing an example of an operation screen displayed on the autonomous mobile device according to the embodiment of the present invention. 図15は、本発明の実施形態に係る自律走行装置に表示される操作画面の一例を示す図である。FIG. 15 is a diagram showing an example of an operation screen displayed on the autonomous mobile device according to the embodiment of the present invention. 図16は、本発明の実施形態に係る自律走行装置に表示される操作画面の一例を示す図である。FIG. 16 is a diagram showing an example of an operation screen displayed on the autonomous mobile device according to the embodiment of the present invention. 図17は、本発明の実施形態に係る自律走行装置に表示される操作画面の一例を示す図である。FIG. 17 is a diagram showing an example of an operation screen displayed on the autonomous mobile device according to the embodiment of the present invention. 図18は、本発明の実施形態に係る自律走行装置に表示される操作画面の一例を示す図である。FIG. 18 is a diagram showing an example of an operation screen displayed on the autonomous mobile device according to the embodiment of the present invention. 図19は、本発明の実施形態に係る自律走行装置の記憶部に登録される動作情報の一例を示す図である。FIG. 19 is a diagram showing an example of motion information registered in the storage unit of the autonomous mobile device according to the embodiment of the present invention. 図20は、本発明の実施形態に係る自律走行装置で実行される走行経路生成処理の一例を示すフローチャートである。FIG. 20 is a flowchart showing an example of travel route generation processing executed by the autonomous mobile device according to the embodiment of the present invention. 図21は、本発明の実施形態に係る自律走行装置で実行される走行経路生成処理の一例を示すフローチャートである。FIG. 21 is a flowchart showing an example of travel route generation processing executed by the autonomous mobile device according to the embodiment of the present invention.

以下、添付図面を参照しながら、本発明の実施形態について説明する。なお、以下の実施形態は、本発明を具体化した一例であり、本発明の技術的範囲を限定するものではない。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In addition, the following embodiment is an example which actualized this invention, and does not limit the technical scope of this invention.

[自律走行装置10]
図1は、本発明の実施形態に係る自律走行装置10の前方側の外観を示す斜視図であり、図2は、自律走行装置10の後方側の外観を示す模式図である。以下の説明では、各図に示される上下方向D1、前後方向D2、左右方向D3を用いる。自律走行装置10は、本発明の自律走行装置の一例である。
[Autonomous mobile device 10]
FIG. 1 is a perspective view showing the appearance of the front side of an autonomous mobile device 10 according to an embodiment of the present invention, and FIG. 2 is a schematic diagram showing the appearance of the rear side of the autonomous mobile device 10. As shown in FIG. In the following description, the up-down direction D1, the front-rear direction D2, and the left-right direction D3 shown in each drawing are used. The autonomous mobile device 10 is an example of the autonomous mobile device of the present invention.

自律走行装置10は、ショッピングモール、駅、空港などの施設内を自律的に走行することによって移動する自律走行装置であり、移動ロボットとも称される。自律走行装置10は、例えば、警備ロボット、清掃ロボット、案内ロボット、介護ロボット、荷物運搬ロボットなど様々な用途に利用される。例えば、自律走行装置10は、自律走行によって移動しつつ、施設内の警備対象エリアを警備(監視)する。また例えば、自律走行装置10は、自律走行によって移動しつつ、清掃対象エリアを清掃する。また例えば、自律走行装置10は、自律走行によって移動しつつ、利用者を目的地に案内したり、表示パネル21に案内情報又は広告情報を表示したりする。自律走行装置10は、予め設定された走行経路、時間帯、充電のために戻る帰還位置などの各種設定情報に基づいて自律走行する。 The autonomous mobile device 10 is an autonomous mobile device that moves by autonomously traveling within facilities such as shopping malls, stations, and airports, and is also called a mobile robot. The autonomous mobile device 10 is used for various purposes such as security robots, cleaning robots, guidance robots, nursing care robots, and luggage transport robots. For example, the autonomous mobile device 10 guards (monitors) a guarded area in the facility while moving by autonomous driving. Further, for example, the autonomous mobile device 10 cleans the cleaning target area while moving by autonomous travel. Further, for example, the autonomous mobile device 10 guides the user to a destination and displays guidance information or advertisement information on the display panel 21 while moving by autonomous travel. The autonomous mobile device 10 autonomously travels based on various setting information such as a preset travel route, a time period, and a return position to return for charging.

以下では、本実施形態の自律走行装置10として、警備機能を備える警備ロボットを挙げて説明する。例えば、自律走行装置10は、ショッピングモールにおいて、所定の時間帯(例えば夜間)に、予め設定された走行経路に従って走行処理を実行しながら、不審者などの異常の有無を検知する警備処理を実行する。 A security robot having a security function will be described below as the autonomous mobile device 10 of the present embodiment. For example, in a shopping mall, the autonomous mobile device 10 executes security processing for detecting the presence or absence of an abnormality such as a suspicious person while executing travel processing according to a preset travel route during a predetermined time period (for example, at night). do.

自律走行装置10は、装置本体11と、装置本体11に設けられた各機能部とを備えている。具体的には、装置本体11には、走行部12、モータ(不図示)、バッテリ(不図示)、操作部20(図2参照)、表示パネル21(図1参照)、充電接続部30(図2参照)、及び制御部40(制御装置)などが設けられている。 The autonomous mobile device 10 includes a device main body 11 and functional units provided in the device main body 11 . Specifically, the device main body 11 includes a traveling portion 12, a motor (not shown), a battery (not shown), an operation portion 20 (see FIG. 2), a display panel 21 (see FIG. 1), a charging connection portion 30 ( 2), and a control unit 40 (control device).

図1に示すように、装置本体11は、その外装を構成する外装カバー11Aを有する。また、図2に示すように、装置本体11は、その下部にシャーシ11Bを有する。シャーシ11Bは、床面に対して概ね平行に設けられている。また、装置本体11の内部には、上述の各機能部を支持するための支持フレームが適宜設けられている。 As shown in FIG. 1, the apparatus main body 11 has an exterior cover 11A that constitutes its exterior. Further, as shown in FIG. 2, the device main body 11 has a chassis 11B at its lower portion. The chassis 11B is provided substantially parallel to the floor surface. Further, inside the device body 11, a support frame for supporting each of the functional units described above is appropriately provided.

走行部12は、装置本体11の下部に設けられている。走行部12は、装置本体11の走行姿勢を維持しつつ進行方向の搬送力を床面に伝達するものであり、シャーシ11Bに取り付けられている。走行部12は、走行用の一対の車輪121と、4つのキャスタ122とを有する。 The running portion 12 is provided in the lower portion of the device main body 11 . The traveling portion 12 is attached to the chassis 11B to transmit the conveying force in the advancing direction to the floor surface while maintaining the traveling posture of the apparatus main body 11 . The traveling part 12 has a pair of wheels 121 for traveling and four casters 122 .

車輪121は、シャーシ11Bの前後方向の中央であって、左右方向D3(幅方向)の両端部それぞれに回転可能に支持されている。4つのキャスタ122は、装置本体11の走行姿勢を維持するためのものであり、シャーシ11Bの前方端の両端部、及びシャーシ11Bの後方端の両端部に回転可能に支持されている。自律走行装置10が床面に置かれた状態で、車輪121及びキャスタ122の各外周面は床面によって支持される。これにより、装置本体11が、図1及び図2に示される走行姿勢に維持される。 The wheels 121 are rotatably supported at the center of the chassis 11B in the front-rear direction and at both ends in the left-right direction D3 (width direction). The four casters 122 are for maintaining the running posture of the apparatus main body 11, and are rotatably supported at both ends of the front end of the chassis 11B and both ends of the rear end of the chassis 11B. The outer peripheral surfaces of the wheels 121 and casters 122 are supported by the floor while the autonomous mobile device 10 is placed on the floor. As a result, the device main body 11 is maintained in the running posture shown in FIGS. 1 and 2 .

車輪121の回転軸には、減速ギヤなどの伝達機構を介して、前記モータの出力軸が連結されている。このため、前記モータが駆動されて、その回転駆動力が前記出力軸から出力されると、前記モータの回転駆動力が車輪121に伝達される。本実施形態では、一対の車輪121のそれぞれに対して、個別に前記モータが設けられている。したがって、前記各モータが個別に駆動制御されることによって、各車輪121の回転速度が制御される。例えば、各車輪121の回転速度が等速に制御されると、自律走行装置10は直進又は後進し、各車輪121の回転速度が異なる速度に制御されると、回転速度の遅い車輪121側に自律走行装置10が旋回する。 The output shaft of the motor is connected to the rotating shaft of the wheel 121 via a transmission mechanism such as a reduction gear. Therefore, when the motor is driven and its rotational driving force is output from the output shaft, the rotational driving force of the motor is transmitted to the wheels 121 . In this embodiment, the motors are individually provided for each of the pair of wheels 121 . Therefore, the rotational speed of each wheel 121 is controlled by individually driving and controlling each motor. For example, when the rotational speed of each wheel 121 is controlled to be uniform, the autonomous mobile device 10 moves straight or backward. The autonomous mobile device 10 turns.

前記バッテリは、装置本体11の中心部に設けられている。前記バッテリは、前記モータに駆動用の電力を供給する。 The battery is provided in the central portion of the device main body 11 . The battery supplies driving power to the motor.

図2に示すように、装置本体11の背面には、背面を覆う背面カバー17が設けられている。背面カバー17には、前記バッテリの充電時に用いられる充電接続部30が設けられている。充電接続部30は、充電ステーションが備える3つの給電端子に接続される3つの受電端子31を有している。なお、自律走行装置10が清掃ロボットの場合、背面カバー17内部に清掃機能に係る構成部品が配置される。 As shown in FIG. 2, a back cover 17 is provided on the back of the device body 11 to cover the back. The rear cover 17 is provided with a charging connection section 30 used when charging the battery. The charging connection unit 30 has three power receiving terminals 31 that are connected to the three power supply terminals of the charging station. When the autonomous mobile device 10 is a cleaning robot, components related to the cleaning function are arranged inside the rear cover 17 .

図3は、自律走行装置10の正面図である。図3に示すように、自律走行装置10の正面には、フロントレーザセンサ41と、ソナーセンサ42と、カメラ43とが設けられている。 FIG. 3 is a front view of the autonomous mobile device 10. FIG. As shown in FIG. 3 , a front laser sensor 41 , a sonar sensor 42 and a camera 43 are provided on the front of the autonomous mobile device 10 .

フロントレーザセンサ41は、装置本体11の正面の下部に形成された幅方向に延びる溝部175に設けられている。フロントレーザセンサ41は、溝部175の内部の中央に配置されている。フロントレーザセンサ41は、レーザ発信素子、レーザ発信素子を駆動するレーザドライバ、受光素子、受光素子の出力をデジタル信号に変換する受光処理回路などを備えている。フロントレーザセンサ41は制御部40に接続されており、制御部40によって制御される。フロントレーザセンサ41は、前方へ向けて幅方向(水平方向)へ所定の走査角(例えば120°)の範囲内でレーザ光を走査する。フロントレーザセンサ41が、照射された物体(対象物)で反射して戻って来たレーザ光を受光すると、制御部40は、前記レーザ光が戻ってくるまでの時間を測定し、その測定値に基づいて各走査位置における物体までの距離を算出する。これにより、制御部40は、自律走行装置10の正面側(進行方向側)に存在する物体までの距離や位置、その物体の幅方向における形状やサイズを把握することができる。 The front laser sensor 41 is provided in a groove portion 175 extending in the width direction formed in the lower front portion of the apparatus body 11 . The front laser sensor 41 is arranged at the center inside the groove portion 175 . The front laser sensor 41 includes a laser transmission element, a laser driver for driving the laser transmission element, a light receiving element, a light reception processing circuit for converting the output of the light receiving element into a digital signal, and the like. The front laser sensor 41 is connected to the controller 40 and controlled by the controller 40 . The front laser sensor 41 scans a laser beam forward in the width direction (horizontal direction) within a predetermined scanning angle (for example, 120°). When the front laser sensor 41 receives the laser beam that has returned after being reflected by the irradiated object (object), the control unit 40 measures the time until the laser beam returns, and measures the measured value. , the distance to the object at each scanning position is calculated. Thereby, the control unit 40 can grasp the distance and position to an object existing on the front side (advance direction side) of the autonomous mobile device 10, and the shape and size of the object in the width direction.

ソナーセンサ42は、表示パネル21の下側に設けられている。装置本体11の正面における幅方向の両端部それぞれにソナーセンサ42が設けられている。ソナーセンサ42は制御部40に接続されており、制御部40によって制御される。ソナーセンサ42は、音波を用いて物体を検知するものであり、その音波が物体に反射して戻ってくるまでの時間に基づいて、その物体との距離を測定する。 The sonar sensor 42 is provided below the display panel 21 . Sonar sensors 42 are provided at both ends in the width direction on the front surface of the apparatus main body 11 . The sonar sensor 42 is connected to the controller 40 and controlled by the controller 40 . The sonar sensor 42 detects an object using sound waves, and measures the distance to the object based on the time it takes for the sound waves to reflect off the object and return.

カメラ43は、表示パネル21の上側に設けられている。カメラ43は、装置本体11の正面における幅方向の中央に配置されている。カメラ43は制御部40に接続されており、制御部40によって制御される。カメラ43は、所定のフレームレートで前方の所定範囲(例えば水平方向120度、垂直方向100度の範囲)を撮像し、撮像した画像データを制御部40に出力する。制御部40は、カメラ43から前記画像データを順次取得して所定の画像処理(後述)を実行する。カメラ43は、本発明の検出部の一例であり、また本発明のカメラの一例である。 The camera 43 is provided above the display panel 21 . The camera 43 is arranged at the center in the width direction on the front surface of the apparatus main body 11 . The camera 43 is connected to the control section 40 and controlled by the control section 40 . The camera 43 captures an image of a predetermined range in front (for example, a range of 120 degrees in the horizontal direction and 100 degrees in the vertical direction) at a predetermined frame rate, and outputs the captured image data to the control unit 40 . The control unit 40 sequentially acquires the image data from the camera 43 and executes predetermined image processing (described later). The camera 43 is an example of the detection section of the present invention, and an example of the camera of the present invention.

また、装置本体11の両側面それぞれには、サイドレーザセンサ45が設けられている。サイドレーザセンサ45は、フロントレーザセンサ41と概ね同様に構成されており、レーザ発信素子、レーザ発信素子を駆動するレーザドライバ、受光素子、受光素子の出力をデジタル信号に変換する受光処理回路などを備えている。サイドレーザセンサ45は制御部40に接続されており、制御部40によって制御される。サイドレーザセンサ45は、前方から下方そして後方へ向けて所定の走査角(例えば180°)の範囲内でレーザ光を走査する。サイドレーザセンサ45が、照射された物体(対象物)で反射して戻って来たレーザ光を受光すると、制御部40は、前記レーザ光が戻ってくるまでの時間を測定し、その測定値に基づいて各走査位置における物体までの距離を算出する。これにより、制御部40は、自律走行装置10の正面側(進行方向側)に存在する物体や、床面に存在する段差や障害物までの距離や位置、それらの走査方向における形状やサイズを把握することができる。 Further, a side laser sensor 45 is provided on each of both side surfaces of the apparatus main body 11 . The side laser sensor 45 has substantially the same configuration as the front laser sensor 41, and includes a laser transmitting element, a laser driver for driving the laser transmitting element, a light receiving element, a light receiving processing circuit for converting the output of the light receiving element into a digital signal, and the like. I have. The side laser sensor 45 is connected to the controller 40 and controlled by the controller 40 . The side laser sensor 45 scans the laser beam from the front, downward, and rearward within a predetermined scanning angle range (eg, 180°). When the side laser sensor 45 receives the laser beam that has returned after being reflected by the irradiated object (object), the control unit 40 measures the time until the laser beam returns, and measures the measured value. , the distance to the object at each scanning position is calculated. As a result, the control unit 40 can determine the distances and positions of objects existing on the front side (advance direction side) of the autonomous mobile device 10, steps and obstacles existing on the floor, and their shapes and sizes in the scanning direction. can grasp.

また、装置本体11の上面には監視カメラ44が設けられている。監視カメラ44は、装置本体11の天板における中央に配置されている。監視カメラ44は制御部40に接続されており、制御部40によって制御される。監視カメラ44は、撮像範囲を変更可能に構成されており、制御部40の命令に従って所定の撮像範囲を撮像する。例えば、監視カメラ44は、レンズを水平方向に360度、垂直方向に180度回転させることが可能な回転機構を備えており、制御部40が指示した方向にレンズを回転させて当該方向の所定範囲を撮像する。監視カメラ44は、所定のフレームレートで所定範囲を撮像し、撮像した画像データを制御部40に出力する。制御部40は、監視カメラ44から前記画像データを順次取得して所定の画像処理(後述)を実行する。 A monitoring camera 44 is provided on the upper surface of the device body 11 . The monitoring camera 44 is arranged in the center of the top plate of the device main body 11 . The monitoring camera 44 is connected to the control unit 40 and controlled by the control unit 40 . The monitoring camera 44 is configured to be able to change its imaging range, and images a predetermined imaging range in accordance with an instruction from the control unit 40 . For example, the surveillance camera 44 has a rotation mechanism capable of rotating the lens horizontally by 360 degrees and vertically by 180 degrees. Take an image of the range. The monitoring camera 44 captures an image of a predetermined range at a predetermined frame rate, and outputs captured image data to the control unit 40 . The control unit 40 sequentially acquires the image data from the monitoring camera 44 and executes predetermined image processing (described later).

自律走行装置10は、警備対象エリアに相当する地図(環境地図)の情報と、フロントレーザセンサ41、ソナーセンサ42、カメラ43、監視カメラ44、及びサイドレーザセンサ45の検出情報とを利用することにより、予め設定された前記走行経路を自律走行する。なお、カメラ43及び監視カメラ44が一つのカメラで構成されてもよい。例えば、装置本体11の上面に設けられた監視カメラ44が、カメラ43の役割を担ってもよい。 The autonomous mobile device 10 uses map (environmental map) information corresponding to the guarded area and detection information from the front laser sensor 41, sonar sensor 42, camera 43, surveillance camera 44, and side laser sensor 45. , autonomously travels along the preset travel route. Note that the camera 43 and the monitoring camera 44 may be configured by one camera. For example, a monitoring camera 44 provided on the upper surface of the device main body 11 may serve as the camera 43 .

操作部20(図2参照)は、装置本体11の背面の上部に設けられている。操作部20は、外装カバー11Aに取り付けられている。操作部20は、作業者よって操作される装置であり、例えば、タッチ操作が可能なタッチパネルを有する装置である。操作部20には、作業者が各種操作(ティーチング操作、登録操作、設定操作、走行指示操作など)を行うための操作画面が表示される。操作部20に対する操作情報は、制御部40に転送され、制御部40による走行制御に用いられる。なお、操作部20は、装置本体11の上面に設けられてもよい。 An operation unit 20 (see FIG. 2) is provided on the upper part of the rear surface of the device main body 11 . The operation unit 20 is attached to the exterior cover 11A. The operating unit 20 is a device operated by an operator, and is, for example, a device having a touch panel capable of touch operation. The operation unit 20 displays an operation screen for the operator to perform various operations (teaching operation, registration operation, setting operation, travel instruction operation, etc.). Operation information for the operation unit 20 is transferred to the control unit 40 and used for travel control by the control unit 40 . Note that the operation unit 20 may be provided on the upper surface of the apparatus main body 11 .

表示パネル21(図1参照)は、装置本体11の前面に設けられている。表示パネル21は、例えば液晶パネルである。表示パネル21には、ティーチング操作(教示操作)中に各種の操作画面(図10~図18参照)が制御部40によって表示される。また、表示パネル21には、自律走行装置10が自律走行中(警備中)に、警備情報などのアナウンス情報が制御部40によって表示される。前記警備情報は、例えば不審者を検知した場合の警告、通報などをアナウンスする情報である。表示パネル21は、本発明の表示部の一例である。 A display panel 21 (see FIG. 1) is provided on the front surface of the device main body 11 . The display panel 21 is, for example, a liquid crystal panel. Various operation screens (see FIGS. 10 to 18) are displayed on the display panel 21 by the controller 40 during the teaching operation. Also, announcement information such as security information is displayed on the display panel 21 by the control unit 40 while the autonomous mobile device 10 is autonomously traveling (during security). The security information is, for example, information for announcing a warning or notification when a suspicious person is detected. The display panel 21 is an example of the display section of the present invention.

操作ハンドル22は、装置本体11の背面の最上部に設けられている。操作ハンドル22は、外装カバー11Aに取り付けられている。操作ハンドル22は、作業者が手動で自律走行装置10を運転操作する場合に、作業者が把持する操作部材である。 The operating handle 22 is provided at the uppermost portion of the rear surface of the device main body 11 . The operating handle 22 is attached to the exterior cover 11A. The operating handle 22 is an operating member held by the operator when the operator manually operates the autonomous mobile device 10 .

通信部25(図4参照)は、自律走行装置10を有線又は無線でネットワークに接続し、当該ネットワークを介してサーバ(不図示)などの外部機器との間で所定の通信プロトコルに従ったデータ通信を実行するための通信インターフェースである。 The communication unit 25 (see FIG. 4) connects the autonomous mobile device 10 to a network by wire or wirelessly, and exchanges data according to a predetermined communication protocol with an external device such as a server (not shown) via the network. A communication interface for executing communication.

記憶部50(図4参照)は、各種の情報を記憶するHDD(Hard Disk Drive)又はSSD(Solid State Drive)などの不揮発性の記憶部である。具体的に、記憶部50には、地図情報51、ティーチング情報52、ジェスチャー情報53、動作情報54などのデータが記憶される。図5は、地図情報51の一例を示す図である。図6は、ティーチング情報52の一例を示す図である。図7は、ジェスチャー情報53の一例を示す図である。動作情報54(図19参照)については後述する。 The storage unit 50 (see FIG. 4) is a non-volatile storage unit such as an HDD (Hard Disk Drive) or an SSD (Solid State Drive) that stores various types of information. Specifically, the storage unit 50 stores data such as map information 51, teaching information 52, gesture information 53, motion information 54, and the like. FIG. 5 is a diagram showing an example of the map information 51. As shown in FIG. FIG. 6 is a diagram showing an example of the teaching information 52. As shown in FIG. FIG. 7 is a diagram showing an example of the gesture information 53. As shown in FIG. The motion information 54 (see FIG. 19) will be described later.

図5に示すように、地図情報51には、自律走行装置10が走行する警備エリア(作業エリア)に対応する環境地図の情報が登録される。地図情報51には、1又は複数の環境地図が登録される。図5には、一つの環境地図M1を例示している。例えば、施設のフロアごとに環境地図が生成される場合、地図情報51には、施設のフロアのそれぞれに対応する複数の環境地図が登録される。具体的には、地図情報51に、施設のフロアF1の環境地図M1と、フロアF2の環境地図M2と、フロアF3の環境地図M3とが登録される。前記環境地図は、外部機器において予め生成されたものであってもよいし、自律走行装置10が走行しながら各センサ(フロントレーザセンサ41と、ソナーセンサ42など)により検出される障害物までの距離及び位置に基づいて生成されたものであってもよい。すなわち、制御部40は、自律走行装置10を走行させることによって走行エリアの環境地図を生成してもよい。以下では、図5に示す環境地図M1を例に挙げて説明する。 As shown in FIG. 5, in the map information 51, environment map information corresponding to the security area (work area) in which the autonomous mobile device 10 travels is registered. One or more environmental maps are registered in the map information 51 . FIG. 5 illustrates one environmental map M1. For example, when an environment map is generated for each floor of the facility, the map information 51 registers a plurality of environment maps corresponding to each floor of the facility. Specifically, in the map information 51, an environment map M1 of the facility floor F1, an environment map M2 of the floor F2, and an environment map M3 of the floor F3 are registered. The environment map may be one generated in advance by an external device, or the distance to obstacles detected by each sensor (front laser sensor 41, sonar sensor 42, etc.) while the autonomous mobile device 10 is traveling. and location. That is, the control unit 40 may generate an environmental map of the travel area by causing the autonomous mobile device 10 to travel. The environment map M1 shown in FIG. 5 will be described below as an example.

図6に示すように、ティーチング情報52には、作業者による前記ティーチング操作に関する情報が登録される。 As shown in FIG. 6, in the teaching information 52, information on the teaching operation by the operator is registered.

ここで、本実施形態に係るティーチング操作では、図5に示す環境地図M1に対応する施設の走行経路のティーチング操作を担当する作業者Aが施設内を歩行し、自律走行装置10が図8に示すように作業者Aの後ろを追従して走行する。図9には、ティーチング操作中の作業者Aと作業者Aに追従して走行する自律走行装置10とを示している。図9の符号P0は、ティーチング操作の開始位置P1を表している。自律走行装置10は、作業者Aに追従して走行している間、各種情報を取得してティーチング情報52に登録する。 Here, in the teaching operation according to the present embodiment, the worker A who is in charge of the teaching operation of the travel route of the facility corresponding to the environment map M1 shown in FIG. It runs behind the worker A as shown. FIG. 9 shows a worker A who is performing a teaching operation and an autonomous mobile device 10 which follows the worker A and travels. Reference P0 in FIG. 9 represents the starting position P1 of the teaching operation. The autonomous mobile device 10 acquires various kinds of information and registers them in the teaching information 52 while following the worker A and traveling.

具体的には、ティーチング情報52には、所定の時間間隔の時刻ごとに、「位置情報」、「ジェスチャー検出」、「ジェスチャー種別」などの情報が登録される。「位置情報」は、自律走行装置10の位置(座標)を示す情報である。前記位置情報は、環境地図M1と、フロントレーザセンサ41、ソナーセンサ42、及びカメラ43などの検出結果とに基づいて算出される。「ジェスチャー検出」は、自律走行装置10が作業者Aのジェスチャー操作を検出したか否かを示す情報である。前記ジェスチャー操作は、作業者Aの手(右手及び左手)、顔、全身による所定の動作である。例えば、前記ジェスチャー操作は、右手を挙げる動作、左手を挙げる動作、指差し動作、手を横又は縦に振る動作、腰や膝を折り曲げて姿勢を低くする動作(屈む動作)などである。制御部40は、カメラ43の撮像画像を解析して前記ジェスチャー操作を検出すると、ティーチング情報52の「ジェスチャー検出」に「1」を登録する。「ジェスチャー種別」は、前記ジェスチャー操作に対応する作業者の動作を示す情報である。作業者Aは、ティーチング操作において、自律走行装置10が追従走行しているときに所定の位置で所定のジェスチャー操作を行う。制御部40は、作業者Aのジェスチャー操作を検出すると、当該ジェスチャー操作の動作情報を「ジェスチャー種別」に登録する。 Specifically, in the teaching information 52, information such as "positional information", "gesture detection", and "gesture type" is registered at each predetermined time interval. “Position information” is information indicating the position (coordinates) of the autonomous mobile device 10 . The position information is calculated based on the environment map M1 and detection results of the front laser sensor 41, sonar sensor 42, camera 43, and the like. "Gesture detection" is information indicating whether or not the autonomous mobile device 10 has detected a gesture operation by the worker A. The gesture operation is a predetermined action of the operator A's hands (right and left hands), face, and whole body. For example, the gesture operation includes an action of raising the right hand, an action of raising the left hand, a pointing action, an action of shaking the hand horizontally or vertically, an action of bending the waist or knees to lower the posture (a bending action), and the like. When the control unit 40 analyzes the captured image of the camera 43 and detects the gesture operation, it registers “1” in “gesture detection” of the teaching information 52 . "Gesture type" is information indicating the operator's motion corresponding to the gesture operation. In the teaching operation, the worker A performs a predetermined gesture operation at a predetermined position while the autonomous mobile device 10 is following the robot. When detecting the gesture operation of the worker A, the control unit 40 registers the motion information of the gesture operation in the "gesture type".

図7に示すように、ジェスチャー情報53には、作業者による前記ジェスチャー操作に関する情報が登録される。具体的には、ジェスチャー情報53には、「ジェスチャー種別」、「動作内容」などの情報が登録される。ジェスチャー情報53の各種情報は、管理者等により予め設定されて記憶部50に記憶される。「ジェスチャー種別」は、前記ジェスチャー操作の認識対象となるジェスチャー操作の種別である。制御部40は、前記ジェスチャー種別に登録されたジェスチャー操作を認識することが可能である。「動作内容」は、制御部40が前記ジェスチャー操作を認識した場合に、自律走行装置10に実行させる動作内容を示す情報である。 As shown in FIG. 7, the gesture information 53 registers information about the gesture operation by the worker. Specifically, information such as “gesture type” and “action content” is registered in the gesture information 53 . Various types of information of the gesture information 53 are set in advance by an administrator or the like and stored in the storage unit 50 . "Gesture type" is the type of gesture operation to be recognized as the gesture operation. The control unit 40 can recognize the gesture operation registered in the gesture type. The “action content” is information indicating the action content to be executed by the autonomous mobile device 10 when the control unit 40 recognizes the gesture operation.

ジェスチャー種別「指差し」には、「監視カメラにより指差し方向をジェスチャー操作時間だけ撮影する動作を登録」の動作内容が関連付けられて登録されている。例えば、制御部40は、ティーチング操作において、カメラ43の撮像画像に基づいて作業者Aの「指差し」のジェスチャー操作を検出すると、監視カメラ44に指差し方向を指差し操作の時間だけ撮影させる動作の情報を、自律走行装置10の位置情報に関連付けて登録する(図19の動作情報54)。 The gesture type "pointing" is registered in association with the operation content of "registering an action of photographing the pointing direction with a monitoring camera for the duration of the gesture operation". For example, when the controller 40 detects the operator A's "pointing" gesture operation based on the captured image of the camera 43 in the teaching operation, the control unit 40 causes the monitoring camera 44 to photograph the pointing direction for the duration of the pointing operation. The motion information is registered in association with the position information of the autonomous mobile device 10 (motion information 54 in FIG. 19).

また、ジェスチャー種別「手を振る」には、「監視カメラにより360度をジェスチャー操作時間だけ撮影する動作を登録」の動作内容が関連付けられて登録されている。例えば、制御部40は、ティーチング操作において、カメラ43の撮像画像に基づいて作業者Aの「手を振る」のジェスチャー操作を検出すると、監視カメラ44に360度の方向を手を振る操作の時間だけ撮影させる動作の情報を、自律走行装置10の位置情報に関連付けて登録する(図19の動作情報54)。 Further, the gesture type "waving hand" is registered in association with the action content of "registration of action of photographing 360 degrees with surveillance camera for gesture operation time". For example, when the control unit 40 detects a gesture operation of “waving hand” by the worker A based on the captured image of the camera 43 in the teaching operation, the control unit 40 detects the operation time of waving the hand in 360 degrees to the monitoring camera 44 . The information of the motion of only shooting is registered in association with the position information of the autonomous mobile device 10 (motion information 54 in FIG. 19).

また、ジェスチャー種別「屈む」には、「特定情報をジェスチャー操作時間だけ表示する動作を登録」の動作内容が関連付けられて登録されている。例えば、制御部40は、ティーチング操作において、カメラ43の撮像画像に基づいて作業者Aの「屈む」のジェスチャー操作を検出すると、表示パネル21に所定の情報を表示させる動作の情報を、自律走行装置10の位置情報に関連付けて登録する(図19の動作情報54)。 Further, the gesture type “bend over” is registered in association with the action content of “registering the action of displaying the specific information for the duration of the gesture operation”. For example, when the controller 40 detects the operator A's "bend over" gesture operation based on the image captured by the camera 43 in the teaching operation, the control unit 40 transmits information on the operation of displaying predetermined information on the display panel 21 to the autonomous traveling robot. It is registered in association with the position information of the device 10 (operation information 54 in FIG. 19).

また、ジェスチャー種別「右手挙手」には、「動作情報の登録モードに移行」の動作内容が関連付けられて登録されている。例えば、制御部40は、ティーチング操作において、カメラ43の撮像画像に基づいて作業者Aの「右手挙手」のジェスチャー操作を検出すると、特定のジェスチャー操作(「指差し」、「手を振る」、「屈む」など)に関連付けられた動作内容を自律走行装置10の位置情報に関連付けて登録する登録モードに移行させる。制御部40は、登録モードに移行した後に前記特定のジェスチャー操作を検出すると、当該ジェスチャー操作に関連付けられた動作内容の情報を、自律走行装置10の位置情報に関連付けて登録する(図19の動作情報54)。 Further, the gesture type "raise right hand" is registered in association with the action content of "transition to action information registration mode". For example, when the control unit 40 detects a gesture operation of “raising right hand” by the worker A based on the captured image of the camera 43 in the teaching operation, the control unit 40 detects a specific gesture operation (“pointing”, “waving”, "Bend down") is shifted to a registration mode in which the operation content associated with the position information of the autonomous mobile device 10 is associated and registered. When the control unit 40 detects the specific gesture operation after shifting to the registration mode, the control unit 40 registers the information on the operation content associated with the gesture operation in association with the position information of the autonomous mobile device 10 (the operation shown in FIG. 19). Information 54).

また、ジェスチャー種別「左手挙手」には、「ティーチング操作を終了」の動作内容が関連付けられて登録されている。例えば、制御部40は、ティーチング操作において、カメラ43の撮像画像に基づいて作業者Aの「左手挙手」のジェスチャー操作を検出すると、ティーチング操作を終了させて、動作内容の登録処理及び位置情報の登録処理を終了する。 Further, the gesture type "raise left hand" is registered in association with the action content of "finish teaching operation". For example, when the control unit 40 detects a gesture operation of “raise left hand” by the worker A based on the captured image of the camera 43 in the teaching operation, the control unit 40 terminates the teaching operation, and performs registration processing of the operation content and location information. End the registration process.

このように、制御部40は、作業者Aのジェスチャー操作を検出すると、ジェスチャー情報53を参照して、検出したジェスチャー操作に関連付けられた動作内容を実行する。 In this way, when detecting the gesture operation of the worker A, the control unit 40 refers to the gesture information 53 and executes the operation content associated with the detected gesture operation.

他の実施形態として、地図情報51、ティーチング情報52、ジェスチャー情報53、動作情報54などの情報の一部又は全部が、自律走行装置10からネットワークを介してアクセス可能なデータサーバなどに記憶されてもよい。 As another embodiment, some or all of the information such as the map information 51, the teaching information 52, the gesture information 53, and the motion information 54 are stored in a data server or the like accessible from the autonomous mobile device 10 via a network. good too.

さらに、記憶部50には、制御部40に後述の走行経路生成処理(図20及び図21参照)を実行させるための走行経路生成プログラムなどの制御プログラムが記憶されている。例えば、前記走行経路生成プログラムは、CD又はDVDなどのコンピュータ読取可能な記録媒体に非一時的に記録されており、自律走行装置10が備えるCDドライブ又はDVDドライブなどの読取装置(不図示)で読み取られて記憶部50に記憶される。 Further, the storage unit 50 stores a control program such as a travel route generation program for causing the control unit 40 to execute a travel route generation process (see FIGS. 20 and 21), which will be described later. For example, the travel route generation program is non-temporarily recorded on a computer-readable recording medium such as a CD or DVD, and read by a reading device (not shown) such as a CD drive or DVD drive provided in the autonomous mobile device 10. It is read and stored in the storage unit 50 .

制御部40は、装置本体11の上部に設けられている(不図示)。図4には、制御部40の構成を示す機能ブロック図を示している。制御部40は、CPU、ROM、及びRAMなどの制御機器を有する。前記CPUは、各種の演算処理を実行するプロセッサである。前記ROMは、前記CPUに各種の演算処理を実行させるためのBIOS及びOSなどの制御プログラムが予め記憶される不揮発性の記憶部である。前記RAMは、各種の情報を記憶する揮発性又は不揮発性の記憶部であり、前記CPUが実行する各種の処理の一時記憶メモリー(作業領域)として使用される。そして、制御部40は、前記ROM又は記憶部50に予め記憶された各種の制御プログラムを前記CPUで実行することにより自律走行装置10を制御する。 The control unit 40 is provided on the upper part of the apparatus main body 11 (not shown). FIG. 4 shows a functional block diagram showing the configuration of the control section 40. As shown in FIG. The control unit 40 has control devices such as a CPU, ROM, and RAM. The CPU is a processor that executes various kinds of arithmetic processing. The ROM is a non-volatile storage unit in which control programs such as BIOS and OS for causing the CPU to execute various arithmetic processes are stored in advance. The RAM is a volatile or nonvolatile storage unit that stores various information, and is used as a temporary storage memory (work area) for various processes executed by the CPU. The control unit 40 controls the autonomous mobile device 10 by causing the CPU to execute various control programs pre-stored in the ROM or storage unit 50 .

具体的に、制御部40は、図4に示すように、取得処理部411、表示処理部412、認識処理部413、登録処理部414、検出処理部415、生成処理部416、報知処理部417、走行処理部418などの各種の処理部を含む。なお、制御部40は、前記CPUで前記走行経路生成プログラムに従った各種の処理を実行することによって前記各種の処理部として機能する。また、一部又は全部の前記処理部が電子回路で構成されていてもよい。なお、前記走行経路生成プログラムは、複数のプロセッサを前記処理部として機能させるためのプログラムであってもよい。 Specifically, as shown in FIG. , a travel processing unit 418 and other various processing units. The control unit 40 functions as the various processing units by executing various types of processing according to the travel route generation program by the CPU. Also, part or all of the processing unit may be configured by an electronic circuit. The travel route generation program may be a program for causing a plurality of processors to function as the processing unit.

取得処理部411は、ティーチング操作中にカメラ43が撮像した撮像画像の画像データを取得する。具体的には、図8に示すように、ティーチング操作において、自律走行装置10が作業者Aを追従して走行している間、カメラ43は所定のフレームレートで前方を撮像し、撮像画像の画像データを制御部40に順次出力する。取得処理部411は、ティーチング操作中、カメラ43から繰り返し画像データを取得する。 The acquisition processing unit 411 acquires the image data of the captured image captured by the camera 43 during the teaching operation. Specifically, as shown in FIG. 8, in the teaching operation, while the autonomous mobile device 10 is following the worker A, the camera 43 captures an image of the front at a predetermined frame rate. The image data are sequentially output to the control unit 40 . The acquisition processing unit 411 repeatedly acquires image data from the camera 43 during the teaching operation.

表示処理部412は、各種情報を表示パネル21に表示させる。具体的には、表示処理部412は、ティーチング操作に関する操作画面(図10~図18参照)を表示パネル21に表示させる。表示処理部412は、各操作画面にアナウンス情報を表示することにより、作業者Aによるティーチング操作を支援する。 The display processing unit 412 causes the display panel 21 to display various information. Specifically, the display processing unit 412 causes the display panel 21 to display an operation screen (see FIGS. 10 to 18) regarding the teaching operation. The display processing unit 412 supports the teaching operation by the operator A by displaying announcement information on each operation screen.

認識処理部413は、取得処理部411が取得する画像データに対応する撮像画像に基づいて作業者を認識する。具体的には、作業者Aは、ティーチング操作を開始する際に、自律走行装置10のカメラ43で自身を撮影する。表示処理部412は、図10に示すように、カメラ43が撮像した撮像画像を表示パネル21に表示させる。なお、表示処理部412は、操作画面に、ティーチング操作の対象エリア(環境地図M1)の情報(環境地図情報)、走行経路ID、走行経路名などを表示させてもよい。 The recognition processing unit 413 recognizes the worker based on the captured image corresponding to the image data acquired by the acquisition processing unit 411 . Specifically, when starting the teaching operation, the operator A photographs himself/herself with the camera 43 of the autonomous mobile device 10 . The display processing unit 412 causes the display panel 21 to display the captured image captured by the camera 43, as shown in FIG. The display processing unit 412 may display information (environmental map information) of the target area (environmental map M1) of the teaching operation, the travel route ID, the travel route name, and the like on the operation screen.

認識処理部413は、前記撮像画像から人物を検出すると、検出した人物画像を表示させて、作業者Aに間違いないかどうかを確認する(図11参照)。作業者Aがカメラ43の前で頷くと、認識処理部413は、検出した人物を、ティーチング操作を行う作業者であると認識する。認識処理部413が作業者を認識すると、制御部40は、ティーチング操作を開始する(図12参照)。表示処理部412は、ティーチング操作が開始されると、図12に示すように、環境地図M1において、ティーチング操作の開始位置P0と、自律走行装置10の現在位置(“★”マーク)と、作業者Aの現在位置(“●”マーク)とを表示させる。 When a person is detected from the captured image, the recognition processing unit 413 displays the detected person image to confirm whether it is the operator A (see FIG. 11). When the worker A nods in front of the camera 43, the recognition processing unit 413 recognizes the detected person as the worker performing the teaching operation. When the recognition processing unit 413 recognizes the operator, the control unit 40 starts teaching operation (see FIG. 12). When the teaching operation is started, the display processing unit 412 displays the starting position P0 of the teaching operation, the current position (“★” mark) of the autonomous mobile device 10, the operation The current position of person A (“●” mark) is displayed.

ティーチング操作が開始されると、制御部40は、認識した作業者Aを追従するように自律走行装置10の走行を制御する。具体的には、制御部40は、カメラ43から取得する撮像画像に含まれる作業者Aの位置に基づいて自律走行装置10の走行速度及び走行方向を制御する。表示処理部412は、自律走行装置10が作業者Aを追従走行している間、自律走行装置10の走行軌跡を操作画面に表示させる(図13参照)。 When the teaching operation is started, the control unit 40 controls traveling of the autonomous mobile device 10 so as to follow the recognized worker A. Specifically, the control unit 40 controls the traveling speed and traveling direction of the autonomous mobile device 10 based on the position of the worker A included in the captured image acquired from the camera 43 . The display processing unit 412 displays the travel locus of the autonomous mobile device 10 on the operation screen while the autonomous mobile device 10 follows the worker A (see FIG. 13).

なお、ティーチング操作が開始された後に、認識処理部413が作業者Aを認識できなくなった場合(見失った場合)には、報知処理部417は、認識不能であることを示すメッセージ(警告情報)を操作画面に表示させる(図14参照)。なお、報知処理部417は、前記メッセージを音声出力してもよいし、所定の警告音を出力してもよい。すなわち、報知処理部417は、自律走行装置10が作業者Aを追従できない状態になった場合に、警告情報を報知する。 When the recognition processing unit 413 cannot recognize the worker A after the teaching operation is started (when the worker A is lost), the notification processing unit 417 outputs a message (warning information) indicating that recognition is impossible. is displayed on the operation screen (see FIG. 14). Note that the notification processing unit 417 may output the message by voice, or may output a predetermined warning sound. That is, the notification processing unit 417 notifies warning information when the autonomous mobile device 10 cannot follow the worker A.

このように、認識処理部413は、カメラ43から取得する撮像画像に基づいて作業者を認識する。他の実施形態として、認識処理部413は、自律走行装置10に搭載されるセンサ(例えばフロントレーザセンサ41、ソナーセンサ42など)の検出結果に基づいて作業者を認識してもよい。前記センサは、本発明の検出部の一例である。 In this way, the recognition processing unit 413 recognizes the worker based on the captured image acquired from the camera 43 . As another embodiment, the recognition processing unit 413 may recognize the worker based on the detection results of sensors mounted on the autonomous mobile device 10 (for example, the front laser sensor 41, the sonar sensor 42, etc.). The sensor is an example of the detection section of the present invention.

登録処理部414は、ティーチング操作中の自律走行装置10の現在位置の位置情報をティーチング情報52(図6参照)に登録する。 The registration processing unit 414 registers the position information of the current position of the autonomous mobile device 10 during the teaching operation in the teaching information 52 (see FIG. 6).

検出処理部415は、前記撮像画像に基づいて、作業者Aの所定のジェスチャー操作(本発明の登録操作)を検出する。具体的には、検出処理部415は、ジェスチャー情報53(図7参照)に登録された複数のジェスチャー操作(ジェスチャー種別)を参照して、前記撮像画像に含まれる作業者Aのジェスチャー操作を特定する。検出処理部415が所定のジェスチャー操作を検出すると、制御部40は、当該ジェスチャー操作に関連付けられた特定の動作(図7の動作内容)を実行する。 The detection processing unit 415 detects a predetermined gesture operation (registration operation of the present invention) of the worker A based on the captured image. Specifically, the detection processing unit 415 refers to a plurality of gesture operations (gesture types) registered in the gesture information 53 (see FIG. 7) to identify the gesture operations of the worker A included in the captured image. do. When the detection processing unit 415 detects a predetermined gesture operation, the control unit 40 executes a specific operation (operation details in FIG. 7) associated with the gesture operation.

ここで、例えば、ティーチング操作中に作業者Aが任意の位置で所定時間立ち止まると、表示処理部412は、図15に示す操作画面を表示させる。具体的には、表示処理部412は、特定動作を登録する登録モードに移行させるジェスチャー操作(例えば「右手挙手」)と、ティーチング操作を終了させるジェスチャー操作(例えば「左手挙手」)とに関するアナウンス情報を表示させる。検出処理部415が、カメラ43の撮像画像から作業者Aの「右手挙手」の特定ジェスチャー操作を検出すると、制御部40は、特定の動作内容を自律走行装置10の位置情報に関連付けて登録する登録モードに移行させる。なお、検出処理部415が「右手挙手」を検出すると、登録処理部414は、「右手挙手」に関する情報をティーチング情報52に登録する(図6の時刻t12)。 Here, for example, when the worker A stops at an arbitrary position for a predetermined time during the teaching operation, the display processing unit 412 displays the operation screen shown in FIG. 15 . Specifically, the display processing unit 412 provides announcement information regarding a gesture operation (for example, “raise right hand”) for shifting to a registration mode for registering a specific action and a gesture operation for ending a teaching operation (for example, “raise left hand”). display. When the detection processing unit 415 detects a specific gesture operation of “raising right hand” by the worker A from the captured image of the camera 43, the control unit 40 associates the specific operation content with the position information of the autonomous mobile device 10 and registers it. Move to registration mode. Note that when the detection processing unit 415 detects "right hand raised", the registration processing unit 414 registers information on "right hand raised" in the teaching information 52 (time t12 in FIG. 6).

前記登録モードに移行すると、さらに、検出処理部415が検出したジェスチャー操作が特定ジェスチャー操作である場合に、登録処理部414は、当該特定ジェスチャー操作に対応する動作内容と自律走行装置10の位置情報とを互いに関連付けた動作情報を登録する。具体的には、登録処理部414は、検出処理部415が検出したジェスチャー操作が第1ジェスチャー操作である場合に、自律走行装置10に第1位置で第1動作を実行させる第1動作情報を登録し、検出処理部415が検出したジェスチャー操作が第2ジェスチャー操作である場合に、自律走行装置10に第2位置で第2動作を実行させる第2動作情報を登録する。 After shifting to the registration mode, if the gesture operation detected by the detection processing unit 415 is a specific gesture operation, the registration processing unit 414 registers the operation content corresponding to the specific gesture operation and the position information of the autonomous mobile device 10. and register the operation information associated with each other. Specifically, when the gesture operation detected by the detection processing unit 415 is the first gesture operation, the registration processing unit 414 stores the first action information that causes the autonomous mobile device 10 to perform the first action at the first position. When the gesture operation detected by the detection processing unit 415 is the second gesture operation, second action information is registered to cause the autonomous mobile device 10 to perform the second action at the second position.

また、登録処理部414は、検出処理部415が検出したジェスチャー操作が特定ジェスチャー操作であって、かつ、表示パネル21に表示された当該特定ジェスチャー操作の情報に対して作業者から登録操作(例えば頷く操作)を受け付けた場合に、前記動作情報を登録する。 Further, the registration processing unit 414 allows the operator to perform a registration operation (for example, Nodding operation) is received, the motion information is registered.

例えば、作業者Aが任意の位置で指差し操作を行うと、表示処理部412は、図16に示す操作画面において、当該ジェスチャー操作を確認する問い合わせ情報を表示させる。作業者Aがカメラ43に向かって頷くと、制御部40は、指差し操作に関連付けられた特定動作を実行する。ここでは、登録処理部414が、「監視カメラにより指差し方向をジェスチャー操作(指差し操作)時間だけ撮影する動作」を自律走行装置10の現在位置[x10,y10]に関連付けて登録する処理を実行する(図6の時刻t13)。また、表示処理部412は、図17に示す操作画面において、登録内容を表示させる。これにより、作業者Aは、意図した特定動作が確実に登録されたことを認識することができる。 For example, when operator A performs a pointing operation at an arbitrary position, the display processing unit 412 displays inquiry information for confirming the gesture operation on the operation screen shown in FIG. 16 . When the worker A nods toward the camera 43, the controller 40 executes a specific action associated with the pointing operation. Here, the registration processing unit 414 performs a process of registering the “movement of photographing the pointing direction with the monitoring camera for the duration of the gesture operation (pointing operation)” in association with the current position [x10, y10] of the autonomous mobile device 10. Execute (time t13 in FIG. 6). Further, the display processing unit 412 displays the registered contents on the operation screen shown in FIG. Thereby, the worker A can recognize that the intended specific action is definitely registered.

例えば、作業者Aが任意の位置で手を振る操作を行うと、表示処理部412は、操作画面において、当該ジェスチャー操作を確認する問い合わせ情報を表示させる。作業者Aがカメラ43に向かって頷くと、制御部40は、手を振る操作に関連付けられた特定動作を実行する。ここでは、登録処理部414が、「監視カメラにより360度をジェスチャー操作(手を振る)時間だけ撮影する動作」を自律走行装置10の現在位置[x20,y20]に関連付けて登録する処理を実行する(図6の時刻t23)。 For example, when worker A waves his or her hand at an arbitrary position, the display processing unit 412 displays inquiry information for confirming the gesture operation on the operation screen. When the worker A nods toward the camera 43, the control unit 40 executes a specific action associated with the hand waving operation. Here, the registration processing unit 414 executes a process of registering "movement of photographing 360 degrees with a surveillance camera for the duration of a gesture operation (waving a hand)" in association with the current position [x20, y20] of the autonomous mobile device 10. (time t23 in FIG. 6).

生成処理部416は、自律走行装置10が作業者Aを追従して走行する走行軌跡の軌跡情報と、登録処理部414により登録される前記動作情報とに基づいて、前記走行経路を生成する。具体的には、生成処理部416は、ティーチング情報52(図6参照)に登録された位置情報に基づいて図18に示す軌跡情報を生成する。前記軌跡情報には、自律走行を開始する位置P0、自律走行する経路R1、自律走行を終了する位置Gなどの情報が含まれる。表示処理部412は、生成した軌跡情報を図18に示す操作画面に表示させて、作業者Aに確認を促す。また、表示処理部412は、図18に示す操作画面に、特定動作の位置P1,P2を表示させてもよい。なお、位置P1は図6の位置情報[x10,y10]に対応し、位置P2は図6の位置情報[x20,y20]に対応する。 The generation processing unit 416 generates the travel route based on the locus information of the travel locus along which the autonomous mobile device 10 travels following the worker A and the motion information registered by the registration processing unit 414 . Specifically, the generation processing unit 416 generates the trajectory information shown in FIG. 18 based on the position information registered in the teaching information 52 (see FIG. 6). The trajectory information includes information such as a position P0 at which autonomous travel is started, a route R1 to be autonomously traveled, a position G at which autonomous travel is terminated, and the like. The display processing unit 412 displays the generated trajectory information on the operation screen shown in FIG. 18 to prompt the operator A to confirm. Further, the display processing unit 412 may display the positions P1 and P2 of the specific action on the operation screen shown in FIG. The position P1 corresponds to the position information [x10, y10] in FIG. 6, and the position P2 corresponds to the position information [x20, y20] in FIG.

また、登録処理部414は、図6に示すティーチング情報52に基づいて動作情報54を登録する。図19には、動作情報54の一例を示している。動作情報54には、自律走行装置10を自律走行させる際の動作情報を示す情報が登録される。例えば、位置情報[x1,y1]には、自律走行装置10が自律走行を開始する際の動作情報が関連付けられて登録される。また、位置情報[x10,y10]には、作業者Aが特定のジェスチャー操作(指差し)により登録した特定動作の動作情報が関連付けられて登録される。また、位置情報[x20,y20]には、作業者Aが特定のジェスチャー操作(手を振る)により登録した特定動作の動作情報が関連付けられて登録される。また、位置情報[x50,y50]には、自律走行装置10が自律走行を終了する際の動作情報が関連付けられて登録される。生成処理部416は、前記走行軌跡及び動作情報54を含む走行経路を生成する。生成処理部416は、生成した走行経路の情報を、走行経路ID及び走行経路名に関連付けて記憶部50に記憶する。 Further, the registration processing unit 414 registers motion information 54 based on the teaching information 52 shown in FIG. FIG. 19 shows an example of the motion information 54. As shown in FIG. Information indicating operation information when the autonomous mobile device 10 is caused to travel autonomously is registered in the operation information 54 . For example, position information [x1, y1] is registered in association with motion information when the autonomous mobile device 10 starts autonomous travel. Further, the position information [x10, y10] is registered in association with motion information of a specific motion registered by the worker A by performing a specific gesture operation (pointing). Further, the position information [x20, y20] is registered in association with motion information of a specific motion registered by the worker A by performing a specific gesture operation (waving hand). Further, the position information [x50, y50] is registered in association with operation information when the autonomous mobile device 10 ends autonomous traveling. The generation processing unit 416 generates a travel route including the travel locus and the motion information 54 . The generation processing unit 416 stores the generated travel route information in the storage unit 50 in association with the travel route ID and the travel route name.

例えば、記憶部50には、施設のフロアF1の環境地図M1に対応する走行経路(走行経路ID「0001」)の情報と、施設のフロアF2の環境地図M2に対応する走行経路(走行経路ID「0002」)の情報と、施設のフロアF3の環境地図M3に対応する走行経路(走行経路ID「0003」)の情報とが記憶される。 For example, the storage unit 50 stores information of a travel route (travel route ID “0001”) corresponding to the environment map M1 on the facility floor F1 and a travel route (travel route ID “0001”) corresponding to the environment map M2 on the facility floor F2. "0002") and information on the travel route (travel route ID "0003") corresponding to the environment map M3 of the facility floor F3.

なお、生成処理部416は、自律走行装置10が作業者Aを追従して走行している間にカメラ43が撮像した撮像画像に基づいて地図(環境地図)を生成し、前記地図上に前記走行経路を生成してもよい。 Note that the generation processing unit 416 generates a map (environmental map) based on the image captured by the camera 43 while the autonomous mobile device 10 is traveling following the worker A, and displays the map on the map. A driving route may be generated.

ここで、自律走行装置10が作業者Aを追従して走行した走行軌跡は、作業者Aの移動軌跡に対応するため、通路に対して斜めになったり、ジグザクになったりする可能性がある。そこで、生成処理部416は、前記走行軌跡を自律走行装置10の走行動作に応じた経路に補正して前記走行経路を生成してもよい。例えば、生成処理部416は、直線状の走行経路に補正したり、右左折経路を90度旋回するように走行経路を補正したりする。また、生成処理部416は、作業者Aの移動軌跡を、警備対象エリア内の障害物などを回避可能な位置に補正して走行経路を生成してもよい。 Here, since the travel trajectory of the autonomous mobile device 10 following the worker A corresponds to the movement trajectory of the worker A, there is a possibility that it may become oblique or zigzag with respect to the passage. . Therefore, the generation processing unit 416 may generate the running route by correcting the running locus to a route corresponding to the running motion of the autonomous mobile device 10 . For example, the generation processing unit 416 corrects the traveling route to a straight traveling route, or corrects the traveling route so that a left-right turning route turns 90 degrees. In addition, the generation processing unit 416 may generate a travel route by correcting the movement locus of the worker A to a position that allows avoidance of obstacles in the security target area.

走行処理部418は、生成処理部416により生成された走行経路に従って自律走行を実行する。例えば、施設の管理者は、操作部20(図2参照)を操作して、自律走行させる走行経路(走行経路ID、走行経路名など)を選択する。走行経路が選択されると、走行処理部418は、記憶部50から当該走行経路の情報(図18及び図19参照)を読み出して、図18に示す経路R1に従って自律走行しながら、図19に示す動作情報54に応じた動作を実行する。これにより、自律走行装置10は、例えば位置P0で自律走行を開始し、位置P1[x10,y10]に到達すると一旦停止して監視カメラ44に左側90度の方向を30秒間撮影させる。その後、自律走行装置10は、経路R1に従って走行し、位置P2[x20,y20]に到達すると一旦停止して監視カメラ44を360度回転させながら90秒間撮影させる。その後、自律走行装置10は、経路R1に従って走行し、位置G[x50,y50]に到達すると自律走行を終了する。 The travel processing unit 418 executes autonomous travel according to the travel route generated by the generation processing unit 416 . For example, the facility manager operates the operation unit 20 (see FIG. 2) to select a travel route (travel route ID, travel route name, etc.) for autonomous travel. When the travel route is selected, the travel processing unit 418 reads the information of the travel route (see FIGS. 18 and 19) from the storage unit 50, autonomously travels along the route R1 shown in FIG. An operation corresponding to the indicated operation information 54 is executed. As a result, the autonomous mobile device 10 starts autonomous traveling at, for example, the position P0, and when it reaches the position P1[x10, y10], it temporarily stops and causes the surveillance camera 44 to photograph the direction of 90 degrees to the left for 30 seconds. After that, the autonomous mobile device 10 travels along the route R1, and when it reaches the position P2[x20, y20], it temporarily stops and rotates the surveillance camera 44 360 degrees to capture images for 90 seconds. After that, the autonomous mobile device 10 travels along the route R1 and ends the autonomous travel when it reaches the position G[x50, y50].

このように、本実施形態に係る自律走行装置10が警備ロボットである場合、自律走行装置10は、作業者Aによるティーチング操作の登録内容に応じて、前記走行経路に従って自律走行するとともに、位置P1,P2において前記特定動作を実行することにより、警備対象エリアを警備する。 As described above, when the autonomous mobile device 10 according to the present embodiment is a security robot, the autonomous mobile device 10 autonomously travels along the travel route in accordance with the registered contents of the teaching operation by the worker A, and moves to the position P1. , P2 to guard the guarded area.

[走行経路生成処理]
以下、図20及び図21を参照しつつ、自律走行装置10において実行される走行経路生成処理について説明する。具体的に、本実施形態では、自律走行装置10の制御部40によって前記走行経路生成処理が実行される。
[Driving route generation processing]
Hereinafter, the travel route generation processing executed in the autonomous mobile device 10 will be described with reference to FIGS. 20 and 21. FIG. Specifically, in the present embodiment, the control unit 40 of the autonomous mobile device 10 executes the travel route generation process.

なお、本発明は、前記走行経路生成処理に含まれる一又は複数のステップを実行する走行経路生成方法の発明として捉えることができる。また、ここで説明する前記走行経路生成処理に含まれる一又は複数のステップは適宜省略されてもよい。なお、前記走行経路生成処理における各ステップは同様の作用効果を生じる範囲で実行順序が異なってもよい。さらに、ここでは制御部40が前記走行経路生成処理における各ステップを実行する場合を例に挙げて説明するが、一又は複数のプロセッサが当該走行経路生成処理における各ステップを分散して実行する走行経路生成方法も他の実施形態として考えられる。 The present invention can be regarded as an invention of a travel route generation method that executes one or more steps included in the travel route generation process. Also, one or more steps included in the travel route generation process described here may be omitted as appropriate. The execution order of each step in the travel route generation process may differ within the range of producing the same effect. Furthermore, here, a case where the control unit 40 executes each step in the travel route generation processing will be described as an example, but one or more processors perform the steps in the travel route generation processing in a distributed manner. A path generation method is also contemplated as another embodiment.

制御部40は、作業者からティーチング操作を開始する指示を受け付けると、前記走行経路生成処理を実行する。 Upon receiving an instruction to start the teaching operation from the operator, the control unit 40 executes the travel route generation process.

先ず、ステップS11において、制御部40は、カメラ43から撮像画像を取得する。例えば、作業者Aが自律走行装置10においてティーチング操作を開始する操作を行うと、制御部40は、カメラ43に撮影指示を出力して、カメラ43が撮像した撮像画像を取得する。 First, in step S<b>11 , the control unit 40 acquires a captured image from the camera 43 . For example, when the operator A performs an operation to start a teaching operation on the autonomous mobile device 10 , the control unit 40 outputs a photographing instruction to the camera 43 and acquires a captured image captured by the camera 43 .

制御部40は、カメラ43から前記撮像画像を取得すると(S11:Yes)、ステップS12において、前記撮像画像から人物を検出する。制御部40は、人物を検出すると(S12:Yes)、ステップS13において、検出した人物の画像を表示パネル21に表示させる(図10参照)。 When the control unit 40 acquires the captured image from the camera 43 (S11: Yes), in step S12, a person is detected from the captured image. When a person is detected (S12: Yes), the control unit 40 causes the display panel 21 to display an image of the detected person in step S13 (see FIG. 10).

次にステップS14において、制御部40は、表示パネル21に表示した人物が作業者であるか否かを問い合わせる問い合わせ画面を表示させる(図11参照)。作業者がカメラ43の前で頷くと、制御部40は、作業者の確認を取得し、検出した人物を、ティーチング操作を行う作業者であると認識する(S14:Yes)。制御部40は、ティーチング操作を行う作業者を認識するまでステップS1~S4の処理を繰り返す。 Next, in step S14, the control unit 40 displays an inquiry screen asking whether the person displayed on the display panel 21 is a worker (see FIG. 11). When the worker nods in front of the camera 43, the control unit 40 obtains confirmation of the worker and recognizes the detected person as the worker performing the teaching operation (S14: Yes). The control unit 40 repeats the processing of steps S1 to S4 until it recognizes the operator performing the teaching operation.

制御部40は、ティーチング操作を行う作業者を認識(決定)すると(S14:Yes)、ステップS15において、ティーチング処理を実行する(図12参照)。制御部40は、ティーチング処理を開始すると、ステップS16において、カメラ43から取得する撮像画像から作業者を検出する(図13参照)。なお、制御部40は、カメラ43から取得する撮像画像から作業者を検出できない場合(S16:No)、ステップS161において、作業者を認識できないことを示す警告情報を操作画面に表示させる(図14参照)。 When the controller 40 recognizes (determines) the operator who performs the teaching operation (S14: Yes), the controller 40 executes the teaching process in step S15 (see FIG. 12). After starting the teaching process, the control unit 40 detects the operator from the captured image acquired from the camera 43 in step S16 (see FIG. 13). If the operator cannot be detected from the captured image acquired from the camera 43 (S16: No), the controller 40 displays warning information indicating that the operator cannot be recognized on the operation screen in step S161 (see FIG. 14). reference).

制御部40は、カメラ43から取得する撮像画像から作業者を検出すると(S16:Yes)、自律走行装置10が所定時間停止しない間(S17:No)、自律走行装置10の位置情報を取得する(S171)。制御部40は、取得した位置情報をティーチング情報52(図6参照)に登録する。このように、制御部40は、自律走行装置10が作業者を認識しながら追従して走行している間、自律走行装置10の移動軌跡の位置情報を蓄積していく(図6参照)。 When the control unit 40 detects the operator from the captured image acquired from the camera 43 (S16: Yes), the control unit 40 acquires the position information of the autonomous mobile device 10 while the autonomous mobile device 10 does not stop for a predetermined time (S17: No). (S171). The control unit 40 registers the acquired position information in the teaching information 52 (see FIG. 6). In this way, the control unit 40 accumulates the position information of the movement trajectory of the autonomous mobile device 10 while the autonomous mobile device 10 recognizes and follows the worker (see FIG. 6).

ここで、作業者が任意の位置で立ち止まり、自律走行装置10が所定時間停止すると(S17:Yes)、制御部40は、ステップS18において、図15に示す操作画面において、特定動作を登録する登録モードに移行させるジェスチャー操作(例えば「右手挙手」)と、ティーチング操作を終了させるジェスチャー操作(例えば「左手挙手」)とに関するアナウンス情報を表示させる。 Here, when the operator stops at an arbitrary position and the autonomous mobile device 10 stops for a predetermined period of time (S17: Yes), the control unit 40 registers a specific action on the operation screen shown in FIG. 15 in step S18. Announcement information regarding a gesture operation (for example, "raise right hand") to shift to the mode and a gesture operation (for example, "raise left hand") for ending the teaching operation is displayed.

次に、ステップS19において、制御部40は、カメラ43から取得した撮像画像から作業者による「右手挙手」のジェスチャー操作を検出したか否かを判定する。制御部40が「右手挙手」のジェスチャー操作を検出した場合(S19:Yes)、処理はステップS20に移行する。一方、制御部40が「右手挙手」のジェスチャー操作を検出しない場合(S19:No)、処理はステップS191に移行する。 Next, in step S<b>19 , the control unit 40 determines whether or not the operator's “raise right hand” gesture operation is detected from the captured image acquired from the camera 43 . When the control unit 40 detects the gesture operation of "raising right hand" (S19: Yes), the process proceeds to step S20. On the other hand, when the control unit 40 does not detect the gesture operation of "raising right hand" (S19: No), the process proceeds to step S191.

ステップS20では、制御部40は、自律走行装置10に実行させる特定動作を登録する登録モードに移行させる。 In step S<b>20 , the control unit 40 shifts to a registration mode for registering specific actions to be executed by the autonomous mobile device 10 .

次にステップS21において、制御部40は、カメラ43から取得した撮像画像から検出したジェスチャー操作が特定ジェスチャー操作であるか否かを判定する。ジェスチャー操作が特定ジェスチャー操作である場合(S21:Yes)、処理はステップS22に移行する。ジェスチャー操作が特定ジェスチャー操作でない場合(S21:No)、処理はステップS19に戻る。なお、ここでの前記特定ジェスチャー操作は、「指差し」、「手を振る」、「屈む」など、自律走行装置10が自律走行する際に実行する特定動作を登録するためのジェスチャー操作である。 Next, in step S21, the control unit 40 determines whether or not the gesture operation detected from the captured image acquired from the camera 43 is a specific gesture operation. If the gesture operation is the specific gesture operation (S21: Yes), the process proceeds to step S22. If the gesture operation is not the specific gesture operation (S21: No), the process returns to step S19. Note that the specific gesture operation here is a gesture operation for registering a specific action, such as "pointing", "waving", or "bending down", to be performed when the autonomous mobile device 10 autonomously travels. .

ステップS22では、制御部40は、図16に示す操作画面において、検出した前記特定ジェスチャー操作を確認する問い合わせ情報を表示させる。 In step S22, the control unit 40 displays inquiry information for confirming the detected specific gesture operation on the operation screen shown in FIG.

次にステップS23において、制御部40は、作業者から前記特定ジェスチャー操作に対応する動作情報の登録操作を受け付けたか否かを判定する。例えば、作業者がカメラ43に向かって頷くと(図16参照)、制御部40は、前記特定ジェスチャー操作に対応する動作情報の登録操作を受け付ける。 Next, in step S23, the control unit 40 determines whether or not an operation for registering motion information corresponding to the specific gesture operation has been received from the operator. For example, when the worker nods toward the camera 43 (see FIG. 16), the control unit 40 accepts an operation for registering motion information corresponding to the specific gesture operation.

次にステップS24において、制御部40は、前記特定ジェスチャー操作に対応する動作情報を登録する。例えば、自律走行装置10の現在位置[x10,y10]における前記特定ジェスチャー操作が「指差し」である場合、制御部40は、「監視カメラにより指差し方向を指差し操作時間だけ撮影する動作」を位置[x10,y10]に関連付けて登録する(図6の時刻t13)。また例えば、自律走行装置10の現在位置[x20,y20]における前記特定ジェスチャー操作が「手を振る」である場合、制御部40は、「監視カメラにより360度を手を振る時間だけ撮影する動作」を位置[x20,y20]に関連付けて登録する(図6の時刻t23)。制御部40は、前記特定動作に関する動作情報を動作情報54に登録する(図19参照)。また、制御部40は、図17に示す操作画面において、登録内容を表示させる。制御部40が動作情報を登録すると、処理はステップS15に戻る。ステップS15に戻ると、制御部40は、自律走行装置10を、作業者を追従して走行させる。 Next, in step S24, the control unit 40 registers motion information corresponding to the specific gesture operation. For example, when the specific gesture operation at the current position [x10, y10] of the autonomous mobile device 10 is "pointing", the control unit 40 performs "an operation of photographing the pointing direction by the monitoring camera for the pointing operation time". is associated with the position [x10, y10] (time t13 in FIG. 6). Further, for example, when the specific gesture operation at the current position [x20, y20] of the autonomous mobile device 10 is "waving", the control unit 40 performs "moving 360 degrees with the monitoring camera for the duration of the hand waving". ” is associated with the position [x20, y20] (time t23 in FIG. 6). The control unit 40 registers motion information about the specific motion in the motion information 54 (see FIG. 19). Further, the control unit 40 displays the registered contents on the operation screen shown in FIG. 17 . After the control unit 40 registers the motion information, the process returns to step S15. After returning to step S15, the control unit 40 causes the autonomous mobile device 10 to follow the operator.

ステップS15に戻り、自律走行装置10が作業者を追従して走行し、位置[x20,y20]において前記特定ジェスチャー操作「手を振る」を検出すると、制御部40は、「監視カメラにより360度を手を振る時間だけ撮影する動作」を位置[x20,y20]に関連付けて登録する(図6の時刻t23)。制御部40は、前記特定動作に関する動作情報を動作情報54に登録する(図19参照)。 Returning to step S15, when the autonomous mobile device 10 travels following the worker and detects the specific gesture operation "waving hand" at the position [x20, y20], the control unit 40 performs "360 degree is registered in association with the position [x20, y20] (time t23 in FIG. 6). The control unit 40 registers motion information about the specific motion in the motion information 54 (see FIG. 19).

ここで、ステップS191において、制御部40が作業者による「左手挙手」のジェスチャー操作を検出すると(S191:Yes)、制御部40はティーチング処理を終了する(S192)。その後、制御部40は、自律走行装置10が作業者を追従して走行する走行軌跡の軌跡情報(図18参照)と、登録した動作情報54(図19参照)とに基づいて、走行経路を生成する。制御部40は、生成した走行経路の情報を記憶部50に記憶する。 Here, in step S191, when the control unit 40 detects the operator's "raise left hand" gesture operation (S191: Yes), the control unit 40 ends the teaching process (S192). After that, the control unit 40 determines the travel route based on the trajectory information (see FIG. 18) of the travel trajectory along which the autonomous mobile device 10 travels following the worker and the registered motion information 54 (see FIG. 19). Generate. The control unit 40 stores the generated travel route information in the storage unit 50 .

以上のようにして、制御部40は、自律走行装置10の走行経路を生成する。作業者は、自律走行装置10を自律走行させる場合に、記憶部50に登録された一又は複数の走行経路(経路パターン)から所望の走行経路を選択する。制御部40は、作業者が選択した前記走行経路に従って、自律走行装置10を自律走行させる。 As described above, the control unit 40 generates the travel route of the autonomous mobile device 10 . The operator selects a desired travel route from one or a plurality of travel routes (route patterns) registered in the storage unit 50 when causing the autonomous mobile device 10 to travel autonomously. The control unit 40 causes the autonomous mobile device 10 to autonomously travel according to the travel route selected by the operator.

以上説明したように、本実施形態に係る自律走行装置10は、自律走行装置10に搭載される検出部(例えばカメラ43)の検出情報(例えば撮像画像)に基づいて作業者を認識する。また、自律走行装置10は、認識した作業者を追従して走行する。また、自律走行装置10は、前記検出情報に基づいて、作業者の所定の登録操作(例えばジェスチャー操作)を検出し、検出した前記登録操作が予め設定された特定登録操作である場合に、当該特定登録操作に対応する特定動作と自律走行装置10の位置情報とを互いに関連付けた動作情報を登録する。また、自律走行装置10は、作業者を追従して走行する走行軌跡の軌跡情報と、登録した前記動作情報とに基づいて、自律走行する走行経路を生成する。 As described above, the autonomous mobile device 10 according to the present embodiment recognizes the worker based on the detection information (eg, captured image) of the detection unit (eg, camera 43) mounted on the autonomous mobile device 10 . In addition, the autonomous mobile device 10 travels following the recognized worker. Further, the autonomous mobile device 10 detects a predetermined registration operation (for example, a gesture operation) of the worker based on the detection information, and when the detected registration operation is a preset specific registration operation, the Motion information in which the specific motion corresponding to the specific registration operation and the position information of the autonomous mobile device 10 are associated with each other is registered. In addition, the autonomous mobile device 10 generates a travel route for autonomous travel based on trajectory information of a travel trajectory that follows the worker and the registered motion information.

この構成によれば、作業者は、ティーチング操作において、自律走行装置10に自律走行させたい経路を移動(歩行)することにより走行経路を登録することができる。また、走行経路の所定の位置において、自律走行装置10に特定の動作を実行させたい場合に、作業者は、ティーチング操作において、所定のジェスチャー操作を行うことにより、当該特定の動作を登録することができる。このように、作業者は操作端末などを用いて走行経路を設定したり登録したりする必要がないため、容易にティーチング操作を行うことができる。このため、ティーチング操作に不慣れな作業者であっても、ティーチング操作を行うことができる。また、ティーチング操作の作業効率を向上させることができる。 According to this configuration, in the teaching operation, the worker can register the travel route by moving (walking) the route on which the autonomous mobile device 10 is desired to travel autonomously. Further, when the autonomous mobile device 10 wants to perform a specific action at a predetermined position on the travel route, the worker can register the specific action by performing a predetermined gesture operation in the teaching operation. can be done. In this way, the operator does not need to set or register the travel route using an operation terminal or the like, so that the teaching operation can be easily performed. Therefore, even an operator unfamiliar with the teaching operation can perform the teaching operation. Also, the working efficiency of the teaching operation can be improved.

なお、前記ティーチング操作において前記特定動作を登録する方法は、作業者の体を使ったジェスチャー操作による方法に限定されない。例えば、作業者の音声により前記特定動作を登録してもよい。例えば、作業者が位置[x10,y10]において、「監視カメラにより左側90度の方向を30秒間撮影」の音声を発話した場合に、制御部40は、当該音声を取得してその内容を特定動作として位置[x10,y10]に関連付けて登録する。 Note that the method of registering the specific action in the teaching operation is not limited to a method of gesture operation using the operator's body. For example, the specific action may be registered by the voice of the operator. For example, when the worker utters a voice saying "take a picture of 90 degrees to the left for 30 seconds with a surveillance camera" at the position [x10, y10], the control unit 40 acquires the voice and identifies the content. The motion is registered in association with the position [x10, y10].

上述の実施形態では、自律走行装置10が警備ロボットである場合を例に挙げたが、本発明の自律走行装置は、例えば清掃ロボットであってもよい。自律走行装置が清掃ロボットの場合、自律走行装置は、生成された走行経路に従って自律走行しながら清掃作業を行う。また、自律走行装置は、位置P1,P2において特定動作を実行する。ここでは、前記特定動作として、例えば位置P1において清掃作業を重点的に行う動作、位置P2において汚れを落とすために薬剤を散布する動作などが登録される。 In the above-described embodiment, the case where the autonomous mobile device 10 is a security robot was exemplified, but the autonomous mobile device of the present invention may be, for example, a cleaning robot. When the autonomous mobile device is a cleaning robot, the autonomous mobile device performs cleaning work while autonomously traveling along the generated travel route. Also, the autonomous mobile device executes specific actions at the positions P1 and P2. Here, as the specific action, for example, an action of focusing on cleaning work at the position P1, an action of spraying chemicals to remove dirt at the position P2, and the like are registered.

また他の実施形態として、本発明の自律走行装置は、例えば案内ロボットであってもよい。自律走行装置が案内ロボットの場合、自律走行装置は、生成された走行経路に従って自律走行するとともに、位置P1,P2において特定動作を実行する。ここでは、前記特定動作として、例えば位置に応じた特定の広告を表示する動作、広告情報を音声でアナウンスする動作などが登録される。 As another embodiment, the autonomous mobile device of the present invention may be, for example, a guide robot. When the autonomous mobile device is a guide robot, the autonomous mobile device autonomously travels along the generated travel route and performs specific actions at positions P1 and P2. Here, as the specific action, for example, an action of displaying a specific advertisement according to the position, an action of announcing the advertisement information by voice, etc. are registered.

上述した実施形態では、自律走行装置10単体が本発明に係る自律走行システムに相当するが、本発明に係る自律走行システムは、自律走行装置10及びサーバ(情報処理装置)のうち一又は複数の構成要素を含むものであってもよい。例えば、自律走行装置10及びサーバのうち複数の構成要素が協働して前記走行経路生成処理を分担して実行する場合には、その処理を実行する複数の構成要素を含むシステムを本発明に係る自律走行システムとして捉えることが可能である。例えば、前記サーバ単体が本発明に係る自律走行システムを構成してもよい。具体的には、前記サーバが、図4に示す制御部40の各処理部(取得処理部411、表示処理部412、認識処理部413、登録処理部414、検出処理部415、生成処理部416、報知処理部417、走行処理部418)を備え、自律走行装置10を制御してもよい。また、前記サーバが、地図情報51、ティーチング情報52、ジェスチャー情報53、及び動作情報54を記憶してもよい。前記サーバは、物理サーバで構成されてもよいし、仮想サーバ(クラウドサーバ)で構成されてもよい。 In the above-described embodiment, the autonomous mobile device 10 alone corresponds to the autonomous mobile system according to the present invention. It may contain components. For example, when a plurality of components of the autonomous mobile device 10 and the server cooperate to share and execute the travel route generation processing, the present invention includes a system including a plurality of components that perform the processing. It can be regarded as such an autonomous driving system. For example, the server alone may configure the autonomous driving system according to the present invention. Specifically, the server includes each processing unit (acquisition processing unit 411, display processing unit 412, recognition processing unit 413, registration processing unit 414, detection processing unit 415, generation processing unit 416 , a notification processing unit 417, and a traveling processing unit 418) to control the autonomous mobile device 10. Also, the server may store map information 51 , teaching information 52 , gesture information 53 , and motion information 54 . The server may be configured by a physical server, or may be configured by a virtual server (cloud server).

10 :自律走行装置
21 :表示パネル
40 :制御部
51 :地図情報
52 :ティーチング情報
53 :ジェスチャー情報
54 :動作情報
411 :取得処理部
412 :表示処理部
413 :認識処理部
414 :登録処理部
415 :検出処理部
416 :生成処理部
417 :報知処理部
418 :走行処理部
10 : Autonomous mobile device 21 : Display panel 40 : Control unit 51 : Map information 52 : Teaching information 53 : Gesture information 54 : Motion information 411 : Acquisition processing unit 412 : Display processing unit 413 : Recognition processing unit 414 : Registration processing unit 415 : Detection processing unit 416 : Generation processing unit 417 : Notification processing unit 418 : Travel processing unit

Claims (11)

走行経路に基づいて自律走行装置を走行させる自律走行システムであって、
前記自律走行装置に搭載される検出部の検出情報に基づいて作業者を認識する認識処理部と、
前記自律走行装置を、前記作業者を追従して走行させる走行処理部と、
前記検出情報に基づいて、前記作業者の所定の登録操作を検出する検出処理部と、
前記検出処理部により検出される前記登録操作が予め設定された特定登録操作である場合に、当該特定登録操作に対応する特定動作と前記自律走行装置の位置情報とを互いに関連付けた動作情報を登録する登録処理部と、
前記自律走行装置が前記作業者を追従して走行する走行軌跡の軌跡情報と、前記登録処理部により登録される前記動作情報とに基づいて、前記走行経路を生成する生成処理部と、
を備える自律走行システム。
An autonomous traveling system that causes an autonomous traveling device to travel based on a travel route,
a recognition processing unit that recognizes a worker based on detection information from a detection unit mounted on the autonomous mobile device;
a travel processing unit that causes the autonomous mobile device to travel while following the worker;
a detection processing unit that detects a predetermined registration operation of the worker based on the detection information;
When the registration operation detected by the detection processing unit is a preset specific registration operation, registration of operation information in which a specific operation corresponding to the specific registration operation and position information of the autonomous mobile device are associated with each other. a registration processing unit that
a generation processing unit that generates the travel route based on trajectory information of the travel trajectory along which the autonomous mobile device travels following the worker and the motion information registered by the registration processing unit;
autonomous driving system.
前記検出部はカメラであって、
前記認識処理部は、前記カメラの撮像画像に基づいて前記作業者を認識し、
前記検出処理部は、前記撮像画像に基づいて、前記作業者の所定の登録操作を検出する、
請求項1に記載の自律走行システム。
The detection unit is a camera,
The recognition processing unit recognizes the worker based on an image captured by the camera,
The detection processing unit detects a predetermined registration operation of the worker based on the captured image.
The autonomous driving system according to claim 1.
前記検出処理部は、前記作業者の所定のジェスチャー操作を検出し、
前記登録処理部は、前記検出処理部により検出される前記ジェスチャー操作が予め設定された特定ジェスチャー操作である場合に、当該ジェスチャー操作に対応する前記特定動作と前記自律走行装置の位置情報とを互いに関連付けた前記動作情報を登録する、
請求項1又は2に記載の自律走行システム。
The detection processing unit detects a predetermined gesture operation of the worker,
When the gesture operation detected by the detection processing unit is a preset specific gesture operation, the registration processing unit mutually registers the specific action corresponding to the gesture operation and the position information of the autonomous mobile device. registering the associated operation information;
The autonomous driving system according to claim 1 or 2.
前記登録処理部は、前記検出処理部により検出される前記ジェスチャー操作が第1ジェスチャー操作である場合に、前記自律走行装置に第1位置で第1動作を実行させる第1動作情報を登録し、前記検出処理部により検出される前記ジェスチャー操作が第2ジェスチャー操作である場合に、前記自律走行装置に第2位置で第2動作を実行させる第2動作情報を登録する、
請求項3に記載の自律走行システム。
The registration processing unit registers first action information for causing the autonomous mobile device to perform a first action at a first position when the gesture operation detected by the detection processing unit is a first gesture operation, registering second motion information for causing the autonomous mobile device to perform a second motion at a second position when the gesture motion detected by the detection processing unit is a second gesture motion;
The autonomous driving system according to claim 3.
前記自律走行装置に搭載される表示部に前記検出情報を表示させる表示処理部をさらに備える、
請求項1から3のいずれかに記載の自律走行システム。
Further comprising a display processing unit that displays the detection information on a display unit mounted on the autonomous mobile device,
The autonomous driving system according to any one of claims 1 to 3.
前記登録処理部は、前記検出処理部により検出される前記登録操作が前記特定登録操作であって、かつ、前記表示部に表示される前記検出情報に対して前記作業者から登録操作を受け付けた場合に、前記動作情報を登録する、
請求項5に記載の自律走行システム。
The registration processing unit receives a registration operation from the worker for the detected information displayed on the display unit, and the registration operation detected by the detection processing unit is the specific registration operation. registering the operation information when
The autonomous driving system according to claim 5.
前記生成処理部は、前記自律走行装置が前記作業者を追従して走行している間に前記検出部が検出した前記検出情報に基づいて地図を生成し、前記地図上に前記走行経路を生成する、
請求項1から6のいずれかに記載の自律走行システム。
The generation processing unit generates a map based on the detection information detected by the detection unit while the autonomous mobile device is following the worker and generates the travel route on the map. do,
The autonomous driving system according to any one of claims 1 to 6.
前記生成処理部は、前記走行軌跡を前記自律走行装置の走行動作に応じた経路に補正して前記走行経路を生成する、
請求項1から7のいずれかに記載の自律走行システム。
The generation processing unit generates the driving route by correcting the driving locus to a route according to the driving operation of the autonomous mobile device.
The autonomous driving system according to any one of claims 1 to 7.
前記自律走行装置が前記作業者を追従できない状態になった場合に、警告情報を報知する報知処理部をさらに備える、
請求項1から8のいずれかに記載の自律走行システム。
Further comprising a notification processing unit that notifies warning information when the autonomous mobile device cannot follow the worker,
The autonomous driving system according to any one of claims 1 to 8.
走行経路に基づいて自律走行装置を走行させる自律走行方法であって、
一又は複数のプロセッサが、
前記自律走行装置に搭載される検出部の検出情報に基づいて作業者を認識する認識ステップと、
前記自律走行装置を、前記作業者を追従して走行させる走行ステップと、
前記検出情報に基づいて、前記作業者の所定の登録操作を検出する検出ステップと、
前記検出ステップにおいて検出される前記登録操作が予め設定された特定登録操作である場合に、当該特定登録操作に対応する特定動作と前記自律走行装置の位置情報とを互いに関連付けた動作情報を登録する登録ステップと、
前記自律走行装置が前記作業者を追従して走行する走行軌跡の軌跡情報と、前記登録ステップにおいて登録される前記動作情報とに基づいて、前記走行経路を生成する生成ステップと、
を実行する自律走行方法。
An autonomous traveling method for traveling an autonomous mobile device based on a traveling route,
one or more processors
a recognition step of recognizing a worker based on detection information from a detection unit mounted on the autonomous mobile device;
a traveling step of causing the autonomous mobile device to travel while following the worker;
a detection step of detecting a predetermined registration operation of the worker based on the detection information;
When the registration operation detected in the detection step is a preset specific registration operation, registering operation information in which a specific operation corresponding to the specific registration operation and position information of the autonomous mobile device are associated with each other. a registration step;
a generation step of generating the travel route based on trajectory information of the travel trajectory along which the autonomous mobile device travels following the worker and the motion information registered in the registration step;
Autonomous driving method to perform.
走行経路に基づいて自律走行装置を走行させる自律走行プログラムであって、
前記自律走行装置に搭載される検出部の検出情報に基づいて作業者を認識する認識ステップと、
前記自律走行装置を、前記作業者を追従して走行させる走行ステップと、
前記検出情報に基づいて、前記作業者の所定の登録操作を検出する検出ステップと、
前記検出ステップにおいて検出される前記登録操作が予め設定された特定登録操作である場合に、当該特定登録操作に対応する特定動作と前記自律走行装置の位置情報とを互いに関連付けた動作情報を登録する登録ステップと、
前記自律走行装置が前記作業者を追従して走行する走行軌跡の軌跡情報と、前記登録ステップにおいて登録される前記動作情報とに基づいて、前記走行経路を生成する生成ステップと、
を一又は複数のプロセッサに実行させるための自律走行プログラム。
An autonomous traveling program for causing an autonomous mobile device to travel based on a travel route,
a recognition step of recognizing a worker based on detection information from a detection unit mounted on the autonomous mobile device;
a traveling step of causing the autonomous mobile device to travel while following the worker;
a detection step of detecting a predetermined registration operation of the worker based on the detection information;
When the registration operation detected in the detection step is a preset specific registration operation, registering operation information in which a specific operation corresponding to the specific registration operation and position information of the autonomous mobile device are associated with each other. a registration step;
a generation step of generating the travel route based on trajectory information of the travel trajectory along which the autonomous mobile device travels following the worker and the motion information registered in the registration step;
is executed by one or more processors.
JP2021093667A 2021-06-03 2021-06-03 Autonomous traveling system, autonomous traveling method, and autonomous traveling program Pending JP2022185811A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021093667A JP2022185811A (en) 2021-06-03 2021-06-03 Autonomous traveling system, autonomous traveling method, and autonomous traveling program
CN202210517825.5A CN115437367A (en) 2021-06-03 2022-05-13 Autonomous traveling system, autonomous traveling method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021093667A JP2022185811A (en) 2021-06-03 2021-06-03 Autonomous traveling system, autonomous traveling method, and autonomous traveling program

Publications (1)

Publication Number Publication Date
JP2022185811A true JP2022185811A (en) 2022-12-15

Family

ID=84241121

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021093667A Pending JP2022185811A (en) 2021-06-03 2021-06-03 Autonomous traveling system, autonomous traveling method, and autonomous traveling program

Country Status (2)

Country Link
JP (1) JP2022185811A (en)
CN (1) CN115437367A (en)

Also Published As

Publication number Publication date
CN115437367A (en) 2022-12-06

Similar Documents

Publication Publication Date Title
US10291765B2 (en) Mobile device, robot cleaner, and method for controlling the same
JP5324286B2 (en) Network robot system, robot control apparatus, robot control method, and robot control program
JP2022062716A (en) Cleaner control method and control system
JPWO2018043128A1 (en) Autonomous traveling device
TW201826993A (en) Robotic cleaning device with operating speed variation based on environment
JP5828088B2 (en) Remote control system
KR20140066850A (en) Robot clean system and control method thereof
US20190018424A1 (en) Method for operating an automatically moving service device
US11241790B2 (en) Autonomous moving body and control program for autonomous moving body
JP7342985B2 (en) Autonomous driving system, autonomous driving method, and autonomous driving program
US20210101293A1 (en) Autonomous mobile robot and control program for autonomous mobile robot
JP2005304516A (en) Self-running type vacuum cleaner
US20190354246A1 (en) Airport robot and movement method therefor
KR102293657B1 (en) Moving Robot
JP2022185811A (en) Autonomous traveling system, autonomous traveling method, and autonomous traveling program
JP4311355B2 (en) Self-propelled device and its program
JP2017107374A (en) Remote control system and device
JP2022086464A (en) Travel map creation apparatus, user terminal device, autonomous mobile robot, travel control system of autonomous mobile robot, travel control method of autonomous mobile robot, and program
JP2021153979A (en) Autonomous travel type cleaner, autonomous travel type cleaner control method, and program
WO2023276187A1 (en) Travel map creation device, travel map creation method, and program
WO2023089886A1 (en) Traveling map creating device, autonomous robot, method for creating traveling map, and program
JP2022141132A (en) Imaging system, imaging method, and imaging program
WO2023157345A1 (en) Traveling map creation device, autonomous robot, method for creating traveling map, and program
JP2019106009A (en) Autonomous travel body and autonomous travel body system
CN116635807A (en) Map creation device for traveling, autonomous traveling robot, traveling control system for autonomous traveling robot, traveling control method for autonomous traveling robot, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240315