JP2021157203A - Mobile control device, mobile control method, and program - Google Patents

Mobile control device, mobile control method, and program Download PDF

Info

Publication number
JP2021157203A
JP2021157203A JP2018116123A JP2018116123A JP2021157203A JP 2021157203 A JP2021157203 A JP 2021157203A JP 2018116123 A JP2018116123 A JP 2018116123A JP 2018116123 A JP2018116123 A JP 2018116123A JP 2021157203 A JP2021157203 A JP 2021157203A
Authority
JP
Japan
Prior art keywords
autonomous mobile
mobile robot
unit
moving body
course
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018116123A
Other languages
Japanese (ja)
Inventor
龍一 鈴木
Ryuichi Suzuki
龍一 鈴木
健太郎 井田
Kentaro Ida
健太郎 井田
英寛 小松
Hidehiro Komatsu
英寛 小松
知佳子 立石
Chikako Tateishi
知佳子 立石
雄登 石津
Yuto Ishizu
雄登 石津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Priority to JP2018116123A priority Critical patent/JP2021157203A/en
Priority to PCT/JP2019/022453 priority patent/WO2019244644A1/en
Priority to US17/250,181 priority patent/US11526172B2/en
Publication of JP2021157203A publication Critical patent/JP2021157203A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

To improve a method of presenting a course when a moving body moves.SOLUTION: A degree of relation with people around a moving object is determined, and based on that degree of relation, a traveling mode is set in which processing performed by a driving unit that moves the moving body and processing performed by an output unit that outputs an expression that presents the course of the moving body are associated with each other. The technique is applicable to, for example, an autonomously moving robot capable of moving in all directions.SELECTED DRAWING: Figure 5

Description

本開示は、移動体制御装置および移動体制御方法、並びにプログラムに関し、特に、移動体が移動する際の進路の提示方法について改善することができるようにした移動体制御装置および移動体制御方法、並びにプログラムに関する。 The present disclosure relates to a mobile control device and a mobile control method, and a program, and in particular, a mobile control device and a mobile control method that enable improvement in a method of presenting a course when the mobile moves. And about the program.

近年、人間の生活環境の中において、ロボットなどの移動体が移動するような状況が普及すると想定されている。このような状況において、移動体が移動する際の進路を適切に提示することによって、移動体の周囲に居る人物に注意喚起するような運用が検討される。 In recent years, it is expected that a situation in which a moving object such as a robot moves will become widespread in the human living environment. In such a situation, an operation that alerts the persons around the moving body by appropriately presenting the course when the moving body moves is considered.

例えば、特許文献1には、周囲に居る人物との距離を認識し、その人物との距離が短いほど、より詳細な移動経路を方向指示部により提示することができる移動装置が提案されている。 For example, Patent Document 1 proposes a moving device that recognizes a distance to a person in the vicinity and can present a more detailed moving route by a direction indicating unit as the distance to the person is shorter. ..

特開2011−204145号公報Japanese Unexamined Patent Publication No. 2011-204145

ところで、特許文献1に開示されているように、移動体が移動する際に、周囲に居る人物との距離に基づいて進路を提示する提示方法では、その人物の行動とは無関係に進路を提示することがある。そのため、移動体の周囲に居る人物の行動によっては、その人物が、移動体の移動を適切に認識することができない状況が生じることがあると考えられ、進路の提示方法の改善が求められている。 By the way, as disclosed in Patent Document 1, when a moving body moves, the presentation method of presenting a course based on the distance to a person around the moving body presents the course regardless of the behavior of the person. I have something to do. Therefore, depending on the behavior of the person around the moving body, it is considered that the person may not be able to properly recognize the movement of the moving body, and it is required to improve the method of presenting the course. There is.

本開示は、このような状況に鑑みてなされたものであり、移動体が移動する際の進路の提示方法について改善することができるようにするものである。 The present disclosure has been made in view of such a situation, and makes it possible to improve the method of presenting a course when a moving body moves.

本開示の一側面の移動体制御装置は、移動体の周囲に居る人物との関係度を決定する関係度決定部と、前記関係度に基づいて、前記移動体の移動を行う駆動部が行う処理、および、前記移動体の進路を提示する表現を出力する出力部が行う処理が対応付けられた走行モードを設定する設定部とを備える。 The moving body control device on one aspect of the present disclosure is performed by a relationship degree determining unit that determines the degree of relationship with a person around the moving body and a driving unit that moves the moving body based on the relationship degree. It includes a setting unit for setting a traveling mode associated with processing and processing performed by an output unit that outputs an expression presenting the course of the moving body.

本開示の一側面の移動体制御方法は、移動体の移動を制御する移動体制御装置が、前記移動体の周囲に居る人物との関係度を決定することと、前記関係度に基づいて、前記移動体の移動を行う駆動部が行う処理、および、前記移動体の進路を提示する表現を出力する出力部が行う処理が対応付けられた走行モードを設定することとを含む。 In the moving body control method of one aspect of the present disclosure, the moving body control device that controls the movement of the moving body determines the degree of relationship with a person around the moving body, and based on the degree of relationship. This includes setting a traveling mode associated with a process performed by the driving unit that moves the moving body and a process performed by the output unit that outputs an expression that presents the course of the moving body.

本開示の一側面のプログラムは、移動体の移動を制御する移動体制御装置のコンピュータに、前記移動体の周囲に居る人物との関係度を決定することと、前記関係度に基づいて、前記移動体の移動を行う駆動部が行う処理、および、前記移動体の進路を提示する表現を出力する出力部が行う処理が対応付けられた走行モードを設定することとを含む移動体制御を実行させる。 The program of one aspect of the present disclosure determines the degree of relationship with a person around the moving body to the computer of the moving body control device that controls the movement of the moving body, and the program is based on the degree of relationship. Execution of mobile control including processing performed by the driving unit that moves the moving body and setting a traveling mode associated with processing performed by the output unit that outputs an expression that presents the course of the moving body. Let me.

本開示の一側面においては、移動体の周囲に居る人物との関係度が決定され、その関係度に基づいて、移動体の移動を行う駆動部が行う処理、および、移動体の進路を提示する表現を出力する出力部が行う処理が対応付けられた走行モードが設定される。 In one aspect of the present disclosure, the degree of relationship with a person around the moving body is determined, and based on the degree of relationship, the processing performed by the driving unit that moves the moving body and the course of the moving body are presented. A driving mode is set in which the processing performed by the output unit that outputs the expression to be performed is associated.

本開示の一側面によれば、移動体が移動する際の進路の提示方法について改善することができる。 According to one aspect of the present disclosure, it is possible to improve the method of presenting the course when the moving body moves.

なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。 The effects described here are not necessarily limited, and may be any of the effects described in the present disclosure.

本技術を適用した移動体制御システムの一実施の形態の構成例を示す図である。It is a figure which shows the structural example of one Embodiment of the mobile body control system to which this technique is applied. 自律移動型ロボットの構成例を示すハードウェアブロック図である。It is a hardware block diagram which shows the configuration example of an autonomous mobile robot. 駆動部として採用されるメカナムホイールの一例を示す図である。It is a figure which shows an example of the Mecanum wheel adopted as a drive part. 表示部の各種の構成例を示す図である。It is a figure which shows various structural examples of a display part. 移動体制御処理を説明するフローチャートである。It is a flowchart explaining a moving body control process. 走行パターンおよび走行モードの関係を説明する図である。It is a figure explaining the relationship between a running pattern and a running mode. 自律移動型ロボットの走行パターンを説明するのに用いる2種類の通路Aおよび通路Bを示す図である。It is a figure which shows two kinds of passage A and passage B used for explaining the traveling pattern of an autonomous mobile robot. 表示部の構成例および表示強度について説明する図である。It is a figure explaining the structural example of the display part, and the display strength. 通路Aにおける走行パターンAでの進路変更の一例を示す図である。It is a figure which shows an example of the course change in the traveling pattern A in the passage A. 通路Bにおける走行パターンAでの進路変更の一例を示す図である。It is a figure which shows an example of the course change in the traveling pattern A in the passage B. 通路Aにおける走行パターンBでの進路変更の一例を示す図である。It is a figure which shows an example of the course change in the traveling pattern B in the passage A. 通路Bにおける走行パターンBでの進路変更の一例を示す図である。It is a figure which shows an example of the course change in the traveling pattern B in the passage B. 通路Aにおける走行パターンCでの進路変更の一例を示す図である。It is a figure which shows an example of the course change in the traveling pattern C in the passage A. 通路Bにおける走行パターンCでの進路変更の一例を示す図である。It is a figure which shows an example of the course change in the traveling pattern C in the passage B. 走行パターンCの表示最高強度について説明する図である。It is a figure explaining the display maximum intensity of a traveling pattern C. 通路Aにおける走行パターンDでの進路変更の一例を示す図である。It is a figure which shows an example of the course change in the traveling pattern D in the passage A. 通路Bにおける走行パターンDでの進路変更の一例を示す図である。It is a figure which shows an example of the course change in the traveling pattern D in the passage B. 走行パターンDの表示最高強度について説明する図である。It is a figure explaining the display maximum intensity of a traveling pattern D. 通路Bにおける走行パターンEでの進路変更の一例を示す図である。It is a figure which shows an example of the course change in the traveling pattern E in the passage B. 走行パターンEの表示最高強度について説明する図である。It is a figure explaining the display maximum intensity of a traveling pattern E. 1次元ベクトルに基づく表示強度の算出手法について説明する図である。It is a figure explaining the calculation method of the display intensity based on a one-dimensional vector. 2次元平面の距離に基づく表示強度の算出手法について説明する図である。It is a figure explaining the calculation method of the display intensity based on the distance of a two-dimensional plane. 進行方向の表示のバリエーションを示す図である。It is a figure which shows the variation of the display of the traveling direction. 直進時における空間定位表現について説明する図である。It is a figure explaining the spatial localization expression at the time of going straight. 旋回時における空間定位表現について説明する図である。It is a figure explaining the spatial localization expression at the time of turning. パーティクル表現を利用した表示制御について説明する図である。It is a figure explaining the display control using the particle representation. 波紋表現を利用した表示制御について説明する図である。It is a figure explaining the display control using a ripple expression. 円の収縮表現を利用した表示制御について説明する図である。It is a figure explaining the display control using the contraction expression of a circle. 走行パターンDにおける走行ベクトルを使用した表示制御について説明する図である。It is a figure explaining the display control using the travel vector in the travel pattern D. 走行パターンDにおける走行ベクトルを使用した表示制御について説明する図である。It is a figure explaining the display control using the travel vector in the travel pattern D. 走行パターンDにおける走行ベクトルを使用した表示制御について説明する図である。It is a figure explaining the display control using the travel vector in the travel pattern D. 走行パターンDにおける加速度ベクトルを使用した表示制御について説明する図である。It is a figure explaining the display control using the acceleration vector in the traveling pattern D. 走行パターンDにおける加速度ベクトルを使用した表示制御について説明する図である。It is a figure explaining the display control using the acceleration vector in the traveling pattern D. 走行パターンDにおける加速度ベクトルを使用した表示制御について説明する図である。It is a figure explaining the display control using the acceleration vector in the traveling pattern D. 予備動作表現を行う表示制御について説明する図である。It is a figure explaining the display control which performs the preliminary operation expression. 予備動作表現を行う表示制御について説明する図である。It is a figure explaining the display control which performs the preliminary operation expression. 予備動作表現を行う表示制御について説明する図である。It is a figure explaining the display control which performs the preliminary operation expression. 予備動作表現を行う表示制御について説明する図である。It is a figure explaining the display control which performs the preliminary operation expression. 2台連携移動時における表示制御について説明する図である。It is a figure explaining the display control at the time of two-unit cooperative movement. 4台連携移動時における表示制御について説明する図である。It is a figure explaining the display control at the time of four-unit cooperative movement.

以下、本技術を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。 Hereinafter, specific embodiments to which the present technology is applied will be described in detail with reference to the drawings.

<移動体制御システムの構成例>
図1は、本技術を適用した移動体制御システムの一実施の形態の構成例を示す図である。
<Configuration example of mobile control system>
FIG. 1 is a diagram showing a configuration example of an embodiment of a mobile control system to which the present technology is applied.

図1に示すように、移動体制御システム11は、自律移動型ロボット12、処理装置13、およびセンサモジュール14を備えて構成される。例えば、移動体制御システム11は、人間の生活環境の中での利用、即ち、複数の人物(図1の例では、立っている人物と座っている人物との二人)が自律移動型ロボット12の周囲に居るような環境での利用が想定される。 As shown in FIG. 1, the mobile control system 11 includes an autonomous mobile robot 12, a processing device 13, and a sensor module 14. For example, the mobile control system 11 is used in a human living environment, that is, a plurality of persons (in the example of FIG. 1, two persons, a standing person and a sitting person) are autonomous mobile robots. It is expected to be used in an environment such as being around 12.

自律移動型ロボット12は、例えば、人物の動きに伴って移動するプログラムや、人物から離れて任意の場所への移動するプログラムなどを実行することで、人物による操作などに依らずに、自律的な移動を行うことができる。また、自律移動型ロボット12は、表示部(図4参照)を備えており、周囲に居る人物に、移動する際の進路を提示することができる。 The autonomous mobile robot 12 autonomously, for example, by executing a program that moves with the movement of a person, a program that moves away from the person to an arbitrary place, and the like, regardless of the operation by the person. You can make various movements. Further, the autonomous mobile robot 12 is provided with a display unit (see FIG. 4), and can present a course when moving to a person in the vicinity.

処理装置13は、自律移動型ロボット12が利用される環境内に固定されており、例えば、自律移動型ロボット12が備える各種のセンサからの入力、または、センサモジュール14からの入力に基づいて、自律移動型ロボット12の移動を制御する処理を実行する。 The processing device 13 is fixed in the environment in which the autonomous mobile robot 12 is used, and is based on, for example, inputs from various sensors included in the autonomous mobile robot 12 or inputs from the sensor module 14. The process of controlling the movement of the autonomous mobile robot 12 is executed.

センサモジュール14は、自律移動型ロボット12が利用される環境内に固定されており、例えば、処理装置13が自律移動型ロボット12の移動を制御するために必要となる各種の情報をセンシングして、処理装置13に入力する。 The sensor module 14 is fixed in an environment in which the autonomous mobile robot 12 is used. For example, the processing device 13 senses various information required to control the movement of the autonomous mobile robot 12. , Input to the processing device 13.

なお、図1に示す移動体制御システム11の構成例は一例であり、例えば、移動体制御システム11は、処理装置13およびセンサモジュール14が移動体制御システム11に内蔵されるような構成を採用することができる。その他、移動体制御システム11は、処理装置13およびセンサモジュール14が、人物の手や頭、胴体などに装着可能なウェアラブルデバイスとして提供されるような構成を採用してもよい。 The configuration example of the mobile control system 11 shown in FIG. 1 is an example. For example, the mobile control system 11 adopts a configuration in which the processing device 13 and the sensor module 14 are built in the mobile control system 11. can do. In addition, the mobile body control system 11 may adopt a configuration in which the processing device 13 and the sensor module 14 are provided as wearable devices that can be worn on a person's hand, head, body, or the like.

<自律移動型ロボットの構成例>
図2乃至図4を参照して、自律移動型ロボット12の構成例について説明する。
<Configuration example of autonomous mobile robot>
A configuration example of the autonomous mobile robot 12 will be described with reference to FIGS. 2 to 4.

図2は、自律移動型ロボット12の構成例を示すハードウェアブロック図である。 FIG. 2 is a hardware block diagram showing a configuration example of the autonomous mobile robot 12.

図2に示すように、自律移動型ロボット12は、入力部21、演算部22、駆動部23、および表示部24を備えて構成される。 As shown in FIG. 2, the autonomous mobile robot 12 includes an input unit 21, a calculation unit 22, a drive unit 23, and a display unit 24.

入力部21は、自律移動型ロボット12の外部の情報を入力するために用いられ、レーザ測距装置31、RGBカメラ32、ステレオカメラ33、および慣性計測装置34を有して構成される。 The input unit 21 is used for inputting information outside the autonomous mobile robot 12, and includes a laser ranging device 31, an RGB camera 32, a stereo camera 33, and an inertial measurement unit 34.

レーザ測距装置31は、自律移動型ロボット12の周囲に向かって照射したレーザ光の反射光を検出することによって、その周囲にある物体までの距離を測定し、測定された物体までの距離を示す測距情報を取得する。 The laser ranging device 31 measures the distance to an object around the autonomous mobile robot 12 by detecting the reflected light of the laser beam emitted toward the periphery of the autonomous mobile robot 12, and determines the distance to the measured object. Acquire the distance measurement information to be shown.

RGBカメラ32は、例えば、カラーフィルタを備えた撮像素子などにより構成され、自律移動型ロボット12の周囲を撮像することによりRGB画像を取得する。 The RGB camera 32 is composed of, for example, an image sensor equipped with a color filter, and acquires an RGB image by imaging the surroundings of the autonomous mobile robot 12.

ステレオカメラ33は、自律移動型ロボット12の周囲を2個の撮像素子により撮像することによって2枚の画像を取得し、それらの視差に基づいて画像に写されている被写体までの距離を表す距離画像を取得する。 The stereo camera 33 acquires two images by capturing the surroundings of the autonomous mobile robot 12 with two image sensors, and based on their parallax, a distance representing the distance to the subject captured in the image. Get an image.

慣性計測装置34は、例えば、ジャイロセンサなどにより構成され、自律移動型ロボット12の移動により生じる3軸の角度および加速度を測定し、その測定結果を慣性計測情報として取得する。 The inertial measurement unit 34 is configured by, for example, a gyro sensor or the like, measures the angles and accelerations of the three axes generated by the movement of the autonomous mobile robot 12, and acquires the measurement results as inertial measurement information.

このように入力部21は構成されており、レーザ測距装置31、RGBカメラ32、ステレオカメラ33、および慣性計測装置34により取得される入力情報(即ち、測距情報、RGB画像、距離画像、および慣性計測情報)を演算部22に供給する。 The input unit 21 is configured in this way, and the input information (that is, the distance measuring information, the RGB image, the distance image, etc.) acquired by the laser ranging device 31, the RGB camera 32, the stereo camera 33, and the inertial measurement unit 34. And inertial measurement information) is supplied to the calculation unit 22.

なお、入力部21は、周囲の環境や障害物などを把握するためのLIDAR(Light Detection and Ranging,Laser Imaging Detection and Ranging)などの測距センサやデプスセンサなど、または、人物を体温により認識するためのサーモカメラを有した構成としてもよい。さらに、入力部21は、周囲の音を集音する収音装置を有した構成としてもよく、音声により人物が居る方向を認識することができる。また、自律移動型ロボット12が利用される環境内に、各種のセンシングを行うための複数のセンサモジュール(例えば、図1のセンサモジュール14)を配置し、入力部21は、それらのセンサモジュールと通信を行うような構成とすることができる。 The input unit 21 recognizes a person by body temperature, such as a distance measuring sensor or depth sensor such as LIDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) for grasping the surrounding environment or obstacles. It may be configured to have the thermo camera of. Further, the input unit 21 may be configured to have a sound collecting device that collects ambient sounds, and can recognize the direction in which a person is present by voice. Further, a plurality of sensor modules (for example, the sensor module 14 in FIG. 1) for performing various sensing are arranged in an environment in which the autonomous mobile robot 12 is used, and the input unit 21 and the sensor modules are arranged. It can be configured to perform communication.

演算部22は、入力部21を介して入力される外部の情報に基づいた演算に従って駆動部23および表示部24に対する制御を行うために用いられ、CPU41、GPU42、補助記憶装置43、および記憶装置44を有して構成される。 The calculation unit 22 is used to control the drive unit 23 and the display unit 24 according to an operation based on external information input via the input unit 21, and is used for the CPU 41, the GPU 42, the auxiliary storage device 43, and the storage device. It is configured to have 44.

CPU(Central Processing Unit)41は、補助記憶装置43に記憶されている制御プログラムを読み出して実行する。そして、CPU41は、入力部21から供給される測距情報および慣性計測情報や、記憶装置44に記憶されている各種の情報、GPU42によるリアルタイム画像処理結果などを参照し、自律移動型ロボット12の移動および表示に関する制御を行う移動体制御処理(図5のフローチャート参照)を行う。 The CPU (Central Processing Unit) 41 reads and executes the control program stored in the auxiliary storage device 43. Then, the CPU 41 refers to the distance measurement information and the inertial measurement information supplied from the input unit 21, various information stored in the storage device 44, the real-time image processing result by the GPU 42, and the like, and the autonomous mobile robot 12 A moving body control process (see the flowchart of FIG. 5) that controls movement and display is performed.

GPU(Graphics Processing Unit)42は、入力部21から供給されるRGB画像および距離画像に対してリアルタイム(供給に応じて逐次的)に、自律移動型ロボット12の周囲に居る人物などを認識する画像処理を行い、その処理結果をCPU41に供給する。 The GPU (Graphics Processing Unit) 42 recognizes a person or the like around the autonomous mobile robot 12 in real time (sequentially according to the supply) with respect to the RGB image and the distance image supplied from the input unit 21. Processing is performed, and the processing result is supplied to the CPU 41.

補助記憶装置43は、例えば、RAM(Random Access Memory)により構成され、記憶装置44から制御プログラムを読み出して記憶する。 The auxiliary storage device 43 is composed of, for example, a RAM (Random Access Memory), and reads and stores a control program from the storage device 44.

記憶装置44は、例えば、EEPROM(Electronically Erasable and Programmable Read Only Memory)により構成され、CPU41が実行する制御プログラムや、CPU41が移動体制御処理を行う際に必要となる各種の情報などを記憶する。 The storage device 44 is configured by, for example, an EEPROM (Electronically Erasable and Programmable Read Only Memory), and stores a control program executed by the CPU 41, various information required when the CPU 41 performs mobile control processing, and the like.

このように演算部22は構成されており、入力部21から供給される入力情報に基づいて、自律移動型ロボット12の移動に伴う各種の演算を行って、自律移動型ロボット12の行動計画を決定する。そして、演算部22は、この行動計画に基づいて、駆動部23に対する駆動制御、および、表示部24に対する表示制御を行うことができる。 The calculation unit 22 is configured in this way, and based on the input information supplied from the input unit 21, various calculations associated with the movement of the autonomous mobile robot 12 are performed to create an action plan for the autonomous mobile robot 12. decide. Then, the calculation unit 22 can perform drive control for the drive unit 23 and display control for the display unit 24 based on this action plan.

また、演算部22は、後述するように、駆動部23の種類によって異なってくる挙動の差分を吸収する。なお、演算部22は、自律移動型ロボット12に内蔵される構成に限定されることなく、例えば、図1の処理装置13のように、自律移動型ロボット12が利用される環境内に演算部22を固定して用いることができる。これにより、例えば、自律移動型ロボット12の小型化を図ることができる。 Further, as will be described later, the calculation unit 22 absorbs the difference in behavior that differs depending on the type of the drive unit 23. The calculation unit 22 is not limited to the configuration built in the autonomous mobile robot 12, and is not limited to the configuration, and is calculated in an environment in which the autonomous mobile robot 12 is used, for example, as in the processing device 13 of FIG. 22 can be fixed and used. Thereby, for example, the size of the autonomous mobile robot 12 can be reduced.

駆動部23は、演算部22による駆動制御に従って自律移動型ロボット12を移動させるために用いられ、複数のモータ制御回路51、複数の駆動用モータ52、および複数のエンコーダ53を有して構成される。 The drive unit 23 is used to move the autonomous mobile robot 12 according to drive control by the calculation unit 22, and includes a plurality of motor control circuits 51, a plurality of drive motors 52, and a plurality of encoders 53. NS.

モータ制御回路51は、演算部22による駆動制御に従った挙動を行うように、駆動用モータ52に対する制御を行う。 The motor control circuit 51 controls the drive motor 52 so as to behave according to the drive control by the calculation unit 22.

駆動用モータ52は、モータ制御回路51による制御に従って駆動することで、自律移動型ロボット12の移動を実現する。 The drive motor 52 realizes the movement of the autonomous mobile robot 12 by driving according to the control by the motor control circuit 51.

エンコーダ53は、駆動用モータ52の駆動情報(回転量や回転角度、回転位置など)を検出して、演算部22による駆動制御に従った駆動を実現するために、その駆動情報を演算部22にフィードバックする。 The encoder 53 detects the drive information (rotation amount, rotation angle, rotation position, etc.) of the drive motor 52, and converts the drive information into the calculation unit 22 in order to realize the drive according to the drive control by the calculation unit 22. Give feedback to.

ここで、自律移動型ロボット12は、全方位移動可能なメカナムホイールを駆動部23として採用することができる。例えば、図3に示すように、駆動部23は、入力部21や演算部22などが内蔵される筐体71に対して、4個のメカナムホイール72−1乃至72−4が装着された構成とすることができる。 Here, the autonomous mobile robot 12 can adopt a Mecanum wheel that can move in all directions as the drive unit 23. For example, as shown in FIG. 3, in the drive unit 23, four Mecanum wheels 72-1 to 72-4 are mounted on the housing 71 in which the input unit 21, the calculation unit 22, and the like are built. It can be configured.

メカナムホイール72−1乃至72−4は、例えば、通常の車両などと同様に、筐体71の両側面の前方および後方の4カ所に装着される。メカナムホイール72−1乃至72−4の外周には回転自在に複数のローラが取り付けられており、それらのローラの回転軸は、メカナムホイール72−1乃至72−4の回転軸(車軸)に対して所定の角度を有している。 The Mecanum wheels 72-1 to 72-4 are mounted at four locations on the front and rear of both side surfaces of the housing 71, for example, in the same manner as a normal vehicle. A plurality of rollers are rotatably attached to the outer circumference of the Mecanum wheels 72-1 to 72-4, and the rotation axes of these rollers are the rotation axes (axles) of the Mecanum wheels 72-1 to 72-4. Has a predetermined angle with respect to.

例えば、駆動部23は、メカナムホイール72−1乃至72−4が同一方向に回転するように駆動することで、筐体71を前方または後方に向かって移動させることができる。また、駆動部23は、メカナムホイール72−1および72−2と、メカナムホイール72−3および72−4とが逆方向に回転するように駆動することで、筐体71を旋回させることができる。そして、駆動部23は、メカナムホイール72−1および72−3と、メカナムホイール72−2および72−4とが逆方向に回転するように駆動することで、筐体71の向きを変更することなく、筐体71を右方または左方に向かって移動させることができる。その他、駆動部23は、メカナムホイール72−1乃至72−4の回転を適切に制御することで、筐体71を任意の方向に移動させることができる。 For example, the drive unit 23 can move the housing 71 forward or backward by driving the mecanum wheels 72-1 to 72-4 so as to rotate in the same direction. Further, the drive unit 23 rotates the housing 71 by driving the Mecanum wheels 72-1 and 72-2 and the Mecanum wheels 72-3 and 72-4 so as to rotate in opposite directions. Can be done. Then, the drive unit 23 changes the direction of the housing 71 by driving the Mecanum wheels 72-1 and 72-3 and the Mecanum wheels 72-2 and 72-4 so as to rotate in opposite directions. The housing 71 can be moved to the right or left without doing so. In addition, the drive unit 23 can move the housing 71 in any direction by appropriately controlling the rotation of the mecanum wheels 72-1 to 72-4.

なお、自律移動型ロボット12は、メカナムホイール72−1乃至72−4以外の様々な種類の駆動形態を駆動部23に採用してもよい。例えば、自律移動型ロボット12として、車両型ロボットや、2足歩行を含む多足型ロボット、ドローン・ホバークラフトなどの空気浮揚型ロボット、飛行ロボットなどを採用することができる。さらには、自律移動型ロボット12は、ROV(Remotely operated vehicle)などのような水中型ロボットを採用することができる。 The autonomous mobile robot 12 may adopt various types of drive modes other than the Mecanum wheels 72-1 to 72-4 for the drive unit 23. For example, as the autonomous mobile robot 12, a vehicle-type robot, a multi-legged robot including bipedal walking, an aerodynamic robot such as a drone / hovercraft, a flying robot, or the like can be adopted. Further, as the autonomous mobile robot 12, an underwater robot such as an ROV (Remotely operated vehicle) can be adopted.

表示部24は、演算部22による表示制御に従って自律移動型ロボット12の周囲に居る人物に進路を提示するために用いられ、複数の出力装置61を有して構成される。 The display unit 24 is used to present a course to a person around the autonomous mobile robot 12 according to display control by the calculation unit 22, and includes a plurality of output devices 61.

例えば、出力装置61は、複数のLED(Light Emitting Diode)や、複数のプロジェクタ、複数のディスプレイ(液晶パネルや有機EL(Electro Luminescence)パネルなど)により構成することができる。 For example, the output device 61 can be composed of a plurality of LEDs (Light Emitting Diodes), a plurality of projectors, and a plurality of displays (such as a liquid crystal panel and an organic EL (Electro Luminescence) panel).

ここで、図4には、自律移動型ロボット12の筐体が平面視して正方形である構成において、筐体の側面全周に亘って表示を行う表示部24の各種の構成例が示されている。 Here, FIG. 4 shows various configuration examples of the display unit 24 that displays over the entire side surface of the housing in a configuration in which the housing of the autonomous mobile robot 12 is square in a plan view. ing.

例えば、図4のAに示すように、表示部24Aは、自律移動型ロボット12Aの筐体の4側面に周方向に沿ってライン状に配置された複数のLEDによって構成される。また、図4のBに示すように、表示部24Bは、自律移動型ロボット12Bの筐体の4側面それぞれから周囲の床に映像を投影するように設けられたプロジェクタによって構成される。また、図4のCに示すように、表示部24Cは、自律移動型ロボット12Cの筐体の4側面として、それぞれの側面に組み込まれたディスプレイによって構成される。 For example, as shown in FIG. 4A, the display unit 24A is composed of a plurality of LEDs arranged in a line along the circumferential direction on four side surfaces of the housing of the autonomous mobile robot 12A. Further, as shown in B of FIG. 4, the display unit 24B is configured by a projector provided so as to project an image from each of the four side surfaces of the housing of the autonomous mobile robot 12B onto the surrounding floor. Further, as shown in C of FIG. 4, the display unit 24C is configured as four side surfaces of the housing of the autonomous mobile robot 12C by displays incorporated in each side surface.

その他、表示部24には、自律移動型ロボット12の筐体の側面に映像を投影するようなプロジェクタや、自律移動型ロボット12の筐体の側面に三次元的に並べられた複数のLEDなどにより構成してもよい。また、表示部24は、自律移動型ロボット12の筐体の天面に設けられる構成としてもよい。さらに、自律移動型ロボット12の筐体は平面的な形状に構成される他、丸みを帯びた形状としてもよく、LEDアレイのような点光源を1次元で並べて表示部24を構成してもよい。 In addition, the display unit 24 includes a projector that projects an image on the side surface of the housing of the autonomous mobile robot 12, and a plurality of LEDs that are three-dimensionally arranged on the side surface of the housing of the autonomous mobile robot 12. It may be configured by. Further, the display unit 24 may be provided on the top surface of the housing of the autonomous mobile robot 12. Further, the housing of the autonomous mobile robot 12 may be formed in a flat shape or may have a rounded shape, or a point light source such as an LED array may be arranged one-dimensionally to form the display unit 24. good.

さらに、表示部24にプロジェクタを使用する構成では、自律移動型ロボット12の筐体の側面の数に応じた個数のプロジェクタを用いる他、1個のプロジェクタに対して魚眼レンズなどを用いて拡大表示を行ってもよい。また、自律移動型ロボット12の筐体に、2軸駆動することが可能なプロジェクタを設置して、必要な方向に映像を投影するような構成としてもよい。 Further, in the configuration in which the projector is used for the display unit 24, the number of projectors corresponding to the number of side surfaces of the housing of the autonomous mobile robot 12 is used, and one projector is enlarged by using a fisheye lens or the like. You may go. Further, a projector capable of driving two axes may be installed in the housing of the autonomous mobile robot 12 to project an image in a required direction.

また、表示部24は、自律移動型ロボット12の周囲に居る人物に進路を提示するという目的を達成することができれば、自律移動型ロボット12に搭載されないような構成とすることもできる。つまり、自律移動型ロボット12が利用される環境内(例えば、図1のセンサモジュール14の位置)にプロジェクタなどの投影装置を配置して映像を投影してもよい。または、現実空間に映像を重ねて表示するようなウェアラブル端末であるAR(Augmented Reality)グラスを人物が装着し、そのARグラスに映像を表示してもよい。 Further, the display unit 24 may be configured not to be mounted on the autonomous mobile robot 12 if the purpose of presenting a course to a person around the autonomous mobile robot 12 can be achieved. That is, a projection device such as a projector may be arranged in the environment where the autonomous mobile robot 12 is used (for example, the position of the sensor module 14 in FIG. 1) to project an image. Alternatively, a person may wear an AR (Augmented Reality) glass, which is a wearable terminal that superimposes an image on the real space, and display the image on the AR glass.

その他、自律移動型ロボット12の出力手段として、映像以外に音声を利用してもよく、例えば、スピーカから出力される音声によって人物に進路を提示するような構成を採用してもよい。例えば、表示部24による映像の表現だけでは、自律移動型ロボット12の周囲に居る人物が進路に気付かないような状況において、映像と合わせて音声を利用することが有効である。 In addition, as the output means of the autonomous mobile robot 12, voice may be used in addition to the video, and for example, a configuration may be adopted in which a person is presented with a course by the voice output from the speaker. For example, it is effective to use the sound together with the video in a situation where the person around the autonomous mobile robot 12 does not notice the course only by expressing the video by the display unit 24.

このように自律移動型ロボット12は構成されており、演算部22において移動体制御処理が行われることにより、駆動部23に対する駆動制御、および、表示部24に対する表示制御が実行される。そして、演算部22は、移動体制御処理において、自律移動型ロボット12と、自律移動型ロボット12の周囲に居る人物(以下、周囲人物と称する)との関係度に応じて、自律移動型ロボット12が移動する際の走行モードを設定することができる。 In this way, the autonomous mobile robot 12 is configured, and the moving body control process is performed in the calculation unit 22, so that the drive control for the drive unit 23 and the display control for the display unit 24 are executed. Then, in the mobile body control process, the arithmetic unit 22 determines the autonomous mobile robot 12 according to the degree of relationship between the autonomous mobile robot 12 and a person (hereinafter, referred to as a surrounding person) around the autonomous mobile robot 12. The traveling mode when the 12 moves can be set.

例えば、演算部22は、自律移動型ロボット12が周囲人物と行動を共にしているか否か、自律移動型ロボット12を視認可能な周囲人物が居るか否かの判断に基づいて、関係度を決定する。ここで、関係度とは、自律移動型ロボット12と周囲人物との関係(周囲人物の有無や自律移動型ロボット12の行動内容など)に基づいて、自律移動型ロボット12が行う振る舞いを決定する際に用いる情報である。例えば、自律移動型ロボット12と周囲人物との関係が緊密であるほど関係度は高くなり、自律移動型ロボット12と周囲人物とが無関係であるほど関係度は低くなる。 For example, the calculation unit 22 determines the degree of relationship based on the determination of whether or not the autonomous mobile robot 12 is acting together with the surrounding person and whether or not there is a surrounding person who can visually recognize the autonomous mobile robot 12. decide. Here, the degree of relationship determines the behavior performed by the autonomous mobile robot 12 based on the relationship between the autonomous mobile robot 12 and surrounding people (such as the presence or absence of surrounding people and the behavior content of the autonomous mobile robot 12). This is the information used at the time. For example, the closer the relationship between the autonomous mobile robot 12 and the surrounding person is, the higher the relationship is, and the closer the relationship between the autonomous mobile robot 12 and the surrounding person is, the lower the relationship is.

そして、演算部22は、周囲人物との関係度が高いほど、その周囲人物の安心感が向上するように作用する自律移動型ロボット12の移動、および、進路の提示を行うような走行モードを設定する。これにより、自律移動型ロボット12は、人間の生活環境の中での利用においても、自律移動型ロボット12の移動を周囲人物に適切に認識させることができ、より安全な運用が可能となる。 Then, the calculation unit 22 sets a traveling mode in which the autonomous mobile robot 12 moves and presents a course, which acts to improve the sense of security of the surrounding person as the degree of relationship with the surrounding person increases. Set. As a result, the autonomous mobile robot 12 can appropriately recognize the movement of the autonomous mobile robot 12 even when used in a human living environment, and can be operated more safely.

また、自律移動型ロボット12は、図3に示したようなメカナムホイール72を採用することで、筐体方向に制約されることなく進行方向を方向転換することができる。このように進行方向の制約がないことにより、周囲人物が、自律移動型ロボット12の進行方向や注目方向などを事前に知ることはできない。そのため、自律移動型ロボット12を、人間の生活環境の中において使用する場合には安心感が低下することが想定されるが、上述したように、周囲人物との関係度に応じて走行モードを適切に設定することで、このような安心感の低下を回避することができる。 Further, by adopting the Mecanum wheel 72 as shown in FIG. 3, the autonomous mobile robot 12 can change the direction of travel without being restricted by the direction of the housing. Since there is no restriction on the traveling direction as described above, the surrounding person cannot know the traveling direction and the attention direction of the autonomous mobile robot 12 in advance. Therefore, when the autonomous mobile robot 12 is used in a human living environment, it is assumed that the sense of security is reduced, but as described above, the traveling mode is set according to the degree of relationship with surrounding persons. By setting it appropriately, it is possible to avoid such a decrease in the sense of security.

また、自律移動型ロボット12は、図4に示したように、自律移動型ロボット12の筐体の全ての側面に表示部24を設ける構成により、自律移動型ロボット12の前方だけでなく、側方または後方に対しても進路を提示することができる。 Further, as shown in FIG. 4, the autonomous mobile robot 12 has a configuration in which display units 24 are provided on all side surfaces of the housing of the autonomous mobile robot 12, so that the autonomous mobile robot 12 is not only in front of the autonomous mobile robot 12 but also on the side. It is possible to present the course to either the direction or the rear.

<移動体制御処理>
図5は、演算部22が自律移動型ロボット12の移動を制御する移動体制御処理を説明するフローチャートである。
<Mobile control processing>
FIG. 5 is a flowchart illustrating a mobile body control process in which the calculation unit 22 controls the movement of the autonomous mobile robot 12.

例えば、自律移動型ロボット12が移動を開始する際に移動体制御処理が実行され、ステップS11において、演算部22は、入力部21から供給される入力情報に基づいて、自律移動型ロボット12の周囲に居る周囲人物を検出する人物検出処理を行う。 For example, the mobile body control process is executed when the autonomous mobile robot 12 starts moving, and in step S11, the calculation unit 22 of the autonomous mobile robot 12 is based on the input information supplied from the input unit 21. Performs a person detection process that detects people around you.

人物検出処理は、入力部21のRGBカメラ32の撮像により取得されるRGB画像の他、例えば、図1のセンサモジュール14により取得されるRGB画像、図示しないサーモカメラにより取得されるサーモ画像を用いてもよい。さらに、図示しないLIDARやデプスセンサなどを用いた動体検出によって人物を検出してもよい。または、人物の身体に装着されているウェアラブル端末との通信によって、自律移動型ロボット12の近傍に人物が居るか否かを判断してもよい。 In the person detection process, in addition to the RGB image acquired by the RGB camera 32 of the input unit 21, for example, the RGB image acquired by the sensor module 14 in FIG. 1 and the thermo image acquired by a thermo camera (not shown) are used. You may. Further, a person may be detected by motion detection using a LIDAR or a depth sensor (not shown). Alternatively, it may be determined whether or not the person is in the vicinity of the autonomous mobile robot 12 by communicating with the wearable terminal worn on the body of the person.

ステップS12において、演算部22は、自律移動型ロボット12が開始した移動によって実行される自律移動型ロボット12自身の行動内容を認識する行動内容認識処理を行う。例えば、自律移動型ロボット12は、人物に追従して移動する行動内容や、人物を先導して移動する行動内容、人物と一緒に移動する行動内容、人物からの命令または自発的な判断に従って移動する行動内容、人物とは別に移動する行動内容などを実行する。従って、演算部22は、それらの行動内容のうちの、いずれを実行するのかを認識する。 In step S12, the calculation unit 22 performs an action content recognition process for recognizing the action content of the autonomous mobile robot 12 itself executed by the movement started by the autonomous mobile robot 12. For example, the autonomous mobile robot 12 moves according to an action content that follows a person, an action content that leads the person to move, an action content that moves with the person, a command from the person, or a voluntary judgment. Execute the action content to be performed, the action content to move separately from the person, and the like. Therefore, the calculation unit 22 recognizes which of those action contents is to be executed.

ステップS13において、演算部22は、ステップS11における人物検出処理の検出結果、および、ステップS12における行動内容認識処理の認識結果の両方に基づいて、自律移動型ロボット12と周囲人物との関係度を決定する。例えば、演算部22は、人物検出処理の検出結果に従った周辺人物の有無と、行動内容認識処理の認識結果に従った上述したような各種の行動内容との組み合わせをスコア化する演算を行い、その演算により求められるスコアを関係度として決定することができる。なお、演算部22は、人物検出処理の検出結果および行動内容認識処理の認識結果のうち、いずれか一方に基づいて関係度を決定してもよい。 In step S13, the calculation unit 22 determines the degree of relationship between the autonomous mobile robot 12 and surrounding people based on both the detection result of the person detection process in step S11 and the recognition result of the action content recognition process in step S12. decide. For example, the calculation unit 22 performs a calculation for scoring a combination of the presence / absence of a peripheral person according to the detection result of the person detection process and the various action contents as described above according to the recognition result of the action content recognition process. , The score obtained by the calculation can be determined as the degree of relationship. The calculation unit 22 may determine the degree of relationship based on either the detection result of the person detection process or the recognition result of the action content recognition process.

ステップS14において、演算部22は、ステップS13で決定された周囲人物との関係度に基づいて、自律移動型ロボット12は周囲人物と一緒に移動を行うか否かを判定する。 In step S14, the calculation unit 22 determines whether or not the autonomous mobile robot 12 moves together with the surrounding person based on the degree of relationship with the surrounding person determined in step S13.

ステップS14において、演算部22が、自律移動型ロボット12は周囲人物と一緒に移動を行うと判定した場合、処理はステップS15に進む。ステップS15において、演算部22は、進路を変更する際に筐体の方向転換を行って走行する走行モード1を設定した後、処理はステップS19に進む。 If the calculation unit 22 determines in step S14 that the autonomous mobile robot 12 moves together with the surrounding people, the process proceeds to step S15. In step S15, the calculation unit 22 changes the direction of the housing when changing the course and sets the traveling mode 1 to travel, and then the process proceeds to step S19.

一方、ステップS14において、演算部22が、自律移動型ロボット12は周囲人物と一緒に移動を行わない(即ち、周囲人物とは別に移動する)と判定した場合、処理はステップS16に進む。ステップS16において、演算部22は、ステップS13で決定された周囲人物との関係度に基づいて、自律移動型ロボット12を視認可能な周囲人物がいるか否かを判定する。 On the other hand, if the calculation unit 22 determines in step S14 that the autonomous mobile robot 12 does not move with the surrounding person (that is, moves separately from the surrounding person), the process proceeds to step S16. In step S16, the calculation unit 22 determines whether or not there is a surrounding person who can visually recognize the autonomous mobile robot 12 based on the degree of relationship with the surrounding person determined in step S13.

ステップS16において、演算部22が、自律移動型ロボット12を視認可能な周囲人物がいると判定した場合、処理はステップS17に進む。ステップS17において、演算部22は、進路を提示するために進行方向および方向転換の表現を行って走行する走行モード2を設定した後、処理はステップS19に進む。 If the calculation unit 22 determines in step S16 that there is a person around the autonomous mobile robot 12 who can see the robot 12, the process proceeds to step S17. In step S17, the calculation unit 22 sets the travel mode 2 in which the vehicle travels by expressing the traveling direction and the direction change in order to present the course, and then the process proceeds to step S19.

一方、ステップS16において、演算部22が、自律移動型ロボット12を視認可能な周囲人物がいないと判定した場合、処理はステップS18に進む。ステップS18において、演算部22は、進路を提示するための進行方向および方向転換の表現を行わず、かつ、進路を変更する際に筐体の方向転換を行わずに走行する走行モード3を設定した後、処理はステップS19に進む。 On the other hand, in step S16, when the calculation unit 22 determines that there is no visible surrounding person for the autonomous mobile robot 12, the process proceeds to step S18. In step S18, the calculation unit 22 sets the traveling mode 3 in which the vehicle travels without expressing the traveling direction and the direction change for presenting the course and without changing the direction of the housing when changing the course. After that, the process proceeds to step S19.

ステップS19において、演算部22は、ステップS15、ステップS17、またはステップS18で決定した走行モードに基づいて、駆動部23に対する駆動制御、および、表示部24に対する表示制御を行った後、移動体制御処理は終了される。 In step S19, the calculation unit 22 performs drive control on the drive unit 23 and display control on the display unit 24 based on the travel mode determined in step S15, step S17, or step S18, and then controls the moving body. The process is terminated.

以上のような移動体制御処理が実行されることで、自律移動型ロボット12は、周囲人物との関係度に基づいて、自律移動型ロボット12を3つの走行モード1乃至3で切り替えて設定することができる。 By executing the above-mentioned mobile body control process, the autonomous mobile robot 12 switches and sets the autonomous mobile robot 12 in three traveling modes 1 to 3 based on the degree of relationship with surrounding people. be able to.

例えば、自律移動型ロボット12は、周囲人物と一緒に移動を行うという関係度が最も高い場合には、進路を変更する際に筐体の方向転換を行って走行する走行モード1を設定する。これにより、自律移動型ロボット12は、筐体方向の前方が常に進行方向に向かうような走行を行うことで、周囲人物は、自律移動型ロボット12の筐体方向により進行方向を容易に認識することができる。この場合、自律移動型ロボット12が、筐体方向の横に向かって進路変更するような、周囲人物が容易に認識できないような走行を行うことがなく、安心感を向上させることができる。 For example, the autonomous mobile robot 12 sets a traveling mode 1 in which the robot 12 changes the direction of the housing when changing the course and travels when the relationship of moving with a surrounding person is the highest. As a result, the autonomous mobile robot 12 travels so that the front in the housing direction always faces the traveling direction, so that the surrounding person can easily recognize the traveling direction by the housing direction of the autonomous mobile robot 12. be able to. In this case, the autonomous mobile robot 12 does not travel in a way that the surrounding people cannot easily recognize, such as changing the course toward the side in the direction of the housing, and the sense of security can be improved.

また、自律移動型ロボット12は、周囲人物と一緒に移動を行わないが、視認可能な周囲人物がいるという程度の関係度(周囲人物と一緒に移動を行うよりも低い関係度)の場合には、進路を提示するために進行方向および方向転換の表現を行って走行する走行モード2を設定する。これにより、自律移動型ロボット12は、筐体方向の横に向かって進路変更するような走行を行う際に、進行方向および方向転換の表現により進路を提示することで、周囲人物に対して、自律移動型ロボット12の進路を確実に認識させることができる。 Further, the autonomous mobile robot 12 does not move with the surrounding person, but has a degree of relationship (lower relationship than moving with the surrounding person) to the extent that there is a visible surrounding person. Sets the traveling mode 2 in which the vehicle travels by expressing the traveling direction and the direction change in order to present the course. As a result, the autonomous mobile robot 12 presents the course in terms of the direction of travel and the change of direction when traveling so as to change the course toward the side in the direction of the housing, thereby causing the surrounding person to know the course. The course of the autonomous mobile robot 12 can be reliably recognized.

そして、自律移動型ロボット12は、周囲人物と一緒に移動を行わず、かつ、視認可能な周囲人物がいないという関係度が最も低い場合には、進路を提示するための進行方向および方向転換の表現を行わず、かつ、進路を変更する際に筐体の方向転換を行わずに走行する走行モード3を設定する。即ち、この場合、自律移動型ロボット12の進路を周囲人物に認識させる必要がないため、自律移動型ロボット12は、進路を提示せずに、効率の良い走行(例えば、筐体方向の前方が常に進行方向に向かうような走行は効率が悪い)を行う。 Then, when the autonomous mobile robot 12 does not move with the surrounding person and the degree of relation that there is no visible surrounding person is the lowest, the traveling direction and the direction change for presenting the course are changed. A traveling mode 3 is set in which the vehicle travels without expression and without changing the direction of the housing when changing the course. That is, in this case, since it is not necessary for the surrounding person to recognize the course of the autonomous mobile robot 12, the autonomous mobile robot 12 does not present the course and travels efficiently (for example, the front in the housing direction). It is inefficient to drive in the direction of travel).

このように、自律移動型ロボット12は、周囲人物との関係度に応じた走行モードで駆動制御および表示制御を行うことで、進路の提示方法について改善を図ることができる。例えば、周囲人物との関係度が高いほど安心感を向上させるような進路の提示や、周囲人物の学習負荷を低下させるように作用する進路の提示(駆動や表現など)を行うことができる。 As described above, the autonomous mobile robot 12 can improve the method of presenting the course by performing the drive control and the display control in the traveling mode according to the degree of relationship with the surrounding person. For example, it is possible to present a course that improves the sense of security as the degree of relationship with the surrounding person is higher, or to present a course that acts to reduce the learning load of the surrounding person (driving, expression, etc.).

なお、演算部22は、ステップS12における行動内容認識処理の認識結果そのものを関係度として用いて、行動内容を考慮した走行モードの設定を行ってもよい。例えば、演算部22は、行動内容認識処理の認識結果が、自律移動型ロボット12が周囲人物と一緒に移動することを示している場合には走行モード1を設定することができる。同様に、演算部22は、ステップS11における人物検出処理の検出結果そのものを関係度として用いて、周辺人物の有無を考慮した走行モードの設定を行ってもよい。例えば、演算部22は、人物検出処理の検出結果が、周囲人物がいることを示している場合には走行モード2を設定し、周囲人物がいないことを示している場合には走行モード3を設定することができる。 The calculation unit 22 may set the traveling mode in consideration of the action content by using the recognition result itself of the action content recognition process in step S12 as the degree of relationship. For example, the calculation unit 22 can set the traveling mode 1 when the recognition result of the action content recognition process indicates that the autonomous mobile robot 12 moves together with a surrounding person. Similarly, the calculation unit 22 may set the traveling mode in consideration of the presence or absence of surrounding persons by using the detection result itself of the person detection process in step S11 as the degree of relationship. For example, the calculation unit 22 sets the traveling mode 2 when the detection result of the person detection process indicates that there is a surrounding person, and sets the traveling mode 3 when it indicates that there is no surrounding person. Can be set.

ここで、自律移動型ロボット12の3つの走行モード1乃至走行モード3は、進路を変更する際に筐体の方向転換を行うか否か、および、進路を提示するための進行方向および方向転換の表現を行うか否かに基づいて、5つの走行パターンに当て嵌めることができる。 Here, the three traveling modes 1 to 3 of the autonomous mobile robot 12 determine whether or not to change the direction of the housing when changing the course, and the traveling direction and the direction change for presenting the course. It can be applied to five running patterns based on whether or not the expression of is performed.

図6を参照して、自律移動型ロボット12における走行パターンおよび走行モードの関係について説明する。 The relationship between the traveling pattern and the traveling mode in the autonomous mobile robot 12 will be described with reference to FIG.

図6に示すように、走行パターンA乃至Eは、自律移動型ロボット12の進路を提示するための表示部24による進行方向および方向転換の表現が行われるか否か、並びに、自律移動型ロボット12の進路を変更するための駆動部23による方向転換の駆動が行われるか否かの組み合わせに従って分類される。 As shown in FIG. 6, in the traveling patterns A to E, whether or not the traveling direction and the direction change are expressed by the display unit 24 for presenting the course of the autonomous mobile robot 12, and the autonomous mobile robot. It is classified according to the combination of whether or not the driving unit 23 for changing the course of the twelve is driven to change the direction.

走行パターンAでは、自律移動型ロボット12の進路を提示するための表示部24による進行方向および方向転換の表現は行われない。また、走行パターンAでは、自律移動型ロボット12の進路を変更するための駆動部23による方向転換の駆動は行われない。 In the traveling pattern A, the traveling direction and the direction change are not expressed by the display unit 24 for presenting the course of the autonomous mobile robot 12. Further, in the traveling pattern A, the driving unit 23 for changing the course of the autonomous mobile robot 12 does not drive the direction change.

走行パターンBでは、自律移動型ロボット12の進路を提示するための表示部24による進行方向および方向転換の表現は行われない。また、走行パターンBでは、自律移動型ロボット12の進路を変更するための駆動部23による方向転換の駆動が行われる。 In the traveling pattern B, the traveling direction and the direction change are not expressed by the display unit 24 for presenting the course of the autonomous mobile robot 12. Further, in the traveling pattern B, the driving unit 23 for changing the course of the autonomous mobile robot 12 drives the direction change.

走行パターンCでは、自律移動型ロボット12の進路を提示するための表示部24による進行方向の表現が行われ、表示部24による方向転換の表現は行われない。また、走行パターンCでは、自律移動型ロボット12の進路を変更するための駆動部23による方向転換の駆動が行われる。 In the traveling pattern C, the display unit 24 expresses the traveling direction for presenting the course of the autonomous mobile robot 12, and the display unit 24 does not express the direction change. Further, in the traveling pattern C, the driving unit 23 for changing the course of the autonomous mobile robot 12 drives the direction change.

走行パターンDでは、自律移動型ロボット12の進路を提示するための表示部24による進行方向および方向転換の表現が行われる。また、走行パターンDでは、自律移動型ロボット12の進路を変更するための駆動部23による方向転換の駆動は行われない。 In the traveling pattern D, the traveling direction and the direction change are expressed by the display unit 24 for presenting the course of the autonomous mobile robot 12. Further, in the traveling pattern D, the driving unit 23 for changing the course of the autonomous mobile robot 12 does not drive the direction change.

走行パターンEでは、自律移動型ロボット12の進路を提示するための表示部24による進行方向および方向転換の表現が行われる。また、走行パターンEでは、自律移動型ロボット12の進路を変更するための駆動部23による方向転換の駆動が行われる。 In the traveling pattern E, the traveling direction and the direction change are expressed by the display unit 24 for presenting the course of the autonomous mobile robot 12. Further, in the traveling pattern E, the driving unit 23 for changing the course of the autonomous mobile robot 12 drives the direction change.

従って、図5のフローチャートを参照して説明したように、自律移動型ロボット12が周囲人物と一緒に移動を行う場合に設定される走行モード1には、進路を変更するために駆動部23による方向転換の駆動が行われる走行パターンBまたはCが適用される。 Therefore, as described with reference to the flowchart of FIG. 5, in the traveling mode 1 set when the autonomous mobile robot 12 moves together with the surrounding people, the driving unit 23 is used to change the course. A travel pattern B or C in which the direction change is driven is applied.

また、自律移動型ロボット12が周囲人物と一緒に移動を行わず、かつ、自律移動型ロボット12を視認可能な周囲人物がいる場合に設定される走行モード2には、進路を提示するために表示部24による進行方向および方向転換の表現が行われる走行パターンDまたはEが適用される。 Further, in order to present a course in the traveling mode 2 set when the autonomous mobile robot 12 does not move with the surrounding person and there is a surrounding person who can see the autonomous mobile robot 12. A traveling pattern D or E in which the traveling direction and the direction change are expressed by the display unit 24 is applied.

また、自律移動型ロボット12が周囲人物と一緒に移動を行わず、かつ、自律移動型ロボット12を視認可能な周囲人物がいない場合に設定される走行モード3には、進路を提示するために表示部24による進行方向および方向転換の表現が行われないともに、進路を変更するために駆動部23による方向転換の駆動が行われない走行パターンAが適用される。 Further, in order to present a course in the traveling mode 3 set when the autonomous mobile robot 12 does not move with the surrounding person and there is no surrounding person who can see the autonomous mobile robot 12. A traveling pattern A is applied in which the display unit 24 does not express the traveling direction and the direction change, and the driving unit 23 does not drive the direction change in order to change the course.

ここで、以下では、図7に示すような2種類の通路Aおよび通路Bに対する自律移動型ロボット12の走行パターンについて説明する。 Here, the traveling patterns of the autonomous mobile robot 12 with respect to the two types of passages A and B as shown in FIG. 7 will be described below.

即ち、図7のAには、90°単位で進路が折れ曲がるような通路Aが示されている。従って、例えば、自律移動型ロボット12の筐体が正方形である場合、自律移動型ロボット12の側面の方向と、進路が曲がる方向とが一致する。 That is, A in FIG. 7 shows a passage A in which the course bends in units of 90 °. Therefore, for example, when the housing of the autonomous mobile robot 12 is square, the direction of the side surface of the autonomous mobile robot 12 and the direction in which the path turns coincide with each other.

また、図7のBには、90°以外の角度(例えば、図示するような鋭角)で通路が折れ曲がるような通路Bが示されている。従って、例えば、自律移動型ロボット12の筐体が正方形である場合、自律移動型ロボット12の側面の方向と、進路が曲がる方向とは一致しない。 Further, B in FIG. 7 shows a passage B in which the passage bends at an angle other than 90 ° (for example, an acute angle as shown in the figure). Therefore, for example, when the housing of the autonomous mobile robot 12 is square, the direction of the side surface of the autonomous mobile robot 12 and the direction in which the course turns do not match.

なお、図7に示されている通路地点P1乃至P4は、通路Aおよび通路Bにおいて、自律移動型ロボット12の駆動制御および表示制御が変更される地点を示している。例えば、通路地点P1は、走行を開始するように駆動制御を行う地点を示しており、通路地点P2は、曲がり角に差し掛かるために走行を停止するように駆動制御を行う地点を示している。また、通路地点P3は、曲がり角において旋回などを行う際の駆動制御が終了する地点を示しており、通路地点P4は、走行を終了するように駆動制御を行う地点を示している。 The passage points P1 to P4 shown in FIG. 7 indicate points in the passage A and the passage B where the drive control and display control of the autonomous mobile robot 12 are changed. For example, the passage point P1 indicates a point where drive control is performed so as to start traveling, and the passage point P2 indicates a point where drive control is performed so as to stop traveling in order to reach a corner. Further, the passage point P3 indicates a point at which the drive control at the time of turning or the like ends at a corner, and the passage point P4 indicates a point at which the drive control is performed so as to end the traveling.

図8を参照して、複数の発光部がライン状に配置されて自律移動型ロボット12の表示部24が構成される構成例と、その構成例における発光部の発光強度について説明する。 With reference to FIG. 8, a configuration example in which a plurality of light emitting units are arranged in a line to form a display unit 24 of the autonomous mobile robot 12 and a light emitting intensity of the light emitting unit in the configuration example will be described.

図8のAには、表示部24の構成例が示されており、図8のBには、表示部24における発光部の発光強度の一例が示されている。 A of FIG. 8 shows a configuration example of the display unit 24, and B of FIG. 8 shows an example of the emission intensity of the light emitting unit of the display unit 24.

図8のAでは表示部24の構成が簡易的に示されており、自律移動型ロボット12の筐体を正方形として、その外周の各側面を5分割し、16個の発光部L1乃至L16が配置された構成例となっている。例えば、黒塗りの矢印が示す方向を自律移動型ロボット12の筐体方向の前方とし、自律移動型ロボット12の前方右端に発光部L1を割り当て、左回りに順番に、発光部L2乃至L16が割り当てられている。また、以下の説明では、筐体方向の前方を0°として、右回りに、筐体方向の右方(図7の通路Aで曲がる方向)を90°とし、筐体方向の右後方(図7の通路Bで曲がる方向)を135°とする。 In A of FIG. 8, the configuration of the display unit 24 is simply shown. The housing of the autonomous mobile robot 12 is a square, and each side surface of the outer circumference thereof is divided into five, and 16 light emitting units L1 to L16 are formed. It is an arranged configuration example. For example, the direction indicated by the black arrow is the front of the autonomous mobile robot 12 in the housing direction, the light emitting unit L1 is assigned to the front right end of the autonomous mobile robot 12, and the light emitting units L2 to L16 are sequentially arranged counterclockwise. Assigned. Further, in the following description, the front in the housing direction is 0 °, the right side in the housing direction (the direction of bending in the passage A in FIG. 7) is 90 ° in the clockwise direction, and the right rear in the housing direction (FIG. 7). The direction of turning in the passage B of 7) is 135 °.

従って、自律移動型ロボット12が筐体方向の前方に向かって移動する場合、表示部24は、進行方向に従って筐体方向の前面中央部に配置されている発光部L3の表示強度を最も高くすることで、進行方向を表現することができる。 Therefore, when the autonomous mobile robot 12 moves toward the front in the housing direction, the display unit 24 maximizes the display intensity of the light emitting unit L3 arranged in the front center portion in the housing direction according to the traveling direction. By doing so, the direction of travel can be expressed.

図8のBには、表示強度が高くなるのに従って濃くなり、表示強度が低くなるのに従って薄くなるようなグラデーションで、表示部24による進行方向の表現が表されている。従って、自律移動型ロボット12が筐体方向の前方に向かって移動し、発光部L3の表示強度が最も高くなる場合には、筐体方向の前面中央部における表示強度が最も高くなる。 In FIG. 8B, the display unit 24 expresses the traveling direction with a gradation that becomes darker as the display intensity increases and becomes lighter as the display intensity decreases. Therefore, when the autonomous mobile robot 12 moves toward the front in the housing direction and the display intensity of the light emitting unit L3 is the highest, the display intensity in the front center portion in the housing direction is the highest.

<走行パターンに従った進路変更>
図9乃至図20を参照して、図6に示した走行パターンA乃至走行パターンEに従って進路変更を行う際の駆動制御および表示制御について説明する。
<Course change according to driving pattern>
With reference to FIGS. 9 to 20, drive control and display control when changing the course according to the traveling patterns A to E shown in FIG. 6 will be described.

図9には、通路Aにおける走行パターンAでの進路変更の一例が示されており、図10には、通路Bにおける走行パターンAでの進路変更の一例が示されている。 FIG. 9 shows an example of a course change in the traveling pattern A in the passage A, and FIG. 10 shows an example of the course change in the traveling pattern A in the passage B.

図9に示すように、通路Aにおいて、演算部22は、通路地点P1から筐体方向の前方(0°)に向かって移動を開始するように駆動部23に対する駆動制御を行い、通路地点P2まで移動した後に停止するように駆動部23に対する駆動制御を行う。そして、演算部22は、自律移動型ロボット12の筐体方向を方向転換させることなく、通路地点P3から筐体方向の右方(90°)に向かうように進行方向を変更して移動を再開するように駆動部23に対する駆動制御を行い、通路地点P4まで移動した後に停止するように駆動部23に対する駆動制御を行う。なお、走行パターンAでは、これらの駆動制御が行われる間、演算部22は、表示部24に対する表示制御は行わない。 As shown in FIG. 9, in the passage A, the calculation unit 22 performs drive control on the drive unit 23 so as to start moving from the passage point P1 toward the front (0 °) in the housing direction, and the passage point P2. Drive control is performed on the drive unit 23 so as to stop after moving to. Then, the calculation unit 22 changes the traveling direction so as to move from the passage point P3 to the right (90 °) in the housing direction without changing the direction of the housing of the autonomous mobile robot 12, and resumes the movement. Drive control is performed on the drive unit 23 so as to be performed, and drive control is performed on the drive unit 23 so as to stop after moving to the passage point P4. In the traveling pattern A, the calculation unit 22 does not perform display control on the display unit 24 while these drive controls are performed.

図10に示すように、通路Bにおいて、演算部22は、通路地点P1から筐体方向の前方(0°)に向かって移動を開始するように駆動部23に対する駆動制御を行い、通路地点P2まで移動した後に停止するように駆動部23に対する駆動制御を行う。そして、演算部22は、自律移動型ロボット12の筐体方向を方向転換させることなく、通路地点P3から筐体方向の右後方(135°)に向かうように進行方向を変更して移動を再開するように駆動部23に対する駆動制御を行い、通路地点P4まで移動した後に停止するように駆動部23に対する駆動制御を行う。なお、走行パターンAでは、これらの駆動制御が行われる間、演算部22は、表示部24に対する表示制御は行わない。 As shown in FIG. 10, in the passage B, the calculation unit 22 performs drive control on the drive unit 23 so as to start moving from the passage point P1 toward the front (0 °) in the housing direction, and the passage point P2. Drive control is performed on the drive unit 23 so as to stop after moving to. Then, the calculation unit 22 changes the traveling direction so as to move from the passage point P3 to the right rear (135 °) in the housing direction without changing the direction of the housing of the autonomous mobile robot 12, and resumes the movement. Drive control is performed on the drive unit 23 so as to be performed, and drive control is performed on the drive unit 23 so as to stop after moving to the passage point P4. In the traveling pattern A, the calculation unit 22 does not perform display control on the display unit 24 while these drive controls are performed.

このように、走行パターンAでは、自律移動型ロボット12の進路を提示するための表示部24による進行方向および方向転換の表現は行われず、かつ、自律移動型ロボット12の進路を変更するための駆動部23による方向転換の駆動は行われない。従って、走行パターンAでは、自律移動型ロボット12は、通路Aおよび通路Bどちらにおいても、進行方向および方向転換を提示せずに、平行移動するように筐体方向を一定の方向に維持したまま進路変更を行う。 As described above, in the traveling pattern A, the traveling direction and the direction change are not expressed by the display unit 24 for presenting the course of the autonomous mobile robot 12, and the course of the autonomous mobile robot 12 is changed. The drive unit 23 does not drive the change of direction. Therefore, in the traveling pattern A, the autonomous mobile robot 12 keeps the housing direction in a fixed direction so as to move in parallel without presenting the traveling direction and the direction change in both the passage A and the passage B. Change course.

図11には、通路Aにおける走行パターンBでの進路変更の一例が示されており、図12には、通路Bにおける走行パターンBでの進路変更の一例が示されている。 FIG. 11 shows an example of a course change in the traveling pattern B in the passage A, and FIG. 12 shows an example of the course change in the traveling pattern B in the passage B.

図11に示すように、通路Aにおいて、演算部22は、通路地点P1から筐体方向の前方(0°)に向かって移動を開始するように駆動部23に対する駆動制御を行い、通路地点P2まで移動した後に停止するように駆動部23に対する駆動制御を行う。そして、演算部22は、自律移動型ロボット12の筐体方向を右回転で90°転換させた後、通路地点P3から筐体方向の前方(0°)に向かって移動を再開するように駆動部23に対する駆動制御を行い、通路地点P4まで移動した後に停止するように駆動部23に対する駆動制御を行う。なお、走行パターンBでは、これらの駆動制御が行われる間、演算部22は、表示部24に対する表示制御は行わない。 As shown in FIG. 11, in the passage A, the calculation unit 22 performs drive control on the drive unit 23 so as to start moving from the passage point P1 toward the front (0 °) in the housing direction, and the passage point P2. Drive control is performed on the drive unit 23 so as to stop after moving to. Then, the calculation unit 22 is driven so as to change the housing direction of the autonomous mobile robot 12 by 90 ° by rotating clockwise and then restart the movement from the passage point P3 toward the front (0 °) in the housing direction. Drive control is performed on the drive unit 23, and drive control is performed on the drive unit 23 so as to stop after moving to the passage point P4. In the traveling pattern B, the calculation unit 22 does not perform display control on the display unit 24 while these drive controls are performed.

図12に示すように、通路Bにおいて、演算部22は、通路地点P1から筐体方向の前方(0°)に向かって移動を開始するように駆動部23に対する駆動制御を行い、通路地点P2まで移動した後に停止するように駆動部23に対する駆動制御を行う。そして、演算部22は、自律移動型ロボット12の筐体方向を右回転で135°転換させた後、通路地点P3から筐体方向の前方(0°)に向かって移動を再開するように駆動部23に対する駆動制御を行い、通路地点P4まで移動した後に停止するように駆動部23に対する駆動制御を行う。なお、走行パターンBでは、これらの駆動制御が行われる間、演算部22は、表示部24に対する表示制御は行わない。 As shown in FIG. 12, in the passage B, the calculation unit 22 performs drive control on the drive unit 23 so as to start moving from the passage point P1 toward the front (0 °) in the housing direction, and the passage point P2. Drive control is performed on the drive unit 23 so as to stop after moving to. Then, the calculation unit 22 is driven so as to change the housing direction of the autonomous mobile robot 12 by 135 ° by rotating clockwise and then restart the movement from the passage point P3 toward the front (0 °) in the housing direction. Drive control is performed on the drive unit 23, and drive control is performed on the drive unit 23 so as to stop after moving to the passage point P4. In the traveling pattern B, the calculation unit 22 does not perform display control on the display unit 24 while these drive controls are performed.

このように、走行パターンBでは、自律移動型ロボット12の進路を提示するための表示部24による進行方向および方向転換の表現は行われない一方で、自律移動型ロボット12の進路を変更するための駆動部23による方向転換の駆動が行われる。従って、走行パターンBでは、自律移動型ロボット12は、通路Aおよび通路Bどちらにおいても、進行方向および方向転換を提示せずに、通路の角度に応じて筐体方向を転換させて進路変更を行う。 As described above, in the traveling pattern B, the traveling direction and the direction change are not expressed by the display unit 24 for presenting the course of the autonomous moving robot 12, but the course of the autonomous moving robot 12 is changed. The driving unit 23 of the above drives the direction change. Therefore, in the traveling pattern B, the autonomous mobile robot 12 changes the course by changing the housing direction according to the angle of the passage without presenting the traveling direction and the direction change in both the passage A and the passage B. conduct.

図13には、通路Aにおける走行パターンCでの進路変更の一例が示されており、図14には、通路Bにおける走行パターンCでの進路変更の一例が示されている。また、図15には、走行パターンCで進路変更する際に通路地点P1乃至P4において表示最高強度となる発光部が示されている。 FIG. 13 shows an example of a course change in the traveling pattern C in the passage A, and FIG. 14 shows an example of the course change in the traveling pattern C in the passage B. Further, FIG. 15 shows a light emitting portion having the highest display intensity at the passage points P1 to P4 when the course is changed in the traveling pattern C.

図13に示すように、通路Aにおいて、演算部22は、通路地点P1から筐体方向の前方(0°)に向かって移動を開始するように駆動部23に対する駆動制御を行うとともに、進行方向に従って筐体方向の前面中央部が最強強度で発光するように表示部24に対する表示制御を行う。また、演算部22は、通路地点P2まで移動した後に停止するように駆動部23に対する駆動制御を行う際、それまでの進行方向に従った筐体方向の前面中央部が最強強度で発光するように表示部24に対する表示制御を行う。 As shown in FIG. 13, in the passage A, the calculation unit 22 performs drive control on the drive unit 23 so as to start moving from the passage point P1 toward the front (0 °) in the housing direction, and also in the traveling direction. According to this, display control is performed on the display unit 24 so that the central portion of the front surface in the direction of the housing emits light with the strongest intensity. Further, when the calculation unit 22 performs drive control on the drive unit 23 so as to stop after moving to the passage point P2, the front central portion in the housing direction according to the traveling direction up to that point emits light with the strongest intensity. Display control for the display unit 24 is performed.

そして、演算部22は、自律移動型ロボット12の筐体方向を右回転で90°転換させる。このとき、自律移動型ロボット12の筐体方向が転換するのに応じて、進行方向の前方となる筐体方向の前面中央部が最強強度で発光したままの状態となる。その後、演算部22は、通路地点P3から筐体方向の前方(0°)に向かって移動を再開するように駆動部23に対する駆動制御を行い、通路地点P4まで移動した後に停止するように駆動部23に対する駆動制御を行う。 Then, the calculation unit 22 changes the housing direction of the autonomous mobile robot 12 by 90 ° by rotating clockwise. At this time, as the housing direction of the autonomous mobile robot 12 changes, the front central portion in the housing direction, which is in front of the traveling direction, remains emitting light at the strongest intensity. After that, the calculation unit 22 performs drive control on the drive unit 23 so as to restart the movement from the passage point P3 toward the front (0 °) in the housing direction, and drives the drive unit 22 to stop after moving to the passage point P4. Drive control is performed on the unit 23.

図14に示すように、通路Bにおいて、演算部22は、通路地点P1から筐体方向の前方(0°)に向かって移動を開始するように駆動部23に対する駆動制御を行うとともに、進行方向に従って筐体方向の前面中央部が最強強度で発光するように表示部24に対する表示制御を行う。また、演算部22は、通路地点P2まで移動した後に停止するように駆動部23に対する駆動制御を行う際、それまでの進行方向に従った筐体方向の前面中央部が最強強度で発光するように表示部24に対する表示制御を行う。 As shown in FIG. 14, in the passage B, the calculation unit 22 performs drive control on the drive unit 23 so as to start moving from the passage point P1 toward the front (0 °) in the housing direction, and also in the traveling direction. According to this, display control is performed on the display unit 24 so that the central portion of the front surface in the direction of the housing emits light with the strongest intensity. Further, when the calculation unit 22 performs drive control on the drive unit 23 so as to stop after moving to the passage point P2, the front central portion in the housing direction according to the traveling direction up to that point emits light with the strongest intensity. Display control for the display unit 24 is performed.

そして、演算部22は、自律移動型ロボット12の筐体方向を右回転で135°転換させる。このとき、自律移動型ロボット12の筐体方向が転換するのに応じて、進行方向の前方となる筐体方向の前面中央部が最強強度で発光したままの状態となる。その後、演算部22は、通路地点P3から筐体方向の前方(0°)に向かって移動を再開するように駆動部23に対する駆動制御を行い、通路地点P4まで移動した後に停止するように駆動部23に対する駆動制御を行う。 Then, the calculation unit 22 changes the housing direction of the autonomous mobile robot 12 by 135 ° by rotating clockwise. At this time, as the housing direction of the autonomous mobile robot 12 changes, the front central portion in the housing direction, which is in front of the traveling direction, remains emitting light at the strongest intensity. After that, the calculation unit 22 performs drive control on the drive unit 23 so as to restart the movement from the passage point P3 toward the front (0 °) in the housing direction, and drives the drive unit 22 to stop after moving to the passage point P4. Drive control is performed on the unit 23.

このように、走行パターンCでは、自律移動型ロボット12の進路を提示するための表示部24による進行方向の表現(筐体方向の前面中央部が最強強度で発光)が行われ、かつ、自律移動型ロボット12の進路を変更するための駆動部23による方向転換の駆動が行われる。このとき、自律移動型ロボット12が方向転換するのに伴って、筐体方向の前面の向きも方向転換されるため、自律移動型ロボット12の進路を提示するための表示部24による方向転換の表現(例えば、最強強度で発光する発光部の移動)は行われない。従って、走行パターンCでは、自律移動型ロボット12は、通路Aおよび通路Bどちらにおいても、進行方向の表現は行われる一方で方向転換の表現は行われず、かつ、通路の角度に応じて筐体方向を転換させて進路変更を行う。 In this way, in the traveling pattern C, the traveling direction is expressed by the display unit 24 for presenting the course of the autonomous mobile robot 12 (the front central portion in the housing direction emits light with the strongest intensity) and is autonomous. The driving unit 23 for changing the course of the mobile robot 12 drives the direction change. At this time, as the autonomous mobile robot 12 changes direction, the direction of the front surface in the housing direction also changes, so that the display unit 24 for presenting the course of the autonomous mobile robot 12 changes the direction. No expression (for example, movement of the light emitting part that emits light at the strongest intensity) is performed. Therefore, in the traveling pattern C, in the autonomous mobile robot 12, the traveling direction is expressed in both the passage A and the passage B, but the direction change is not expressed, and the housing is changed according to the angle of the passage. Change direction and change course.

つまり、走行パターンCでは、自律移動型ロボット12の筐体方向の前方が常に進行方向となるため、図15のAに示すように、表示部24は、筐体方向の前面中央部にある発光部L3を最高強度で発光させる。そして、走行パターンCでは、自律移動型ロボット12の筐体方向の前面が、常に、進行方向の前方を向くことになるため、図15のBに示すように、通路地点P1乃至P4のいずれにおいても、発光部L3が表示最高強度となる。 That is, in the traveling pattern C, the front of the autonomous mobile robot 12 in the housing direction is always the traveling direction. Therefore, as shown in FIG. 15A, the display unit 24 emits light at the center of the front surface in the housing direction. The part L3 is made to emit light at the highest intensity. Then, in the traveling pattern C, the front surface of the autonomous mobile robot 12 in the housing direction always faces the front in the traveling direction. Therefore, as shown in FIG. 15B, at any of the passage points P1 to P4. However, the light emitting unit L3 has the maximum display intensity.

図16には、通路Aにおける走行パターンDでの進路変更の一例が示されており、図17には、通路Bにおける走行パターンDでの進路変更の一例が示されている。また、図18には、走行パターンDで進路変更する際に通路地点P1乃至P4において表示最高強度となる発光部が示されている。 FIG. 16 shows an example of a course change in the traveling pattern D in the passage A, and FIG. 17 shows an example of a course change in the traveling pattern D in the passage B. Further, FIG. 18 shows a light emitting portion having the highest display intensity at the passage points P1 to P4 when the course is changed in the traveling pattern D.

図16に示すように、通路Aにおいて、演算部22は、通路地点P1から筐体方向の前方(0°)に向かって移動を開始するように駆動部23に対する駆動制御を行うとともに、進行方向に従って筐体方向の前面中央部が最強強度で発光するように表示部24に対する表示制御を行う。また、演算部22は、通路地点P2まで移動した後に停止するように駆動部23に対する駆動制御を行った後、自律移動型ロボット12の筐体方向を方向転換させずに右方(90°)に進行方向を方向転換するのに応じて、最強強度での発光を移動させるように表示部24に対する表示制御を行う。 As shown in FIG. 16, in the passage A, the calculation unit 22 performs drive control on the drive unit 23 so as to start moving from the passage point P1 toward the front (0 °) in the housing direction, and also in the traveling direction. According to this, display control is performed on the display unit 24 so that the central portion of the front surface in the direction of the housing emits light with the strongest intensity. Further, the calculation unit 22 performs drive control on the drive unit 23 so as to stop after moving to the passage point P2, and then moves to the right (90 °) without changing the direction of the housing of the autonomous mobile robot 12. The display control is performed on the display unit 24 so as to move the light emission at the strongest intensity according to the change of the direction of travel.

従って、表示部24は、筐体方向の前面中央部から移動させ、進行方向に従った筐体方向の右面中央部を最強強度で発光させる。その後、演算部22は、通路地点P3から筐体方向の右方(90°)に向かって移動を再開するように駆動部23に対する駆動制御を行い、通路地点P4まで移動した後に停止するように駆動部23に対する駆動制御を行う。 Therefore, the display unit 24 is moved from the front center portion in the housing direction, and emits light at the strongest intensity in the right surface center portion in the housing direction according to the traveling direction. After that, the calculation unit 22 performs drive control on the drive unit 23 so as to restart the movement from the passage point P3 toward the right side (90 °) toward the housing, and stops after moving to the passage point P4. Drive control is performed on the drive unit 23.

図17に示すように、通路Bにおいて、演算部22は、通路地点P1から筐体方向の前方(0°)に向かって移動を開始するように駆動部23に対する駆動制御を行うとともに、進行方向に従って筐体方向の前面中央部が最強強度で発光するように表示部24に対する表示制御を行う。また、演算部22は、通路地点P2まで移動した後に停止するように駆動部23に対する駆動制御を行った後、自律移動型ロボット12の筐体方向を方向転換させずに右後方(135°)に進行方向を方向転換するのに応じて、最強強度での発光を移動させるように表示部24に対する表示制御を行う。 As shown in FIG. 17, in the passage B, the calculation unit 22 performs drive control on the drive unit 23 so as to start moving from the passage point P1 toward the front (0 °) in the housing direction, and also in the traveling direction. According to this, display control is performed on the display unit 24 so that the central portion of the front surface in the direction of the housing emits light with the strongest intensity. Further, the calculation unit 22 performs drive control on the drive unit 23 so as to stop after moving to the passage point P2, and then right rearward (135 °) without changing the direction of the housing of the autonomous mobile robot 12. The display control is performed on the display unit 24 so as to move the light emission at the strongest intensity according to the change of the direction of travel.

従って、表示部24は、筐体方向の前面中央部から移動させ、進行方向に従った筐体方向の右後方端部を最強強度で発光させる。その後、演算部22は、通路地点P3から筐体方向の右後方(135°)に向かって移動を再開するように駆動部23に対する駆動制御を行い、通路地点P4まで移動した後に停止するように駆動部23に対する駆動制御を行う。 Therefore, the display unit 24 is moved from the front center portion in the housing direction, and the right rear end portion in the housing direction according to the traveling direction is made to emit light with the strongest intensity. After that, the calculation unit 22 performs drive control on the drive unit 23 so as to restart the movement from the passage point P3 toward the right rear (135 °) in the housing direction, and stops after moving to the passage point P4. Drive control is performed on the drive unit 23.

このように、走行パターンDでは、表示部24により自律移動型ロボット12の筐体方向の前面中央部が最強強度で発光することで進行方向の提示が行われた後、その最強強度での発光を移動させることで、進行方向の方向転換の提示が行われる。また、駆動部23による自律移動型ロボット12の筐体方向の方向転換は行われない。従って、走行パターンDでは、自律移動型ロボット12は、通路Aおよび通路Bどちらにおいても、進行方向および方向転換を提示し、かつ、平行移動するように筐体方向を一定の方向に維持したまま進路変更を行う。 As described above, in the traveling pattern D, the display unit 24 emits light at the front center portion of the autonomous mobile robot 12 in the housing direction at the strongest intensity to indicate the traveling direction, and then emits light at the strongest intensity. By moving, a change of direction in the direction of travel is presented. Further, the drive unit 23 does not change the direction of the autonomous mobile robot 12 in the housing direction. Therefore, in the traveling pattern D, the autonomous mobile robot 12 presents a traveling direction and a change of direction in both the passage A and the passage B, and keeps the housing direction in a certain direction so as to move in parallel. Change course.

つまり、走行パターンDでは、図18のAに示すように、表示部24は、走行開始時の進行方向に従って、筐体方向の前面中央部にある発光部L3を最高強度で発光させる。そして、表示部24は進路変更に伴って、通路Aでは、筐体方向の右面中央部にある発光部L15を最高強度で発光させ、通路Bでは、筐体方向の右後方端部にある発光部L13を最高強度で発光させる。 That is, in the traveling pattern D, as shown in A of FIG. 18, the display unit 24 causes the light emitting unit L3 located at the center of the front surface in the housing direction to emit light at the maximum intensity according to the traveling direction at the start of traveling. Then, as the course changes, the display unit 24 causes the light emitting unit L15 located at the center of the right surface in the housing direction to emit light at the highest intensity in the passage A, and emits light at the right rear end portion in the housing direction in the passage B. The part L13 is made to emit light at the highest intensity.

従って、図18のBに示すように、通路地点P1から通路地点P2までの間は発光部L3が表示最高強度となる。そして、通路地点P2から通路地点P3までの間に、通路Aでは、発光部L3から発光部L15に向かって表示最高強度が変更され、通路Bでは、発光部L3から発光部L13に向かって表示最高強度が変更される。その後、通路地点P3から通路地点P4までの間は、通路Aでは発光部L15が表示最高強度となり、通路Bでは発光部L13が表示最高強度となる。 Therefore, as shown in B of FIG. 18, the light emitting unit L3 has the maximum display intensity between the passage point P1 and the passage point P2. Then, between the passage point P2 and the passage point P3, in the passage A, the maximum display intensity is changed from the light emitting unit L3 toward the light emitting unit L15, and in the passage B, the display is displayed from the light emitting unit L3 toward the light emitting unit L13. Maximum strength is changed. After that, between the passage point P3 and the passage point P4, the light emitting unit L15 has the maximum display intensity in the passage A, and the light emitting unit L13 has the maximum display intensity in the passage B.

このように、走行パターンDでは、進路変更に伴って、自律移動型ロボット12の筐体方向は一定の方向を維持したままであるが、表示部24により進行方向の前方が表示最高強度とする表現によって、自律移動型ロボット12の進路を適切に提示することができる。なお、通路地点P2から通路地点P3までの間における表示最高強度の変更は、図示するような曲線とする他、例えば、直線的な変化や2値変化、反対方向へオーバーシュートする変化などの表現を行ってもよい。 As described above, in the traveling pattern D, the housing direction of the autonomous mobile robot 12 is maintained at a constant direction as the course is changed, but the display unit 24 sets the front of the traveling direction as the maximum display intensity. The expression can appropriately present the course of the autonomous mobile robot 12. The change in the maximum display intensity between the passage point P2 and the passage point P3 is a curve as shown in the figure, and is also expressed as, for example, a linear change, a binary change, or a change that overshoots in the opposite direction. May be done.

図19には、通路Bにおける走行パターンEでの進路変更の一例が示されている。また、図20には、走行パターンEで進路変更する際に通路地点P1乃至P4において表示最高強度となる発光部が示されている。 FIG. 19 shows an example of a course change in the traveling pattern E in the passage B. Further, FIG. 20 shows a light emitting portion having the highest display intensity at the passage points P1 to P4 when the course is changed in the traveling pattern E.

図19に示すように、通路Bにおいて、演算部22は、通路地点P1から筐体方向の前方(0°)に向かって移動を開始するように駆動部23に対する駆動制御を行うとともに、進行方向に従って筐体方向の前面中央部が最強強度で発光するように表示部24に対する表示制御を行う。また、演算部22は、通路地点P2まで移動した後に停止するように駆動部23に対する駆動制御を行う。 As shown in FIG. 19, in the passage B, the calculation unit 22 performs drive control on the drive unit 23 so as to start moving from the passage point P1 toward the front (0 °) in the housing direction, and also in the traveling direction. According to this, display control is performed on the display unit 24 so that the central portion of the front surface in the direction of the housing emits light with the strongest intensity. Further, the calculation unit 22 performs drive control on the drive unit 23 so as to stop after moving to the passage point P2.

そして、演算部22は、自律移動型ロボット12の筐体方向を右回転で45°転換させるように駆動部23に対する駆動制御を行うとともに、進行方向が筐体方向の右方(90°)に方向転換するのに応じて、最強強度での発光を移動させるように表示部24に対する表示制御を行う。 Then, the calculation unit 22 controls the drive unit 23 so as to change the housing direction of the autonomous mobile robot 12 by 45 ° by rotating clockwise, and the traveling direction is to the right (90 °) of the housing direction. Display control is performed on the display unit 24 so as to move the light emission at the strongest intensity according to the change of direction.

従って、表示部24は、筐体方向の前面中央部から移動させ、進行方向に従った筐体方向の右面中央部を最強強度で発光させる。その後、演算部22は、通路地点P3から筐体方向の右方(90°)に向かって移動を再開するように駆動部23に対する駆動制御を行い、通路地点P4まで移動した後に停止するように駆動部23に対する駆動制御を行う。 Therefore, the display unit 24 is moved from the front center portion in the housing direction, and emits light at the strongest intensity in the right surface center portion in the housing direction according to the traveling direction. After that, the calculation unit 22 performs drive control on the drive unit 23 so as to restart the movement from the passage point P3 toward the right side (90 °) toward the housing, and stops after moving to the passage point P4. Drive control is performed on the drive unit 23.

つまり、走行パターンEでは、図20のAに示すように、表示部24により自律移動型ロボット12の筐体方向の前面中央部が最強強度で発光することで進行方向の提示が行われた後、その最強強度での発光を移動させることで、進行方向の方向転換の提示が行われる。従って、図20のBに示すように、通路地点P1から通路地点P2までの間は発光部L3が表示最高強度となり、通路地点P2から通路地点P3までの間に、発光部L3から発光部L15に向かって表示最高強度が変更される。その後、通路地点P3から通路地点P4までの間は、発光部L15が表示最高強度となる。 That is, in the traveling pattern E, as shown in A of FIG. 20, the display unit 24 causes the front center portion of the autonomous mobile robot 12 in the housing direction to emit light at the strongest intensity, so that the traveling direction is presented. By moving the light emission at the strongest intensity, the direction change of the traveling direction is presented. Therefore, as shown in B of FIG. 20, the light emitting unit L3 has the highest display intensity between the passage point P1 and the passage point P2, and the light emitting unit L3 to the light emitting unit L15 between the passage point P2 and the passage point P3. The maximum intensity displayed towards is changed. After that, between the passage point P3 and the passage point P4, the light emitting unit L15 has the maximum display intensity.

このとき、自律移動型ロボット12の進行方向は135°方向転換することになるが、筐体の側面方向を進行方向に一致させるように駆動による方向転換を行うことで、自律移動型ロボット12の筐体方向を右回転で45°転換させるだけでよい。即ち、駆動による筐体方向の方向転換(45°)と、最強強度での発光を移動させる方向転換(90°)とにより、自律移動型ロボット12の進路変更に伴う進路の方向転換(135°)を提示することができる。 At this time, the traveling direction of the autonomous mobile robot 12 is changed by 135 °, but by changing the direction by driving so that the side surface direction of the housing matches the traveling direction, the autonomous mobile robot 12 is changed. All that is required is to turn the housing direction clockwise by 45 °. That is, by changing the direction of the housing by driving (45 °) and changing the direction of moving the light emission at the strongest intensity (90 °), the direction of the path of the autonomous mobile robot 12 is changed (135 °). ) Can be presented.

つまり、走行パターンEは、走行パターンDでの移動表現を拡張したものとなっている。即ち、走行パターンDでは、通路Bの場合、自律移動型ロボット12の筐体の側面の向きと通路の向きとが一致していないため、表現によっては進行方向を示していても筐体の向きの不一致によって、周囲人物に対し違和感を与えることが想定される。そこで、走行パターンEでは、自律移動型ロボット12の筐体の向きと通路の向きとが一致する最小限の方向転換を駆動部23が行い、残りの方向転換を表示部24による表現によって補うことができる。 That is, the traveling pattern E is an extension of the movement expression in the traveling pattern D. That is, in the traveling pattern D, in the case of the passage B, the direction of the side surface of the housing of the autonomous mobile robot 12 and the direction of the passage do not match, so that the direction of the housing may be indicated depending on the expression. It is assumed that the disagreement will give a sense of discomfort to the surrounding people. Therefore, in the traveling pattern E, the drive unit 23 performs the minimum direction change in which the direction of the housing of the autonomous mobile robot 12 and the direction of the passage match, and the remaining direction change is supplemented by the expression by the display unit 24. Can be done.

このように、筐体側面と進行方向とを一致させる駆動制御および表示制御を一般化すると、自律移動型ロボット12の筐体が正多角形(n角形)である場合、進路変更の回転角度aに対して、筐体の回転角度Gおよび表現の回転角度Dは、次の式(1)により表される。 In this way, if the drive control and the display control that match the side surface of the housing and the traveling direction are generalized, when the housing of the autonomous mobile robot 12 is a regular polygon (n-sided polygon), the rotation angle a of the course change a. On the other hand, the rotation angle G of the housing and the rotation angle D of the expression are expressed by the following equation (1).

Figure 2021157203
Figure 2021157203

なお、走行パターンEにおいても表現による回転表現は、走行パターンDと同様に、図20に示すような曲線とする他、例えば、直線的な変化や2値変化、反対方向へオーバーシュートする変化などの表現を行ってもよい。 In the running pattern E as well, the rotation expression by the expression is a curve as shown in FIG. 20, as in the running pattern D, and for example, a linear change, a binary change, a change overshooting in the opposite direction, and the like. May be expressed as.

<表示強度の算出手法>
図21および図22を参照して、演算部22が表示部24における表示強度を算出する算出手法について説明する。
<Display strength calculation method>
A calculation method in which the calculation unit 22 calculates the display intensity in the display unit 24 will be described with reference to FIGS. 21 and 22.

図21を参照して、1次元ベクトルに基づく表示強度の算出手法について説明する。 A method of calculating the display intensity based on the one-dimensional vector will be described with reference to FIG.

図21には、図8に示したように、自律移動型ロボット12の筐体の外周に周方向に沿って配置されている16個の発光部L1乃至L16の配置位置を直線に展開し、表示強度の高い発光部からの距離で、他の発光部の強度を算出する例が示されている。つまり、自律移動型ロボット12の前面中央部に配置されている発光部L3の表示強度を最も高くした場合、発光部L3に対して最も対極に配置される発光部L11までの表示強度は、発光部L3からの距離に応じて降下するような緩やかな曲線で表される。 In FIG. 21, as shown in FIG. 8, the arrangement positions of the 16 light emitting units L1 to L16 arranged along the circumferential direction on the outer periphery of the housing of the autonomous mobile robot 12 are developed in a straight line. An example is shown in which the intensity of another light emitting unit is calculated based on the distance from the light emitting unit having a high display intensity. That is, when the display intensity of the light emitting unit L3 arranged at the center of the front surface of the autonomous mobile robot 12 is maximized, the display intensity up to the light emitting unit L11 arranged at the opposite pole to the light emitting unit L3 is light emission. It is represented by a gentle curve that descends according to the distance from the part L3.

なお、図21に示すような曲線は、表示部24を構成するLEDやディスプレイなどの特性に合わせて調整してもよく、直線的に表示強度が変化するようにしてもよい。 The curve as shown in FIG. 21 may be adjusted according to the characteristics of the LEDs and displays constituting the display unit 24, or the display intensity may be changed linearly.

図22を参照して、2次元平面の距離に基づく表示強度の算出手法について説明する。 A method of calculating the display intensity based on the distance in the two-dimensional plane will be described with reference to FIG.

図22のAには、自律移動型ロボット12の筐体の中心に対して定義される進行方向ベクトルの一例が示されている。図22のBには、自律移動型ロボット12の中心から進行方向上にある筐体の側面上の仮想中心点Bと、その仮想中心点Bを中心とした半径rの仮想的に生成される仮想円の一例が示されている。図22のCには、仮想円に基づいた表示強度で表現される表示部24の一例が示されている。 FIG. 22A shows an example of a traveling direction vector defined with respect to the center of the housing of the autonomous mobile robot 12. In B of FIG. 22, a virtual center point B on the side surface of the housing located in the traveling direction from the center of the autonomous mobile robot 12 and a radius r centered on the virtual center point B are virtually generated. An example of a virtual circle is shown. FIG. 22C shows an example of the display unit 24 represented by the display intensity based on the virtual circle.

即ち、図22のAに示すように進行方向ベクトルが定義された場合、その進行方向ベクトルと自律移動型ロボット12の筐体の側面との交点が、仮想中心点Bとして設定される。そして、仮想中心点Bを中心とした半径rの仮想円について、仮想円の中心が最高強度となり、仮想円の外周に向かって強度が低下するように、2次元平面の距離に基づいて表示強度が算出される。 That is, when the traveling direction vector is defined as shown in A of FIG. 22, the intersection of the traveling direction vector and the side surface of the housing of the autonomous mobile robot 12 is set as the virtual center point B. Then, for a virtual circle having a radius r centered on the virtual center point B, the display strength is based on the distance of the two-dimensional plane so that the center of the virtual circle has the highest strength and the strength decreases toward the outer circumference of the virtual circle. Is calculated.

例えば、図22のBに示すように、仮想中心点Bが含まれる発光部L4が最高強度となり、発光部L4に近いほど表示強度が高くなる。その結果、表示部24には、図22のCに示すように、表示強度が高くなるのに従って濃くなり、表示強度が低くなるのに従って薄くなるようなグラデーションで進行方向が表現される。 For example, as shown in B of FIG. 22, the light emitting portion L4 including the virtual center point B has the highest intensity, and the closer to the light emitting portion L4, the higher the display intensity. As a result, as shown in C of FIG. 22, the traveling direction is expressed on the display unit 24 with a gradation such that the display intensity becomes darker as the display intensity increases and the display intensity becomes lighter as the display intensity decreases.

なお、図22を参照して説明したのと同様に、例えば、図4のCに示したように表示部24Cにディスプレイが採用される構成では、仮想中心点Bを中心とした球体を用いた3次元的な距離に基づいた表示強度による表現も可能である。 As described with reference to FIG. 22, for example, in the configuration in which the display is adopted in the display unit 24C as shown in FIG. 4C, a sphere centered on the virtual center point B is used. It is also possible to express by display intensity based on a three-dimensional distance.

<表示のバリエーション>
図23乃至図28を参照して、表示部24による進行方向の表示のバリエーションについて説明する。
<Display variation>
A variation of display in the traveling direction by the display unit 24 will be described with reference to FIGS. 23 to 28.

図23には、ライン状に配置された複数のLEDを採用した構成の表示部24において、自律移動型ロボット12を上方から見て進行方向となる筐体方向の前方(発光部L3)を表示最高強度とした場合で進路を表現するバリエーションが示されている。なお、図4のCに示したように表示部24Cにディスプレイが採用される構成では、3次元的な表現を用いてもよい。 In FIG. 23, the display unit 24 having a configuration in which a plurality of LEDs arranged in a line shape is used to display the front side (light emitting unit L3) in the housing direction, which is the traveling direction when the autonomous mobile robot 12 is viewed from above. Variations that express the course are shown when the maximum strength is used. In the configuration in which the display is adopted in the display unit 24C as shown in C of FIG. 4, a three-dimensional expression may be used.

例えば、表示部24に対する輝点の設定としては、表示部24の側面全体で1つの輝点を設定したり、表示部24の側面の面単位で1つの輝点を設定したり、表示部24の側面の面内に複数の輝点を設定したりすることができる。また、表示部24では、範囲、濃淡/明度、色相、および点滅により進路を表現することができる。このような輝点の設定に対し、どのような進路の表現を選択するかという組み合わせに応じて、図23に示すような様々なバリエーションを用いることが検討される。また、進路の表現は、1つだけ選択してもよいし、複数を選択して掛け合わせてもよい。 For example, as the setting of the bright spots for the display unit 24, one bright spot is set for the entire side surface of the display unit 24, one bright spot is set for each surface of the side surface of the display unit 24, or the display unit 24 is set. It is possible to set a plurality of bright spots in the plane of the side surface of. In addition, the display unit 24 can express the course by the range, the shade / brightness, the hue, and the blinking. It is considered to use various variations as shown in FIG. 23 depending on the combination of what kind of course expression is selected for such setting of bright spots. Moreover, only one expression of a course may be selected, or a plurality of may be selected and multiplied.

なお、表示部24が、自律移動型ロボット12の天面にディスプレイを備えたり、図4のBに示したようなプロジェクタを備えたりする構成では、矢印を表示したり、ルートや行程などを表示してもよい。また、例えば、進行方向に向かって視線を向けるような目のイラストを表示してもよい。 In a configuration in which the display unit 24 is provided with a display on the top surface of the autonomous mobile robot 12 or a projector as shown in FIG. 4B, an arrow is displayed or a route or a process is displayed. You may. Further, for example, an illustration of the eyes may be displayed so as to direct the line of sight toward the traveling direction.

さらに、図23に示すバリエーションの例では、全方位に同一の表現手法が用いられているが、例えば、面ごとや特定のエリアのみに、他の面や他のエリアとは異なる表示内容を割り当ててもよい。即ち、自律移動型ロボット12の後ろから人物が付いて歩く場合には、その人物に向けた表示を1面だけに割り当てて、進行方向や行程の進捗度を表現し、その他の面は、その人物から見えないため、周囲に居る他の人物に向けての表示に割り当てることで、より効率的に進路を提示することができる。 Further, in the example of the variation shown in FIG. 23, the same expression method is used in all directions, but for example, display contents different from those of other surfaces or other areas are assigned only to each surface or a specific area. You may. That is, when a person walks from behind the autonomous mobile robot 12, the display for that person is assigned to only one surface to express the traveling direction and the progress of the process, and the other surfaces are the same. Since it is invisible to the person, it is possible to present the course more efficiently by assigning it to the display for other people around.

図24および図25を参照して、空間に定位する表現について説明する。例えば、自律移動型ロボット12の移動速度に応じて、その移動速度と同じ速度で逆方向に表現を遷移させることで、空間に映像が定位しているような表現が可能である。 The representation localized in space will be described with reference to FIGS. 24 and 25. For example, by shifting the expression in the opposite direction at the same speed as the moving speed of the autonomous mobile robot 12, it is possible to express that the image is localized in space.

図24には、自律移動型ロボット12が直進しているときに、空間に映像が定位しているように表示部24が表示を行う例が示されている。 FIG. 24 shows an example in which the display unit 24 displays the image as if the image is localized in the space when the autonomous mobile robot 12 is moving straight.

図24の上側から下側に向かって図示するように、自律移動型ロボット12は、右方向に移動速度vで移動しているとき、表示部24は、左方向に向かって遷移速度v1で移動するような表示を行う。即ち、表示部24による遷移速度v1は、自律移動型ロボット12の移動速度vを用いて、次の式(2)に示すよう表される。 As shown from the upper side to the lower side of FIG. 24, when the autonomous mobile robot 12 is moving to the right at a moving speed v, the display unit 24 moves to the left at a transition speed v1. Display as if. That is, the transition speed v1 by the display unit 24 is expressed as shown in the following equation (2) by using the movement speed v of the autonomous mobile robot 12.

Figure 2021157203
Figure 2021157203

図25には、自律移動型ロボット12が旋回しているときに、空間に映像が定位しているように表示部24が表示を行う例が示されている。 FIG. 25 shows an example in which the display unit 24 displays the image as if the image is localized in the space when the autonomous mobile robot 12 is turning.

図25の上側から下側に向かって図示するように、自律移動型ロボット12は、右回転により角速度ωで旋回しているとき、表示部24は、左回転により遷移速度v2で移動するような表示を行う。即ち、表示部24による遷移速度v2は、旋回中心から表示部24における現時点での輝点までの距離r、表示部24における現時点での輝点の垂直方向からの差分角度θ(最小値0°,最大値45°)を用いて、次の式(3)に示すよう表される。 As shown from the upper side to the lower side of FIG. 25, when the autonomous mobile robot 12 is turning at an angular velocity ω by rotating clockwise, the display unit 24 moves at a transition speed v2 by rotating counterclockwise. Display. That is, the transition speed v2 by the display unit 24 is the distance r from the turning center to the current bright point on the display unit 24, and the difference angle θ (minimum value 0 °) from the vertical direction of the current bright point on the display unit 24. , Maximum value 45 °) is expressed as shown in the following equation (3).

Figure 2021157203
Figure 2021157203

図26には、空間上でのパーティクル表現を2次元平面に投影した一例が示されている。 FIG. 26 shows an example of projecting a particle representation in space onto a two-dimensional plane.

図26のAに示すように、自律移動型ロボット12の進行方向の前方のある起点からランダムのノイズを一定方向に遷移させることでパーティクル表現を作り出す。そして、図26のBに示すように、そのパーティクルが、自律移動型ロボット12の筐体を上から見た際の外周と交わる部分に投影されるように、表示部24によりパーティクルに対応する箇所の発光部を発光させることで表現することができる。 As shown in FIG. 26A, a particle representation is created by transitioning random noise in a certain direction from a certain starting point in front of the traveling direction of the autonomous mobile robot 12. Then, as shown in B of FIG. 26, the part corresponding to the particles is projected by the display unit 24 so that the particles are projected on the portion intersecting the outer circumference when the housing of the autonomous mobile robot 12 is viewed from above. It can be expressed by making the light emitting part of the above emit light.

例えば、自律移動型ロボット12の進行方向に合わせてパーティクルの起点を変化させてもよいし、自律移動型ロボット12の速度に応じてパーティクルの量や粒子の速度を変化させてもよい。なお、図4のCに示したように表示部24Cにディスプレイが採用される構成では、パーティクルの放射を3次元平面でシミュレートして表現することができる。 For example, the starting point of the particles may be changed according to the traveling direction of the autonomous mobile robot 12, or the amount of particles or the speed of the particles may be changed according to the speed of the autonomous mobile robot 12. In the configuration in which the display is adopted as the display unit 24C as shown in C of FIG. 4, the radiation of particles can be simulated and expressed on a three-dimensional plane.

図27には、波紋の展開の一例が示されている。 FIG. 27 shows an example of the development of ripples.

例えば、図27のAに示すように、2次元で波紋が動的に広がる表現をシミュレートする。そして、図27のBに示すように、その波紋が、自律移動型ロボット12の筐体を上から見た際の外周と交わる部分に投影されるように、表示部24により波紋に対応する箇所の発光部を発光させることで表現することができる。 For example, as shown in A of FIG. 27, a representation in which ripples dynamically spread in two dimensions is simulated. Then, as shown in B of FIG. 27, the portion corresponding to the ripple is projected by the display unit 24 so that the ripple is projected on the portion intersecting the outer circumference when the housing of the autonomous mobile robot 12 is viewed from above. It can be expressed by making the light emitting part of the above emit light.

また、波紋は複数個あってもよいし、波紋の発生場所も複数個あってもよい。このような波紋による表現は、進行方向の強調だけでなく、周囲人物とのコミュニケーションの応答や、周囲人物に注意を引かせる方法としても適用することができる。なお、図4のCに示したように表示部24Cにディスプレイが採用される構成では、波紋の動的な広がりを3次元平面でシミュレートして表現することができる。 Further, there may be a plurality of ripples, and there may be a plurality of places where ripples occur. Such a ripple expression can be applied not only to emphasize the direction of travel, but also as a response to communication with surrounding people and a method of drawing attention to surrounding people. In the configuration in which the display is adopted for the display unit 24C as shown in C of FIG. 4, the dynamic spread of ripples can be simulated and expressed on a three-dimensional plane.

なお、図26または図27に示した表現などは、時間関数として周期的に動くことで移動速度の速さを表してもよい。例えば、図26に示したパーティクルのような図形群であれば、パーティクルの進行速度や落下速度などにより移動速度の速さを表すことができ、図27に示したような波紋であれば、その波紋が広がる速度により移動速度の速さを表すことができる。 The expression shown in FIG. 26 or 27 may represent the speed of movement by periodically moving as a time function. For example, in the case of a group of figures such as the particles shown in FIG. 26, the speed of movement can be expressed by the traveling speed and falling speed of the particles, and in the case of ripples as shown in FIG. 27, the speed can be expressed. The speed of movement can be expressed by the speed at which the ripples spread.

図28には、仮想的な円の収縮イメージの一例が示されている。 FIG. 28 shows an example of a contraction image of a virtual circle.

例えば、図28のAに示すように、自律移動型ロボット12の中心に仮想的な円を置き、その半径を周期的に拡縮(左側が拡大/右側が縮小)させる表現をシミュレートする。そして、図28のBに示すように、その円が、自律移動型ロボット12の筐体を上から見た際の外周と交わる部分に投影されるように、表示部24により円に対応する箇所の発光部を発光させることで表現することができる。 For example, as shown in FIG. 28A, a virtual circle is placed at the center of the autonomous mobile robot 12 and the radius is periodically expanded or contracted (the left side is enlarged / the right side is reduced) to simulate the expression. Then, as shown in B of FIG. 28, the portion corresponding to the circle by the display unit 24 so that the circle is projected on the portion intersecting the outer circumference when the housing of the autonomous mobile robot 12 is viewed from above. It can be expressed by making the light emitting part of the above emit light.

また、仮想的な円を決めるためのパラメータには、円半径や、拡大/縮小のそれぞれの周期、拡縮のカーブ、円中心から外周までのグラデーション、円中心の座標などが用いられる。そして、これらのパラメータを調整することで、進行方向やその速度などを表現することができる。例えば、収縮の周期を早くすることで呼吸が早い表現を表し、これから早く動くことを表現したり、遅い周期で動かすことで動き出しが遅いことを表現したりすることができる。また、円の中心を端に寄せつつ収縮を早めることで、その方向に注目させるように表現することができる。 Further, as parameters for determining a virtual circle, the radius of the circle, each period of expansion / contraction, the curve of expansion / contraction, the gradation from the center of the circle to the outer circumference, the coordinates of the center of the circle, and the like are used. Then, by adjusting these parameters, the traveling direction and its speed can be expressed. For example, by accelerating the contraction cycle, it is possible to express that breathing is fast, and by moving it in a slow cycle, it is possible to express that the movement is slow. In addition, by accelerating the contraction while moving the center of the circle toward the edge, it can be expressed so as to draw attention to that direction.

<予備動作を表示系で再現>
図29乃至図38を参照して、予備動作を表示系により再現する例について説明する。
<Reproduce the preliminary operation on the display system>
An example of reproducing the preliminary operation by the display system will be described with reference to FIGS. 29 to 38.

例えば、上述の説明では、自律移動型ロボット12の進行方向および速度に基づいて進路を提示していたが、その進路の提示には、これから動く自律移動型ロボット12の動きが反映されていなかった。そのため、自律移動型ロボット12の次の移動を予め提示することで、周囲人物に対する安心感の更なる向上を図ることができる。なお、この表現は、周囲人物の位置に応じて前方のみの表現と全周表現とを切り替えてもよいし、周囲人物との距離に応じて、これまで説明したような表現と切り替えてもよい。 For example, in the above description, the course is presented based on the traveling direction and speed of the autonomous mobile robot 12, but the presentation of the course does not reflect the movement of the autonomous mobile robot 12 that is about to move. .. Therefore, by presenting the next movement of the autonomous mobile robot 12 in advance, it is possible to further improve the sense of security for the surrounding persons. It should be noted that this expression may be switched between the front-only expression and the all-around expression according to the position of the surrounding person, or may be switched to the expression as described above according to the distance to the surrounding person. ..

図29乃至図31を参照して、自律移動型ロボット12の速度の表現方法の一例として、走行パターンDにおける走行ベクトルを使用した表示制御について説明する。 With reference to FIGS. 29 to 31, display control using a travel vector in the travel pattern D will be described as an example of a method of expressing the speed of the autonomous mobile robot 12.

例えば、図29の上段に示すように、通路地点P1において停止しているとき、表示部24は、自律移動型ロボット12の4側面で、それぞれの中央部が最強強度となるように表示制御を行う。そして、図29の中段に示すように、移動を開始して通路地点P1から加速中であるとき、表示部24は、走行ベクトルに従って、自律移動型ロボット12の前面中央部が最強強度となるように表示制御を行うとともに、両側面における最強強度が前方側に移動し、後面の強度を低下させる。また、図29の下段に示すように一定速度で移動しているとき、および、図30の上段に示すように減速中のとき、表示部24は、走行ベクトルに従って、加速中と同様の表示を行う。 For example, as shown in the upper part of FIG. 29, when stopped at the passage point P1, the display unit 24 controls the display on the four side surfaces of the autonomous mobile robot 12 so that the central portion of each is the strongest. conduct. Then, as shown in the middle part of FIG. 29, when the movement is started and the robot is accelerating from the passage point P1, the display unit 24 has the strongest strength at the front center portion of the autonomous mobile robot 12 according to the travel vector. In addition to controlling the display, the strongest strength on both sides moves to the front side, reducing the strength of the rear surface. Further, when moving at a constant speed as shown in the lower part of FIG. 29 and when decelerating as shown in the upper part of FIG. 30, the display unit 24 displays the same display as during acceleration according to the traveling vector. conduct.

そして、図30の中段に示すように、通路地点P2において停止しているとき、表示部24は、自律移動型ロボット12の4側面で、それぞれの中央部が最強強度となるように表示制御を行う。以下、同様に、図30の下段に示すような加速中、図31の上段に示すような一定速度、図31の中段に示すような減速中において、表示部24は、走行ベクトルに従った表示を行う。その後、図31の下段に示すように、通路地点P4において停止すると、表示部24は、自律移動型ロボット12の4側面で、それぞれの中央部が最強強度となるように表示制御を行う。 Then, as shown in the middle part of FIG. 30, when stopped at the passage point P2, the display unit 24 controls the display on the four side surfaces of the autonomous mobile robot 12 so that the central portion thereof has the strongest strength. conduct. Hereinafter, similarly, during acceleration as shown in the lower part of FIG. 30, constant speed as shown in the upper part of FIG. 31, and deceleration as shown in the middle part of FIG. 31, the display unit 24 displays according to the traveling vector. I do. After that, as shown in the lower part of FIG. 31, when stopped at the passage point P4, the display unit 24 controls the display on the four side surfaces of the autonomous mobile robot 12 so that the central portion thereof has the strongest strength.

図32乃至図34を参照して、自律移動型ロボット12の速度の表現方法の一例として、走行パターンDにおける加速度ベクトルを使用した表示制御について説明する。 With reference to FIGS. 32 to 34, display control using an acceleration vector in the traveling pattern D will be described as an example of a method of expressing the speed of the autonomous mobile robot 12.

例えば、図32の上段に示すように、通路地点P1において停止しているとき、表示部24は、自律移動型ロボット12の4側面で、それぞれの中央部が最強強度となるように表示制御を行う。そして、図32の中段に示すように、移動を開始して通路地点P1から加速中であるとき、表示部24は、加速度ベクトルに従って、自律移動型ロボット12の前面中央部が最強強度となるように表示制御を行うとともに、両側面における最強強度が前方側に移動し、後面の強度を低下させる。 For example, as shown in the upper part of FIG. 32, when the robot is stopped at the passage point P1, the display unit 24 controls the display on the four side surfaces of the autonomous mobile robot 12 so that the central portion thereof has the strongest strength. conduct. Then, as shown in the middle part of FIG. 32, when the movement is started and the robot is accelerating from the passage point P1, the display unit 24 has the strongest strength in the front center portion of the autonomous mobile robot 12 according to the acceleration vector. In addition to controlling the display, the strongest strength on both sides moves to the front side, reducing the strength of the rear surface.

その後、自律移動型ロボット12が一定速度での移動になると、図32の下段に示すように、表示部24は、加速度ベクトルに従って、自律移動型ロボット12の4側面で、それぞれの中央部が最強強度となるように表示制御を行う。そして、通路地点P2の手前で減速を行うとき、図33の上段に示すように、表示部24は、加速度ベクトルに従って、自律移動型ロボット12の後面中央部が最強強度となるように表示制御を行うとともに、両側面における最強強度が後方側に移動し、前面の強度を低下させる。 After that, when the autonomous mobile robot 12 moves at a constant speed, as shown in the lower part of FIG. 32, the display unit 24 has four sides of the autonomous mobile robot 12 according to the acceleration vector, and the central portion of each is the strongest. Display control is performed so that the strength is high. Then, when decelerating before the passage point P2, as shown in the upper part of FIG. 33, the display unit 24 controls the display so that the central portion of the rear surface of the autonomous mobile robot 12 has the strongest intensity according to the acceleration vector. At the same time, the strongest strength on both side surfaces moves to the rear side, and the strength of the front surface is reduced.

そして、図33の中段に示すように、通路地点P2において停止しているとき、表示部24は、自律移動型ロボット12の4側面で、それぞれの中央部が最強強度となるように表示制御を行う。以下、同様に、図33の下段に示すような加速中、図34の上段に示すような一定速度、図34の中段に示すような減速中において、表示部24は、加速度ベクトルに従った表示を行う。その後、図34の下段に示すように、通路地点P4において停止すると、表示部24は、自律移動型ロボット12の4側面で、それぞれの中央部が最強強度となるように表示制御を行う。 Then, as shown in the middle part of FIG. 33, when stopped at the passage point P2, the display unit 24 controls the display on the four side surfaces of the autonomous mobile robot 12 so that the central portion of each is the strongest. conduct. Hereinafter, similarly, during acceleration as shown in the lower part of FIG. 33, constant speed as shown in the upper part of FIG. 34, and deceleration as shown in the middle part of FIG. 34, the display unit 24 displays according to the acceleration vector. I do. After that, as shown in the lower part of FIG. 34, when the robot stops at the passage point P4, the display unit 24 controls the display on the four side surfaces of the autonomous mobile robot 12 so that the central portion thereof has the strongest strength.

このように、自律移動型ロボット12は、加速度ベクトルに従った表示制御を行うことで、例えば、減速時には進行方向とは逆向きに表現を展開することができ、自律移動型ロボット12が停止することを予め表現することができる。 In this way, the autonomous mobile robot 12 can develop the expression in the direction opposite to the traveling direction at the time of deceleration by performing the display control according to the acceleration vector, and the autonomous mobile robot 12 stops. Can be expressed in advance.

ところで、このように加速度ベクトルを利用しても、例えば、自律移動型ロボット12が曲線的に曲がるときや、直角に曲がるときには、その進路を予め表現することはできない。そこで、走行する経路が事前に把握できている場合は、現在の進行方向ではなく、次に曲がる方向を予め表示することで周囲に予備動作を伝えることが好ましい。 By the way, even if the acceleration vector is used in this way, for example, when the autonomous mobile robot 12 bends in a curve or at a right angle, its course cannot be expressed in advance. Therefore, when the traveling route is known in advance, it is preferable to inform the surroundings of the preliminary operation by displaying in advance the direction of the next turn instead of the current traveling direction.

例えば、図35には、走行パターンCにおいて予備動作表現を行う表示制御の一例が示されており、図36には、走行パターンDにおいて予備動作表現を行う表示制御の一例が示されており、 For example, FIG. 35 shows an example of display control that expresses a preliminary motion in the traveling pattern C, and FIG. 36 shows an example of a display control that expresses a preliminary motion in the traveling pattern D.

例えば、走行パターンCでは、自律移動型ロボット12の筐体が進行方向を必ず向くため、表示系は常に前方固定でよいが、図35に示すように、曲線的に左に向かって旋回する前に、一度、中央部から左側に最高強度を移動させた後、旋回が終了する前に中央部に戻すような表示制御を行うことが好ましい。 For example, in the traveling pattern C, since the housing of the autonomous mobile robot 12 always faces the traveling direction, the display system may always be fixed forward, but as shown in FIG. 35, before turning to the left in a curved line. In addition, it is preferable to perform display control such that once the maximum intensity is moved from the central portion to the left side and then returned to the central portion before the turning is completed.

また、走行パターンDでは、自律移動型ロボット12の筐体は原則的に旋回しないため、表示系のみで旋回を表現する。従って、図36に示すように、左に旋回する前に予め左方向を向いておき、進行方向切り替え時には既にその方向を向くことで、周囲人物は、自律移動型ロボット12が次に進む方向を、自律移動型ロボット12が実際に動く前に把握することができる。 Further, in the traveling pattern D, since the housing of the autonomous mobile robot 12 does not rotate in principle, the rotation is expressed only by the display system. Therefore, as shown in FIG. 36, by turning to the left in advance before turning to the left and already turning to that direction when switching the traveling direction, the surrounding person can determine the direction in which the autonomous mobile robot 12 advances next. , The autonomous mobile robot 12 can be grasped before it actually moves.

また、図35および図36を参照して説明したような予備動作表現の他にも、例えば、移動していない待機状態で予備動作表現を適用してもよい。 Further, in addition to the preliminary motion expression as described with reference to FIGS. 35 and 36, for example, the preliminary motion expression may be applied in a non-moving standby state.

例えば、図37および図38に示すように通路Aにおいて、通路地点P1で物理的には停止しているときに進行方向を提示することで、走行を開始する前に予備的に、進路を提示することができる。また、通路地点P2で停止中に、進行方向を旋回させることで次の進行方向を提示する表現を行うことができる。 For example, as shown in FIGS. 37 and 38, in the passage A, by presenting the traveling direction when the vehicle is physically stopped at the passage point P1, the course is presented in advance before the start of traveling. can do. In addition, it is possible to express the next direction of travel by turning the direction of travel while the vehicle is stopped at the passage point P2.

また、通路地点P4で停止した後も、その先に注目して欲しいものがある場合は、表示部24は、待機状態の様に、自律移動型ロボット12の4側面の中央部が最強強度となるように表示制御とするのではなく、走行中と同様に、自律移動型ロボット12の前面中央部が最強強度となるように表示制御を行ってもよい。 In addition, even after stopping at the passage point P4, if there is something that you want to pay attention to, the display unit 24 has the strongest strength at the center of the four sides of the autonomous mobile robot 12 as in the standby state. Instead of controlling the display so as to be, the display control may be performed so that the central portion of the front surface of the autonomous mobile robot 12 has the strongest strength as in the case of traveling.

<複数台連携時の表示方法>
図39および図40を参照して、複数台連携時の表示方法について説明する。
<Display method when linking multiple units>
A display method when a plurality of units are linked will be described with reference to FIGS. 39 and 40.

図39には、2台の自律移動型ロボット12−1および12−2が連携して移動する際に進路を提示する一例が示されており、図40には、4台の自律移動型ロボット12−1乃至12−4が連携して移動する際に進路を提示する一例が示されている。 FIG. 39 shows an example of presenting a course when two autonomous mobile robots 12-1 and 12-2 move in cooperation with each other, and FIG. 40 shows four autonomous mobile robots. An example is shown in which 12-1 to 12-4 present a course when they move in cooperation with each other.

例えば、複数台の自律移動型ロボット12は、互いに物理的に接続することにより、より大型の自律移動型ロボットとして協調して移動を行うことができる。また、自律移動型ロボット12が近接センサを搭載している場合には、物理的な接続を行わずに、より大型の自律移動型ロボットとして協調して移動を行うことができる。 For example, a plurality of autonomous mobile robots 12 can move cooperatively as a larger autonomous mobile robot by physically connecting to each other. Further, when the autonomous mobile robot 12 is equipped with a proximity sensor, it is possible to coordinately move as a larger autonomous mobile robot without making a physical connection.

このように、複数台の自律移動型ロボット12が協調して移動を行う際に、上述したような1台の自律移動型ロボット12で進路を提示する提示方法と同様に、進路を提示することができる。その際、自律移動型ロボット12どうしが接している側面は、周囲から見えないことより、図39および図40に示すように、消灯することができる。また、自律移動型ロボット12どうしの側面が連続している部分は、図39および図40に示すように、互いに連続しているように表現を補うことができる。 In this way, when a plurality of autonomous mobile robots 12 move in cooperation with each other, the course is presented in the same manner as the presentation method in which one autonomous mobile robot 12 presents a course as described above. Can be done. At that time, the side surfaces of the autonomous mobile robots 12 in contact with each other can be turned off as shown in FIGS. 39 and 40 because they cannot be seen from the surroundings. Further, as shown in FIGS. 39 and 40, the portions where the side surfaces of the autonomous mobile robots 12 are continuous can be supplemented so as to be continuous with each other.

なお、自律移動型ロボット12が照度センサやカメラを内蔵している場合、自律移動型ロボット12どうしが接している側面、即ち、消灯している側面を、自律移動型ロボット12どうしで光を利用した通信用に用いることができる。 When the autonomous mobile robot 12 has a built-in illuminance sensor and a camera, the autonomous mobile robots 12 use light on the side where the autonomous mobile robots 12 are in contact with each other, that is, the side where the lights are turned off. It can be used for communication.

このように、上述した各種の進路の提示方法は、1台の自律移動型ロボット12において適用される他、複数台の自律移動型ロボット12が協調して動く際にも適用することができる。 As described above, the various path presentation methods described above can be applied not only to one autonomous mobile robot 12 but also to a plurality of autonomous mobile robots 12 moving in cooperation with each other.

<同期/非同期処理>
上述したように、複数台の自律移動型ロボット12で1つの自律移動型ロボットとして移動を行わなくても、それぞれの自律移動型ロボット12が協調していることを周囲人物に提示することができる。具体的には、時間で変化する点滅や波紋、空間定位、パーティクルなどの表現のタイミングを合わせることで、周囲人物に対して複数台の自律移動型ロボット12が物理的に離れていても同期していることを通知することができる。また、あえて同期をとらないことで、他の複数の自律移動型ロボット12とは別の動きをすることを提示することができる。
<Synchronous / asynchronous processing>
As described above, it is possible to show the surrounding persons that the respective autonomous mobile robots 12 are cooperating without having to move the plurality of autonomous mobile robots 12 as one autonomous mobile robot. .. Specifically, by matching the timing of expressions such as blinking, ripples, spatial localization, and particles that change with time, even if a plurality of autonomous mobile robots 12 are physically separated from the surrounding people, they are synchronized. You can notify that you are. Further, by intentionally not synchronizing, it is possible to present that the robot 12 moves differently from the other plurality of autonomous mobile robots 12.

<走行パターンの学習および個別プロファイル化>
例えば、図6に示したような走行モードと走行パターンとの適応を、周囲人物の熟練度に応じて最適化を行ってもよい。例えば、一回見たらその行動中は把握したと見なすなど、特定の人物との接触時間や、その人物の挙動から自律移動型ロボット12の筐体の旋回が不要と判断された場合は、走行パターンBおよびCを採用せずに、走行パターンDおよびEのみを採用してもよい。
<Learning of driving patterns and individual profiling>
For example, the adaptation between the traveling mode and the traveling pattern as shown in FIG. 6 may be optimized according to the skill level of the surrounding persons. For example, if it is judged that the housing of the autonomous mobile robot 12 does not need to be turned based on the contact time with a specific person or the behavior of the person, such as when it is seen once, it is considered that the robot is grasped during the action. Only the traveling patterns D and E may be adopted without adopting the patterns B and C.

さらに、子供や高齢の方などのように、まだ習熟度が遅いと判断された場合は走行パターンDおよびEをあえて採用せずに、その他の走行パターンのみで走行してもよい。また、人物の顔の向きや視線を検出可能な場合は、その人物が自律移動型ロボット12を見ている時だけ表示が行われるようにしてもよい。 Further, when it is judged that the proficiency level is still slow, such as a child or an elderly person, the running patterns D and E may not be adopted, and the running may be performed only with other running patterns. If the direction and line of sight of the person's face can be detected, the display may be performed only when the person is looking at the autonomous mobile robot 12.

<全方位移動ロボット以外への適用>
上述したような進路の提示は、例えば、図3に示したような全方位移動可能なメカナムホイール72を採用した構成以外にも、ピポットターンや横移動のできない移動機構や、全方位に移動できない移動機構などを採用した構成にも部分的に適用することができる。
<Application to other than omnidirectional mobile robots>
In addition to the configuration that employs the Mecanum wheel 72 that can move in all directions as shown in FIG. 3, the presentation of the course as described above includes a movement mechanism that cannot make a pivot turn or lateral movement, and moves in all directions. It can be partially applied to a configuration that employs a movement mechanism that cannot be used.

例えば、従来の自動車と同様に移動する自律移動型ロボット12の外周に表示部24を取り付けた構成では、ピポットターンの代わりに曲率の高いカーブを用いることで、図6に示した走行パターンBおよびCを適用することができる。また、この構成では、走行パターンDは全て適用できないものの、後退する場合などに、進行方向を180°変える表現を適用できるなど、その自律移動型ロボット12の移動制約の中で、上述した進路の提示を適用してもよい。 For example, in a configuration in which a display unit 24 is attached to the outer circumference of an autonomous mobile robot 12 that moves in the same manner as a conventional automobile, a curve having a high curvature is used instead of a pivot turn, so that the traveling pattern B and the traveling pattern B shown in FIG. C can be applied. Further, in this configuration, although the traveling pattern D cannot be applied at all, the above-mentioned course can be applied within the movement restrictions of the autonomous mobile robot 12, such as being able to apply an expression that changes the traveling direction by 180 ° when reversing. The presentation may be applied.

<音声出力を用いた注目表現>
例えば、上述したような進路の提示は、周囲人物や、他の自律移動型ロボット12に対する通知として主に用いられるが、周囲人物が自律移動型ロボット12の存在に気付かない状況があることが想定される。このような状況において、自律移動型ロボット12は、自律移動型ロボット12が利用される環境内に配置されるスピーカや、周囲人物が身に着けているウェアラブルデバイスから音声出力を行うことで、自身の存在を周囲人物に気付かせることができる。
<Attention expression using voice output>
For example, the presentation of the course as described above is mainly used as a notification to the surrounding person and other autonomous mobile robot 12, but it is assumed that there is a situation in which the surrounding person does not notice the existence of the autonomous mobile robot 12. Will be done. In such a situation, the autonomous mobile robot 12 itself outputs voice from a speaker arranged in the environment in which the autonomous mobile robot 12 is used or a wearable device worn by a surrounding person. It is possible to make people around you aware of the existence of.

例えば、周囲人物が自律移動型ロボット12に気付いているか否かの判断は、例えば、自律移動型ロボット12のRGBカメラ32(図2)や、図1のセンサモジュール14、ウェアラブルデバイスに内蔵されているカメラなどにより、人の顔の向きや視線方向に基づいて行うことができる。そして、自律移動型ロボット12が、周囲人物の視野内入っていないと判断された場合や、周囲人物の位置情報から自律移動型ロボット12に対し衝突する可能性のある動きをしている場合に、音声出力を用いた注目表現を行うことができる。 For example, whether or not a surrounding person is aware of the autonomous mobile robot 12 is determined, for example, by being incorporated in the RGB camera 32 (FIG. 2) of the autonomous mobile robot 12, the sensor module 14 of FIG. 1, and the wearable device. This can be done based on the direction of the person's face and the direction of the line of sight, depending on the camera or the like. Then, when it is determined that the autonomous mobile robot 12 is not within the field of view of the surrounding person, or when the robot 12 is making a movement that may collide with the autonomous mobile robot 12 based on the position information of the surrounding person. , It is possible to express attention using voice output.

<人や環境光に応じた表示内容の強度の変更>
例えば、自律移動型ロボット12の環境によっては、表示部24の表示が見え難くなることが想定される。従って、例えば、自律移動型ロボット12の環境の照度が高い場合、表示部24を構成するディスプレイやLEDアレイ、プロジェクタなどのピーク輝度を、環境の照度に応じて高くしてもよい。
<Change in display content intensity according to people and ambient light>
For example, depending on the environment of the autonomous mobile robot 12, it is assumed that the display of the display unit 24 becomes difficult to see. Therefore, for example, when the illuminance of the environment of the autonomous mobile robot 12 is high, the peak brightness of the display, the LED array, the projector, etc. constituting the display unit 24 may be increased according to the illuminance of the environment.

また、周囲人物が自律移動型ロボット12と同一の空間に居ても、自律移動型ロボット12との距離および視野角に応じては、周囲人物が自律移動型ロボット12に気付き難いことが想定される。従って、例えば、自律移動型ロボット12から距離が離れている場合や、視野角外の場合などには、表示部24のピーク輝度を高くしてもよい。または、子供などのように背が低いことより、自律移動型ロボット12が目線に入り易い場合や、光に対する感度に敏感な人物が居る場合には、表示部24のピーク輝度を低くしてもよい。 Further, even if the surrounding person is in the same space as the autonomous mobile robot 12, it is assumed that it is difficult for the surrounding person to notice the autonomous mobile robot 12 depending on the distance and the viewing angle from the autonomous mobile robot 12. NS. Therefore, for example, when the distance from the autonomous mobile robot 12 is far, or when the viewing angle is out of the viewing angle, the peak brightness of the display unit 24 may be increased. Alternatively, if the autonomous mobile robot 12 is easy to see because it is short, such as a child, or if there is a person who is sensitive to light, the peak brightness of the display unit 24 may be lowered. good.

さらに、自律移動型ロボット12が旋回するときに、図6を参照して説明したような表現を用いる際に、周囲人物が自律移動型ロボット12の近傍に居る場合には、その周囲人物が自律移動型ロボット12に気付いているか、自律移動型ロボット12を知っているかなどの判断をすることで、旋回表現よりも、その周囲人物へのアイコンタクトを優先してもよい。 Further, when the autonomous mobile robot 12 turns, when the expression as described with reference to FIG. 6 is used, if a surrounding person is in the vicinity of the autonomous mobile robot 12, the surrounding person is autonomous. By determining whether the mobile robot 12 is aware of it or whether it knows the autonomous mobile robot 12, eye contact with the surrounding person may be prioritized over the turning expression.

<非常時や環境が悪い場合の表現方法>
例えば、周囲人物が自律移動型ロボット12に接触する危険がある場合は、表示部24の輝度を最高にするだけでなく、スピーカなどを使用して通知してもよい。さらに、自律移動型ロボット12がスピンターンを高速で行うことで駆動音をあえて大きくして気づかせてもよい。また環境が極端に明るい場合など、自律移動型ロボット12のセンサによって、周囲に人物がいるか否かの検出が困難な場合は、表示部24による表示を行うように安全側に振ってもよい。
<Expression method in case of emergency or bad environment>
For example, when there is a danger that a surrounding person may come into contact with the autonomous mobile robot 12, not only the brightness of the display unit 24 may be maximized, but also a speaker or the like may be used for notification. Further, the autonomous mobile robot 12 may intentionally make the driving sound louder and notice it by performing the spin turn at high speed. Further, when it is difficult for the sensor of the autonomous mobile robot 12 to detect whether or not there is a person in the vicinity, such as when the environment is extremely bright, the display unit 24 may be used to display the robot on the safe side.

その他、自律移動型ロボット12の故障や移動不可、バッテリー状況など、周囲に異常を通知したい場合は、上述したのと同様に最高輝度で表示することができる。また、人物が周囲に居る状況でも緊急を要する場合は、図6を参照して説明した走行パターンのうち、走行パターンAおよびDなどの平行移動をするモードに強制的に切り替えてもよい。 In addition, when it is desired to notify the surroundings of an abnormality such as a failure or immobility of the autonomous mobile robot 12 or a battery status, it can be displayed at the maximum brightness as described above. Further, when it is urgent even in a situation where a person is in the surroundings, among the traveling patterns described with reference to FIG. 6, the mode of parallel movement such as traveling patterns A and D may be forcibly switched.

また、自律移動型ロボット12の走行通路が狭く、周囲人物からの認識が困難な環境の場合は、プロジェクタやLEDアレイなどの表示部24の角度を調整することで、自律移動型ロボット12の周囲ではなく、広範囲に表現を展開することができる。このとき、自律移動型ロボット12は、より気づきやすい表現に変えてもよいし、環境照度が低く、周囲人物にとっても良くない環境の場合は、その周囲人物の足元を照らすなど、表示部24を安全補助に用いてもよい。 Further, in an environment where the traveling passage of the autonomous mobile robot 12 is narrow and it is difficult to recognize from surrounding people, the surroundings of the autonomous mobile robot 12 can be adjusted by adjusting the angle of the display unit 24 such as a projector or an LED array. Instead, the expression can be expanded in a wide range. At this time, the autonomous mobile robot 12 may change the expression to a more noticeable expression, or if the environmental illuminance is low and the environment is not good for the surrounding people, the display unit 24 may be illuminated by illuminating the feet of the surrounding people. It may be used for safety assistance.

以上のように、自律移動型ロボット12は、進行方向の向きに関わらず全方位に表示部24を設けることで、周囲人物は、どの向きからも自律移動型ロボット12の動きを把握することができる。また、周囲人物は、自律移動型ロボット12の動きを事前に予測可能となるため、周囲人物に対して安心感を与えることができ、自律移動型ロボット12の使用者の初期学習コストを下げることができる。 As described above, the autonomous mobile robot 12 is provided with the display unit 24 in all directions regardless of the direction of travel, so that the surrounding person can grasp the movement of the autonomous mobile robot 12 from any direction. can. In addition, since the surrounding person can predict the movement of the autonomous mobile robot 12 in advance, it is possible to give a sense of security to the surrounding person and reduce the initial learning cost of the user of the autonomous mobile robot 12. Can be done.

また、自律移動型ロボット12は、周囲に人物が居ない場所では最適な移動方法を用いることで、バッテリーなどの移動コストの最適化や、自律移動型ロボット12の機構を活用することができる。また、自律移動型ロボット12は、周囲に人物が居る場所でも、表示系によって方向転換を示すことで、物理的な方向転換が不要となり、応答性の向上や移動の最適化を図ることができる。 Further, the autonomous mobile robot 12 can optimize the movement cost of a battery or the like and utilize the mechanism of the autonomous mobile robot 12 by using the optimum movement method in a place where there is no person around. Further, the autonomous mobile robot 12 does not need to physically change the direction by indicating the direction change by the display system even in a place where a person is around, and can improve the responsiveness and optimize the movement. ..

特に、自律移動型ロボット12は、周囲人物と追従するような動作内容である場合には、従来の自動車などと同様に、進行方向の前方が、自律移動型ロボット12の筐体の前面と一致するような走行を行うことで、周囲人物に対して、より安心感を与えることができる。さらに、複数台の自律移動型ロボット12で連携して移動する際にも、同様の表現手法を用いることができる。 In particular, when the autonomous mobile robot 12 has an operation content that follows a surrounding person, the front in the traveling direction coincides with the front surface of the housing of the autonomous mobile robot 12, as in a conventional automobile or the like. By driving in such a way, it is possible to give a feeling of security to the surrounding people. Further, the same expression method can be used when moving in cooperation with a plurality of autonomous mobile robots 12.

ここで、上述した一連の処理は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。 Here, the series of processes described above can be performed by hardware or software. When a series of processes is performed by software, the programs constituting the software are installed on a general-purpose computer or the like.

ここで、本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。 Here, in the present specification, the processing performed by the computer according to the program does not necessarily have to be performed in chronological order in the order described as the flowchart. That is, the processing performed by the computer according to the program also includes processing executed in parallel or individually (for example, parallel processing or processing by an object).

また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。 Further, the program may be processed by one computer (processor) or may be distributed processed by a plurality of computers. Further, the program may be transferred to a distant computer and executed.

さらに、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。 Further, in the present specification, the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether or not all the components are in the same housing. Therefore, a plurality of devices housed in separate housings and connected via a network, and a device in which a plurality of modules are housed in one housing are both systems. ..

また、例えば、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。 Further, for example, the configuration described as one device (or processing unit) may be divided and configured as a plurality of devices (or processing units). On the contrary, the configurations described above as a plurality of devices (or processing units) may be collectively configured as one device (or processing unit). Further, of course, a configuration other than the above may be added to the configuration of each device (or each processing unit). Further, if the configuration and operation of the entire system are substantially the same, a part of the configuration of one device (or processing unit) may be included in the configuration of another device (or other processing unit). ..

また、例えば、本技術は、1つの機能を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。 Further, for example, the present technology can have a cloud computing configuration in which one function is shared and jointly processed by a plurality of devices via a network.

また、例えば、上述したプログラムは、任意の装置において実行することができる。その場合、その装置が、必要な機能(機能ブロック等)を有し、必要な情報を得ることができるようにすればよい。 Further, for example, the above-mentioned program can be executed in any device. In that case, the device may have necessary functions (functional blocks, etc.) so that necessary information can be obtained.

また、例えば、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。換言するに、1つのステップに含まれる複数の処理を、複数のステップの処理として実行することもできる。逆に、複数のステップとして説明した処理を1つのステップとしてまとめて実行することもできる。 Further, for example, each step described in the above-mentioned flowchart can be executed by one device or can be shared and executed by a plurality of devices. Further, when a plurality of processes are included in one step, the plurality of processes included in the one step can be executed by one device or shared by a plurality of devices. In other words, a plurality of processes included in one step can be executed as processes of a plurality of steps. On the contrary, the processes described as a plurality of steps can be collectively executed as one step.

なお、コンピュータが実行するプログラムは、プログラムを記述するステップの処理が、本明細書で説明する順序に沿って時系列に実行されるようにしても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで個別に実行されるようにしても良い。つまり、矛盾が生じない限り、各ステップの処理が上述した順序と異なる順序で実行されるようにしてもよい。さらに、このプログラムを記述するステップの処理が、他のプログラムの処理と並列に実行されるようにしても良いし、他のプログラムの処理と組み合わせて実行されるようにしても良い。 In the program executed by the computer, the processing of the steps for describing the program may be executed in chronological order in the order described in this specification, or may be executed in parallel or called. It may be executed individually at a necessary timing such as time. That is, as long as there is no contradiction, the processing of each step may be executed in an order different from the above-mentioned order. Further, the processing of the step for writing this program may be executed in parallel with the processing of another program, or may be executed in combination with the processing of another program.

なお、本明細書において複数説明した本技術は、矛盾が生じない限り、それぞれ独立に単体で実施することができる。もちろん、任意の複数の本技術を併用して実施することもできる。例えば、いずれかの実施の形態において説明した本技術の一部または全部を、他の実施の形態において説明した本技術の一部または全部と組み合わせて実施することもできる。また、上述した任意の本技術の一部または全部を、上述していない他の技術と併用して実施することもできる。 It should be noted that the present techniques described in the present specification can be independently implemented independently as long as there is no contradiction. Of course, any plurality of the present technologies can be used in combination. For example, some or all of the techniques described in any of the embodiments may be combined with some or all of the techniques described in other embodiments. It is also possible to carry out a part or all of any of the above-mentioned techniques in combination with other techniques not described above.

<構成の組み合わせ例>
なお、本技術は以下のような構成も取ることができる。
(1)
移動体の周囲に居る周囲人物との関係度を決定する関係度決定部と、
前記関係度に基づいて、前記移動体の移動を行う駆動部が行う処理、および、前記移動体の進路を提示する表現を出力する出力部が行う処理が対応付けられた走行モードを設定する設定部と
を備える移動体制御装置。
(2)
前記設定部は、前記周囲人物と一緒に移動を行う場合、進路を変更する際に前記駆動部により前記移動体の筐体の方向転換を行って走行する走行モードを設定する
上記(1)に記載の移動体制御装置。
(3)
前記出力部は、前記移動体の進行方向の提示を行う一方で、その進行方向を方向変換する表現は行わない
上記(2)に記載の移動体制御装置。
(4)
前記出力部は、前記移動体の進行方向の提示を行わず、進行方向を方向変換する表現も行わない
上記(2)に記載の移動体制御装置。
(5)
前記設定部は、前記周囲人物と一緒に移動を行わないが、視認可能な前記周囲人物が居る場合、前記出力部により前記移動体の進行方向の提示を行うとともに、前記移動体が進路を変更する際に前記出力部により進行方向を方向変換する表現を行って走行する走行モードを設定する
上記(1)に記載の移動体制御装置。
(6)
前記駆動部は、前記移動体が進路を変更する際に、前記移動体の筐体を一定の方向に維持したままの移動を行う
上記(5)に記載の移動体制御装置。
(7)
前記駆動部は、前記移動体が進路を変更する際に、前記移動体の筐体の方向転換を行う
上記(5)に記載の移動体制御装置。
(8)
前記設定部は、周囲人物と一緒に移動を行わず、かつ、視認可能な周囲人物が居ない場合、前記出力部による前記移動体の進路を提示するための進行方向および方向転換の表現を行わず、かつ、前記駆動部による前記移動体の筐体の方向転換を行わずに走行する走行モードを設定する
上記(1)に記載の移動体制御装置。
(9)
前記出力部は、前記移動体の筐体の側面全周に亘って表示を行う表示部により構成される
上記(1)から(8)までのいずれかに記載の移動体制御装置。
(10)
移動体の移動を制御する移動体制御装置が、
前記移動体の周囲に居る人物との関係度を決定することと、
前記関係度に基づいて、前記移動体の移動を行う駆動部が行う処理、および、前記移動体の進路を提示する表現を出力する出力部が行う処理が対応付けられた走行モードを設定することと
を含む移動体制御方法。
(11)
移動体の移動を制御する移動体制御装置のコンピュータに、
前記移動体の周囲に居る人物との関係度を決定することと、
前記関係度に基づいて、前記移動体の移動を行う駆動部が行う処理、および、前記移動体の進路を提示する表現を出力する出力部が行う処理が対応付けられた走行モードを設定することと
を含む移動体制御を実行させるためのプログラム。
<Example of configuration combination>
The present technology can also have the following configurations.
(1)
A relationship determination unit that determines the relationship with surrounding people around the moving object,
A setting for setting a traveling mode in which a process performed by a driving unit that moves the moving body and a process performed by an output unit that outputs an expression presenting the course of the moving body are associated with each other based on the degree of relationship. A mobile control device that includes a unit.
(2)
When moving with the surrounding person, the setting unit sets a traveling mode in which the driving unit changes the direction of the housing of the moving body to travel when the course is changed. The mobile control device described.
(3)
The moving body control device according to (2) above, wherein the output unit presents the traveling direction of the moving body, but does not express the direction of the moving body.
(4)
The mobile control device according to (2) above, wherein the output unit does not present the traveling direction of the moving body and does not express the direction of the moving body.
(5)
The setting unit does not move together with the surrounding person, but when there is a visible surrounding person, the output unit presents the traveling direction of the moving body and the moving body changes its course. The mobile control device according to (1) above, wherein the output unit changes the direction of travel to set a traveling mode.
(6)
The moving body control device according to (5) above, wherein the driving unit moves while maintaining the housing of the moving body in a certain direction when the moving body changes its course.
(7)
The moving body control device according to (5) above, wherein the driving unit changes the direction of the housing of the moving body when the moving body changes its course.
(8)
The setting unit does not move with the surrounding person, and when there is no visible surrounding person, the output unit expresses the traveling direction and the direction change for presenting the course of the moving body. The moving body control device according to (1) above, which sets a traveling mode in which the moving body travels without changing the direction of the housing of the moving body by the driving unit.
(9)
The mobile control device according to any one of (1) to (8) above, wherein the output unit is composed of a display unit that displays over the entire side surface of the housing of the mobile body.
(10)
The mobile control device that controls the movement of the mobile
Determining the degree of relationship with the person around the moving body
Based on the degree of relationship, a traveling mode is set in which the processing performed by the driving unit that moves the moving body and the processing performed by the output unit that outputs an expression that presents the course of the moving body are associated with each other. Mobile control methods including and.
(11)
To the computer of the mobile control device that controls the movement of the mobile
Determining the degree of relationship with the person around the moving body
Based on the degree of relationship, a traveling mode is set in which the processing performed by the driving unit that moves the moving body and the processing performed by the output unit that outputs an expression that presents the course of the moving body are associated with each other. A program for executing mobile control including and.

なお、本実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。 The present embodiment is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present disclosure. Further, the effects described in the present specification are merely examples and are not limited, and other effects may be obtained.

11 移動体制御システム, 12 自律移動型ロボット, 13 処理装置, 14 センサモジュール, 21 入力部, 22 演算部, 23 駆動部, 24 表示部, 31 レーザ測距装置, 32 RGBカメラ, 33 ステレオカメラ, 34 慣性計測装置, 41 CPU, 42 GPU, 43 補助記憶装置, 44 記憶装置, 51 モータ制御回路, 52 駆動用モータ, 53 エンコーダ, 61 出力装置, 71 筐体, 72 メカナムホイール 11 Mobile control system, 12 Autonomous mobile robot, 13 Processing device, 14 Sensor module, 21 Input unit, 22 Calculation unit, 23 Drive unit, 24 Display unit, 31 Laser ranging device, 32 RGB camera, 33 Stereo camera, 34 Inertial measurement unit, 41 CPU, 42 GPU, 43 Auxiliary storage device, 44 Storage device, 51 Motor control circuit, 52 Drive motor, 53 Encoder, 61 Output device, 71 Housing, 72 Mecanum wheel

Claims (11)

移動体の周囲に居る周囲人物との関係度を決定する関係度決定部と、
前記関係度に基づいて、前記移動体の移動を行う駆動部が行う処理、および、前記移動体の進路を提示する表現を出力する出力部が行う処理が対応付けられた走行モードを設定する設定部と
を備える移動体制御装置。
A relationship determination unit that determines the relationship with surrounding people around the moving object,
A setting for setting a traveling mode in which a process performed by a driving unit that moves the moving body and a process performed by an output unit that outputs an expression presenting the course of the moving body are associated with each other based on the degree of relationship. A mobile control device that includes a unit.
前記設定部は、前記周囲人物と一緒に移動を行う場合、進路を変更する際に前記駆動部により前記移動体の筐体の方向転換を行って走行する走行モードを設定する
請求項1に記載の移動体制御装置。
The setting unit according to claim 1, wherein when moving together with the surrounding person, the driving unit changes the direction of the housing of the moving body to set a traveling mode in which the vehicle travels when the course is changed. Mobile control device.
前記出力部は、前記移動体の進行方向の提示を行う一方で、その進行方向を方向変換する表現は行わない
請求項2に記載の移動体制御装置。
The mobile control device according to claim 2, wherein the output unit presents the traveling direction of the moving body, but does not express the direction of the moving body.
前記出力部は、前記移動体の進行方向の提示を行わず、進行方向を方向変換する表現も行わない
請求項2に記載の移動体制御装置。
The mobile control device according to claim 2, wherein the output unit does not present the traveling direction of the moving body and does not express the direction of the moving body.
前記設定部は、前記周囲人物と一緒に移動を行わないが、視認可能な前記周囲人物が居る場合、前記出力部により前記移動体の進行方向の提示を行うとともに、前記移動体が進路を変更する際に前記出力部により進行方向を方向変換する表現を行って走行する走行モードを設定する
請求項1に記載の移動体制御装置。
The setting unit does not move together with the surrounding person, but when there is a visible surrounding person, the output unit presents the traveling direction of the moving body and the moving body changes its course. The mobile control device according to claim 1, wherein the output unit changes the direction of travel to set a traveling mode for traveling.
前記駆動部は、前記移動体が進路を変更する際に、前記移動体の筐体を一定の方向に維持したままの移動を行う
請求項5に記載の移動体制御装置。
The moving body control device according to claim 5, wherein the driving unit moves while maintaining the housing of the moving body in a certain direction when the moving body changes its course.
前記駆動部は、前記移動体が進路を変更する際に、前記移動体の筐体の方向転換を行う
請求項5に記載の移動体制御装置。
The mobile control device according to claim 5, wherein the drive unit changes the direction of the housing of the mobile when the mobile changes its course.
前記設定部は、周囲人物と一緒に移動を行わず、かつ、視認可能な周囲人物が居ない場合、前記出力部による前記移動体の進路を提示するための進行方向および方向転換の表現を行わず、かつ、前記駆動部による前記移動体の筐体の方向転換を行わずに走行する走行モードを設定する
請求項1に記載の移動体制御装置。
The setting unit does not move with the surrounding person, and when there is no visible surrounding person, the output unit expresses the traveling direction and the direction change for presenting the course of the moving body. The mobile body control device according to claim 1, wherein a traveling mode is set for traveling without changing the direction of the housing of the moving body by the driving unit.
前記出力部は、前記移動体の筐体の側面全周に亘って表示を行う表示部により構成される
請求項1に記載の移動体制御装置。
The mobile control device according to claim 1, wherein the output unit includes a display unit that displays a display over the entire side surface of the housing of the mobile body.
移動体の移動を制御する移動体制御装置が、
前記移動体の周囲に居る人物との関係度を決定することと、
前記関係度に基づいて、前記移動体の移動を行う駆動部が行う処理、および、前記移動体の進路を提示する表現を出力する出力部が行う処理が対応付けられた走行モードを設定することと
を含む移動体制御方法。
The mobile control device that controls the movement of the mobile
Determining the degree of relationship with the person around the moving body
Based on the degree of relationship, a traveling mode is set in which the processing performed by the driving unit that moves the moving body and the processing performed by the output unit that outputs an expression that presents the course of the moving body are associated with each other. Mobile control methods including and.
移動体の移動を制御する移動体制御装置のコンピュータに、
前記移動体の周囲に居る人物との関係度を決定することと、
前記関係度に基づいて、前記移動体の移動を行う駆動部が行う処理、および、前記移動体の進路を提示する表現を出力する出力部が行う処理が対応付けられた走行モードを設定することと
を含む移動体制御を実行させるためのプログラム。
To the computer of the mobile control device that controls the movement of the mobile
Determining the degree of relationship with the person around the moving body
Based on the degree of relationship, a traveling mode is set in which the processing performed by the driving unit that moves the moving body and the processing performed by the output unit that outputs an expression that presents the course of the moving body are associated with each other. A program for executing mobile control including and.
JP2018116123A 2018-06-19 2018-06-19 Mobile control device, mobile control method, and program Pending JP2021157203A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018116123A JP2021157203A (en) 2018-06-19 2018-06-19 Mobile control device, mobile control method, and program
PCT/JP2019/022453 WO2019244644A1 (en) 2018-06-19 2019-06-06 Mobile body control device, mobile body control method, and program
US17/250,181 US11526172B2 (en) 2018-06-19 2019-06-06 Mobile object control apparatus and mobile object control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018116123A JP2021157203A (en) 2018-06-19 2018-06-19 Mobile control device, mobile control method, and program

Publications (1)

Publication Number Publication Date
JP2021157203A true JP2021157203A (en) 2021-10-07

Family

ID=68983666

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018116123A Pending JP2021157203A (en) 2018-06-19 2018-06-19 Mobile control device, mobile control method, and program

Country Status (3)

Country Link
US (1) US11526172B2 (en)
JP (1) JP2021157203A (en)
WO (1) WO2019244644A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102592823B1 (en) * 2022-11-29 2023-10-24 (주)토탈소프트뱅크 Apparatus for displaying operation information of autonomous yard tractor
WO2024084606A1 (en) * 2022-10-19 2024-04-25 三菱電機株式会社 Illumination control system

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021157203A (en) * 2018-06-19 2021-10-07 ソニーグループ株式会社 Mobile control device, mobile control method, and program
WO2023127500A1 (en) * 2021-12-27 2023-07-06 富士フイルム株式会社 Control device, control method, and control program

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4315872B2 (en) 2004-07-28 2009-08-19 本田技研工業株式会社 Mobile robot controller
US20060058921A1 (en) * 2004-09-13 2006-03-16 Tamao Okamoto Mobile robot
JP4528295B2 (en) * 2006-12-18 2010-08-18 株式会社日立製作所 GUIDANCE ROBOT DEVICE AND GUIDANCE SYSTEM
JP2010055422A (en) * 2008-08-28 2010-03-11 Murata Machinery Ltd Autonomous mobile device
JP2011204145A (en) * 2010-03-26 2011-10-13 Sony Corp Moving device, moving method and program
SE537371C2 (en) * 2011-11-18 2015-04-14 Atlas Copco Rock Drills Ab Method and apparatus for operating a mining and / or construction machine
JP5892588B2 (en) * 2011-11-24 2016-03-23 学校法人東京電機大学 Human guidance robot
US9588518B2 (en) * 2012-05-18 2017-03-07 Hitachi, Ltd. Autonomous mobile apparatus, control device, and autonomous mobile method
WO2016104265A1 (en) * 2014-12-25 2016-06-30 株式会社エクォス・リサーチ Moving body
US10776733B2 (en) * 2017-06-26 2020-09-15 Acuitus Ag, Inc. Computer platform for controlling agricultural assets
JP2021157203A (en) * 2018-06-19 2021-10-07 ソニーグループ株式会社 Mobile control device, mobile control method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024084606A1 (en) * 2022-10-19 2024-04-25 三菱電機株式会社 Illumination control system
JP7475539B1 (en) 2022-10-19 2024-04-26 三菱電機株式会社 Lighting Control System
KR102592823B1 (en) * 2022-11-29 2023-10-24 (주)토탈소프트뱅크 Apparatus for displaying operation information of autonomous yard tractor

Also Published As

Publication number Publication date
WO2019244644A1 (en) 2019-12-26
US11526172B2 (en) 2022-12-13
US20210255630A1 (en) 2021-08-19

Similar Documents

Publication Publication Date Title
WO2019244644A1 (en) Mobile body control device, mobile body control method, and program
US10293484B2 (en) Robot device and method of controlling the robot device
JP6567563B2 (en) Humanoid robot with collision avoidance and orbit return capability
US10307911B2 (en) Robot
US10921818B2 (en) Robot
US20180046874A1 (en) System and method for marker based tracking
EP2571660B1 (en) Mobile human interface robot
US10901215B1 (en) Systems and methods for providing a mobile artificial reality user with environmental awareness
US20140168261A1 (en) Direct interaction system mixed reality environments
US20130326364A1 (en) Position relative hologram interactions
GB2527207A (en) Mobile human interface robot
WO2020031767A1 (en) Information processing device, information processing method, and program
WO2011146259A2 (en) Mobile human interface robot
KR20190106891A (en) Artificial intelligence monitoring device and operating method thereof
WO2021220679A1 (en) Robot control device, method, and program
KR20210051014A (en) Robot cleaner and operating method thereof
KR20190096874A (en) Artificial intelligence robot cleaner
JP2017120495A (en) Moving body
JP2019109850A (en) Transmissive display device, display control method, and computer program
CN111164544A (en) Motion sensing
KR20190104103A (en) Method and apparatus for driving an application
KR20190105214A (en) Robot cleaner for escaping constrained situation through artificial intelligence and operating method thereof
KR20190104008A (en) Robot cleaner for cleaning using artificial intelligence and operating method thereof
KR20210047434A (en) Robot cleaner and operating method thereof
CN106959762B (en) Virtual reality system and method