JPWO2019012612A1 - Information processing apparatus and information processing system - Google Patents

Information processing apparatus and information processing system Download PDF

Info

Publication number
JPWO2019012612A1
JPWO2019012612A1 JP2017563272A JP2017563272A JPWO2019012612A1 JP WO2019012612 A1 JPWO2019012612 A1 JP WO2019012612A1 JP 2017563272 A JP2017563272 A JP 2017563272A JP 2017563272 A JP2017563272 A JP 2017563272A JP WO2019012612 A1 JPWO2019012612 A1 JP WO2019012612A1
Authority
JP
Japan
Prior art keywords
information
indoor
area
virtual lane
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017563272A
Other languages
Japanese (ja)
Other versions
JP6289791B1 (en
Inventor
雄治 五十嵐
雄治 五十嵐
佳明 安達
佳明 安達
雅彦 伊川
雅彦 伊川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6289791B1 publication Critical patent/JP6289791B1/en
Publication of JPWO2019012612A1 publication Critical patent/JPWO2019012612A1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Traffic Control Systems (AREA)

Abstract

作成部(1e)は、屋内において、移動装置(13)の移動が許可された第1領域(240,240a1,240a2,240b1,240b2,240c,240d)を設定し、設定した当該第1領域(240,240a1,240a2,240b1,240b2,240c,240d)を示す第1領域情報(130)を作成する。移動装置(13)は、屋内に存在する地物(150,220,220a,220b)を検出する。屋内に存在する地物(150,220,220a,220b)を検出するセンサ装置(11)が屋内に設置されている。作成部(1e)は、屋内の地図を示す地図情報と、移動装置(13)の検出距離(d1)と、センサ装置(11)が検出する屋内地物の位置とに基づいて、屋内に第1領域(240,240a1,240a2,240b1,240b2,240c,240d)を設定する。The creation unit (1e) sets the first area (240, 240a1, 240a2, 240b1, 240b2, 240c, 240d) where movement of the mobile device (13) is permitted indoors, and sets the set first area (1e). First area information (130) indicating 240, 240a1, 240a2, 240b1, 240b2, 240c, 240d) is created. The mobile device (13) detects features (150, 220, 220a, 220b) present indoors. A sensor device (11) for detecting features (150, 220, 220a, 220b) present indoors is installed indoors. The creating unit (1e) is an indoor unit based on the map information indicating the indoor map, the detection distance (d1) of the mobile device (13), and the position of the indoor feature detected by the sensor device (11). One area (240, 240a1, 240a2, 240b1, 240b2, 240c, 240d) is set.

Description

本発明は、情報処理に関する。   The present invention relates to information processing.

近年、高齢者の増加及び労働力人口の減少などの社会的問題への対策として、屋内における様々な作業をロボットに行わせるための技術開発が進められている。屋内おいてロボットに行わせる作業としては、例えば、物資の運搬、清掃、あるいは人の移動支援などが挙げられる。   BACKGROUND ART In recent years, as a countermeasure against social problems such as an increase in elderly people and a decrease in labor force population, technology development for causing a robot to perform various indoor tasks has been promoted. Examples of the work to be performed by the robot indoors include transportation of supplies, cleaning, and movement support of people.

特許文献1〜3には、自律移動を行う移動装置に関する技術が開示されている。   Patent Documents 1 to 3 disclose techniques relating to a mobile device that performs autonomous movement.

特許第5902275号公報Patent No. 5902275 gazette 特開2015−138489号公報JP, 2015-138489, A 特開2010−86416号公報Unexamined-Japanese-Patent No. 2010-86416

ロボット等の移動装置については、屋内において適切に自律移動できることが望まれる。   For mobile devices such as robots, it is desirable to be able to autonomously move appropriately indoors.

そこで、本発明は上述の点に鑑みて成されたものであり、移動装置が屋内において適切に自律移動することを可能にする技術を提供することを目的とする。   Therefore, the present invention has been made in view of the above-described point, and an object of the present invention is to provide a technology that enables a mobile device to autonomously move appropriately indoors.

本発明に係る情報処理装置の一態様は、移動装置(13)が自律移動を行う屋内において、当該移動装置(13)の移動が許可された第1領域(240,240a1,240a2,240b1,240b2,240c,240d)を設定し、設定した当該第1領域(240,240a1,240a2,240b1,240b2,240c,240d)を示す第1領域情報(130)を作成する作成部(1e)を備え、前記移動装置(13)は、前記屋内に存在する地物(150,220,220a,220b)を検出し、前記屋内に存在する地物(150,220,220a,220b)を検出するセンサ装置(11)が前記屋内に設置され、前記作成部(1e)は、前記屋内の地図を示す地図情報と、前記移動装置(13)の検出距離(d1)と、前記センサ装置(11)が検出する屋内地物の位置とに基づいて、前記屋内に前記第1領域(240,240a1,240a2,240b1,240b2,240c,240d)を設定する。   One aspect of the information processing apparatus according to the present invention is a first area (240, 240a1, 240a2, 240b1, 240b2) in which movement of the mobile device (13) is permitted in the indoor where the mobile device (13) performs autonomous movement. , 240c, 240d), and includes a creation unit (1e) for creating first region information (130) indicating the set first regions (240, 240a1, 240a2, 240b1, 240b, 240c, 240d). The moving device (13) detects the features (150, 220, 220a, 220b) present indoors, and the sensor device (s) detects the features (150 220 220a, 220b) present indoors 11) is installed indoors, and the creation unit (1e) includes map information indicating a map of the indoor and a detection distance (d) of the mobile device (13). ) And, based on the position of indoor feature the sensor device (11) detects, it sets the first region to the indoors (240,240a1,240a2,240b1,240b2,240c, 240d).

また、本発明に係る情報処理装置の一態様は、移動装置(13)が自律移動を行う屋内に設定された、当該移動装置(13)の移動が許可された第1領域(240,240a1,240a2,240b1,240b2,240c,240d)が、適切に設定されているか否かを判定する判定部(1y)を備え、前記移動装置(13)は、前記屋内に存在する地物(150,220,220a,220b)を検出し、検出した当該地物(150,220,220a,220b)の位置を示す第1位置情報を出力し、前記屋内の前記移動装置(13)を検出し、検出した前記移動装置(13)の位置を示す第2位置情報を出力するセンサ装置(11)が前記屋内に設置され、前記判定部は、前記第1及び第2位置情報に基づいて、前記第1領域(240,240a1,240a2,240b1,240b2,240c,240d)が適切に設定されているか否かを判定する。   Further, one aspect of the information processing apparatus according to the present invention is a first area (240, 240a1, 2) where movement of the mobile device (13) is permitted, which is set indoors where the mobile device (13) performs autonomous movement. The mobile device (13) includes a determination unit (1 y) that determines whether or not 240a 2, 240b 1, 240b 2, 240c, and 240d) are appropriately set, and the moving device (13) is a feature (150, 220) present indoors , 220a, 220b), and outputs first position information indicating the position of the detected feature (150, 220, 220a, 220b), and detects and detects the mobile device (13) indoors A sensor device (11) for outputting second position information indicating a position of the moving device (13) is installed indoors, and the determination unit determines the first area based on the first and second position information. ( 40,240A1,240a2,240b1,240b2,240c, determines whether 240d) is properly set.

本発明によれば、移動装置が屋内において適切に自律移動することができる。   According to the present invention, the mobile device can appropriately move autonomously indoors.

情報処理システムの一例を示す図である。It is a figure showing an example of an information processing system. 情報処理装置のハードウェア構成の一例を示す図である。It is a figure showing an example of the hardware constitutions of an information processor. ロボットが屋内仮想レーン上を移動する様子の一例を示す図である。It is a figure which shows an example of a mode that a robot moves on an indoor virtual lane. 情報処理装置の動作の一例を示すフローチャートである。It is a flow chart which shows an example of operation of an information processor. 屋内仮想レーンの一例を示す図である。It is a figure which shows an example of an indoor virtual lane. 屋内地図情報に含まれる情報の一例を示す図である。It is a figure which shows an example of the information contained in indoor map information. 屋内仮想レーンの一例を示す図である。It is a figure which shows an example of an indoor virtual lane. 屋内仮想レーンに設定される移動不可領域の一例を示す図である。It is a figure which shows an example of the movement impossible area | region set to an indoor virtual lane. 情報処理装置の動作の一例を示すフローチャートである。It is a flow chart which shows an example of operation of an information processor. 屋内仮想レーンに設定される停止禁止領域の一例を示す図である。It is a figure which shows an example of the stop prohibition area set to an indoor virtual lane. 屋内仮想レーンに設定される停止禁止領域の一例を示す図である。It is a figure which shows an example of the stop prohibition area set to an indoor virtual lane. 情報処理システムの一例を示す図である。It is a figure showing an example of an information processing system.

実施の形態1.
<情報処理システムの概要>
図1は情報処理システム10の構成の一例を示す図である。本実施の形態に係る情報処理システム10は、移動装置が自律移動する屋内の地図(屋内地図)を示す屋内地図情報であって、当該屋内における、当該移動装置の移動が許可された領域を示す情報を含む屋内地図情報を作成する。したがって、情報処理システム10は、屋内地図作成システムであるとも言える。
Embodiment 1
<Overview of information processing system>
FIG. 1 is a diagram showing an example of the configuration of an information processing system 10. An information processing system 10 according to the present embodiment is indoor map information indicating an indoor map (indoor map) on which the mobile device autonomously travels, and indicates an area in which movement of the mobile device is permitted in the indoor. Create indoor map information including information. Therefore, it can be said that the information processing system 10 is an indoor mapping system.

図1に示されるように、情報処理システム10は、情報処理装置1と、屋内に設置される屋内設置型センサ装置11(以後、第1センサ装置11と呼ぶことがある)と、当該屋内を自律移動する移動装置であるロボット13とを備える。ロボット13は、移動体搭載センサ装置12(以後、第2センサ装置12と呼ぶことがある)を備える。情報処理装置1は、屋内設置型センサ装置11から出力される情報と、移動体搭載センサ装置12から出力される情報とに基づいて、屋内においてロボット13の移動が許可された領域を示す情報を含む屋内地図情報を作成することが可能である。したがって、情報処理装置1は、屋内地図作成装置であるとも言える。   As shown in FIG. 1, the information processing system 10 includes an information processing apparatus 1 and an indoor installation type sensor apparatus 11 (hereinafter, may be referred to as a first sensor apparatus 11) installed indoors. And a robot 13 that is a mobile device that moves autonomously. The robot 13 includes a mobile unit mounted sensor device 12 (hereinafter, may be referred to as a second sensor device 12). The information processing apparatus 1 uses the information indicating the area in which the robot 13 is permitted to move indoors based on the information output from the indoor installation type sensor device 11 and the information output from the mobile body mounted sensor device 12. It is possible to create indoor map information including: Therefore, it can be said that the information processing device 1 is an indoor map creating device.

以後、屋内と言えば、ロボット13が自律移動する屋内を意味する。また、屋内において、ロボット13の移動が許可された領域を移動許可領域と呼ぶことがある。また、移動許可領域を示す情報を移動許可領域情報と呼ぶことがある。   Hereinafter, indoor refers to indoors in which the robot 13 moves autonomously. In addition, an area in which movement of the robot 13 is permitted indoors may be referred to as a movement permitted area. Also, information indicating the movement permission area may be referred to as movement permission area information.

屋内には少なくとも一つの第1センサ装置11が設置される。したがって、情報処理システム10は少なとも一つの第1センサ装置11を備える。第1センサ装置11は、例えば、屋内の天井あるいは柱等に設置される。第1センサ装置11は、屋内地物、人及びロボット13のそれぞれを第1検出対象物として検出することが可能である。ここで、屋内地物とは、屋内に存在する、人、ロボット13及び第1センサ装置11以外の物体(物理的に存在する物)を意味する。第1センサ装置11が検出可能な屋内地物としては、例えば、柱、壁、床、窓及び照明などが挙げられる。第1センサ装置11は、例えば、レーザーレンジセンサあるいはカメラセンサである。   At least one first sensor device 11 is installed indoors. Thus, the information processing system 10 comprises at least one first sensor device 11. The first sensor device 11 is installed on, for example, a ceiling or a pillar indoors. The first sensor device 11 can detect each of the indoor feature, the person, and the robot 13 as the first detection target. Here, the indoor feature means an object (physically existing object) other than a person, the robot 13 and the first sensor device 11 existing indoors. Examples of indoor features that can be detected by the first sensor device 11 include columns, walls, floors, windows, and lighting. The first sensor device 11 is, for example, a laser range sensor or a camera sensor.

第1センサ装置11は、検出した第1検出対象物の種別を特定する。また第1センサ装置11は、当該第1センサ装置11の位置を原点とした第1検出対象物の位置(第1センサ装置11の位置に対する第1検出対象物の相対的な位置)を求める。第1センサ装置11は、当該第1センサ装置11から第1検出対象物までの距離を測定し、その測定結果に基づいて、当該第1センサ装置11の位置を原点とした当該第1検出対象物の位置を求めることが可能である。以後、第1センサ装置11の位置を原点とした第1検出対象物の位置を第1相対位置と呼ぶことがある。   The first sensor device 11 specifies the type of the detected first detection target. Further, the first sensor device 11 obtains the position of the first detection object (the relative position of the first detection object to the position of the first sensor device 11) with the position of the first sensor device 11 as the origin. The first sensor device 11 measures the distance from the first sensor device 11 to the first detection target, and based on the measurement result, the first detection object whose origin is the position of the first sensor device 11 It is possible to determine the position of an object. Hereinafter, the position of the first detection target having the position of the first sensor device 11 as the origin may be referred to as a first relative position.

第1センサ装置11は、特定した種別を示す種別情報と、求めた第1相対位置を示す位置情報とを含む屋内設置型センサ情報110を出力する。屋内設置型センサ情報110では、第1検出対象物の種別を示す種別情報と、当該第1検出対象物の第1相対位置を示す位置情報とが互いに対応付けられている。   The first sensor device 11 outputs indoor installation type sensor information 110 including type information indicating the specified type and position information indicating the obtained first relative position. In the indoor installation type sensor information 110, type information indicating the type of the first detection target and position information indicating the first relative position of the first detection target are associated with each other.

第1センサ装置11は、例えば定期的に(例えば100msごとに)第1検出対象物を検出する。そして、第1センサ装置11は、第1検出対象物を検出するたびに、検出した第1検出対象物についての種別情報及び位置情報と、当該第1センサ装置11を識別するための識別情報とを含む屋内設置型センサ情報110を出力する。第1センサ装置11は、屋内設置型センサ情報110を例えば定期的に(例えば100msごとに)出力する。以後、屋内設置型センサ情報110を第1センサ情報110と呼ぶことがある。   The first sensor device 11 detects the first detection target, for example, periodically (for example, every 100 ms). Then, each time the first sensor device 11 detects the first detection object, the type information and position information on the detected first detection object, and identification information for identifying the first sensor device 11 Output indoor sensor information 110 including the The first sensor device 11 outputs the indoor installation type sensor information 110, for example, periodically (for example, every 100 ms). Hereinafter, the indoor installation type sensor information 110 may be referred to as first sensor information 110.

ロボット13に搭載された第2センサ装置12は、屋内地物及び人のそれぞれを第2検出対象物として検出することが可能である。第2センサ装置12が検出可能な屋内地物としては、例えば、柱、壁、床、窓及び照明などが挙げられる。第2センサ装置12は、例えば、レーザーレンジセンサあるいはカメラセンサである。本実施の形態では、第1センサ装置11の検出精度が、第2センサ装置12の検出精度よりも高くなっている。   The second sensor device 12 mounted on the robot 13 can detect each of the indoor feature and the person as a second detection target. Examples of indoor features that can be detected by the second sensor device 12 include columns, walls, floors, windows, and lighting. The second sensor device 12 is, for example, a laser range sensor or a camera sensor. In the present embodiment, the detection accuracy of the first sensor device 11 is higher than the detection accuracy of the second sensor device 12.

第2センサ装置12は、検出した第2検出対象物の種別を特定する。また第2センサ装置12は、当該第2センサ装置12の位置を原点とした第2検出対象物の位置(第2センサ装置12の位置に対する第2検出対象物の相対的な位置)を求める。第2センサ装置12は、当該第2センサ装置12から第2検出対象物までの距離を測定し、その測定結果に基づいて、当該第2センサ装置12の位置を原点とした当該第2検出対象物の位置を求めることが可能である。以後、第2センサ装置12の位置を原点とした第2検出対象物の位置を第2相対位置と呼ぶことがある。   The second sensor device 12 specifies the type of the detected second detection target. Further, the second sensor device 12 obtains the position of the second detection object (the relative position of the second detection object with respect to the position of the second sensor device 12) with the position of the second sensor device 12 as the origin. The second sensor device 12 measures the distance from the second sensor device 12 to the second detection object, and based on the measurement result, the second detection object whose position is the position of the second sensor device 12 is the origin. It is possible to determine the position of an object. Hereinafter, the position of the second detection target with the position of the second sensor device 12 as the origin may be referred to as a second relative position.

第2センサ装置12は、特定した種別を示す種別情報と、求めた第2相対位置を示す位置情報とを含む移動体搭載センサ情報120を出力する。移動体搭載センサ情報120では、第2検出対象物の種別を示す種別情報と、当該第2検出対象物の第2相対位置を示す位置情報とが互いに対応付けられている。   The second sensor device 12 outputs moving body mounted sensor information 120 including type information indicating the specified type and position information indicating the obtained second relative position. In the mobile body mounted sensor information 120, type information indicating the type of the second detection target and position information indicating the second relative position of the second detection target are associated with each other.

第2センサ装置12は、例えば定期的に(例えば100msごとに)第2検出対象物を検出する。そして、第2センサ装置12は、第2検出対象物を検出するたびに、検出した第2検出対象物についての種別情報及び位置情報を含む移動体搭載センサ情報120を出力する。第2センサ装置12は、移動体搭載センサ情報120を例えば定期的に(例えば100msごとに)出力する。以後、移動体搭載センサ情報120を第2センサ情報120と呼ぶことがある。   The second sensor device 12 detects the second detection target, for example, periodically (for example, every 100 ms). Then, each time the second sensor device 12 detects the second detection target, the second sensor device 12 outputs the mobile-body mounted sensor information 120 including type information and position information on the detected second detection target. The second sensor device 12 outputs the mobile unit mounted sensor information 120, for example, periodically (for example, every 100 ms). Hereinafter, the mobile unit mounted sensor information 120 may be referred to as second sensor information 120.

情報処理装置1は、機能ブロックとして、屋内設置型センサ情報収集部1aと、移動体位置算出部1bと、屋内地図情報記憶部1cと、移動体搭載センサ情報収集部1dと、屋内仮想レーン情報作成部1eと、屋内仮想レーン情報検証部1fとを備えている。情報処理装置1は、例えば、一種のコンピュータ装置(コンピュータ回路)である。情報処理装置1は、屋内に設けられてもよいし、屋外に設けられてもよい。   The information processing apparatus 1 includes, as functional blocks, an indoor installation type sensor information collecting unit 1a, a moving body position calculating unit 1b, an indoor map information storage unit 1c, a moving body mounted sensor information collecting unit 1d, and indoor virtual lane information A creation unit 1e and an indoor virtual lane information verification unit 1f are provided. The information processing device 1 is, for example, a type of computer device (computer circuit). The information processing device 1 may be provided indoors or outdoors.

屋内設置型センサ情報収集部1aは、第1センサ装置11が出力する第1センサ情報110を収集する。屋内設置型センサ情報収集部1aは、第1センサ装置11と有線通信あるいは無線通信を行うことが可能である。屋内設置型センサ情報収集部1aは、第1センサ装置11と通信することによって、第1センサ情報110を収集する。屋内設置型センサ情報収集部1aは、有線通信を行う場合には、例えば、Ethernet(登録商標)に準拠して通信してもよいし、シリアル通信を行ってもよい。また、屋内設置型センサ情報収集部1aは、無線通信を行う場合には、例えば、Wi−Fiに準拠して通信を行ってもよいし、Bluetooth(登録商標)に準拠して通信を行ってもよい。以後、屋内設置型センサ情報収集部1aを第1収集部1aと呼ぶことがある。   The indoor installation type sensor information collecting unit 1a collects the first sensor information 110 output by the first sensor device 11. The indoor installation type sensor information collecting unit 1a can perform wired communication or wireless communication with the first sensor device 11. The indoor installation type sensor information collecting unit 1 a collects the first sensor information 110 by communicating with the first sensor device 11. In the case of performing wired communication, the indoor installation type sensor information collecting unit 1a may communicate, for example, in compliance with Ethernet (registered trademark) or may perform serial communication. In addition, when performing wireless communication, the indoor installation type sensor information collecting unit 1a may perform communication in compliance with Wi-Fi, for example, or perform communication in compliance with Bluetooth (registered trademark). It is also good. Hereinafter, the indoor installation type sensor information collecting unit 1a may be referred to as a first collecting unit 1a.

移動体搭載センサ情報収集部1dは、第2センサ装置12が出力する第2センサ情報120を収集する。移動体搭載センサ情報収集部1dは、第2センサ装置12と例えば無線通信を行うことが可能である。移動体搭載センサ情報収集部1dは、第2センサ装置12と通信することによって、第2センサ情報120を収集する。移動体搭載センサ情報収集部1dは、例えば、Wi−Fiに準拠して通信を行ってもよいし、Bluetoothに準拠して通信を行ってもよい。なお、移動体搭載センサ情報収集部1dは、第2センサ装置12が搭載されたロボット13が有する通信部と通信することによって、当該通信部を介して、第2センサ装置12が出力する第2センサ情報120を収集してもよい。以後、移動体搭載センサ情報収集部1dを第2収集部1dと呼ぶことがある。   The mobile unit mounted sensor information collecting unit 1 d collects the second sensor information 120 output from the second sensor device 12. The mobile unit mounted sensor information collecting unit 1 d can perform, for example, wireless communication with the second sensor device 12. The mobile unit mounted sensor information collecting unit 1 d collects the second sensor information 120 by communicating with the second sensor device 12. The mobile unit mounted sensor information collecting unit 1d may perform communication in compliance with Wi-Fi, for example, or may perform communication in compliance with Bluetooth. The mobile unit mounted sensor information collecting unit 1d communicates with the communication unit of the robot 13 on which the second sensor device 12 is mounted, thereby outputting the second sensor unit 12 via the communication unit. Sensor information 120 may be collected. Hereinafter, the mobile unit mounted sensor information collecting unit 1d may be referred to as a second collecting unit 1d.

屋内地図情報記憶部1cは、屋内地図を示す屋内地図情報を記憶する。屋内地図情報には、例えば、柱、壁及び通路等の屋内地物を特定するための地物情報と、第1センサ装置11を特定するため第1センサ特定情報とが含まれている。地物情報では、例えば、屋内地物に割り当てられた識別番号(ID)と、当該屋内地物の種別(柱及び壁など)を示す種別情報と、当該屋内地物の位置を示す位置情報とが対応付けられている。また、通路を特定するための地物情報には、当該通路の形状を示す通路形状情報が含まれている。第1センサ特定情報では、第1センサ装置11を識別するための識別情報と、第1センサ装置11の位置を示す位置情報とが対応付けられている。   The indoor map information storage unit 1c stores indoor map information indicating an indoor map. The indoor map information includes, for example, feature information for identifying indoor features such as columns, walls, and passages, and first sensor identification information for identifying the first sensor device 11. In the feature information, for example, an identification number (ID) assigned to the indoor feature, type information indicating the type of the indoor feature (post and wall, etc.), and position information indicating the position of the indoor feature Are associated. Further, the feature information for specifying the passage includes passage shape information indicating the shape of the passage. In the first sensor identification information, identification information for identifying the first sensor device 11 and position information indicating the position of the first sensor device 11 are associated with each other.

ここで、屋内には、当該屋内の所定の位置を原点とするXYZ直交座標系が設定されている。屋内地図情報は、このXYZ直交座標系が用いられて作成されている。このXYZ直交座標系を地図座標系と呼ぶ。屋内地図情報に含まれる位置情報は、地図座標系での位置を示している。地図座標系は、屋内地図あるいは屋内地図情報に設定された座標系であるとも言える。屋内地図情報は、例えば建築図面等に基づいて生成され、屋内地図情報記憶部1cに予め記憶される。   Here, an XYZ orthogonal coordinate system having an origin at a predetermined position in the room is set indoors. Indoor map information is created using this XYZ orthogonal coordinate system. This XYZ orthogonal coordinate system is called a map coordinate system. The position information included in the indoor map information indicates the position in the map coordinate system. The map coordinate system can be said to be a coordinate system set in an indoor map or indoor map information. The indoor map information is generated based on, for example, an architectural drawing or the like, and is stored in advance in the indoor map information storage unit 1c.

なお、後述するように、屋内仮想レーン情報作成部1eが生成する、移動許可領域情報としての屋内仮想レーン情報は、屋内地図情報記憶部1c内に予め記憶されているのでなく、屋内地図情報記憶部1c内に予め記憶された屋内地図情報に対して後から含められる。以後、屋内地図情報記憶部1cを記憶部1cと呼ぶことがある。   As will be described later, indoor virtual lane information as movement permitted area information generated by the indoor virtual lane information creation unit 1e is not stored in advance in the indoor map information storage unit 1c, but is stored in the indoor map information storage. The indoor map information previously stored in the unit 1c is included later. Hereinafter, the indoor map information storage unit 1c may be referred to as a storage unit 1c.

移動体位置算出部1bは、第1収集部1aが収集した第1センサ情報110に含まれる、ロボット13の第1相対位置を示す位置情報を用いて、屋内地図上での当該ロボット13の位置を算出する。言い換えれば、移動体位置算出部1bは、第1センサ装置11が検出したロボット13の第1相対位置を用いて、地図座標系での当該ロボット13の位置を算出する。地図座標系での位置を地図位置と呼ぶことがある。また、移動体位置算出部1bが、ロボット13の第1相対位置を用いて算出する、地図座標系での当該ロボット13の位置を、ロボットの第1地図位置と呼ぶことがある。また、移動体位置算出部1bを算出部1bと呼ぶことがある。   The mobile body position calculation unit 1b uses the position information indicating the first relative position of the robot 13 included in the first sensor information 110 collected by the first collection unit 1a to determine the position of the robot 13 on the indoor map. Calculate In other words, the mobile body position calculation unit 1 b calculates the position of the robot 13 in the map coordinate system using the first relative position of the robot 13 detected by the first sensor device 11. The position in the map coordinate system may be called map position. In addition, the position of the robot 13 in the map coordinate system, which is calculated using the first relative position of the robot 13 by the mobile body position calculation unit 1b, may be referred to as a first map position of the robot. Also, the mobile body position calculation unit 1b may be referred to as a calculation unit 1b.

算出部1bは、第2収集部1dが収集した第2センサ情報120に含まれる、屋内地物の第2相対位置を示す位置情報を用いて、ロボット13の地図位置を算出する。言い換えれば、算出部1bは、第2センサ装置12が検出した屋内地物の第2相対位置を用いてロボット13の地図位置を算出する。以後、算出部1bが、屋内地物の第2相対位置を用いて算出するロボット13の地図位置を、ロボット13の第2地図位置と呼ぶことがある。   The calculation unit 1b calculates the map position of the robot 13 using the position information indicating the second relative position of the indoor feature included in the second sensor information 120 collected by the second collection unit 1d. In other words, the calculation unit 1 b calculates the map position of the robot 13 using the second relative position of the indoor feature detected by the second sensor device 12. Hereinafter, the map position of the robot 13 calculated by the calculation unit 1 b using the second relative position of the indoor feature may be referred to as a second map position of the robot 13.

屋内仮想レーン情報作成部1eは、第1センサ装置11が検出した屋内地物の地図位置と、記憶部1c内の屋内地図情報とに基づいて、屋内において、ロボット13の移動が許可された移動許可領域を設定する。そして、屋内仮想レーン情報作成部1eは、設定した移動許可領域を示す移動許可領域情報130を作成して記憶部1c内の屋内地図情報に含める。移動許可領域情報130は、屋内地図において移動許可領域を特定するための情報である。以後、移動許可領域及び移動許可領域情報130を、屋内仮想レーン及び屋内仮想レーン情報130とそれぞれ呼ぶことがある。また、屋内仮想レーン情報作成部1eを作成部1eと呼ぶことがある。   The indoor virtual lane information creating unit 1 e is a movement in which the robot 13 is permitted to move indoors based on the map position of the indoor feature detected by the first sensor device 11 and the indoor map information in the storage unit 1 c. Set the permission area. Then, the indoor virtual lane information creation unit 1e creates movement permission area information 130 indicating the set movement permission area, and includes the movement permission area information 130 in the indoor map information in the storage unit 1c. The movement permission area information 130 is information for specifying the movement permission area in the indoor map. Hereinafter, the movement permitted area and movement permitted area information 130 may be referred to as indoor virtual lane and indoor virtual lane information 130, respectively. Also, the indoor virtual lane information creation unit 1e may be referred to as a creation unit 1e.

屋内仮想レーン情報検証部1fは、算出部1bが算出した、ロボット13の第1地図位置及び第2地図位置に基づいて、作成部1eが作成した屋内仮想レーン情報130が適切か否かを検証する。言い換えれば、屋内仮想レーン情報検証部1fは、屋内仮想レーンが適切に設定されているか否かを検証する。屋内仮想レーン情報検証部1fは、屋内仮想レーン情報130が適切であると判定すると、それを示す検証結果情報140を、検証した屋内仮想レーン情報130に含める。   The indoor virtual lane information verification unit 1 f verifies whether the indoor virtual lane information 130 created by the creation unit 1 e is appropriate based on the first map position and the second map position of the robot 13 calculated by the calculation unit 1 b. Do. In other words, the indoor virtual lane information verification unit 1 f verifies whether the indoor virtual lane is properly set. When determining that the indoor virtual lane information 130 is appropriate, the indoor virtual lane information verification unit 1 f includes verification result information 140 indicating the indoor virtual lane information 130 in the verified indoor virtual lane information 130.

以後、検証結果情報140を含む屋内仮想レーン情報130を屋内仮想レーン情報(検証済)130と呼ぶことがある。また、屋内仮想レーン情報検証部1fで適切であると判定されていない屋内仮想レーン情報130(屋内仮想レーン情報検証部1fによって検証されていない屋内仮想レーン情報130を含む)を、屋内仮想レーン情報(未検証)130と呼ぶことがある。また、屋内仮想レーン情報検証部1fを検証部1fと呼ぶことがある。   Hereinafter, indoor virtual lane information 130 including verification result information 140 may be referred to as indoor virtual lane information (verified) 130. Further, indoor virtual lane information 130 (including indoor virtual lane information 130 not verified by the indoor virtual lane information verification unit 1 f) that is not determined to be appropriate by the indoor virtual lane information verification unit 1 f (Unverified) It may be called 130. Also, the indoor virtual lane information verification unit 1 f may be referred to as a verification unit 1 f.

本実施の形態では、算出部1b及び検証部1fによって、第1センサ装置11が出力する、ロボット13の第1相対位置を示す位置情報と、第2センサ装置12が出力する、屋内地物の第2相対位置を示す位置情報とに基づいて、作成部1eが設定した屋内仮想レーンが、適切に設定されているか否かを判定する判定部1yが構成されている。   In the present embodiment, position information indicating the first relative position of the robot 13 which is output by the first sensor device 11 by the calculation unit 1 b and the verification unit 1 f and an indoor feature which is output by the second sensor device 12. The determination unit 1y is configured to determine whether the indoor virtual lane set by the creation unit 1e is appropriately set based on the position information indicating the second relative position.

図2は情報処理装置1のハードウェア構成の一例を示す図である。図2に示されるように、情報処理装置1は、ハードウェアとして、処理回路2と、記憶装置3と、第1通信装置4と、第2通信装置5とを備えている。   FIG. 2 is a diagram showing an example of the hardware configuration of the information processing apparatus 1. As shown in FIG. 2, the information processing device 1 includes a processing circuit 2, a storage device 3, a first communication device 4, and a second communication device 5 as hardware.

処理回路2は、例えば、CPU(Central Processing Unit)である。処理回路2は、DSP(Digital Signal Processor)を備えてもよい。記憶装置3は、例えば、ROM(Read Only Memory)及びRAM(Random Access Memory)などの、処理回路2(CPU)が読み取り可能な非一時的な記録媒体を含む。記憶装置3は、ROM及びRAM以外の、コンピュータが読み取り可能な非一時的な記録媒体を備えていてもよい。記憶装置3は、例えば、HDD(Hard Disk Drive)またはSSD(Solid State Drive)などを備えてもよい。記憶装置3は、情報処理装置1を制御するための制御プログラム3aを備えている。また記憶装置3は、屋内地図情報を記憶しており、上述の記憶部1cとして機能する。   The processing circuit 2 is, for example, a CPU (Central Processing Unit). The processing circuit 2 may include a DSP (Digital Signal Processor). The storage device 3 includes, for example, a non-temporary recording medium readable by the processing circuit 2 (CPU), such as a read only memory (ROM) and a random access memory (RAM). The storage device 3 may include a non-transitory storage medium readable by a computer other than the ROM and the RAM. The storage device 3 may include, for example, a hard disk drive (HDD) or a solid state drive (SSD). The storage device 3 includes a control program 3 a for controlling the information processing device 1. The storage device 3 stores indoor map information and functions as the above-mentioned storage unit 1c.

本実施の形態では、算出部1b、作成部1e及び検証部1fのそれぞれは、例えば、処理回路2(CPU)が記憶装置3内の制御プログラム3aを実行することによって実現される機能ブロックで構成されている。   In the present embodiment, each of the calculation unit 1b, the creation unit 1e, and the verification unit 1f includes, for example, functional blocks realized by the processing circuit 2 (CPU) executing the control program 3a in the storage device 3. It is done.

第1通信装置4は、第1センサ装置11と有線通信あるいは無線通信を行う通信回路である。第1通信装置4は、上述の第1収集部1aとして機能する。第2通信装置5は、第2センサ装置12と有線通信あるいは無線通信を行う通信回路である。第2通信装置5は、上述の第2収集部1dとして機能する。   The first communication device 4 is a communication circuit that performs wired communication or wireless communication with the first sensor device 11. The first communication device 4 functions as the above-described first collecting unit 1a. The second communication device 5 is a communication circuit that performs wired communication or wireless communication with the second sensor device 12. The second communication device 5 functions as the above-described second collecting unit 1 d.

なお、処理回路2は、その機能の実現にソフトウェアが不要なハードウェア回路によって実現されてもよい。この場合には、処理回路2は、例えば、単一回路、複合回路、プログラム化されたプロセッサ、並列プログラム化されたプロセッサ、ASIC(Application Specific Integrated Circuit)及びFPGA(field-programmable gate array)の少なくとも一つで構成されてもよい。処理回路2が、その機能の実現にソフトウェアが不要なハードウェア回路によって実現される場合には、算出部1b、作成部1e及び検証部1fのそれぞれが、その機能の実現にソフトウェアが不要なハードウェア回路によって実現される。また、算出部1b、作成部1e及び検証部1fの少なくとも一つが、その機能の実現にソフトウェアが不要なハードウェア回路によって実現されてもよい。   The processing circuit 2 may be realized by a hardware circuit that does not require software to realize its function. In this case, the processing circuit 2 is, for example, at least a single circuit, a complex circuit, a programmed processor, a parallel programmed processor, an application specific integrated circuit (ASIC), and a field-programmable gate array (FPGA). You may be comprised by one. When the processing circuit 2 is realized by a hardware circuit that does not require software to realize its function, each of the calculation unit 1 b, the creation unit 1 e, and the verification unit 1 f has hardware that does not require software to realize its function. It is realized by the wear circuit. In addition, at least one of the calculation unit 1 b, the creation unit 1 e, and the verification unit 1 f may be realized by a hardware circuit that does not require software to realize the function.

<ロボットの自律移動>
第2センサ装置12が搭載されたロボット13は、当該第2センサ装置12が検出する屋内地物の位置に基づいて、記憶部1c内の屋内仮想レーン情報130が示す屋内仮想レーン上を自律移動することができる。
<Autonomous movement of robot>
The robot 13 on which the second sensor device 12 is mounted moves autonomously on the indoor virtual lane indicated by the indoor virtual lane information 130 in the storage unit 1 c based on the position of the indoor feature detected by the second sensor device 12. can do.

図3はロボット13が屋内仮想レーン240上を自律移動する様子の一例を示す図である。図3に示されるように、ロボット13に搭載された第2センサ装置12は、その検出範囲12a内に屋内地物150が入ると、屋内地物150との距離を算出し、その算出結果に基づいて、第2センサ装置12を原点とした屋内地物150の位置、つまり屋内地物150の第2相対位置を求める。第2センサ装置12の検出距離d1(円形の検出範囲12aの半径)は、例えば5〜30mである。そして、ロボット13は、屋内地物150の第2相対位置から、当該ロボット13の地図位置を求める。ロボット13は、例えばそれに搭載されたCPUにおいて、当該ロボット13の地図位置を繰り返し求める。そして、ロボット13は、当該ロボット13の地図位置を求めるたびに、求めた地図位置と、屋内仮想レーン情報130が示す屋内仮想レーン(移動許可領域)240とを比較し、その比較結果に基づいて、当該地図位置が当該屋内仮想レーン240から外れないように、目的地に向かって移動する。これにより、ロボット13は、屋内仮想レーン240上を適切に自律移動することができる。   FIG. 3 is a view showing an example of the robot 13 autonomously moving on the indoor virtual lane 240. As shown in FIG. As shown in FIG. 3, when the indoor feature 150 enters the detection range 12a, the second sensor device 12 mounted on the robot 13 calculates the distance to the indoor feature 150, and the calculation result is Based on the position of the indoor feature 150 with the second sensor device 12 as the origin, the second relative position of the indoor feature 150 is determined. The detection distance d1 of the second sensor device 12 (radius of the circular detection range 12a) is, for example, 5 to 30 m. Then, the robot 13 obtains the map position of the robot 13 from the second relative position of the indoor feature 150. The robot 13 repeatedly obtains the map position of the robot 13 by using, for example, a CPU mounted thereon. Then, each time the robot 13 obtains the map position of the robot 13, the calculated map position is compared with the indoor virtual lane (movement permitted area) 240 indicated by the indoor virtual lane information 130, and based on the comparison result. And move toward the destination so that the map position does not deviate from the indoor virtual lane 240. Thus, the robot 13 can move autonomously on the indoor virtual lane 240 appropriately.

ロボット13は、目的地までの移動経路を決定する場合、屋内仮想レーン情報(検証済)130が示す屋内仮想レーンだけを含む経路を決定してもよいし、屋内仮想レーン情報(検証済)130が示す屋内仮想レーンと屋内仮想レーン情報(未検証)130が示す屋内仮想レーンとの両方を含む経路を決定してもよい。後者の場合、ロボット13は、例えば、屋内仮想レーン情報(未検証)130が示す屋内仮想レーンよりも、屋内仮想レーン情報(検証済)130が示す屋内仮想レーンを移動する領域として優先させて経路を決定する。   When the robot 13 determines the movement route to the destination, the robot 13 may determine a route including only the indoor virtual lane indicated by the indoor virtual lane information (verified) 130 or the indoor virtual lane information (verified) 130 A route including both the indoor virtual lane indicated by and the indoor virtual lane indicated by indoor virtual lane information (unverified) 130 may be determined. In the latter case, for example, the robot 13 gives priority to the indoor virtual lane indicated by the indoor virtual lane information (verified) 130 as the moving area, rather than the indoor virtual lane indicated by the indoor virtual lane information (not verified) 130. Decide.

ロボット13は、当該ロボット13の地図位置を求める際には、記憶部1c内の屋内地図情報に含まれる、検出した屋内地物150の地図位置を、第2収集部1d(第2通信装置5)を通じて情報処理装置1から受け取る。そして、ロボット13は、情報処理装置1から受け取った屋内地物150の地図位置と、求めた屋内地物150の第2相対位置とに基づいて、当該ロボット13の地図位置を求める。屋内地物150の地図位置を(X0,Y0,Z0)とし、屋内地物150の第2相対位置を(Xr,Yr,Zr)とすると、ロボット13の地図位置は(X0−Xr,Y0−Yr,Z0−Zr)となる。ロボット13は、自律移動する際、例えば、柱を検出し、検出した柱の第2相対位置と、当該柱の地図位置とに基づいて、当該ロボット13の地図位置を求める。   When obtaining the map position of the robot 13, the robot 13 detects the map position of the detected indoor feature 150 included in the indoor map information in the storage unit 1 c as the second collecting unit 1 d (second communication device 5 ) From the information processing apparatus 1). Then, the robot 13 obtains the map position of the robot 13 based on the map position of the indoor feature 150 received from the information processing device 1 and the obtained second relative position of the indoor feature 150. Assuming that the map position of the indoor feature 150 is (X0, Y0, Z0) and the second relative position of the indoor feature 150 is (Xr, Yr, Zr), the map position of the robot 13 is (X0-Xr, Y0- It becomes Yr, Z0-Zr). When the robot 13 autonomously moves, for example, the pillar is detected, and the map position of the robot 13 is obtained based on the detected second relative position of the pillar and the map position of the pillar.

このように、ロボット13は、屋内地物150を検出することによって自己の地図位置を求めることが可能である。そして、ロボット13は、求めた自己の地図位置と屋内仮想レーン情報130とに基づいて、屋内を自律移動することが可能である。   Thus, the robot 13 can determine its own map position by detecting the indoor feature 150. Then, the robot 13 can autonomously move indoors based on the obtained map position and the indoor virtual lane information 130.

なお、ロボット13の第2センサ装置12が検出可能な屋内地物には、ロボット13が自己の地図位置を求めるための専用のマーカー(位置認識用マーカー)が含まれてもよい。また図3に示される、第2センサ装置12の検出範囲12aの形状は、あくまでも一例であって、検出範囲12aの形状はこれに限れない。   The indoor feature that can be detected by the second sensor device 12 of the robot 13 may include a dedicated marker (marker for position recognition) for the robot 13 to obtain its own map position. The shape of the detection range 12a of the second sensor device 12 shown in FIG. 3 is merely an example, and the shape of the detection range 12a is not limited to this.

<屋内仮想レーン情報の作成処理>
図4は、情報処理装置1で行われる、屋内仮想レーン情報(移動可能領域情報)130の作成処理の一例を示すフローチャートである。図5は、情報処理装置1が作成した屋内仮想レーン情報130が示す屋内仮想レーン240の一例を示す図である。図5には、屋内における、人及びロボット13が移動することが可能な通路200、壁210、第1の柱220a、第2の柱220b及び第1センサ装置11が示されている。図5の例では、屋内において、壁210で区分された通路200に対して屋内仮想レーン240が設定されている。以後、説明の対象の第1センサ装置11を対象第1センサ装置11と呼ぶことがある。
<Process to create indoor virtual lane information>
FIG. 4 is a flowchart showing an example of processing for creating indoor virtual lane information (movable area information) 130 performed by the information processing apparatus 1. FIG. 5 is a diagram showing an example of the indoor virtual lane 240 indicated by the indoor virtual lane information 130 created by the information processing device 1. FIG. 5 shows the passage 200, the wall 210, the first pillar 220a, the second pillar 220b, and the first sensor device 11 in which the person and the robot 13 can move indoors. In the example of FIG. 5, an indoor virtual lane 240 is set for the passage 200 divided by the wall 210 indoors. Hereinafter, the first sensor device 11 to be described may be referred to as a target first sensor device 11.

図4に示されるように、ステップS101において、第1収集部1aは、対象第1センサ装置11が出力する第1センサ情報(屋内設置型センサ情報)110を収集する。   As shown in FIG. 4, in step S101, the first collection unit 1a collects first sensor information (indoor installation type sensor information) 110 output by the target first sensor device 11.

次にステップS102において、作成部1eは、ステップS101で収集された第1センサ情報110と、記憶部1c内の屋内地図情報とに基づいて、対象第1センサ装置11で検出された屋内地物をロボット13が検出することが可能な範囲であって、ロボット13が移動することが可能な範囲を、屋内に設定する。以後、対象第1センサ装置11で検出された屋内地物をロボット13が検出することが可能な範囲を検出可能範囲と呼ぶことがある。また、対象第1センサ装置11で検出された屋内地物をロボット13が検出することが可能な範囲であって、ロボット13が移動することが可能な範囲を検出・移動可能範囲と呼ぶことがある。以下にステップS102について詳細に説明する。   Next, in step S102, the creation unit 1e is an indoor feature detected by the target first sensor device 11 based on the first sensor information 110 collected in step S101 and the indoor map information in the storage unit 1c. Is a range in which the robot 13 can detect, and the range in which the robot 13 can move is set indoors. Hereinafter, a range in which the robot 13 can detect an indoor feature detected by the target first sensor device 11 may be referred to as a detectable range. In addition, it is a range in which the robot 13 can detect the indoor feature detected by the target first sensor device 11, and the range in which the robot 13 can move is referred to as a detection / movable range is there. Step S102 will be described in detail below.

作成部1eは、例えば、対象第1センサ装置11で検出された柱220をロボット13が検出することが可能な領域を検出可能範囲とする。そして、作成部1eは、例えば、ロボット13が移動することが可能な通路200と検出可能範囲とが重なる範囲を、検出・移動可能範囲230とする。   For example, the creating unit 1 e sets an area in which the robot 13 can detect the pillar 220 detected by the target first sensor device 11 as a detectable range. Then, the creation unit 1e defines, for example, a range in which the passage 200 in which the robot 13 can move and the detectable range overlap with each other is the detectable / movable range 230.

作成部1eが屋内に検出可能範囲を設定する方法の一例を説明すると、まず、作成部1eは、対象第1センサ装置11で検出された柱220の地図位置を、記憶部1c内の屋内地図情報から取得する。具体的には、作成部1eは、第1センサ情報110に含まれる種別情報から、第1センサ装置11が検出した柱220の種別を特定する。そして、作成部1eは、記憶部1c内の屋内地図情報から、特定した柱の種別を示す種別情報に対応付けられた位置情報を取得する。この位置情報は、対象第1センサ装置11で検出された柱220の地図位置を示すことから、作成部1eは、対象第1センサ装置11で検出された柱220の地図位置を取得できる。   An example of a method of setting the detectable range indoors by the creating unit 1e will be described. First, the creating unit 1e determines the map position of the pillar 220 detected by the target first sensor device 11 as the indoor map in the storage unit 1c. Get from the information. Specifically, the creation unit 1 e identifies the type of the column 220 detected by the first sensor device 11 from the type information included in the first sensor information 110. Then, the creation unit 1e acquires, from the indoor map information in the storage unit 1c, the position information associated with the type information indicating the specified column type. Since the position information indicates the map position of the pillar 220 detected by the target first sensor device 11, the creating unit 1 e can acquire the map position of the pillar 220 detected by the target first sensor device 11.

次に作成部1eは、取得した柱220の地図位置を中心とし、対象第1センサ装置11の検出距離d1(図3参照)を半径とする円領域を、検出可能範囲として屋内に設定する。検出可能範囲の設定で使用される検出距離d1は、あらかじめ実験で求められた値が採用されてもよいし、ロボットのスペックシートに記載されている値が採用されてもよい。   Next, the creation unit 1e sets a circular area having a detection distance d1 (see FIG. 3) of the target first sensor device 11 as a radius centering on the acquired map position of the pillar 220 as a detectable range. As the detection distance d1 used in the setting of the detectable range, a value obtained in advance by experiment may be adopted, or a value described in a spec sheet of the robot may be adopted.

作成部1eは、検出可能範囲を決定すると、屋内において、決定した検出可能範囲と通路200とが重複する範囲を特定し、特定した当該範囲を検出・移動可能範囲230とする。   After determining the detectable range, the creation unit 1e specifies the overlapping range of the determined detectable range and the passage 200 indoors, and sets the specified range as the detectable / movable range 230.

例えば、図5の例において、第1センサ装置11が第1の柱220aと第2の柱220bを検出したとする。この場合、作成部1eは、第1の柱220aの地図位置(X1,Y1,Z1)を中心とし、対象第1センサ装置11の検出距離d1を半径とする円領域を検出可能範囲とする。そして、作成部1eは、決定した検出可能範囲と通路200とが重複する範囲を、第1の柱220aを基準とした第1の検出・移動可能範囲230aとする。同様に、作成部1eは、第2の柱220bの地図位置(X2,Y2,Z2)を中心とし、対象第1センサ装置11の検出距離d1を半径とする円領域を検出可能範囲とする。そして、作成部1eは、決定した検出可能範囲と通路200とが重複する範囲を、第2の柱220bを基準とした第2の検出・移動可能範囲230bとする。なお図5では、第1の検出・移動可能範囲230a及び第2の検出・移動可能範囲230bが模式的に示されている。   For example, in the example of FIG. 5, it is assumed that the first sensor device 11 detects the first column 220a and the second column 220b. In this case, the creation unit 1e sets a circular area having a detection distance d1 of the target first sensor device 11 as a radius centering on the map position (X1, Y1, Z1) of the first pillar 220a. Then, the creation unit 1e sets a range where the determined detectable range and the passage 200 overlap to be a first detection / movable range 230a based on the first pillar 220a. Similarly, the creation unit 1e sets a circular area having a detection distance d1 of the target first sensor device 11 as a radius centering on the map position (X2, Y2, Z2) of the second pillar 220b. Then, the creation unit 1e sets a range in which the determined detectable range and the passage 200 overlap to be a second detectable / movable range 230b based on the second pillar 220b. In FIG. 5, the first detection and movement range 230a and the second detection and movement range 230b are schematically shown.

ステップS102において、検出・移動可能範囲230が屋内に設定されると、ステップS103において、作成部1eは、検出・移動可能範囲230内において、屋内仮想レーン240を設定する。作成部1eは、例えば、屋内での通行方向を示す通行方向情報と、ロボットの大きさを示すロボット寸法情報とに基づいて、検出・移動可能範囲230内において、屋内仮想レーン240を設定する。通行方向情報には、例えば、屋内の通路が、右側通行であるいのか、左側通行であるのかを示す情報が含まれている。ロボット寸法情報には、ロボットの各寸法、つまりロボットの幅Wr、奥行きDr及び高さHrが含まれる。ロボット寸法情報は、実測値が採用されてもよいし、ロボットのスペックシートに記載されている値が採用されてもよい。   In step S102, when the detection and movement range 230 is set indoors, the creation unit 1e sets an indoor virtual lane 240 in the detection and movement range 230 in step S103. The creating unit 1 e sets the indoor virtual lane 240 in the detection / movability range 230 based on, for example, passage direction information indicating the passage direction indoors and robot dimension information indicating the size of the robot. The passage direction information includes, for example, information indicating whether the indoor passage is passing on the right or passing on the left. The robot dimension information includes the dimensions of the robot, that is, the width Wr, the depth Dr and the height Hr of the robot. As the robot dimension information, an actual measurement value may be adopted, or a value described in a specification sheet of the robot may be adopted.

作成部1eが検出・移動可能範囲230内に屋内仮想レーン240を設定する方法の一例を説明すると、作成部1eは、まず、通行方向情報から、検出・移動可能範囲230での通行方向を特定する。そして、作成部1eは、特定した通行方向に沿って延びる、ロボット13の移動に対する障害物(ロボット13の移動に対して障害となる屋内地物)が存在しない領域であって、ロボット13の幅Wrに応じた幅W1を有する領域を屋内仮想レーン240として検出・移動可能範囲230内に設定する。これにより、ロボット13は、屋内に定められた通行方向に沿って屋内仮想レーン240上を移動することが可能となる。ロボットの移動に対する障害物としては、柱、壁及び展示物などが挙げられる。作成部1eは、屋内地図情報から、ロボット13の移動に対して障害物となる屋内地物の地図位置を特定することができる。   An example of a method for setting the indoor virtual lane 240 in the detection and movement range 230 by the preparation unit 1e will be described. First, the generation unit 1e specifies the passage direction in the detection and movement range 230 from the passage direction information. Do. Then, the creating unit 1 e is an area where there is no obstacle (indoor feature that becomes an obstacle to the movement of the robot 13) to the movement of the robot 13 extending along the identified passing direction, and the width of the robot 13 is An area having a width W1 corresponding to Wr is set as the indoor virtual lane 240 in the detection / movable range 230. As a result, the robot 13 can move on the indoor virtual lane 240 along the traveling direction defined indoors. The obstacles to the movement of the robot include pillars, walls and exhibits. From the indoor map information, the creating unit 1 e can specify the map position of the indoor feature that is an obstacle to the movement of the robot 13.

屋内仮想レーンの幅W1は、例えば、ロボット13の幅Wrに対してマージンαを加えた値に設定される(W1=Wr+α)。マージンαは、屋内において、ロボット13が屋内仮想レーン240上を移動する際に、当該ロボット13の位置が多少ずれた場合であっても、当該ロボット13が屋内仮想レーン240上を移動することができる程度の値に設定される。マージンαは、オフセット値あるいは余裕値とも言える。   The width W1 of the indoor virtual lane is set, for example, to a value obtained by adding the margin α to the width Wr of the robot 13 (W1 = Wr + α). The margin α is that when the robot 13 moves on the indoor virtual lane 240 indoors, the robot 13 moves on the indoor virtual lane 240 even if the position of the robot 13 is slightly shifted. It is set to the value that can be done. The margin α can be said to be an offset value or a margin value.

図5の例では、第1の柱220aを基準とする検出・移動可能範囲230a内には、通行方向250に沿って延びる幅W1の第1の屋内仮想レーン240a1、第2の屋内仮想レーン240a2及び第3の屋内仮想レーン240a3が設定されている。また、第2の柱220bを基準とする検出・移動可能範囲230b内には、通行方向250に沿って延びる幅W1の第4の屋内仮想レーン240b1、第5の屋内仮想レーン240b2及び第6の屋内仮想レーン240b3が設定されている。   In the example of FIG. 5, the first indoor virtual lane 240a1 and the second indoor virtual lane 240a2 having a width W1 extending along the passing direction 250 are included in the detection / movability range 230a based on the first pillar 220a. And the third indoor virtual lane 240a3 are set. In the detection / movable range 230b based on the second pillar 220b, a fourth indoor virtual lane 240b1 of a width W1 extending along the passing direction 250, a fifth indoor virtual lane 240b2, and a sixth An indoor virtual lane 240b3 is set.

例えば、図5に示される第1の屋内仮想レーン240a1及び第2の屋内仮想レーン240a2等が設定される場合には、作成部1eは、検出・移動可能範囲230内において、通行方向250に沿って延びる、所定幅の長細い矩形領域を、壁210からその内側に向けて順に配置していく。そして、作成部1eは、柱220等の障害物と重ならない矩形領域を幅W1の分だけ束ねて得られる領域を屋内仮想レーン240とする。なお、作成部1eが検出・移動可能範囲230内に幅W1の屋内仮想レーン240を設定する方法はこれに限られない。また図5の例では、通行方向250は直線であるが、直線でなくてもよい。   For example, when the first indoor virtual lane 240a1 and the second indoor virtual lane 240a2 or the like shown in FIG. 5 are set, the creation unit 1e follows the passing direction 250 in the detection / movable range 230. An elongated rectangular area having a predetermined width is sequentially arranged from the wall 210 toward the inside thereof. Then, the creating unit 1 e sets an area obtained by bundling a rectangular area that does not overlap with an obstacle such as the pillar 220 by the width W 1 as an indoor virtual lane 240. Note that the method of setting the indoor virtual lane 240 having the width W1 in the detectable / movable range 230 by the creation unit 1e is not limited to this. In the example of FIG. 5, the passing direction 250 is a straight line, but may not be a straight line.

作成部1eは、検出・移動可能範囲230内に屋内仮想レーン240を設定すると、設定した屋内仮想レーン240を示す屋内仮想レーン情報130を作成する。これにより、屋内仮想レーン情報(未検証)130が得られる。屋内仮想レーン情報130には、屋内地図上での屋内仮想レーン240の範囲を示す情報とその地図位置を示す情報とが含まれている。そして、作成部1eは、作成した屋内仮想レーン情報130を、記憶部1c内の屋内地図情報に含める。検出・移動可能範囲230内に設定された屋内仮想レーン240を示す屋内仮想レーン情報130には、当該検出・移動可能範囲230を示す情報と、当該屋内仮想レーン240での通行方向を示す情報も含まれている。   When the creating unit 1 e sets the indoor virtual lane 240 in the detection / movable range 230, the creating unit 1 e creates indoor virtual lane information 130 indicating the set indoor virtual lane 240. As a result, indoor virtual lane information (unverified) 130 is obtained. The indoor virtual lane information 130 includes information indicating the range of the indoor virtual lane 240 on the indoor map and information indicating the map position. Then, the creation unit 1e includes the created indoor virtual lane information 130 in the indoor map information in the storage unit 1c. The indoor virtual lane information 130 indicating the indoor virtual lane 240 set in the detection and movement range 230 also includes information indicating the detection and movement range 230 and information indicating the passing direction in the indoor virtual lane 240. include.

図5の例では、第1の屋内仮想レーン240a1、第2の屋内仮想レーン240a2及び第3の屋内仮想レーン240a3をそれぞれ示す第1〜第3の屋内仮想レーン情報130が作成される。また、第4の屋内仮想レーン240b1、第5の屋内仮想レーン240b2及び第6の屋内仮想レーン240b3をそれぞれ示す第4〜第6の屋内仮想レーン情報130が作成される。   In the example of FIG. 5, first to third indoor virtual lane information 130 respectively indicating the first indoor virtual lane 240a1, the second indoor virtual lane 240a2, and the third indoor virtual lane 240a3 is created. Further, fourth to sixth indoor virtual lane information 130 respectively indicating the fourth indoor virtual lane 240b1, the fifth indoor virtual lane 240b2, and the sixth indoor virtual lane 240b3 is created.

屋内地図情報では、対象第1センサ装置11が検出した屋内地物(本例では柱)を基準とする検出・移動可能範囲230内に設定された屋内仮想レーン240を示す屋内仮想レーン情報130に対して、当該屋内地物を特定するための地物情報(ID、種別情報及び位置情報)が対応付けられる。   In indoor map information, indoor virtual lane information 130 indicating the indoor virtual lane 240 set in the detection / movable range 230 based on the indoor feature (in this example, a pillar) detected by the target first sensor device 11 Corresponding to this, feature information (ID, type information and position information) for specifying the indoor feature is associated.

図6は、図5の例に対応する屋内地図情報100に含まれる情報の一例を示す図である。図6に示されるように、第1の柱220aを基準とする第1の検出・移動可能範囲内230aに設定された第1の屋内仮想レーン240a1、第2の屋内仮想レーン240a2及び第3の屋内仮想レーン240a3をそれぞれ示す第1〜第3の屋内仮想レーン情報に対しては、第1の柱220aを特定するための第1の地物情報が対応付けられている。図6の例では、第1の柱220aのIDは1となっている。また、第2の柱220bを基準とする第2の検出・移動可能範囲内230bに設定された第4の屋内仮想レーン240b1、第5の屋内仮想レーン240b2及び第5の屋内仮想レーン240b3をそれぞれ示す第4〜第6の屋内仮想レーン情報に対しては、第2の柱220bを特定するための第2の地物情報が対応付けられている。図6の例では、第2の柱220bのIDは2となっている。   FIG. 6 is a diagram showing an example of information included in indoor map information 100 corresponding to the example of FIG. As shown in FIG. 6, a first indoor virtual lane 240a1, a second indoor virtual lane 240a2, and a third indoor virtual lane 240a1 set in the first detection / movable range 230a with reference to the first pillar 220a. First feature information for specifying the first pillar 220a is associated with the first to third indoor virtual lane information respectively indicating the indoor virtual lane 240a3. In the example of FIG. 6, the ID of the first column 220a is 1. In addition, the fourth indoor virtual lane 240b1, the fifth indoor virtual lane 240b2, and the fifth indoor virtual lane 240b3 set in the second detection / movability range 230b with respect to the second pillar 220b, respectively. Second feature information for specifying the second pillar 220b is associated with the fourth to sixth indoor virtual lane information shown. In the example of FIG. 6, the ID of the second pillar 220b is two.

このようにして、ロボット13が移動することが許可された領域である屋内仮想レーン240が屋内に設定され、当該屋内仮想レーン240を示す屋内仮想レーン情報130が屋内地図情報に含められる。これにより、ロボット13は、情報処理装置1から屋内地図情報を取得することによって、屋内において移動することが許可された領域を特定することができる。よって、ロボット13は、移動することが許可された領域上を自律移動することができる。つまり、ロボット13は、屋内を適切に自律移動することができる。   Thus, the indoor virtual lane 240 which is an area where the robot 13 is permitted to move is set indoors, and indoor virtual lane information 130 indicating the indoor virtual lane 240 is included in the indoor map information. Thereby, the robot 13 can specify the area permitted to move indoors by acquiring indoor map information from the information processing device 1. Therefore, the robot 13 can autonomously move on the area permitted to move. That is, the robot 13 can autonomously move indoors appropriately.

なお、情報処理装置1は、図4に示される、屋内仮想レーン情報の作成処理(ステップS101〜S103)を、ユーザの実行指示に応じて実行してもよいし、自動的に実行してもよい。   Note that the information processing apparatus 1 may execute indoor virtual lane information creation processing (steps S101 to S103) shown in FIG. 4 according to a user's execution instruction, or may automatically execute it. Good.

また、情報処理システム10が、複数の第1センサ装置11を備える場合には、当該複数の第1センサ装置11のそれぞれについて、当該第1センサ装置11が出力する第1センサ情報110が使用されて屋内仮想レーン情報130が作成される。   When the information processing system 10 includes the plurality of first sensor devices 11, the first sensor information 110 output by the first sensor device 11 is used for each of the plurality of first sensor devices 11. Indoor virtual lane information 130 is created.

また、屋内仮想レーン情報130の作成で使用される、第2センサ装置12の検出距離d1、通行方向情報及びロボット寸法情報については、記憶部1cに予め記憶されていてもよいし、屋内仮想レーン情報130の作成時に、情報処理装置1の外部から当該情報処理装置1に入力されてもよい。後者の場合、ユーザが、検出距離d1、通行方向情報及びロボット寸法情報を情報処理装置1に入力してもよいし、情報処理装置1が、検出距離d1、通行方向情報及びロボット寸法情報を記憶する装置と無線通信あるいは有線通信を行って、当該装置からそれらの情報を取得してもよい。   The detection distance d1 of the second sensor device 12, the passing direction information, and the robot dimension information, which are used to create the indoor virtual lane information 130, may be stored in advance in the storage unit 1c, or the indoor virtual lane When the information 130 is created, the information processing apparatus 1 may be input to the information processing apparatus 1 from the outside. In the latter case, the user may input the detected distance d1, the passing direction information and the robot dimension information to the information processing apparatus 1, or the information processing apparatus 1 stores the detected distance d1, the passing direction information and the robot dimension information The wireless communication or the wired communication may be performed with the device to obtain the information from the device.

また、屋内仮想レーン240が、柱あるいは壁などの屋内地物に接していると、当該屋内仮想レーン240上を移動するロボット13が当該屋内仮想レーン240からはみ出ると、当該屋内地物が障害物となってロボット13が当該屋内地物に接触する可能がある。   When the indoor virtual lane 240 is in contact with an indoor feature such as a pillar or a wall, when the robot 13 moving on the indoor virtual lane 240 protrudes from the indoor virtual lane 240, the indoor feature is an obstacle. And the robot 13 may come into contact with the indoor feature.

そこで、作成部1eは、図7に示されるように、屋内仮想レーン240と、そこからロボット13がはみ出した場合に障害となる可能性のある屋内地物150(柱、壁及び展示物など)との間の距離L1が、所定距離Lo以上となるように、当該屋内仮想レーン240を屋内に設定してもよい。これにより、ロボット13が屋内仮想レーン240からはみ出したとしても、ロボット13が屋内地物に接触する可能性を低減することができる。   Therefore, as illustrated in FIG. 7, the creating unit 1 e includes an indoor virtual lane 240 and indoor features 150 (pillars, walls, exhibits, etc.) that may become an obstacle when the robot 13 protrudes from there. The indoor virtual lane 240 may be set indoors such that the distance L1 between the distance L1 and the distance L1 is equal to or greater than a predetermined distance Lo. Thereby, even if the robot 13 protrudes from the indoor virtual lane 240, the possibility that the robot 13 contacts an indoor feature can be reduced.

また、第1センサ装置11の検出距離(以後、第1検出距離と呼ぶことがある)は、第2センサ装置12の検出距離d1(以後、第2検出距離と呼ぶことがある)よりも大きくてもよいし、それと同じであってもよいし、それよりも小さくてもよい。   Also, the detection distance of the first sensor device 11 (hereinafter also referred to as first detection distance) is greater than the detection distance d1 of the second sensor device 12 (hereinafter also referred to as second detection distance) It may be, may be the same as it, or may be smaller than it.

ここで、第1検出距離が第2検出距離よりも小さい場合には、第1センサ装置11の設置場所によっては、第2センサ装置12が検出できる屋内地物を、第1センサ装置11が検出できないことがある。上述の説明から理解できるように、第1センサ装置11が検出できない屋内地物については、それを基準とした検知・移動可能範囲230は設定されないことから、当該屋内地物の近くには屋内仮想レーン240が設定されない。したがって、ロボット13は、当該屋内地物を検出して自己の地図位置を求めることができたとしても、当該屋内地物の近くには屋内仮想レーン240が存在しないことから、移動が許可された領域を移動することが困難となる。   Here, when the first detection distance is smaller than the second detection distance, the first sensor device 11 detects an indoor feature that can be detected by the second sensor device 12 depending on the installation location of the first sensor device 11. There is something I can not do. As can be understood from the above description, for indoor features that can not be detected by the first sensor device 11, the detection and movable range 230 based on that is not set, so indoor virtual near the indoor features is assumed. Lane 240 is not set. Therefore, even if the robot 13 can detect the indoor feature and obtain its own map position, movement is permitted because the indoor virtual lane 240 does not exist near the indoor feature. It becomes difficult to move the area.

一方で、第1検出距離が第2検出距離よりも大きい場合には、第2センサ装置12が検出できる屋内地物を、第1センサ装置11が検出できない可能性を低減することができる。したがって、ロボット13が検出する屋内地物の近くに屋内仮想レーン240が存在しない可能性を低減することができる。よって、ロボット13は、移動が許可された領域をより確実に移動することができる。第1検出距離が第2検出距離よりも大きい場合、第2検出距離(d1)が上述のように5〜10mであるとすると、第1検出距離は例えば100m程度に設定される。   On the other hand, when the first detection distance is larger than the second detection distance, the possibility that the first sensor device 11 can not detect indoor features that can be detected by the second sensor device 12 can be reduced. Therefore, the possibility that the indoor virtual lane 240 does not exist near the indoor feature detected by the robot 13 can be reduced. Thus, the robot 13 can move more reliably in the area permitted to move. When the first detection distance is larger than the second detection distance, assuming that the second detection distance (d1) is 5 to 10 m as described above, the first detection distance is set to, for example, about 100 m.

また、第2検出距離が第1検出距離よりも小さい場合には、第2センサ装置12の消費電力を低減することができ、その結果、ロボット13の消費電力を低減することができる。ロボット13がバッテリで駆動される場合には、第2検出距離が第1検出距離よりも小さいことによって、ロボット13の駆動時間を長くすることができる。   Further, when the second detection distance is smaller than the first detection distance, the power consumption of the second sensor device 12 can be reduced, and as a result, the power consumption of the robot 13 can be reduced. When the robot 13 is driven by a battery, the drive time of the robot 13 can be extended by the second detection distance being smaller than the first detection distance.

なお、屋内に設置される第1センサ装置11が、バッテリで駆動されるのではなく、商用電源等が常時供給される場合には、第1検出距離が第2検出距離よりも大きく設定されて、第1センサ装置11の消費電力が大きくなったとしても、それが原因で第1センサ装置11の駆動時間が短くなる可能性は低い。   In addition, when the 1st sensor apparatus 11 installed indoors is not driven by a battery but a commercial power supply etc. is always supplied, 1st detection distance is set larger than 2nd detection distance. Even if the power consumption of the first sensor device 11 is increased, the possibility that the driving time of the first sensor device 11 is shortened is low.

また、第2検出距離が第1検出距離よりも小さい場合には、第1センサ装置11と比較して安価な第2センサ装置12を採用することができることから、ロボット13の材料コストを低減することが可能となる。   Further, when the second detection distance is smaller than the first detection distance, the second sensor device 12 which is less expensive than the first sensor device 11 can be adopted, thereby reducing the material cost of the robot 13 It becomes possible.

また、屋内において複数種類のロボット13が移動する場合には、ロボット寸法情報に含まれる幅Wrとして、当該複数種類のロボット13の幅の平均値が採用されてもよいし、最大値が採用されてもよい。幅Wrとして、複数種類のロボット13の幅の最大値が採用される場合には、各ロボット13が屋内仮想レーン240から外れる可能性を低減することができる。よって、各ロボット13は屋内を適切に自律移動することができる。   When a plurality of types of robots 13 move indoors, an average value of the widths of the plurality of types of robots 13 may be adopted as the width Wr included in the robot dimension information, or the maximum value is adopted. May be When the maximum value of the widths of a plurality of types of robots 13 is adopted as the width Wr, the possibility of each robot 13 moving out of the indoor virtual lane 240 can be reduced. Therefore, each robot 13 can move autonomously indoors appropriately.

また、屋内仮想レーン240を示す屋内仮想レーン情報130には、当該屋内仮想レーン240での、床面から天井までの高さを含めてもよい。この場合、屋内地図情報は、通路での、床面から天井までの高さを含む。以後、床面から天井までの高さを天井高さと呼ぶ。作成部1eは、屋内地図情報に含まれる通路の天井高さから、検出・移動可能範囲230に設定した屋内仮想レーン240での天井高さを特定し、特定した天井高さを、当該屋内仮想レーン240を示す屋内仮想レーン情報130に含める。ロボット13は、経路探索を行う場合、自身の高さよりも低い天井高さを含む屋内仮想レーン情報130が示す屋内仮想レーン240上を移動するような経路を決定する。これにより、ロボット13は屋内を適切に自律移動することができる。   Further, the indoor virtual lane information 130 indicating the indoor virtual lane 240 may include the height from the floor surface to the ceiling in the indoor virtual lane 240. In this case, the indoor map information includes the floor-to-ceiling height at the aisle. Hereinafter, the height from the floor surface to the ceiling is called the ceiling height. The creating unit 1 e identifies the ceiling height in the indoor virtual lane 240 set in the detection / movable range 230 from the ceiling height of the passage included in the indoor map information, and determines the identified ceiling height It is included in indoor virtual lane information 130 indicating the lane 240. When performing a route search, the robot 13 determines a route that moves on the indoor virtual lane 240 indicated by the indoor virtual lane information 130 including a ceiling height lower than its own height. As a result, the robot 13 can autonomously move indoors properly.

また、互いに隣り合う2つの屋内仮想レーン240の間のある領域に、柱、壁あるいは展示物などの、障害物となる屋内地物が存在する場合には、ロボット13は、当該ある領域を通過して、当該2つの屋内仮想レーン240間を移動することが困難となる。   Also, in the case where there is an indoor feature such as a pillar, a wall or an exhibit in a certain area between two indoor virtual lanes 240 adjacent to each other, the robot 13 passes through the certain area. As a result, it is difficult to move between the two indoor virtual lanes 240.

そこで、作成部1eは、屋内仮想レーン240間に位置する障害物(屋内地物)の地図位置に基づいて、屋内仮想レーン240において、そこから隣の屋内仮想レーン240への移動が不可である移動不可領域を設定してもよい。この場合、作成部1eは、屋内仮想レーン240に設定した移動不可領域を示す移動不可領域情報を、当該屋内仮想レーン240を示す屋内仮想レーン情報130に含める。移動不可領域情報は、屋内地図において移動不可領域を特定するための情報である。作成部1eは、屋内地図情報に含まれる地物情報及び屋内仮想レーン情報130に基づいて、隣り合う2つの屋内仮想レーン240の間の障害物の地図位置を特定することができる。   Therefore, based on the map position of the obstacle (indoor feature) located between the indoor virtual lanes 240, the creation unit 1e can not move from the indoor virtual lanes 240 to the next indoor virtual lane 240 in the indoor virtual lanes 240. An immovable area may be set. In this case, the creating unit 1 e includes, in the indoor virtual lane information 130 indicating the indoor virtual lane 240, non-moving area information indicating the non-moveable region set in the indoor virtual lane 240. The movement impossible area information is information for specifying the movement impossible area in the indoor map. The creation unit 1 e can specify the map position of the obstacle between the two indoor virtual lanes 240 adjacent to each other based on the feature information and the indoor virtual lane information 130 included in the indoor map information.

図8には、上述の図5において、第1の屋内仮想レーン240a1と、第2の屋内仮想レーン240a2との間に障害物280が存在する様子が示されている。図8の例では、第1の屋内仮想レーン240a1において、そこから隣の第2の屋内仮想レーン240a2に移動することができない移動不可領域290a1が設定されている。また、第2の屋内仮想レーン240a2において、そこから隣の第1の屋内仮想レーン240a1に移動することができない移動不可領域290a2が設定されている。   FIG. 8 shows that an obstacle 280 is present between the first indoor virtual lane 240a1 and the second indoor virtual lane 240a2 in FIG. 5 described above. In the example of FIG. 8, in the first indoor virtual lane 240 a 1, a non-moveable area 290 a 1 which can not move to a second indoor virtual lane 240 a 2 next to the first indoor virtual lane 240 a 1 is set. Further, in the second indoor virtual lane 240a2, a movement impossible area 290a2 which can not move from there to the adjacent first indoor virtual lane 240a1 is set.

このように、屋内仮想レーン情報130に移動不可領域情報を含めることによって、屋内仮想レーン240上を移動するロボット13は、当該屋内仮想レーン240を示す屋内仮想レーン情報130に基づいて、当該屋内仮想レーン240から隣の屋内仮想レーン240に移動することができるか否かを判断することができる。よって、屋内仮想レーン240上を移動するロボット13は、当該屋内仮想レーン240から隣の屋内仮想レーン240に移動することができるか否かを、障害物を検出することなく判断することができる。その結果、ロボット13での処理が簡素化される。   As described above, the robot 13 moving on the indoor virtual lane 240 by including the immobile area information in the indoor virtual lane information 130 is based on the indoor virtual lane information 130 indicating the indoor virtual lane 240 and the indoor virtual lane information 130. It can be determined whether it is possible to move from lane 240 to the next indoor virtual lane 240. Therefore, the robot 13 moving on the indoor virtual lane 240 can determine whether it can move from the indoor virtual lane 240 to the next indoor virtual lane 240 without detecting an obstacle. As a result, processing by the robot 13 is simplified.

また、屋内においては、床面が強化ガラスあるいは木材などで構成された、耐荷重が低い領域が存在することがある。このような領域上をロボット13が移動すると、床面が破損する可能性がある。   In addition, there may be a low load-bearing region in which the floor surface is made of tempered glass, wood or the like indoors. When the robot 13 moves over such an area, the floor surface may be damaged.

そこで、屋内仮想レーン240を示す屋内仮想レーン情報130には、当該屋内仮想レーン240の床面の耐荷重を示す耐荷重情報を含めてもよい。この場合、屋内地図情報には、例えば、通路の床面の耐荷重を示す耐荷重情報が含まれている。作成部1eは、屋内地図情報に含まれる耐荷重情報から、設定した屋内仮想レーン240の床面の耐荷重を示す耐荷重情報を取得し、取得した耐荷重情報を、当該屋内仮想レーン240を示す屋内仮想レーン情報130に含める。ある領域の床面の耐荷重を示す耐荷重情報は、当該ある領域を移動することが可能なロボット13の重量の上限値(例えば単位はkg)であってもよいし、当該ある領域の床面についての、単位面積あたりの耐荷重(単位は、例えばkg/m)であってもよい。Therefore, the indoor virtual lane information 130 indicating the indoor virtual lane 240 may include load resistance information indicating the load resistance of the floor surface of the indoor virtual lane 240. In this case, the indoor map information includes, for example, load bearing information indicating the load bearing of the floor surface of the passage. The creating unit 1e acquires load resistance information indicating the load resistance of the floor surface of the set indoor virtual lane 240 from load resistance information included in indoor map information, and acquires the acquired load resistance information as the indoor virtual lane 240 It is included in indoor virtual lane information 130 shown. The load bearing information indicating the load bearing of the floor surface of a certain area may be the upper limit value (for example, unit kg) of the weight of the robot 13 capable of moving the certain area, or the floor of the certain area The load resistance per unit area of the surface may be, for example, in kg / m 2 .

このように、屋内仮想レーン情報130に耐荷重情報を含めることによって、ロボット13は、経路探索を行う場合、屋内仮想レーン情報130に含まれる耐荷重情報と、予め記憶する自身の重量(ロボット重量)とに基づいて、自身の重量が、その床面の耐荷重を超えない屋内仮想レーン240上を移動するような経路を決定することができる。よって、ロボット13は、屋内を適切に自律移動することができる。   As described above, when the robot 13 performs the route search by including the load bearing information in the indoor virtual lane information 130, the load bearing information included in the indoor virtual lane information 130 and its own weight stored in advance (robot weight And based on that, it is possible to determine such a path as to move on the indoor virtual lane 240 whose own weight does not exceed the load bearing capacity of the floor surface. Thus, the robot 13 can appropriately move indoors autonomously.

以上のように、本実施の形態では、作成部1eは、屋内地図情報と、ロボット13の検出距離d1と、第1センサ装置11が検出する屋内地物の位置とに基づいて、ロボット13の移動が許可された領域である屋内仮想レーン240を屋内に設定する。これにより、ロボット13が屋内地物を検出しながらその上を自律移動することができるような屋内仮想レーン240を、屋内に設定することができる。よって、ロボット13は、屋内を適切に自律移動することができる。   As described above, in the present embodiment, the creating unit 1 e is based on indoor map information, the detection distance d 1 of the robot 13, and the position of the indoor feature detected by the first sensor device 11. The indoor virtual lane 240, which is an area where movement is permitted, is set indoors. As a result, it is possible to set an indoor virtual lane 240 which can autonomously move on the robot 13 while detecting the indoor feature, indoors. Thus, the robot 13 can appropriately move indoors autonomously.

また、屋内仮想レーン240が自動的に設定されることから、工場などで活用されているライントレーサーとは異なり、ロボット13が自律移動するために床の表面に線を引く必要がない。ライントレーサーとは、床に対して予め引かれた線をロボットが認識することによって、ロボットの自律移動を可能にする技術である。   Further, since the indoor virtual lane 240 is automatically set, it is not necessary to draw a line on the surface of the floor in order for the robot 13 to move autonomously unlike the line tracer used in a factory or the like. The line tracer is a technology that enables the robot to move autonomously by recognizing a line drawn in advance with respect to the floor.

また本実施の形態では、屋内地物の実際の位置が変化したとしても、屋内地図情報に含まれる屋内地物の地図位置を更新することによって、適切な屋内仮想レーン240を自動的に屋内に設定することができる。   In the present embodiment, even if the actual position of the indoor feature changes, the indoor virtual lane 240 can be automatically made indoor by updating the map position of the indoor feature included in the indoor map information. It can be set.

また、第1センサ装置11の実際の位置が変化したとしても、屋内地図情報に含まれる第1センサ装置11の地図位置を更新することによって、適切な屋内仮想レーン240を自動的に屋内に設定することができる。   Also, even if the actual position of the first sensor device 11 changes, the appropriate indoor virtual lane 240 is automatically set indoors by updating the map position of the first sensor device 11 included in the indoor map information. can do.

また本実施の形態では、通行方向情報に基づいて屋内仮想レーン240が設定されることから、ロボット13は、屋内で定められている通行方向に沿って容易に移動することができる。   Further, in the present embodiment, since the indoor virtual lane 240 is set based on the passing direction information, the robot 13 can easily move along the passing direction determined indoors.

また本実施の形態では、ロボット13の幅に基づいて屋内仮想レーン240が設定されることから、作成部1eは、適切な幅の屋内仮想レーン240を容易に設定することができる。   Further, in the present embodiment, since the indoor virtual lane 240 is set based on the width of the robot 13, the creating unit 1e can easily set the indoor virtual lane 240 of an appropriate width.

なお、作成部1eは、通行方向情報を使用せずに屋内仮想レーン240を設定してもよい。この場合、作成部1eは、例えば、検出・移動可能範囲230のうち、障害物が存在しない領域を屋内仮想レーン240に設定する。また、検出・移動可能範囲230内に通行方向が定められていない場合には、作成部1eは、通行方向情報を使用せずに屋内仮想レーン240を設定することになる。   The creation unit 1e may set the indoor virtual lane 240 without using the passing direction information. In this case, the creation unit 1 e sets, for example, an area where no obstacle exists in the detection / movability range 230 as the indoor virtual lane 240. In addition, when the passing direction is not determined in the detection / movability range 230, the creating unit 1e sets the indoor virtual lane 240 without using the passing direction information.

また、作成部1eは、ロボット寸法情報に含まれる幅Wrを使用せずに屋内仮想レーン240を設定してもよい。この場合には、作成部1eは、例えば、記憶部1cに予め記憶されている固定の幅W1を有する屋内仮想レーン240を屋内に設定する。   The creation unit 1e may set the indoor virtual lane 240 without using the width Wr included in the robot dimension information. In this case, the creation unit 1e sets, for example, an indoor virtual lane 240 having a fixed width W1 stored in advance in the storage unit 1c indoors.

<屋内仮想レーン情報の検証処理>
次に、情報処理装置1で行われる、屋内仮想レーン情報130の検証処理について説明する。図9は、当該検証処理の一例を示すフローチャートである。図9に示される検証処理は、例えば、ロボット13が上述のように屋内地図情報に基づいて屋内を自律移動している場合に、定期的にあるいは不定期的に繰り返して実行される。以後、説明の対象の第2センサ装置12を対象第2センサ装置12と呼ぶことがある。
<Verification processing of indoor virtual lane information>
Next, verification processing of the indoor virtual lane information 130 performed by the information processing device 1 will be described. FIG. 9 is a flowchart showing an example of the verification process. For example, when the robot 13 autonomously moves indoors based on indoor map information as described above, the verification process illustrated in FIG. 9 is repeatedly performed periodically or irregularly. Hereinafter, the second sensor device 12 to be described may be referred to as a target second sensor device 12.

図9に示されるように、ステップS201において、第1収集部1aは、対象第1センサ装置11が出力する第1センサ情報110を収集する。また、ステップS201において、第2収集部1dは、第1収集部1aでの第1センサ情報110の収集と並行して、対象第2センサ装置12が出力する第2センサ情報120を収集する。   As shown in FIG. 9, in step S201, the first collection unit 1a collects the first sensor information 110 output by the target first sensor device 11. In addition, in step S201, the second collecting unit 1d collects the second sensor information 120 output by the target second sensor device 12 in parallel with the collection of the first sensor information 110 by the first collecting unit 1a.

次にステップS202において、算出部1bは、ステップS201で収集された第1センサ情報110に含まれるロボット13の第1相対位置に基づいて、ロボット13の地図位置を求める。具体的には、算出部1bは、ステップS201で収集された第1センサ情報110から、対象第1センサ装置11を識別するための識別情報(以後、第1センサ識別情報と呼ぶことがある)を取得する。そして、算出部1bは、記憶部1c内の屋内地図情報において、取得した第1センサ識別情報に対応付けられている位置情報を取得する。この位置情報は、対象第1センサ装置11の地図位置を示すことから、算出部1bは、対象第1センサ装置11の地図位置を取得することができる。なお、第1センサ識別情報は、対象第1センサ装置11が接続しているネットワークのIPアドレスあるいはポート番号であってもよいし、対象第1センサ装置11が行うシリアル通信のCOM番号(COM1あるいはCOM2など)などの物理ポート番号であってもよい。   Next, in step S202, the calculation unit 1b obtains the map position of the robot 13 based on the first relative position of the robot 13 included in the first sensor information 110 collected in step S201. Specifically, the calculation unit 1b identifies identification information for identifying the target first sensor device 11 from the first sensor information 110 collected in step S201 (hereinafter, may be referred to as first sensor identification information). To get Then, the calculation unit 1b acquires position information associated with the acquired first sensor identification information in the indoor map information in the storage unit 1c. Since this position information indicates the map position of the target first sensor device 11, the calculation unit 1b can acquire the map position of the target first sensor device 11. The first sensor identification information may be the IP address or port number of the network to which the target first sensor device 11 is connected, or the COM number (COM 1 or COM number of serial communication performed by the target first sensor device 11). It may be a physical port number such as COM2).

算出部1bは、対象第1センサ装置11の地図位置を取得すると、取得した地図位置を用いて、ステップS201で収集された第1センサ情報110に含まれるロボット13の第1相対位置を地図位置に変換する。例えば、対象第1センサ装置11の地図位置を(X3,Y3,Z3)とし、第1センサ情報110に含まれるロボット13の第1相対位置を(Xp,Yp,Zp)とすると、ロボット13の地図位置(ロボットの第1地図位置)は、(X3+Xp,Y3+Yp,Z3+Zp)で表される。   When acquiring the map position of the target first sensor device 11, the calculation unit 1b uses the acquired map position to map the first relative position of the robot 13 included in the first sensor information 110 collected in step S201 to the map position. Convert to For example, assuming that the map position of the target first sensor device 11 is (X3, Y3, Z3) and the first relative position of the robot 13 included in the first sensor information 110 is (Xp, Yp, Zp), The map position (the first map position of the robot) is represented by (X3 + Xp, Y3 + Yp, Z3 + Zp).

次にステップS203において、算出部1bは、ステップS201で収集された第2センサ情報120に含まれる屋内地物の第2相対位置に基づいて、ロボット13の地図位置を求める。具体的には、算出部1bは、ステップS202で収集された第2センサ情報120に第2相対位置が含まれる屋内地物についての地図位置を、記憶部1c内の屋内地図情報から取得する。言い換えれば、算出部1bは、第2センサ装置12が検出した屋内地物についての地図位置を、記憶部1c内の屋内地図情報から取得する。本例では、算出部1bは、第2センサ装置12が検出した柱についての地図位置を、記憶部1c内の屋内地図情報から取得する。そして、算出部1bは、第2センサ装置12が検出した屋内地物(柱)の地図位置と、ステップS201で収集された第2センサ情報120に含まれる当該屋内地物(柱)の第2相対位置(第2センサ装置12が検出した屋内地物の第2相対位置)とに基づいて、ロボット13の地図位置を求める。例えば、第2センサ装置12が検出した屋内地物の地図位置及び第2相対位置を、それぞれ(X4,Y4,Z4)及び(Xq,Yq,Zq)とすると、ロボット13の地図位置(ロボット13の第2地図位置)は、(X4−Xq,Y4−Yq,Z4−Zq)で表される。   Next, in step S203, the calculation unit 1b obtains the map position of the robot 13 based on the second relative position of the indoor feature included in the second sensor information 120 collected in step S201. Specifically, calculation unit 1 b acquires the map position of the indoor feature whose second relative position is included in second sensor information 120 collected in step S 202 from the indoor map information in storage unit 1 c. In other words, the calculation unit 1 b acquires the map position of the indoor feature detected by the second sensor device 12 from the indoor map information in the storage unit 1 c. In the present example, the calculation unit 1 b acquires the map position of the pillar detected by the second sensor device 12 from the indoor map information in the storage unit 1 c. The calculation unit 1b then calculates the map position of the indoor feature (pillar) detected by the second sensor device 12 and the second feature of the indoor feature (pillar) included in the second sensor information 120 collected in step S201. Based on the relative position (the second relative position of the indoor feature detected by the second sensor device 12), the map position of the robot 13 is obtained. For example, assuming that the map position and the second relative position of the indoor feature detected by the second sensor device 12 are (X4, Y4, Z4) and (Xq, Yq, Zq), respectively, the map position of the robot 13 (robot 13 The second map position of is represented by (X4-Xq, Y4-Yq, Z4-Zq).

なお、上述の説明から理解できるように、ステップs203において求められるロボット13の第2地図位置は、ロボット13自身が屋内地物を検出して求める、当該ロボット13の地図位置と同じである。   As can be understood from the above description, the second map position of the robot 13 obtained in step s203 is the same as the map position of the robot 13 which the robot 13 itself detects and finds indoor features.

次にステップS204において、検証部1fは、ステップS202で求められたロボット13の第1地図位置と、ステップS203で求められたロボット13の第2地図位置との間の距離D(単位は例えばcm)を求める。距離Dは、ロボット13の第1地図位置と第2地図位置との差を示していると言える。距離Dは、ロボット13の第1地図位置(X3+Xp,Y3+Yp,Z3+Zp)と、ロボット13の第2地図位置(X4−Xq,Y4−Yq,Z4−Zq)を用いて以下のように表せられる。   Next, in step S204, the verification unit 1f determines the distance D between the first map position of the robot 13 determined in step S202 and the second map position of the robot 13 determined in step S203 (in cm, for example). Ask for). It can be said that the distance D indicates the difference between the first map position and the second map position of the robot 13. The distance D is expressed as follows using the first map position (X3 + Xp, Y3 + Yp, Z3 + Zp) of the robot 13 and the second map position (X4-Xq, Y4-Yq, Z4-Zq) of the robot 13.

Figure 2019012612
Figure 2019012612

次にステップS205において、検証部1fは、ステップS204で求めた距離Dがしきい値K以下であるか否かを判定する。しきい値Kは、予め実験等で求められた値が採用される。しきい値Kは、例えば25cm未満に設定される。   Next, in step S205, the verification unit 1 f determines whether the distance D obtained in step S204 is equal to or less than the threshold value K. As the threshold value K, a value obtained in advance by experiment or the like is employed. The threshold value K is set to, for example, less than 25 cm.

ステップS205において、距離Dがしきい値K以下であると判定されると、ステップS206において、検証部1fは、ロボット13が現在位置する屋内仮想レーン240を示す屋内仮想レーン情報130は適切であると判定する。言い換えれば、検証部1fは、ロボット13が現在位置する屋内仮想レーン240が適切に設定されていると判定する。そして、検証部1fは、記憶部1c内の屋内地図情報に含まれる、ロボット13が現在位置する屋内仮想レーン240を示す屋内仮想レーン情報130に対して、当該屋内仮想レーン情報130が適切であることを示す検証結果情報140を含める。このとき、検証部1fは、ロボット13の第1地図位置(第1センサ情報110から得られる地図位置)を、ロボット13の現在位置として、当該ロボット13が位置する屋内仮想レーン240を特定する。これにより、屋内仮想レーン情報(検証済)130が得られる。得られた屋内仮想レーン情報(検証済)130は屋内地図情報に含められる。   When it is determined in step S205 that the distance D is equal to or less than the threshold value K, in step S206, the verification unit 1 f is appropriate for indoor virtual lane information 130 indicating the indoor virtual lane 240 where the robot 13 is currently located. It is determined that In other words, the verification unit 1 f determines that the indoor virtual lane 240 in which the robot 13 is currently positioned is appropriately set. The verification unit 1 f then determines that the indoor virtual lane information 130 is appropriate for the indoor virtual lane information 130 indicating the indoor virtual lane 240 in which the robot 13 is currently located, which is included in the indoor map information in the storage unit 1 c. Include verification result information 140 indicating that. At this time, the verification unit 1 f specifies the indoor virtual lane 240 in which the robot 13 is positioned, with the first map position of the robot 13 (the map position obtained from the first sensor information 110) as the current position of the robot 13. As a result, indoor virtual lane information (verified) 130 is obtained. The acquired indoor virtual lane information (verified) 130 is included in the indoor map information.

ここで、ロボット13が、自己の地図位置を計算しながら屋内仮想レーン240上を適切に移動することが困難である場合には、当該屋内仮想レーン240は適切に設定されているとは言い難い。つまり、ロボット13がその上を適切に移動することが困難な屋内仮想レーン240は、適切に設定されているとは言い難い。   Here, when it is difficult for the robot 13 to move appropriately on the indoor virtual lane 240 while calculating its own map position, it is difficult to say that the indoor virtual lane 240 is appropriately set. . That is, it is difficult to say that the indoor virtual lane 240, in which the robot 13 can not move appropriately thereon, is appropriately set.

本実施の形態では、検出精度が高い第1センサ装置11で取得される、ロボット13の第1相対位置が使用されて求められるロボット13の第1地図位置が、現在のロボット13の正しい位置として用いられる。したがって、距離Dがしきい値K以下である場合には、ロボット13の第2地図位置の計算精度が高いと言える。つまり、ロボット13が自己の地図位置を求める際の位置計算精度が高いと言える。屋内仮想レーン240上を移動するロボット13での位置計算精度が高い場合には、当該ロボット13は、当該屋内仮想レーン240から外れる可能性が低く、当該屋内仮想レーン240上を適切に移動することができる。よって、距離Dがしきい値K以下である場合には、ロボット13が現在移動する屋内仮想レーン240は適切に設定されていると言える。つまり、距離Dがしきい値K以下である場合には、ロボット13が現在移動する屋内仮想レーン240を示す屋内仮想レーン情報130は適切であると言える。屋内仮想レーン240上をロボット13が移動する際に求められる距離Dがしきい値K以下である場合には、当該ロボット13は、当該屋内仮想レーン240上を所定の位置計算精度を保ちながら移動することができると言える。また、屋内仮想レーン240上をロボット13が移動する際に求められる距離Dがしきい値K以下である場合には、当該ロボット13は、それ自身が第2センサ情報120を利用して求める当該ロボット13の地図位置に基づいて当該屋内仮想レーン240上を適切に移動することができると言える。距離Dがしきい値K以下である場合、ロボット13が位置する屋内仮想レーン240は、ロボット13がその上を移動する際に自身の地図位置を所定誤差範囲内で計算することが可能な領域であると言える。   In the present embodiment, the first map position of the robot 13 obtained by using the first relative position of the robot 13 obtained by the first sensor device 11 having high detection accuracy is regarded as the current correct position of the robot 13. Used. Therefore, when the distance D is equal to or less than the threshold value K, it can be said that the calculation accuracy of the second map position of the robot 13 is high. In other words, it can be said that the position calculation accuracy is high when the robot 13 determines its own map position. When the position calculation accuracy of the robot 13 moving on the indoor virtual lane 240 is high, the robot 13 is less likely to be detached from the indoor virtual lane 240, and appropriately moves on the indoor virtual lane 240. Can. Therefore, when the distance D is equal to or less than the threshold value K, it can be said that the indoor virtual lane 240 in which the robot 13 currently moves is properly set. That is, when the distance D is equal to or less than the threshold value K, it can be said that indoor virtual lane information 130 indicating the indoor virtual lane 240 in which the robot 13 currently travels is appropriate. When the distance D obtained when the robot 13 moves on the indoor virtual lane 240 is equal to or less than the threshold value K, the robot 13 moves on the indoor virtual lane 240 while maintaining a predetermined position calculation accuracy. It can be said that you can. In addition, when the distance D obtained when the robot 13 moves on the indoor virtual lane 240 is equal to or less than the threshold value K, the robot 13 itself determines using the second sensor information 120. It can be said that the user can appropriately move on the indoor virtual lane 240 based on the map position of the robot 13. When the distance D is equal to or less than the threshold value K, the indoor virtual lane 240 in which the robot 13 is located is an area where the map position of the robot 13 can be calculated within a predetermined error range when the robot 13 moves thereon. It can be said that

このように、ステップS205において、距離Dがしきい値K以下であると判定されると、屋内仮想レーン情報130が適切であると判定されて、屋内仮想レーン情報(検証済)130が作成される。   Thus, when it is determined in step S205 that the distance D is equal to or less than the threshold value K, the indoor virtual lane information 130 is determined to be appropriate, and the indoor virtual lane information (verified) 130 is created. Ru.

一方で、ステップS205において、距離Dがしきい値Kよりも大きいと判定されると、ステップs206が実行されずに検証処理が終了する。   On the other hand, if it is determined in step S205 that the distance D is larger than the threshold value K, the verification process ends without performing step s206.

なお検証部1fは、距離Dがしきい値K未満の場合、屋内仮想レーン情報130は適切であると判定してもよい。   When the distance D is less than the threshold value K, the verification unit 1 f may determine that the indoor virtual lane information 130 is appropriate.

また情報処理装置1は、図9に示される、屋内仮想レーンの検証処理(ステップS201〜S206)を、ユーザの実行指示に応じて実行してもよいし、自動的に実行してもよい。   The information processing apparatus 1 may execute the indoor virtual lane verification process (steps S201 to S206) shown in FIG. 9 according to the user's execution instruction or may automatically execute it.

このように、本実施の形態では、情報処理装置1は、屋内仮想レーン情報130が適切であるか否かを判断している。つまり、情報処理装置1は、ロボット13が、自己の第2センサ装置12が出力する第2センサ情報120を使用して求める自己の地図位置に基づいて屋内仮想レーン240上を適切に移動することができるか否かを判断している。したがって、ロボット13が実際に利用することができる屋内仮想レーン240を屋内に設定することができる。つまり、ロボット13が実際に利用することができる、信頼性のある屋内仮想レーン情報130を当該ロボット13に対して提供することができる。これにより、ロボット13は屋内を適切に自律移動することができる。なお判定部1yは、上述のようにして作成部1eが屋内に設定した屋内仮想レーン240ではなく、他の方法で屋内に設定された屋内仮想レーンが適切に設定されているか否かを判定してもよい。   As described above, in the present embodiment, the information processing apparatus 1 determines whether the indoor virtual lane information 130 is appropriate. That is, the information processing apparatus 1 appropriately moves on the indoor virtual lane 240 based on the map position of the robot 13 determined using the second sensor information 120 output by the second sensor device 12 of the information processing apparatus 1. It is determined whether you can Therefore, the indoor virtual lane 240 that the robot 13 can actually use can be set indoors. That is, reliable indoor virtual lane information 130 that can be actually used by the robot 13 can be provided to the robot 13. As a result, the robot 13 can autonomously move indoors properly. In addition, the determination unit 1y determines whether the indoor virtual lane set in the indoor by another method is appropriately set, not the indoor virtual lane 240 set in the indoor by the creation unit 1e as described above. May be

実施の形態2.
屋内を移動するロボット13は、扉の近くを移動することがある。ロボット13が、開き戸(前後に開閉する扉)の前に停止すると、当該開き戸の開閉をロボット13が阻害する可能性がある。
Second Embodiment
The robot 13 moving indoors may move near the door. When the robot 13 stops in front of the opening door (door that opens and closes in the front and rear direction), the robot 13 may inhibit the opening and closing of the opening door.

また、ロボット13はエレベータ及びエスカレータなどの昇降機を利用することがある。この場合、ロボット13が、エレベータの搭乗口の近くで停止すると、ロボット13が当該エレベータの利用者の邪魔になる可能性がある。また、ロボット13が、エスカレータの乗り口あるいは降り口の近くで停止すると、ロボット13がエスカレータの利用者の邪魔になる可能性がある。   Also, the robot 13 may use elevators such as an elevator and an escalator. In this case, when the robot 13 stops near the boarding gate of the elevator, the robot 13 may get in the way of the user of the elevator. In addition, when the robot 13 stops near the entrance or exit of the escalator, the robot 13 may interfere with the user of the escalator.

そこで、本実施の形態では、屋内仮想レーン240において、ロボット13の停止を禁止する停止禁止領域を示す停止禁止領域情報を、当該屋内仮想レーン240を示す屋内仮想レーン情報130に含める。   Therefore, in the present embodiment, the indoor virtual lane information 130 indicating the indoor virtual lane 240 is included in the indoor virtual lane 240 indicating the stop prohibition area information indicating the stop prohibition area for prohibiting the robot 13 from stopping.

図10は停止禁止領域の一例を示す図である。図10では、屋内仮想レーン240cにおいて、開き戸310が開閉する開閉範囲320を含む所定の範囲が、停止禁止領域300cとして設定されている。図10の例では、開閉範囲320を含む最小の矩形(外接矩形)が停止禁止領域300cに設定されている。図10の例では、屋内地図情報に開閉範囲320を示す情報が予め含められる。作成部1eは、屋内地図情報から開閉範囲302を特定し、設定した屋内仮想レーン240cにおいて、特定した開閉範囲302を含む停止禁止領域300cを設定する。そして、作成部1eは、設定した停止禁止領域300cを示す停止禁止領域情報を、屋内仮想レーン240cを示す屋内仮想レーン情報130に含める。この停止禁止領域情報は、屋内地図上において停止禁止領域300cを特定するための情報である。   FIG. 10 shows an example of the stop prohibition area. In FIG. 10, in the indoor virtual lane 240c, a predetermined range including the opening and closing range 320 where the door 310 opens and closes is set as the stop prohibition area 300c. In the example of FIG. 10, the smallest rectangle (a circumscribed rectangle) including the open / close range 320 is set as the stop prohibition area 300c. In the example of FIG. 10, information indicating the open / close range 320 is included in advance in the indoor map information. The creation unit 1e identifies the open / close range 302 from the indoor map information, and sets the stop prohibition area 300c including the identified open / close range 302 in the set indoor virtual lane 240c. Then, the creation unit 1e includes stop prohibition area information indicating the set stop prohibition area 300c in indoor virtual lane information 130 indicating the indoor virtual lane 240c. The stop prohibition area information is information for specifying the stop prohibition area 300c on the indoor map.

図11は停止禁止領域の他の一例を示す図である。図11には、エレベータの昇降カゴ350、扉360及び呼びボタン370が示されている。図11の例では、屋内仮想レーン240dにおいて、扉360の前に停止禁止領域300dが設定されている。停止禁止領域300dは、屋内仮想レーン240dにおいて、そこにロボット13が停止すると、当該ロボット13が、昇降カゴ350から出てくる人及び昇降カゴ350に乗り込む人の邪魔になるような領域に設定される。図11の例では、屋内地図情報に、エレベータの扉360の大きさ及び地図位置を示す情報が予め含められる。作成部1eは、屋内地図情報から、エレベータの扉の大きさ及び地図位置を特定し、設定した屋内仮想レーン240dにおいて、特定した扉260の前に停止禁止領域300dを設定する。そして、作成部1eは、設定した停止禁止領域300dを示す停止禁止領域情報を、屋内仮想レーン240dを示す屋内仮想レーン情報に含める。この停止禁止領域情報は、屋内地図上において停止禁止領域300dを特定するための情報である。   FIG. 11 is a diagram showing another example of the stop prohibition area. In FIG. 11, an elevator elevator car 350, a door 360 and a call button 370 are shown. In the example of FIG. 11, the stop prohibition area 300d is set in front of the door 360 in the indoor virtual lane 240d. In the indoor virtual lane 240d, the stop prohibition area 300d is set in such an area that the robot 13 interferes with the person coming out of the lift cage 350 and the person who gets on the lift cage 350. Ru. In the example of FIG. 11, information indicating the size and the map position of the door 360 of the elevator is included in the indoor map information in advance. The creation unit 1e specifies the size and map position of the elevator door from the indoor map information, and sets the stop prohibition area 300d in front of the specified door 260 in the set indoor virtual lane 240d. Then, the creation unit 1e includes stop prohibition area information indicating the set stop prohibition area 300d in indoor virtual lane information indicating the indoor virtual lane 240d. The stop prohibition area information is information for specifying the stop prohibition area 300 d on the indoor map.

このように、本実施の形態では、屋内仮想レーン240を示す屋内仮想レーン情報130には、当該屋内仮想レーン240において、ロボット13の停止が禁止されている領域を示す情報が含められる。これにより、ロボット13は、自身の判断で、屋内での人の邪魔になる領域で停止しないようにすることができる。これにより、人とロボット13が円滑に移動可能な屋内交通環境を実現することができる。   As described above, in the present embodiment, the indoor virtual lane information 130 indicating the indoor virtual lane 240 includes information indicating an area where the stopping of the robot 13 is prohibited in the indoor virtual lane 240. As a result, the robot 13 can not stop in an area which disturbs people indoors at its own discretion. As a result, it is possible to realize an indoor traffic environment in which a person and the robot 13 can move smoothly.

実施の形態3.
人が混雑している屋内仮想レーン240をロボット13が移動すると、当該ロボット13と人とが接触する可能性がある。
Third Embodiment
When the robot 13 moves in the crowded indoor virtual lane 240, there is a possibility that the robot 13 and the person come in contact with each other.

そこで、本実施の形態では、屋内仮想レーン240での人の混雑度を、当該屋内仮想レーン240を示す屋内仮想レーン情報130に含める。これより、ロボット13は、人が混雑している屋内仮想レーン240を避けて屋内を移動することができる。   So, in this embodiment, the congestion degree of the person in the indoor virtual lane 240 is included in the indoor virtual lane information 130 indicating the indoor virtual lane 240. As a result, the robot 13 can move indoors avoiding the crowded indoor virtual lane 240.

図12は、本実施の形態に係る情報処理システム10の構成の一例を示す図である。本実施の形態に係る情報処理システム10は、上述の図1に示される情報処理システム10において、混雑度算出部1gをさらに備えるものである。混雑度算出部1gは、屋内での人の混雑度を算出する。混雑度算出部1gは、上述の処理回路2(CPU)が記憶装置3内の制御プログラム3aを実行することよって実現される機能ブロックであってもよいし、その機能の実現にソフトウェアが不要なハードウェア回路で実現されてもよい。以後、混雑度算出部1gを算出部1gと呼ぶことがある。   FIG. 12 is a diagram showing an example of the configuration of the information processing system 10 according to the present embodiment. An information processing system 10 according to the present embodiment further includes a congestion degree calculator 1g in the information processing system 10 shown in FIG. 1 described above. The congestion degree calculation unit 1g calculates the degree of congestion of people indoors. The congestion degree calculation unit 1 g may be a functional block realized by the above-described processing circuit 2 (CPU) executing the control program 3 a in the storage device 3, and no software is required to realize the function. It may be realized by a hardware circuit. Hereinafter, the congestion degree calculation unit 1g may be referred to as a calculation unit 1g.

本実施の形態では、移動体位置算出部1b及び混雑度算出部1gによって、第1センサ情報110に含まれる、人の第1相対位置を示す位置情報に基づいて、屋内仮想レーン240での混雑度を取得する取得部1zが構成されている。取得部1zは、第1センサ装置11で検出された人の位置に基づいて、屋内仮想レーン240での混雑度を取得するとも言える。   In the present embodiment, the mobile object position calculation unit 1 b and the congestion degree calculation unit 1 g cause congestion in the indoor virtual lane 240 based on position information indicating the first relative position of a person included in the first sensor information 110. The acquisition part 1z which acquires a degree is comprised. It can be said that the acquiring unit 1z acquires the degree of congestion in the indoor virtual lane 240 based on the position of the person detected by the first sensor device 11.

本実施の形態では、移動体位置算出部1bは、第1収集部1aで収取される第1センサ情報110に含まれる人の第1相対位置に基づいて、当該人の地図位置を求める。言い換えれば、算出部1bは、第1センサ装置11で検出される人の第1相対位置に基づいて、当該人の地図位置を求める。算出部1bは、人の地図位置を求める際には、記憶部1c内の屋内地図情報から、第1センサ装置11の地図位置を取得する。そして、算出部1bは、第1センサ装置11の地図位置と、第1センサ情報110に含まれる人の第1相対位置に基づいて、当該人の地図位置を求める。第1センサ装置11の地図位置を(X3,Y3,Z3)とし、人の第1相対位置を(Xs,Ys,Zs)とすると、当該人の地図位置は(X3+Xs,Y3+Ys,Z3+Zs)で表される。算出部1bは、第1センサ装置11で検出される各人について地図位置を求める。   In the present embodiment, the mobile body position calculation unit 1b obtains the map position of the person based on the first relative position of the person included in the first sensor information 110 collected by the first collection unit 1a. In other words, the calculation unit 1 b obtains the map position of the person based on the first relative position of the person detected by the first sensor device 11. When obtaining the map position of a person, the calculation unit 1 b acquires the map position of the first sensor device 11 from the indoor map information in the storage unit 1 c. Then, the calculation unit 1 b obtains the map position of the person based on the map position of the first sensor device 11 and the first relative position of the person included in the first sensor information 110. Assuming that the map position of the first sensor device 11 is (X3, Y3, Z3) and the first relative position of a person is (Xs, Ys, Zs), the map position of the person is represented by (X3 + Xs, Y3 + Ys, Z3 + Zs) Be done. The calculation unit 1 b obtains a map position for each person detected by the first sensor device 11.

混雑度算出部1gは、移動体位置算出部1bで求められる各人の地図位置に基づいて、作成部1eで設定された各屋内仮想レーン240での人の混雑度を求める。算出部1gには、算出部1bで求められる人の第1地図位置が例えば一定時間ごとに入力される。算出部1gは、定期的にあるいは不定期的に、各屋内仮想レーン240での人の混雑度を求める。以後、説明の対象の屋内仮想レーン240を対象屋内仮想レーン240と呼ぶ。   The congestion degree calculation unit 1g obtains the congestion degree of the person in each indoor virtual lane 240 set by the creation unit 1e based on the map position of each person obtained by the moving body position calculation unit 1b. The first map position of the person obtained by the calculation unit 1b is input to the calculation unit 1g, for example, at fixed time intervals. The calculation unit 1 g periodically or irregularly obtains the degree of crowded person in each indoor virtual lane 240. Hereinafter, the indoor virtual lane 240 that is the target of the description is referred to as a target indoor virtual lane 240.

算出部1gは、対象屋内仮想レーン240での人の混雑度を求める際には、対象屋内仮想レーン240を単位面積ごとに複数の分割エリアに分割する。分割エリアの形状は、例えば、一辺の長さが50cmの正方形である。そして、算出部1gは、入力される人の地図位置に基づいて、各分割エリアについて個別に人の混雑度を求める。例えば、算出部1gは、各分割エリアについて、入力される人の地図位置に基づいて、単位時間の間に、当該分割エリアに入る人の数を求める。算出部1gは、例えば、30分の間に分割エリアに入る人の数を求める。そして、算出部1gは、求めた数を人の混雑度として採用する。例えば、30分の間に分割エリアに入る人の数が150人であるとすると、当該分割エリアでの人の混雑度は、150人/30分(=5人/分)となる。算出部1gは、対象屋内仮想レーン240の各分割エリアについての人の混雑度を求めると、求めた各分割エリアの人の混雑度を、対象屋内仮想レーン240での人の混雑度として作成部1eに入力する。作成部1eは、算出部1gから受け取った、対象屋内仮想レーン240での人の混雑度を、対象屋内仮想レーン240を示す屋内仮想レーン情報130に含める。   The calculation unit 1 g divides the target indoor virtual lane 240 into a plurality of divided areas for each unit area when obtaining the degree of human congestion in the target indoor virtual lane 240. The shape of the divided area is, for example, a square with a side length of 50 cm. Then, the calculation unit 1g individually obtains the degree of congestion of the person for each divided area based on the map position of the person who is input. For example, for each divided area, the calculation unit 1g obtains the number of persons who enter the divided area during the unit time based on the input map position of the person. The calculation unit 1g obtains, for example, the number of persons who enter the division area in 30 minutes. Then, the calculation unit 1g adopts the obtained number as the degree of congestion of people. For example, if it is assumed that the number of persons who enter the division area in 30 minutes is 150, the degree of congestion of the persons in the division area is 150 persons / 30 minutes (= 5 persons / minute). When the calculation unit 1g obtains the degree of human congestion for each divided area of the target indoor virtual lane 240, the calculation unit 1g creates the calculated degree of human congestion for each divided area as the degree of human congestion in the target indoor virtual lane 240. Enter 1e. The creation unit 1 e includes the degree of human congestion in the target indoor virtual lane 240 received from the calculation unit 1 g in the indoor virtual lane information 130 indicating the target indoor virtual lane 240.

なお、算出部1gは、屋内仮想レーン240での人の混雑度を他の方法で求めてもよい。例えば、算出部1gは、対象屋内仮想レーン240の各分割エリアについて、当該分割エリアに存在する人の数の時間平均を求める。算出部1gは、例えば、分割エリアに存在する人の数を所定タイミングごとに複数回求め、複数回求めた、分割エリアに存在する人の数についての平均値を、当該分割エリアに存在する人の数の時間平均とする。そして、算出部1gは、求めた、分割エリアに存在する人の数の時間平均を、当該分割エリアでの人の混雑度とする。そして、算出部1gは、求めた各分割エリアでの人の混雑度を、対象屋内仮想レーン240での人の混雑度とする。   Note that the calculation unit 1 g may obtain the congestion degree of the person in the indoor virtual lane 240 by another method. For example, for each divided area of the target indoor virtual lane 240, the calculation unit 1g obtains a time average of the number of people present in the divided area. For example, the calculation unit 1 g obtains the number of people present in the divided area a plurality of times at predetermined timings, and calculates the average value of the number of people present in the divided area a plurality of times A time average of the number of Then, the calculation unit 1 g sets the obtained time average of the number of persons present in the divided area as the degree of congestion of the person in the divided area. Then, the calculation unit 1 g sets the degree of human congestion in each divided area obtained as the degree of human congestion in the target indoor virtual lane 240.

このように、本実施の形態では、屋内仮想レーン240での人の混雑度が、当該屋内仮想レーン240を示す屋内仮想レーン情報130に含められる。これにより、ロボット13は、人が混雑している屋内仮想レーン240を避けて屋内を移動することができる。よって、人とロボット13が円滑に移動可能な屋内交通環境を実現することができる。また、ロボット13は、屋内仮想レーン情報130に含まれる人の混雑度を用いて、目的地までの移動時間を予測することが可能となる。   Thus, in the present embodiment, the degree of human congestion in the indoor virtual lane 240 is included in the indoor virtual lane information 130 indicating the indoor virtual lane 240. Thereby, the robot 13 can move indoors while avoiding the crowded indoor virtual lane 240. Therefore, it is possible to realize an indoor traffic environment in which a person and the robot 13 can move smoothly. In addition, the robot 13 can predict the traveling time to the destination using the degree of congestion of the person included in the indoor virtual lane information 130.

なお、本発明は、その発明の範囲内において、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略することが可能である。   In the present invention, within the scope of the invention, each embodiment can be freely combined, or each embodiment can be appropriately modified or omitted.

1 情報処理装置、1e 作成部、1y 判定部、1z 取得部、10 情報処理システム、11 屋内設置型センサ装置(第1センサ装置)、13 ロボット、130 屋内仮想レーン情報(移動許可領域情報)、150,220,220a,220b 屋内地物、240,240a1,240a2,240b1,240b2,240c,240d 屋内仮想レーン(移動許可領域)、250 通行方向、290a1,290a2 移動不可領域、300c,300d 停止禁止領域。   DESCRIPTION OF SYMBOLS 1 information processing apparatus, 1e creation part, 1y determination part, 1z acquisition part, 10 information processing system, 11 indoor installation type sensor apparatus (1st sensor apparatus), 13 robots, 130 indoor virtual lane information (movement permission area | region information), 150, 220, 220a, 220b indoor feature, 240, 240a1, 240a2, 240b1, 240b 2, 240c, 240d indoor virtual lane (moving permitted area), 250 traffic direction, 290a1, 290a2 immovable area, 300c, 300d stopped prohibited area .

本発明に係る情報処理装置の一態様は、移動装置が自律移動を行う屋内において、当該移動装置の移動が許可された第1領域を設定し、設定した当該第1領域を示す第1領域情報を作成する作成部と、前記第1領域が適切に設定されているか否かを判定する判定部と
を備え、前記移動装置は、前記屋内に存在する地物を検出し、検出した当該地物の位置を示す第1位置情報を出力し、前記屋内の前記移動装置を検出し、検出した当該移動装置の位置を示す第2位置情報を出力し、前記屋内に存在する地物を検出するセンサ装置が前記屋内に設置され、前記作成部は、前記屋内の地図を示す地図情報と、前記移動装置の検出距離と、前記センサ装置が検出する地物の位置とに基づいて、前記屋内に前記第1領域を設定し、前記判定部は、前記第1及び第2位置情報に基づいて、前記第1領域が適切に設定されているか否かを判定する
One aspect of the information processing apparatus according to the present invention relates to a method for indoor mobile equipment performs autonomous mobile sets a first area in which movement of the mobile equipment is allowed, the first area that has been set a creation unit for creating a first region information, said comprising a <br/> a determination unit first region whether or not it is properly set, the mobile equipment is earth present in the indoor Object is detected, first position information indicating the position of the detected feature is output, the moving device in the room is detected, and second position information indicating the detected position of the moving device is output; sensor equipment for detecting the land object existing indoors is installed in the indoor, the creating unit includes: a map information indicating a map of the indoor, the detection distance of the mobile equipment, the sensor equipment is detected based on the position of the to that land object, sets the first area to the indoors, the determination unit before Based on the first and second position information, it determines whether the first area is properly set.

また、本発明に係る情報処理装置の一態様は、移動装置が自律移動を行う屋内に設定された、当該移動装置の移動が許可された第1領域が、適切に設定されているか否かを判定する判定部を備え、前記移動装置は、前記屋内に存在する地物を検出し、検出した当該地物の位置を示す第1位置情報を出力し、前記屋内の前記移動装置を検出し、検出した前記移動装置の位置を示す第2位置情報を出力するセンサ装置が前記屋内に設置され、前記判定部は、前記第1及び第2位置情報に基づいて、前記第1領域が適切に設定されているか否かを判定する。 Further, one embodiment of the information processing apparatus according to the present invention, the mobile equipment is set indoors for performing autonomous movement, the first area in which movement of the mobile equipment is authorized, it is set appropriately comprising a determining unit whether said mobile equipment, said detects the earth that is present indoors, and outputs the first position information indicating a position of the detected said locations thereof, the moving instrumentation of the indoor detecting the location, the sensor equipment for outputting a second position information indicating the detected position of the said mobile equipment is installed in the indoor, the determination unit, based on the first and second position information, the It determines whether the first area is properly set.

屋内には少なくとも一つの第1センサ装置11が設置される。したがって、情報処理システム10は少なとも一つの第1センサ装置11を備える。第1センサ装置11は、例えば、屋内の天井あるいは柱等に設置される。第1センサ装置11は、屋内地物、人及びロボット13のそれぞれを第1検出対象物として検出することが可能である。ここで、屋内地物とは、屋内に存在する、人、ロボット13及び第1センサ装置11以外の物体(物理的に存在する物)を意味する。第1センサ装置11が検出可能な屋内地物としては、例えば、柱、壁、床、窓及び照明などが挙げられる。第1センサ装置11は、例えば、レーザーレンジセンサあるいはカメラセンサである。 At least one first sensor device 11 is installed indoors. Accordingly, comprising a first sensor device 11 of a single even the information processing system 10 rather low. The first sensor device 11 is installed on, for example, a ceiling or a pillar indoors. The first sensor device 11 can detect each of the indoor feature, the person, and the robot 13 as the first detection target. Here, the indoor feature means an object (physically existing object) other than a person, the robot 13 and the first sensor device 11 existing indoors. Examples of indoor features that can be detected by the first sensor device 11 include columns, walls, floors, windows, and lighting. The first sensor device 11 is, for example, a laser range sensor or a camera sensor.

なお、ロボット13の第2センサ装置12が検出可能な屋内地物には、ロボット13が自己の地図位置を求めるための専用のマーカー(位置認識用マーカー)が含まれてもよい。また図3に示される、第2センサ装置12の検出範囲12aの形状は、あくまでも一例であって、検出範囲12aの形状はこれに限れない。

The indoor feature that can be detected by the second sensor device 12 of the robot 13 may include a dedicated marker (marker for position recognition) for the robot 13 to obtain its own map position. Also shown in Figure 3, the shape of the detection range 12a of the second sensor device 12 are merely examples, the shape of the detection range 12a is this not always linear.

Claims (13)

移動装置(13)が自律移動を行う屋内において、当該移動装置(13)の移動が許可された第1領域(240,240a1,240a2,240b1,240b2,240c,240d)を設定し、設定した当該第1領域(240,240a1,240a2,240b1,240b2,240c,240d)を示す第1領域情報(130)を作成する作成部(1e)を備え、
前記移動装置(13)は、前記屋内に存在する地物(150,220,220a,220b)を検出し、
前記屋内に存在する地物(150,220,220a,220b)を検出するセンサ装置(11)が前記屋内に設置され、
前記作成部(1e)は、前記屋内の地図を示す地図情報と、前記移動装置(13)の検出距離(d1)と、前記センサ装置(11)が検出する地物の位置とに基づいて、前記屋内に前記第1領域(240,240a1,240a2,240b1,240b2,240c,240d)を設定する、情報処理装置。
In the indoor where the mobile device (13) performs autonomous movement, the first area (240, 240a1, 240a2, 240b1, 240b2, 240c, 240d) where movement of the mobile device (13) is permitted is set and set A creation unit (1e) that creates first area information (130) indicating the first area (240, 240a1, 240a2, 240b1, 240b2, 240c, 240d);
The moving device (13) detects features (150, 220, 220a, 220b) present in the indoor,
A sensor device (11) for detecting features (150, 220, 220a, 220b) present indoors is installed indoors,
The creation unit (1e) is based on the map information indicating the indoor map, the detection distance (d1) of the moving device (13), and the position of the feature detected by the sensor device (11). An information processing apparatus, wherein the first area (240, 240a1, 240a2, 240b1, 240b2, 240c, 240d) is set indoors.
請求項1に記載の情報処理装置であって、
前記作成部(1e)は、前記屋内での通行方向(250)を示す通行方向情報にも基づいて、前記第1領域(240,240a1,240a2,240b1,240b2,240c,240d)を設定する、情報処理装置。
The information processing apparatus according to claim 1, wherein
The creation unit (1e) sets the first area (240, 240a1, 240a2, 240b1, 240b2, 240c, 240d) based also on passing direction information indicating the passing direction (250) indoors. Information processing device.
請求項1及び請求項2のいずれか一つに記載の情報処理装置であって、
前記作成部(1e)は、前記移動装置の幅にも基づいて、前記第1領域(240,240a1,240a2,240b1,240b2,240c,240d)を設定する、情報処理装置。
An information processing apparatus according to any one of claims 1 and 2;
The information processing apparatus, wherein the creation unit (1e) sets the first area (240, 240a1, 240a2, 240b1, 240b2, 240c, 240d) based also on the width of the moving device.
請求項3に記載の情報処理装置であって、
前記作成部(1e)は、前記第1領域(240,240a1,240a2,240b1,240b2,240c,240d)での床面から天井までの高さを前記第1領域情報(130)に含める、情報処理装置。
The information processing apparatus according to claim 3, wherein
The creation unit (1e) includes, in the first area information (130), the height from the floor surface to the ceiling in the first area (240, 240a1, 240a2, 240b1, 240b2, 240c, 240d). Processing unit.
請求項1乃至請求項4のいずれか一つに記載の情報処理装置であって、
前記作成部(1e)は、前記第1領域(240,240a1,240a2,240b1,240b2,240c,240d)において、そこから隣の前記第1領域(240,240a1,240a2,240b1,240b2,240c,240d)への移動が不可である第2領域(290a1,290a2)を設定し、設定した当該第2領域(290a1,290a2)を示す第2領域情報を、前記第1領域情報(130)に含める、情報処理装置。
An information processing apparatus according to any one of claims 1 to 4, wherein
In the first area (240, 240a1, 240a2, 240b1, 240b2, 240c, 240d), the creation unit (1e) is connected to the first area (240, 240a1, 240a2, 240b1, 240b2, 240c) next thereto. The second area (290a1, 290a2) incapable of moving to 240 d) is set, and the second area information indicating the set second area (290a1, 290a2) is included in the first area information (130). , Information processing device.
請求項1乃至請求項5のいずれか一つに記載の情報処理装置であって、
前記作成部(1e)は、前記第1領域(240,240a1,240a2,240b1,240b2,240c,240d)の床面の耐荷重を示す耐荷重情報を前記第1領域情報(130)に含める、情報処理装置。
An information processing apparatus according to any one of claims 1 to 5, wherein
The creation unit (1e) includes load resistance information indicating the load resistance of the floor surface of the first area (240, 240a1, 240a2, 240b1, 240b2, 240c, 240d) in the first area information (130). Information processing device.
請求項1乃至請求項6のいずれか一つに記載の情報処理装置であって、
前記作成部(1e)は、前記第1領域(240,240a1,240a2,240b1,240b2,240c,240d)において前記移動装置(13)の停止を禁止する第3領域(300c,300d)を示す第3領域情報を前記第1領域情報(130)に含める、情報処理装置。
An information processing apparatus according to any one of claims 1 to 6, wherein
The creating unit (1e) is a third area (300c, 300d) that prohibits the stopping of the moving device (13) in the first area (240, 240a1, 240a2, 240b1, 240b2, 240c, 240d). An information processing apparatus including three area information in the first area information (130).
請求項1乃至請求項7のいずれか一つに記載の情報処理装置であって、
前記センサ装置(11)は、前記屋内に存在する人を検出し、検出した人の位置を示す第1位置情報を出力し、
前記第1位置情報に基づいて、前記第1領域(240,240a1,240a2,240b1,240b2,240c,240d)での人の混雑度を取得する取得部(1z)をさらに備え、
前記作成部(1e)は、前記混雑度を前記第1領域情報(130)に含める、情報処理装置。
An information processing apparatus according to any one of claims 1 to 7, wherein
The sensor device (11) detects a person present indoors, and outputs first position information indicating a position of the detected person,
An acquisition unit (1z) for acquiring a degree of congestion of a person in the first area (240, 240a1, 240a2, 240b1, 240b2, 240c, 240d) based on the first position information, further comprising:
The information processing apparatus, wherein the creation unit (1e) includes the congestion degree in the first area information (130).
請求項1乃至請求項8のいずれか一つに記載の情報処理装置であって、
前記センサ装置(11)は、前記屋内の前記移動装置(13)を検出し、検出した当該移動装置(13)の位置を示す第2位置情報を出力し、
前記移動装置(13)は、前記屋内に存在する地物(150,220,220a,220b)を検出し、検出した当該地物(150,220,220a,220b)の位置を示す第3位置情報を出力し、
前記第2及び第3位置情報に基づいて、前記第1領域(240,240a1,240a2,240b1,240b2,240c,240d)が適切に設定されているか否かを判定する判定部(1y)をさらに備える、情報処理装置。
An information processing apparatus according to any one of claims 1 to 8, wherein
The sensor device (11) detects the mobile device (13) indoors and outputs second position information indicating the detected position of the mobile device (13).
The moving device (13) detects the features (150, 220, 220a, 220b) present indoors, and third position information indicating the positions of the detected features (150, 220, 220a, 220b) Output
The determination unit (1y) further determines whether the first area (240, 240a1, 240a2, 240b1, 240b2, 240c, 240d) is appropriately set based on the second and third position information. An information processor provided.
移動装置(13)が自律移動を行う屋内に設定された、当該移動装置(13)の移動が許可された第1領域(240,240a1,240a2,240b1,240b2,240c,240d)が、適切に設定されているか否かを判定する判定部(1y)を備え、
前記移動装置(13)は、前記屋内に存在する地物(150,220,220a,220b)を検出し、検出した当該地物(150,220,220a,220b)の位置を示す第1位置情報を出力し、
前記屋内の前記移動装置(13)を検出し、検出した前記移動装置(13)の位置を示す第2位置情報を出力するセンサ装置(11)が前記屋内に設置され、
前記判定部は、前記第1及び第2位置情報に基づいて、前記第1領域(240,240a1,240a2,240b1,240b2,240c,240d)が適切に設定されているか否かを判定する、情報処理装置。
The first area (240, 240a1, 240a2, 240b1, 240b1, 240b, 240c, 240d) in which movement of the mobile device (13) is permitted, which is set indoors where the mobile device (13) performs autonomous movement, is properly A determination unit (1y) for determining whether or not it is set;
The moving device (13) detects the features (150, 220, 220a, 220b) present indoors, and first position information indicating the positions of the detected features (150, 220, 220a, 220b) Output
A sensor device (11) for detecting the mobile device (13) indoors and outputting second position information indicating the detected position of the mobile device (13) is installed indoors,
The determination unit determines whether or not the first area (240, 240a1, 240a2, 240b1, 240b2, 240c, 240d) is appropriately set based on the first and second position information. Processing unit.
屋内を自律移動し、当該屋内の地物(150,220,220a,220b)を検出する移動装置(13)と、
前記屋内に存在する地物(150,220,220a,220b)を検出する、前記屋内に設置されたセンサ装置(11)と、
前記屋内の地図を示す地図情報と、前記移動装置(13)の検出距離(d1)と、前記センサ装置(11)が検出する屋内地物の位置とに基づいて、前記屋内において、前記移動装置(13)の移動が許可された領域(240,240a1,240a2,240b1,240b2,240c,240d)を設定し、設定した当該領域(240,240a1,240a2,240b1,240b2,240c,240d)を示す領域情報(130)を作成する作成部(1e)と
を備える、情報処理システム。
A mobile device (13) which moves indoors autonomously and detects features (150, 220, 220a, 220b) of the indoor;
A sensor device (11) installed indoors, which detects features (150, 220, 220a, 220b) present indoors;
The mobile device in the indoor based on map information indicating the indoor map, the detection distance (d1) of the mobile device (13), and the position of the indoor feature detected by the sensor device (11) Set the area (240, 240a1, 240a2, 240b1, 240b2, 240c, 240d) where movement of (13) is permitted, and indicate the set area (240, 240a1, 240a2, 240b1, 240b2, 240c, 240d) An information processing system, comprising: a creation unit (1e) that creates area information (130).
屋内を自律移動し、当該屋内の地物(150,220,220a,220b)を検出し、検出した当該地物(150,220,220a,220b)の位置を示す第1位置情報を出力する移動装置(13)と、
前記屋内の前記移動装置(13)を検出し、検出した当該移動装置(13)の位置を示す第2位置情報を出力するセンサ装置(11)と、
前記屋内に設定された、前記移動装置(13)の移動が許可された領域(240,240a1,240a2,240b1,240b2,240c,240d)が、適切に設定されているか否かを、前記第1及び第2位置情報に基づいて判定する判定部(1y)と
を備える、情報処理システム。
A movement which autonomously moves indoors, detects a feature (150, 220, 220a, 220b) in the room, and outputs first position information indicating a position of the detected feature (150, 220, 220a, 220b) A device (13),
A sensor device (11) for detecting the mobile device (13) indoors and outputting second position information indicating the detected position of the mobile device (13);
Whether the area (240, 240a1, 240a2, 240b1, 240b2, 240c, 240d) in which movement of the mobile device (13) is permitted to be set indoors is properly set or not And a determination unit (1y) that determines based on second position information.
請求項11及び請求項12のいずれか一つに記載の情報処理システムであって、
前記センサ装置(11)の検出距離は、前記移動装置(13)の検出距離(d1)よりも大きい、情報処理システム。
An information processing system according to any one of claims 11 and 12.
An information processing system, wherein a detection distance of the sensor device (11) is larger than a detection distance (d1) of the movement device (13).
JP2017563272A 2017-07-12 2017-07-12 Information processing apparatus and information processing system Expired - Fee Related JP6289791B1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/025334 WO2019012612A1 (en) 2017-07-12 2017-07-12 Information-processing device and information-processing system

Publications (2)

Publication Number Publication Date
JP6289791B1 JP6289791B1 (en) 2018-03-07
JPWO2019012612A1 true JPWO2019012612A1 (en) 2019-07-11

Family

ID=61557997

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017563272A Expired - Fee Related JP6289791B1 (en) 2017-07-12 2017-07-12 Information processing apparatus and information processing system

Country Status (2)

Country Link
JP (1) JP6289791B1 (en)
WO (1) WO2019012612A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023036418A (en) * 2021-09-02 2023-03-14 東芝テック株式会社 Movement instructing device and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4296351B2 (en) * 2004-11-25 2009-07-15 パナソニック電工株式会社 Travel control device
JP2009217330A (en) * 2008-03-07 2009-09-24 Toyota Motor Corp Mobile robot system and its control method
JP5560979B2 (en) * 2010-07-13 2014-07-30 村田機械株式会社 Autonomous mobile
JPWO2016067467A1 (en) * 2014-10-31 2017-04-27 三菱電機株式会社 Robot control apparatus, robot system, robot control method and program
JP2017090796A (en) * 2015-11-16 2017-05-25 トヨタ自動車株式会社 Map creation method

Also Published As

Publication number Publication date
WO2019012612A1 (en) 2019-01-17
JP6289791B1 (en) 2018-03-07

Similar Documents

Publication Publication Date Title
CN105182979B (en) A kind of mobile robot detection of obstacles and preventing collision method and system
KR101382982B1 (en) Path Planning System and Method
US11709489B2 (en) Method for controlling an autonomous, mobile robot
US20180115875A1 (en) Method of estimating position of a device using geographical descriptive data
JP6672076B2 (en) Information processing device and mobile device
JP2019508665A (en) Navigating semi-autonomous mobile robots
US9434074B2 (en) Autonomous running control method and device of autonomous running apparatus, and program for autonomous running control device
JP2006253888A (en) Position information management apparatus and position information management method
JPWO2013046563A1 (en) Autonomous mobile device, autonomous mobile method, and program for autonomous mobile device
US8699759B2 (en) Method and apparatus for automated determination of features on an electronic map
KR20220055167A (en) Autonomous robot, world map management server of autonomous robot and collision avoidance method using the same
JP6094279B2 (en) TRACKING DEVICE, TRACKING PROGRAM, AND TRACKING METHOD
GB2578259A (en) Automated guided vehicle guidance system
CN108673510A (en) Robot security&#39;s advance system and method
JP6289791B1 (en) Information processing apparatus and information processing system
US10976424B2 (en) Automatic determination of position and orientation of elevator device entry terminals and hallway fixtures
JP2022137944A (en) Control system and moving body
JP7194955B1 (en) AUTONOMOUS ROBOT, CONTROL METHOD OF AUTONOMOUS ROBOT, AND INSPECTION SYSTEM USING AUTONOMOUS ROBOT
JP3931906B2 (en) Autonomous mobile device
JP2020184274A (en) Controller, control system, control method, and control program
KR20130048990A (en) Robot for life-saving
KR20220064127A (en) Robots for high-altitude operation and operation methods using them
JP2012128700A (en) Relation estimation device, relation estimation system, relation estimation program and relation estimation method
CN110955263A (en) Active sensing and autonomous approaching method of mobile robot and mobile robot system
CN118215897A (en) Detection of deadlock conflicts occurring in a robot queue of an autonomous mobile robot

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171205

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171205

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20171205

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20171227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180206

R150 Certificate of patent or registration of utility model

Ref document number: 6289791

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees