JP6289791B1 - Information processing apparatus and information processing system - Google Patents

Information processing apparatus and information processing system Download PDF

Info

Publication number
JP6289791B1
JP6289791B1 JP2017563272A JP2017563272A JP6289791B1 JP 6289791 B1 JP6289791 B1 JP 6289791B1 JP 2017563272 A JP2017563272 A JP 2017563272A JP 2017563272 A JP2017563272 A JP 2017563272A JP 6289791 B1 JP6289791 B1 JP 6289791B1
Authority
JP
Japan
Prior art keywords
indoor
information
area
virtual lane
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2017563272A
Other languages
Japanese (ja)
Other versions
JPWO2019012612A1 (en
Inventor
雄治 五十嵐
雄治 五十嵐
佳明 安達
佳明 安達
雅彦 伊川
雅彦 伊川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6289791B1 publication Critical patent/JP6289791B1/en
Publication of JPWO2019012612A1 publication Critical patent/JPWO2019012612A1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

作成部(1e)は、屋内において、移動装置(13)の移動が許可された第1領域(240,240a1,240a2,240b1,240b2,240c,240d)を設定し、設定した当該第1領域(240,240a1,240a2,240b1,240b2,240c,240d)を示す第1領域情報(130)を作成する。移動装置(13)は、屋内に存在する地物(150,220,220a,220b)を検出する。屋内に存在する地物(150,220,220a,220b)を検出するセンサ装置(11)が屋内に設置されている。作成部(1e)は、屋内の地図を示す地図情報と、移動装置(13)の検出距離(d1)と、センサ装置(11)が検出する屋内地物の位置とに基づいて、屋内に第1領域(240,240a1,240a2,240b1,240b2,240c,240d)を設定する。The creation unit (1e) sets the first area (240, 240a1, 240a2, 240b1, 240b2, 240c, 240d) in which the movement of the mobile device (13) is permitted indoors, and the set first area ( 240, 240a1, 240a2, 240b1, 240b2, 240c, 240d), the first area information (130) is created. The mobile device (13) detects the features (150, 220, 220a, 220b) existing indoors. A sensor device (11) for detecting features (150, 220, 220a, 220b) existing indoors is installed indoors. The creation unit (1e) generates the indoor information based on the map information indicating the indoor map, the detection distance (d1) of the mobile device (13), and the position of the indoor feature detected by the sensor device (11). One area (240, 240a1, 240a2, 240b1, 240b2, 240c, 240d) is set.

Description

本発明は、情報処理に関する。   The present invention relates to information processing.

近年、高齢者の増加及び労働力人口の減少などの社会的問題への対策として、屋内における様々な作業をロボットに行わせるための技術開発が進められている。屋内おいてロボットに行わせる作業としては、例えば、物資の運搬、清掃、あるいは人の移動支援などが挙げられる。   In recent years, as a countermeasure to social problems such as an increase in the number of elderly people and a decrease in the labor force population, technology development for causing a robot to perform various indoor tasks has been advanced. Examples of the work to be performed by the robot indoors include transportation of goods, cleaning, and support for movement of people.

特許文献1〜3には、自律移動を行う移動装置に関する技術が開示されている。   Patent Documents 1 to 3 disclose techniques related to a mobile device that performs autonomous movement.

特許第5902275号公報Japanese Patent No. 5902275 特開2015−138489号公報Japanese Patent Laying-Open No. 2015-138489 特開2010−86416号公報JP 2010-86416 A

ロボット等の移動装置については、屋内において適切に自律移動できることが望まれる。   It is desired that a mobile device such as a robot can appropriately move autonomously indoors.

そこで、本発明は上述の点に鑑みて成されたものであり、移動装置が屋内において適切に自律移動することを可能にする技術を提供することを目的とする。   Therefore, the present invention has been made in view of the above-described points, and an object of the present invention is to provide a technique that enables a mobile device to appropriately move autonomously indoors.

本発明に係る情報処理装置の一態様は、移動装置が自律移動を行う屋内において、当該移動装置の移動が許可された第1領域を設定し、設定した当該第1領域を示す第1領域情報を作成する作成部と、前記第1領域が適切に設定されているか否かを判定する判定部と
を備え、前記移動装置は、前記屋内に存在する地物を検出し、検出した当該地物の位置を示す第1位置情報を出力し、前記屋内の前記移動装置を検出し、検出した当該移動装置の位置を示す第2位置情報を出力し、前記屋内に存在する地物を検出するセンサ装置が前記屋内に設置され、前記作成部は、前記屋内の地図を示す地図情報と、前記移動装置の検出距離と、前記センサ装置が検出する地物の位置とに基づいて、前記屋内に前記第1領域を設定し、前記判定部は、前記第1及び第2位置情報に基づいて、前記第1領域が適切に設定されているか否かを判定する
One aspect of the information processing apparatus according to the present invention relates to a method for indoor mobile equipment performs autonomous mobile sets a first area in which movement of the mobile equipment is allowed, the first area that has been set a creation unit for creating a first region information, said comprising a <br/> a determination unit first region whether or not it is properly set, the mobile equipment is earth present in the indoor Detecting an object, outputting first position information indicating the position of the detected feature , detecting the indoor moving device, outputting second position information indicating the position of the detected moving device, sensor equipment for detecting the land object existing indoors is installed in the indoor, the creating unit includes: a map information indicating a map of the indoor, the detection distance of the mobile equipment, the sensor equipment is detected based on the position of the to that land object, sets the first area to the indoors, the determination unit before Based on the first and second position information, it determines whether the first area is properly set.

また、本発明に係る情報処理装置の一態様は、移動装置が自律移動を行う屋内に設定された、当該移動装置の移動が許可された第1領域が、適切に設定されているか否かを判定する判定部を備え、前記移動装置は、前記屋内に存在する地物を検出し、検出した当該地物の位置を示す第1位置情報を出力し、前記屋内の前記移動装置を検出し、検出した前記移動装置の位置を示す第2位置情報を出力するセンサ装置が前記屋内に設置され、前記判定部は、前記第1及び第2位置情報に基づいて、前記第1領域が適切に設定されているか否かを判定する。 Further, one embodiment of the information processing apparatus according to the present invention, the mobile equipment is set indoors for performing autonomous movement, the first area in which movement of the mobile equipment is authorized, it is set appropriately comprising a determining unit whether said mobile equipment, said detects the earth that is present indoors, and outputs the first position information indicating a position of the detected said locations thereof, the moving instrumentation of the indoor detecting the location, the sensor equipment for outputting a second position information indicating the detected position of the said mobile equipment is installed in the indoor, the determination unit, based on the first and second position information, the It determines whether the first area is properly set.

本発明によれば、移動装置が屋内において適切に自律移動することができる。   According to the present invention, the mobile device can appropriately move autonomously indoors.

情報処理システムの一例を示す図である。It is a figure which shows an example of an information processing system. 情報処理装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of information processing apparatus. ロボットが屋内仮想レーン上を移動する様子の一例を示す図である。It is a figure which shows an example of a mode that a robot moves on an indoor virtual lane. 情報処理装置の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of information processing apparatus. 屋内仮想レーンの一例を示す図である。It is a figure which shows an example of an indoor virtual lane. 屋内地図情報に含まれる情報の一例を示す図である。It is a figure which shows an example of the information contained in indoor map information. 屋内仮想レーンの一例を示す図である。It is a figure which shows an example of an indoor virtual lane. 屋内仮想レーンに設定される移動不可領域の一例を示す図である。It is a figure which shows an example of the immovable area | region set to an indoor virtual lane. 情報処理装置の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of information processing apparatus. 屋内仮想レーンに設定される停止禁止領域の一例を示す図である。It is a figure which shows an example of the stop prohibition area | region set to an indoor virtual lane. 屋内仮想レーンに設定される停止禁止領域の一例を示す図である。It is a figure which shows an example of the stop prohibition area | region set to an indoor virtual lane. 情報処理システムの一例を示す図である。It is a figure which shows an example of an information processing system.

実施の形態1.
<情報処理システムの概要>
図1は情報処理システム10の構成の一例を示す図である。本実施の形態に係る情報処理システム10は、移動装置が自律移動する屋内の地図(屋内地図)を示す屋内地図情報であって、当該屋内における、当該移動装置の移動が許可された領域を示す情報を含む屋内地図情報を作成する。したがって、情報処理システム10は、屋内地図作成システムであるとも言える。
Embodiment 1 FIG.
<Outline of information processing system>
FIG. 1 is a diagram illustrating an example of the configuration of the information processing system 10. The information processing system 10 according to the present embodiment is indoor map information indicating an indoor map (indoor map) on which the mobile device autonomously moves, and indicates an area in which movement of the mobile device is permitted. Create indoor map information including information. Therefore, it can be said that the information processing system 10 is an indoor map creation system.

図1に示されるように、情報処理システム10は、情報処理装置1と、屋内に設置される屋内設置型センサ装置11(以後、第1センサ装置11と呼ぶことがある)と、当該屋内を自律移動する移動装置であるロボット13とを備える。ロボット13は、移動体搭載センサ装置12(以後、第2センサ装置12と呼ぶことがある)を備える。情報処理装置1は、屋内設置型センサ装置11から出力される情報と、移動体搭載センサ装置12から出力される情報とに基づいて、屋内においてロボット13の移動が許可された領域を示す情報を含む屋内地図情報を作成することが可能である。したがって、情報処理装置1は、屋内地図作成装置であるとも言える。   As shown in FIG. 1, the information processing system 10 includes an information processing apparatus 1, an indoor installation type sensor apparatus 11 (hereinafter sometimes referred to as a first sensor apparatus 11) installed indoors, And a robot 13 that is a mobile device that moves autonomously. The robot 13 includes a moving body-mounted sensor device 12 (hereinafter sometimes referred to as a second sensor device 12). Based on the information output from the indoor sensor device 11 and the information output from the mobile body-mounted sensor device 12, the information processing device 1 displays information indicating an area where the robot 13 is permitted to move indoors. It is possible to create indoor map information including. Therefore, it can be said that the information processing apparatus 1 is an indoor map creation apparatus.

以後、屋内と言えば、ロボット13が自律移動する屋内を意味する。また、屋内において、ロボット13の移動が許可された領域を移動許可領域と呼ぶことがある。また、移動許可領域を示す情報を移動許可領域情報と呼ぶことがある。   Hereinafter, indoors means indoors where the robot 13 moves autonomously. In addition, an area where the movement of the robot 13 is permitted indoors may be referred to as a movement permitted area. In addition, information indicating the movement permitted area may be referred to as movement permitted area information.

屋内には少なくとも一つの第1センサ装置11が設置される。したがって、情報処理システム10は少なとも一つの第1センサ装置11を備える。第1センサ装置11は、例えば、屋内の天井あるいは柱等に設置される。第1センサ装置11は、屋内地物、人及びロボット13のそれぞれを第1検出対象物として検出することが可能である。ここで、屋内地物とは、屋内に存在する、人、ロボット13及び第1センサ装置11以外の物体(物理的に存在する物)を意味する。第1センサ装置11が検出可能な屋内地物としては、例えば、柱、壁、床、窓及び照明などが挙げられる。第1センサ装置11は、例えば、レーザーレンジセンサあるいはカメラセンサである。 At least one first sensor device 11 is installed indoors. Accordingly, comprising a first sensor device 11 of a single even the information processing system 10 rather low. The first sensor device 11 is installed, for example, on an indoor ceiling or pillar. The first sensor device 11 can detect each of the indoor feature, the person, and the robot 13 as the first detection target. Here, the indoor feature means an object (physically existing object) existing indoors other than a person, the robot 13 and the first sensor device 11. Examples of indoor features that can be detected by the first sensor device 11 include pillars, walls, floors, windows, and lighting. The first sensor device 11 is, for example, a laser range sensor or a camera sensor.

第1センサ装置11は、検出した第1検出対象物の種別を特定する。また第1センサ装置11は、当該第1センサ装置11の位置を原点とした第1検出対象物の位置(第1センサ装置11の位置に対する第1検出対象物の相対的な位置)を求める。第1センサ装置11は、当該第1センサ装置11から第1検出対象物までの距離を測定し、その測定結果に基づいて、当該第1センサ装置11の位置を原点とした当該第1検出対象物の位置を求めることが可能である。以後、第1センサ装置11の位置を原点とした第1検出対象物の位置を第1相対位置と呼ぶことがある。   The first sensor device 11 specifies the type of the detected first detection object. In addition, the first sensor device 11 obtains the position of the first detection object (the relative position of the first detection object with respect to the position of the first sensor device 11) with the position of the first sensor device 11 as the origin. The first sensor device 11 measures the distance from the first sensor device 11 to the first detection target, and based on the measurement result, the first detection target with the position of the first sensor device 11 as the origin It is possible to determine the position of an object. Hereinafter, the position of the first detection object with the position of the first sensor device 11 as the origin may be referred to as a first relative position.

第1センサ装置11は、特定した種別を示す種別情報と、求めた第1相対位置を示す位置情報とを含む屋内設置型センサ情報110を出力する。屋内設置型センサ情報110では、第1検出対象物の種別を示す種別情報と、当該第1検出対象物の第1相対位置を示す位置情報とが互いに対応付けられている。   The first sensor device 11 outputs indoor installation type sensor information 110 including type information indicating the specified type and position information indicating the obtained first relative position. In the indoor sensor information 110, type information indicating the type of the first detection object and position information indicating the first relative position of the first detection object are associated with each other.

第1センサ装置11は、例えば定期的に(例えば100msごとに)第1検出対象物を検出する。そして、第1センサ装置11は、第1検出対象物を検出するたびに、検出した第1検出対象物についての種別情報及び位置情報と、当該第1センサ装置11を識別するための識別情報とを含む屋内設置型センサ情報110を出力する。第1センサ装置11は、屋内設置型センサ情報110を例えば定期的に(例えば100msごとに)出力する。以後、屋内設置型センサ情報110を第1センサ情報110と呼ぶことがある。   The first sensor device 11 detects the first detection target object, for example, periodically (for example, every 100 ms). And whenever the 1st sensor apparatus 11 detects a 1st detection target object, the classification information and positional information about the detected 1st detection target object, and the identification information for identifying the said 1st sensor apparatus 11 and The indoor installation type sensor information 110 including is output. The first sensor device 11 outputs the indoor installation type sensor information 110, for example, periodically (for example, every 100 ms). Hereinafter, the indoor sensor information 110 may be referred to as first sensor information 110.

ロボット13に搭載された第2センサ装置12は、屋内地物及び人のそれぞれを第2検出対象物として検出することが可能である。第2センサ装置12が検出可能な屋内地物としては、例えば、柱、壁、床、窓及び照明などが挙げられる。第2センサ装置12は、例えば、レーザーレンジセンサあるいはカメラセンサである。本実施の形態では、第1センサ装置11の検出精度が、第2センサ装置12の検出精度よりも高くなっている。   The second sensor device 12 mounted on the robot 13 can detect each of an indoor feature and a person as a second detection target. Examples of indoor features that can be detected by the second sensor device 12 include pillars, walls, floors, windows, and lighting. The second sensor device 12 is, for example, a laser range sensor or a camera sensor. In the present embodiment, the detection accuracy of the first sensor device 11 is higher than the detection accuracy of the second sensor device 12.

第2センサ装置12は、検出した第2検出対象物の種別を特定する。また第2センサ装置12は、当該第2センサ装置12の位置を原点とした第2検出対象物の位置(第2センサ装置12の位置に対する第2検出対象物の相対的な位置)を求める。第2センサ装置12は、当該第2センサ装置12から第2検出対象物までの距離を測定し、その測定結果に基づいて、当該第2センサ装置12の位置を原点とした当該第2検出対象物の位置を求めることが可能である。以後、第2センサ装置12の位置を原点とした第2検出対象物の位置を第2相対位置と呼ぶことがある。   The second sensor device 12 specifies the type of the detected second detection object. In addition, the second sensor device 12 obtains the position of the second detection object (the relative position of the second detection object with respect to the position of the second sensor device 12) with the position of the second sensor device 12 as the origin. The second sensor device 12 measures the distance from the second sensor device 12 to the second detection target, and based on the measurement result, the second detection target with the position of the second sensor device 12 as the origin It is possible to determine the position of an object. Hereinafter, the position of the second detection object with the position of the second sensor device 12 as the origin may be referred to as a second relative position.

第2センサ装置12は、特定した種別を示す種別情報と、求めた第2相対位置を示す位置情報とを含む移動体搭載センサ情報120を出力する。移動体搭載センサ情報120では、第2検出対象物の種別を示す種別情報と、当該第2検出対象物の第2相対位置を示す位置情報とが互いに対応付けられている。   The second sensor device 12 outputs moving body mounted sensor information 120 including type information indicating the specified type and position information indicating the obtained second relative position. In the mobile body mounted sensor information 120, type information indicating the type of the second detection target and position information indicating the second relative position of the second detection target are associated with each other.

第2センサ装置12は、例えば定期的に(例えば100msごとに)第2検出対象物を検出する。そして、第2センサ装置12は、第2検出対象物を検出するたびに、検出した第2検出対象物についての種別情報及び位置情報を含む移動体搭載センサ情報120を出力する。第2センサ装置12は、移動体搭載センサ情報120を例えば定期的に(例えば100msごとに)出力する。以後、移動体搭載センサ情報120を第2センサ情報120と呼ぶことがある。   The second sensor device 12 detects the second detection target object, for example, periodically (for example, every 100 ms). And whenever the 2nd sensor apparatus 12 detects a 2nd detection target object, the mobile body mounting sensor information 120 containing the classification information and position information about the detected 2nd detection target object is output. The second sensor device 12 outputs the mobile body mounted sensor information 120, for example, periodically (for example, every 100 ms). Hereinafter, the mobile body mounted sensor information 120 may be referred to as second sensor information 120.

情報処理装置1は、機能ブロックとして、屋内設置型センサ情報収集部1aと、移動体位置算出部1bと、屋内地図情報記憶部1cと、移動体搭載センサ情報収集部1dと、屋内仮想レーン情報作成部1eと、屋内仮想レーン情報検証部1fとを備えている。情報処理装置1は、例えば、一種のコンピュータ装置(コンピュータ回路)である。情報処理装置1は、屋内に設けられてもよいし、屋外に設けられてもよい。   The information processing apparatus 1 includes, as functional blocks, an indoor installation type sensor information collection unit 1a, a moving body position calculation unit 1b, an indoor map information storage unit 1c, a mobile body mounted sensor information collection unit 1d, and indoor virtual lane information. A creation unit 1e and an indoor virtual lane information verification unit 1f are provided. The information processing device 1 is, for example, a kind of computer device (computer circuit). The information processing apparatus 1 may be provided indoors or outdoors.

屋内設置型センサ情報収集部1aは、第1センサ装置11が出力する第1センサ情報110を収集する。屋内設置型センサ情報収集部1aは、第1センサ装置11と有線通信あるいは無線通信を行うことが可能である。屋内設置型センサ情報収集部1aは、第1センサ装置11と通信することによって、第1センサ情報110を収集する。屋内設置型センサ情報収集部1aは、有線通信を行う場合には、例えば、Ethernet(登録商標)に準拠して通信してもよいし、シリアル通信を行ってもよい。また、屋内設置型センサ情報収集部1aは、無線通信を行う場合には、例えば、Wi−Fiに準拠して通信を行ってもよいし、Bluetooth(登録商標)に準拠して通信を行ってもよい。以後、屋内設置型センサ情報収集部1aを第1収集部1aと呼ぶことがある。   The indoor installation type sensor information collecting unit 1a collects the first sensor information 110 output from the first sensor device 11. The indoor installation type sensor information collecting unit 1a can perform wired communication or wireless communication with the first sensor device 11. The indoor installation type sensor information collecting unit 1 a collects the first sensor information 110 by communicating with the first sensor device 11. When performing wired communication, the indoor sensor information collecting unit 1a may perform communication in accordance with, for example, Ethernet (registered trademark) or serial communication. In addition, in the case of performing wireless communication, the indoor sensor information collecting unit 1a may perform communication based on, for example, Wi-Fi, or perform communication based on Bluetooth (registered trademark). Also good. Hereinafter, the indoor installation type sensor information collection unit 1a may be referred to as a first collection unit 1a.

移動体搭載センサ情報収集部1dは、第2センサ装置12が出力する第2センサ情報120を収集する。移動体搭載センサ情報収集部1dは、第2センサ装置12と例えば無線通信を行うことが可能である。移動体搭載センサ情報収集部1dは、第2センサ装置12と通信することによって、第2センサ情報120を収集する。移動体搭載センサ情報収集部1dは、例えば、Wi−Fiに準拠して通信を行ってもよいし、Bluetoothに準拠して通信を行ってもよい。なお、移動体搭載センサ情報収集部1dは、第2センサ装置12が搭載されたロボット13が有する通信部と通信することによって、当該通信部を介して、第2センサ装置12が出力する第2センサ情報120を収集してもよい。以後、移動体搭載センサ情報収集部1dを第2収集部1dと呼ぶことがある。   The mobile body-mounted sensor information collection unit 1d collects the second sensor information 120 output from the second sensor device 12. The mobile body-mounted sensor information collection unit 1d can perform wireless communication with the second sensor device 12, for example. The mobile body-mounted sensor information collection unit 1d collects the second sensor information 120 by communicating with the second sensor device 12. The mobile body-mounted sensor information collection unit 1d may perform communication based on, for example, Wi-Fi, or may perform communication based on Bluetooth. The mobile body-mounted sensor information collection unit 1d communicates with a communication unit included in the robot 13 on which the second sensor device 12 is mounted, so that the second sensor device 12 outputs the second sensor device 12 via the communication unit. Sensor information 120 may be collected. Hereinafter, the mobile body-mounted sensor information collection unit 1d may be referred to as a second collection unit 1d.

屋内地図情報記憶部1cは、屋内地図を示す屋内地図情報を記憶する。屋内地図情報には、例えば、柱、壁及び通路等の屋内地物を特定するための地物情報と、第1センサ装置11を特定するため第1センサ特定情報とが含まれている。地物情報では、例えば、屋内地物に割り当てられた識別番号(ID)と、当該屋内地物の種別(柱及び壁など)を示す種別情報と、当該屋内地物の位置を示す位置情報とが対応付けられている。また、通路を特定するための地物情報には、当該通路の形状を示す通路形状情報が含まれている。第1センサ特定情報では、第1センサ装置11を識別するための識別情報と、第1センサ装置11の位置を示す位置情報とが対応付けられている。   The indoor map information storage unit 1c stores indoor map information indicating an indoor map. The indoor map information includes, for example, feature information for specifying indoor features such as pillars, walls, and passages, and first sensor specifying information for specifying the first sensor device 11. In the feature information, for example, an identification number (ID) assigned to the indoor feature, type information indicating the type of the indoor feature (such as a pillar and a wall), and position information indicating the position of the indoor feature, Are associated. The feature information for identifying the passage includes passage shape information indicating the shape of the passage. In the first sensor specifying information, identification information for identifying the first sensor device 11 and position information indicating the position of the first sensor device 11 are associated with each other.

ここで、屋内には、当該屋内の所定の位置を原点とするXYZ直交座標系が設定されている。屋内地図情報は、このXYZ直交座標系が用いられて作成されている。このXYZ直交座標系を地図座標系と呼ぶ。屋内地図情報に含まれる位置情報は、地図座標系での位置を示している。地図座標系は、屋内地図あるいは屋内地図情報に設定された座標系であるとも言える。屋内地図情報は、例えば建築図面等に基づいて生成され、屋内地図情報記憶部1cに予め記憶される。   Here, an XYZ orthogonal coordinate system having an origin at a predetermined position in the room is set indoors. Indoor map information is created using this XYZ rectangular coordinate system. This XYZ orthogonal coordinate system is called a map coordinate system. The position information included in the indoor map information indicates the position in the map coordinate system. It can be said that the map coordinate system is a coordinate system set in the indoor map or the indoor map information. Indoor map information is produced | generated based on an architectural drawing etc., for example, and is beforehand memorize | stored in the indoor map information storage part 1c.

なお、後述するように、屋内仮想レーン情報作成部1eが生成する、移動許可領域情報としての屋内仮想レーン情報は、屋内地図情報記憶部1c内に予め記憶されているのでなく、屋内地図情報記憶部1c内に予め記憶された屋内地図情報に対して後から含められる。以後、屋内地図情報記憶部1cを記憶部1cと呼ぶことがある。   As will be described later, the indoor virtual lane information that is generated by the indoor virtual lane information creation unit 1e as the movement-permitted area information is not stored in the indoor map information storage unit 1c in advance, but is stored in the indoor map information storage. The indoor map information stored in advance in the part 1c is included later. Hereinafter, the indoor map information storage unit 1c may be referred to as a storage unit 1c.

移動体位置算出部1bは、第1収集部1aが収集した第1センサ情報110に含まれる、ロボット13の第1相対位置を示す位置情報を用いて、屋内地図上での当該ロボット13の位置を算出する。言い換えれば、移動体位置算出部1bは、第1センサ装置11が検出したロボット13の第1相対位置を用いて、地図座標系での当該ロボット13の位置を算出する。地図座標系での位置を地図位置と呼ぶことがある。また、移動体位置算出部1bが、ロボット13の第1相対位置を用いて算出する、地図座標系での当該ロボット13の位置を、ロボットの第1地図位置と呼ぶことがある。また、移動体位置算出部1bを算出部1bと呼ぶことがある。   The moving body position calculating unit 1b uses the position information indicating the first relative position of the robot 13 included in the first sensor information 110 collected by the first collecting unit 1a to position the robot 13 on the indoor map. Is calculated. In other words, the moving body position calculation unit 1b calculates the position of the robot 13 in the map coordinate system using the first relative position of the robot 13 detected by the first sensor device 11. A position in the map coordinate system may be called a map position. In addition, the position of the robot 13 in the map coordinate system calculated by the moving body position calculation unit 1b using the first relative position of the robot 13 may be referred to as a first map position of the robot. In addition, the moving body position calculation unit 1b may be referred to as a calculation unit 1b.

算出部1bは、第2収集部1dが収集した第2センサ情報120に含まれる、屋内地物の第2相対位置を示す位置情報を用いて、ロボット13の地図位置を算出する。言い換えれば、算出部1bは、第2センサ装置12が検出した屋内地物の第2相対位置を用いてロボット13の地図位置を算出する。以後、算出部1bが、屋内地物の第2相対位置を用いて算出するロボット13の地図位置を、ロボット13の第2地図位置と呼ぶことがある。   The calculating unit 1b calculates the map position of the robot 13 using position information indicating the second relative position of the indoor feature included in the second sensor information 120 collected by the second collecting unit 1d. In other words, the calculation unit 1b calculates the map position of the robot 13 using the second relative position of the indoor feature detected by the second sensor device 12. Hereinafter, the map position of the robot 13 calculated by the calculation unit 1b using the second relative position of the indoor feature may be referred to as the second map position of the robot 13.

屋内仮想レーン情報作成部1eは、第1センサ装置11が検出した屋内地物の地図位置と、記憶部1c内の屋内地図情報とに基づいて、屋内において、ロボット13の移動が許可された移動許可領域を設定する。そして、屋内仮想レーン情報作成部1eは、設定した移動許可領域を示す移動許可領域情報130を作成して記憶部1c内の屋内地図情報に含める。移動許可領域情報130は、屋内地図において移動許可領域を特定するための情報である。以後、移動許可領域及び移動許可領域情報130を、屋内仮想レーン及び屋内仮想レーン情報130とそれぞれ呼ぶことがある。また、屋内仮想レーン情報作成部1eを作成部1eと呼ぶことがある。   The indoor virtual lane information creation unit 1e moves indoors where the robot 13 is permitted to move based on the map position of the indoor feature detected by the first sensor device 11 and the indoor map information in the storage unit 1c. Set the permission area. Then, the indoor virtual lane information creation unit 1e creates movement permission area information 130 indicating the set movement permission area and includes it in the indoor map information in the storage unit 1c. The movement permission area information 130 is information for specifying a movement permission area in the indoor map. Hereinafter, the movement permitted area and the movement permitted area information 130 may be referred to as indoor virtual lane and indoor virtual lane information 130, respectively. In addition, the indoor virtual lane information creation unit 1e may be referred to as a creation unit 1e.

屋内仮想レーン情報検証部1fは、算出部1bが算出した、ロボット13の第1地図位置及び第2地図位置に基づいて、作成部1eが作成した屋内仮想レーン情報130が適切か否かを検証する。言い換えれば、屋内仮想レーン情報検証部1fは、屋内仮想レーンが適切に設定されているか否かを検証する。屋内仮想レーン情報検証部1fは、屋内仮想レーン情報130が適切であると判定すると、それを示す検証結果情報140を、検証した屋内仮想レーン情報130に含める。   The indoor virtual lane information verification unit 1f verifies whether the indoor virtual lane information 130 created by the creation unit 1e is appropriate based on the first map position and the second map position of the robot 13 calculated by the calculation unit 1b. To do. In other words, the indoor virtual lane information verification unit 1f verifies whether or not the indoor virtual lane is appropriately set. When the indoor virtual lane information verification unit 1f determines that the indoor virtual lane information 130 is appropriate, the verification result information 140 indicating the indoor virtual lane information 130 is included in the verified indoor virtual lane information 130.

以後、検証結果情報140を含む屋内仮想レーン情報130を屋内仮想レーン情報(検証済)130と呼ぶことがある。また、屋内仮想レーン情報検証部1fで適切であると判定されていない屋内仮想レーン情報130(屋内仮想レーン情報検証部1fによって検証されていない屋内仮想レーン情報130を含む)を、屋内仮想レーン情報(未検証)130と呼ぶことがある。また、屋内仮想レーン情報検証部1fを検証部1fと呼ぶことがある。   Hereinafter, the indoor virtual lane information 130 including the verification result information 140 may be referred to as indoor virtual lane information (verified) 130. Also, the indoor virtual lane information 130 (including the indoor virtual lane information 130 that has not been verified by the indoor virtual lane information verification unit 1f) that is not determined to be appropriate by the indoor virtual lane information verification unit 1f is used as the indoor virtual lane information. Sometimes called (unverified) 130. In addition, the indoor virtual lane information verification unit 1f may be referred to as a verification unit 1f.

本実施の形態では、算出部1b及び検証部1fによって、第1センサ装置11が出力する、ロボット13の第1相対位置を示す位置情報と、第2センサ装置12が出力する、屋内地物の第2相対位置を示す位置情報とに基づいて、作成部1eが設定した屋内仮想レーンが、適切に設定されているか否かを判定する判定部1yが構成されている。   In the present embodiment, the position information indicating the first relative position of the robot 13 output from the first sensor device 11 and the indoor feature output from the second sensor device 12 are output by the calculation unit 1b and the verification unit 1f. Based on the position information indicating the second relative position, a determination unit 1y that determines whether or not the indoor virtual lane set by the creation unit 1e is appropriately set is configured.

図2は情報処理装置1のハードウェア構成の一例を示す図である。図2に示されるように、情報処理装置1は、ハードウェアとして、処理回路2と、記憶装置3と、第1通信装置4と、第2通信装置5とを備えている。   FIG. 2 is a diagram illustrating an example of a hardware configuration of the information processing apparatus 1. As illustrated in FIG. 2, the information processing apparatus 1 includes a processing circuit 2, a storage device 3, a first communication device 4, and a second communication device 5 as hardware.

処理回路2は、例えば、CPU(Central Processing Unit)である。処理回路2は、DSP(Digital Signal Processor)を備えてもよい。記憶装置3は、例えば、ROM(Read Only Memory)及びRAM(Random Access Memory)などの、処理回路2(CPU)が読み取り可能な非一時的な記録媒体を含む。記憶装置3は、ROM及びRAM以外の、コンピュータが読み取り可能な非一時的な記録媒体を備えていてもよい。記憶装置3は、例えば、HDD(Hard Disk Drive)またはSSD(Solid State Drive)などを備えてもよい。記憶装置3は、情報処理装置1を制御するための制御プログラム3aを備えている。また記憶装置3は、屋内地図情報を記憶しており、上述の記憶部1cとして機能する。   The processing circuit 2 is, for example, a CPU (Central Processing Unit). The processing circuit 2 may include a DSP (Digital Signal Processor). The storage device 3 includes a non-transitory recording medium that can be read by the processing circuit 2 (CPU), such as a ROM (Read Only Memory) and a RAM (Random Access Memory). The storage device 3 may include a computer-readable non-transitory recording medium other than ROM and RAM. The storage device 3 may include, for example, an HDD (Hard Disk Drive) or an SSD (Solid State Drive). The storage device 3 includes a control program 3 a for controlling the information processing device 1. The storage device 3 stores indoor map information and functions as the storage unit 1c described above.

本実施の形態では、算出部1b、作成部1e及び検証部1fのそれぞれは、例えば、処理回路2(CPU)が記憶装置3内の制御プログラム3aを実行することによって実現される機能ブロックで構成されている。   In the present embodiment, each of the calculation unit 1b, the creation unit 1e, and the verification unit 1f includes, for example, functional blocks realized by the processing circuit 2 (CPU) executing the control program 3a in the storage device 3. Has been.

第1通信装置4は、第1センサ装置11と有線通信あるいは無線通信を行う通信回路である。第1通信装置4は、上述の第1収集部1aとして機能する。第2通信装置5は、第2センサ装置12と有線通信あるいは無線通信を行う通信回路である。第2通信装置5は、上述の第2収集部1dとして機能する。   The first communication device 4 is a communication circuit that performs wired communication or wireless communication with the first sensor device 11. The first communication device 4 functions as the first collection unit 1a described above. The second communication device 5 is a communication circuit that performs wired communication or wireless communication with the second sensor device 12. The second communication device 5 functions as the second collection unit 1d described above.

なお、処理回路2は、その機能の実現にソフトウェアが不要なハードウェア回路によって実現されてもよい。この場合には、処理回路2は、例えば、単一回路、複合回路、プログラム化されたプロセッサ、並列プログラム化されたプロセッサ、ASIC(Application Specific Integrated Circuit)及びFPGA(field-programmable gate array)の少なくとも一つで構成されてもよい。処理回路2が、その機能の実現にソフトウェアが不要なハードウェア回路によって実現される場合には、算出部1b、作成部1e及び検証部1fのそれぞれが、その機能の実現にソフトウェアが不要なハードウェア回路によって実現される。また、算出部1b、作成部1e及び検証部1fの少なくとも一つが、その機能の実現にソフトウェアが不要なハードウェア回路によって実現されてもよい。   Note that the processing circuit 2 may be realized by a hardware circuit that does not require software to realize the function. In this case, the processing circuit 2 includes, for example, at least a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), and an FPGA (field-programmable gate array). It may be composed of one. When the processing circuit 2 is realized by a hardware circuit that does not require software for realizing its function, each of the calculation unit 1b, the creation unit 1e, and the verification unit 1f requires hardware that does not require software for realizing its function. This is realized by a wear circuit. Further, at least one of the calculation unit 1b, the creation unit 1e, and the verification unit 1f may be realized by a hardware circuit that does not require software for realizing the function.

<ロボットの自律移動>
第2センサ装置12が搭載されたロボット13は、当該第2センサ装置12が検出する屋内地物の位置に基づいて、記憶部1c内の屋内仮想レーン情報130が示す屋内仮想レーン上を自律移動することができる。
<Robot autonomous movement>
The robot 13 on which the second sensor device 12 is mounted autonomously moves on the indoor virtual lane indicated by the indoor virtual lane information 130 in the storage unit 1c based on the position of the indoor feature detected by the second sensor device 12. can do.

図3はロボット13が屋内仮想レーン240上を自律移動する様子の一例を示す図である。図3に示されるように、ロボット13に搭載された第2センサ装置12は、その検出範囲12a内に屋内地物150が入ると、屋内地物150との距離を算出し、その算出結果に基づいて、第2センサ装置12を原点とした屋内地物150の位置、つまり屋内地物150の第2相対位置を求める。第2センサ装置12の検出距離d1(円形の検出範囲12aの半径)は、例えば5〜30mである。そして、ロボット13は、屋内地物150の第2相対位置から、当該ロボット13の地図位置を求める。ロボット13は、例えばそれに搭載されたCPUにおいて、当該ロボット13の地図位置を繰り返し求める。そして、ロボット13は、当該ロボット13の地図位置を求めるたびに、求めた地図位置と、屋内仮想レーン情報130が示す屋内仮想レーン(移動許可領域)240とを比較し、その比較結果に基づいて、当該地図位置が当該屋内仮想レーン240から外れないように、目的地に向かって移動する。これにより、ロボット13は、屋内仮想レーン240上を適切に自律移動することができる。   FIG. 3 is a diagram illustrating an example of a state in which the robot 13 autonomously moves on the indoor virtual lane 240. As shown in FIG. 3, the second sensor device 12 mounted on the robot 13 calculates the distance from the indoor feature 150 when the indoor feature 150 enters the detection range 12a, Based on this, the position of the indoor feature 150 with the second sensor device 12 as the origin, that is, the second relative position of the indoor feature 150 is obtained. The detection distance d1 (radius of the circular detection range 12a) of the second sensor device 12 is, for example, 5 to 30 m. Then, the robot 13 obtains the map position of the robot 13 from the second relative position of the indoor feature 150. The robot 13 repeatedly obtains the map position of the robot 13 using, for example, a CPU mounted thereon. Each time the robot 13 obtains the map position of the robot 13, the robot 13 compares the obtained map position with the indoor virtual lane (movement permission area) 240 indicated by the indoor virtual lane information 130, and based on the comparison result. The map position moves toward the destination so as not to deviate from the indoor virtual lane 240. Thereby, the robot 13 can appropriately autonomously move on the indoor virtual lane 240.

ロボット13は、目的地までの移動経路を決定する場合、屋内仮想レーン情報(検証済)130が示す屋内仮想レーンだけを含む経路を決定してもよいし、屋内仮想レーン情報(検証済)130が示す屋内仮想レーンと屋内仮想レーン情報(未検証)130が示す屋内仮想レーンとの両方を含む経路を決定してもよい。後者の場合、ロボット13は、例えば、屋内仮想レーン情報(未検証)130が示す屋内仮想レーンよりも、屋内仮想レーン情報(検証済)130が示す屋内仮想レーンを移動する領域として優先させて経路を決定する。   When determining the movement route to the destination, the robot 13 may determine a route including only the indoor virtual lane indicated by the indoor virtual lane information (verified) 130 or the indoor virtual lane information (verified) 130. A route including both the indoor virtual lane indicated by and the indoor virtual lane indicated by the indoor virtual lane information (unverified) 130 may be determined. In the latter case, for example, the robot 13 gives priority to the indoor virtual lane indicated by the indoor virtual lane information (verified) 130 as a moving area over the indoor virtual lane indicated by the indoor virtual lane information (unverified) 130. To decide.

ロボット13は、当該ロボット13の地図位置を求める際には、記憶部1c内の屋内地図情報に含まれる、検出した屋内地物150の地図位置を、第2収集部1d(第2通信装置5)を通じて情報処理装置1から受け取る。そして、ロボット13は、情報処理装置1から受け取った屋内地物150の地図位置と、求めた屋内地物150の第2相対位置とに基づいて、当該ロボット13の地図位置を求める。屋内地物150の地図位置を(X0,Y0,Z0)とし、屋内地物150の第2相対位置を(Xr,Yr,Zr)とすると、ロボット13の地図位置は(X0−Xr,Y0−Yr,Z0−Zr)となる。ロボット13は、自律移動する際、例えば、柱を検出し、検出した柱の第2相対位置と、当該柱の地図位置とに基づいて、当該ロボット13の地図位置を求める。   When the robot 13 obtains the map position of the robot 13, the robot 13 uses the second collection unit 1d (second communication device 5) as the map position of the detected indoor feature 150 included in the indoor map information in the storage unit 1c. ) Through the information processing apparatus 1. Then, the robot 13 obtains the map position of the robot 13 based on the map position of the indoor feature 150 received from the information processing apparatus 1 and the obtained second relative position of the indoor feature 150. If the map position of the indoor feature 150 is (X0, Y0, Z0) and the second relative position of the indoor feature 150 is (Xr, Yr, Zr), the map position of the robot 13 is (X0-Xr, Y0- Yr, Z0-Zr). When the robot 13 moves autonomously, for example, it detects a pillar, and obtains the map position of the robot 13 based on the detected second relative position of the pillar and the map position of the pillar.

このように、ロボット13は、屋内地物150を検出することによって自己の地図位置を求めることが可能である。そして、ロボット13は、求めた自己の地図位置と屋内仮想レーン情報130とに基づいて、屋内を自律移動することが可能である。   Thus, the robot 13 can determine its own map position by detecting the indoor feature 150. The robot 13 can autonomously move indoors based on the obtained map position and the indoor virtual lane information 130.

なお、ロボット13の第2センサ装置12が検出可能な屋内地物には、ロボット13が自己の地図位置を求めるための専用のマーカー(位置認識用マーカー)が含まれてもよい。また図3に示される、第2センサ装置12の検出範囲12aの形状は、あくまでも一例であって、検出範囲12aの形状はこれに限れない。

The indoor features that can be detected by the second sensor device 12 of the robot 13 may include a dedicated marker (position recognition marker) for the robot 13 to obtain its own map position. Also shown in Figure 3, the shape of the detection range 12a of the second sensor device 12 are merely examples, the shape of the detection range 12a is this not always linear.

<屋内仮想レーン情報の作成処理>
図4は、情報処理装置1で行われる、屋内仮想レーン情報(移動可能領域情報)130の作成処理の一例を示すフローチャートである。図5は、情報処理装置1が作成した屋内仮想レーン情報130が示す屋内仮想レーン240の一例を示す図である。図5には、屋内における、人及びロボット13が移動することが可能な通路200、壁210、第1の柱220a、第2の柱220b及び第1センサ装置11が示されている。図5の例では、屋内において、壁210で区分された通路200に対して屋内仮想レーン240が設定されている。以後、説明の対象の第1センサ装置11を対象第1センサ装置11と呼ぶことがある。
<Indoor virtual lane information creation process>
FIG. 4 is a flowchart illustrating an example of a process for creating the indoor virtual lane information (movable area information) 130 performed by the information processing apparatus 1. FIG. 5 is a diagram illustrating an example of the indoor virtual lane 240 indicated by the indoor virtual lane information 130 created by the information processing apparatus 1. FIG. 5 shows a passage 200, a wall 210, a first pillar 220 a, a second pillar 220 b, and the first sensor device 11 in which a person and the robot 13 can move indoors. In the example of FIG. 5, an indoor virtual lane 240 is set for the passage 200 divided by the wall 210 indoors. Hereinafter, the first sensor device 11 to be described may be referred to as the target first sensor device 11.

図4に示されるように、ステップS101において、第1収集部1aは、対象第1センサ装置11が出力する第1センサ情報(屋内設置型センサ情報)110を収集する。   As shown in FIG. 4, in step S <b> 101, the first collection unit 1 a collects first sensor information (indoor installation type sensor information) 110 output from the target first sensor device 11.

次にステップS102において、作成部1eは、ステップS101で収集された第1センサ情報110と、記憶部1c内の屋内地図情報とに基づいて、対象第1センサ装置11で検出された屋内地物をロボット13が検出することが可能な範囲であって、ロボット13が移動することが可能な範囲を、屋内に設定する。以後、対象第1センサ装置11で検出された屋内地物をロボット13が検出することが可能な範囲を検出可能範囲と呼ぶことがある。また、対象第1センサ装置11で検出された屋内地物をロボット13が検出することが可能な範囲であって、ロボット13が移動することが可能な範囲を検出・移動可能範囲と呼ぶことがある。以下にステップS102について詳細に説明する。   Next, in step S102, the creating unit 1e detects the indoor feature detected by the target first sensor device 11 based on the first sensor information 110 collected in step S101 and the indoor map information in the storage unit 1c. The range in which the robot 13 can detect and the range in which the robot 13 can move is set indoors. Hereinafter, the range in which the robot 13 can detect the indoor features detected by the target first sensor device 11 may be referred to as a detectable range. Further, the range in which the robot 13 can detect the indoor feature detected by the target first sensor device 11 and the range in which the robot 13 can move is referred to as a detection / movable range. is there. Hereinafter, step S102 will be described in detail.

作成部1eは、例えば、対象第1センサ装置11で検出された柱220をロボット13が検出することが可能な領域を検出可能範囲とする。そして、作成部1eは、例えば、ロボット13が移動することが可能な通路200と検出可能範囲とが重なる範囲を、検出・移動可能範囲230とする。   The creation unit 1e sets, for example, an area in which the robot 13 can detect the column 220 detected by the target first sensor device 11 as a detectable range. Then, for example, the creation unit 1e sets the range in which the path 200 in which the robot 13 can move and the detectable range overlap as the detectable / movable range 230.

作成部1eが屋内に検出可能範囲を設定する方法の一例を説明すると、まず、作成部1eは、対象第1センサ装置11で検出された柱220の地図位置を、記憶部1c内の屋内地図情報から取得する。具体的には、作成部1eは、第1センサ情報110に含まれる種別情報から、第1センサ装置11が検出した柱220の種別を特定する。そして、作成部1eは、記憶部1c内の屋内地図情報から、特定した柱の種別を示す種別情報に対応付けられた位置情報を取得する。この位置情報は、対象第1センサ装置11で検出された柱220の地図位置を示すことから、作成部1eは、対象第1センサ装置11で検出された柱220の地図位置を取得できる。   An example of a method in which the creation unit 1e sets the detectable range indoors will be described. First, the creation unit 1e uses the map position of the pillar 220 detected by the target first sensor device 11 as an indoor map in the storage unit 1c. Obtain from information. Specifically, the creation unit 1 e specifies the type of the column 220 detected by the first sensor device 11 from the type information included in the first sensor information 110. Then, the creation unit 1e acquires position information associated with the type information indicating the type of the identified pillar from the indoor map information in the storage unit 1c. Since this position information indicates the map position of the column 220 detected by the target first sensor device 11, the creation unit 1 e can acquire the map position of the column 220 detected by the target first sensor device 11.

次に作成部1eは、取得した柱220の地図位置を中心とし、対象第1センサ装置11の検出距離d1(図3参照)を半径とする円領域を、検出可能範囲として屋内に設定する。検出可能範囲の設定で使用される検出距離d1は、あらかじめ実験で求められた値が採用されてもよいし、ロボットのスペックシートに記載されている値が採用されてもよい。   Next, the creating unit 1e sets a circular area centered on the acquired map position of the pillar 220 and having a radius of the detection distance d1 (see FIG. 3) of the target first sensor device 11 as a detectable range indoors. As the detection distance d1 used for setting the detectable range, a value obtained in advance by an experiment may be employed, or a value described in a spec sheet of the robot may be employed.

作成部1eは、検出可能範囲を決定すると、屋内において、決定した検出可能範囲と通路200とが重複する範囲を特定し、特定した当該範囲を検出・移動可能範囲230とする。   When the creation unit 1e determines the detectable range, the creation unit 1e identifies a range in which the determined detectable range and the passage 200 overlap indoors, and sets the identified range as the detectable / movable range 230.

例えば、図5の例において、第1センサ装置11が第1の柱220aと第2の柱220bを検出したとする。この場合、作成部1eは、第1の柱220aの地図位置(X1,Y1,Z1)を中心とし、対象第1センサ装置11の検出距離d1を半径とする円領域を検出可能範囲とする。そして、作成部1eは、決定した検出可能範囲と通路200とが重複する範囲を、第1の柱220aを基準とした第1の検出・移動可能範囲230aとする。同様に、作成部1eは、第2の柱220bの地図位置(X2,Y2,Z2)を中心とし、対象第1センサ装置11の検出距離d1を半径とする円領域を検出可能範囲とする。そして、作成部1eは、決定した検出可能範囲と通路200とが重複する範囲を、第2の柱220bを基準とした第2の検出・移動可能範囲230bとする。なお図5では、第1の検出・移動可能範囲230a及び第2の検出・移動可能範囲230bが模式的に示されている。   For example, in the example of FIG. 5, it is assumed that the first sensor device 11 detects the first pillar 220a and the second pillar 220b. In this case, the creation unit 1e sets a circular area centered on the map position (X1, Y1, Z1) of the first pillar 220a and having the detection distance d1 of the target first sensor device 11 as a radius as a detectable range. Then, the creating unit 1e sets a range where the determined detectable range and the passage 200 overlap as a first detectable / movable range 230a with the first column 220a as a reference. Similarly, the creation unit 1e sets a circular area centered on the map position (X2, Y2, Z2) of the second pillar 220b and having a detection distance d1 of the target first sensor device 11 as a radius as a detectable range. Then, the creation unit 1e sets a range where the determined detectable range and the passage 200 overlap as a second detectable / movable range 230b with the second column 220b as a reference. In FIG. 5, the first detectable / movable range 230a and the second detectable / movable range 230b are schematically shown.

ステップS102において、検出・移動可能範囲230が屋内に設定されると、ステップS103において、作成部1eは、検出・移動可能範囲230内において、屋内仮想レーン240を設定する。作成部1eは、例えば、屋内での通行方向を示す通行方向情報と、ロボットの大きさを示すロボット寸法情報とに基づいて、検出・移動可能範囲230内において、屋内仮想レーン240を設定する。通行方向情報には、例えば、屋内の通路が、右側通行であるいのか、左側通行であるのかを示す情報が含まれている。ロボット寸法情報には、ロボットの各寸法、つまりロボットの幅Wr、奥行きDr及び高さHrが含まれる。ロボット寸法情報は、実測値が採用されてもよいし、ロボットのスペックシートに記載されている値が採用されてもよい。   When the detectable / movable range 230 is set indoors in step S102, the creating unit 1e sets the indoor virtual lane 240 in the detectable / movable range 230 in step S103. For example, the creation unit 1e sets the indoor virtual lane 240 within the detectable / movable range 230 based on the traffic direction information indicating the indoor traffic direction and the robot dimension information indicating the size of the robot. The traffic direction information includes, for example, information indicating whether the indoor passage is right-hand traffic or left-hand traffic. The robot dimension information includes each dimension of the robot, that is, the robot width Wr, depth Dr, and height Hr. As the robot dimension information, an actual measurement value may be adopted, or a value described in a robot spec sheet may be adopted.

作成部1eが検出・移動可能範囲230内に屋内仮想レーン240を設定する方法の一例を説明すると、作成部1eは、まず、通行方向情報から、検出・移動可能範囲230での通行方向を特定する。そして、作成部1eは、特定した通行方向に沿って延びる、ロボット13の移動に対する障害物(ロボット13の移動に対して障害となる屋内地物)が存在しない領域であって、ロボット13の幅Wrに応じた幅W1を有する領域を屋内仮想レーン240として検出・移動可能範囲230内に設定する。これにより、ロボット13は、屋内に定められた通行方向に沿って屋内仮想レーン240上を移動することが可能となる。ロボットの移動に対する障害物としては、柱、壁及び展示物などが挙げられる。作成部1eは、屋内地図情報から、ロボット13の移動に対して障害物となる屋内地物の地図位置を特定することができる。   An example of how the creation unit 1e sets the indoor virtual lane 240 in the detectable / movable range 230 will be described. First, the creation unit 1e specifies the direction of travel in the detectable / movable range 230 from the traffic direction information. To do. Then, the creation unit 1e is an area in which there is no obstacle to the movement of the robot 13 (indoor feature that becomes an obstacle to the movement of the robot 13) extending along the specified direction of travel, and the width of the robot 13 An area having a width W1 corresponding to Wr is set as an indoor virtual lane 240 within the detectable / movable range 230. As a result, the robot 13 can move on the indoor virtual lane 240 along the traffic direction determined indoors. Examples of obstacles to robot movement include pillars, walls, and exhibits. The creation unit 1e can specify the map position of the indoor feature that becomes an obstacle to the movement of the robot 13 from the indoor map information.

屋内仮想レーンの幅W1は、例えば、ロボット13の幅Wrに対してマージンαを加えた値に設定される(W1=Wr+α)。マージンαは、屋内において、ロボット13が屋内仮想レーン240上を移動する際に、当該ロボット13の位置が多少ずれた場合であっても、当該ロボット13が屋内仮想レーン240上を移動することができる程度の値に設定される。マージンαは、オフセット値あるいは余裕値とも言える。   For example, the width W1 of the indoor virtual lane is set to a value obtained by adding a margin α to the width Wr of the robot 13 (W1 = Wr + α). The margin α is such that when the robot 13 moves on the indoor virtual lane 240 indoors, the robot 13 moves on the indoor virtual lane 240 even if the position of the robot 13 is slightly shifted. It is set to a value that is possible. The margin α can also be said to be an offset value or a margin value.

図5の例では、第1の柱220aを基準とする検出・移動可能範囲230a内には、通行方向250に沿って延びる幅W1の第1の屋内仮想レーン240a1、第2の屋内仮想レーン240a2及び第3の屋内仮想レーン240a3が設定されている。また、第2の柱220bを基準とする検出・移動可能範囲230b内には、通行方向250に沿って延びる幅W1の第4の屋内仮想レーン240b1、第5の屋内仮想レーン240b2及び第6の屋内仮想レーン240b3が設定されている。   In the example of FIG. 5, the first indoor virtual lane 240a1 and the second indoor virtual lane 240a2 having a width W1 extending along the passage direction 250 are included in the detection / movable range 230a with the first pillar 220a as a reference. And a third indoor virtual lane 240a3 is set. Further, within the detectable / movable range 230b with the second column 220b as a reference, the fourth indoor virtual lane 240b1, the fifth indoor virtual lane 240b2, and the sixth An indoor virtual lane 240b3 is set.

例えば、図5に示される第1の屋内仮想レーン240a1及び第2の屋内仮想レーン240a2等が設定される場合には、作成部1eは、検出・移動可能範囲230内において、通行方向250に沿って延びる、所定幅の長細い矩形領域を、壁210からその内側に向けて順に配置していく。そして、作成部1eは、柱220等の障害物と重ならない矩形領域を幅W1の分だけ束ねて得られる領域を屋内仮想レーン240とする。なお、作成部1eが検出・移動可能範囲230内に幅W1の屋内仮想レーン240を設定する方法はこれに限られない。また図5の例では、通行方向250は直線であるが、直線でなくてもよい。   For example, when the first indoor virtual lane 240a1 and the second indoor virtual lane 240a2 shown in FIG. 5 are set, the creating unit 1e follows the direction of travel 250 within the detectable / movable range 230. A long and narrow rectangular region having a predetermined width is sequentially arranged from the wall 210 toward the inside thereof. Then, the creation unit 1e sets an area obtained by bundling rectangular areas that do not overlap obstacles such as the pillars 220 by the width W1 as the indoor virtual lane 240. Note that the method of setting the indoor virtual lane 240 having the width W1 within the detection / movable range 230 by the creating unit 1e is not limited to this. In the example of FIG. 5, the direction of travel 250 is a straight line, but may not be a straight line.

作成部1eは、検出・移動可能範囲230内に屋内仮想レーン240を設定すると、設定した屋内仮想レーン240を示す屋内仮想レーン情報130を作成する。これにより、屋内仮想レーン情報(未検証)130が得られる。屋内仮想レーン情報130には、屋内地図上での屋内仮想レーン240の範囲を示す情報とその地図位置を示す情報とが含まれている。そして、作成部1eは、作成した屋内仮想レーン情報130を、記憶部1c内の屋内地図情報に含める。検出・移動可能範囲230内に設定された屋内仮想レーン240を示す屋内仮想レーン情報130には、当該検出・移動可能範囲230を示す情報と、当該屋内仮想レーン240での通行方向を示す情報も含まれている。   When the creating unit 1e sets the indoor virtual lane 240 within the detectable / movable range 230, the creating unit 1e creates indoor virtual lane information 130 indicating the set indoor virtual lane 240. Thereby, indoor virtual lane information (unverified) 130 is obtained. The indoor virtual lane information 130 includes information indicating the range of the indoor virtual lane 240 on the indoor map and information indicating the map position. Then, the creation unit 1e includes the created indoor virtual lane information 130 in the indoor map information in the storage unit 1c. The indoor virtual lane information 130 indicating the indoor virtual lane 240 set in the detectable / movable range 230 includes information indicating the detectable / movable range 230 and information indicating the direction of travel in the indoor virtual lane 240. include.

図5の例では、第1の屋内仮想レーン240a1、第2の屋内仮想レーン240a2及び第3の屋内仮想レーン240a3をそれぞれ示す第1〜第3の屋内仮想レーン情報130が作成される。また、第4の屋内仮想レーン240b1、第5の屋内仮想レーン240b2及び第6の屋内仮想レーン240b3をそれぞれ示す第4〜第6の屋内仮想レーン情報130が作成される。   In the example of FIG. 5, first to third indoor virtual lane information 130 indicating the first indoor virtual lane 240a1, the second indoor virtual lane 240a2, and the third indoor virtual lane 240a3 is created. In addition, fourth to sixth indoor virtual lane information 130 indicating the fourth indoor virtual lane 240b1, the fifth indoor virtual lane 240b2, and the sixth indoor virtual lane 240b3 is created.

屋内地図情報では、対象第1センサ装置11が検出した屋内地物(本例では柱)を基準とする検出・移動可能範囲230内に設定された屋内仮想レーン240を示す屋内仮想レーン情報130に対して、当該屋内地物を特定するための地物情報(ID、種別情報及び位置情報)が対応付けられる。   In the indoor map information, the indoor virtual lane information 130 indicating the indoor virtual lane 240 set in the detectable / movable range 230 based on the indoor feature (the pillar in this example) detected by the target first sensor device 11 is displayed. On the other hand, feature information (ID, type information, and position information) for specifying the indoor feature is associated.

図6は、図5の例に対応する屋内地図情報100に含まれる情報の一例を示す図である。図6に示されるように、第1の柱220aを基準とする第1の検出・移動可能範囲内230aに設定された第1の屋内仮想レーン240a1、第2の屋内仮想レーン240a2及び第3の屋内仮想レーン240a3をそれぞれ示す第1〜第3の屋内仮想レーン情報に対しては、第1の柱220aを特定するための第1の地物情報が対応付けられている。図6の例では、第1の柱220aのIDは1となっている。また、第2の柱220bを基準とする第2の検出・移動可能範囲内230bに設定された第4の屋内仮想レーン240b1、第5の屋内仮想レーン240b2及び第5の屋内仮想レーン240b3をそれぞれ示す第4〜第6の屋内仮想レーン情報に対しては、第2の柱220bを特定するための第2の地物情報が対応付けられている。図6の例では、第2の柱220bのIDは2となっている。   FIG. 6 is a diagram illustrating an example of information included in the indoor map information 100 corresponding to the example of FIG. As shown in FIG. 6, the first indoor virtual lane 240a1, the second indoor virtual lane 240a2 and the third indoor virtual lane 240a2 are set in the first detectable / movable range 230a based on the first pillar 220a. The first feature information for identifying the first pillar 220a is associated with the first to third indoor virtual lane information indicating the indoor virtual lane 240a3. In the example of FIG. 6, the ID of the first pillar 220a is 1. Further, the fourth indoor virtual lane 240b1, the fifth indoor virtual lane 240b2, and the fifth indoor virtual lane 240b3 set in the second detectable / movable range 230b with the second pillar 220b as a reference are respectively shown. The fourth to sixth indoor virtual lane information shown is associated with second feature information for specifying the second pillar 220b. In the example of FIG. 6, the ID of the second pillar 220b is 2.

このようにして、ロボット13が移動することが許可された領域である屋内仮想レーン240が屋内に設定され、当該屋内仮想レーン240を示す屋内仮想レーン情報130が屋内地図情報に含められる。これにより、ロボット13は、情報処理装置1から屋内地図情報を取得することによって、屋内において移動することが許可された領域を特定することができる。よって、ロボット13は、移動することが許可された領域上を自律移動することができる。つまり、ロボット13は、屋内を適切に自律移動することができる。   In this way, the indoor virtual lane 240 that is an area where the robot 13 is permitted to move is set indoors, and the indoor virtual lane information 130 indicating the indoor virtual lane 240 is included in the indoor map information. Thereby, the robot 13 can specify the area | region permitted to move indoors by acquiring indoor map information from the information processing apparatus 1. FIG. Therefore, the robot 13 can autonomously move on the area permitted to move. That is, the robot 13 can appropriately autonomously move indoors.

なお、情報処理装置1は、図4に示される、屋内仮想レーン情報の作成処理(ステップS101〜S103)を、ユーザの実行指示に応じて実行してもよいし、自動的に実行してもよい。   Note that the information processing apparatus 1 may execute the indoor virtual lane information creation process (steps S101 to S103) illustrated in FIG. 4 according to a user's execution instruction or automatically. Good.

また、情報処理システム10が、複数の第1センサ装置11を備える場合には、当該複数の第1センサ装置11のそれぞれについて、当該第1センサ装置11が出力する第1センサ情報110が使用されて屋内仮想レーン情報130が作成される。   When the information processing system 10 includes a plurality of first sensor devices 11, the first sensor information 110 output by the first sensor device 11 is used for each of the plurality of first sensor devices 11. Thus, indoor virtual lane information 130 is created.

また、屋内仮想レーン情報130の作成で使用される、第2センサ装置12の検出距離d1、通行方向情報及びロボット寸法情報については、記憶部1cに予め記憶されていてもよいし、屋内仮想レーン情報130の作成時に、情報処理装置1の外部から当該情報処理装置1に入力されてもよい。後者の場合、ユーザが、検出距離d1、通行方向情報及びロボット寸法情報を情報処理装置1に入力してもよいし、情報処理装置1が、検出距離d1、通行方向情報及びロボット寸法情報を記憶する装置と無線通信あるいは有線通信を行って、当該装置からそれらの情報を取得してもよい。   In addition, the detection distance d1, the traffic direction information, and the robot dimension information of the second sensor device 12 used in the creation of the indoor virtual lane information 130 may be stored in advance in the storage unit 1c, or the indoor virtual lane When the information 130 is created, the information 130 may be input to the information processing apparatus 1 from outside the information processing apparatus 1. In the latter case, the user may input the detection distance d1, the traffic direction information, and the robot dimension information to the information processing apparatus 1, or the information processing apparatus 1 stores the detection distance d1, the traffic direction information, and the robot dimension information. Such information may be acquired from the device by performing wireless communication or wired communication with the device.

また、屋内仮想レーン240が、柱あるいは壁などの屋内地物に接していると、当該屋内仮想レーン240上を移動するロボット13が当該屋内仮想レーン240からはみ出ると、当該屋内地物が障害物となってロボット13が当該屋内地物に接触する可能がある。   When the indoor virtual lane 240 is in contact with an indoor feature such as a pillar or a wall, when the robot 13 moving on the indoor virtual lane 240 protrudes from the indoor virtual lane 240, the indoor feature becomes an obstacle. Thus, the robot 13 may come into contact with the indoor feature.

そこで、作成部1eは、図7に示されるように、屋内仮想レーン240と、そこからロボット13がはみ出した場合に障害となる可能性のある屋内地物150(柱、壁及び展示物など)との間の距離L1が、所定距離Lo以上となるように、当該屋内仮想レーン240を屋内に設定してもよい。これにより、ロボット13が屋内仮想レーン240からはみ出したとしても、ロボット13が屋内地物に接触する可能性を低減することができる。   Therefore, as illustrated in FIG. 7, the creation unit 1e includes an indoor virtual lane 240 and an indoor feature 150 (such as a pillar, a wall, and an exhibition) that may become an obstacle when the robot 13 protrudes therefrom. The indoor virtual lane 240 may be set indoors so that the distance L1 between the two is equal to or greater than the predetermined distance Lo. Thereby, even if the robot 13 protrudes from the indoor virtual lane 240, the possibility that the robot 13 contacts the indoor feature can be reduced.

また、第1センサ装置11の検出距離(以後、第1検出距離と呼ぶことがある)は、第2センサ装置12の検出距離d1(以後、第2検出距離と呼ぶことがある)よりも大きくてもよいし、それと同じであってもよいし、それよりも小さくてもよい。   The detection distance of the first sensor device 11 (hereinafter sometimes referred to as the first detection distance) is larger than the detection distance d1 of the second sensor device 12 (hereinafter sometimes referred to as the second detection distance). It may be the same as that, or smaller.

ここで、第1検出距離が第2検出距離よりも小さい場合には、第1センサ装置11の設置場所によっては、第2センサ装置12が検出できる屋内地物を、第1センサ装置11が検出できないことがある。上述の説明から理解できるように、第1センサ装置11が検出できない屋内地物については、それを基準とした検知・移動可能範囲230は設定されないことから、当該屋内地物の近くには屋内仮想レーン240が設定されない。したがって、ロボット13は、当該屋内地物を検出して自己の地図位置を求めることができたとしても、当該屋内地物の近くには屋内仮想レーン240が存在しないことから、移動が許可された領域を移動することが困難となる。   Here, when the first detection distance is smaller than the second detection distance, the first sensor device 11 detects an indoor feature that can be detected by the second sensor device 12 depending on the installation location of the first sensor device 11. There are things that cannot be done. As can be understood from the above description, for indoor features that cannot be detected by the first sensor device 11, the detection / movable range 230 based on the indoor features is not set. Lane 240 is not set. Therefore, even if the robot 13 can detect the indoor feature and determine its own map position, the movement is permitted because the indoor virtual lane 240 does not exist near the indoor feature. It becomes difficult to move the area.

一方で、第1検出距離が第2検出距離よりも大きい場合には、第2センサ装置12が検出できる屋内地物を、第1センサ装置11が検出できない可能性を低減することができる。したがって、ロボット13が検出する屋内地物の近くに屋内仮想レーン240が存在しない可能性を低減することができる。よって、ロボット13は、移動が許可された領域をより確実に移動することができる。第1検出距離が第2検出距離よりも大きい場合、第2検出距離(d1)が上述のように5〜10mであるとすると、第1検出距離は例えば100m程度に設定される。   On the other hand, when the first detection distance is larger than the second detection distance, the possibility that the first sensor device 11 cannot detect the indoor feature that can be detected by the second sensor device 12 can be reduced. Accordingly, the possibility that the indoor virtual lane 240 does not exist near the indoor feature detected by the robot 13 can be reduced. Therefore, the robot 13 can move more reliably in the area where movement is permitted. When the first detection distance is larger than the second detection distance, if the second detection distance (d1) is 5 to 10 m as described above, the first detection distance is set to about 100 m, for example.

また、第2検出距離が第1検出距離よりも小さい場合には、第2センサ装置12の消費電力を低減することができ、その結果、ロボット13の消費電力を低減することができる。ロボット13がバッテリで駆動される場合には、第2検出距離が第1検出距離よりも小さいことによって、ロボット13の駆動時間を長くすることができる。   Further, when the second detection distance is smaller than the first detection distance, the power consumption of the second sensor device 12 can be reduced, and as a result, the power consumption of the robot 13 can be reduced. When the robot 13 is driven by a battery, the driving time of the robot 13 can be lengthened because the second detection distance is smaller than the first detection distance.

なお、屋内に設置される第1センサ装置11が、バッテリで駆動されるのではなく、商用電源等が常時供給される場合には、第1検出距離が第2検出距離よりも大きく設定されて、第1センサ装置11の消費電力が大きくなったとしても、それが原因で第1センサ装置11の駆動時間が短くなる可能性は低い。   In addition, when the 1st sensor apparatus 11 installed indoors is not driven with a battery but a commercial power supply etc. are always supplied, a 1st detection distance is set larger than a 2nd detection distance. Even if the power consumption of the first sensor device 11 is increased, it is unlikely that the driving time of the first sensor device 11 is shortened due to this.

また、第2検出距離が第1検出距離よりも小さい場合には、第1センサ装置11と比較して安価な第2センサ装置12を採用することができることから、ロボット13の材料コストを低減することが可能となる。   In addition, when the second detection distance is smaller than the first detection distance, the second sensor device 12 that is less expensive than the first sensor device 11 can be employed, so that the material cost of the robot 13 is reduced. It becomes possible.

また、屋内において複数種類のロボット13が移動する場合には、ロボット寸法情報に含まれる幅Wrとして、当該複数種類のロボット13の幅の平均値が採用されてもよいし、最大値が採用されてもよい。幅Wrとして、複数種類のロボット13の幅の最大値が採用される場合には、各ロボット13が屋内仮想レーン240から外れる可能性を低減することができる。よって、各ロボット13は屋内を適切に自律移動することができる。   When a plurality of types of robots 13 move indoors, an average value of the widths of the plurality of types of robots 13 may be used as the width Wr included in the robot dimension information, or the maximum value is used. May be. When the maximum value of the widths of the plurality of types of robots 13 is adopted as the width Wr, the possibility that each robot 13 is detached from the indoor virtual lane 240 can be reduced. Accordingly, each robot 13 can appropriately move autonomously indoors.

また、屋内仮想レーン240を示す屋内仮想レーン情報130には、当該屋内仮想レーン240での、床面から天井までの高さを含めてもよい。この場合、屋内地図情報は、通路での、床面から天井までの高さを含む。以後、床面から天井までの高さを天井高さと呼ぶ。作成部1eは、屋内地図情報に含まれる通路の天井高さから、検出・移動可能範囲230に設定した屋内仮想レーン240での天井高さを特定し、特定した天井高さを、当該屋内仮想レーン240を示す屋内仮想レーン情報130に含める。ロボット13は、経路探索を行う場合、自身の高さよりも低い天井高さを含む屋内仮想レーン情報130が示す屋内仮想レーン240上を移動するような経路を決定する。これにより、ロボット13は屋内を適切に自律移動することができる。   The indoor virtual lane information 130 indicating the indoor virtual lane 240 may include the height from the floor surface to the ceiling in the indoor virtual lane 240. In this case, the indoor map information includes the height from the floor surface to the ceiling in the passage. Hereinafter, the height from the floor to the ceiling is called the ceiling height. The creation unit 1e identifies the ceiling height in the indoor virtual lane 240 set in the detectable / movable range 230 from the ceiling height of the passage included in the indoor map information, and uses the identified ceiling height as the indoor virtual It is included in the indoor virtual lane information 130 indicating the lane 240. When performing a route search, the robot 13 determines a route that moves on the indoor virtual lane 240 indicated by the indoor virtual lane information 130 including a ceiling height lower than its own height. Thereby, the robot 13 can appropriately autonomously move indoors.

また、互いに隣り合う2つの屋内仮想レーン240の間のある領域に、柱、壁あるいは展示物などの、障害物となる屋内地物が存在する場合には、ロボット13は、当該ある領域を通過して、当該2つの屋内仮想レーン240間を移動することが困難となる。   If there is an indoor feature that becomes an obstacle, such as a pillar, wall, or exhibit, in a certain area between two indoor virtual lanes 240 adjacent to each other, the robot 13 passes through the certain area. Thus, it becomes difficult to move between the two indoor virtual lanes 240.

そこで、作成部1eは、屋内仮想レーン240間に位置する障害物(屋内地物)の地図位置に基づいて、屋内仮想レーン240において、そこから隣の屋内仮想レーン240への移動が不可である移動不可領域を設定してもよい。この場合、作成部1eは、屋内仮想レーン240に設定した移動不可領域を示す移動不可領域情報を、当該屋内仮想レーン240を示す屋内仮想レーン情報130に含める。移動不可領域情報は、屋内地図において移動不可領域を特定するための情報である。作成部1eは、屋内地図情報に含まれる地物情報及び屋内仮想レーン情報130に基づいて、隣り合う2つの屋内仮想レーン240の間の障害物の地図位置を特定することができる。   Therefore, the creation unit 1e cannot move from the indoor virtual lane 240 to the next indoor virtual lane 240 based on the map position of the obstacle (indoor feature) located between the indoor virtual lanes 240. An immovable area may be set. In this case, the creation unit 1 e includes the non-movable area information indicating the non-movable area set in the indoor virtual lane 240 in the indoor virtual lane information 130 indicating the indoor virtual lane 240. The immovable area information is information for specifying an immovable area on the indoor map. The creation unit 1e can specify the map position of the obstacle between two adjacent indoor virtual lanes 240 based on the feature information and the indoor virtual lane information 130 included in the indoor map information.

図8には、上述の図5において、第1の屋内仮想レーン240a1と、第2の屋内仮想レーン240a2との間に障害物280が存在する様子が示されている。図8の例では、第1の屋内仮想レーン240a1において、そこから隣の第2の屋内仮想レーン240a2に移動することができない移動不可領域290a1が設定されている。また、第2の屋内仮想レーン240a2において、そこから隣の第1の屋内仮想レーン240a1に移動することができない移動不可領域290a2が設定されている。   FIG. 8 shows a state in which an obstacle 280 exists between the first indoor virtual lane 240a1 and the second indoor virtual lane 240a2 in FIG. 5 described above. In the example of FIG. 8, in the first indoor virtual lane 240a1, a non-movable area 290a1 is set that cannot move to the adjacent second indoor virtual lane 240a2. Further, in the second indoor virtual lane 240a2, a non-movable area 290a2 that cannot move to the adjacent first indoor virtual lane 240a1 is set.

このように、屋内仮想レーン情報130に移動不可領域情報を含めることによって、屋内仮想レーン240上を移動するロボット13は、当該屋内仮想レーン240を示す屋内仮想レーン情報130に基づいて、当該屋内仮想レーン240から隣の屋内仮想レーン240に移動することができるか否かを判断することができる。よって、屋内仮想レーン240上を移動するロボット13は、当該屋内仮想レーン240から隣の屋内仮想レーン240に移動することができるか否かを、障害物を検出することなく判断することができる。その結果、ロボット13での処理が簡素化される。   As described above, by including the immovable area information in the indoor virtual lane information 130, the robot 13 moving on the indoor virtual lane 240 is based on the indoor virtual lane information 130 indicating the indoor virtual lane 240. It can be determined whether or not the vehicle can move from the lane 240 to the adjacent indoor virtual lane 240. Therefore, the robot 13 moving on the indoor virtual lane 240 can determine whether or not the robot 13 can move from the indoor virtual lane 240 to the adjacent indoor virtual lane 240 without detecting an obstacle. As a result, processing by the robot 13 is simplified.

また、屋内においては、床面が強化ガラスあるいは木材などで構成された、耐荷重が低い領域が存在することがある。このような領域上をロボット13が移動すると、床面が破損する可能性がある。   In addition, indoors, there are cases where the floor surface is made of tempered glass or wood and has a low load resistance. If the robot 13 moves on such an area, the floor may be damaged.

そこで、屋内仮想レーン240を示す屋内仮想レーン情報130には、当該屋内仮想レーン240の床面の耐荷重を示す耐荷重情報を含めてもよい。この場合、屋内地図情報には、例えば、通路の床面の耐荷重を示す耐荷重情報が含まれている。作成部1eは、屋内地図情報に含まれる耐荷重情報から、設定した屋内仮想レーン240の床面の耐荷重を示す耐荷重情報を取得し、取得した耐荷重情報を、当該屋内仮想レーン240を示す屋内仮想レーン情報130に含める。ある領域の床面の耐荷重を示す耐荷重情報は、当該ある領域を移動することが可能なロボット13の重量の上限値(例えば単位はkg)であってもよいし、当該ある領域の床面についての、単位面積あたりの耐荷重(単位は、例えばkg/m)であってもよい。Accordingly, the indoor virtual lane information 130 indicating the indoor virtual lane 240 may include load resistance information indicating the load resistance of the floor surface of the indoor virtual lane 240. In this case, the indoor map information includes, for example, load resistance information indicating the load resistance of the floor surface of the passage. The creation unit 1e acquires load resistance information indicating the load resistance of the set floor surface of the indoor virtual lane 240 from the load resistance information included in the indoor map information. It is included in the indoor virtual lane information 130 shown. The load resistance information indicating the load resistance of the floor surface of a certain area may be the upper limit value (for example, kg) of the weight of the robot 13 capable of moving in the certain area. The load capacity per unit area of the surface (unit: kg / m 2 , for example) may be used.

このように、屋内仮想レーン情報130に耐荷重情報を含めることによって、ロボット13は、経路探索を行う場合、屋内仮想レーン情報130に含まれる耐荷重情報と、予め記憶する自身の重量(ロボット重量)とに基づいて、自身の重量が、その床面の耐荷重を超えない屋内仮想レーン240上を移動するような経路を決定することができる。よって、ロボット13は、屋内を適切に自律移動することができる。   In this way, by including the load resistance information in the indoor virtual lane information 130, the robot 13 performs the route search, and includes the load resistance information included in the indoor virtual lane information 130 and its own weight (robot weight) stored in advance. ), The route in which the weight of the vehicle moves on the indoor virtual lane 240 that does not exceed the load capacity of the floor surface can be determined. Therefore, the robot 13 can appropriately autonomously move indoors.

以上のように、本実施の形態では、作成部1eは、屋内地図情報と、ロボット13の検出距離d1と、第1センサ装置11が検出する屋内地物の位置とに基づいて、ロボット13の移動が許可された領域である屋内仮想レーン240を屋内に設定する。これにより、ロボット13が屋内地物を検出しながらその上を自律移動することができるような屋内仮想レーン240を、屋内に設定することができる。よって、ロボット13は、屋内を適切に自律移動することができる。   As described above, in the present embodiment, the creation unit 1e determines the robot 13 based on the indoor map information, the detection distance d1 of the robot 13, and the position of the indoor feature detected by the first sensor device 11. The indoor virtual lane 240 that is an area where movement is permitted is set indoors. Thus, the indoor virtual lane 240 that allows the robot 13 to move autonomously while detecting indoor features can be set indoors. Therefore, the robot 13 can appropriately autonomously move indoors.

また、屋内仮想レーン240が自動的に設定されることから、工場などで活用されているライントレーサーとは異なり、ロボット13が自律移動するために床の表面に線を引く必要がない。ライントレーサーとは、床に対して予め引かれた線をロボットが認識することによって、ロボットの自律移動を可能にする技術である。   In addition, since the indoor virtual lane 240 is automatically set, unlike the line tracer utilized in a factory or the like, it is not necessary to draw a line on the floor surface in order for the robot 13 to move autonomously. The line tracer is a technology that enables the robot to move autonomously when the robot recognizes a line drawn in advance with respect to the floor.

また本実施の形態では、屋内地物の実際の位置が変化したとしても、屋内地図情報に含まれる屋内地物の地図位置を更新することによって、適切な屋内仮想レーン240を自動的に屋内に設定することができる。   Further, in the present embodiment, even if the actual position of the indoor feature changes, the appropriate indoor virtual lane 240 is automatically set indoors by updating the map position of the indoor feature included in the indoor map information. Can be set.

また、第1センサ装置11の実際の位置が変化したとしても、屋内地図情報に含まれる第1センサ装置11の地図位置を更新することによって、適切な屋内仮想レーン240を自動的に屋内に設定することができる。   Moreover, even if the actual position of the first sensor device 11 changes, the appropriate indoor virtual lane 240 is automatically set indoors by updating the map position of the first sensor device 11 included in the indoor map information. can do.

また本実施の形態では、通行方向情報に基づいて屋内仮想レーン240が設定されることから、ロボット13は、屋内で定められている通行方向に沿って容易に移動することができる。   In the present embodiment, since the indoor virtual lane 240 is set based on the traffic direction information, the robot 13 can easily move along the traffic direction determined indoors.

また本実施の形態では、ロボット13の幅に基づいて屋内仮想レーン240が設定されることから、作成部1eは、適切な幅の屋内仮想レーン240を容易に設定することができる。   In the present embodiment, since the indoor virtual lane 240 is set based on the width of the robot 13, the creation unit 1e can easily set the indoor virtual lane 240 having an appropriate width.

なお、作成部1eは、通行方向情報を使用せずに屋内仮想レーン240を設定してもよい。この場合、作成部1eは、例えば、検出・移動可能範囲230のうち、障害物が存在しない領域を屋内仮想レーン240に設定する。また、検出・移動可能範囲230内に通行方向が定められていない場合には、作成部1eは、通行方向情報を使用せずに屋内仮想レーン240を設定することになる。   The creation unit 1e may set the indoor virtual lane 240 without using the traffic direction information. In this case, for example, the creation unit 1e sets, in the indoor virtual lane 240, an area where no obstacle exists in the detectable / movable range 230. When the direction of travel is not defined within the detectable / movable range 230, the creation unit 1e sets the indoor virtual lane 240 without using the direction of travel information.

また、作成部1eは、ロボット寸法情報に含まれる幅Wrを使用せずに屋内仮想レーン240を設定してもよい。この場合には、作成部1eは、例えば、記憶部1cに予め記憶されている固定の幅W1を有する屋内仮想レーン240を屋内に設定する。   The creation unit 1e may set the indoor virtual lane 240 without using the width Wr included in the robot dimension information. In this case, for example, the creation unit 1e sets the indoor virtual lane 240 having a fixed width W1 stored in advance in the storage unit 1c indoors.

<屋内仮想レーン情報の検証処理>
次に、情報処理装置1で行われる、屋内仮想レーン情報130の検証処理について説明する。図9は、当該検証処理の一例を示すフローチャートである。図9に示される検証処理は、例えば、ロボット13が上述のように屋内地図情報に基づいて屋内を自律移動している場合に、定期的にあるいは不定期的に繰り返して実行される。以後、説明の対象の第2センサ装置12を対象第2センサ装置12と呼ぶことがある。
<Indoor virtual lane information verification process>
Next, verification processing of the indoor virtual lane information 130 performed by the information processing apparatus 1 will be described. FIG. 9 is a flowchart illustrating an example of the verification process. For example, when the robot 13 is autonomously moving indoors based on indoor map information as described above, the verification process illustrated in FIG. 9 is repeatedly or periodically performed repeatedly. Hereinafter, the second sensor device 12 to be described may be referred to as the target second sensor device 12.

図9に示されるように、ステップS201において、第1収集部1aは、対象第1センサ装置11が出力する第1センサ情報110を収集する。また、ステップS201において、第2収集部1dは、第1収集部1aでの第1センサ情報110の収集と並行して、対象第2センサ装置12が出力する第2センサ情報120を収集する。   As shown in FIG. 9, in step S <b> 201, the first collection unit 1 a collects the first sensor information 110 output from the target first sensor device 11. In step S201, the second collection unit 1d collects the second sensor information 120 output by the target second sensor device 12 in parallel with the collection of the first sensor information 110 in the first collection unit 1a.

次にステップS202において、算出部1bは、ステップS201で収集された第1センサ情報110に含まれるロボット13の第1相対位置に基づいて、ロボット13の地図位置を求める。具体的には、算出部1bは、ステップS201で収集された第1センサ情報110から、対象第1センサ装置11を識別するための識別情報(以後、第1センサ識別情報と呼ぶことがある)を取得する。そして、算出部1bは、記憶部1c内の屋内地図情報において、取得した第1センサ識別情報に対応付けられている位置情報を取得する。この位置情報は、対象第1センサ装置11の地図位置を示すことから、算出部1bは、対象第1センサ装置11の地図位置を取得することができる。なお、第1センサ識別情報は、対象第1センサ装置11が接続しているネットワークのIPアドレスあるいはポート番号であってもよいし、対象第1センサ装置11が行うシリアル通信のCOM番号(COM1あるいはCOM2など)などの物理ポート番号であってもよい。   Next, in step S202, the calculation unit 1b obtains the map position of the robot 13 based on the first relative position of the robot 13 included in the first sensor information 110 collected in step S201. Specifically, the calculation unit 1b identifies information for identifying the target first sensor device 11 from the first sensor information 110 collected in step S201 (hereinafter, may be referred to as first sensor identification information). To get. And the calculation part 1b acquires the positional information matched with the acquired 1st sensor identification information in the indoor map information in the memory | storage part 1c. Since this position information indicates the map position of the target first sensor device 11, the calculation unit 1 b can acquire the map position of the target first sensor device 11. The first sensor identification information may be an IP address or a port number of a network to which the target first sensor device 11 is connected, or a COM number (COM1 or COM1) of serial communication performed by the target first sensor device 11 It may be a physical port number such as COM2.

算出部1bは、対象第1センサ装置11の地図位置を取得すると、取得した地図位置を用いて、ステップS201で収集された第1センサ情報110に含まれるロボット13の第1相対位置を地図位置に変換する。例えば、対象第1センサ装置11の地図位置を(X3,Y3,Z3)とし、第1センサ情報110に含まれるロボット13の第1相対位置を(Xp,Yp,Zp)とすると、ロボット13の地図位置(ロボットの第1地図位置)は、(X3+Xp,Y3+Yp,Z3+Zp)で表される。   When the calculation unit 1b acquires the map position of the target first sensor device 11, the calculation unit 1b uses the acquired map position to calculate the first relative position of the robot 13 included in the first sensor information 110 collected in step S201. Convert to For example, if the map position of the target first sensor device 11 is (X3, Y3, Z3) and the first relative position of the robot 13 included in the first sensor information 110 is (Xp, Yp, Zp), The map position (first map position of the robot) is represented by (X3 + Xp, Y3 + Yp, Z3 + Zp).

次にステップS203において、算出部1bは、ステップS201で収集された第2センサ情報120に含まれる屋内地物の第2相対位置に基づいて、ロボット13の地図位置を求める。具体的には、算出部1bは、ステップS202で収集された第2センサ情報120に第2相対位置が含まれる屋内地物についての地図位置を、記憶部1c内の屋内地図情報から取得する。言い換えれば、算出部1bは、第2センサ装置12が検出した屋内地物についての地図位置を、記憶部1c内の屋内地図情報から取得する。本例では、算出部1bは、第2センサ装置12が検出した柱についての地図位置を、記憶部1c内の屋内地図情報から取得する。そして、算出部1bは、第2センサ装置12が検出した屋内地物(柱)の地図位置と、ステップS201で収集された第2センサ情報120に含まれる当該屋内地物(柱)の第2相対位置(第2センサ装置12が検出した屋内地物の第2相対位置)とに基づいて、ロボット13の地図位置を求める。例えば、第2センサ装置12が検出した屋内地物の地図位置及び第2相対位置を、それぞれ(X4,Y4,Z4)及び(Xq,Yq,Zq)とすると、ロボット13の地図位置(ロボット13の第2地図位置)は、(X4−Xq,Y4−Yq,Z4−Zq)で表される。   Next, in step S203, the calculation unit 1b obtains the map position of the robot 13 based on the second relative position of the indoor feature included in the second sensor information 120 collected in step S201. Specifically, the calculation unit 1b acquires the map position for the indoor feature whose second relative position is included in the second sensor information 120 collected in step S202 from the indoor map information in the storage unit 1c. In other words, the calculation unit 1b acquires the map position of the indoor feature detected by the second sensor device 12 from the indoor map information in the storage unit 1c. In this example, the calculation unit 1b acquires the map position of the pillar detected by the second sensor device 12 from the indoor map information in the storage unit 1c. Then, the calculation unit 1b calculates the map position of the indoor feature (post) detected by the second sensor device 12 and the second of the indoor feature (post) included in the second sensor information 120 collected in step S201. The map position of the robot 13 is obtained based on the relative position (the second relative position of the indoor feature detected by the second sensor device 12). For example, if the map position and the second relative position of the indoor feature detected by the second sensor device 12 are (X4, Y4, Z4) and (Xq, Yq, Zq), respectively, the map position of the robot 13 (robot 13 (Second map position) is represented by (X4-Xq, Y4-Yq, Z4-Zq).

なお、上述の説明から理解できるように、ステップs203において求められるロボット13の第2地図位置は、ロボット13自身が屋内地物を検出して求める、当該ロボット13の地図位置と同じである。   As can be understood from the above description, the second map position of the robot 13 obtained in step s203 is the same as the map position of the robot 13 obtained by detecting the indoor feature by the robot 13 itself.

次にステップS204において、検証部1fは、ステップS202で求められたロボット13の第1地図位置と、ステップS203で求められたロボット13の第2地図位置との間の距離D(単位は例えばcm)を求める。距離Dは、ロボット13の第1地図位置と第2地図位置との差を示していると言える。距離Dは、ロボット13の第1地図位置(X3+Xp,Y3+Yp,Z3+Zp)と、ロボット13の第2地図位置(X4−Xq,Y4−Yq,Z4−Zq)を用いて以下のように表せられる。   Next, in step S204, the verification unit 1f determines a distance D (unit: cm, for example) between the first map position of the robot 13 obtained in step S202 and the second map position of the robot 13 obtained in step S203. ) It can be said that the distance D indicates the difference between the first map position and the second map position of the robot 13. The distance D is expressed as follows using the first map position (X3 + Xp, Y3 + Yp, Z3 + Zp) of the robot 13 and the second map position (X4-Xq, Y4-Yq, Z4-Zq) of the robot 13.

Figure 0006289791
Figure 0006289791

次にステップS205において、検証部1fは、ステップS204で求めた距離Dがしきい値K以下であるか否かを判定する。しきい値Kは、予め実験等で求められた値が採用される。しきい値Kは、例えば25cm未満に設定される。   Next, in step S205, the verification unit 1f determines whether or not the distance D obtained in step S204 is equal to or less than the threshold value K. As the threshold value K, a value obtained in advance through experiments or the like is employed. The threshold value K is set to be less than 25 cm, for example.

ステップS205において、距離Dがしきい値K以下であると判定されると、ステップS206において、検証部1fは、ロボット13が現在位置する屋内仮想レーン240を示す屋内仮想レーン情報130は適切であると判定する。言い換えれば、検証部1fは、ロボット13が現在位置する屋内仮想レーン240が適切に設定されていると判定する。そして、検証部1fは、記憶部1c内の屋内地図情報に含まれる、ロボット13が現在位置する屋内仮想レーン240を示す屋内仮想レーン情報130に対して、当該屋内仮想レーン情報130が適切であることを示す検証結果情報140を含める。このとき、検証部1fは、ロボット13の第1地図位置(第1センサ情報110から得られる地図位置)を、ロボット13の現在位置として、当該ロボット13が位置する屋内仮想レーン240を特定する。これにより、屋内仮想レーン情報(検証済)130が得られる。得られた屋内仮想レーン情報(検証済)130は屋内地図情報に含められる。   If it is determined in step S205 that the distance D is equal to or less than the threshold value K, in step S206, the verification unit 1f indicates that the indoor virtual lane information 130 indicating the indoor virtual lane 240 where the robot 13 is currently located is appropriate. Is determined. In other words, the verification unit 1f determines that the indoor virtual lane 240 where the robot 13 is currently located is appropriately set. And the verification part 1f is suitable with respect to the indoor virtual lane information 130 indicating the indoor virtual lane 240 where the robot 13 is currently located, which is included in the indoor map information in the storage part 1c. The verification result information 140 indicating this is included. At this time, the verification unit 1f specifies the indoor virtual lane 240 in which the robot 13 is located by using the first map position of the robot 13 (the map position obtained from the first sensor information 110) as the current position of the robot 13. Thereby, indoor virtual lane information (verified) 130 is obtained. The obtained indoor virtual lane information (verified) 130 is included in the indoor map information.

ここで、ロボット13が、自己の地図位置を計算しながら屋内仮想レーン240上を適切に移動することが困難である場合には、当該屋内仮想レーン240は適切に設定されているとは言い難い。つまり、ロボット13がその上を適切に移動することが困難な屋内仮想レーン240は、適切に設定されているとは言い難い。   Here, when it is difficult for the robot 13 to appropriately move on the indoor virtual lane 240 while calculating its own map position, it is difficult to say that the indoor virtual lane 240 is appropriately set. . That is, it is difficult to say that the indoor virtual lane 240 that is difficult for the robot 13 to appropriately move on is appropriately set.

本実施の形態では、検出精度が高い第1センサ装置11で取得される、ロボット13の第1相対位置が使用されて求められるロボット13の第1地図位置が、現在のロボット13の正しい位置として用いられる。したがって、距離Dがしきい値K以下である場合には、ロボット13の第2地図位置の計算精度が高いと言える。つまり、ロボット13が自己の地図位置を求める際の位置計算精度が高いと言える。屋内仮想レーン240上を移動するロボット13での位置計算精度が高い場合には、当該ロボット13は、当該屋内仮想レーン240から外れる可能性が低く、当該屋内仮想レーン240上を適切に移動することができる。よって、距離Dがしきい値K以下である場合には、ロボット13が現在移動する屋内仮想レーン240は適切に設定されていると言える。つまり、距離Dがしきい値K以下である場合には、ロボット13が現在移動する屋内仮想レーン240を示す屋内仮想レーン情報130は適切であると言える。屋内仮想レーン240上をロボット13が移動する際に求められる距離Dがしきい値K以下である場合には、当該ロボット13は、当該屋内仮想レーン240上を所定の位置計算精度を保ちながら移動することができると言える。また、屋内仮想レーン240上をロボット13が移動する際に求められる距離Dがしきい値K以下である場合には、当該ロボット13は、それ自身が第2センサ情報120を利用して求める当該ロボット13の地図位置に基づいて当該屋内仮想レーン240上を適切に移動することができると言える。距離Dがしきい値K以下である場合、ロボット13が位置する屋内仮想レーン240は、ロボット13がその上を移動する際に自身の地図位置を所定誤差範囲内で計算することが可能な領域であると言える。   In the present embodiment, the first map position of the robot 13 obtained by using the first relative position of the robot 13 obtained by the first sensor device 11 with high detection accuracy is the correct position of the current robot 13. Used. Therefore, when the distance D is less than or equal to the threshold value K, it can be said that the calculation accuracy of the second map position of the robot 13 is high. That is, it can be said that the position calculation accuracy when the robot 13 obtains its own map position is high. When the position calculation accuracy of the robot 13 moving on the indoor virtual lane 240 is high, the robot 13 is unlikely to be detached from the indoor virtual lane 240 and appropriately moves on the indoor virtual lane 240. Can do. Therefore, when the distance D is less than or equal to the threshold value K, it can be said that the indoor virtual lane 240 to which the robot 13 currently moves is set appropriately. That is, when the distance D is less than or equal to the threshold value K, it can be said that the indoor virtual lane information 130 indicating the indoor virtual lane 240 to which the robot 13 currently moves is appropriate. When the distance D required when the robot 13 moves on the indoor virtual lane 240 is equal to or less than the threshold value K, the robot 13 moves on the indoor virtual lane 240 while maintaining a predetermined position calculation accuracy. I can say that. In addition, when the distance D required when the robot 13 moves on the indoor virtual lane 240 is equal to or less than the threshold value K, the robot 13 itself uses the second sensor information 120 to determine It can be said that the robot can appropriately move on the indoor virtual lane 240 based on the map position of the robot 13. When the distance D is equal to or less than the threshold value K, the indoor virtual lane 240 in which the robot 13 is located is an area in which the map position of the robot 13 can be calculated within a predetermined error range when the robot 13 moves on the indoor virtual lane It can be said that.

このように、ステップS205において、距離Dがしきい値K以下であると判定されると、屋内仮想レーン情報130が適切であると判定されて、屋内仮想レーン情報(検証済)130が作成される。   As described above, when it is determined in step S205 that the distance D is equal to or smaller than the threshold value K, it is determined that the indoor virtual lane information 130 is appropriate, and indoor virtual lane information (verified) 130 is created. The

一方で、ステップS205において、距離Dがしきい値Kよりも大きいと判定されると、ステップs206が実行されずに検証処理が終了する。   On the other hand, if it is determined in step S205 that the distance D is greater than the threshold value K, step s206 is not executed and the verification process ends.

なお検証部1fは、距離Dがしきい値K未満の場合、屋内仮想レーン情報130は適切であると判定してもよい。   The verification unit 1f may determine that the indoor virtual lane information 130 is appropriate when the distance D is less than the threshold value K.

また情報処理装置1は、図9に示される、屋内仮想レーンの検証処理(ステップS201〜S206)を、ユーザの実行指示に応じて実行してもよいし、自動的に実行してもよい。   Further, the information processing apparatus 1 may execute the indoor virtual lane verification process (steps S201 to S206) illustrated in FIG. 9 according to a user's execution instruction or may be automatically executed.

このように、本実施の形態では、情報処理装置1は、屋内仮想レーン情報130が適切であるか否かを判断している。つまり、情報処理装置1は、ロボット13が、自己の第2センサ装置12が出力する第2センサ情報120を使用して求める自己の地図位置に基づいて屋内仮想レーン240上を適切に移動することができるか否かを判断している。したがって、ロボット13が実際に利用することができる屋内仮想レーン240を屋内に設定することができる。つまり、ロボット13が実際に利用することができる、信頼性のある屋内仮想レーン情報130を当該ロボット13に対して提供することができる。これにより、ロボット13は屋内を適切に自律移動することができる。なお判定部1yは、上述のようにして作成部1eが屋内に設定した屋内仮想レーン240ではなく、他の方法で屋内に設定された屋内仮想レーンが適切に設定されているか否かを判定してもよい。   Thus, in this embodiment, the information processing apparatus 1 determines whether the indoor virtual lane information 130 is appropriate. That is, the information processing apparatus 1 causes the robot 13 to appropriately move on the indoor virtual lane 240 based on its own map position obtained using the second sensor information 120 output from its second sensor apparatus 12. Judging whether or not can be done. Therefore, the indoor virtual lane 240 that can be actually used by the robot 13 can be set indoors. That is, reliable indoor virtual lane information 130 that can be actually used by the robot 13 can be provided to the robot 13. Thereby, the robot 13 can appropriately autonomously move indoors. The determination unit 1y determines whether the indoor virtual lane 240 set indoors by another method is set appropriately instead of the indoor virtual lane 240 set indoors by the creation unit 1e as described above. May be.

実施の形態2.
屋内を移動するロボット13は、扉の近くを移動することがある。ロボット13が、開き戸(前後に開閉する扉)の前に停止すると、当該開き戸の開閉をロボット13が阻害する可能性がある。
Embodiment 2. FIG.
The robot 13 that moves indoors may move near the door. If the robot 13 stops before the hinged door (the door that opens and closes forward and backward), the robot 13 may obstruct the opening and closing of the hinged door.

また、ロボット13はエレベータ及びエスカレータなどの昇降機を利用することがある。この場合、ロボット13が、エレベータの搭乗口の近くで停止すると、ロボット13が当該エレベータの利用者の邪魔になる可能性がある。また、ロボット13が、エスカレータの乗り口あるいは降り口の近くで停止すると、ロボット13がエスカレータの利用者の邪魔になる可能性がある。   The robot 13 may use elevators and escalators. In this case, when the robot 13 stops near the boarding gate of the elevator, the robot 13 may interfere with the user of the elevator. Further, if the robot 13 stops near the entrance or exit of the escalator, the robot 13 may interfere with the escalator user.

そこで、本実施の形態では、屋内仮想レーン240において、ロボット13の停止を禁止する停止禁止領域を示す停止禁止領域情報を、当該屋内仮想レーン240を示す屋内仮想レーン情報130に含める。   Therefore, in the present embodiment, in the indoor virtual lane 240, stop prohibited area information indicating a stop prohibited area where the stop of the robot 13 is prohibited is included in the indoor virtual lane information 130 indicating the indoor virtual lane 240.

図10は停止禁止領域の一例を示す図である。図10では、屋内仮想レーン240cにおいて、開き戸310が開閉する開閉範囲320を含む所定の範囲が、停止禁止領域300cとして設定されている。図10の例では、開閉範囲320を含む最小の矩形(外接矩形)が停止禁止領域300cに設定されている。図10の例では、屋内地図情報に開閉範囲320を示す情報が予め含められる。作成部1eは、屋内地図情報から開閉範囲302を特定し、設定した屋内仮想レーン240cにおいて、特定した開閉範囲302を含む停止禁止領域300cを設定する。そして、作成部1eは、設定した停止禁止領域300cを示す停止禁止領域情報を、屋内仮想レーン240cを示す屋内仮想レーン情報130に含める。この停止禁止領域情報は、屋内地図上において停止禁止領域300cを特定するための情報である。   FIG. 10 is a diagram illustrating an example of the stop prohibition area. In FIG. 10, in the indoor virtual lane 240c, a predetermined range including the open / close range 320 where the hinged door 310 opens and closes is set as the stop prohibition region 300c. In the example of FIG. 10, the minimum rectangle (circumscribed rectangle) including the opening / closing range 320 is set as the stop prohibition area 300c. In the example of FIG. 10, information indicating the opening / closing range 320 is included in advance in the indoor map information. The creation unit 1e specifies the open / close range 302 from the indoor map information, and sets the stop prohibition area 300c including the specified open / close range 302 in the set indoor virtual lane 240c. Then, the creating unit 1e includes the stop prohibited area information indicating the set stop prohibited area 300c in the indoor virtual lane information 130 indicating the indoor virtual lane 240c. This stop prohibition area information is information for specifying the stop prohibition area 300c on the indoor map.

図11は停止禁止領域の他の一例を示す図である。図11には、エレベータの昇降カゴ350、扉360及び呼びボタン370が示されている。図11の例では、屋内仮想レーン240dにおいて、扉360の前に停止禁止領域300dが設定されている。停止禁止領域300dは、屋内仮想レーン240dにおいて、そこにロボット13が停止すると、当該ロボット13が、昇降カゴ350から出てくる人及び昇降カゴ350に乗り込む人の邪魔になるような領域に設定される。図11の例では、屋内地図情報に、エレベータの扉360の大きさ及び地図位置を示す情報が予め含められる。作成部1eは、屋内地図情報から、エレベータの扉の大きさ及び地図位置を特定し、設定した屋内仮想レーン240dにおいて、特定した扉260の前に停止禁止領域300dを設定する。そして、作成部1eは、設定した停止禁止領域300dを示す停止禁止領域情報を、屋内仮想レーン240dを示す屋内仮想レーン情報に含める。この停止禁止領域情報は、屋内地図上において停止禁止領域300dを特定するための情報である。   FIG. 11 is a diagram showing another example of the stop prohibited area. FIG. 11 shows an elevator car 350, a door 360, and a call button 370. In the example of FIG. 11, the stop prohibition area 300 d is set in front of the door 360 in the indoor virtual lane 240 d. The stop prohibition area 300d is set in the indoor virtual lane 240d so that when the robot 13 stops there, the robot 13 interferes with a person coming out of the elevator car 350 and a person getting into the elevator car 350. The In the example of FIG. 11, the indoor map information includes information indicating the size of the elevator door 360 and the map position in advance. The creation unit 1e specifies the size of the elevator door and the map position from the indoor map information, and sets the stop prohibition area 300d in front of the specified door 260 in the set indoor virtual lane 240d. Then, the creation unit 1e includes the stop prohibited area information indicating the set stop prohibited area 300d in the indoor virtual lane information indicating the indoor virtual lane 240d. This stop prohibition area information is information for specifying the stop prohibition area 300d on the indoor map.

このように、本実施の形態では、屋内仮想レーン240を示す屋内仮想レーン情報130には、当該屋内仮想レーン240において、ロボット13の停止が禁止されている領域を示す情報が含められる。これにより、ロボット13は、自身の判断で、屋内での人の邪魔になる領域で停止しないようにすることができる。これにより、人とロボット13が円滑に移動可能な屋内交通環境を実現することができる。   As described above, in the present embodiment, the indoor virtual lane information 130 indicating the indoor virtual lane 240 includes information indicating an area in the indoor virtual lane 240 where the stop of the robot 13 is prohibited. Accordingly, the robot 13 can prevent the robot 13 from stopping in an area that disturbs a person indoors based on his / her own judgment. Thereby, the indoor traffic environment where a person and the robot 13 can move smoothly is realizable.

実施の形態3.
人が混雑している屋内仮想レーン240をロボット13が移動すると、当該ロボット13と人とが接触する可能性がある。
Embodiment 3 FIG.
When the robot 13 moves in the indoor virtual lane 240 where people are crowded, the robot 13 and the people may come into contact with each other.

そこで、本実施の形態では、屋内仮想レーン240での人の混雑度を、当該屋内仮想レーン240を示す屋内仮想レーン情報130に含める。これより、ロボット13は、人が混雑している屋内仮想レーン240を避けて屋内を移動することができる。   Therefore, in the present embodiment, the congestion level of the person in the indoor virtual lane 240 is included in the indoor virtual lane information 130 indicating the indoor virtual lane 240. Thus, the robot 13 can move indoors avoiding the indoor virtual lane 240 where people are crowded.

図12は、本実施の形態に係る情報処理システム10の構成の一例を示す図である。本実施の形態に係る情報処理システム10は、上述の図1に示される情報処理システム10において、混雑度算出部1gをさらに備えるものである。混雑度算出部1gは、屋内での人の混雑度を算出する。混雑度算出部1gは、上述の処理回路2(CPU)が記憶装置3内の制御プログラム3aを実行することよって実現される機能ブロックであってもよいし、その機能の実現にソフトウェアが不要なハードウェア回路で実現されてもよい。以後、混雑度算出部1gを算出部1gと呼ぶことがある。   FIG. 12 is a diagram illustrating an example of the configuration of the information processing system 10 according to the present embodiment. The information processing system 10 according to the present embodiment further includes a congestion degree calculation unit 1g in the information processing system 10 shown in FIG. 1 described above. The congestion degree calculation unit 1g calculates the degree of congestion of people indoors. The congestion degree calculation unit 1g may be a functional block realized by the above-described processing circuit 2 (CPU) executing the control program 3a in the storage device 3, and software is not necessary for realizing the function. It may be realized by a hardware circuit. Hereinafter, the congestion degree calculating unit 1g may be referred to as a calculating unit 1g.

本実施の形態では、移動体位置算出部1b及び混雑度算出部1gによって、第1センサ情報110に含まれる、人の第1相対位置を示す位置情報に基づいて、屋内仮想レーン240での混雑度を取得する取得部1zが構成されている。取得部1zは、第1センサ装置11で検出された人の位置に基づいて、屋内仮想レーン240での混雑度を取得するとも言える。   In the present embodiment, congestion in the indoor virtual lane 240 is performed based on the position information indicating the first relative position of the person included in the first sensor information 110 by the mobile body position calculation unit 1b and the congestion degree calculation unit 1g. An acquisition unit 1z that acquires the degree is configured. It can be said that the acquisition unit 1z acquires the degree of congestion in the indoor virtual lane 240 based on the position of the person detected by the first sensor device 11.

本実施の形態では、移動体位置算出部1bは、第1収集部1aで収取される第1センサ情報110に含まれる人の第1相対位置に基づいて、当該人の地図位置を求める。言い換えれば、算出部1bは、第1センサ装置11で検出される人の第1相対位置に基づいて、当該人の地図位置を求める。算出部1bは、人の地図位置を求める際には、記憶部1c内の屋内地図情報から、第1センサ装置11の地図位置を取得する。そして、算出部1bは、第1センサ装置11の地図位置と、第1センサ情報110に含まれる人の第1相対位置に基づいて、当該人の地図位置を求める。第1センサ装置11の地図位置を(X3,Y3,Z3)とし、人の第1相対位置を(Xs,Ys,Zs)とすると、当該人の地図位置は(X3+Xs,Y3+Ys,Z3+Zs)で表される。算出部1bは、第1センサ装置11で検出される各人について地図位置を求める。   In this Embodiment, the mobile body position calculation part 1b calculates | requires the said map position of the said person based on the 1st relative position of the person included in the 1st sensor information 110 collected by the 1st collection part 1a. In other words, the calculation unit 1b obtains the map position of the person based on the first relative position of the person detected by the first sensor device 11. When calculating the map position of the person, the calculation unit 1b acquires the map position of the first sensor device 11 from the indoor map information in the storage unit 1c. Then, the calculation unit 1b obtains the map position of the person based on the map position of the first sensor device 11 and the first relative position of the person included in the first sensor information 110. When the map position of the first sensor device 11 is (X3, Y3, Z3) and the first relative position of the person is (Xs, Ys, Zs), the map position of the person is represented by (X3 + Xs, Y3 + Ys, Z3 + Zs). Is done. The calculation unit 1b obtains a map position for each person detected by the first sensor device 11.

混雑度算出部1gは、移動体位置算出部1bで求められる各人の地図位置に基づいて、作成部1eで設定された各屋内仮想レーン240での人の混雑度を求める。算出部1gには、算出部1bで求められる人の第1地図位置が例えば一定時間ごとに入力される。算出部1gは、定期的にあるいは不定期的に、各屋内仮想レーン240での人の混雑度を求める。以後、説明の対象の屋内仮想レーン240を対象屋内仮想レーン240と呼ぶ。   Based on the map position of each person obtained by the moving body position calculation unit 1b, the congestion degree calculation unit 1g obtains the degree of person congestion in each indoor virtual lane 240 set by the creation unit 1e. The first map position of the person obtained by the calculation unit 1b is input to the calculation unit 1g at regular intervals, for example. The calculation unit 1g obtains the degree of congestion of people in each indoor virtual lane 240 regularly or irregularly. Hereinafter, the indoor virtual lane 240 to be described is referred to as a target indoor virtual lane 240.

算出部1gは、対象屋内仮想レーン240での人の混雑度を求める際には、対象屋内仮想レーン240を単位面積ごとに複数の分割エリアに分割する。分割エリアの形状は、例えば、一辺の長さが50cmの正方形である。そして、算出部1gは、入力される人の地図位置に基づいて、各分割エリアについて個別に人の混雑度を求める。例えば、算出部1gは、各分割エリアについて、入力される人の地図位置に基づいて、単位時間の間に、当該分割エリアに入る人の数を求める。算出部1gは、例えば、30分の間に分割エリアに入る人の数を求める。そして、算出部1gは、求めた数を人の混雑度として採用する。例えば、30分の間に分割エリアに入る人の数が150人であるとすると、当該分割エリアでの人の混雑度は、150人/30分(=5人/分)となる。算出部1gは、対象屋内仮想レーン240の各分割エリアについての人の混雑度を求めると、求めた各分割エリアの人の混雑度を、対象屋内仮想レーン240での人の混雑度として作成部1eに入力する。作成部1eは、算出部1gから受け取った、対象屋内仮想レーン240での人の混雑度を、対象屋内仮想レーン240を示す屋内仮想レーン情報130に含める。   When calculating the human congestion level in the target indoor virtual lane 240, the calculation unit 1g divides the target indoor virtual lane 240 into a plurality of divided areas for each unit area. The shape of the divided area is, for example, a square having a side length of 50 cm. And the calculation part 1g calculates | requires a person's congestion degree separately about each divided area based on the map position of the person who inputs. For example, for each divided area, the calculation unit 1g obtains the number of people who enter the divided area during a unit time based on the input map position of the person. For example, the calculation unit 1g obtains the number of people who enter the divided area in 30 minutes. And the calculation part 1g employ | adopts the calculated | required number as a person's congestion degree. For example, if the number of people entering a divided area in 30 minutes is 150, the degree of congestion of people in the divided area is 150 people / 30 minutes (= 5 people / minute). When the calculation unit 1g obtains the degree of human congestion for each divided area of the target indoor virtual lane 240, the calculation unit 1g creates the obtained degree of human congestion for each divided area as the degree of human congestion in the target indoor virtual lane 240. Enter 1e. The creation unit 1e includes the degree of congestion of the person in the target indoor virtual lane 240 received from the calculation unit 1g in the indoor virtual lane information 130 indicating the target indoor virtual lane 240.

なお、算出部1gは、屋内仮想レーン240での人の混雑度を他の方法で求めてもよい。例えば、算出部1gは、対象屋内仮想レーン240の各分割エリアについて、当該分割エリアに存在する人の数の時間平均を求める。算出部1gは、例えば、分割エリアに存在する人の数を所定タイミングごとに複数回求め、複数回求めた、分割エリアに存在する人の数についての平均値を、当該分割エリアに存在する人の数の時間平均とする。そして、算出部1gは、求めた、分割エリアに存在する人の数の時間平均を、当該分割エリアでの人の混雑度とする。そして、算出部1gは、求めた各分割エリアでの人の混雑度を、対象屋内仮想レーン240での人の混雑度とする。   Note that the calculation unit 1g may obtain the degree of congestion of people in the indoor virtual lane 240 by another method. For example, for each divided area of the target indoor virtual lane 240, the calculation unit 1g obtains a time average of the number of people existing in the divided area. For example, the calculation unit 1g obtains the number of persons existing in the divided area a plurality of times at a predetermined timing, and calculates the average value of the number of persons present in the divided area, which is obtained a plurality of times. The time average of the number of. And the calculation part 1g makes the time average of the number of persons who existed in the division area calculated | required as a congestion degree of the person in the said division area. Then, the calculation unit 1g sets the obtained congestion level of each person in each divided area as the congestion level of the person in the target indoor virtual lane 240.

このように、本実施の形態では、屋内仮想レーン240での人の混雑度が、当該屋内仮想レーン240を示す屋内仮想レーン情報130に含められる。これにより、ロボット13は、人が混雑している屋内仮想レーン240を避けて屋内を移動することができる。よって、人とロボット13が円滑に移動可能な屋内交通環境を実現することができる。また、ロボット13は、屋内仮想レーン情報130に含まれる人の混雑度を用いて、目的地までの移動時間を予測することが可能となる。   As described above, in the present embodiment, the congestion level of the person in the indoor virtual lane 240 is included in the indoor virtual lane information 130 indicating the indoor virtual lane 240. Thereby, the robot 13 can move indoors avoiding the indoor virtual lane 240 where people are crowded. Therefore, an indoor traffic environment in which a person and the robot 13 can move smoothly can be realized. Further, the robot 13 can predict the travel time to the destination using the degree of congestion of people included in the indoor virtual lane information 130.

なお、本発明は、その発明の範囲内において、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略することが可能である。   It should be noted that the present invention can be freely combined with each other within the scope of the invention, and each embodiment can be appropriately modified or omitted.

1 情報処理装置、1e 作成部、1y 判定部、1z 取得部、10 情報処理システム、11 屋内設置型センサ装置(第1センサ装置)、13 ロボット、130 屋内仮想レーン情報(移動許可領域情報)、150,220,220a,220b 屋内地物、240,240a1,240a2,240b1,240b2,240c,240d 屋内仮想レーン(移動許可領域)、250 通行方向、290a1,290a2 移動不可領域、300c,300d 停止禁止領域。   DESCRIPTION OF SYMBOLS 1 Information processing apparatus, 1e preparation part, 1y determination part, 1z acquisition part, 10 Information processing system, 11 Indoor installation type sensor apparatus (1st sensor apparatus), 13 Robot, 130 Indoor virtual lane information (movement permission area information), 150, 220, 220a, 220b Indoor features, 240, 240a1, 240a2, 240b1, 240b2, 240c, 240d Indoor virtual lane (movement permitted area), 250 traffic directions, 290a1, 290a2 Non-movable area, 300c, 300d Stop prohibited area .

Claims (13)

移動装置が自律移動を行う屋内において、当該移動装置の移動が許可された第1領域を設定し、設定した当該第1領域を示す第1領域情報を作成する作成部と、
前記第1領域が適切に設定されているか否かを判定する判定部と
を備え、
前記移動装置は、前記屋内に存在する地物を検出し、検出した当該地物の位置を示す第1位置情報を出力し、
前記屋内の前記移動装置を検出し、検出した当該移動装置の位置を示す第2位置情報を出力し、前記屋内に存在する地物を検出するセンサ装置が前記屋内に設置され、
前記作成部は、前記屋内の地図を示す地図情報と、前記移動装置の検出距離と、前記センサ装置が検出する地物の位置とに基づいて、前記屋内に前記第1領域を設定し、
前記判定部は、前記第1及び第2位置情報に基づいて、前記第1領域が適切に設定されているか否かを判定する、情報処理装置。
Indoors mobile equipment performs autonomous mobile, a creation unit sets a first area in which movement of the mobile equipment is allowed to create a first region information indicating the first area set,
A determination unit for determining whether or not the first region is appropriately set ;
The mobile equipment detects a land object existing in the indoor, and outputs the first position information indicating the detected position of the relevant feature,
Wherein detecting the movement device indoors, and outputs the second position information indicating the detected position of the relevant mobile device, the sensor equipment for detecting the land object existing in the indoor is installed in the indoor,
The creation unit includes: a map information indicating a map of the indoor, the detection distance of the mobile equipment, based on the position of the feature that the sensor equipment detects, the first area to the indoors set,
The determination unit is an information processing apparatus that determines whether or not the first region is appropriately set based on the first and second position information .
請求項1に記載の情報処理装置であって、
前記作成部は、前記屋内での通行方向を示す通行方向情報にも基づいて、前記第1領域を設定する、情報処理装置。
The information processing apparatus according to claim 1,
The creation unit is configured also based on traffic direction information indicating the passage Direction indoors, setting the first area, the information processing apparatus.
請求項1又は請求項2に記載の情報処理装置であって、
前記作成部は、前記移動装置の幅にも基づいて、前記第1領域を設定する、情報処理装置。
The information processing apparatus according to claim 1 or 2 ,
The creation unit, based on the width of the mobile device, setting the first area, the information processing apparatus.
請求項3に記載の情報処理装置であって、
前記作成部は、前記第1領域での床面から天井までの高さを前記第1領域情報に含める、情報処理装置。
The information processing apparatus according to claim 3,
The creation unit, including the height of the ceiling in the first area information from the floor in the first area, the information processing apparatus.
請求項1乃至請求項4のいずれか一つに記載の情報処理装置であって、
前記作成部は、前記第1領域において、そこから隣の前記第1領域への移動が不可である第2領域を設定し、設定した当該第2領域を示す第2領域情報を、前記第1領域情報に含める、情報処理装置。
An information processing apparatus according to any one of claims 1 to 4,
The creation unit is configured Oite the first area, set the second area movement is impossible from there to the first area of the neighboring, second area indicating the second area set information, included in the first area information, the information processing apparatus.
請求項1乃至請求項5のいずれか一つに記載の情報処理装置であって、
前記作成部は、前記第1領域の床面の耐荷重を示す耐荷重情報を前記第1領域情報に含める、情報処理装置。
An information processing apparatus according to any one of claims 1 to 5,
The creation unit include load bearing information indicating the load-bearing floor of the first area in the first area information, the information processing apparatus.
請求項1乃至請求項6のいずれか一つに記載の情報処理装置であって、
前記作成部は、前記第1領域において前記移動装置の停止を禁止する第3領域を示す第3領域情報を前記第1領域情報に含める、情報処理装置。
An information processing apparatus according to any one of claims 1 to 6,
The creation unit, including a third area information indicating the third area to prohibit the stop of Oite said mobile equipment to said first area to said first area information, the information processing apparatus.
請求項1乃至請求項7のいずれか一つに記載の情報処理装置であって、
前記センサ装置は、前記屋内に存在する人を検出し、検出した人の位置を示す第位置情報を出力し、
前記第位置情報に基づいて、前記第1領域での人の混雑度を取得する取得部をさらに備え、
前記作成部は、前記混雑度を前記第1領域情報に含める、情報処理装置。
An information processing apparatus according to any one of claims 1 to 7,
The sensor equipment, the detecting a person existing in an indoor, and outputs the third position information indicating the position of the person detected,
Based on the third position information, further comprising: an obtaining unit obtaining a degree of congestion of a human in the first area,
The creation unit include the congestion degree in the first area information, the information processing apparatus.
移動装置が自律移動を行う屋内に設定された、当該移動装置の移動が許可された第1領域が、適切に設定されているか否かを判定する判定部を備え、
前記移動装置は、前記屋内に存在する地物を検出し、検出した当該地物の位置を示す第1位置情報を出力し、
前記屋内の前記移動装置を検出し、検出した前記移動装置の位置を示す第2位置情報を出力するセンサ装置が前記屋内に設置され、
前記判定部は、前記第1及び第2位置情報に基づいて、前記第1領域が適切に設定されているか否かを判定する、情報処理装置。
A determination unit configured to determine whether or not the first region where the movement of the mobile device is permitted, which is set indoors where the mobile device performs autonomous movement, is appropriately set;
The mobile device detects a feature existing in the indoor, and outputs first position information indicating a position of the detected feature,
A sensor device that detects the indoor mobile device and outputs second position information indicating the detected location of the mobile device is installed indoors,
The determination unit is an information processing apparatus that determines whether or not the first region is appropriately set based on the first and second position information .
屋内を自律移動し、当該屋内の地物を検出し、検出した当該地物の位置を示す第1位置情報を出力する移動装置と、  A mobile device that autonomously moves indoors, detects the indoor feature, and outputs first position information indicating the position of the detected feature;
前記屋内の前記移動装置を検出し、検出した当該移動装置の位置を示す第2位置情報を出力するセンサ装置と、  A sensor device that detects the indoor mobile device and outputs second position information indicating the detected position of the mobile device;
前記屋内に設定された、前記移動装置の移動が許可された領域が、適切に設定されているか否かを、前記第1及び第2位置情報に基づいて判定する判定部と  A determination unit configured to determine, based on the first and second position information, whether or not an area that is set indoors and is permitted to move the mobile device is set appropriately;
を備える、情報処理システム。An information processing system comprising:
請求項1乃至請求項9のいずれか一つに記載の情報処理装置と、
屋内を自律移動し、当該屋内の地物を検出し、検出した当該地物の位置を示す第1位置情報を出力する移動装置と
前記屋内の前記移動装置を検出し、検出した当該移動装置の位置を示す第2位置情報を出力し、前記屋内に存在する地物を検出する、前記屋内に設置されたセンサ装置と
を備える、情報処理システム。
An information processing apparatus according to any one of claims 1 to 9,
Autonomously move indoors, and the mobile equipment that detects the earth of the indoor, and outputs the first position information indicating the detected position of the relevant feature,
Detecting the movement device of the indoor, and outputs the second position information indicating the detected position of the said mobile device, for detecting a land object existing in the indoor, the installed indoors the sensor equipment <br An information processing system comprising:
請求項10に記載の情報処理システムであって、
前記センサ装置は、さらに前記屋内に存在する地物を検出し、
前記屋内の地図を示す地図情報と、前記移動装置の検出距離と、前記センサ装置が検出する地物の位置とに基づいて、前記屋内において前記領域を設定し、設定した当該領域を示す領域情報を作成する作成部をさらに備える、情報処理システム。
The information processing system according to claim 10,
The sensor device further detects a feature existing indoors,
Based on the map information indicating the indoor map, the detection distance of the mobile device, and the position of the feature detected by the sensor device, the region is set in the indoor, and the region information indicating the set region An information processing system further comprising a creation unit for creating
請求項10乃至請求項12のいずれか一つに記載の情報処理システムであって、
前記センサ装置の検出距離は、前記移動装置の検出距離よりも大きい、情報処理システム。
An information processing system according to any one of claims 10 to 12,
Detection distance of the sensor equipment is also large Ri by detection distance of the mobile equipment, an information processing system.
JP2017563272A 2017-07-12 2017-07-12 Information processing apparatus and information processing system Expired - Fee Related JP6289791B1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/025334 WO2019012612A1 (en) 2017-07-12 2017-07-12 Information-processing device and information-processing system

Publications (2)

Publication Number Publication Date
JP6289791B1 true JP6289791B1 (en) 2018-03-07
JPWO2019012612A1 JPWO2019012612A1 (en) 2019-07-11

Family

ID=61557997

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017563272A Expired - Fee Related JP6289791B1 (en) 2017-07-12 2017-07-12 Information processing apparatus and information processing system

Country Status (2)

Country Link
JP (1) JP6289791B1 (en)
WO (1) WO2019012612A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023036418A (en) * 2021-09-02 2023-03-14 東芝テック株式会社 Movement instructing device and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009217330A (en) * 2008-03-07 2009-09-24 Toyota Motor Corp Mobile robot system and its control method
WO2016067467A1 (en) * 2014-10-31 2016-05-06 三菱電機株式会社 Robot control device, robot system, robot control method, and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4296351B2 (en) * 2004-11-25 2009-07-15 パナソニック電工株式会社 Travel control device
JP5560979B2 (en) * 2010-07-13 2014-07-30 村田機械株式会社 Autonomous mobile
JP2017090796A (en) * 2015-11-16 2017-05-25 トヨタ自動車株式会社 Map creation method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009217330A (en) * 2008-03-07 2009-09-24 Toyota Motor Corp Mobile robot system and its control method
WO2016067467A1 (en) * 2014-10-31 2016-05-06 三菱電機株式会社 Robot control device, robot system, robot control method, and program

Also Published As

Publication number Publication date
WO2019012612A1 (en) 2019-01-17
JPWO2019012612A1 (en) 2019-07-11

Similar Documents

Publication Publication Date Title
CN105182979B (en) A kind of mobile robot detection of obstacles and preventing collision method and system
KR101382982B1 (en) Path Planning System and Method
US10948913B2 (en) Method of identifying unexpected obstacle and robot implementing the method
JP4576445B2 (en) Autonomous mobile device and program for autonomous mobile device
JP6672076B2 (en) Information processing device and mobile device
US20180115875A1 (en) Method of estimating position of a device using geographical descriptive data
JP4658155B2 (en) Autonomous mobile robot apparatus and avoidance method of autonomous mobile robot apparatus
CN105425803B (en) Autonomous obstacle avoidance method, device and system
US8504202B2 (en) Autonomous mobile robot apparatus and a rush-out collision avoidance method in the same apparatus
JP5539596B2 (en) Autonomous mobile device, autonomous mobile method, and program for autonomous mobile device
JP2006253888A (en) Position information management apparatus and position information management method
KR20220055167A (en) Autonomous robot, world map management server of autonomous robot and collision avoidance method using the same
JP6094279B2 (en) TRACKING DEVICE, TRACKING PROGRAM, AND TRACKING METHOD
KR20180137549A (en) Elevator system and car call estimation method
CN110103952A (en) Assist method, equipment, medium and the system of vehicle drive
WO2011046835A1 (en) Method and apparatus for automated determination of features on an electronic map
CN108673510A (en) Robot security&#39;s advance system and method
JP2011224679A (en) Reaction robot, reaction control method, and reaction control program
JP2006252273A (en) Self-propelled equipment and its program
KR20150076757A (en) An Apparatus and Method for Clustering Control of Transport
JP6289791B1 (en) Information processing apparatus and information processing system
US10976424B2 (en) Automatic determination of position and orientation of elevator device entry terminals and hallway fixtures
JP7020575B1 (en) Control system and mobile
JP2008276731A (en) Routing apparatus for autonomous mobile unit
Muñoz et al. An assistive indoor navigation system for the visually impaired in multi-floor environments

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171205

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171205

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20171205

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20171227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180206

R150 Certificate of patent or registration of utility model

Ref document number: 6289791

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees