WO2020202559A1 - 自律移動体の移動支援装置、自律移動体、および地図情報配信装置 - Google Patents

自律移動体の移動支援装置、自律移動体、および地図情報配信装置 Download PDF

Info

Publication number
WO2020202559A1
WO2020202559A1 PCT/JP2019/015168 JP2019015168W WO2020202559A1 WO 2020202559 A1 WO2020202559 A1 WO 2020202559A1 JP 2019015168 W JP2019015168 W JP 2019015168W WO 2020202559 A1 WO2020202559 A1 WO 2020202559A1
Authority
WO
WIPO (PCT)
Prior art keywords
mirror
position information
autonomous
distance
distance sensor
Prior art date
Application number
PCT/JP2019/015168
Other languages
English (en)
French (fr)
Inventor
秀昇 子安
敬秀 平井
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2021511060A priority Critical patent/JP7143940B2/ja
Priority to PCT/JP2019/015168 priority patent/WO2020202559A1/ja
Publication of WO2020202559A1 publication Critical patent/WO2020202559A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/95Lidar systems specially adapted for specific applications for meteorological use
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Definitions

  • the present invention relates to a movement support device for an autonomous mobile body, an autonomous mobile body, and a map information distribution device.
  • Patent Document 1 discloses an example of a traveling support device for a vehicle.
  • the vehicle traveling support device detects a blind spot object reflected on the curved mirror by image processing.
  • the vehicle traveling support device of Patent Document 1 calculates the distance between the blind spot object and the vehicle based on the standard dimensions of the blind spot object. Therefore, when the traveling support device for a vehicle is applied to the movement support of an autonomous moving body, the distance cannot be calculated for an unknown blind spot object.
  • An object of the present invention is to provide a movement support device and an autonomous mobile body of an autonomous mobile body capable of detecting a distance to an object in a blind spot, and a map information distribution device that distributes map information to the movement support device or the autonomous mobile body. It is to be.
  • the movement support device for an autonomous moving body is an autonomous moving body that moves in a moving environment based on the distance between the light emitted by the distance sensor and an object in the moving environment measured by the distance sensor by the reflected light of the light.
  • the distance sensor measures the apparent distance between the output unit that outputs the position information of the object detected in the moving environment and the virtual image of the object reflected by the mirror placed in the moving environment, the position information of the mirror is used.
  • the output unit includes a detection unit that detects the position information in the real space of the object that is output to the autonomous moving body.
  • the autonomous moving body is an autonomous moving body that moves in a moving environment based on the distance between the light emitted by the distance sensor and an object in the moving environment measured by the distance sensor by the reflected light of the light.
  • the detection unit is provided to detect the position information of the object in the real space based on the position information of the mirror.
  • the map information distribution device is an autonomous moving body that moves in the moving environment based on the distance between the light emitted by the distance sensor and the object in the moving environment measured by the distance sensor by the reflected light of the light.
  • the distance sensor measures the apparent distance between the output unit that outputs the position information of the detected object and the virtual image of the object reflected by the mirror placed in the moving environment
  • the output unit is based on the position information of the mirror.
  • the map information of the moving environment including the position information of the mirror in the moving environment is distributed to the movement support device of the autonomous moving body including the detection unit for detecting the position information of the object in the real space to be output to the autonomous moving body. ..
  • the map information distribution device is an autonomous moving body that moves in a moving environment based on the distance between the light emitted by the distance sensor and the object in the moving environment measured by the distance sensor by the reflected light of the light.
  • An autonomous moving object including a detection unit that detects the position information of the object in the real space based on the position information of the mirror when the distance sensor measures the apparent distance from the virtual image of the object reflected by the mirror placed in the environment.
  • the map information of the moving environment including the position information of the mirror in the moving environment is distributed to.
  • the autonomous moving body moves in the moving environment based on the distance to the object in the moving environment measured by the distance sensor.
  • the distance sensor measures the distance by the light emitted by the distance sensor and the reflected light of the light.
  • the detection unit detects the position information of the object in the real space based on the position information of the mirror. As a result, the distance to the object in the blind spot is detected.
  • FIG. It is a block diagram of the movement support device which concerns on Embodiment 1.
  • FIG. It is a figure which shows the example of the object detection of the movement support device which concerns on Embodiment 1.
  • FIG. It is a figure which shows the example of the object detection of the movement support device which concerns on Embodiment 1.
  • FIG. It is a figure which shows the hardware configuration of the main part of the movement support device which concerns on Embodiment 1.
  • FIG. It is a figure which shows the example of the notification of the movement support device which concerns on Embodiment 2.
  • It is a figure which shows the example of the mirror position estimation of the movement support device which concerns on Embodiment 3.
  • FIG. 1 is a configuration diagram of a movement support device according to the first embodiment.
  • the autonomous mobile body 1 shown in FIG. 1 is a device that moves in a mobile environment.
  • the mobile environment is, for example, a space inside or outside a building.
  • the autonomous mobile body 1 is a device that moves autonomously, such as a vehicle or a robot.
  • the autonomous mobile body 1 may be a device that autonomously moves to the destination based on an operation of designating a destination or the like by, for example, an operator.
  • the autonomous mobile body 1 may be a device that autonomously moves to a destination determined autonomously.
  • the autonomous mobile body 1 includes a distance sensor 2 and a control unit 3.
  • the distance sensor 2 is a device that detects the distance between the autonomous moving body 1 and the object 4 around the autonomous moving body 1.
  • the distance sensor 2 is, for example, a two-dimensional or three-dimensional LiDAR (Light Detection and Ringing) device.
  • the distance sensor 2 includes a light emitting unit 5 and a light receiving unit 6.
  • the light emitting unit 5 is a portion that emits light.
  • the light emitted by the light emitting unit 5 is, for example, laser light.
  • the light emitted by the light emitting unit 5 is, for example, light having a wavelength of about visible light to infrared light.
  • the light receiving unit 6 is a portion that detects the reflected light of the light emitted by the light emitting unit 5.
  • the distance detection by the distance sensor 2 is performed based on, for example, a phase difference or a time difference between the light emitted by the light emitting unit 5 and the reflected light of the light incident on the light receiving unit 6.
  • the object 4 around the autonomous mobile body 1 is, for example, a structure such as a wall or a pillar of a building, a person, or another device or device such as the autonomous mobile body 1.
  • the control unit 3 is a part that controls the operation of the autonomous moving body 1 based on the distance detected by the distance sensor 2.
  • the operation of the autonomous mobile body 1 is, for example, traveling of the autonomous mobile body 1.
  • a mirror 7 is provided in a mobile environment.
  • the mirror 7 is, for example, a plane mirror.
  • the mirror 7 is provided at a place where a blind spot may occur, such as a corner or a confluence of passages in a moving environment.
  • the mirror 7 has a reflecting portion 8 that reflects light.
  • a virtual image 9 of an object 4 facing the reflecting portion 8 is projected on the reflecting portion 8 of the mirror 7. In FIG. 1, the apparent position of the virtual image 9 is shown.
  • the map information distribution device 10 shown in FIG. 1 is a device that distributes map information.
  • the map information includes, for example, the position of a structure such as a wall or a pillar of a building, or the position information of a mirror 7.
  • the position information of the mirror 7 includes, for example, information on the location where the mirror 7 is arranged and the angle of the reflecting portion 8 of the mirror 7.
  • the map information may include information on the attributes of the mirror 7.
  • the attribute information of the mirror 7 includes, for example, information on the size of the mirror 7 and the type of the mirror 7.
  • the map information distribution device 10 is provided in, for example, a building in which the autonomous mobile body 1 moves.
  • the map information distribution device 10 is, for example, a server computer.
  • the map information distributed by the map information distribution device 10 is generated in advance based on, for example, design information owned by the owner or manager of the building.
  • the map information distribution device 10 distributes map information, for example, at preset time intervals.
  • the map information distributed by the map information distribution device 10 may be generated in the autonomous mobile body 1 by, for example, a SLAM (Simultaneus Localization and Mapping) method or the like.
  • the map information distribution device 10 may distribute the map information to the autonomous moving body 1 different from the autonomous moving body 1 that generated the map information.
  • the movement support device 11 is a device that supports the movement of the autonomous mobile body 1.
  • the movement support device 11 is mounted on the autonomous mobile body 1.
  • the movement support device 11 moves together with the autonomous mobile body 1.
  • the movement support device 11 includes a map storage unit 12, a position acquisition unit 13, a detection unit 14, and an output unit 15.
  • the map storage unit 12 is a part that stores map information of the mobile environment.
  • the map storage unit 12 is connected to the map information distribution device 10 so that the map information distributed by the map information distribution device 10 can be acquired by, for example, wireless communication.
  • the map storage unit 12 may store the map information generated by the autonomous mobile body 1 itself by, for example, a SLAM method.
  • the position acquisition unit 13 is a part that acquires the position information of the autonomous mobile body 1.
  • the position acquisition unit 13 acquires, for example, the self-position estimated by the autonomous mobile body 1 from the autonomous mobile body 1.
  • the position acquisition unit 13 acquires the self-position acquired by a satellite positioning system such as GPS (Global Positioning System) or an indoor positioning system. It may be the position of.
  • the position acquisition unit 13 may set the self-position acquired by autonomous navigation based on, for example, an acceleration sensor or the like as the position of the autonomous moving body 1.
  • the detection unit 14 is a part that detects an object 4 around the autonomous moving body 1.
  • the output unit 15 is a part that outputs the position information of the object 4 detected by the detection unit 14 to the autonomous moving body 1.
  • FIGS. 2 and 3 are diagrams showing an example of object detection of the movement support device according to the first embodiment.
  • the thick line shows a set of points whose distance is detected by the distance sensor 2.
  • the thin alternate long and short dash line indicates the apparent optical path of the light incident on the reflecting portion 8 of the mirror 7.
  • the thick alternate long and short dash line indicates the apparent position of the virtual image 9 of the object 4 reflected on the reflecting portion 8 of the mirror 7.
  • the apparent position of the virtual image 9 of the object 4 is a position symmetrical with respect to the reflecting portion 8 of the mirror 7.
  • the detection unit 14 acquires information on the distance from the distance sensor 2 of the autonomous moving body 1 to the surrounding object 4 of the autonomous moving body 1.
  • the distance sensor 2 does not discriminate between the light directly propagating between the distance sensor 2 and the object 4 and the light reflected and propagated by the reflecting portion 8 of the mirror 7 between the distance sensor 2 and the object 4. Therefore, the distance sensor 2 measures the apparent distance of the object 4 reflected on the reflection unit 8 from the virtual image 9 when the light emitting unit 5 of the distance sensor 2 is directed to the reflection unit 8 of the mirror 7.
  • the optical path through which the light emitted by the light emitting unit 5 actually propagates is the optical path reflected by the reflecting unit 8 of the mirror 7.
  • the light reflected by the reflecting portion 8 of the mirror 7 is reflected on the surface of the object 4.
  • the light reflected on the surface of the object 4 is reflected again by the reflecting portion 8 of the mirror 7.
  • the reflected light reflected again by the reflecting portion 8 of the mirror 7 is incident on the light receiving portion 6 of the distance sensor 2.
  • the detection unit 14 moves the mirror 7 between the distance sensor 2 and the virtual image 9 in which the apparent distance is measured, based on the self-position acquired by the position acquisition unit 13 and the position information of the mirror 7. It is determined whether or not there is a reflecting portion 8.
  • the detecting unit 14 determines the position information in the real space of the object 4 at a position symmetrical to the virtual image 9 with respect to the reflecting portion 8 of the mirror 7. That is, when the detection unit 14 determines that the point at which the distance is detected by the distance sensor 2 is an apparent position, the detection unit 14 is a point at which the point is inverted with respect to the reflection unit 8 of the mirror 7. To decide.
  • the output unit 15 outputs the position information of the object 4 detected by the detection unit 14 to the autonomous moving body 1.
  • the control unit 3 of the autonomous mobile body 1 controls the movement of the autonomous mobile body 1 based on the position information of the object 4 input from the output unit 15.
  • the movement support device 11 includes an output unit 15 and a detection unit 14.
  • the output unit 15 outputs the position information of the object 4 detected in the moving environment to the autonomous moving body 1.
  • the autonomous moving body 1 moves in the moving environment based on the distance to the object 4 in the moving environment measured by the distance sensor 2.
  • the distance sensor 2 measures the distance by the light emitted by the distance sensor 2 and the reflected light of the light.
  • the detection unit 14 outputs the output unit 15 to the autonomous moving body 1 based on the position information of the mirror 7. Detects the position information of the object 4 in the real space.
  • the mirror 7 is arranged in a mobile environment.
  • the detection unit 14 detects the object 4 through the mirror 7 by the distance sensor 2. Therefore, the detection unit 14 does not need the standard dimensions of the object 4 to detect the distance to the object 4.
  • the detection unit 14 indirectly detects the object 4 through the mirror 7. Therefore, the detection unit 14 can detect the object 4 in the blind spot.
  • the movement support device 11 can detect the positional relationship with the object 4 in the blind spot.
  • the positional relationship with the object 4 includes the distance and the direction with the object 4.
  • the distance sensor 2 measures the distance by light. As a result, the movement support device 11 can accurately recognize the shape of the object 4.
  • the movement support device 11 includes a map storage unit 12.
  • the map storage unit 12 stores map information of the moving environment.
  • the map information of the moving environment includes the position information of the mirror 7 in the moving environment.
  • the detection unit 14 detects the position information in the real space of the object 4 on which the virtual image 9 is projected by the mirror 7 based on the map information.
  • the map information distribution device 10 according to the first embodiment distributes the map information of the moving environment to the movement support device 11.
  • the detection unit 14 uses the position information of the mirror 7 included in the map information generated in advance in the detection of the object 4. As a result, the detection unit 14 can reliably recognize the position of the mirror 7. Therefore, the detection unit 14 can stably detect the object 4.
  • the output unit 15 may output a command for changing the speed limit of movement to the autonomous moving body 1 based on the position information of the mirror 7.
  • the mirror 7 is provided in a place where a blind spot may occur in a moving environment, for example.
  • the place where the mirror 7 is provided is a place where the possibility of collision between the autonomous moving body 1 and the object 4 is relatively high.
  • the output unit 15 outputs a command to the autonomous moving body 1 to change the speed limit of movement, for example, when it is determined that the autonomous moving body 1 is approaching the mirror 7 based on the position information of the mirror 7.
  • the autonomous moving body 1 moves under a relatively low speed limit in a place where the possibility of collision is relatively high.
  • the autonomous moving body 1 can easily avoid a collision.
  • the output unit 15 may output a control signal for controlling the movement to the autonomous moving body 1 based on the position information of the object 4 detected by the detecting unit 14.
  • the movement support device 11 directly controls the autonomous mobile body 1 by outputting a control signal.
  • the autonomous moving body 1 does not have a function of recognizing an object 4 in a blind spot and avoiding a collision. Even in this case, the movement support device 11 can avoid the collision between the autonomous moving body 1 and the object 4.
  • the detection unit 14 may be provided on the autonomous mobile body 1.
  • the autonomous moving body 1 moves in the moving environment based on the distance to the object 4 in the moving environment measured by the distance sensor 2.
  • the distance sensor 2 measures the distance by the light emitted by the distance sensor 2 and the reflected light of the light.
  • the autonomous mobile body 1 includes a detection unit 14.
  • the detection unit 14 detects the position information of the object 4 in the real space based on the position information of the mirror 7. ..
  • the mirror 7 is arranged in a mobile environment. Further, the map information distribution device 10 may distribute map information to the autonomous mobile body 1 including the detection unit 14.
  • control unit 3 of the autonomous mobile body 1 controls the movement of the autonomous mobile body 1 based on the position information of the object 4 detected by the detection unit 14.
  • the control unit 3 of the autonomous mobile body 1 may change the speed limit of movement based on the position information of the mirror 7.
  • the movement support device 11 may include a distance sensor 2.
  • the distance sensor 2 of the movement support device 11 measures the distance between the light emitted by the distance sensor 2 and the object 4 in the moving environment by the reflected light of the light.
  • the movement support device 11 may detect the position information in the real space of the object 4 in which the virtual image 9 is reflected on the reflection portion 8 of the mirror 7 based on the distance measured by the distance sensor 2 of the movement support device 11.
  • the movement support device 11 may be a device that communicates with the autonomous mobile body 1 by, for example, wirelessly.
  • the movement support device 11 is, for example, a server computer installed in a building.
  • the movement support device 11 may wirelessly communicate with each of the plurality of autonomous mobile bodies 1.
  • FIG. 4 is a diagram showing a hardware configuration of a main part of the movement support device according to the first embodiment.
  • Each function of the movement support device 11 can be realized by a processing circuit.
  • the processing circuit includes at least one processor 11b and at least one memory 11c.
  • the processing circuit may include at least one dedicated hardware 11a with or as a substitute for the processor 11b and memory 11c.
  • each function of the movement support device 11 is realized by software, firmware, or a combination of software and firmware. At least one of the software and firmware is written as a program. The program is stored in the memory 11c. The processor 11b realizes each function of the movement support device 11 by reading and executing the program stored in the memory 11c.
  • the processor 11b is also referred to as a CPU (Central Processing Unit), a processing device, an arithmetic unit, a microprocessor, a microcomputer, and a DSP.
  • the memory 11c is composed of, for example, a non-volatile or volatile semiconductor memory such as RAM, ROM, flash memory, EPROM, EEPROM, a magnetic disk, a flexible disk, an optical disk, a compact disk, a mini disk, a DVD, or the like.
  • the processing circuit is provided with dedicated hardware 11a, the processing circuit is realized by, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC, an FPGA, or a combination thereof.
  • Each function of the movement support device 11 can be realized by a processing circuit. Alternatively, each function of the movement support device 11 can be collectively realized by a processing circuit. For each function of the movement support device 11, a part may be realized by the dedicated hardware 11a, and the other part may be realized by software or firmware. As described above, the processing circuit realizes each function of the movement support device 11 by the hardware 11a, the software, the firmware, or a combination thereof.
  • Embodiment 2 In the second embodiment, the differences from the examples disclosed in the first embodiment will be described in detail. As for the features not described in the second embodiment, any of the features of the examples disclosed in the first embodiment may be adopted.
  • FIG. 5 is a diagram showing an example of notification of the movement support device according to the second embodiment.
  • the movement support device 11 includes a notification unit 16.
  • the notification unit 16 is provided, for example, on the front surface of the autonomous mobile body 1. Alternatively, when the movement support device 11 moves together with the autonomous mobile body 1, the notification unit 16 may be provided in front of the movement support device 11.
  • the notification unit 16 is, for example, a light that emits visible light.
  • a passerby is passing through the blind spot of the autonomous mobile body 1.
  • the autonomous mobile body 1 is often in the blind spot of a passerby.
  • the movement support device 11 detects a passerby passing through the blind spot through the mirror 7 as an object 4 in the moving environment.
  • the notification unit 16 detects the object 4 through the mirror 7, it emits visible light, for example, toward the reflection unit 8 of the mirror 7.
  • the visible light reflected by the reflecting portion 8 of the mirror 7 propagates to passersby.
  • the notification unit 16 may perform voice notification in combination with the emission of visible light.
  • the passerby recognizes the visible light reflected by the reflecting portion 8 of the mirror 7. By recognizing visible light, the passerby recognizes the approach of the autonomous moving body 1 from the blind spot of the passerby.
  • the movement support device 11 includes a notification unit 16.
  • the notification unit 16 notifies a person in the moving environment of the approach of the autonomous moving body 1 by irradiating the mirror 7 with visible light.
  • the detection unit 14 can detect a passerby in the blind spot via the mirror 7, it is when there is an optical path from the autonomous moving body 1 to the passerby via the mirror 7. That is, the notification unit 16 can notify a passerby of the approach of the autonomous mobile body 1 by using visible light propagating in the optical path. As a result, contact between the passerby and the autonomous mobile body 1 is avoided.
  • Embodiment 3 In the third embodiment, the differences from the examples disclosed in the first embodiment or the second embodiment will be described in detail. As for the features not described in the third embodiment, any of the features of the examples disclosed in the first embodiment or the second embodiment may be adopted.
  • the movement support device 11 according to the third embodiment estimates the position information of the mirror 7 from the measurement result of the distance sensor 2.
  • 6 and 7 are diagrams showing an example of mirror position estimation of the movement support device according to the third embodiment.
  • the thick line indicates a set of points whose distance is detected by the distance sensor 2.
  • the thin alternate long and short dash line indicates the apparent optical path of the light incident on the reflecting portion 8 of the mirror 7.
  • the thick alternate long and short dash line indicates the apparent position of the virtual image 9 of the object 4 reflected on the reflecting portion 8 of the mirror 7.
  • FIG. 6 shows the autonomous mobile body 1 in a place where the mirror 7 is not provided.
  • the set of points whose distance is detected by the distance sensor 2 represents the surface of the object 4 that actually exists in the moving environment.
  • the detection unit 14 can estimate the width W of the passage in the moving environment based on the feature amount such as the position where the set of points is discontinuously interrupted or the position where the set of points is bent.
  • the autonomous mobile body 1 at the place where the mirror 7 is provided is shown.
  • the reflecting portion 8 of the mirror 7 is provided integrally with the wall surface of the passage.
  • the set of points whose distance is detected by the distance sensor 2 includes a portion representing the apparent position of the virtual image 9 reflected on the mirror 7.
  • the detection unit 14 first estimates the state of the moving environment on the assumption that the mirror 7 is not provided. In this case, the detection unit 14 detects two passages arranged in parallel with a width W equal to each other based on the feature amount of the set of points whose distance is detected by the distance sensor 2. In this example, one of the two passages is an apparent passage detected based on the virtual image 9 reflected on the reflecting portion 8 of the mirror 7.
  • the thickness of the reflecting portion 8 can be practically ignored in the movement support of the autonomous moving body 1. Therefore, the apparent passages detected based on the virtual image 9 and the passages that actually exist are closely aligned.
  • the detection unit 14 can determine whether or not one of the two passages arranged in parallel is an apparent passage. The detection unit 14 estimates the position of the mirror 7, assuming that the boundary surface between the apparent passage and the actual passage is the reflection unit 8 of the mirror 7, for example.
  • the detection unit 14 corrects the protrusion amount based on the set of points detected by the distance sensor 2 when the reflection portion 8 of the mirror 7 projects from the wall surface of the passage toward the passage side, and then mirrors.
  • the position of the reflecting portion 8 of 7 may be estimated.
  • the detection unit 14 corrects the buried amount based on the set of points detected by the distance sensor 2, and then the mirror 7
  • the position of the reflecting portion 8 of the above may be estimated. Further, the detection unit 14 may estimate the position of the reflection unit 8 by another estimation model based on the distance measured by the distance sensor 2 when the reflection unit 8 of the mirror 7 is not parallel to the wall surface of the passage.
  • the detection unit 14 of the movement support device 11 detects the position information of the mirror 7 based on the distance measured by the distance sensor 2.
  • the detection unit 14 can estimate the position of the mirror 7 even when the map information is not distributed. Further, even when the distributed map information does not reflect the current situation, the detection unit 14 can estimate the current position of the mirror 7.
  • the detection unit 14 may correct the position information of the mirror 7 included in the distributed map information based on the distance measured by the distance sensor 2.
  • the distributed map information may include only the position of the mirror 7. At this time, the detection unit 14 may estimate the direction of the reflection unit 8 of the mirror 7 based on the distance measured by the distance sensor 2.
  • Embodiment 4 In the fourth embodiment, the differences from the examples disclosed in the first to third embodiments will be described in detail. As for the features not described in the fourth embodiment, any of the features of the examples disclosed in the first to third embodiments may be adopted.
  • FIG. 8 is a diagram showing an example of object detection of the movement support device 11 according to the fourth embodiment.
  • the reflecting portion 8 of the mirror 7 shown in FIG. 8 is a surface that reflects incident light so as to diverge it.
  • the reflecting portion 8 of the mirror 7 is, for example, a convex surface.
  • the reflecting portion 8 of the mirror 7 may have, for example, a Fresnel lens structure.
  • the virtual image 9 reflected on the reflecting portion 8 of the mirror 7 is a distorted image from the shape of the actual object 4.
  • the detection unit 14 corrects the distortion of the virtual image 9 and detects the position information of the object 4 based on the information such as the attribute of the mirror 7 included in the map information.
  • the attributes of the mirror 7 are, for example, the curvature of the reflecting unit 8, the focal length, or parameters optically equivalent to these.
  • the detection unit 14 may treat, for example, the mirror 7 as a collection of local plane mirrors. At this time, the attribute of the mirror 7 may be, for example, the distribution of the position and direction of the local plane mirror in the mirror 7. The detection unit 14 may detect the position information of the object 4 assuming that the light of the distance sensor 2 is reflected by the local plane mirror.
  • the detection unit 14 of the movement support device 11 reflects the incident light of the mirror 7 so as to diverge the incident light, so that the virtual image of the object 4 projected by the mirror 7 is projected.
  • the distortion of the virtual image 9 is corrected to detect the position information of the object 4 in the real space.
  • the movement support device 11 can detect the object 4 by the mirror 7 that widens the field of view of the blind spot. Therefore, the movement support device 11 can more reliably detect the object 4 in the blind spot.
  • the detection unit 14 corrects the distortion of the virtual image 9 and corrects the distortion of the object 4 in the real space. Detect location information.
  • the movement support device 11 can more reliably detect the object 4 in the blind spot while suppressing the increase in the thickness of the mirror 7.
  • Embodiment 5 In the fifth embodiment, the differences from the examples disclosed in the first to fourth embodiments will be described in detail. As for the features not described in the fifth embodiment, any of the features of the examples disclosed in the first to fourth embodiments may be adopted.
  • the movement support device 11 according to the fifth embodiment is equipped with a function of correcting the position of the autonomous mobile body 1.
  • FIG. 9 is a diagram showing an example of correction of the position of the autonomous moving body by the movement support device according to the fifth embodiment.
  • the detection unit 14 detects the autonomous mobile body 1 itself.
  • the detection unit 14 can determine that the object 4 whose apparent position moves symmetrically with the autonomous moving body 1 is the autonomous moving body 1 itself. That is, the detection unit 14 can directly detect the position information of the autonomous moving body 1 by the position information of the mirror 7 and the measurement by the distance sensor 2.
  • the output unit 15 outputs the detected position information of the autonomous mobile body 1 to the autonomous mobile body 1.
  • the autonomous mobile body 1 corrects its own position based on the input position information.
  • the output unit 15 of the movement support device 11 corrects based on the apparent distance of the autonomous moving body 1 projected by the mirror 7 from the virtual image 9 and the position information of the mirror 7.
  • the position information of the autonomous moving body 1 is output to the autonomous moving body 1.
  • the position information of the autonomous moving body 1 can be easily corrected based on the position of the installed mirror 7.
  • the detection unit 14 When detecting the position information of the mirror 7 based on the distance measured by the distance sensor 2, the detection unit 14 includes the position information and the position information of the mirror 7 included in the map information stored in the map storage unit 12. May be compared.
  • the difference between the detected position information of the mirror 7 and the position information of the mirror 7 included in the map information is due to an error in the position information of the autonomous moving body 1. Therefore, the position information of the autonomous moving body 1 can be corrected based on the difference. For example, when the difference is resolved by a transformation involving translation or rotation, the position information of the autonomous mobile body 1 is corrected by the transformation.
  • the output unit 15 may output the corrected position information of the autonomous mobile body 1 to the autonomous mobile body 1.
  • the autonomous mobile body 1 may correct its own position based on the position information of the autonomous mobile body 1 itself detected by the detection unit 14.
  • the autonomous moving body 1 may perform a preset operation for self-position correction in front of the mirror 7.
  • the movement is, for example, movement or change in posture.
  • the autonomous mobile body according to the present invention can be applied to services provided by moving in a mobile environment.
  • the movement support device according to the present invention can be applied to support the movement of an autonomous mobile body.
  • the map information distribution device according to the present invention can be applied to an autonomous mobile body or distribution of map information to a moving body.
  • 1 autonomous moving body 2 distance sensor, 3 control unit, 4 object, 5 light emitting unit, 6 light receiving unit, 7 mirror, 8 reflecting unit, 9 virtual image, 10 map information distribution device, 11 movement support device, 12 map storage unit, 13 position acquisition unit, 14 detection unit, 15 output unit, 16 notification unit

Abstract

死角にある物体との距離を検出できる自律移動体の移動支援装置ならびに自律移動体、および当該移動支援装置または当該自律移動体に地図情報を配信する地図情報配信装置を提供する。移動支援装置(11)は、出力部(15)と、検出部(14)と、を備える。出力部(15)は、自律移動体(1)に、移動環境において検出される物体(4)の位置情報を出力する。自律移動体(1)は、距離センサー(2)が測定した移動環境における物体(4)との距離に基づいて移動環境を移動する。距離センサー(2)は、当該距離センサー(2)が発する光と当該光の反射光によって距離を測定する。検出部(14)は、移動環境に配置されるミラー(7)が映す物体(4)の虚像(9)との見かけの距離を距離センサー(2)が測定するときに、当該ミラー(7)の位置情報に基づいて出力部(15)が自律移動体(1)に出力する当該物体(4)の実空間の位置情報を検出する。

Description

自律移動体の移動支援装置、自律移動体、および地図情報配信装置
 本発明は、自律移動体の移動支援装置、自律移動体、および地図情報配信装置に関する。
 特許文献1は、車両用走行支援装置の例を開示する。車両用走行支援装置は、画像処理によって、カーブミラーに映った死角物体を検出する。
日本特開2006-199055号公報
 しかしながら、特許文献1の車両用走行支援装置は、死角物体と車両との距離を死角物体の標準寸法に基づいて算出する。このため、当該車両用走行支援装置を自律移動体の移動支援に適用する場合に、既知でない死角物体について距離を算出できない。
 本発明は、このような課題を解決するためになされた。本発明の目的は、死角にある物体との距離を検出できる自律移動体の移動支援装置ならびに自律移動体、および当該移動支援装置または当該自律移動体に地図情報を配信する地図情報配信装置を提供することである。
 本発明に係る自律移動体の移動支援装置は、距離センサーが発する光と当該光の反射光によって当該距離センサーが測定した移動環境における物体との距離に基づいて移動環境を移動する自律移動体に、移動環境において検出される物体の位置情報を出力する出力部と、移動環境に配置されるミラーが映す物体の虚像との見かけの距離を距離センサーが測定するときに、当該ミラーの位置情報に基づいて出力部が自律移動体に出力する当該物体の実空間の位置情報を検出する検出部と、を備える。
 本発明に係る自律移動体は、距離センサーが発する光と当該光の反射光によって当該距離センサーが測定した移動環境における物体との距離に基づいて移動環境を移動する自律移動体であり、移動環境に配置されるミラーが映す物体の虚像との見かけの距離を距離センサーが測定するときに、当該ミラーの位置情報に基づいて当該物体の実空間の位置情報を検出する検出部を備える。
 本発明に係る地図情報配信装置は、距離センサーが発する光と当該光の反射光によって当該距離センサーが測定した移動環境における物体との距離に基づいて移動環境を移動する自律移動体に移動環境において検出される物体の位置情報を出力する出力部と、移動環境に配置されるミラーが映す物体の虚像との見かけの距離を距離センサーが測定するときに当該ミラーの位置情報に基づいて出力部が自律移動体に出力する当該物体の実空間の位置情報を検出する検出部と、を備える自律移動体の移動支援装置に、移動環境におけるミラーの位置情報が含まれる移動環境の地図情報を配信する。
 本発明に係る地図情報配信装置は、距離センサーが発する光と当該光の反射光によって当該距離センサーが測定した移動環境における物体との距離に基づいて移動環境を移動する自律移動体であり、移動環境に配置されるミラーが映す物体の虚像との見かけの距離を距離センサーが測定するときに当該ミラーの位置情報に基づいて当該物体の実空間の位置情報を検出する検出部を備える自律移動体に、移動環境におけるミラーの位置情報が含まれる移動環境の地図情報を配信する。
 本発明によれば、自律移動体は、距離センサーが測定した移動環境における物体との距離に基づいて移動環境を移動する。距離センサーは、当該距離センサーが発する光と当該光の反射光によって距離を測定する。検出部は、移動環境に配置されるミラーが映す物体の虚像との見かけの距離を距離センサーが測定するときに、当該ミラーの位置情報に基づいて当該物体の実空間の位置情報を検出する。これにより、死角にある物体との距離が検出される。
実施の形態1に係る移動支援装置の構成図である。 実施の形態1に係る移動支援装置の物体検出の例を示す図である。 実施の形態1に係る移動支援装置の物体検出の例を示す図である。 実施の形態1に係る移動支援装置の主要部のハードウェア構成を示す図である。 実施の形態2に係る移動支援装置の報知の例を示す図である。 実施の形態3に係る移動支援装置のミラー位置推定の例を示す図である。 実施の形態3に係る移動支援装置のミラー位置推定の例を示す図である。 実施の形態4に係る移動支援装置の物体検出の例を示す図である。 実施の形態5に係る移動支援装置の移動体の位置の補正の例を示す図である。
 本発明を実施するための形態について添付の図面を参照しながら説明する。各図において、同一または相当する部分には同一の符号を付して、重複する説明は適宜に簡略化または省略する。
 実施の形態1.
 図1は、実施の形態1に係る移動支援装置の構成図である。
 図1に示される自律移動体1は、移動環境を移動する機器である。移動環境は、例えば建築物の内部または外部の空間である。自律移動体1は、例えば車両またはロボットなどの自律的に移動する機器である。ここで、自律移動体1は、例えばオペレーターなどによる目的地などを指定する操作に基づいて、当該目的地までの移動を自律的に行う機器であってもよい。あるいは、自律移動体1は、自律的に判定した目的地までの移動を自律的に行う機器であってもよい。自律移動体1は、距離センサー2と、制御部3と、を備える。
 距離センサー2は、自律移動体1と自律移動体1の周囲の物体4との距離を検出する機器である。距離センサー2は、例えば2次元または3次元のLiDAR(Light Detection and Ranging)の機器である。距離センサー2は、発光部5と、受光部6と、を備える。発光部5は、光を発する部分である。発光部5が発する光は、例えばレーザー光である。発光部5が発する光は、例えば可視光から赤外線程度の波長の光である。受光部6は、発光部5が発した光の反射光を検知する部分である。距離センサー2による距離の検出は、発光部5が発する光と受光部6に入射する当該光の反射光との例えば位相差または時間差などに基づいて行われる。自律移動体1の周囲の物体4は、例えば建築物の壁または柱などの構造物、人物、または他の自律移動体1などの装置もしくは機器などである。
 制御部3は、距離センサー2が検出した距離に基づいて、自律移動体1の動作を制御する部分である。自律移動体1の動作は、例えば自律移動体1の走行などである。
 図1に示されるように、移動環境において、ミラー7が設けられる。ミラー7は、例えば平面鏡である。ミラー7は、例えば移動環境において曲がり角または通路の合流部などの死角が生じうる場所に設けられる。ミラー7は、光を反射する反射部8を有する。ミラー7の反射部8において、当該反射部8を臨む物体4の虚像9が映される。図1において、虚像9の見かけの位置が示される。
 図1に示される地図情報配信装置10は、地図情報を配信する装置である。地図情報は、例えば建築物の壁もしくは柱などの構造物の位置、またはミラー7の位置情報を含む。ミラー7の位置情報は、例えばミラー7が配置される場所およびミラー7の反射部8の角度の情報などを含む。地図情報は、ミラー7の属性の情報を含んでもよい。ミラー7の属性の情報は、例えばミラー7の大きさおよびミラー7の種類の情報を含む。地図情報配信装置10は、例えば自律移動体1が移動する建築物に設けられる。地図情報配信装置10は、例えばサーバーコンピューターである。この例において、地図情報配信装置10が配信する地図情報は、例えば建築物の所有者または管理者などが所有する設計情報などに基づいて、予め生成されている。地図情報配信装置10は、例えば予め設定された時間間隔で地図情報を配信する。なお、地図情報配信装置10が配信する地図情報は、例えばSLAM(Simultaneous Localization and Mapping)の手法などによって自律移動体1に生成されたものであってもよい。このとき、例えば地図情報配信装置10は、当該地図情報を生成した自律移動体1と異なる自律移動体1に地図情報を配信してもよい。
 移動支援装置11は、自律移動体1の移動を支援する装置である。この例において、移動支援装置11は、自律移動体1に載せられている。移動支援装置11は、自律移動体1とともに移動する。移動支援装置11は、地図記憶部12と、位置取得部13と、検出部14と、出力部15と、を備える。
 地図記憶部12は、移動環境の地図情報を記憶する部分である。地図記憶部12は、地図情報配信装置10が配信する地図情報を例えば無線通信によって取得しうるように、地図情報配信装置10に接続される。なお、地図記憶部12は、例えばSLAMの手法などによって自律移動体1自身が生成した地図情報を記憶してもよい。
 位置取得部13は、自律移動体1の位置の情報を取得する部分である。位置取得部13は、例えば自律移動体1が推定する自己位置を自律移動体1から取得する。あるいは、移動支援装置11が自律移動体1とともに移動する場合に、位置取得部13は、例えばGPS(Global Positioning System)などの衛星測位システムまたは屋内測位システムなどによって取得する自己位置を自律移動体1の位置としてもよい。あるいは、移動支援装置11が自律移動体1とともに移動する場合に、位置取得部13は、例えば加速度センサーなどに基づく自律航法によって取得する自己位置を自律移動体1の位置としてもよい。
 検出部14は、自律移動体1の周囲の物体4を検出する部分である。
 出力部15は、検出部14が検出した物体4の位置情報を自律移動体1に出力する部分である。
 続いて、図2および図3を用いて、検出部14による物体4の検出の例を説明する。
 図2および図3は、実施の形態1に係る移動支援装置の物体検出の例を示す図である。
 図2において、太線は、距離センサー2によって距離が検出された点の集合を示す。図2において、細い一点鎖線は、ミラー7の反射部8に入射した光の見かけの光路を示す。図2において、太い一点鎖線は、ミラー7の反射部8に映る物体4の虚像9の見かけの位置を示す。物体4の虚像9の見かけの位置は、ミラー7の反射部8に関して当該物体4と面対称な位置である。
 検出部14は、自律移動体1の距離センサー2から自律移動体1の周囲の物体4との距離の情報を取得する。ここで、距離センサー2は、距離センサー2および物体4の間において直接伝播する光と、距離センサー2および物体4の間においてミラー7の反射部8によって反射されて伝播する光とを判別しない。このため、距離センサー2は、距離センサー2の発光部5がミラー7の反射部8に向けられているときに、反射部8に映る物体4の虚像9との見かけの距離を測定する。
 一方、図3に示されるように、発光部5が発する光が実際に伝播する光路は、ミラー7の反射部8において反射する光路である。ミラー7の反射部8で反射された光は、物体4の表面において反射する。物体4の表面において反射した光は、再びミラー7の反射部8において反射する。ミラー7の反射部8で再び反射した反射光は、距離センサー2の受光部6に入射する。
 ここで、検出部14は、位置取得部13が取得する自己位置と、ミラー7の位置情報とに基づいて、距離センサー2と、見かけの距離が測定された虚像9との間にミラー7の反射部8があるかを判定する。ミラー7の反射部8があると判定される場合に、検出部14は、ミラー7の反射部8に関して当該虚像9と面対称な位置にある物体4の実空間上の位置情報を決定する。すなわち、検出部14は、距離センサー2によって距離が検出された点が見かけの位置にある点であると判定する場合に、当該点をミラー7の反射部8に関して反転させた位置の点であると決定する。
 出力部15は、検出部14が検出した物体4の位置情報を自律移動体1に出力する。
 自律移動体1の制御部3は、出力部15から入力された物体4の位置情報に基づいて、自律移動体1の移動を制御する。
 以上に説明したように、実施の形態1に係る移動支援装置11は、出力部15と、検出部14と、を備える。出力部15は、自律移動体1に移動環境において検出される物体4の位置情報を出力する。自律移動体1は、距離センサー2が測定した移動環境における物体4との距離に基づいて移動環境を移動する。距離センサー2は、当該距離センサー2が発する光と当該光の反射光によって距離を測定する。検出部14は、ミラー7が映す物体4の虚像9との見かけの距離を距離センサー2が測定するときに、当該ミラー7の位置情報に基づいて出力部15が自律移動体1に出力する当該物体4の実空間の位置情報を検出する。ミラー7は、移動環境に配置される。
 検出部14は、距離センサー2によって、ミラー7を介して物体4を検出する。このため、検出部14は、物体4との距離の検出に当該物体4の標準寸法を必要としない。検出部14は、ミラー7を介して間接的に物体4を検出する。このため、検出部14は、死角にある物体4を検出できる。これにより、移動支援装置11は、死角にある物体4との位置関係を検出できる。ここで、物体4との位置関係は、物体4との間の距離および方向を含む。また、距離センサー2は、光によって距離を測定する。これにより、移動支援装置11は、物体4の形状を精度よく認識できる。
 また、移動支援装置11は、地図記憶部12を備える。地図記憶部12は、移動環境の地図情報を記憶する。移動環境の地図情報は、移動環境におけるミラー7の位置情報を含む。検出部14は、地図情報に基づいてミラー7が虚像9を映す物体4の実空間の位置情報を検出する。また、実施の形態1に係る地図情報配信装置10は、移動環境の地図情報を移動支援装置11に配信する。
 検出部14は、物体4の検出において、予め生成されている地図情報が含むミラー7の位置情報を利用する。これにより、検出部14は、ミラー7の位置を確実に認識できる。このため、検出部14は、安定して物体4を検出できる。
 なお、出力部15は、ミラー7の位置情報に基づいて、移動の制限速度を変える指令を自律移動体1に出力してもよい。
 ミラー7は、例えば移動環境において死角が生じうる場所に設けられる。このとき、ミラー7が設けられる場所は、自律移動体1と物体4との衝突の可能性が相対的に高い場所である。出力部15は、ミラー7の位置情報に基づいて例えば自律移動体1がミラー7に接近していると判定するときに、移動の制限速度を例えば低く変える指令を自律移動体1に出力する。このとき、自律移動体1は、衝突の可能性が相対的に高い場所において、相対的に低い制限速度のもとで移動する。これにより、自律移動体1からの死角において物体4が検出された場合に、自律移動体1は衝突を回避しやすくなる。
 また、出力部15は、検出部14が検出した物体4の位置情報に基づいて、移動を制御する制御信号を自律移動体1に出力してもよい。
 このとき、移動支援装置11は、制御信号の出力によって自律移動体1を直接制御する。この例において、自律移動体1は、死角にある物体4を認識して衝突を回避する機能を搭載していない。この場合においても、移動支援装置11は、自律移動体1と物体4との衝突を回避できる。
 なお、検出部14は、自律移動体1に設けられてもよい。自律移動体1は、距離センサー2が測定した移動環境における物体4との距離に基づいて移動環境を移動する。距離センサー2は、当該距離センサー2が発する光と当該光の反射光によって距離を測定する。自律移動体1は、検出部14を備える。検出部14は、ミラー7が映す物体4の虚像9との見かけの距離を距離センサー2が測定するときに、当該ミラー7の位置情報に基づいて当該物体4の実空間の位置情報を検出する。ミラー7は、移動環境に配置される。
 また、地図情報配信装置10は、検出部14を備える自律移動体1に地図情報を配信してもよい。
 このとき、自律移動体1の制御部3は、検出部14が検出した物体4の位置情報に基づいて、自律移動体1の移動を制御する。なお、自律移動体1の制御部3は、ミラー7の位置情報に基づいて、移動の制限速度を変えてもよい。
 また、移動支援装置11は、距離センサー2を備えてもよい。移動支援装置11の距離センサー2は、当該距離センサー2が発する光と当該光の反射光によって、移動環境における物体4との距離を測定する。移動支援装置11は、移動支援装置11の距離センサー2が測定する距離に基づいて、ミラー7の反射部8に虚像9が映る物体4の実空間の位置情報を検出してもよい。
 また、移動支援装置11は、自律移動体1と例えば無線によって通信する装置であってもよい。このとき、移動支援装置11は、例えば建築物に設置されるサーバーコンピューターである。移動支援装置11は、複数の自律移動体1の各々と無線によって通信してもよい。
 続いて、図4を用いて移動支援装置11のハードウェア構成の例について説明する。
 図4は、実施の形態1に係る移動支援装置の主要部のハードウェア構成を示す図である。
 移動支援装置11の各機能は、処理回路により実現し得る。処理回路は、少なくとも1つのプロセッサ11bと少なくとも1つのメモリ11cとを備える。処理回路は、プロセッサ11bおよびメモリ11cと共に、あるいはそれらの代用として、少なくとも1つの専用のハードウェア11aを備えてもよい。
 処理回路がプロセッサ11bとメモリ11cとを備える場合、移動支援装置11の各機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせで実現される。ソフトウェアおよびファームウェアの少なくとも一方は、プログラムとして記述される。そのプログラムはメモリ11cに格納される。プロセッサ11bは、メモリ11cに記憶されたプログラムを読み出して実行することにより、移動支援装置11の各機能を実現する。
 プロセッサ11bは、CPU(Central Processing Unit)、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSPともいう。メモリ11cは、例えば、RAM、ROM、フラッシュメモリ、EPROM、EEPROM等の、不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD等により構成される。
 処理回路が専用のハードウェア11aを備える場合、処理回路は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGA、またはこれらの組み合わせで実現される。
 移動支援装置11の各機能は、それぞれ処理回路で実現することができる。あるいは、移動支援装置11の各機能は、まとめて処理回路で実現することもできる。移動支援装置11の各機能について、一部を専用のハードウェア11aで実現し、他部をソフトウェアまたはファームウェアで実現してもよい。このように、処理回路は、ハードウェア11a、ソフトウェア、ファームウェア、またはこれらの組み合わせで移動支援装置11の各機能を実現する。
 実施の形態2.
 実施の形態2では、実施の形態1で開示された例と相違する点について詳しく説明する。実施の形態2で説明しない特徴については、実施の形態1で開示された例のいずれの特徴が採用されてもよい。
 移動環境において、通行人が移動している。通行人は、移動環境における物体4の例である。実施の形態2に係る移動支援装置11は、通行人に自律移動体1の接近を報知する。
 図5は、実施の形態2に係る移動支援装置の報知の例を示す図である。
 移動支援装置11は、報知部16を備える。報知部16は、例えば自律移動体1の前面に設けられる。あるいは、移動支援装置11が自律移動体1とともに移動する場合に、報知部16は、移動支援装置11の前面に設けられてもよい。報知部16は、例えば可視光を発するライトである。
 図5において、通行人は、自律移動体1の死角を通行している。このとき、自律移動体1は、通行人の死角にあることが多い。
 移動支援装置11は、ミラー7を介して死角を通行する通行人を移動環境における物体4として検出する。報知部16は、ミラー7を介して物体4を検出するときに、当該ミラー7の反射部8に向けて例えば可視光を発する。ミラー7の反射部8において反射した可視光は、通行人まで伝播する。なお、報知部16は、可視光の発光と合わせて音声による報知を行ってもよい。
 通行人は、ミラー7の反射部8で反射した可視光を認識する。通行人は、可視光を認識することで、通行人の死角からの自律移動体1の接近を認識する。
 以上に説明したように、実施の形態2に係る移動支援装置11は、報知部16を備える。報知部16は、ミラー7に向けて可視光を照射することによって移動環境にいる者に自律移動体1の接近を報知する。
 検出部14がミラー7を介して死角にいる通行人を検出できるときは、自律移動体1からミラー7を介して通行人に至る光路があるときである。すなわち、報知部16は、当該光路を伝播する可視光を用いることで自律移動体1の接近を通行人に報知できる。これにより、通行人と自律移動体1との接触などが回避される。
 実施の形態3.
 実施の形態3では、実施の形態1または実施の形態2で開示された例と相違する点について詳しく説明する。実施の形態3で説明しない特徴については、実施の形態1または実施の形態2で開示された例のいずれの特徴が採用されてもよい。
 実施の形態3に係る移動支援装置11は、ミラー7の位置情報を距離センサー2の測定結果から推定する。
 図6および図7は、実施の形態3に係る移動支援装置のミラー位置推定の例を示す図である。
 図6および図7において、太線は、距離センサー2によって距離が検出された点の集合を示す。図7において、細い一点鎖線は、ミラー7の反射部8に入射した光の見かけの光路を示す。図7において、太い一点鎖線は、ミラー7の反射部8に映る物体4の虚像9の見かけの位置を示す。
 図6において、ミラー7が設けられない場所にある自律移動体1が示される。距離センサー2によって距離が検出された点の集合は、移動環境において実際に存在する物体4の表面を表している。このとき、検出部14は、当該点の集合が不連続に途切れる位置、または当該点の集合が折れ曲がる位置などの特徴量に基づいて、移動環境における通路の幅Wを推定できる。
 一方、図7において、ミラー7が設けられる場所にある自律移動体1が示される。この例において、ミラー7の反射部8は、通路の壁面と一体に設けられる。距離センサー2によって距離が検出された点の集合は、ミラー7に映る虚像9の見かけの位置を表す部分を含む。ここで、検出部14は、まずミラー7が設けられていないと仮定して移動環境の状況を推定する。この場合において、検出部14は、距離センサー2によって距離が検出された点の集合の特徴量に基づいて、互いに等しい幅Wで平行に並ぶ2本の通路を検出する。この例において、当該2本の通路のうちの一本は、ミラー7の反射部8に映る虚像9に基づいて検出された見かけの通路である。反射部8の厚さは、自律移動体1の移動支援において実用上無視できる。このため、虚像9に基づいて検出された見かけの通路および実際に存在する通路は、密着して並ぶ。ここで、仮に平行に並ぶ2本の通路がともに実際に存在する通路である場合に、当該2本の通路を隔てる壁などは有限の厚さを持つ。このため、検出部14は、平行に並ぶ2本の通路のうちの一本が見かけの通路であるか否かを判別できる。検出部14は、例えば見かけの通路と実際の通路との境界面がミラー7の反射部8であるとして、ミラー7の位置を推定する。
 なお、検出部14は、ミラー7の反射部8が通路の壁面より通路側に突出している場合に、距離センサー2によって検出された点の集合に基づいて、突出量の補正をした上でミラー7の反射部8の位置を推定してもよい。検出部14は、ミラー7の反射部8が通路の壁面より壁側に埋没している場合に、距離センサー2によって検出された点の集合に基づいて、埋没量の補正をした上でミラー7の反射部8の位置を推定してもよい。また、検出部14は、ミラー7の反射部8が通路の壁面に平行でない場合に、距離センサー2が測定する距離に基づく他の推定モデルによって反射部8の位置を推定してもよい。
 以上に説明したように、実施の形態3に係る移動支援装置11の検出部14は、距離センサー2が測定する距離に基づいてミラー7の位置情報を検出する。
 これにより、地図情報が配信されていない場合においても、検出部14は、ミラー7の位置を推定できる。また、配信された地図情報が現状を反映していない場合においても、検出部14は、現状のミラー7の位置を推定できる。なお、検出部14は、配信された地図情報に含まれるミラー7の位置情報を、距離センサー2が測定する距離に基づいて補正してもよい。配信される地図情報は、ミラー7の位置のみを含んでもよい。このとき、検出部14は、距離センサー2が測定する距離に基づいて、当該ミラー7の反射部8の向きを推定してもよい。
 実施の形態4.
 実施の形態4では、実施の形態1から実施の形態3で開示された例と相違する点について詳しく説明する。実施の形態4で説明しない特徴については、実施の形態1から実施の形態3で開示された例のいずれの特徴が採用されてもよい。
 図8は、実施の形態4に係る移動支援装置11の物体検出の例を示す図である。
 図8に示されるミラー7の反射部8は、入射する光を発散させるように反射する面である。ミラー7の反射部8は、例えば凸状の面である。ミラー7の反射部8は、例えばフレネルレンズ構造を有してもよい。このとき、ミラー7の反射部8に映る虚像9は、実際の物体4の形状から歪んだ像となる。ここで、検出部14は、例えば地図情報に含まれるミラー7の属性などの情報に基づいて、虚像9の歪みを補正して物体4の位置情報を検出する。ミラー7の属性は、例えば反射部8の曲率、焦点距離、または光学的にこれらと等価なパラメーターなどである。
 検出部14は、例えばミラー7を局所的な平面鏡の集まりとして取り扱ってもよい。このとき、ミラー7の属性は、例えばミラー7における局所的な平面鏡の位置および方向の分布であってもよい。検出部14は、局所的な平面鏡によって距離センサー2の光が反射されたものとして、物体4の位置情報を検出してもよい。
 以上に説明したように、実施の形態4に係る移動支援装置11の検出部14は、ミラー7の反射部8が入射する光を発散させるように反射することでミラー7が映す物体4の虚像9が歪む場合に、当該虚像9の歪みを補正して当該物体4の実空間の位置情報を検出する。
 これにより、移動支援装置11は、死角の視野を広げるミラー7によって物体4を検出できる。このため、移動支援装置11は、より確実に死角の物体4を検出できる。
 また、検出部14は、ミラー7の反射部8がフレネルレンズ構造を有することでミラー7が映す物体4の虚像9が歪む場合に、虚像9の歪みを補正して当該物体4の実空間の位置情報を検出する。
 これにより、移動支援装置11は、ミラー7の厚さが厚くなることを抑えながら、より確実に死角の物体4を検出できる。
 実施の形態5.
 実施の形態5では、実施の形態1から実施の形態4で開示された例と相違する点について詳しく説明する。実施の形態5で説明しない特徴については、実施の形態1から実施の形態4で開示された例のいずれの特徴が採用されてもよい。
 実施の形態5に係る移動支援装置11は、自律移動体1の位置を補正する機能を搭載する。
 図9は、実施の形態5に係る移動支援装置による自律移動体の位置の補正の例を示す図である。
 自律移動体1がミラー7の反射部8に対向するときに、ミラー7の反射部8は当該自律移動体1の虚像9を映すことがある。このとき、検出部14は、当該自律移動体1自身を検出する。自律移動体1が移動環境において移動するときに、当該自律移動体1の虚像9の見かけの位置はミラー7の反射部8に関して面対称に移動する。このため、検出部14は、見かけの位置が自律移動体1と対称に移動する物体4を当該自律移動体1自身であると判定できる。すなわち、検出部14は、ミラー7の位置情報および距離センサー2による測定によって、自律移動体1の位置情報を直接検出できる。このとき、出力部15は、検出された自律移動体1の位置情報を、当該自律移動体1に出力する。自律移動体1は、入力された位置情報に基づいて、自己の位置を補正する。
 以上に説明したように、実施の形態5に係る移動支援装置11の出力部15は、ミラー7が映す自律移動体1の虚像9との見かけの距離および当該ミラー7の位置情報に基づいて補正された当該自律移動体1の位置情報を、当該自律移動体1に出力する。
 これにより、設置されたミラー7の位置を基準とした自律移動体1の位置情報の補正が容易にできる。
 なお、距離センサー2が測定する距離に基づいてミラー7の位置情報を検出するときに、検出部14は、当該位置情報と地図記憶部12が記憶する地図情報に含まれるミラー7の位置情報とを比較してもよい。ここで、検出されたミラー7の位置情報と地図情報に含まれるミラー7の位置情報との差異は、自律移動体1の位置情報の誤差に起因する。このため、自律移動体1の位置情報を当該差異に基づいて補正することができる。例えば当該差異が並進または回転を含む変換によって解消されるときに、自律移動体1の位置情報は、当該変換によって補正される。出力部15は、補正された自律移動体1の位置情報を、当該自律移動体1に出力してもよい。
 また、自律移動体1が検出部14を備えるときに、自律移動体1は、検出部14が検出した当該自律移動体1自身の位置情報に基づいて、自己の位置を補正してもよい。
 また、自律移動体1は、ミラー7の前で自己位置補正のための予め設定された動作を行ってもよい。当該動作は、例えば移動または姿勢の変化である。
 本発明に係る自律移動体は、移動環境を移動することにより提供されるサービスに適用できる。本発明に係る移動支援装置は、自律移動体の移動の支援に適用できる。本発明に係る地図情報配信装置は、自律移動体または移動体への地図情報の配信に適用できる。
 1 自律移動体、 2 距離センサー、 3 制御部、 4 物体、 5 発光部、 6 受光部、 7 ミラー、 8 反射部、 9 虚像、 10 地図情報配信装置、 11 移動支援装置、 12 地図記憶部、 13 位置取得部、 14 検出部、 15 出力部、 16 報知部

Claims (13)

  1.  距離センサーが発する光と当該光の反射光によって当該距離センサーが測定した移動環境における物体との距離に基づいて前記移動環境を移動する自律移動体に、前記移動環境において検出される物体の位置情報を出力する出力部と、
     前記移動環境に配置されるミラーが映す物体の虚像との見かけの距離を前記距離センサーが測定するときに、当該ミラーの位置情報に基づいて前記出力部が前記自律移動体に出力する当該物体の実空間の位置情報を検出する検出部と、
     を備える自律移動体の移動支援装置。
  2.  前記移動環境における前記ミラーの位置情報が含まれる前記移動環境の地図情報を記憶する地図記憶部
     を備え、
     前記検出部は、前記地図情報に基づいて前記ミラーが虚像を映す物体の実空間の位置情報を検出する
     請求項1に記載の自律移動体の移動支援装置。
  3.  前記検出部は、前記距離センサーが測定する距離に基づいて前記ミラーの位置情報を検出する
     請求項1または請求項2に記載の自律移動体の移動支援装置。
  4.  前記検出部は、前記ミラーの反射部が入射する光を発散させるように反射することで前記ミラーが映す物体の虚像が歪む場合に、当該虚像の歪みを補正して当該物体の実空間の位置情報を検出する
     請求項1から請求項3のいずれか一項に記載の自律移動体の移動支援装置。
  5.  前記検出部は、前記ミラーの反射部がフレネルレンズ構造を有することで前記ミラーが映す物体の虚像が歪む場合に、当該虚像の歪みを補正して当該物体の実空間の位置情報を検出する
     請求項4に記載の自律移動体の移動支援装置。
  6.  前記出力部は、前記ミラーの位置情報に基づいて、移動の制限速度を変える指令を前記自律移動体に出力する
     請求項1から請求項5のいずれか一項に記載の自律移動体の移動支援装置。
  7.  前記ミラーに向けて可視光を照射することによって前記移動環境にいる者に前記自律移動体の接近を報知する報知部
     を備える請求項1から請求項6のいずれか一項に記載の自律移動体の移動支援装置。
  8.  前記出力部は、前記ミラーが映す前記自律移動体の虚像との見かけの距離および当該ミラーの位置情報に基づいて補正された当該自律移動体の位置情報を、当該自律移動体に出力する
     請求項1から請求項7のいずれか一項に記載の自律移動体の移動支援装置。
  9.  前記検出部は、前記距離センサーが測定する距離に基づいて前記ミラーの位置情報を検出し、
     前記出力部は、前記検出部が検出した前記ミラーの位置情報、および前記地図情報に含まれる前記ミラーの位置情報の差異に基づいて補正された前記自律移動体の位置情報を、当該自律移動体に出力する
     請求項2に記載の自律移動体の移動支援装置。
  10.  前記出力部は、前記検出部が検出した物体の位置情報に基づいて、移動を制御する制御信号を前記自律移動体に出力する
     請求項1から請求項9のいずれか一項に記載の自律移動体の移動支援装置。
  11.  距離センサーが発する光と当該光の反射光によって当該距離センサーが測定した移動環境における物体との距離に基づいて前記移動環境を移動する自律移動体であり、
     前記移動環境に配置されるミラーが映す物体の虚像との見かけの距離を前記距離センサーが測定するときに、当該ミラーの位置情報に基づいて当該物体の実空間の位置情報を検出する検出部
     を備える自律移動体。
  12.  距離センサーが発する光と当該光の反射光によって当該距離センサーが測定した移動環境における物体との距離に基づいて前記移動環境を移動する自律移動体に前記移動環境において検出される物体の位置情報を出力する出力部と、前記移動環境に配置されるミラーが映す物体の虚像との見かけの距離を前記距離センサーが測定するときに当該ミラーの位置情報に基づいて前記出力部が前記自律移動体に出力する当該物体の実空間の位置情報を検出する検出部と、を備える自律移動体の移動支援装置に、前記移動環境における前記ミラーの位置情報が含まれる前記移動環境の地図情報を配信する地図情報配信装置。
  13.  距離センサーが発する光と当該光の反射光によって当該距離センサーが測定した移動環境における物体との距離に基づいて前記移動環境を移動する自律移動体であり、前記移動環境に配置されるミラーが映す物体の虚像との見かけの距離を前記距離センサーが測定するときに当該ミラーの位置情報に基づいて当該物体の実空間の位置情報を検出する検出部を備える自律移動体に、前記移動環境における前記ミラーの位置情報が含まれる前記移動環境の地図情報を配信する地図情報配信装置。
PCT/JP2019/015168 2019-04-05 2019-04-05 自律移動体の移動支援装置、自律移動体、および地図情報配信装置 WO2020202559A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021511060A JP7143940B2 (ja) 2019-04-05 2019-04-05 自律移動体の移動支援装置、および自律移動体
PCT/JP2019/015168 WO2020202559A1 (ja) 2019-04-05 2019-04-05 自律移動体の移動支援装置、自律移動体、および地図情報配信装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/015168 WO2020202559A1 (ja) 2019-04-05 2019-04-05 自律移動体の移動支援装置、自律移動体、および地図情報配信装置

Publications (1)

Publication Number Publication Date
WO2020202559A1 true WO2020202559A1 (ja) 2020-10-08

Family

ID=72667319

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/015168 WO2020202559A1 (ja) 2019-04-05 2019-04-05 自律移動体の移動支援装置、自律移動体、および地図情報配信装置

Country Status (2)

Country Link
JP (1) JP7143940B2 (ja)
WO (1) WO2020202559A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002120702A (ja) * 2000-10-12 2002-04-23 Nissan Motor Co Ltd 制動位置接近警報装置および自動制動装置
JP2007279958A (ja) * 2006-04-05 2007-10-25 Toyota Motor Corp 外部ミラー検出装置
US20100114416A1 (en) * 2008-10-30 2010-05-06 Honeywell International Inc. System and method for navigating an autonomous vehicle using laser detection and ranging
JP2010122821A (ja) * 2008-11-18 2010-06-03 Fujitsu Ten Ltd 車両運転支援装置
JP2011149856A (ja) * 2010-01-22 2011-08-04 Toyota Motor Corp 物体識別方法及び物体識別装置
JP2017162178A (ja) * 2016-03-09 2017-09-14 パナソニックIpマネジメント株式会社 判定装置、判定方法、および判定プログラム
WO2018180338A1 (ja) * 2017-03-30 2018-10-04 パイオニア株式会社 情報処理装置、サーバ装置、制御方法、プログラム及び記憶媒体

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002120702A (ja) * 2000-10-12 2002-04-23 Nissan Motor Co Ltd 制動位置接近警報装置および自動制動装置
JP2007279958A (ja) * 2006-04-05 2007-10-25 Toyota Motor Corp 外部ミラー検出装置
US20100114416A1 (en) * 2008-10-30 2010-05-06 Honeywell International Inc. System and method for navigating an autonomous vehicle using laser detection and ranging
JP2010122821A (ja) * 2008-11-18 2010-06-03 Fujitsu Ten Ltd 車両運転支援装置
JP2011149856A (ja) * 2010-01-22 2011-08-04 Toyota Motor Corp 物体識別方法及び物体識別装置
JP2017162178A (ja) * 2016-03-09 2017-09-14 パナソニックIpマネジメント株式会社 判定装置、判定方法、および判定プログラム
WO2018180338A1 (ja) * 2017-03-30 2018-10-04 パイオニア株式会社 情報処理装置、サーバ装置、制御方法、プログラム及び記憶媒体

Also Published As

Publication number Publication date
JP7143940B2 (ja) 2022-09-29
JPWO2020202559A1 (ja) 2021-12-23

Similar Documents

Publication Publication Date Title
US10444758B2 (en) Autonomous traveling device
JP6258626B2 (ja) 自律移動装置およびその制御方法
KR20190047595A (ko) 색 선별 거울을 이용하는 자율 주행 차량용 3d lidar 시스템
JP5278283B2 (ja) 自律移動装置及びその制御方法
US10747229B2 (en) Environment arrangement robot and control program thereof
JP2011128899A (ja) 自律移動装置
JP2008152600A (ja) 移動経路作成方法、自律移動体および自律移動体制御システム
US20140297066A1 (en) Remote control system
JP2017527776A (ja) 交差面により障害物を検出する装置およびこのような装置を使用する検出方法
US10928488B2 (en) LIDAR 3D design using a polygon mirror
JP2014006835A (ja) 自律移動装置、自律移動方法、標識、及び、自律移動システム
JP2021163455A (ja) 位置推定システム
JP2014006833A (ja) 自律移動装置、自律移動方法、標識、及び、自律移動システム
JP2019145039A (ja) 自走式ロボットおよび自走式ロボットの制御方法
JP5763986B2 (ja) 移動体および移動体の制御方法
JP7054339B2 (ja) 移動体
WO2020202559A1 (ja) 自律移動体の移動支援装置、自律移動体、および地図情報配信装置
JP2017032329A (ja) 障害物判定装置、移動体、及び障害物判定方法
JPWO2018143093A1 (ja) 計測装置
JPWO2018179960A1 (ja) 移動体および自己位置推定装置
JP2019086812A (ja) 移動体システム
JP7308591B2 (ja) 移動体
US20190137629A1 (en) Multi-axes scanning system from single-axis scanner
US20200133270A1 (en) Lidar device with cylindrical lens for autonomous driving vehicles
JP6804268B2 (ja) 駐車制御装置の姿勢推定方法、及び姿勢推定装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19922429

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021511060

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19922429

Country of ref document: EP

Kind code of ref document: A1