WO2019069829A1 - 経路生成装置、移動体、及びプログラム - Google Patents

経路生成装置、移動体、及びプログラム Download PDF

Info

Publication number
WO2019069829A1
WO2019069829A1 PCT/JP2018/036456 JP2018036456W WO2019069829A1 WO 2019069829 A1 WO2019069829 A1 WO 2019069829A1 JP 2018036456 W JP2018036456 W JP 2018036456W WO 2019069829 A1 WO2019069829 A1 WO 2019069829A1
Authority
WO
WIPO (PCT)
Prior art keywords
movement
unit
area
route
moving
Prior art date
Application number
PCT/JP2018/036456
Other languages
English (en)
French (fr)
Inventor
博昭 関山
Original Assignee
株式会社 ミックウェア
株式会社アイミックス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 ミックウェア, 株式会社アイミックス filed Critical 株式会社 ミックウェア
Priority to CN201880064511.6A priority Critical patent/CN111164381B/zh
Priority to US16/652,786 priority patent/US11537149B2/en
Publication of WO2019069829A1 publication Critical patent/WO2019069829A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/106Change initiated in response to external conditions, e.g. avoidance of elevated terrain or of no-fly zones
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0004Transmission of traffic-related information to or from an aircraft
    • G08G5/0013Transmission of traffic-related information to or from an aircraft with a ground station
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0017Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information
    • G08G5/0026Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information located on the ground
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/003Flight plan management
    • G08G5/0034Assembly of a flight plan
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0047Navigation or guidance aids for a single aircraft
    • G08G5/006Navigation or guidance aids for a single aircraft in accordance with predefined flight zones, e.g. to avoid prohibited zones
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0047Navigation or guidance aids for a single aircraft
    • G08G5/0069Navigation or guidance aids for a single aircraft specially adapted for an unmanned aircraft
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]

Definitions

  • the present invention relates to a path generation device, a moving body, and a program for generating a moving path of a moving body.
  • Patent Document 1 discloses an obstacle map generation device that generates a map of a three-dimensional space in which the presence or absence of an obstacle is represented by lattice voxels.
  • the obstacle map generation device of Patent Document 1 calculates the position of an obstacle around a flying object based on the outputs of a stereo camera and a distance data sensor provided on the flying object.
  • This obstacle map generation device raises the resolution of the area of interest by representing the area of interest that is a part of the map with smaller voxels, based on the movement vector of the aircraft.
  • Patent Document 2 discloses an inspection system which inspects an object to be inspected using a drone equipped with a camera.
  • the inspection system of Patent Document 2 includes a server device, a station terminal, and a drone.
  • the server device transmits the drone route information to the station terminal.
  • the station terminal generates navigation control information and imaging control information based on the navigation information.
  • the drone shoots based on the shooting control information while automatically navigating based on the route control information.
  • the inspection system of Patent Document 2 photographs an inspection object by remotely operating a drone, and enables inspection of defects of the inspection object.
  • the moving path of the moving object is generated based on the camera image and the 3D modeling image. Therefore, the calculation for generating the movement path is complicated and the amount of calculation processing is large.
  • An object of the present invention is to provide a path generation device capable of relatively easily generating a moving path of a moving body, a moving body moving along the moving path, and a program.
  • a route generation device generates a movement route of a mobile.
  • the above-mentioned path control device comprises an acquisition unit and a control unit.
  • the acquisition unit acquires object data indicating the shape of an object.
  • the control unit sets a moving path of the moving object based on the object data.
  • the control unit defines a virtual space in association with a predetermined real space including the movement range of the moving body.
  • the control unit manages a plurality of divided areas obtained by dividing the virtual space into a plurality of areas of a predetermined three-dimensional shape.
  • the control unit arranges the object in the virtual space.
  • the control unit sets an area overlapping with the object among the plurality of divided areas as a movement prohibited area in which the moving body can not pass.
  • the control unit sets an area that does not overlap the object among the plurality of divided areas as a movable area in which the moving body can move.
  • a mobile according to the present invention moves along a movement path.
  • the movable body includes a position detection unit, a drive unit, and a control unit.
  • the position detection unit detects the current position of the moving object.
  • the drive unit moves the moving body.
  • the control unit controls the drive unit based on the current location and the movement route.
  • a virtual space defined in correspondence to a predetermined real space including the movement range of the moving body is divided into a plurality of areas of a predetermined three-dimensional shape. A plurality of divided areas are respectively set as a movement prohibited area where the mobile can not pass and a movable area where the mobile can pass.
  • a movement path is set by designating a divided area in the movable area.
  • a program according to the present invention is a program for generating a moving path of a moving object, and the step of defining a virtual space in correspondence with a predetermined real space including the moving range of the moving object, and defining the virtual space
  • the step of managing a plurality of divided areas divided into a plurality of three-dimensional shapes, the step of arranging an object in a virtual space, and the plurality of divided areas, an area overlapping with the object is set as a movement prohibited area
  • the computer is made to execute the steps of setting an area not overlapping with the object as the movable area among the plurality of divided areas, and setting a movement path by specifying the divided area in the movable area.
  • the virtual space is defined corresponding to the real space including the moving range of the moving body, and the virtual space is a plurality of regions of a predetermined three-dimensional shape. It is divided and managed.
  • the route generation device can generate the movement route relatively easily.
  • the mobile can move along the movement path with relatively little computational effort.
  • the route control device 1 is a device that generates a movement route of the mobile unit 2. That is, the route control device 1 is an example of the route generation device in the present embodiment.
  • the route control device 1 is various information processing devices such as a personal computer, a smartphone, and a tablet terminal.
  • the mobile unit 2 is configured to be able to move autonomously. In the present embodiment, the mobile unit 2 is an unmanned aerial vehicle such as a drone that flies autonomously.
  • the route control device 1 and the moving body 2 of the present embodiment constitute an imaging system 12 for imaging an inspection object.
  • the imaging system 12 is used, for example, to inspect an inspection object such as an airplane.
  • the user uses the path control device 1 to control the moving path of the mobile unit 2 on which the camera is mounted, and acquires an image of the inspection object.
  • the user can inspect the appearance of the inspection object using the acquired image.
  • the path control device 1 includes a control unit 110, a first communication unit 120, a first storage unit 130, an input unit 140, and a display unit 150.
  • the control unit 110 controls the operation of the route control device 1.
  • the control unit 110 includes an object acquisition unit 111, a virtual space generation unit 112, an area setting unit 113, and a movement route generation unit 114 as functional components.
  • the object acquisition unit 111 acquires object data indicating the shape of an object from the first communication unit 120 or the first storage unit 130 or the like.
  • the virtual space generation unit 112 defines a virtual space in correspondence with a real space including the movement range of the moving object 2 and divides the virtual space into a plurality of predetermined three-dimensional shapes and manages them.
  • the area setting unit 113 divides the virtual space into a movement prohibited area in which the moving body 2 can not pass and a movement possible area in which the moving body 2 can pass.
  • the movement path generation unit 114 sets the movement path of the mobile body 2 in the movable area, and generates path information indicating the set movement path.
  • the control unit 110 includes, for example, a central processing unit (CPU) or a micro processing unit (MPU) that realizes a predetermined function in cooperation with software.
  • the control unit 110 implements a predetermined function by reading out data and programs stored in the first storage unit 130 and performing various arithmetic processing.
  • the control unit 110 may have various functions such as a clocking function.
  • the program executed by the control unit 110 may be provided from the first communication unit 120 or the like, or may be stored in a portable recording medium.
  • the control unit 110 may be configured by a hardware circuit such as a dedicated electronic circuit designed to realize a predetermined function or a reconfigurable electronic circuit.
  • the control unit 110 may be configured by various semiconductor integrated circuits. Examples of various semiconductor integrated circuits include a CPU, an MPU, a microcomputer, a DSP (Digital Signal Processor), an FPGA (Field Programmable Gate Array), and an ASIC (Application Specific Integrated Circuit).
  • the first communication unit 120 includes a module for communicably connecting the route control device 1 to an external device such as the mobile unit 2 via a wireless communication line.
  • the first communication unit 120 may further include a module for performing communication connection by a wired communication line.
  • the first communication unit 120 is an example of a communication unit that performs communication in accordance with a predetermined communication standard.
  • the predetermined communication standard includes IEEE (Institute of Electrical and Electronic Engineers) 802.3, IEEE 802.11a / 11b / 11g / 11ac, USB (Universal Serial Bus), HDMI (High-Definition Multimedia Interface), Communication standards such as IEEE 1395, Wi-Fi (registered trademark), Bluetooth (registered trademark), etc. are included.
  • the first communication unit 120 is an example of an acquisition unit in the present embodiment.
  • the first storage unit 130 is a storage medium that stores programs and data required to realize the functions of the path control device 1.
  • the first storage unit 130 is configured to include, for example, a hard disk drive (HDD) or a solid state drive (SSD).
  • the first storage unit 130 may include, for example, a flash memory, a dynamic random access memory (DRAM), or a static random access memory (SRAM).
  • the first storage unit 130 may temporarily store various information.
  • the first storage unit 130 may be configured to function as a work area of the control unit 110, for example.
  • the input unit 140 is an HMI (Human Machine Interface) for inputting various operations by the user.
  • the input unit 140 is, for example, a 3D mouse.
  • the input unit 140 may be a touch panel configured with the display unit 150.
  • the input unit 140 may be a keyboard, a button, a switch, and a combination thereof.
  • the display unit 150 is configured of, for example, a liquid crystal display or an organic EL (Electro Luminescence) display.
  • the mobile unit 2 includes an operation control unit 210, a second communication unit 220, a position detection unit 230, a sensor 240, a drive unit 250, a second storage unit 260, and a photographing unit 270.
  • the operation control unit 210 controls the operation of the mobile unit 2.
  • the operation control unit 210 includes a drive control unit 211 and an imaging control unit 212 as a functional configuration.
  • the drive control unit 211 controls the drive unit 250 based on the route information indicating the movement route and the current location of the moving object 2.
  • the imaging control unit 212 controls the imaging unit 270 to capture an inspection object in the movement path of the moving body 2.
  • the operation control unit 210 includes, for example, a CPU or an MPU that implements a predetermined function in cooperation with software.
  • the operation control unit 210 reads out data and programs stored in the second storage unit 260 and performs various arithmetic processing to realize a predetermined function.
  • the operation control unit 210 may have various functions such as a clocking function.
  • the program executed by the operation control unit 210 may be provided via the second communication unit 220, or may be stored in a portable recording medium.
  • the operation control unit 210 may be configured by a hardware circuit such as a dedicated electronic circuit designed to realize a predetermined function or a reconfigurable electronic circuit.
  • the operation control unit 210 may be configured by various semiconductor integrated circuits. Examples of various semiconductor integrated circuits include a CPU, an MPU, a microcomputer, a DSP, an FPGA, and an ASIC.
  • the second communication unit 220 is a module for communicably connecting the mobile unit 2 to an external device such as the route control device 1 via the communication network in the mobile communication system.
  • the second communication unit 220 is not limited to the case of communicating with the route control device 1, and is configured to be able to communicate with an external device.
  • the second communication unit 220 is configured to be able to perform communication in accordance with a predetermined communication standard.
  • the predetermined communication standards include, for example, communication standards of IEEE 802.3, IEEE 802.11a / 11b / 11 g / 11 ac, IEEE 1395, Wi-Fi (registered trademark), and Bluetooth (registered trademark).
  • the second communication unit 220 is an example of an acquisition unit in the present embodiment.
  • the position detection unit 230 detects a position indicating the current position of the geographical coordinate system.
  • the position detection unit 230 is, for example, a GPS module that receives a radio wave from a GPS (Global Positioning System) satellite and measures the latitude and longitude of the received point.
  • the position detection unit 230 may be configured to measure the altitude in addition to the latitude and longitude of the received point.
  • the sensor 240 is configured to include, for example, an acceleration sensor that detects an acceleration and a gyro sensor that detects an angular velocity.
  • the mobile unit 2 can detect the three-dimensional position of the mobile unit 2 more accurately by referring to the output of the sensor 240 in addition to the position detection unit 230.
  • the drive unit 250 is a drive device for moving the moving body 2.
  • the drive unit 250 includes, for example, a rotor and a motor.
  • the drive unit 250 moves the moving body 2 forward, marching, turning, and hovering.
  • the second storage unit 260 is a storage medium storing programs and data necessary to realize the functions of the mobile unit 2.
  • the second storage unit 260 includes, for example, an HDD or an SSD.
  • the second storage unit 260 may be configured to include, for example, a flash memory, a DRAM, or an SRAM.
  • the second storage unit 260 may temporarily store various information.
  • the second storage unit 260 may be configured to function as a work area of the operation control unit 210.
  • the imaging unit 270 is a camera including an imaging element such as, for example, a charge-coupled device (CCD) image sensor or a complementary metal oxide semiconductor (CMOS) image sensor.
  • the imaging unit 270 may be an infrared camera.
  • the image data generated by photographing the inspection object by the photographing unit 270 is transmitted to, for example, the route control device 1 or another external device via the second communication unit 220.
  • the image data may be stored in the second storage unit 260 of the mobile unit 2.
  • the process shown in FIG. 2 is started, for example, when the user starts an application program for setting a movement route via the input unit 140 of the route control device 1.
  • the control unit 110 of the route control device 1 sets a movement prohibited area and a movable area in the virtual space (S1). Then, the control unit 110 sets the moving path of the mobile body 2 in the movable area (S2). The control unit 110 transmits route information indicating the set moving route to the mobile unit 2 via the first communication unit 120 (S3). The mobile unit 2 receives route information indicating a moving route from the route control device 1 via the second communication unit 220 (S11). The operation control unit 210 of the movable body 2 drives and moves the drive unit 250 according to the movement path (S12).
  • FIG. 3 shows the details of the setting process (S1) of the movement prohibited area and the movable area.
  • FIG. 4 shows an example of the object.
  • FIG. 5 schematically shows a virtual space.
  • FIG. 6 schematically shows the set movement prohibited area and the movable area.
  • the control unit 110 of the route control device 1 performs the process shown in FIG.
  • the object acquisition unit 111 acquires object data indicating the shape of the object 10 as shown in FIG. 4 (S101).
  • the object acquisition unit 111 may acquire object data via the first communication unit 120.
  • the object acquisition unit 111 may acquire object data stored in the first storage unit 130.
  • Object data is, for example, CAD (Computer Aided Design) data.
  • the shape of the object 10 is formed by any of a wire frame model, a surface model, and a solid model. For example, when the user tries to inspect the damage of the antenna provided on the outer wall of the plane, the user selects CAD data of the plane through the input unit 140.
  • the object data may further include information indicating the position of the real geographical coordinate system of the object 10.
  • the position of the geographic coordinate system includes, for example, latitude, longitude, and altitude.
  • the virtual space generation unit 112 generates a virtual space 20 as shown in FIG. 5 (S102). Specifically, the virtual space generation unit 112 defines the virtual space 20 in association with a predetermined real space including the movement range of the moving object 2. For example, preferably, the virtual space generation unit 112 defines the virtual space 20 to a size larger than that of the object 10 based on the object data.
  • the virtual space generation unit 112 can define, for example, a virtual space 20 that is K times (K> 1) the size of the object 10.
  • the virtual space generation unit 112 divides the defined virtual space 20 into a plurality of cube blocks 25 and manages them.
  • the virtual space generation unit 112 sets the size (m ⁇ m ⁇ m) of the block 25 to the size of the moving object 2 or more.
  • the area setting unit 113 virtually arranges the object 10 in association with the virtual space 20 (S103). Specifically, the area setting unit 113 associates the coordinate system of the object 10 with the coordinate system of the virtual space 20.
  • the area setting unit 113 selects one block 25 to be checked (S104).
  • the area setting unit 113 determines whether the selected block 25 overlaps the object 10 (S105). If the block 25 overlaps the object 10 (Yes in S105), the area setting unit 113 sets the block 25 as a movement prohibited area (S106). For example, if the object 10 and the block 25 partially overlap each other, the area setting unit 113 sets the block 25 as a movement prohibited area. If the block 25 does not overlap the object 10 (No in S105), the area setting unit 113 sets the block 25 as a movable area (S107).
  • the area setting unit 113 determines whether the check of the overlap with the object 10 is completed for all the blocks 25 forming the virtual space 20 (S108). If there is still a block 25 that has not been checked for overlap with the object 10 (No in S108), the process returns to step S104. The area setting unit 113 selects a block 25 whose check is not completed and checks an overlap with the object 10. When the check of the overlap with the object 10 is completed for all the blocks 25 forming the virtual space 20 (Yes in S108), the process of area setting is ended.
  • the block 25 forming the virtual space 20 is divided into the movement prohibited area 30 and the movable area 35 as shown in FIG.
  • the movable area 35 is the block 25 excluding the movement prohibited area 30 in the virtual space 20.
  • FIG. 7 shows the details of the movement path setting process (S2).
  • FIG. 8 shows a display example of a screen prompting setting of a destination.
  • FIG. 9 schematically shows an example of the set movement route.
  • the movement path 50 includes blocks 25 of block numbers M1 to M27.
  • the control unit 110 of the route control device 1 performs the process shown in FIG.
  • the movement path generation unit 114 acquires the current location of the mobile unit 2 from the mobile unit 2 (S201).
  • the current location of the mobile unit 2 is the position of the geographical coordinate system, and specifically includes latitude, longitude, and altitude.
  • the movement path generation unit 114 may acquire the current location of the mobile object 2 input by the input unit 140.
  • the movement path generation unit 114 associates the position of the geographical coordinate system of the moving body 2 with the position of the coordinate system of the virtual space 20, and sets the current position of the moving body 2 as the start point of the movement path in the virtual space 20.
  • the position of the geographic coordinate system of the moving body 2 is associated with the position (x 1 , y 1 , z 1 ) of the coordinate system of the virtual space 20, and the position (x of the coordinate system of the virtual space 20)
  • the block 25 of the block number M1 at 1 , y 1 , z 1 ) is set as the start point 45.
  • the movement route generation unit 114 displays a message 40 prompting setting of a destination on the display unit 150 as shown in FIG. 8 (S202).
  • the movement route generation unit 114 is configured to visually distinguish between the movement prohibited area 30 and the movement possible area 35 and display the movement restriction area 30 on the display unit 150. In order to visually distinguish between the movement prohibited area 30 and the movable area 35, for example, it may be displayed by the display unit 150 while being color-coded.
  • the movement path generation unit 114 may visually display the block 25 of the start point 45 of the movement path from the blocks 25 other than the start point 45 and display the block 25 on the display unit 150.
  • the display unit 150 it is preferable to display the block 25 so that the degree of transparency is higher as the block 25 is closer to the front of the screen, and display the block 25 on the far side of the screen in an easily visible manner. Furthermore, on the screen of the display unit 150, the object 10 and the virtual space 20 may be superimposed and displayed.
  • the user can specify a destination by selecting any block 25 in the movable area 35 via the input unit 140.
  • the movement path generation unit 114 may set the block 25 in the movement prohibited area 30 so that the user can not select it.
  • the movement path generation unit 114 may display the block 25 selected by the user on the display unit 150 visually distinguished from the block 25 not selected.
  • the movement path generation unit 114 may change the transparency or the color of the block 25, for example, and cause the display unit 150 to display the selected block 25 so as to be emphasized.
  • the corresponding portion of the object 10 corresponding to the selected block 25 may be displayed.
  • the movement route generation unit 114 calculates the shortest route in the movable area 35 from the start point 45 of the movement route to the block 25 selected by the user when the user selects any block 25 as the destination. It may be displayed on the display unit 150 as a temporary movement route.
  • the movement route generation unit 114 acquires information indicating the block 25 determined as the destination by the user (S203), the movement route generation unit 114 sets the block 25 as the destination of the movement route. In the movement path 50 shown in FIG. 9, the block 25 of the block number M27 is set as the destination.
  • the movement route generation unit 114 displays a message prompting the user to set a passing point on the display unit 150 (S204).
  • the message prompting for setting of the via point may be displayed, for example, in the same manner as the message 40 as shown in FIG.
  • the movement route generation unit 114 acquires information indicating the block 25 determined by the user as the via point (S205)
  • the movement route generation unit 114 sets the block 25 as the via point of the movement route.
  • blocks 25 of block numbers M10, M12, M18 and M21 shown by hatching are set as passing points.
  • the movement route generation unit 114 calculates the shortest distance from the start point 45 of the movement route to the destination through the transit point in the movable area 35, and sets the calculated shortest route as the movement route (S206) ).
  • the travel path generation unit 114 may set the travel path so as to pass through the transit points in the order selected by the user. Note that the transit point does not have to be specified. If a transit point is not set, the shortest path in the movable area 35 from the start point 45 of the movement path to the destination may be set as the movement path.
  • the moving route to be set may not be the shortest distance.
  • the movement path may be the simplest path, for example, the path with the least number of turns.
  • the end point of the movement path is an arbitrary point.
  • the end point of the movement path may be the same as the start point 45 of the movement path.
  • the moving route may be set so as to return to the starting point 45 by tracing back the moving route from the starting point 45 to the destination.
  • the movement path 50 set as described above is constituted by the blocks 25 adjacent to one another.
  • the movement path generation unit 114 generates path information indicating the set movement path.
  • the route information is information that can identify the block 25 that constitutes the movement route 50.
  • the path information may be represented by values (x, y, z) of three-dimensional coordinates of the center position of the block 25 constituting the movement path 50.
  • the generated routing information is transmitted from the routing control device 1 to the mobile unit 2.
  • FIG. 10 shows the details of the movement control process (S12) according to the movement route.
  • the operation control unit 210 of the mobile unit 2 performs the process shown in FIG.
  • the drive control unit 211 When the drive control unit 211 receives the route information indicating the movement route, the drive control unit 211 detects the current location of the moving object 2 from the outputs of the position detection unit 230 and the sensor 240 (S121). The moving body 2 is located at the start point 45 of the movement path at the start of movement. The drive control unit 211 compares the current position with the movement route, and controls the drive unit 250 to move to the block 25 next to the start point 45 of the movement route according to the movement route (S122). The drive control unit 211 compares the position of the geographic coordinate system of the moving body 2 with the position of the three-dimensional coordinate system of the moving path, and compares the current position with the moving path.
  • the imaging control unit 212 controls the imaging unit 270 to capture an existing object 10 that is an inspection target while the moving body 2 is moving.
  • the drive control unit 211 determines whether it has arrived at the end point of the movement route (S123). If it has not arrived at the end point (No in S123), the process returns to step S121, and moves to the next block 25 of the movement route while comparing the current location with the movement route. When the end point is reached (Yes in S123), the drive control unit 211 ends the control of the drive unit 250.
  • the route control device 1 is a route generation device that generates a movement route of the mobile unit 2.
  • the route control device 1 includes a first communication unit 120, which is an example of an acquisition unit for acquiring object data indicating the shape of the object 10, and a control unit 110, which sets the movement route of the mobile 2 based on the object data.
  • the control unit 110 defines the virtual space 20 in association with a predetermined real space including the movement range of the moving body 2.
  • the control unit 110 divides and manages the virtual space 20 into blocks 25 which are an example of a plurality of areas having a predetermined three-dimensional shape.
  • the control unit 110 arranges the object 10 in the virtual space 20.
  • the control unit 110 sets a block 25 overlapping the object 10 among the plurality of blocks 25 in the movement prohibited area 30 in which the moving object 2 can not pass.
  • the control unit 110 sets an area not overlapping with the object 10 among the plurality of blocks 25 as a movable area 35 in which the mobile body 2 can move.
  • the movement prohibited area 30 and the movable area 35 are divided, so that the movement prohibited area 30 and the movable area 35 can be set relatively easily.
  • the virtual space 20 is managed by being divided into a plurality of blocks 25, it is possible to relatively easily set the moving path of the mobile body 2 using the plurality of divided blocks 25.
  • control unit 110 sets the movement path 50 by specifying the block 25 in the movable area 35. Therefore, in the present embodiment, the movement path 50 can be set relatively easily. In addition, the mobile unit 2 can perform movement according to the movement path 50 with a relatively small amount of calculation using the plurality of divided blocks 25.
  • the path control device 1 further includes a display unit 150.
  • the display unit 150 visually distinguishes and displays the movement prohibited area 30 and the movable area 35. Therefore, the user can select the passing place and the destination of the movement path 50 from the block 25 in the movable area 35 while looking at the display unit 150. Thereby, the user can easily set the waypoint and the destination.
  • the size of the block 25 is set larger than the size of the moving body 2 or the size of the moving body 2. Therefore, the mobile unit 2 can sequentially follow the blocks 25 of the movement path 50 one by one. Therefore, the mobile unit 2 can easily perform the movement according to the movement path 50 with a relatively small amount of calculation.
  • the size of the block 25 is set smaller than the size of the object 10 or the size of the object 10. Therefore, the moving body 2 can easily move around the object 10 according to the moving path 50 with a relatively small amount of calculation.
  • the block 25 is a cube. Thus, the route control device 1 can easily set the movement route 50.
  • the movable body 2 includes a position detection unit 230, a drive unit 250, and an operation control unit 210.
  • the position detection unit 230 detects the current position of the mobile unit 2.
  • the drive unit 250 moves the moving body 2.
  • the operation control unit 210 controls the drive unit 250 based on the current location and the movement route 50. Since the moving path 50 is set by the block 25, the moving body 2 can move along the moving path 50 with a relatively small amount of calculation.
  • the mobile unit 2 is an autonomously flying vehicle, and is, for example, a drone. According to this embodiment, the flight path in the three-dimensional space can be easily set.
  • Second Embodiment In the second embodiment, it is assumed that a plurality of moving objects 2 move in the real space corresponding to the virtual space 20. In this embodiment, if there is a block 25 common to the movement paths of a plurality of mobile units 2, the movement path is changed so as not to pass through the common block 25 in the same time zone. This avoids collision of a plurality of mobile objects 2.
  • FIG. 11 shows the process of changing the movement route in the second embodiment.
  • FIG. 12 shows an example of the route information 60 indicating the movement route.
  • the route control device 1 is an example of a route generation device in the present embodiment.
  • the user's own movement is performed so as not to collide with the movement route of another mobile unit 2.
  • route of the body 2 is demonstrated.
  • the moving path of the moving object "A” is changed so that the moving path of the moving object "A” shown in FIG. 12 does not collide with the moving paths of the other moving objects "B", "C” and "D". .
  • control unit 110 performs the process shown in FIG.
  • the moving route changing process shown in FIG. 11 is performed before transmitting the set moving route to the mobile unit 2 (between steps S2 and S3 in FIG. 2).
  • the movement path generation unit 114 acquires path information indicating the movement path of another mobile 2 from another path control device 1 (S211).
  • the movement path generation unit 114 may acquire path information indicating the movement path of another mobile 2 from another mobile 2.
  • the route information 60 is information indicating identification information 61 for identifying the moving body 2, start time 62 when the moving body 2 starts moving, and the moving path 50 set by the block 25. And.
  • the movement path 50 is indicated by a block number.
  • the movement path generation unit 114 determines whether a common block 25 is included in the movement path of its own mobile 2 and the acquired movement path of another mobile 2 (S212). Thereby, the movement path generation unit 114 determines whether or not the moving body 2 may collide with another moving body 2. If there is no common block 25 (No in S213), the process of changing the moving route is ended without changing the moving route of the mobile unit 2.
  • the movement path generation unit 114 determines whether or not the common block 25 can be changed to the adjacent block 25 (S214). That is, it is determined whether the adjacent block 25 is the block 25 in the no movement area 30 or the block 25 in the movable area 35. If the adjacent block 25 is a block 25 in the movable area 35 (Yes in S214), the movement path generation unit 114 changes the common block 25 into an adjacent block 25 (S215).
  • the movement path generation unit 114 sets the same block 25 for the movement body 2 and another movement body 2 in common. It is determined whether or not to pass the band (S216). The determination as to whether or not to pass in the same time zone can be calculated, for example, by the movement start time 62, the order of the common blocks 25 in the movement path 50, and the average speed of the moving body 2. When it does not pass in the same time zone (No in S216), it is determined that there is no possibility that the mobile object 2 collides. For example, in the example of FIG.
  • the moving path 50 of the moving object “A” and the moving object “B” has a block “M4” that is the fourth most common from the starting point 45, but the moving start time is different. Determine that there is no possibility of a collision. In this case, the movement path generation unit 114 ends the movement path change process without changing the movement path.
  • the movement path generation unit 114 changes the time for passing the common block 25 (S217). For example, the movement path generation unit 114 changes the movement path so as to stand by in the block 25 before the common block 25.
  • the movement path generation unit 114 in the moving path 50 of the moving object "A” and the moving object "C", there is a block "M7" common to the seventh of all of the paths, and the moving start time is also the same. Therefore, the time for the moving object "A" to pass the block "M7" is changed.
  • the block "M6" is made to wait by further adding the block "M6" before the block "M7". This avoids the collision of the mobile "A” and the mobile "C”.
  • each of a plurality of users owns the pair of the route control device 1 and the mobile unit 2 has been described as an example.
  • one or more users may use one route control device 1
  • the route information 60 indicating the movement route of each of the plurality of mobile units 2 is stored in the first storage unit 130 of one route control device 1. Therefore, in step S211, the movement path generation unit 114 may obtain, from the first storage unit 130, the path information 60 indicating the movement paths of the plurality of moving objects 2.
  • the route information 60 may include the priority of the mobile 2. In this case, the moving route of the mobile 2 with low priority may be changed. Also, the route information 60 may include an acceptable final arrival time. In this case, the moving route of the mobile unit 2 may be changed with a large difference between the estimated arrival time calculated from the movement start time 62 and the moving route 50 and the allowable last arriving time.
  • control unit 110 compares the movement paths of the plurality of moving bodies 2 and determines whether or not the same block 25 is included in the movement paths of the plurality of moving bodies 2, and the same block If 25 is included, change the movement route. Thereby, it can be avoided that the mobile bodies 2 collide with each other.
  • the route control device 1 generates the movement route of the mobile unit 2, but in the third embodiment, the mobile unit 2 generates the movement route.
  • the route control device 1 and the mobile unit 2 constitute a route generation device in the present embodiment. Specifically, the route control device 1 sets the movement prohibited area 30 and the movable area 35. The mobile unit 2 sets a movement route.
  • FIG. 13 shows the configurations of the route control device 1 and the mobile unit 2 in the third embodiment.
  • the operation control unit 210 of the mobile unit 2 includes the movement path generation unit 213.
  • the route control device 1 does not include the movement route generation unit 114 shown in FIG.
  • FIG. 14 shows the overall operation of the route control device 1 and the mobile unit 2 in the third embodiment.
  • the control unit 110 of the route control device 1 sets the movement prohibited area 30 and the movable area 35 (S21).
  • Step S21 is the same as step S1 in FIG.
  • the control unit 110 displays on the display unit 150 a message prompting setting of the way point and the destination (S22). At this time, the movement route generation unit 213 visually distinguishes the movement prohibition area 30 and the movement possible area 35 and displays the movement restriction area 30 and the movement restriction area 35 on the display unit 150. For example, color display is performed.
  • the control unit 110 acquires information specifying the block 25 designated by the user as the via point and the destination point (S23). As shown in FIG. 7 of the first embodiment, information for identifying a destination may be acquired first, and then information for identifying a via point may be acquired.
  • the control unit 110 transmits area information indicating the movable area 35 and information indicating the via point and the destination to the moving body 2 (S24). Specifically, information for specifying the position of the block 25 in the movable area 35 and information for specifying the position of the block 25 which is the via point and the destination are transmitted to the mobile unit 2. In addition, instead of or in addition to the movable area 35, the position information of the block 25 in the movement prohibited area 30 may be transmitted to the moving body 2.
  • the movement path generation unit 213 of the operation control unit 210 of the mobile unit 2 receives area information indicating the movable area 35 and information indicating the via point and the destination from the route control device 1 through the second communication unit 220. (S31).
  • the movement path generation unit 213 detects the current position of the mobile body 2 from the outputs of the position detection unit 230 and the sensor 240 (S32).
  • the movement route generation unit 213 sets the current position as the starting point 45 of the movement route, and moves the shortest route from the starting point 45 of the movement route to the passing place from the starting point 45 of the movement route to the destination in the movable area 35 Set as a route (S33).
  • the method of setting the movement route may be the same as or different from that of the first embodiment.
  • the end point of the movement path is arbitrary. For example, the end point of the movement path may be the same as the start point 45 of the movement path.
  • the drive control unit 211 controls the drive unit 250 to move the moving body 2 according to the set movement path (S34).
  • Step S34 is the same as step S12 in FIG.
  • the moving route generation unit 213 of the moving object 2 may perform the moving route changing process illustrated in FIG. 11 before starting moving (between S33 and S34).
  • the mobile unit 2 of the present embodiment can move along the automatically set movement route.
  • a virtual space 20 defined corresponding to a predetermined real space including the movement range of the moving body 2 is divided into blocks 25 which are a plurality of areas of a predetermined three-dimensional shape.
  • the plurality of blocks 25 are respectively set in the movement prohibited area 30 where the mobile body 2 can not pass and the movable area 35 where the mobile body 2 can pass.
  • the mobile unit 2 includes a second communication unit 220, a position detection unit 230, a drive unit 250, and an operation control unit 210.
  • the second communication unit 220 acquires area information indicating the movable area 35.
  • the position detection unit 230 detects the current position of the mobile unit 2.
  • the drive unit 250 moves the moving body 2.
  • the operation control unit 210 specifies a block 25 in the movable area 35 and sets a movement path.
  • the operation control unit 210 controls the drive unit 250 based on the current location and the movement route.
  • the mobile body 2 can set the movement path relatively easily.
  • the moving body 2 is not limited to an unmanned aerial vehicle such as a drone.
  • the mobile unit 2 may be an unmanned terminal that moves autonomously, and may be, for example, a robot that moves autonomously.
  • the mobile body 2 is not restricted to the structure which moves unmanned.
  • the mobile unit 2 may be configured to move autonomously according to the set movement route, and may be moved by manned movement.
  • the moving body 2 may have a structure that does not fly.
  • the moving body 2 may be a structure moving on the ground, a wall or a rail.
  • the object 10 is not limited to an airplane.
  • the present invention is applicable to any object 10.
  • the object 10 includes an inspection object to be a target of visual inspection using an image captured by the imaging unit 270 of the moving body 2.
  • the object 10 is not limited to the inspection object, and may be a structure in which the user captures an image by the imaging unit 270.
  • the object 10 may be a vehicle. Vehicles include, for example, cars, motorcycles or trains.
  • the object 10 is not limited to the inspection object.
  • the object 10 may be a structure that prevents the movement of the moving body 2.
  • a structure used as object 10 a building and a bridge are mentioned, for example.
  • the three-dimensional shape that divides the virtual space 20 is not limited to the cubic block 25 and may be another three-dimensional shape.
  • the virtual space 20 may be divided by a rectangular parallelepiped or a triangular pyramid.
  • the user sets the destination and the waypoint, but may set a part or all of the movement route from the start point 45 to the end point.
  • the input unit 140 is a touch panel configured with the display unit 150.
  • the input unit 140 may have a structure in which adjacent blocks 25 are continuously selected by the user operating the touch panel to set a movement path.
  • Data indicating the shape of the object 10 is not limited to CAD data.
  • the data indicating the shape of the object 10 may indicate the shape of the object 10.
  • data indicating the shape of the object 10 may be a picture.
  • the size of the block 25 may be determined based on the accuracy of position detection by the position detection unit 230 of the mobile body 2 and the sensor 240. For example, as the detection accuracy is higher, the size of the block 25 may be set smaller.
  • Transmission of route information from the route control device 1 to the mobile unit 2 is not limited to communication using a wireless communication line by the first communication unit 120 and the second communication unit 220. Transmission of route information from the route control device 1 to the mobile unit 2 may be performed by a wired communication line.
  • the mobile unit 2 may receive route information from the route control device 1 according to a communication standard such as HDMI (registered trademark) or USB. Also, transmission and reception of the route information may be performed without passing through the first communication unit 120 and the second communication unit 220.
  • the route control device 1 may store the generated route information in a portable recording medium, and the mobile unit 2 may read the route information from the recording medium. Similarly, the area information indicating the movable area 35 and the information indicating the via point and the destination may be recorded in the mobile unit 2 without passing through the first communication unit 120 and the second communication unit 220.
  • the route control device 1 defines the virtual space 20 and sets the movement prohibited area 30 and the movable area 35 based on the object 10
  • the moving body 2 defines the virtual space 20 and the object A setting process of the movement prohibited area 30 and the movable area 35 based on 10 may be performed. That is, the route generation device may be configured by only the mobile unit 2. In this case, the mobile unit 2 has the same configuration as the path control device 1 of the first embodiment.
  • a program may be provided that is executed by the control unit to implement the functions of the path control device 1 and the mobile unit 2.
  • the route generation device of the present invention is useful as a device for generating a movement route of a mobile.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Computer Graphics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Processing Or Creating Images (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

経路生成装置(1)は、オブジェクトデータを取得する取得部(120)と、移動体(2)の移動経路を設定する制御部(110)と、を備える。制御部(110)は、移動体(2)の移動範囲を含む所定の現実の空間に対応させて仮想空間を定義し、仮想空間を所定の三次元形状の複数の領域に分割した複数の分割領域を管理し、仮想空間内にオブジェクトを配置し、複数の分割領域のうち、オブジェクトと重なる領域を移動禁止区域に設定し、複数の分割領域のうち、オブジェクトと重ならない領域を移動可能区域に設定する。

Description

経路生成装置、移動体、及びプログラム
 本発明は、移動体の移動経路を生成する経路生成装置、移動体、及びプログラムに関する。
 特許文献1は、障害物の有無を格子状のボクセルで表した三次元空間のマップを生成する障害物マップ生成装置を開示している。特許文献1の障害物マップ生成装置は、飛行体に備えられたステレオカメラと距離データセンサの出力に基づいて、飛行体の周囲の障害物の位置を算出している。この障害物マップ生成装置は、飛行体の移動ベクトルに基づいて、マップ内の一部である注目範囲をより小さなボクセルで表すことで、注目範囲の解像度を上げている。
 特許文献2は、カメラを搭載したドローンを用いて検査対象物を検査する検査システムを開示している。特許文献2の検査システムは、サーバ装置と、ステーション端末と、ドローンを含む。サーバ装置は、ドローンの航路情報をステーション端末に送信する。ステーション端末は、航路情報に基づいて、航路制御情報及び撮影制御情報を生成する。ドローンは、航路制御情報に基づいて自動航行しながら、撮影制御情報に基づいて撮影を行う。特許文献2の検査システムは、ドローンを遠隔操作することによって検査対象物を撮影して、検査対象物の不具合の検査を可能にしている。
特開2017-83919号公報 特開2017-78575号公報
 従来は、カメラ画像や3Dモデリング画像に基づいて、移動体の移動経路を生成していた。よって、移動経路を生成するための計算が複雑で、計算処理量が多かった。
 本発明の目的は、比較的簡単に移動体の移動経路を生成できる経路生成装置、その移動経路に沿って移動する移動体、及びプログラムを提供することである。
 本発明に係る経路生成装置は、移動体の移動経路を生成する。上記経路制御装置は、取得部と、制御部と、を備える。上記取得部は、オブジェクトの形状を示すオブジェクトデータを取得する。上記制御部は、上記オブジェクトデータに基づいて、移動体の移動経路を設定する。上記制御部は、上記移動体の移動範囲を含む所定の現実の空間に対応させて仮想空間を定義する。上記制御部は、上記仮想空間を所定の三次元形状の複数の領域に分割した複数の分割領域を管理する。上記制御部は、上記仮想空間内に上記オブジェクトを配置する。上記制御部は、上記複数の分割領域のうち、上記オブジェクトと重なる領域を上記移動体が通過できない移動禁止区域に設定する。上記制御部は、上記複数の分割領域のうち、上記オブジェクトと重ならない領域を上記移動体が移動できる移動可能区域に設定する。
 本発明に係る移動体は、移動経路に沿って移動する。上記移動体は、位置検出部と、駆動部と、制御部と、を備える。上記位置検出部は、移動体の現在地を検出する。上記駆動部は、移動体を移動させる。上記制御部は、現在地と移動経路とに基づいて、駆動部を制御する。移動体の移動範囲を含む所定の現実の空間に対応させて定義された仮想空間が所定の三次元形状の複数の領域に分割されている。分割された複数の領域は、移動体が通過できない移動禁止区域と移動体が通過できる移動可能区域にそれぞれ設定されている。移動可能区域内の分割された領域を指定して、移動経路が設定されている。
 本発明に係るプログラムは、移動体の移動経路を生成するためのプログラムであって、移動体の移動範囲を含む所定の現実の空間に対応させて仮想空間を定義するステップと、仮想空間を所定の三次元形状の複数の領域に分割した複数の分割領域を管理するステップと、仮想空間内にオブジェクトを配置するステップと、複数の分割領域のうち、オブジェクトと重なる領域を移動禁止区域に設定するステップと、複数の分割領域のうち、オブジェクトと重ならない領域を移動可能区域に設定するステップと、移動可能区域内の分割領域を指定して移動経路を設定するステップと、をコンピュータに実行させる。
 本発明に係る経路生成装置、移動体、及びプログラムによれば、仮想空間が移動体の移動範囲を含む現実の空間に対応させて定義され、その仮想空間が所定の三次元形状の複数の領域に分割して管理されている。これにより、経路生成装置は、比較的簡単に移動経路を生成できる。移動体は、比較的少ない計算量で移動経路に沿って移動できる。
実施形態1の経路制御装置及び移動体の構成を示す図 実施形態1における経路制御装置及び移動体の全体動作を説明するためのシーケンス図 実施形態1における移動禁止区域と移動可能区域の設定処理を説明するためのフローチャート オブジェクトの一例を示す図 仮想空間を模式的に示す図 移動禁止区域と移動可能区域を説明するための図 実施形態1における移動経路設定処理を説明するためのフローチャート 目的地の設定を促す画面の一例を示す図 設定された移動経路を模式的に示す図 実施形態1における移動制御処理を説明するためのフローチャート 実施形態2における移動経路変更処理を説明するためのフローチャート 実施形態2における経路情報を説明するための図 実施形態3の経路制御装置及び移動体の構成を示す図 実施形態3における経路制御装置及び移動体の全体動作を説明するためのシーケンス図
<実施形態1>
 図1を参照して、経路制御装置1と移動体2の構成について説明する。経路制御装置1は、移動体2の移動経路を生成する装置である。すなわち、経路制御装置1は、本実施形態における経路生成装置の一例である。経路制御装置1は、パソコン、スマートフォン、及びタブレット端末等の種々の情報処理装置である。移動体2は、自律移動することができるように構成されている。本実施形態において移動体2は、自律飛行するドローン等の無人航空機である。
 本実施形態の経路制御装置1と移動体2は、検査対象物を撮影する撮影システム12を構成する。撮影システム12は、例えば、飛行機などの検査対象物を検査するために使用される。ユーザは、経路制御装置1を使用して、カメラを搭載した移動体2の移動経路を制御して、検査対象物の画像を取得する。ユーザは、取得した画像を利用した検査対象物の外観の検査を行うことができる。
 以下、本実施形態における経路制御装置1と移動体2の構成をそれぞれ説明する。
(経路制御装置)
 経路制御装置1は、制御部110と、第1通信部120と、第1記憶部130と、入力部140と、表示部150と、を備える。
 制御部110は、経路制御装置1の動作を制御する。制御部110は、機能的構成として、オブジェクト取得部111、仮想空間生成部112、区域設定部113、及び移動経路生成部114を含む。オブジェクト取得部111は、第1通信部120又は第1記憶部130等から、オブジェクトの形状を示すオブジェクトデータを取得する。仮想空間生成部112は、移動体2の移動範囲を含む現実の空間に対応させて仮想空間を定義し、仮想空間を複数の所定の三次元形状の複数の領域に分割して管理する。区域設定部113は、仮想空間を移動体2が通過できない移動禁止区域と移動体2が通過できる移動可能区域とに区分けする。移動経路生成部114は、移動可能区域内において移動体2の移動経路を設定し、設定した移動経路を示す経路情報を生成する。
 制御部110は、例えば、ソフトウェアと協働して所定の機能を実現するCPU(Central Processing Unit)又はMPU(Micro Processing Unit)を含む。制御部110は、第1記憶部130に格納されたデータやプログラムを読み出して種々の演算処理を行うことで、所定の機能を実現する。制御部110は、計時機能等の各種機能を有してもよい。制御部110によって実行されるプログラムは、第1通信部120等から提供されてもよいし、可搬性を有する記録媒体に格納されていてもよい。
 制御部110は、所定の機能を実現するように設計された専用の電子回路、若しくは再構成可能な電子回路等のハードウェア回路で構成されてもよい。制御部110は、種々の半導体集積回路で構成されてもよい。種々の半導体集積回路としては、例えば、CPU、MPU、マイクロコンピュータ、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)が挙げられる。
 第1通信部120は、無線の通信回線を介して、経路制御装置1を移動体2等の外部機器に通信接続するためのモジュールを含む。第1通信部120は、有線の通信回線による通信接続するためのモジュールをさらに含んでもよい。第1通信部120は、所定の通信規格にしたがい通信を行う通信部の一例である。所定の通信規格には、IEEE(Institute of Electrical and Electronic Engineers)802.3,IEEE802.11a/11b/11g/11ac、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface)、IEEE1395、Wi-Fi(登録商標)、Bluetooth(登録商標)等の通信規格が含まれる。第1通信部120は、本実施形態における取得部の一例である。
 第1記憶部130は、経路制御装置1の機能を実現するために必要なプログラム及びデータを記憶する記憶媒体である。第1記憶部130は、例えば、HDD(Hard Disk Drive)、若しくはSSD(Solid State Drive)を含んで構成される。また、第1記憶部130は、例えば、フラッシュメモリ、DRAM(Dynamic Random Access Memory)、若しくはSRAM(Static Random Access Memory)を含んで構成されてもよい。第1記憶部130は、各種情報を一時的に記憶してもよい。第1記憶部130は、例えば、制御部110の作業エリアとして機能するように構成されてもよい。
 入力部140は、ユーザによる種々の操作を入力するHMI(Human Machine Interface)である。入力部140は、例えば、3Dマウスである。入力部140は、表示部150と共に構成されたタッチパネルであってもよい。また、入力部140は、キーボード、ボタン、スイッチ、及びこれらの組み合わせであってもよい。
 表示部150は、例えば、液晶ディスプレイ若しくは有機EL(Electro Luminescence)ディスプレイで構成される。
(移動体)
 移動体2は、動作制御部210と、第2通信部220と、位置検出部230と、センサ240と、駆動部250と、第2記憶部260と、撮影部270と、を備える。
 動作制御部210は、移動体2の動作を制御する。動作制御部210は、機能的構成として、駆動制御部211と、撮影制御部212と、を含む。駆動制御部211は、移動経路を示す経路情報と移動体2の現在地とに基づいて、駆動部250を制御する。撮影制御部212は、移動体2の移動経路において、検査対象物を撮影するように撮影部270を制御する。
 動作制御部210は、例えば、ソフトウェアと協働して所定の機能を実現するCPU又はMPUを含む。動作制御部210は、第2記憶部260に格納されたデータやプログラムを読み出して種々の演算処理を行い、所定の機能を実現する。動作制御部210は、計時機能等の各種機能を有してもよい。動作制御部210によって実行されるプログラムは、第2通信部220を介して提供されてもよいし、可搬性を有する記録媒体に格納されていてもよい。
 なお、動作制御部210は、所定の機能を実現するように設計された専用の電子回路、若しくは再構成可能な電子回路等のハードウェア回路で構成されてもよい。動作制御部210は、種々の半導体集積回路で構成されてもよい。種々の半導体集積回路としては、例えば、CPU、MPU、マイクロコンピュータ、DSP、FPGA、ASICが挙げられる。
 第2通信部220は、移動体通信システムにおける通信ネットワークを介して、経路制御装置1等の外部機器に移動体2を通信接続するためのモジュールである。第2通信部220は、経路制御装置1と通信する場合だけに限られず、外部機器と通信可能に構成されている。第2通信部220は、所定の通信規格にしたがい通信を行うことができるように構成されている。所定の通信規格には、例えば、IEEE802.3,IEEE802.11a/11b/11g/11ac、IEEE1395、Wi-Fi(登録商標)、Bluetooth(登録商標)の通信規格が含まれる。第2通信部220は、本実施形態における取得部の一例である。
 位置検出部230は、地理座標系の現在地を示す位置を検出する。位置検出部230は、例えば、GPS(Global Positioning System)衛星からの電波を受信して、受信した地点の緯度及び経度を測位するGPSモジュールである。位置検出部230は、受信した地点の緯度及び経度に加え、高度を測位するように構成されてもよい。
 センサ240は、例えば、加速度を検出する加速度センサ、角速度を検出するジャイロセンサを含むように構成されている。移動体2は、位置検出部230に加え、センサ240の出力を参照することによって、移動体2の三次元の位置をより正確に検出できる。
 駆動部250は、移動体2を移動させる駆動装置である。駆動部250は、例えば、回転翼及びモータを含んで構成される。駆動部250は、移動体2を前進、行進、旋回、及びホバリングさせる。
 第2記憶部260は、移動体2の機能を実現するために必要なプログラム及びデータを記憶する記憶媒体である。第2記憶部260は、例えば、HDD、若しくはSSDを含んで構成される。また、第2記憶部260は、例えば、フラッシュメモリ、DRAM、若しくはSRAMを含んで構成されてもよい。第2記憶部260は、各種情報を一時的に記憶してもよい。第2記憶部260は、例えば、動作制御部210の作業エリアとして機能するように構成されてもよい。
 撮影部270は、例えば、CCD(Charge-Coupled Device)イメージセンサ、又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子を含むカメラである。撮影部270は、赤外線カメラでもよい。撮影部270が検査対象物を撮影して生成した画像データは、例えば、第2通信部220を介して経路制御装置1又は別の外部機器に送信される。画像データは、移動体2の第2記憶部260に格納されてもよい。
(経路制御装置と移動体の全体動作)
 図2を参照して、経路制御装置1と移動体2の全体動作について、説明する。本明細書においては、図2に示すように、ステップを「S」と表記する。図2に示す処理は、例えば、ユーザが、経路制御装置1の入力部140を介して、移動経路を設定するためのアプリケーションプログラムを起動したときに開始される。
 経路制御装置1の制御部110は、最初に、仮想空間において移動禁止区域と移動可能区域を設定する(S1)。それから、制御部110は、移動可能区域内において、移動体2の移動経路を設定する(S2)。制御部110は、第1通信部120を介して、設定された移動経路を示す経路情報を移動体2に送信する(S3)。移動体2は、第2通信部220を介して、経路制御装置1から移動経路を示す経路情報を受信する(S11)。移動体2の動作制御部210は、移動経路に従って駆動部250を駆動して移動する(S12)。
(移動禁止区域と移動可能区域の設定処理)
 図3から図6を参照して、移動禁止区域と移動可能区域の設定処理について説明する。図3は、移動禁止区域と移動可能区域の設定処理(S1)の詳細を示している。図4は、オブジェクトの一例を示している。図5は、仮想空間を模式的に示している。図6は、設定された移動禁止区域と移動可能区域を模式的に示している。
 経路制御装置1の制御部110が図3に示す処理を行う。オブジェクト取得部111は、図4に示すようなオブジェクト10の形状を示すオブジェクトデータを取得する(S101)。図4には、オブジェクト10として飛行機を例示している。オブジェクト取得部111は、第1通信部120を介して、オブジェクトデータを取得してもよい。オブジェクト取得部111は、第1記憶部130に格納されているオブジェクトデータを取得してもよい。オブジェクトデータは、例えばCAD(Computer Aided Design)データである。オブジェクト10の形状は、ワイヤーフレームモデル、サーフェスモデル、及びソリッドモデルのいずれかで形成される。例えば、ユーザが、飛行機の外壁に設けられたアンテナの損傷を検査しようとするとき、そのユーザは、入力部140を介して、飛行機のCADデータを選択する。オブジェクトデータは、さらに、オブジェクト10の現実の地理座標系の位置を示す情報を含んでもよい。地理座標系の位置は、例えば、緯度、経度、及び高度を含む。
 仮想空間生成部112は、図5に示すような仮想空間20を生成する(S102)。具体的には、仮想空間生成部112は、移動体2の移動範囲を含む所定の現実の空間に対応させて仮想空間20を定義する。例えば、仮想空間生成部112は、オブジェクトデータに基づいて、オブジェクト10より大きなサイズに仮想空間20を定義していることが好ましい。仮想空間生成部112は、例えば、オブジェクト10のK倍(K>1)の大きさの仮想空間20を定義することができる。仮想空間生成部112は、定義した仮想空間20を複数の立方体のブロック25に分割して管理する。仮想空間生成部112は、ブロック25のサイズ(m×m×m)を移動体2のサイズ以上に設定する。
 区域設定部113は、オブジェクト10を仮想空間20に対応付けて仮想的に配置する(S103)。具体的には、区域設定部113は、オブジェクト10の座標系と仮想空間20の座標系を対応付ける。
 区域設定部113は、チェックするブロック25を一つ選択する(S104)。区域設定部113は、選択したブロック25がオブジェクト10と重なっているか否かを判断する(S105)。ブロック25がオブジェクト10と重なっていれば(S105でYes)、区域設定部113はそのブロック25を移動禁止区域に設定する(S106)。区域設定部113は、例えば、オブジェクト10とブロック25とが一部でも重なっていれば、そのブロック25を移動禁止区域に設定している。ブロック25がオブジェクト10と重なっていなければ(S105でNo)、区域設定部113はそのブロック25を移動可能区域に設定する(S107)。
 区域設定部113は、仮想空間20を形成する全ブロック25について、オブジェクト10との重なりのチェックが終了したか否かを判断する(S108)。オブジェクト10との重なりのチェックが終了していないブロック25がまだあれば(S108でNo)、ステップS104に戻る。区域設定部113は、チェックが終了していないブロック25を選択してオブジェクト10との重なりをチェックする。仮想空間20を形成する全ブロック25について、オブジェクト10との重なりのチェックが終了すると(S108でYes)、区域設定の処理を終了する。
 図3に示す区域設定処理を行うことによって、仮想空間20を形成するブロック25は、図6に示すように、移動禁止区域30と移動可能区域35とに区分けされる。移動可能区域35は、仮想空間20において、移動禁止区域30を除いたブロック25である。
(移動経路の設定処理)
 図7から図9を参照して、移動経路の設定処理について説明する。図7は、移動経路の設定処理(S2)の詳細を示している。図8は、目的地の設定を促す画面の表示例を示している。図9は、設定された移動経路の一例を模式的に示している。図9の例では、移動経路50は、ブロック番号M1~ブロック番号M27のブロック25を含む。
 経路制御装置1の制御部110が図7に示す処理を行う。移動経路生成部114は、移動体2から、移動体2の現在地を取得する(S201)。移動体2の現在地は、地理座標系の位置であって、具体的には、緯度、経度、及び高度を含む。移動経路生成部114は、入力部140で入力された移動体2の現在地を取得してもよい。移動経路生成部114は、移動体2の地理座標系の位置を仮想空間20の座標系の位置に対応付けて、移動体2の現在地を仮想空間20内の移動経路の始点に設定する。図9の例では、移動体2の地理座標系の位置が仮想空間20の座標系の位置(x,y,z)に対応付けられて、仮想空間20の座標系の位置(x,y,z)にあるブロック番号M1のブロック25が始点45に設定される。
 移動経路生成部114は、図8に示すように、目的地の設定を促すメッセージ40を表示部150に表示する(S202)。このとき、移動経路生成部114は、移動禁止区域30と移動可能区域35とを視覚的に区別して、表示部150に表示するように構成されている。移動禁止区域30と移動可能区域35とを視覚的に区別するためには、例えば、色分けして、表示部150で表示させればよい。移動経路生成部114は、移動経路の始点45のブロック25を、始点45以外のブロック25と視覚的に区別して、表示部150に表示してもよい。なお、表示部150において画面の手前にあるブロック25ほど、透明度がより高くなるようにブロック25を表示して、画面の奥側にあるブロック25を見えやすく表示することが好ましい。さらに、表示部150の画面において、オブジェクト10と仮想空間20とを重ねて表示してもよい。
 ユーザは、入力部140を介して、移動可能区域35内のいずれかのブロック25を選択することによって、目的地を指定することができる。このとき、移動経路生成部114は、移動禁止区域30内のブロック25をユーザが選択できないように設定していてもよい。ユーザがブロック25を選択したときに、移動経路生成部114は、ユーザが選択したブロック25を選択されていないブロック25と視覚的に区別して表示部150に表示してもよい。移動経路生成部114は、例えば、ブロック25の透明度又は着色を変えて、選択されたブロック25が強調されるように表示部150に表示させてもよい。ユーザがブロック25を選択したときに、選択されたブロック25に対応するオブジェクト10の対応する箇所を表示するようにしてもよい。移動経路生成部114は、ユーザが目的地としていずれかのブロック25を選択したときに、移動経路の始点45からユーザが選択したブロック25までの、移動可能区域35内での最短経路を算出して、仮の移動経路として表示部150に表示してもよい。
 移動経路生成部114は、ユーザが目的地として決定したブロック25を示す情報を取得すると(S203)、そのブロック25を移動経路の目的地に設定する。図9に示す移動経路50では、ブロック番号M27のブロック25が目的地に設定される。
 移動経路生成部114は、経由地の設定を促すメッセージを表示部150に表示する(S204)。経由地の設定を促すメッセージは、例えば、図8に示すようなメッセージ40と同様に表示させてもよい。移動経路生成部114は、ユーザが経由地として決定したブロック25を示す情報を取得すると(S205)、そのブロック25を移動経路の経由地に設定する。図9に示す移動経路50では、ハッチングで示した、ブロック番号M10、M12、M18、及びM21のブロック25が経由地に設定される。
 移動経路生成部114は、移動可能区域35内において、移動経路の始点45から経由地を通って目的地に到達するまでの最短距離を算出し、算出した最短経路を移動経路に設定する(S206)。複数の経由地が設定されている場合、移動経路生成部114は、ユーザが選択した順番通りに経由地を通過するように移動経路を設定してもよい。なお、経由地は必ずしも指定される必要はない。経由地が設定されていない場合は、移動経路の始点45から目的地までの、移動可能区域35内での最短経路を移動経路に設定すればよい。なお、設定する移動経路は、最短距離でなくてもよい。移動経路は、最も簡単な経路、例えば、方向転換の回数が最も少ない経路であってもよい。
 移動経路の終点は任意の点である。例えば、移動経路の終点は、移動経路の始点45と同一であってもよい。この場合、始点45から目的地までの移動経路を逆に辿って始点45に戻るように、移動経路を設定してもよい。以上のようにして設定された移動経路50は、図9に示すように、連続的に隣接するブロック25によって構成される。
 移動経路生成部114は、設定した移動経路を示す経路情報を生成する。経路情報は、移動経路50を構成するブロック25を特定できる情報である。経路情報は、移動経路50を構成するブロック25の中心位置の三次元座標の値(x,y,z)によって表されてもよい。生成された経路情報は、経路制御装置1から移動体2に送信される。
(移動制御処理)
 図10は、移動経路に従った移動制御処理(S12)の詳細を示している。移動体2の動作制御部210が、図10に示す処理を行う。
 駆動制御部211は、移動経路を示す経路情報を受信すると、位置検出部230とセンサ240の出力から移動体2の現在地を検出する(S121)。移動体2は、移動開始時において、移動経路の始点45に位置している。駆動制御部211は、現在地と移動経路とを比較して、移動経路に従って、移動経路の始点45の次のブロック25に移動するように駆動部250を制御する(S122)。駆動制御部211は、移動体2の地理座標系の位置と移動経路の三次元座標系の位置とを対応付けて、現在地と移動経路とを比較する。撮影制御部212は、移動体2の移動中、検査対象物である実在するオブジェクト10を撮影するように撮影部270を制御する。駆動制御部211は、移動経路の終点に到着したか否かを判断する(S123)。終点に到着していなければ(S123でNo)、ステップS121に戻り、現在地と移動経路とを比較しながら、移動経路の次のブロック25へと移動する。終点に到着すると(S123でYes)、駆動制御部211は駆動部250の制御を終了する。
(概要及び効果)
 以上のように、経路制御装置1は、移動体2の移動経路を生成する経路生成装置である。経路制御装置1は、オブジェクト10の形状を示すオブジェクトデータを取得する取得部の一例である第1通信部120と、オブジェクトデータに基づいて、移動体2の移動経路を設定する制御部110とを備える。制御部110は、移動体2の移動範囲を含む所定の現実の空間に対応させて仮想空間20を定義する。制御部110は、仮想空間20を所定の三次元形状の複数の領域の一例であるブロック25に分割して管理する。制御部110は、仮想空間20内にオブジェクト10を配置する。制御部110は、複数のブロック25のうち、オブジェクト10と重なるブロック25を移動体2が通過できない移動禁止区域30に設定する。制御部110は、複数のブロック25のうち、オブジェクト10と重ならない領域を移動体2が移動できる移動可能区域35に設定する。
 本実施形態では、オブジェクト10を仮想空間20に配置することによって、移動禁止区域30と移動可能区域35を区分けしているため、比較的簡単に移動禁止区域30と移動可能区域35を設定できる。また、仮想空間20が複数のブロック25に分割して管理されているため、分割した複数のブロック25を利用して移動体2の移動経路を比較的簡単に設定できる。
 具体的には、制御部110は、移動可能区域35内のブロック25を指定することによって移動経路50を設定する。よって、本実施形態では、移動経路50を比較的簡単に設定できる。また、移動体2は、分割した複数のブロック25を利用した比較的少ない計算量で、移動経路50に従った移動を行うことができる。
 経路制御装置1は、表示部150をさらに有する。表示部150は、移動禁止区域30と移動可能区域35とを視覚的に区別して表示する。よって、ユーザは、表示部150を見ながら、移動経路50の経由地及び目的地を移動可能区域35内のブロック25から選択することができる。これにより、ユーザは、容易に、経由地及び目的地を設定することができる。
 ブロック25のサイズは移動体2のサイズ、若しくは移動体2のサイズよりも大きく設定されている。そのため、移動体2は、移動経路50のブロック25を一つずつ順に辿ることができる。よって、移動体2は、比較的少ない計算量で、移動経路50に従った移動を簡単に行うことができる。ブロック25のサイズは、オブジェクト10のサイズ、若しくはオブジェクト10のサイズよりも小さく設定されている。よって、移動体2は、比較的少ない計算量で移動経路50に従って、オブジェクト10周りの移動を簡単に行うことができる。
 ブロック25は立方体である。これにより、経路制御装置1は、簡単に移動経路50を設定することができる。
 移動体2は、位置検出部230と、駆動部250と、動作制御部210とを備える。位置検出部230は、移動体2の現在地を検出する。駆動部250は、移動体2を移動させる。動作制御部210は、現在地と移動経路50とに基づいて、駆動部250を制御する。移動経路50がブロック25により設定されているため、移動体2は、比較的少ない計算量で、移動経路50に沿った移動を行うことができる。移動体2は、自律飛行する飛行体であって、例えば、ドローンである。本実施形態によれば、三次元空間における飛行経路を簡単に設定することができる。
<実施形態2>
 実施形態2では、複数の移動体2が仮想空間20に対応する現実の空間内を移動する場合を想定する。本実施形態では、複数の移動体2の移動経路に共通するブロック25があれば、同一の時間帯にその共通のブロック25を通過しないように、移動経路を変更する。これにより、複数の移動体2が衝突することを回避する。
 図11及び図12を参照して、実施形態2における移動経路の変更処理について説明する。図11は、実施形態2における移動経路の変更処理を示している。図12は、移動経路を示す経路情報60の一例を示している。
 経路制御装置1は、本実施形態における経路生成装置の一例である。本実施形態においては、複数のユーザの各々が、経路制御装置1と移動体2の対を所有している場合を想定し、別の移動体2の移動経路と衝突しないように、自己の移動体2の移動経路を変更する例について説明する。例えば、図12に示す移動体「A」の移動経路が別の移動体「B」、「C」、「D」の移動経路と衝突しないように、移動体「A」の移動経路を変更する。
 本実施形態において、制御部110が図11に示す処理を行う。図11に示す移動経路の変更処理は、設定した移動経路を移動体2に送信する前(図2のステップS2とS3の間)に行う。
 移動経路生成部114は、別の移動体2の移動経路を示す経路情報を別の経路制御装置1から取得する(S211)。移動経路生成部114は、別の移動体2の移動経路を示す経路情報を別の移動体2から取得してもよい。
 経路情報60は、例えば、図12に示すように、移動体2を識別する識別情報61と、移動体2が移動を開始する開始時刻62と、ブロック25によって設定された移動経路50を示す情報とを含む。図12では移動経路50をブロック番号で示している。
 移動経路生成部114は、自己の移動体2の移動経路と取得した別の移動体2の移動経路とに共通のブロック25が含まれているか否かを判断する(S212)。これにより、移動経路生成部114は、移動体2が別の移動体2と衝突する可能性があるか否かを判断する。共通のブロック25がなければ(S213でNo)、移動体2の移動経路の変更を行わずに、移動経路の変更処理を終了する。
 共通のブロック25があれば(S213でYes)、移動経路生成部114は、共通のブロック25を隣接するブロック25に変更可能か否かを判断する(S214)。すなわち、隣接するブロック25が移動禁止区域30内のブロック25か、移動可能区域35内のブロック25かを判断する。隣接するブロック25が移動可能区域35内のブロック25であれば(S214でYes)、移動経路生成部114は、共通するブロック25を、隣接するブロック25に変更する(S215)。
 移動経路生成部114は、隣接するブロック25の全てが移動禁止区域30内のブロック25であれば(S214でNo)、自己の移動体2と別の移動体2が共通するブロック25を同一時間帯に通過するか否かを判断する(S216)。同一時間帯に通過するか否かの判断は、例えば、移動の開始時刻62と、移動経路50内における共通のブロック25の順番と、移動体2の平均時速により算出できる。同一時間帯に通過しない場合は(S216でNo)、移動体2が衝突する可能性がないと判断する。例えば、図12の例では、移動体「A」と移動体「B」の移動経路50には、始点45から4番目に共通するブロック「M4」が存在するが、移動の開始時刻が異なるため、衝突する可能性がないと判断する。この場合、移動経路生成部114は、移動経路を変更せずに、移動経路の変更処理を終了する。
 同一時間帯に通過する場合は(S216でYes)、移動経路生成部114は、共通するブロック25を通過する時間を変更する(S217)。例えば、移動経路生成部114は、共通するブロック25の手前のブロック25で待機するように移動経路を変更する。図12の例では、移動体「A」と移動体「C」の移動経路50には、いずれも経路の7番目に共通するブロック「M7」が存在し、且つ移動の開始時刻も同一であるため、移動体「A」がブロック「M7」を通過する時間を変更する。例えば、移動体「A」の移動経路50において、ブロック「M7」の前にブロック「M6」をさらに追加することによって、ブロック「M6」で待機させる。これにより、移動体「A」と移動体「C」が衝突することを回避する。
 本実施形態においては、複数のユーザの各々が経路制御装置1と移動体2の対を所有している場合を例にして説明したが、1人又は複数のユーザが1つの経路制御装置1で複数の移動体2の移動経路を設定することもできる。この場合、複数の移動体2のそれぞれの移動経路を示す経路情報60は、一つの経路制御装置1の第1記憶部130に格納されている。よって、移動経路生成部114は、ステップS211において、複数の移動体2の移動経路を示す経路情報60を第1記憶部130から取得してもよい。
 共通するブロック25が存在するときに、いずれの移動体2の移動経路を変更するかを、任意に設定してもよい。例えば、経路情報60は、移動体2の優先順位を含んでもよい。この場合、優先順位の低い移動体2の移動経路を変更してもよい。また、経路情報60は、許容可能な最終の到着時刻を含んでもよい。この場合、移動の開始時刻62及び移動経路50から算出した到着予定時刻と、許容可能な最終の到着時刻との差が大きい移動体2の移動経路を変更してもよい。
 以上のように、制御部110は、複数の移動体2の移動経路を比較して、複数の移動体2の移動経路において同一のブロック25が含まれているか否かを判断し、同一のブロック25が含まれていれば移動経路を変更する。これにより、移動体2同士が衝突することを回避することができる。
<実施形態3>
 実施形態1では経路制御装置1が移動体2の移動経路を生成したが、実施形態3では移動体2が移動経路を生成する。経路制御装置1と移動体2とにより、本実施形態における経路生成装置を構成する。具体的には、経路制御装置1が移動禁止区域30と移動可能区域35を設定する。移動体2が移動経路を設定する。
 図13は、実施形態3における経路制御装置1と移動体2の構成を示している。本実施形態では、移動体2の動作制御部210が移動経路生成部213を備えている。なお、経路制御装置1は、図1に示す移動経路生成部114を備えない。
 図14は、実施形態3における経路制御装置1と移動体2の全体動作を示している。経路制御装置1の制御部110が移動禁止区域30と移動可能区域35を設定する(S21)。ステップS21は、図2のステップS1と同一である。
 制御部110は、経由地及び目的地の設定を促すメッセージを表示部150に表示する(S22)。このとき、移動経路生成部213は、移動禁止区域30と移動可能区域35とを視覚的に区別して表示部150に表示する。例えば、色分けして表示する。制御部110は、ユーザが経由地及び目的地として指定したブロック25を特定する情報を取得する(S23)。なお、実施形態1の図7に示すように、最初に目的地を特定する情報を取得して、その後に経由地を特定する情報を取得してもよい。
 制御部110は、移動可能区域35を示す区域情報と、経由地及び目的地を示す情報を移動体2に送信する(S24)。具体的には、移動可能区域35内のブロック25の位置を特定する情報と、経由地及び目的地であるブロック25の位置を特定する情報を移動体2に送信する。なお、移動可能区域35の代わりに又は移動可能区域35に加えて、移動禁止区域30内のブロック25の位置情報を移動体2に送信してもよい。
 移動体2の動作制御部210の移動経路生成部213は、第2通信部220を介して、移動可能区域35を示す区域情報と、経由地及び目的地を示す情報を経路制御装置1から受信する(S31)。
 移動経路生成部213は、位置検出部230及びセンサ240の出力から移動体2の現在地を検出する(S32)。移動経路生成部213は、現在地を移動経路の始点45に設定し、移動可能区域35内において、移動経路の始点45から、経由地を通過して、目的地に到達するまでの最短経路を移動経路として設定する(S33)。移動経路の設定方法は、実施形態1と同一であってもよいし、異なってもよい。移動経路の終点は任意である。例えば、移動経路の終点は、移動経路の始点45と同一であってもよい。
 駆動制御部211は、設定した移動経路に従って、駆動部250を制御して、移動体2を移動させる(S34)。ステップS34は、図2のステップS12と同一である。
 なお、移動体2の移動経路生成部213は、移動経路を設定した後、移動を開始する前に(S33とS34の間)、図11に示す移動経路の変更処理を行ってもよい。
 以上のように、本実施形態の移動体2は、自動的に設定した移動経路で移動することができる。本実施形態では、移動体2の移動範囲を含む所定の現実の空間に対応させて定義された仮想空間20が所定の三次元形状の複数の領域であるブロック25に分割されている。複数のブロック25は、移動体2が通過できない移動禁止区域30と移動体2が通過できる移動可能区域35にそれぞれ設定されている。移動体2は、第2通信部220と、位置検出部230と、駆動部250と、動作制御部210と、を備える。第2通信部220は、移動可能区域35を示す区域情報を取得する。位置検出部230は、移動体2の現在地を検出する。駆動部250は、移動体2を移動させる。動作制御部210は、移動可能区域35内のブロック25を指定して移動経路を設定する。動作制御部210は、現在地と移動経路とに基づいて、駆動部250を制御する。
 移動可能区域35がブロック25によって設定されているため、移動体2は移動経路を比較的簡単に設定できる。
<他の実施形態>
 移動体2は、ドローン等の無人航空機に限らない。移動体2は、自律移動する無人端末であればよく、例えば、自律移動するロボットであってもよい。なお、移動体2は、無人で移動する構造に限られない。移動体2は、設定された移動経路に従って自律移動できればよく、有人で移動する構造であってもよい。また、移動体2は飛行しない構造でもよい。例えば、移動体2は、地面、壁、又はレール上を移動する構造であってもよい。
 オブジェクト10は、飛行機に限定しない。本発明は、任意のオブジェクト10について、適用できる。例えば、オブジェクト10は、移動体2の撮影部270が撮影した画像を用いた目視検査の対象となる検査対象物を含む。また、オブジェクト10は、検査対象物に限らず、ユーザが撮影部270によって撮影する構造であってもよい。具体的には、オブジェクト10は、車両であってもよい。車両としては、例えば、自動車、二輪又は電車が挙げられる。さらに、オブジェクト10によって移動禁止区域30を設定するため、オブジェクト10は、検査対象物に限られない。オブジェクト10は、移動体2の移動を妨げるような構造物であってもよい。オブジェクト10となる構造物としては、例えば、建物、橋が挙げられる。
 仮想空間20を分割する三次元形状は、立方体のブロック25に限らず、他の三次元形状であってもよい。例えば、直方体、三角錐によって、仮想空間20を分割してもよい。
 上記実施形態では、ユーザは、目的地と経由地を設定したが、始点45から終点までの移動経路の一部又は全部を設定してもよい。例えば、入力部140は表示部150と共に構成されたタッチパネルである。入力部140は、ユーザがタッチパネルを操作することによって、隣接しているブロック25が連続的に選択され、移動経路を設定する構造でもよい。
 オブジェクト10の形状を示すデータは、CADデータに限られない。オブジェクト10の形状を示すデータは、オブジェクト10の形状を示せればよい。例えば、オブジェクト10の形状を示すデータは、写真であってもよい。
 ブロック25のサイズは、移動体2の位置検出部230及びセンサ240による位置検出の精度に基づいて、決定してもよい。例えば、検出精度が高いほど、ブロック25のサイズを小さく設定してもよい。
 経路制御装置1から移動体2への経路情報の送信は、第1通信部120及び第2通信部220による無線の通信回線を使用した通信に限らない。経路制御装置1から移動体2への経路情報の送信は、有線の通信回線により、行われてもよい。例えば、移動体2は、HDMI(登録商標)、USB等の通信規格にしたがって、経路制御装置1から経路情報を受け取ってもよい。また、経路情報の送受信は、第1通信部120及び第2通信部220を介さずに行ってもよい。例えば、経路制御装置1は生成した経路情報を可搬性を有する記録媒体に格納し、移動体2はその記録媒体から経路情報を読み出してもよい。移動可能区域35を示す区域情報、経由地及び目的地を示す情報についても同様に、第1通信部120及び第2通信部220を介さずに、移動体2に記録されてもよい。
 上記実施形態では、経路制御装置1が、仮想空間20を定義してオブジェクト10に基づいて移動禁止区域30と移動可能区域35を設定したが、移動体2が、仮想空間20を定義してオブジェクト10に基づく移動禁止区域30と移動可能区域35の設定処理を行ってもよい。すなわち、移動体2のみによって、経路生成装置を構成してもよい。この場合、移動体2は、実施形態1の経路制御装置1と同等の構成を有する。
 経路制御装置1及び移動体2のそれぞれの機能を実現するために制御部によって実行されるプログラムが提供されてもよい。
 以上のように、本発明の具体的な実施形態及び変形例について説明したが、本発明は上述した実施形態等に限定されるものではなく、本発明の範囲内で種々の変更を行ってもよい。例えば、上記の個々の実施形態の内容を適宜組み合わせたものを本発明の一実施形態とすることができる。
 本発明の経路生成装置は、移動体の移動経路を生成する装置として有用である。
  1   経路制御装置
  2   移動体
  12  撮影システム
  110 制御部
  111 オブジェクト取得部
  112 仮想空間生成部
  113 区域設定部
  114、213 移動経路生成部
  120 第1通信部
  130 第1記憶部
  140 入力部
  150 表示部
  210 動作制御部
  220 第2通信部
  230 位置検出部
  240 センサ
  250 駆動部
  260 第2記憶部
  270 撮影部
  211 駆動制御部
  212 撮影制御部

Claims (6)

  1.  移動体の移動経路を生成する経路生成装置であって、
     オブジェクトの形状を示すオブジェクトデータを取得する取得部と、
     前記オブジェクトデータに基づいて、移動体の移動経路を設定する制御部と、
     を備え、
     前記制御部は、
      前記移動体の移動範囲を含む所定の現実の空間に対応させて仮想空間を定義し、
      前記仮想空間を所定の三次元形状の複数の領域に分割した複数の分割領域を管理し、
      前記仮想空間内に前記オブジェクトを配置し、
      前記複数の分割領域のうち、前記オブジェクトと重なる領域を前記移動体が通過できない移動禁止区域に設定し、
      前記複数の分割領域のうち、前記オブジェクトと重ならない領域を前記移動体が移動できる移動可能区域に設定する、
     ことを特徴とする経路生成装置。
  2.  前記制御部は、前記移動可能区域内の前記分割領域を指定することによって前記移動経路を設定する、
     請求項1に記載の経路生成装置。
  3.  前記移動禁止区域と前記移動可能区域とを視覚的に区別して表示する表示部をさらに有する、
     請求項1に記載の経路生成装置。
  4.  前記制御部は、
      複数の移動体の移動経路を比較して、
      前記複数の移動体の移動経路において同一の分割領域が含まれているか否かを判断し、
      同一の分割領域が含まれていれば前記移動経路を変更する、
     請求項1に記載の経路生成装置。
  5.  移動経路に沿って移動する移動体であって、
     前記移動体の現在地を検出する位置検出部と、
     前記移動体を移動させる駆動部と、
     前記現在地と前記移動経路とに基づいて、前記駆動部を制御する制御部と、
     を備え、
     前記移動体の移動範囲を含む所定の現実の空間に対応させて定義された仮想空間が所定の三次元形状の複数の領域に分割され、分割された前記複数の領域は、前記移動体が通過できない移動禁止区域と前記移動体が通過できる移動可能区域にそれぞれ設定されていて、前記移動可能区域内の前記分割された領域を指定して前記移動経路が設定されている、
     ことを特徴とする移動体。
  6.  移動体の移動経路を生成するためのプログラムであって、
     前記移動体の移動範囲を含む所定の現実の空間に対応させて仮想空間を定義するステップと、
     前記仮想空間を所定の三次元形状の複数の領域に分割した複数の分割領域を管理するステップと、
     前記仮想空間内にオブジェクトを配置するステップと、
     前記複数の分割領域のうち、前記オブジェクトと重なる領域を前記移動体が移動できない移動禁止区域に設定するステップと、
     前記複数の分割領域のうち、オブジェクトと重ならない領域を前記移動体が移動できる移動可能区域に設定するステップと、
     前記移動可能区域内の前記分割領域を指定して前記移動経路を設定するステップと、
     をコンピュータに実行させるためのプログラム。
PCT/JP2018/036456 2017-10-03 2018-09-28 経路生成装置、移動体、及びプログラム WO2019069829A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201880064511.6A CN111164381B (zh) 2017-10-03 2018-09-28 路径生成装置、移动体以及存储介质
US16/652,786 US11537149B2 (en) 2017-10-03 2018-09-28 Route generation device, moving body, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-193587 2017-10-03
JP2017193587A JP6967417B2 (ja) 2017-10-03 2017-10-03 経路生成装置、及びプログラム

Publications (1)

Publication Number Publication Date
WO2019069829A1 true WO2019069829A1 (ja) 2019-04-11

Family

ID=65994632

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/036456 WO2019069829A1 (ja) 2017-10-03 2018-09-28 経路生成装置、移動体、及びプログラム

Country Status (4)

Country Link
US (1) US11537149B2 (ja)
JP (1) JP6967417B2 (ja)
CN (1) CN111164381B (ja)
WO (1) WO2019069829A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021002166A (ja) * 2019-06-20 2021-01-07 ソフトバンク株式会社 飛行航路決定装置、飛行航路決定システム、飛行航路決定方法および飛行航路決定プログラム

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021064977A1 (ja) * 2019-10-04 2021-04-08 株式会社センシンロボティクス 飛行体の飛行経路生成方法及び飛行体予約方法、プログラム、管理サーバ
KR102099136B1 (ko) * 2019-12-20 2020-05-15 한국건설기술연구원 유무인비행체를 위한 3d 공중도로 네트워크 생성 장치 및 방법
KR102099137B1 (ko) * 2019-12-20 2020-04-09 한국건설기술연구원 유무인비행체를 위한 3d 공중도로 안내 서비스 제공 장치 및 방법
US11710411B2 (en) * 2020-05-08 2023-07-25 The Travelers Indemnity Company Systems and methods for autonomous hazardous area data collection
KR102400618B1 (ko) * 2020-09-07 2022-05-20 국방과학연구소 위험 관리 지도 생성 방법 및 그 장치
WO2022091229A1 (en) * 2020-10-27 2022-05-05 Aaron Sanjaya Benedek Flight management apparatus, flying object, flight management system, flight management method, flight control method and program
JP2021060407A (ja) * 2020-11-30 2021-04-15 株式会社センシンロボティクス 飛行体の飛行経路生成方法及び飛行体予約方法、プログラム、管理サーバ
CN113206989A (zh) * 2021-03-31 2021-08-03 聚好看科技股份有限公司 一种三维通信系统中人物模型的定位方法及设备
JP2022170355A (ja) * 2021-04-28 2022-11-10 悠介 大倉 飛行体運航支援システムおよび飛行体運航支援方法
CN113532440A (zh) * 2021-07-30 2021-10-22 华北科技学院(中国煤矿安全技术培训中心) 基于救援机器人的现场勘查和物资供应方法、系统和设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015072650A (ja) * 2013-10-04 2015-04-16 株式会社デンソーアイティーラボラトリ 経路算出装置、車両制御装置、車両運転支援装置、車両、経路算出プログラム、及び経路算出方法
JP2016006568A (ja) * 2014-06-20 2016-01-14 ルネサスエレクトロニクス株式会社 半導体装置及び制御方法
JP2017047694A (ja) * 2015-08-31 2017-03-09 日立オートモティブシステムズ株式会社 車両制御装置および車両制御システム
JP2017083919A (ja) * 2015-10-22 2017-05-18 株式会社東芝 障害物マップ生成装置、その方法、及び、そのプログラム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8509982B2 (en) * 2010-10-05 2013-08-13 Google Inc. Zone driving
JP5855469B2 (ja) * 2012-01-16 2016-02-09 株式会社日立製作所 搬入経路計画システム
US20150185857A1 (en) * 2012-06-08 2015-07-02 Kmt Global Inc User interface method and apparatus based on spatial location recognition
JP6014484B2 (ja) * 2012-12-21 2016-10-25 セコム株式会社 自律移動ロボット
JP6140458B2 (ja) * 2013-01-24 2017-05-31 セコム株式会社 自律移動ロボット
US8849494B1 (en) * 2013-03-15 2014-09-30 Google Inc. Data selection by an autonomous vehicle for trajectory modification
JP6244137B2 (ja) * 2013-08-12 2017-12-06 株式会社ジオ技術研究所 3次元地図表示システム
JP2015145793A (ja) * 2014-01-31 2015-08-13 パイオニア株式会社 経路探索装置、経路探索方法及び経路探索用プログラム
US9720410B2 (en) * 2014-03-03 2017-08-01 Waymo Llc Remote assistance for autonomous vehicles in predetermined situations
US9547989B2 (en) * 2014-03-04 2017-01-17 Google Inc. Reporting road event data and sharing with other vehicles
US10613528B2 (en) * 2015-03-06 2020-04-07 Alberto Daniel Lacaze Point-and-click control of unmanned, autonomous vehicle using omni-directional visors
US9880551B2 (en) * 2015-03-06 2018-01-30 Robotic Research, Llc Point-and-click control of unmanned, autonomous vehicle using omni-directional visors
US9836895B1 (en) * 2015-06-19 2017-12-05 Waymo Llc Simulating virtual objects
JP6569114B2 (ja) 2015-10-19 2019-09-04 エナジー・ソリューションズ株式会社 検査システム、及び検査方法
US10679511B2 (en) * 2016-09-30 2020-06-09 Sony Interactive Entertainment Inc. Collision detection and avoidance
KR20180075191A (ko) * 2016-12-26 2018-07-04 삼성전자주식회사 무인 이동체를 제어하기 위한 방법 및 전자 장치
US11073838B2 (en) * 2018-01-06 2021-07-27 Drivent Llc Self-driving vehicle systems and methods
US11062537B2 (en) * 2018-02-28 2021-07-13 Waymo Llc Fleet management for vehicles using operation modes
US11048256B2 (en) * 2019-08-09 2021-06-29 Waymo Llc Parking behaviors for autonomous vehicles

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015072650A (ja) * 2013-10-04 2015-04-16 株式会社デンソーアイティーラボラトリ 経路算出装置、車両制御装置、車両運転支援装置、車両、経路算出プログラム、及び経路算出方法
JP2016006568A (ja) * 2014-06-20 2016-01-14 ルネサスエレクトロニクス株式会社 半導体装置及び制御方法
JP2017047694A (ja) * 2015-08-31 2017-03-09 日立オートモティブシステムズ株式会社 車両制御装置および車両制御システム
JP2017083919A (ja) * 2015-10-22 2017-05-18 株式会社東芝 障害物マップ生成装置、その方法、及び、そのプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021002166A (ja) * 2019-06-20 2021-01-07 ソフトバンク株式会社 飛行航路決定装置、飛行航路決定システム、飛行航路決定方法および飛行航路決定プログラム
JP6998918B2 (ja) 2019-06-20 2022-01-18 ソフトバンク株式会社 飛行航路決定装置、飛行航路決定システム、飛行航路決定方法および飛行航路決定プログラム

Also Published As

Publication number Publication date
US20200241573A1 (en) 2020-07-30
CN111164381A (zh) 2020-05-15
US11537149B2 (en) 2022-12-27
JP6967417B2 (ja) 2021-11-17
CN111164381B (zh) 2024-02-02
JP2019066381A (ja) 2019-04-25

Similar Documents

Publication Publication Date Title
JP6967417B2 (ja) 経路生成装置、及びプログラム
US11367257B2 (en) Information processing apparatus, information processing method, and storage medium
US20160327946A1 (en) Information processing device, information processing method, terminal device, and setting method
JP6765512B2 (ja) 飛行経路生成方法、情報処理装置、飛行経路生成システム、プログラム及び記録媒体
JP2017509939A (ja) 疎及び密マッピング情報を含むマップを生成するための方法及びシステム
US11295142B2 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium
JP6829513B1 (ja) 位置算出方法及び情報処理システム
US20220221274A1 (en) Positioning systems and methods
US20240046640A1 (en) Data processing method, apparatus, and system for fire scene, and unmanned aerial vehicle
CN109931950B (zh) 一种实景导航方法、系统及终端设备
US11112531B2 (en) Method of creating longitudinal section of three-dimensional point group data, and survey data processing device and survey system for the same
WO2019106714A1 (ja) 無人航空機、無人航空機の飛行制御装置、無人航空機の飛行制御方法、及びプログラム
JP2023087622A (ja) 情報処理システム、情報処理方法、プログラム、移動体、管理サーバ
KR20220069541A (ko) 지도제작플랫폼장치 및 이를 이용한 지도제작방법
CN111164958A (zh) 用于基于姿态信息处理和显示图像数据的系统及方法
JP7004374B1 (ja) 移動体の移動経路生成方法及びプログラム、管理サーバ、管理システム
JP7138758B2 (ja) 移動体、及びプログラム
KR101579970B1 (ko) 사진에 촬영된 지점의 위치를 계산하는 방법 및 장치
JP2020036163A (ja) 情報処理装置、撮影制御方法、プログラム及び記録媒体
KR200488998Y1 (ko) 실내 지도 구축 장치
JP6684012B1 (ja) 情報処理装置および情報処理方法
JP7130409B2 (ja) 管制装置
WO2021130980A1 (ja) 飛行体の飛行経路表示方法及び情報処理装置
JP7072311B1 (ja) 移動体の移動経路生成方法及びプログラム、管理サーバ、管理システム
JP7441579B1 (ja) 情報処理システム及び情報処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18864481

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18864481

Country of ref document: EP

Kind code of ref document: A1