WO2016006588A1 - 移動体制御装置、移動体制御方法、移動体制御プログラム及び記録媒体 - Google Patents

移動体制御装置、移動体制御方法、移動体制御プログラム及び記録媒体 Download PDF

Info

Publication number
WO2016006588A1
WO2016006588A1 PCT/JP2015/069473 JP2015069473W WO2016006588A1 WO 2016006588 A1 WO2016006588 A1 WO 2016006588A1 JP 2015069473 W JP2015069473 W JP 2015069473W WO 2016006588 A1 WO2016006588 A1 WO 2016006588A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
moving body
unit
movement
target
Prior art date
Application number
PCT/JP2015/069473
Other languages
English (en)
French (fr)
Inventor
義博 花田
Original Assignee
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社 filed Critical パイオニア株式会社
Priority to JP2016532935A priority Critical patent/JPWO2016006588A1/ja
Publication of WO2016006588A1 publication Critical patent/WO2016006588A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/10Simultaneous control of position or course in three dimensions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device

Definitions

  • the present invention relates to a moving body control device, a moving body control method, a moving body control program, and a recording medium on which the moving body control program is recorded.
  • SLAM Simultaneous Localization And Mapping
  • a surrounding information acquisition sensor such as a LiDAR (Light Detection and Ranging) device for acquiring surrounding information of the moving body, and a moving amount of the moving body for each predetermined period period
  • a movement amount acquisition sensor such as an acceleration sensor for acquiring.
  • the data amount of the detection result by the surrounding information acquisition sensor is large, and data processing takes time.
  • Patent Document 1 A technique for controlling movement of a moving body along a path for movement from a current position to a target position while utilizing such a SLAM function has been proposed (see Patent Document 1: hereinafter referred to as “conventional example”). ).
  • control information for controlling the movement of the moving body is derived every time the processing of the detection result data by the surrounding information acquisition sensor is completed.
  • control information for controlling the movement of the moving body is derived each time the processing related to the detection result data by the surrounding information acquisition sensor is completed. Yes. For this reason, when the moving speed of the moving body is low, it can be said that appropriate movement control based on the current position of the moving body can be substantially performed. However, when the moving speed of the moving body increases, It is difficult to say that appropriate movement control based on the current position can be substantially performed.
  • the technology of the conventional example is a technology applied to a moving body that travels on a road surface or a floor surface, and computational resources for performing SLAM processing are mounted on the moving body.
  • computational resources for performing SLAM processing are unsuitable for mounting on a small mobile body (particularly, a small flying body) in terms of size, weight, and power consumption.
  • the surrounding information acquisition sensor and the movement amount acquisition sensor described above need to be mounted on the moving body. Therefore, the detection data of these sensors is transmitted to a computation resource that performs SLAM processing by wireless communication. However, as described above, since the amount of detection result data by the surrounding information acquisition sensor is large, it takes time to transmit the detection result data by the surrounding information acquisition sensor.
  • the computing resource for performing the SLAM processing is installed outside the mobile body and the mobile body is controlled by applying the technology of the conventional example, the data transfer time by the above-described wireless communication is further increased. It becomes a control delay element. As a result, it becomes increasingly difficult to increase the moving speed of the moving body while performing appropriate movement control.
  • the invention according to claim 1 is mounted on a moving body and acquires a surrounding information acquisition unit that acquires surrounding information of the moving body; and is mounted on the moving body and has a first period of the first period of the moving body.
  • a movement amount acquisition unit that acquires movement amount information relating to a movement amount for each period; self-position estimation that estimates self-position information relating to the self-position of the moving body in a second period longer than the first period based on the surrounding information;
  • an output unit that outputs control information related to movement control of the moving body based on the self-position information and the movement amount information.
  • the invention according to claim 10 is mounted on the moving body and acquires a surrounding information acquisition unit that acquires surrounding information of the moving body; and is mounted on the moving body and has the first period of the moving body in the first period.
  • a movement amount acquisition unit that acquires movement amount information relating to a movement amount for each period, and a moving body control method used in a moving body control device that controls movement of the moving body, based on the surrounding information
  • the invention described in claim 11 is a moving object control program that causes a computer included in a moving object control device that controls movement of the moving object to execute the moving object control method according to claim 10. .
  • a twelfth aspect of the invention is a recording in which the moving body control program according to the eleventh aspect is recorded so as to be readable by a computer included in a moving body control device that controls movement of the moving body. It is a medium.
  • the mobile control device 100 includes a processing control device 200 and a flying object mounting device 300.
  • the flying object mounting device 300 is mounted on the unmanned flying object 500 which is a moving object, and moves together with the unmanned flying object 500.
  • the processing control device 200 is disposed at a fixed position outside the unmanned air vehicle 500. Information is exchanged by wireless communication between the processing control device 200 and the flying object mounting device 300.
  • the unmanned air vehicle 500 includes a plurality of rotors, and flight control (control of the moving direction and moving speed) is possible by controlling the rotation of these rotors.
  • the processing control device 200 includes a wireless transmission / reception unit 220, a storage unit 230, a SLAM processing unit 240, and a target movement vector determination unit 250.
  • the processing control device 200 includes an input unit 260 and a display unit 270.
  • the wireless transmission / reception unit 220 includes an antenna 210.
  • the wireless transmission / reception unit 220 transmits / receives information to / from the airborne apparatus 300 using the antenna 210.
  • the wireless transmission / reception unit 220 receives information transmitted from the airborne apparatus 300 via the antenna 210. Then, the radio transmission / reception unit 220 sends the received information to the SLAM processing unit 240. Note that the information transmitted from the flying object mounting device 300 includes surrounding information and movement amount information, which will be described later.
  • the wireless transmission / reception unit 220 receives target movement vector information (described later) sent from the target movement vector determination unit 250. Then, the radio transmission / reception unit 220 transmits the target movement vector information to the flying object mounting device 300 via the antenna 210.
  • the storage unit 230 stores various information used in the processing control apparatus 200.
  • the information stored in the storage unit 230 in this way includes map information generated by the SLAM processing unit 240.
  • the SLAM processing unit 240 can access the storage unit 230.
  • the SLAM processing unit 240 receives the ambient information and the movement amount information transmitted from the flying object mounting device 300 via the wireless transmission / reception unit 220.
  • the SLAM processing unit 240 executes SLAM processing that simultaneously performs self-position estimation processing of the unmanned air vehicle 500 and environmental map creation processing around the unmanned air vehicle 500 based on the surrounding information and the movement amount information. Then, the SLAM processing unit 240 sends the self-position information estimated by the self-position estimation process to the target movement vector determination unit 250 and stores the environment map information created by the environment map creation process in the storage unit 230.
  • the output period of the self-position information of the SLAM processing unit 240 is the second period of the period time length TP 2 (for example, 200 ms), and the output self-position information is the time before the time length TP 2 from the output time.
  • the information reflects the position of the unmanned air vehicle 500 with high accuracy.
  • the SLAM processing unit 240 responds to the map display mode designation sent from the input unit 260, and the self-position of the unmanned air vehicle 500 in the latest environmental map created and the latest estimated environmental map. Is generated on the display unit 270. Then, the SLAM processing unit 240 sends the generated display data to the display unit 270. As a result, the environment map according to the map display mode designation and the self-position of the unmanned air vehicle 500 in the environment map are displayed on the display unit 270.
  • the target movement vector determination unit 250 receives the target position on the environmental map included in the target position designation sent from the input unit 260 and the target movement time to the target position, and at the second cycle, the SLAM processing unit 240. Receive self-location information sent from. Here, the target movement time, so that the integral multiple of the time length TP 2 is designated.
  • the target movement vector determination unit 250 estimates the current position and determines the target movement vector and the target movement speed based on the target position, the target movement time, and the self-position information. Then, the target movement vector determination unit 250 transmits the determined target movement vector and target movement speed as new target movement vector information to the flying object mounting device 300 via the wireless transmission / reception unit 220.
  • the input unit 260 includes a stroke device such as a keyboard and a pointing device such as a mouse. By performing an input operation on the input unit 260, the user can input the map display mode designation and the target position designation described above.
  • the input unit 260 sends the input result to the SLAM processing unit 240 when the map display mode designation is input.
  • the input unit 260 sends the input result to the target movement vector determination unit 250.
  • the display unit 270 includes a display device such as a liquid crystal panel, an organic EL (Electro Luminescence) panel, and a PDP (Plasma Display Panel). Upon receiving the display data sent from the SLAM processing unit 240, the display unit 270 displays an image corresponding to the display data.
  • a display device such as a liquid crystal panel, an organic EL (Electro Luminescence) panel, and a PDP (Plasma Display Panel).
  • the target movement vector determination unit 250 includes a target position holding unit 251 and a current position estimation unit 252 as shown in FIG. In addition, the target movement vector determination unit 250 includes a target movement vector calculation unit 253.
  • the target position holding unit 251 receives the target position designation sent from the input unit 260. Then, the target position holding unit 251 holds the target position and the target moving time included in the target position designation. When the content of the target position designation sent from the input unit 260 is held in this way, the target position holding unit 251 sends to the current position estimating unit 252 that the new target position and the target moving time are held.
  • the target position holding unit 251 receives a new target movement time sent from the target movement vector calculation unit 253, the target position holding unit 251 updates the held target movement time to the new target movement time.
  • the target position and target movement time held in this way can be read by the target movement vector calculation unit 253.
  • the current position estimation unit 252 receives the self-position information sent from the SLAM processing unit 240 and the target movement vector and the target movement speed sent from the target movement vector calculation unit 253. Then, the current position estimation unit 252 estimates a new current position based on the self-position information, the target movement vector, and the target movement speed. The new current position thus estimated is sent to the target movement vector calculation unit 253.
  • the target movement vector calculation unit 253 receives the target position and target movement time read from the target position holding unit 251 and the current position sent from the current position estimation unit 252. Subsequently, the target movement vector calculation unit 253 calculates a new target movement vector and a new target movement speed based on the target position, the target movement time, and the current position. Then, the target movement vector calculation unit 253 determines the calculated new target movement vector and new target movement speed as new target movement vector information. The target movement vector information determined in this way is transmitted to the flying object mounting device 300 via the wireless transmission / reception unit 220 and is also transmitted to the current position estimation unit 252.
  • the processing executed by the target movement vector calculation unit 253 will be described later.
  • the flying object mounting apparatus 300 includes a wireless transmission / reception unit 320, a surrounding information acquisition unit 330, and a movement amount acquisition unit 340.
  • the flying object mounting apparatus 300 includes a control information output unit 350 and a rotor driving unit 360.
  • the wireless transmission / reception unit 320 includes the antenna 310.
  • the wireless transmission / reception unit 320 transmits / receives information to / from the processing control apparatus 200 using the antenna 310.
  • the wireless transmission / reception unit 320 receives the target movement vector information transmitted from the processing control apparatus 200 via the antenna 310. Then, the radio transmission / reception unit 320 sends the received target movement vector information to the control information output unit 350.
  • the wireless transmission / reception unit 320 receives the surrounding information sent from the surrounding information acquisition unit 330 and the movement amount information sent from the movement amount acquisition unit 340. Then, the radio transmission / reception unit 320 transmits the surrounding information and the movement amount information to the processing control apparatus 200 via the antenna 310.
  • the surrounding information acquisition unit 330 has a LiDAR function in this embodiment.
  • This ambient information acquisition unit 330 is an obstacle that moves from the current position of the unmanned aerial vehicle 500 in all directions from the current position of the unmanned air vehicle 500 (for example, when the unmanned air vehicle 500 flies indoors, Column, beam, ceiling, floor, etc.). Then, the surrounding information acquisition unit 330 transmits the acquisition result as surrounding information to the processing control apparatus 200 (more specifically, the SLAM processing unit 240) via the wireless transmission / reception unit 320.
  • the ambient information acquisition unit 330 sequentially outputs new ambient information to the processing control apparatus 200 in the second period described above.
  • the movement amount acquisition unit 340 is configured to include an optical flow sensor.
  • the movement amount acquisition unit 340 acquires movement amount information during the period with a first period having a period time length TP 1 (for example, 10 ms) based on the detection result by the optical flow sensor. Then, the movement amount acquisition unit 340 transmits the acquired movement amount information to the control information output unit 350 and transmits it to the processing control apparatus 200 (more specifically, the SLAM processing unit 240) via the wireless transmission / reception unit 320. To do.
  • the movement amount acquisition unit 340 receives the corrected target movement vector sent from the control information output unit 350 and expressing the vector component in the map coordinate system. Then, the movement amount acquisition unit 340 obtains the movement amount obtained from the detection result by the optical flow sensor obtained in the flight direction state of the unmanned air vehicle 500 that is the direction of the correction target movement vector, based on the correction target movement vector. To convert it into a vector component representation in the map coordinate system. The result of such conversion is sent to the control information output unit 350 as movement amount information, and is also sent to the processing control apparatus 200 via the wireless transmission / reception unit 320.
  • the above-mentioned time length TP 2 is almost exactly an integer M (eg, “20”) times the time length TP 1 .
  • the movement amount information acquired by the movement amount acquisition unit 340 includes errors such as so-called offset errors and random errors, and is less accurate than the self-location information acquired by the SLAM processing unit 240 described above. It is information.
  • the control information output unit 350 receives the target movement vector information sent from the processing control apparatus 200 (more specifically, the target movement vector determination unit 250) via the wireless transmission / reception unit 320 and acquires the movement amount. The movement amount information sent from the unit 340 is received. Then, the control information output unit 350 calculates flight control information based on the target movement vector information and the movement amount information, and outputs the calculated flight control information. The flight control information output in this way is sent to the rotor drive unit 360.
  • control information output unit 350 Details of the configuration of the control information output unit 350 will be described later.
  • the rotor drive unit 360 receives the flight control information sent from the control information output unit 350. And the rotor drive part 360 rotationally drives the several rotor with which the unmanned air vehicle 500 is provided according to the said flight control information. For this reason, the unmanned aerial vehicle 500 performs flight according to the flight control information calculated by the control information output unit 350.
  • the control information output unit 350 includes an accumulated movement amount estimation unit 351 as shown in FIG.
  • the control information output unit 350 includes a target movement vector holding unit 356 and a control information calculation unit 357.
  • the cumulative movement amount estimation unit 351 receives the movement amount information transmitted from the movement amount acquisition unit 340 while receiving the target movement vector information transmitted from the processing control device 200 via the wireless transmission / reception unit 320. Then, after receiving the target movement vector information, the cumulative movement amount estimation unit 351 sequentially calculates the movement amount indicated by the movement amount information every time the movement amount information is received in the period for receiving the next target movement vector information. , Cumulative addition. The cumulative movement amount calculated by this cumulative addition is sent to the control information calculation unit 357 as a cumulative movement vector.
  • the cumulative movement amount estimation unit 351 having such a function includes a cumulative movement amount holding unit 352 and an addition unit 353.
  • the above cumulative movement amount holding unit 352 receives the target movement vector information. Then, when the cumulative movement amount holding unit 352 receives the target movement vector information, it resets the holding contents to “0”.
  • the accumulated movement amount holding unit 352 updates the holding content to the new addition result.
  • the held content updated in this way is sent to the adder 353 and the control information calculator 357 as an accumulated movement vector.
  • the addition unit 353 receives the holding content sent from the cumulative movement amount holding unit 352 and the movement amount information sent from the movement amount acquisition unit 340. Each time the addition unit 353 receives the movement amount information, the addition unit 353 adds the retained content (cumulative movement amount at that time) and the movement amount indicated as the movement amount information. The result of the addition is sent to the accumulated movement amount holding unit 352.
  • the target movement vector holding unit 356 receives the target movement vector information transmitted from the processing control apparatus 200 via the wireless transmission / reception unit 320.
  • the target movement vector holding unit 356 holds the target movement vector information, that is, the target movement vector and the target movement speed.
  • the target movement vector and the target movement speed thus held in the target movement vector holding unit 356 are sent to the control information calculation unit 357.
  • the control information calculation unit 357 reads the target movement vector and the target movement speed held in the target movement vector holding unit 356 and receives the cumulative movement vector sent from the cumulative movement amount estimation unit 351. Then, the control information calculation unit 357 calculates a corrected target movement vector by subtracting the cumulative movement vector from the target movement vector, and a rotor for moving at the target movement speed in the direction of the calculated correction target movement vector. Drive control information is calculated as flight control information. The flight control information calculated in this way is sent to the rotor drive unit 360. Further, the calculated corrected target movement vector is sent to the movement amount acquisition unit 340.
  • time T 0 the time when the target movement vector determination unit 250 first receives the self-position information after receiving a new target position designation is denoted as time T 0 . Further, the time (T 0 + j ⁇ PT 0 ) is denoted as time T j .
  • the self-position at time T j-1 indicated by the self-position information output from the SLAM processing unit 240 at time T j is referred to as self-position Q j-1 .
  • the expected position at time T j referred to as the scheduled position R j.
  • the “scheduled position” refers to the position of the unmanned aerial vehicle 500 when moving along the target movement vector according to the control information output from the control information output unit 350 with no error in the movement amount information. .
  • estimated current position at time T j referred to as estimated current position CP j.
  • error E j the error from the estimated current position CP j to self-position Q j.
  • a vector having the estimated current position CP j as the start point and the target position P N specified at time T 0 as the end point is referred to as a target movement vector VCT j .
  • the target travel time (TM 0 ⁇ j ⁇ PT 2 ) is referred to as the target travel time TM j .
  • the target movement speed during the period in which the movement control along the target movement vector VCT j is performed is described as a target movement speed V j .
  • an unmanned air vehicle 500 at time T 0 is located at the position P 0, it is assumed that not moved from the position P 0 for a period of more than twice the time PT 2 prior to time T 0.
  • the self-positions Q -2 , Q -1 , and Q 0 all coincide with the position P 0 with high accuracy, and the target moving speeds V -2 and V -1 become "0". It has become. Therefore, predetermined position R -2 described below, R -1, R 0 and the estimated current position CP -2, CP -1, CP 0 , both will be accurately matched to the position P 0.
  • the target position held by the target position holding unit 251 is the position P 0 before the target movement vector determination unit 250 receives a new target position designation at time T 0 .
  • the target movement vectors VCT -2 and VCT -1 are substantially "0" vectors.
  • the movement amount acquisition unit 340 has started operation, and has transmitted the movement amount information to the target movement vector determination unit 250 and the control information calculation unit 357 in the first period.
  • the surrounding information acquisition unit 330 has started operation and has transmitted the surrounding information to the SLAM processing unit 240 in the second period.
  • the SLAM processing unit 240 has started operation and has sent its own position information to the target movement vector determination unit 250 in the second period.
  • step S11 the target position holding unit 251 determines whether or not new target position information has been received. If the result of the determination in step S11 is negative (step S11: N), the process of step S11 is repeated.
  • step S11 When the target position information is newly received and the result of the determination in step S11 is affirmative (step S11: Y), the target position holding unit 251 creates a new target position P N included in the newly received target position information and The new target travel time (N ⁇ PT 2 ) is held inside. When the target position P N and the target movement time (N ⁇ PT 2 ) are held inside in this way, the target position holding unit 251 sends a message to that effect to the current position estimation unit 252. Then, the process proceeds to step S12.
  • step S ⁇ b> 12 the current position estimation unit 252 determines whether or not the self position information indicating the self position R ⁇ 1 is received from the SLAM processing unit 240. If the result of the determination in step S12 is negative (step S12: N), the process of step S12 is repeated.
  • step S12 when new self-position information is received from the SLAM processing unit 240 and the result of determination in step S12 is affirmative (step S12: Y), the parameter j is set to “0”. Then, the process proceeds to step S13.
  • step S13 the current position estimating part 252 is performed by an estimate of the current position of the unmanned air vehicle 500, and calculates the estimated current position CP j.
  • the current position estimating unit 252 When calculating the estimated current position CP j , the current position estimating unit 252 first calculates an error E j ⁇ 1 from the planned position R j ⁇ 1 to the self position R j ⁇ 1 .
  • the current position estimation unit 252 calculates an estimated current position CP j at time T j .
  • the current position estimating unit 252 firstly sets a time when moving from the estimated current position CP j ⁇ 1 along the target movement vector VCT j ⁇ 1 at the target moving speed V j ⁇ 1. to calculate the expected position R j at T j.
  • the current position estimation unit 252 calculates the estimated current position CP j by adding the error E j ⁇ 1 to the planned position R j .
  • the current position estimation unit 252 sends the estimated current position CP j to the target movement vector calculation unit 253 as current position information.
  • the target movement vector calculation unit 253 that has received the current position information calculates target movement vector information.
  • the target movement vector calculation unit 253 first reads the target position P N and the target movement time TM j from the target position holding unit 251. Subsequently, the target movement vector calculation unit 253 calculates a target movement vector VCT j having the estimated current position CP j as a start point and the target position PN as an end point.
  • the target movement vector calculation unit 253 calculates the length of the target movement vector VCT j . Subsequently, it determines the calculated length from the estimated current position CP j is whether it can be said is in the vicinity of the target position P N. If the result of this determination is affirmative, the target movement vector calculation unit 253 sets the target movement speed to “0”. Then, the target movement vector calculation unit 253 transmits the target movement vector and the target movement speed as the target movement vector to the control information output unit 350 of the flying object mounting apparatus 300 and also to the current position estimation unit 252. In the present embodiment, at time T N, the estimated current position CP N is adapted to the vicinity of the target position P N.
  • step S15 ends, and the process returns to step S11.
  • the target movement vector calculation unit 253 divides the calculated length of the new target movement vector by the read target movement time TM j , thereby The moving speed V j is calculated. Subsequently, the target movement vector calculation unit 253 transmits the target movement vector VCT j and the target movement speed V j as target movement vectors to the control information output unit 350 of the aircraft mounting apparatus 300 and to the current position estimation unit 252. send.
  • step S15 is complete
  • steps S11 to S15 are repeated.
  • the target movement vector information is sequentially determined, and the determined target movement vector information is transmitted to the control information output unit 350.
  • the target movement vector holding unit 356 when the target movement vector holding unit 356 receives the target movement vector information sent from the processing control apparatus 200, the target movement vector holding unit 356 holds the target movement vector information, that is, the target movement vector and the target movement speed. Further, in the control information output unit 350, the cumulative movement amount holding unit 352 and the addition unit 353 in the cumulative movement amount estimation unit 351 cooperate with each other as described above and receive the latest target movement vector information. The accumulated movement amount of the unmanned air vehicle 500 is estimated. Then, the cumulative movement amount estimation unit 351 sends the estimation result of the cumulative movement amount to the control information calculation unit 357 in the first cycle in the cumulative movement vector expression mode. In the control information calculation unit 357, a control information calculation process is executed.
  • step S21 the control information calculation unit 357 determines whether or not it has received a new cumulative movement amount vector sent from the cumulative movement amount estimation unit 351. . If the result of the determination in step S21 is negative (step S21: N), the process of step S21 is repeated.
  • step S21 When a new cumulative movement amount vector is received and the result of determination in step S21 is affirmative (step S21: N), the process proceeds to step S22.
  • step S22 the control information calculation unit 357 first reads the target movement vector and the target movement speed held in the target movement vector holding unit 356. Subsequently, the control information calculation unit 357 calculates a new corrected target movement vector by subtracting the new cumulative movement amount vector from the read target movement vector.
  • step S23 the control information calculation unit 357 performs PID control calculation and the like to calculate flight control information for moving at the read target movement speed along the direction of the new corrected target movement vector. To do. Then, the control information calculation unit 357 outputs the calculated flight control information to the rotor drive unit 360.
  • step S23 When the process of step S23 is thus completed, the process returns to step S21. Thereafter, the processes of steps S21 to S23 are repeated. As a result, the flight control information is calculated in the first cycle having the cycle time length PT 1 shorter than the cycle time length PT 2 of the second cycle, which is the estimation cycle of the self-position information, and the movement of the unmanned air vehicle 500 is controlled. Is done.
  • the SLAM processing unit 240 based on the surrounding information acquired by the surrounding information acquisition unit 330 mounted on the unmanned air vehicle 500, the SLAM processing unit 240 relates to the self-position of the moving body in the second period. Highly accurate self-location information is estimated in the second period.
  • the movement amount acquisition unit 340 mounted on the unmanned air vehicle 500 causes the movement amount information regarding the movement amount for each period of the first cycle to be lower than the accuracy of the self-position information in the first cycle shorter than the second cycle. Get with accuracy.
  • the target movement vector determination unit 250 corrects the current target movement vector in the second period based on the self-position information before the period time of the second period.
  • control information output unit 350 corrects the target movement vector in the first period based on the movement amount information, and corrects the corrected target movement vector. Based on the above, the movement control information is calculated and output to control the movement of the unmanned air vehicle 500.
  • the error from the previous scheduled position before the cycle time of the second cycle to the self-position before the cycle time of the second cycle in the movement according to the flight control information output from the control information output unit 350. Is added to the current planned position to estimate the current position. For this reason, it is possible to appropriately evaluate the error in the movement amount information and determine the target movement vector at the present time in the second period. As a result, even if the movement speed of the unmanned air vehicle 500 is high, appropriate flight control is performed. be able to.
  • the current position is estimated by adding the error from the previous scheduled position before the cycle time of the second period to the self position before the cycle time of the second period to the current scheduled position.
  • the current position information may be estimated by adding twice the error amount from the previous planned position to the self position before the second cycle period time to the current planned position. In this case, when the offset error is dominant in the error in the movement amount information, the current position can be estimated with higher accuracy than in the above-described embodiment, and a more appropriate target movement vector can be obtained. Can be determined.
  • the flying object mounting apparatus is provided with the control information output unit.
  • the function of the control information output unit may be implemented in the processing control apparatus. In this case, it is possible to further reduce the weight and power consumption of the flying object mounting device.
  • the movement amount acquisition unit includes the optical flow sensor.
  • a gyro sensor is provided, the speed of the flying object is estimated from the pitch angle and roll angle of the flying object, and movement amount information is acquired based on the time integration of the estimated speed. You may do it.
  • a gyro sensor and an acceleration sensor are provided, and the moving direction is estimated from the detection result by the gyro sensor, the speed is estimated from the detection result by the acceleration sensor, the estimated moving direction and the estimated The movement amount information may be acquired based on the time integration of the speed.
  • the present invention is applied when the moving body is an unmanned air vehicle.
  • the present invention is applied to a moving body other than the unmanned air vehicle (for example, a vehicle traveling on a road surface or a floor surface). May be applied.
  • a moving body other than the unmanned air vehicle for example, a vehicle traveling on a road surface or a floor surface.
  • part or all of the functions of the processing control device in the above embodiment can be mounted on the mobile body mounting device. .
  • the present invention is not limited to a two-dimensional movement or a three-dimensional movement. It can be applied even if it exists.
  • the processing control device of the above embodiment is configured to include a computer as a calculation means such as a central processing unit (CPU: CentralCPUProcessing ⁇ Unit), and by executing a program prepared in advance on the computer, You may make it implement
  • the flying object mounting apparatus of the above embodiment is configured to include a computer as a calculation means such as a central processing unit, and a program prepared in advance is executed by the computer, whereby the flying object of the above embodiment is used. You may make it implement
  • These programs are recorded on a computer-readable recording medium such as a hard disk, CD-ROM, or DVD, and are read from the recording medium and executed by the computer. The program may be acquired in a form recorded on a portable recording medium such as a CD-ROM or DVD, or may be acquired in a form distributed via a network such as the Internet. Also good.

Abstract

 無人飛行体(500)に搭載された飛行体搭載装置(300)が備える周囲情報取得部(330)により取得された周囲情報に基づいて、無人飛行体(500)の外部に設置され、飛行体搭載装置(300)との間で無線通信が可能な処理制御装置が、第2周期で移動体の自己位置に関する精度の高い自己位置情報を第2周期で推定する。また、飛行体搭載装置(300)が備える移動量取得部(340)により、第2周期よりも短い第1周期で、第1周期の期間ごとの移動量に関する移動量情報を自己位置情報の精度よりも低い精度で取得する。そして、飛行体搭載装置(300)が備える制御情報出力部(350)が、自己位置情報及び移動量情報に基づいて、飛行制御情報を算出して出力することにより、無人飛行体(500)の移動を制御する。この結果、移動体の移動速度が高速であっても、適切な移動体の移動制御を行うことができる。

Description

移動体制御装置、移動体制御方法、移動体制御プログラム及び記録媒体
 本発明は、移動体制御装置、移動体制御方法及び移動体制御プログラム、並びに、当該移動体制御プログラムが記録された記録媒体に関する。
 従来から、ロボット等の移動体の自律移動に際して適用可能な技術として、移動体の自己位置推定と、移動体の周囲の環境地図作成とを同時に行うSLAM(Simultaneous Localization And Mapping)技術が注目されている。かかるSLAM技術では、作成された環境地図内における移動体位置が高精度で推定できるようになっている。
 なお、SLAM技術の実装に際しては、一般的に、移動体の周囲情報を取得するためのLiDAR(Light Detection and Ranging)装置等の周囲情報取得用センサと、所定周期期間ごとの移動体の移動量を取得するための加速度センサ等の移動量取得用センサとを用意するようになっている。ここで、周囲情報取得用センサによる検出結果のデータ量は多く、データ処理にも時間がかかるようになっている。
 こうしたSLAM機能を利用しつつ、現在位置から目標位置までの移動のための経路に沿った移動体の移動を制御する技術が提案されている(特許文献1参照:以下、「従来例」と呼ぶ)。この従来例の技術では、周囲情報取得用センサによる検出結果データの処理が終了するたびに、移動体の移動を制御するための制御情報を導出するようになっている。
特開2010-086416号公報
 上述した従来例の技術では、周囲情報取得用センサによる検出結果データに関する処理が終了するたびに、移動体の移動を制御するための制御情報を導出するので、制御情報を導出周期が長くなっている。このため、移動体の移動速度が遅い場合には、移動体の現在位置に基づいた適切な移動制御を実質的に行うことができるといえるが、移動体の移動速度が速くなると、移動体の現在位置に基づいた適切な移動制御を実質的に行うことができるとはいい難い。
 ところで、従来例の技術は、路面上又は床面上を走行する移動体に適用される技術となっており、SLAM処理を行う演算資源が移動体に搭載されている。しかしながら、SLAM処理を行う演算資源は、大きさ、重さ又は電力消費の点から、小型の移動体(特に、小型の飛行体)に搭載するには不向きである。
 そこで、移動体の外部にSLAM処理を行う演算資源を設置することが考えられるが、上述した周囲情報取得用センサ及び移動量取得用センサは移動体に搭載される必要がある。したがって、これらのセンサの検出データは、無線通信によりSLAM処理を行う演算資源へ送信することになる。しかしながら、上述したように、周囲情報取得用センサによる検出結果データの量が多いことから、周囲情報取得用センサによる検出結果データの送信に時間を要してしまう。
 したがって、移動体の外部にSLAM処理を行う演算資源を設置したうえで、従来例の技術を適用して移動体の移動制御を行うようにすると、上述した無線通信によるデータ転送時間が、更なる制御遅延要素となってしまう。この結果、適切な移動制御を行いつつ、移動体の移動速度を速くすることが益々困難となる。
 このため、移動体の移動速度が高速であっても、適切な移動体制御を行うことができる技術が望まれている。かかる要請に応えることが、本発明が解決すべき課題の一つとして挙げられる。
 請求項1に記載の発明は、移動体に搭載され、前記移動体の周囲情報を取得する周囲情報取得部と;前記移動体に搭載され、第1周期で前記移動体の前記第1周期の期間ごとの移動量に関する移動量情報を取得する移動量取得部と;前記周囲情報に基づき、前記第1周期より長い第2周期で前記移動体の自己位置に関する自己位置情報を推定する自己位置推定部と;前記自己位置情報と、前記移動量情報とに基づいて、前記移動体の移動制御に関する制御情報を出力する出力部と;を備えることを特徴とする移動体制御装置である。
 請求項10に記載の発明は、移動体に搭載され、前記移動体の周囲情報を取得する周囲情報取得部と;前記移動体に搭載され、第1周期で前記移動体の前記第1周期の期間ごとの移動量に関する移動量情報を取得する移動量取得部と;を備え、前記移動体の移動を制御する移動体制御装置において使用される移動体制御方法であって、前記周囲情報に基づき、前記第1周期より長い第2周期で前記移動体の自己位置に関する自己位置情報を推定する自己位置推定工程と;前記自己位置情報と、前記移動量情報とに基づいて、前記移動体の移動制御に関する制御情報を出力する出力工程と;を備えることを特徴とする移動体制御方法である。
 請求項11に記載の発明は、移動体の移動を制御する移動体制御装置が有するコンピュータに、請求項10に記載の移動体制御方法を実行させる、ことを特徴とする移動体制御プログラムである。
 請求項12に記載の発明は、移動体の移動を制御する移動体制御装置が有するコンピュータにより読み取り可能に、請求項11に記載の移動体制御プログラムが記録されている、ことを特徴とする記録媒体である。
本発明の一実施形態に係る移動体制御装置を構成する要素の配置、及び、当該要素の一つである処理制御部の構成を説明するための図である。 図1の目標移動ベクトル決定部の構成を説明するための図である。 図1の飛行体搭載装置の構成を説明するための図である。 図3の制御情報出力部の構成を説明するための図である。 図2の目標移動ベクトル決定部による目標移動ベクトル決定処理を説明するためのフローチャートである。 目標移動ベクトル決定処理により順次決定される目標移動ベクトルの例を説明するための図である。 図3の制御情報出力部による制御情報出力処理を説明するためのフローチャートである。
 100       … 移動体制御装置
 252       … 現在位置推定部
 253       … 目標移動ベクトル算出部
 330       … 周囲情報取得部
 340       … 移動量取得部
 350       … 制御情報出力部(出力部)
 351       … 累積移動量推定部
 356       … 目標移動ベクトル保持部(保持部)
 357       … 制御情報算出部
 以下、本発明の一実施形態を、図1~図7を参照して説明する。なお、以下の説明及び図面においては、同一又は同等の要素には同一の符号を付し、重複する説明を省略する。
 [構成]
 図1に示されるように、一実施形態に係る移動体制御装置100は、処理制御装置200と、飛行体搭載装置300とを備えている。ここで、飛行体搭載装置300は、移動体である無人飛行体500に搭載され、無人飛行体500とともに移動する。一方、処理制御装置200は、無人飛行体500の外部の固定位置に配設される。そして、処理制御装置200と飛行体搭載装置300との間では、無線通信による情報の授受が行われるようになっている。
 なお、本実施形態では、無人飛行体500は、複数のロータを備えており、これらのロータの回転を制御することにより、飛行制御(移動方向及び移動速度の制御)が可能となっている。
 <処理制御装置200の構成>
 上記の処理制御装置200は、図1に示されるように、無線送受信部220と、記憶部230と、SLAM処理部240と、目標移動ベクトル決定部250とを備えている。また、処理制御装置200は、入力部260と、表示部270とを備えている。
 上記の無線送受信部220は、アンテナ210を備えて構成されている。この無線送受信部220は、アンテナ210を利用して、飛行体搭載装置300との間で情報の送受信を行う。
 無線送受信部220は、アンテナ210を介して、飛行体搭載装置300から送信された情報を受信する。そして、無線送受信部220は、当該受信した情報をSLAM処理部240へ送る。なお、飛行体搭載装置300から送信される情報には、後述する周囲情報及び移動量情報が含まれている。
 また、無線送受信部220は、目標移動ベクトル決定部250から送られた後述する目標移動ベクトル情報を受ける。そして、無線送受信部220は、当該目標移動ベクトル情報を、アンテナ210を介して、飛行体搭載装置300へ送信する。
 上記の記憶部230は、処理制御装置200で利用される様々な情報を記憶する。こうして記憶部230に記憶される情報としては、SLAM処理部240により生成された地図情報が含まれている。この記憶部230に対しては、SLAM処理部240がアクセス可能となっている。
 上記のSLAM処理部240は、飛行体搭載装置300から送信された周囲情報及び移動量情報を、無線送受信部220を介して受ける。SLAM処理部240は、当該周囲情報及び移動量情報に基づいて、無人飛行体500の自己位置推定処理と、無人飛行体500の周囲の環境地図作成処理とを同時に行うSLAM処理を実行する。そして、SLAM処理部240は、自己位置推定処理により推定された自己位置情報を目標移動ベクトル決定部250へ送るとともに、環境地図作成処理により作成された環境地図情報を記憶部230に格納する。
 なお、SLAM処理部240の自己位置情報の出力周期は周期時間長TP2(例えば、200ms)の第2周期であり、出力される自己位置情報は、出力時点から時間長TP2だけ前の時刻の無人飛行体500の位置を高精度で反映した情報となっている。
 また、SLAM処理部240は、入力部260から送られた地図表示態様指定に応答して、作成された最新の環境地図、及び、最新に推定された環境地図中における無人飛行体500の自己位置を表示部270に表示させるための表示データを生成する。そして、SLAM処理部240は、生成された表示データを表示部270へ送る。この結果、地図表示態様指定に応じた環境地図、及び、無人飛行体500の環境地図中における自己位置が、表示部270に表示される。
 上記の目標移動ベクトル決定部250は、入力部260から送られた目標位置指定に含まれる環境地図上における目標位置及び当該目標位置までの目標移動時間を受けるとともに、第2周期でSLAM処理部240から送られてくる自己位置情報を受ける。ここで、目標移動時間は、時間長TP2の整数倍が指定されるようになっている。
 引き続き、目標移動ベクトル決定部250は、当該目標位置、当該目標移動時間及び当該自己位置情報に基づいて、現在位置を推定するとともに、目標移動ベクトル及び目標移動速度を決定する。そして、目標移動ベクトル決定部250は、決定された目標移動ベクトル及び目標移動速度を新たな目標移動ベクトル情報として、無線送受信部220を介して、飛行体搭載装置300へ送信する。
 なお、目標移動ベクトル決定部250の構成の詳細については、後述する。
 上記の入力部260は、本実施形態では、キーボード等のストロークデバイスと、マウス等のポインティングデバイスを備えて構成されている。この入力部260に対する入力操作を行うことにより、利用者は、上述した地図表示態様指定及び目標位置指定を入力できるようになっている。
 なお、入力部260は、地図表示態様指定が入力されると、入力結果をSLAM処理部240へ送る。また、入力部260は、目標位置指定が入力されると、入力結果を目標移動ベクトル決定部250へ送る。
 上記の表示部270は、例えば、液晶パネル、有機EL(Electro Luminescence)パネル、PDP(Plasma Display Panel)等の表示デバイスを備えて構成されている。この表示部270は、SLAM処理部240から送られた表示データを受けると、当該表示データに対応する画像を表示する。
 《目標移動ベクトル決定部250の構成》
 ここで、上述した目標移動ベクトル決定部250の構成について説明する。
 目標移動ベクトル決定部250は、図2に示されるように、目標位置保持部251と、現在位置推定部252とを備えている。また、目標移動ベクトル決定部250は、目標移動ベクトル算出部253を備えている。
 上記の目標位置保持部251は、入力部260から送られた目標位置指定を受ける。そして、目標位置保持部251は、当該目標位置指定に含まれる目標位置及び目標移動時間を保持する。こうして入力部260から送られた目標位置指定の内容を保持すると、目標位置保持部251は、新たな目標位置及び目標移動時間を保持した旨を現在位置推定部252へ送る。
 また、目標位置保持部251は、目標移動ベクトル算出部253から送られた新たな目標移動時間を受けた場合には、保持する目標移動時間を当該新たな目標移動時間に更新する。こうして保持された目標位置及び目標移動時間は、目標移動ベクトル算出部253により読み取り可能となっている。
 上記の現在位置推定部252は、SLAM処理部240から送られた自己位置情報、並びに、目標移動ベクトル算出部253から送られた目標移動ベクトル及び目標移動速度を受ける。そして、現在位置推定部252は、当該自己位置情報、当該目標移動ベクトル及び当該目標移動速度に基づいて、新たな現在位置を推定する。こうして推定された新たな現在位置は、目標移動ベクトル算出部253へ送られる。
 なお、現在位置推定部252が実行する処理については、後述する。
 上記の目標移動ベクトル算出部253は、目標位置保持部251から読み取られた目標位置及び目標移動時間、並びに、現在位置推定部252から送られた現在位置を受ける。引き続き、目標移動ベクトル算出部253は、当該目標位置、当該目標移動時間及び当該現在位置に基づいて、新たな目標移動ベクトル及び新たな目標移動速度を算出する。そして、目標移動ベクトル算出部253は、算出された新たな目標移動ベクトル及び新たな目標移動速度を新たな目標移動ベクトル情報に決定する。こうして決定された目標移動ベクトル情報は、無線送受信部220を介して飛行体搭載装置300へ送信されるとともに、現在位置推定部252へ送られる。
 なお、目標移動ベクトル算出部253が実行する処理については、後述する。
 <飛行体搭載装置300の構成>
 次に、上記の飛行体搭載装置300の構成について説明する。
 飛行体搭載装置300は、図3に示されるように、無線送受信部320と、周囲情報取得部330と、移動量取得部340とを備えている。また、飛行体搭載装置300は、制御情報出力部350と、ロータ駆動部360とを備えている。
 上記の無線送受信部320は、アンテナ310を備えて構成されている。この無線送受信部320は、アンテナ310を利用して、処理制御装置200との間で情報の送受信を行う。
 無線送受信部320は、アンテナ310を介して、処理制御装置200から送信された目標移動ベクトル情報を受信する。そして、無線送受信部320は、当該受信した目標移動ベクトル情報を制御情報出力部350へ送る。
 また、無線送受信部320は、周囲情報取得部330から送られた周囲情報、及び、移動量取得部340から送られた移動量情報を受ける。そして、無線送受信部320は、当該周囲情報及び移動量情報を、アンテナ310を介して、処理制御装置200へ送信する。
 上記の周囲情報取得部330は、本実施形態では、LiDAR機能を有している。この周囲情報取得部330は、無人飛行体500の現在位置から全方位に関し、無人飛行体500の現在位置から移動の障害物(例えば、無人飛行体500が屋内を飛行する場合には、壁、柱、梁、天井、床等)までの距離を取得する。そして、周囲情報取得部330は、取得結果を、周囲情報として、無線送受信部320を介して処理制御装置200(より詳細には、SLAM処理部240)へ送信する。
 なお、周囲情報取得部330は、上述した第2周期で、新たな周囲情報を、処理制御装置200へ向けて順次出力するようになっている。
 上記の移動量取得部340は、本実施形態では、オプティカルフローセンサを備えて構成されている。この移動量取得部340は、オプティカルフローセンサによる検出結果に基づいて、周期時間長TP1(例えば、10ms)の第1周期で、周期期間中における移動量情報を取得する。そして、移動量取得部340は、取得された移動量情報を、制御情報出力部350へ送るとともに、無線送受信部320を介して処理制御装置200(より詳細には、SLAM処理部240)へ送信する。
 なお、移動量取得部340は、制御情報出力部350から送られた、地図座標系におけるベクトル成分表現が行われている補正目標移動ベクトルを受ける。そして、移動量取得部340は、補正目標移動ベクトルの方向となっている無人飛行体500の飛行方向の状態で得られるオプティカルフローセンサによる検出結果から得られる移動量を、補正目標移動ベクトルに基づいて、地図座標系におけるベクトル成分表現に変換する。かかる変換の結果が、移動量情報として、制御情報出力部350へ送られるとともに、無線送受信部320を介して処理制御装置200へ送信されるようになっている。
 また、上述した時間長TP2は、ほぼ正確に、時間長TP1の整数M(例えば、「20」)倍となっている。さらに、移動量取得部340により取得される移動量情報には、いわゆるオフセット誤差、ランダム誤差等の誤差が含まれており、上述したSLAM処理部240により取得される自己位置情報よりも精度が低い情報となっている。
 上記の制御情報出力部350は、処理制御装置200(より詳細には、目標移動ベクトル決定部250)から送られた目標移動ベクトル情報を、無線送受信部320を介して受信するとともに、移動量取得部340から送られた移動量情報を受ける。そして、制御情報出力部350は、当該目標移動ベクトル情報及び当該移動量情報に基づいて飛行制御情報を算出し、算出された飛行制御情報を出力する。こうして出力された飛行制御情報は、ロータ駆動部360へ送られる。
 本実施形態では、制御情報出力部350が新たな目標移動ベクトル情報を受信するタイミングと、制御情報出力部350が新たな移動量情報を受けるタイミングとが同期するようになっている。すなわち、制御情報出力部350は、上述したように第2周期の周期時間長PT2(=M・PT1:Mは2以上の整数)ごとに、M個の移動量情報を受ける。そして、当該M個の移動量情報のうちの一つの移動量情報を受けた後、時間長PT1よりも十分に短い時間の経過後に目標移動ベクトル情報を受信するように、タイミング同期が図られるようになっている。
 なお、制御情報出力部350の構成の詳細については、後述する。
 上記のロータ駆動部360は、制御情報出力部350から送られた飛行制御情報を受ける。そして、ロータ駆動部360は、当該飛行制御情報に従って、無人飛行体500が備える複数のロータを回転駆動する。このため、無人飛行体500は、制御情報出力部350で算出された飛行制御情報に従った飛行を行うようになっている。
 《制御情報出力部350の構成》
 ここで、上述した制御情報出力部350の構成について説明する。
 制御情報出力部350は、図4に示されるように、累積移動量推定部351を備えている。また、制御情報出力部350は、目標移動ベクトル保持部356と、制御情報算出部357とを備えている。
 上記の累積移動量推定部351は、処理制御装置200から送信された目標移動ベクトル情報を、無線送受信部320を介して受信するとともに、移動量取得部340から送られた移動量情報を受ける。そして、累積移動量推定部351は、目標移動ベクトル情報の受信後、次の目標移動ベクトル情報を受信する期間において、移動量情報を受けるたびに、移動量情報により示された移動量を、順次、累積加算する。この累積加算により算出された累積移動量は、累積移動ベクトルとして、制御情報算出部357へ送られる。かかる機能を有する累積移動量推定部351は、累積移動量保持部352と、加算部353とを備えている。
 上記の累積移動量保持部352は、目標移動ベクトル情報を受信する。そして、累積移動量保持部352は、目標移動ベクトル情報を受信すると、保持内容を「0」にリセットする。
 また、累積移動量保持部352は、加算部353から送られた新たな加算結果を受けるたびに、保持内容を当該新たな加算結果に更新する。こうして更新された保持内容が、累積移動ベクトルとして、加算部353及び制御情報算出部357へ送られる。
 上記の加算部353は、累積移動量保持部352から送られた保持内容、及び、移動量取得部340から送られた移動量情報を受ける。そして、加算部353は、移動量情報を受けるたびに、当該保持内容(その時点での累積移動量)と、当該移動量情報として示されている移動量とを加算する。かかる加算の結果は、累積移動量保持部352へ送られる。
 上記の目標移動ベクトル保持部356は、処理制御装置200から送られた目標移動ベクトル情報を、無線送受信部320を介して受信する。そして、目標移動ベクトル保持部356は、当該目標移動ベクトル情報、すなわち、目標移動ベクトル及び目標移動速度を保持する。こうして目標移動ベクトル保持部356に保持された目標移動ベクトル及び目標移動速度は、制御情報算出部357へ送られる。
 上記の制御情報算出部357は、目標移動ベクトル保持部356に保持された目標移動ベクトル及び目標移動速度を読み取るとともに、累積移動量推定部351から送られた累積移動ベクトルを受ける。そして、制御情報算出部357は、当該目標移動ベクトルから累積移動ベクトルを差し引いて補正目標移動ベクトルを算出し、当該算出された補正目標移動ベクトルの方向へ、当該目標移動速度で移動するためのロータ駆動の制御情報を飛行制御情報として算出する。こうして算出された飛行制御情報は、ロータ駆動部360へ送られる。また、算出された補正目標移動ベクトルは、移動量取得部340へ送られる。
 [動作]
 次に、上記のように構成された移動体制御装置100の動作について、上述した目標移動ベクトル決定部250による目標移動ベクトル決定処理、及び、上述した制御情報出力部350による制御情報出力処理に主に着目して説明する。
 なお、以下の説明においては、目標移動ベクトル決定部250が新たに目標位置指定を受けた後に最初に自己位置情報を受けた時刻を、時刻T0と記す。さらに、時刻(T0+j×PT0)を、時刻Tjと記す。
 また、SLAM処理部240から時刻Tjに出力される自己位置情報で示される時刻Tj-1における自己位置を、自己位置Qj-1と記す。さらに、時刻Tjにおける予定位置を、予定位置Rjと記す。ここで、「予定位置」とは、移動量情報に誤差がない状態で、制御情報出力部350から出力された制御情報に従って目標移動ベクトルに沿って移動した場合における無人飛行体500の位置をいう。
 また、時刻Tjにおける推定現在位置を、推定現在位置CPjと記す。さらに、推定現在位置CPjから自己位置Qjまでの誤差を、誤差Ejと記す。
 また、推定現在位置CPjを始点とし、時刻T0において指定された目標位置PNを終点とするベクトルを目標移動ベクトルVCTjと記す。また、目標移動時間(TM0-j×PT2)を、目標移動時間TMjと記す。さらに、目標移動ベクトルVCTjに沿った移動制御が行われている期間における目標移動速度を目標移動速度Vjと記す。
 前提として、無人飛行体500は、時刻T0において位置P0に位置しており、時刻T0より前の時間PT2の2倍以上の期間にわたって位置P0から移動していないものとする。この結果、自己位置Q-2,Q-1,Q0は、いずれも位置P0に精度良く一致することになるとともに、目標移動速度V-2,V-1が「0」となるようになっている。このため、後述する予定位置R-2,R-1,R0及び推定現在位置CP-2,CP-1,CP0、いずれも位置P0に精度良く一致することになる。
 また、時刻T0において目標移動ベクトル決定部250が新たな目標位置指定を受ける前に、目標位置保持部251に保持されている目標位置は位置P0であるものとする。この結果、目標移動ベクトルVCT-2,VCT-1は実質的な「0」ベクトルとなる。
 また、移動量取得部340は、動作を開始しており、移動量情報を、第1周期で目標移動ベクトル決定部250へ送信するとともに、制御情報算出部357へ送っているものとする。また、周囲情報取得部330は、動作を開始しており、周囲情報を、第2周期でSLAM処理部240へ送信しているものとする。さらに、SLAM処理部240は、動作を開始しており、自己位置情報を、第2周期で目標移動ベクトル決定部250へ送っているものとする。
 <目標移動ベクトル決定処理>
 まず、目標移動ベクトル決定部250により実行される目標移動ベクトル決定処理について説明する。
 目標移動ベクトル決定処理に際しては、図5に示されるように、まず、ステップS11において、目標位置保持部251が、新たに目標位置情報を受けたか否かを判定する。ステップS11における判定の結果が否定的であった場合(ステップS11:N)には、ステップS11の処理が繰り返される。
 新たに目標位置情報を受け、ステップS11における判定の結果が肯定的となると(ステップS11:Y)、目標位置保持部251は、新たに受けた目標位置情報に含まれる新たな目標位置PN及び新たな目標移動時間(N×PT2)を内部に保持する。こうして目標位置PN及び目標移動時間(N×PT2)が内部に保持されると、目標位置保持部251は、その旨を現在位置推定部252へ送る。そして、処理はステップS12へ進む。
 ステップS12では、現在位置推定部252が、SLAM処理部240から自己位置R-1を示す自己位置情報を受けたか否かを判定する。ステップS12における判定の結果が否定的であった場合(ステップS12:N)には、ステップS12の処理が繰り返される。
 時刻T0となり、SLAM処理部240から新たな自己位置情報を受け、ステップS12における判定の結果が肯定的となると(ステップS12:Y)、パラメータjを「0」に設定する。そして、処理はステップS13へ進む。このステップS13では、現在位置推定部252が、無人飛行体500の現在位置の推定を、推定現在位置CPjを算出することにより行う。
 かかる推定現在位置CPjの算出に際して、現在位置推定部252は、まず、予定位置Rj-1から自己位置Rj-1までの誤差Ej-1を算出する。ここで、予定位置Rj-1は、予定位置Rj-2から目標移動ベクトルVCTj-2に沿って目標移動速度Vj-2(=0)で移動した場合における時刻Tj-1での位置として算出される。
 なお、「j=0」の場合には、予定位置R-1(=位置P0)は、推定現在位置CP-2(=位置P0)から目標移動ベクトルVCT-2(=「0」ベクトル)に沿って目標移動速度V-2(=0)で移動した場合における時刻T-1での位置として算出される。この結果、誤差E-1は「0」となる。
 また、「j=1」の場合には、予定位置R0(=位置P0)は、推定現在位置CP-1(=位置P0)から目標移動ベクトルVCT-1(=「0」ベクトル)に沿って目標移動速度V-1(=0)で移動した場合における時刻Tでの位置として算出される。この結果、誤差E0も「0」となる。
 引き続き、ステップS14において、現在位置推定部252が、時刻Tjにおける推定現在位置CPjを算出する。かかる推定現在位置CPjの推定に際して、現在位置推定部252は、まず、推定現在位置CPj-1から目標移動ベクトルVCTj-1に沿って目標移動速度Vj-1で移動した場合における時刻Tjでの予定位置Rjを算出する。引き続き、現在位置推定部252は、予定位置Rjに誤差Ej-1を加算して推定現在位置CPjとを算出する。そして、現在位置推定部252は、推定現在位置CPjを現在位置情報として目標移動ベクトル算出部253へ送る。
 次に、ステップS15において、現在位置情報を受けた目標移動ベクトル算出部253が、目標移動ベクトル情報を算出する。かかる目標移動ベクトル情報の算出に際して、目標移動ベクトル算出部253は、まず、目標位置保持部251から目標位置PN及び目標移動時間TMjを読み取る。引き続き、目標移動ベクトル算出部253は、推定現在位置CPjを始点とし、目標位置PNを終点とする目標移動ベクトルVCTjを算出する。
 次に、目標移動ベクトル算出部253は、目標移動ベクトルVCTjの長さを算出する。引き続き、算出された長さから推定現在位置CPjが目標位置PNの近傍であるいえるか否かを判定する。この判定の結果が肯定的であった場合には、目標移動ベクトル算出部253は、目標移動速度を「0」とする。そして、目標移動ベクトル算出部253は、目標移動ベクトル及び目標移動速度を、目標移動ベクトルとして、飛行体搭載装置300の制御情報出力部350へ送信するとともに、現在位置推定部252へ送る。なお、本実施形態では、時刻TNにおいて、推定現在位置CPNが目標位置PNの近傍となるようになっている。
 この後、ステップS15の処理が終了し、処理はステップS11へ戻る。
 一方、当該判定が否定的であった場合には、目標移動ベクトル算出部253は、算出された新たな目標移動ベクトルの長さを、読み取られた目標移動時間TMjで除算することにより、目標移動速度Vjを算出する。引き続き、目標移動ベクトル算出部253は、目標移動ベクトルVCTj及び目標移動速度Vjを、目標移動ベクトルとして、飛行体搭載装置300の制御情報出力部350へ送信するとともに、現在位置推定部252へ送る。
 次に、目標移動ベクトル算出部253は、新たな目標移動時間TMj+1(=TMj-PT2)を算出する。引き続き、目標移動ベクトル算出部253は、目標移動時間TMj+1を目標位置保持部251へ送る。この結果、目標位置保持部251に保持される目標移動時間が、目標移動時間TMj+1に更新される。
 次いで、目標移動ベクトル算出部253は、パラメータjをインクリメントする。
この後、ステップS15の処理が終了し、処理はステップS12へ戻る。
 以後、ステップS11~S15の処理が繰り返される。この結果、目標移動ベクトル情報が逐次決定され、決定された目標移動ベクトル情報が、制御情報出力部350へ送信される。
 上記の目標移動ベクトル決定処理により決定される目標移動ベクトルの例が、図6に示されている。なお、図6においては、目標位置PN(N=4)の例が示されている。
 <制御情報出力処理>
 次いで、制御情報出力部350により実行される目標移動ベクトル決定処理について説明する。
 制御情報出力部350では、目標移動ベクトル保持部356が、処理制御装置200から送られた目標移動ベクトル情報を受信すると、当該目標移動ベクトル情報、すなわち、目標移動ベクトル及び目標移動速度を保持する。また、制御情報出力部350では、累積移動量推定部351における累積移動量保持部352と加算部353とが、上述したようにして協働して、最新に目標移動ベクトル情報を受信した後における無人飛行体500の累積移動量を推定する。そして、累積移動量推定部351は、累積移動量の推定結果を、累積移動ベクトルの表現態様で、第1周期で制御情報算出部357へ送る。この制御情報算出部357では、制御情報算出処理が実行される。
 かかる制御情報算出処理では、図7に示されるように、ステップS21において、制御情報算出部357が、累積移動量推定部351から送られた新たな累積移動量ベクトルを受けたか否かを判定する。ステップS21における判定の結果が否定的であった場合(ステップS21:N)には、ステップS21の処理が繰り返される。
 新たな累積移動量ベクトルを受け、ステップS21における判定の結果が肯定的となると(ステップS21:N)、処理はステップS22へ進む。このステップS22では、制御情報算出部357が、まず、目標移動ベクトル保持部356に保持されている目標移動ベクトル及び目標移動速度を読み取る。引き続き、制御情報算出部357は、読み取られた目標移動ベクトルから当該新たな累積移動量ベクトルを減算することにより、新たな補正目標移動ベクトルを算出する。
 次に、ステップS23において、制御情報算出部357が、PID制御演算等を行って、新たな補正目標移動ベクトルの方向に沿って、読み取られた目標移動速度で移動させるための飛行制御情報を算出する。そして、制御情報算出部357は、算出された飛行制御情報をロータ駆動部360へ出力する。
 こうしてステップS23の処理が終了すると、処理はステップS21へ戻る。以後、ステップS21~S23の処理が繰り返される。この結果、自己位置情報の推定周期である第2周期の周期時間長PT2よりも短い周期時間長PT1の第1周期で、飛行制御情報が算出されて、無人飛行体500の移動が制御される。
 以上説明したように、本実施形態では、無人飛行体500に搭載された周囲情報取得部330により取得された周囲情報に基づいて、SLAM処理部240が、第2周期で移動体の自己位置に関する精度の高い自己位置情報を第2周期で推定する。また、無人飛行体500に搭載された移動量取得部340により、第2周期よりも短い第1周期で、第1周期の期間ごとの移動量に関する移動量情報を自己位置情報の精度よりも低い精度で取得する。そして、目標移動ベクトル決定部250が、第2周期の周期時間前の自己位置情報に基づいて現時点での目標移動ベクトルを第2周期で修正する。また、目標移動ベクトルについての次の修正が行われるまでの間は、制御情報出力部350が、移動量情報に基づく第1周期での目標移動ベクトルの補正を行いつつ、補正された目標移動ベクトルに基づいて、飛行制御情報を算出して出力することにより、無人飛行体500の移動を制御する。
 したがって、本実施形態によれば、無人飛行体500の移動速度が高速であっても、適切な飛行制御を行うことができる。
 また、本実施形態では、制御情報出力部350から出力された飛行制御情報に従った移動における第2周期の周期時間前の前回予定位置から、第2周期の周期時間前の自己位置までの誤差を、今回予定位置に加算することにより、現在位置を推定する。このため、移動量情報における誤差を適切に評価して、現時点における目標移動ベクトルを第2周期で決定でき、ひいては、無人飛行体500の移動速度が高速であっても、適切な飛行制御を行うことができる。
 [実施形態の変形]
 本発明は、上記の実施形態に限定されるものではなく、様々な変形が可能である。
 例えば、上記の実施形態では、第2周期の周期時間前の前回予定位置から第2周期の周期時間前の自己位置までの誤差を今回予定位置に加算して、現在位置を推定するようにした。これに対し、前回予定位置から第2周期の周期時間前の自己位置までの誤差分の2倍を今回予定位置に加算することにより、現在位置情報を推定するようにしてもよい。この場合には、移動量情報における誤差においてオフセット誤差が支配的である場合には、上記の実施形態の場合よりも、高精度で現在位置を推定することができ、より適切な目標移動ベクトルを決定することができる。
 また、上記の実施形態では、飛行体搭載装置が制御情報出力部を備えるようにしたが、制御情報出力部の機能を処理制御装置に実装するようにしてもよい。この場合には、飛行体搭載装置の軽量化及び省電力化を更に図ることができる。
 また、上記の実施形態では、移動量取得部がオプティカルフローセンサを備える構成とした。これに対し、オプティカルフローセンサに代えて、ジャイロセンサを備え、飛行体のピッチ角とロール角とから飛行体の速度を推定し、推定された速度の時間積分に基づいて移動量情報を取得するようにしてもよい。また、オプティカルフローセンサに代えて、ジャイロセンサ及び加速度センサを備え、ジャイロセンサによる検出結果から移動方向を推定するとともに、加速度センサによる検出結果から速度を推定し、推定された移動方向及び推定された速度の時間積分に基づいて移動量情報を取得するようにしてもよい。
 また、上記の実施形態では、移動体が無人飛行体である場合に本発明を適用したが、無人飛行体以外の移動体(例えば、路面上又は床面上を走行する車両等)に本発明を適用してもよい。この場合、移動体搭載装置の重量や消費電力に余裕がある場合には、上記の実施形態における処理制御装置の機能の一部又は全部を、移動体搭載装置に実装するようにすることができる。
 また、上記の実施形態では、無人飛行体の移動が2次元移動であるか、又は、3次元移動であるかを明示しなかったが、本発明は、2次元移動及び3次元移動のいずれであっても適用することができる。
 なお、上記の実施形態の処理制御装置を、中央処理装置(CPU:Central Processing Unit)等の演算手段としてのコンピュータを備えた構成とし、予め用意されたプログラムを当該コンピュータで実行することにより、上記の実施形態における処理制御装置の機能を実現するようにしてもよい。また、上記の実施形態の飛行体搭載装置を、中央処理装置等の演算手段としてのコンピュータを備えた構成とし、予め用意されたプログラムを当該コンピュータで実行することにより、上記の実施形態における飛行体搭載装置の機能を実現するようにしてもよい。これらのプログラムはハードディスク、CD-ROM、DVD等のコンピュータで読み取り可能な記録媒体に記録され、当該コンピュータによって記録媒体から読み出されて実行される。また、このプログラムは、CD-ROM、DVD等の可搬型記録媒体に記録された形態で取得されるようにしてもよいし、インターネットなどのネットワークを介した配信の形態で取得されるようにしてもよい。

Claims (12)

  1.  移動体に搭載され、前記移動体の周囲情報を取得する周囲情報取得部と;
     前記移動体に搭載され、第1周期で前記移動体の前記第1周期の期間ごとの移動量に関する移動量情報を取得する移動量取得部と;
     前記周囲情報に基づき、前記第1周期より長い第2周期で前記移動体の自己位置に関する自己位置情報を推定する自己位置推定部と;
     前記自己位置情報と、前記移動量情報とに基づいて、前記移動体の移動制御に関する制御情報を出力する出力部と;
     を備えることを特徴とする移動体制御装置。
  2.  前記自己位置推定部により推定された前記第2周期長前の自己位置に関する自己位置情報、及び、前記出力部から出力された制御情報に従った移動における前記第2周期長前の前回予定位置に関する前回予定位置情報、並びに、前記出力部から出力された制御情報に従った移動における現時点での今回予定位置に関する今回予定位置情報に基づいて、前記移動体の現在位置に関する現在位置情報を前記第2周期で推定する現在位置推定部と;
     前記現在位置情報及び目標位置情報に基づいて、目標移動ベクトルを前記第2周期で算出する目標移動ベクトル算出部と;を更に備え、
     前記出力部は、前記目標移動ベクトル及び前記移動量情報に基づいて、前記制御情報を出力する、
     ことを特徴とする請求項1に記載の移動体制御装置。
  3.  前記現在位置推定部は、前記前回予定位置から前記第2周期長前の自己位置までの誤差分を前記今回予定位置に加算することにより、前記現在位置情報を推定する、ことを特徴とする請求項2に記載の移動体制御装置。
  4.  前記現在位置推定部は、前記前回予定位置から前記第2周期長前の自己位置までの誤差分の2倍を前記今回予定位置に加算することにより、前記現在位置情報を推定する、ことを特徴とする請求項2に記載の移動体制御装置。
  5.  前記出力部は、
      前記目標移動ベクトルを保持する保持部と;
      前記移動量取得部により取得された移動量情報に基づいて、前記保持部に新たな目標移動ベクトルが保持された時点からの前記移動体の累積移動量を推定する累積移動量推定部と;
      前記保持部に保持されている目標移動ベクトルと、前記累積移動量推定部により推定された累積移動量とに基づいて、前記制御情報を算出する制御情報算出部と;
     を備えることを特徴とする請求項2に記載の移動体制御装置。
  6.  前記保持部に保持される目標移動ベクトルは、前記目標移動ベクトル算出部により新たな目標移動ベクトルが算出されるたびに、前記新たな目標移動ベクトルに更新される、ことを特徴とする請求項5に記載の移動体制御装置。
  7.  前記移動量情報の精度は、前記自己位置情報の精度よりも低い、ことを特徴とする請求項1に記載の移動体制御装置。
  8.  前記自己位置推定部は、
      前記移動体の外部に配設され、
      前記周囲情報取得部及び前記移動量取得部との間で無線通信を行う、
     ことを特徴とする請求項1に記載の移動体制御装置。
  9.  前記出力部は、前記制御情報を前記第1周期で出力する、ことを特徴とする請求項1に記載の移動体制御装置。
  10.  移動体に搭載され、前記移動体の周囲情報を取得する周囲情報取得部と;前記移動体に搭載され、第1周期で前記移動体の前記第1周期の期間ごとの移動量に関する移動量情報を取得する移動量取得部と;を備え、前記移動体の移動を制御する移動体制御装置において使用される移動体制御方法であって、
     前記周囲情報に基づき、前記第1周期より長い第2周期で前記移動体の自己位置に関する自己位置情報を推定する自己位置推定工程と;
     前記自己位置情報と、前記移動量情報とに基づいて、前記移動体の移動制御に関する制御情報を出力する出力工程と;
     を備えることを特徴とする移動体制御方法。
  11.  移動体の移動を制御する移動体制御装置が有するコンピュータに、請求項10に記載の移動体制御方法を実行させる、ことを特徴とする移動体制御プログラム。
  12.  移動体の移動を制御する移動体制御装置が有するコンピュータにより読み取り可能に、請求項11に記載の移動体制御プログラムが記録されている、ことを特徴とする記録媒体。
PCT/JP2015/069473 2014-07-09 2015-07-07 移動体制御装置、移動体制御方法、移動体制御プログラム及び記録媒体 WO2016006588A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016532935A JPWO2016006588A1 (ja) 2014-07-09 2015-07-07 移動体制御装置、移動体制御方法、移動体制御プログラム及び記録媒体

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-140977 2014-07-09
JP2014140977 2014-07-09

Publications (1)

Publication Number Publication Date
WO2016006588A1 true WO2016006588A1 (ja) 2016-01-14

Family

ID=55064219

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/069473 WO2016006588A1 (ja) 2014-07-09 2015-07-07 移動体制御装置、移動体制御方法、移動体制御プログラム及び記録媒体

Country Status (2)

Country Link
JP (2) JPWO2016006588A1 (ja)
WO (1) WO2016006588A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108227724A (zh) * 2016-12-13 2018-06-29 中国科学院沈阳自动化研究所 一种基于智能移动设备的探测及制导一体化系统
JP2019086419A (ja) * 2017-11-08 2019-06-06 川崎重工業株式会社 環境取得システム
JP2019212079A (ja) * 2018-06-06 2019-12-12 株式会社日立製作所 自律移動装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7405416B2 (ja) * 2020-04-22 2023-12-26 株式会社FADrone 位置姿勢計測方法及び位置姿勢計測プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010086416A (ja) * 2008-10-01 2010-04-15 Murata Machinery Ltd 自律移動装置
JP2011209203A (ja) * 2010-03-30 2011-10-20 Sony Corp 自己位置推定装置および自己位置推定方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010086416A (ja) * 2008-10-01 2010-04-15 Murata Machinery Ltd 自律移動装置
JP2011209203A (ja) * 2010-03-30 2011-10-20 Sony Corp 自己位置推定装置および自己位置推定方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
TAKASHI TSUBOUCHI: "Wheeled Mobile Robot Control and Sampling Time", JOURNAL OF THE ROBOTICS SOCIETY OF JAPAN, vol. 27, no. 4, 15 May 2009 (2009-05-15), pages 20 - 24, XP055250152, ISSN: 0289-1824 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108227724A (zh) * 2016-12-13 2018-06-29 中国科学院沈阳自动化研究所 一种基于智能移动设备的探测及制导一体化系统
JP2019086419A (ja) * 2017-11-08 2019-06-06 川崎重工業株式会社 環境取得システム
JP2019212079A (ja) * 2018-06-06 2019-12-12 株式会社日立製作所 自律移動装置
WO2019235002A1 (ja) * 2018-06-06 2019-12-12 株式会社日立製作所 自律移動装置
CN112136090A (zh) * 2018-06-06 2020-12-25 株式会社日立制作所 自主移动装置
JP7107757B2 (ja) 2018-06-06 2022-07-27 株式会社日立製作所 自律移動装置
CN112136090B (zh) * 2018-06-06 2024-03-26 株式会社日立制作所 自主移动装置

Also Published As

Publication number Publication date
JP2018200732A (ja) 2018-12-20
JPWO2016006588A1 (ja) 2017-04-27

Similar Documents

Publication Publication Date Title
JP2018200732A (ja) 移動体制御装置、移動体制御方法、移動体制御プログラム及び記録媒体
CN111273655B (zh) 用于自动驾驶车辆的运动规划方法和系统
US10683012B2 (en) System delay estimation method for autonomous vehicle control
EP3334623B1 (en) A system delay corrected control method for autonomous vehicles
US10442435B2 (en) Speed control parameter estimation method for autonomous driving vehicles
AU2018252237B2 (en) Co-localisation
CN109885080B (zh) 自主控制系统及自主控制方法
US10191493B2 (en) Vehicle position point forwarding method for autonomous vehicles
JP2010202178A5 (ja)
JP2014123348A (ja) 自律的ナビゲーション方法
EP2927771B1 (en) Flying drone trajectory synchronization
US10836486B2 (en) Controlling a drone through user movement
JP2017130027A (ja) 移動体システム、及びサーバ
CN114521248A (zh) 信息处理设备、信息处理方法和程序
JP6778067B2 (ja) 雲位置推定装置、雲位置推定方法及び雲位置推定プログラム
WO2020021954A1 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2021064982A1 (ja) 情報処理装置および情報処理方法
JP7400801B2 (ja) 制御装置、制御方法、及びプログラム
CN112445242A (zh) 航线的跟踪方法、装置、设备及存储介质
WO2022158387A1 (ja) 移動体、情報処理方法及びコンピュータプログラム
KR102135443B1 (ko) 그래프 구조 기반의 이동체 위치 추적방법 및 이를 이용하는 이동체
WO2021038622A1 (ja) 無人移動体の制御システムおよび無人移動体の制御方法
WO2019193811A1 (ja) 制御装置、制御方法、および、プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15819097

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016532935

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15819097

Country of ref document: EP

Kind code of ref document: A1