WO2021187110A1 - 移動体、情報処理装置、情報処理方法、及びプログラム - Google Patents

移動体、情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
WO2021187110A1
WO2021187110A1 PCT/JP2021/008182 JP2021008182W WO2021187110A1 WO 2021187110 A1 WO2021187110 A1 WO 2021187110A1 JP 2021008182 W JP2021008182 W JP 2021008182W WO 2021187110 A1 WO2021187110 A1 WO 2021187110A1
Authority
WO
WIPO (PCT)
Prior art keywords
moving body
dangerous
dangerous situation
restricted area
situation
Prior art date
Application number
PCT/JP2021/008182
Other languages
English (en)
French (fr)
Inventor
駿 李
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2021187110A1 publication Critical patent/WO2021187110A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
    • G08G1/127Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams to a central station ; Indicators in a central station
    • G08G1/13Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams to a central station ; Indicators in a central station the indicator being in the form of a map
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/04Anti-collision systems

Definitions

  • the operation recording device described in Patent Document 1 acquires three-dimensional image information from image data.
  • An obstacle determination candidate area that may come into contact with the own vehicle is detected from the three-dimensional image information.
  • the possibility of collision is determined based on the distance information between the object in the obstacle determination candidate area and the own vehicle. If it is determined that there is a possibility of collision, image data before and after the time of collision is recorded. Thereby, it is disclosed to analyze the case of collision based on the recorded information (paragraphs [0038] [0052] of Patent Document 1 and FIG. 3 etc.).
  • the purpose of the present technology is to provide a mobile body, an information processing device, an information processing method, and a program capable of preventing danger in movement with higher accuracy.
  • the information processing device includes an action planning unit.
  • the action planning unit generates an action plan based on at least one of the positions where a dangerous situation in movement can occur or the position where the dangerous situation occurs and the type of the dangerous situation. ..
  • the action planning unit may set a restricted area in which the behavior of the moving body is restricted based on the dangerous position based on the type of the dangerous situation.
  • the restricted region may include at least one region in which the entry of the moving body is restricted, a region in which the speed of the moving body is restricted, and a region in which the approach and speed of the moving body are restricted. ..
  • the type of dangerous situation includes at least one of the number of times the dangerous situation occurred in the dangerous position, the date and time when the dangerous situation occurred, the speed of the moving body, or information around the moving body. It may be.
  • the action planning unit may set at least one of the range of the restricted area and the type of the restricted area.
  • the action planning unit may set the range of the restricted area or at least one of the types of the restricted area based on the performance information regarding the performance of the moving body. Mobile body.
  • the moving body may further include a sensor unit capable of observing the surroundings of the moving body.
  • the action planning unit may set the range of the restricted area or at least one of the types of the restricted area based on the recognition level of the object by the sensor unit or at least one of the types of the object. ..
  • the moving body may further include a sensor unit capable of observing the surroundings of the moving body.
  • the moving body may further include a detection unit that detects the dangerous situation based on the sensing result acquired by the sensor unit.
  • the detection unit may detect the dangerous situation based on at least one of the distance information to the object and the image information of the object.
  • the detection unit may detect a candidate for the dangerous situation based on the behavior information regarding the behavior of the moving body.
  • the detection unit may detect the candidate for the dangerous situation based on the change in the acceleration of the moving body.
  • the moving body may further include an operation control unit that limits a user's instruction regarding an operation on the moving body based on the restricted area.
  • the information processing device includes an action planning unit.
  • the action planning unit is based on at least one of the positions where a dangerous situation can occur in the movement of the moving body, or at least one of the dangerous positions where the dangerous situation occurs, and the type of the dangerous situation. Generate a body action plan.
  • the action planning unit may set a restricted area for restricting the behavior of the moving body based on the dangerous position based on the type of the dangerous situation.
  • the information processing device may further include a GUI output unit that outputs a GUI (Graphical User Interface) in which the restricted area can be identified by the user.
  • GUI Graphic User Interface
  • the information processing method is an information processing method executed by a computer system, and is a position where a dangerous situation may occur in the movement of a moving object, or a position where the dangerous situation occurs. It involves generating an action plan for the moving body based on at least one of the positions and the type of the dangerous situation.
  • a program causes a computer system to perform the following steps. Generate an action plan for the moving body based on at least one of the dangerous situations in the movement of the moving body, or at least one of the dangerous positions where the dangerous situation occurred, and the type of the dangerous situation. Steps to do.
  • FIG. 1 is a schematic diagram for explaining an outline of a moving body according to the present technology.
  • FIG. 1A is a schematic view showing how the moving body 1 moves in a predetermined space.
  • an action plan is generated based on at least one of the positions where a dangerous situation may occur in movement or the position where the dangerous situation occurs and the type of the dangerous situation.
  • the moving body 1 is a moving body capable of autonomous movement and operation control by a user.
  • the moving body 1 is a drone or a vehicle.
  • the present invention is not limited to this, and for example, a wheel-type robot, a multi-legged walking type robot, and a robot having legs having an articulated structure may be used.
  • the dangerous position is a position where a dangerous situation may occur in the movement of the moving body 1, or a position where a dangerous situation occurs.
  • people, wires, and utility poles are in danger positions 2, 3, and 4.
  • a position where an object that is difficult to recognize (low recognition degree) exists for the sensor device mounted on the moving body 1 is a dangerous position.
  • Objects that are difficult to recognize include, for example, horizontally long electric wires, windows having a square pattern at the same intervals, transparent window glass, and a person (animal body) appearing in the traveling direction of the moving body 1.
  • a coordinate value for example, an XYZ coordinate value
  • an absolute coordinate system world coordinate system
  • a coordinate value for example, xyz coordinate value or uvd coordinate value
  • a relative coordinate system with a predetermined point as a reference (origin)
  • the reference origin may be set arbitrarily.
  • a dangerous situation is a situation in which a higher degree of danger and safe movement control are required than when the moving body 1 is normally moved.
  • the dangerous situation includes at least one of a situation in which the moving body 1 takes an evasive action against the object or a situation in which the moving body 1 collides with the object.
  • the avoidance action includes an action in which the moving body 1 moves so as to avoid the object, and an arbitrary action for preventing the moving body 1 from colliding with the object such as a brake (stop, deceleration).
  • the normal movement includes an action plan given in advance to the moving body 1 or an action instruction of a user who operates the moving body 1.
  • a dangerous situation can be said to be a situation in which normal movement is hindered.
  • the types of dangerous situations are various information about the occurrence of dangerous situations in dangerous locations. For example, it includes object information about a colliding object, the number of times a dangerous situation has occurred in a dangerous position, the date and time when the dangerous situation has occurred, the speed of the moving body 1, or information around the moving body 1.
  • the object information includes arbitrary information about the object. For example, the size of the object, the type of the object such as a car or a person, or whether or not the object is stationary, and the like are included.
  • the type of dangerous situation is associated with the latitude, longitude, and altitude position information of the dangerous position. For example, in FIG.
  • the types of dangerous situations at the dangerous position 2 are associated with the collision object being "person", the collision date and time being “9:00", and the speed of the moving body 1 being "10 km / h". Be done. Further, for example, as the type of the dangerous situation of the dangerous position 3, the colliding object is associated with “electric wire”, the date and time of collision is “12:00”, the speed of the moving body 1 is "25 km / h", and the like. Further, for example, as the type of the dangerous situation of the dangerous position 4, the colliding object is associated with "telephone pole", the date and time of collision is "10:00", the speed of the moving body 1 is "36 km / h", and the like.
  • the moving body 1 detects various dangerous positions by moving in the space.
  • the dangerous position shown in FIG. 1A may be information accumulated by the same moving body 1 or information shared by different moving bodies.
  • the action plan is various information that controls the moving body 1. For example, the speed of the moving body 1, the path (trajectory) in which the moving body 1 moves, the waypoint (position) through which the moving body 1 passes, the posture of the moving body 1, and the like are included in the action plan.
  • FIG. 1B is a view of the space shown in FIG. 1A as viewed from different viewpoints. People and utility poles are briefly described.
  • the moving body 1 is given an action plan (dotted line 6) to go straight toward the destination 5.
  • an action plan of the locus of the solid line 7 is generated based on the dangerous position. For example, an action plan is generated to move away from a dangerous position.
  • FIG. 2 is a block diagram showing a functional configuration example of the moving body 1.
  • the moving body 1 includes a sensor unit 10, an information acquisition unit 11, a situation candidate detection unit 12, an obstacle detection unit 13, a danger situation detection unit 14, an aircraft performance acquisition unit 15, and a risk map generation unit. It has 16, a risk map output unit 17, and a moving body control unit 18.
  • the sensor unit 10 can observe the surroundings of the moving body 1.
  • the position, image, and the like of an object around the moving body 1 are acquired by the sensor unit.
  • imaging devices such as ToF (Time of Flight) cameras, stereo cameras, digital cameras, monocular cameras, infrared cameras, polarized cameras, and other cameras are used.
  • sensor devices such as laser distance measuring sensors, contact sensors, ultrasonic sensors, LiDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging), and sonars may be used.
  • the sensor unit 10 can detect the state of the moving body 1. In this embodiment, the sensor unit 10 acquires acceleration and velocity.
  • gyro sensor For example, gyro sensor, acceleration sensor, inertial measurement unit (IMU), acceleration input operation amount such as accelerator, deceleration input operation amount, direction instruction input operation amount, rotation speed and input of drive device such as engine and motor.
  • IMU inertial measurement unit
  • acceleration input operation amount such as accelerator
  • deceleration input operation amount direction instruction input operation amount
  • rotation speed and input of drive device such as engine and motor.
  • a sensor or the like for detecting the output energy / fuel amount, the torque amount of the engine or the motor, the rotation speed or the torque of the wheels or the joints, or the like may be used.
  • the situation candidate detection unit 12 detects a dangerous situation candidate.
  • a candidate for a dangerous situation is detected based on the operation control to the moving body 1 supplied by the information acquisition unit 11 and the action information regarding the behavior of the moving body 1. For example, when the operation control for suddenly braking the moving body 1 is executed, the situation is detected as a candidate for a dangerous situation.
  • the action information includes arbitrary actions such as acceleration, speed, turning, and posture of the moving body 1.
  • the action information includes the locus of the moving body 1 and the acquisition of information by the sensor device.
  • the information detected by the situation candidate detection unit 12 is output to the danger situation detection unit 14.
  • the obstacle detection unit 13 detects an object (obstacle) that has caused a dangerous situation.
  • the object is obstructed based on the traveling direction of the moving body 1 supplied by the information acquisition unit 11, the speed of the moving body 1, the depth information between the moving body 1 and the object, and the braking distance of the moving body 1. Detected as an object.
  • the information detected by the obstacle detection unit 13 is output to the danger situation detection unit 14 and the mobile control unit 18.
  • the danger situation detection unit 14 detects a dangerous situation from the candidates for the dangerous situation.
  • a dangerous situation is detected based on the depth information and the image information supplied by the situation candidate detection unit 12 and the obstacle detection unit 13.
  • an obstacle is recognized by using object recognition, semantic segmentation, or the like from image information. An example of detection using depth information will be described with reference to FIG.
  • the aircraft performance acquisition unit 15 acquires performance information regarding the performance of the mobile body 1.
  • the performance information includes the maximum speed, maximum acceleration, maximum deceleration, maximum angular velocity of the moving body 1, the size of the moving body 1, and the like.
  • the performance information may include the battery capacity of the mobile body 1, the maximum communication distance, the shooting angle of view, and the like.
  • the information acquired by the aircraft performance acquisition unit 15 is output to the risk map generation unit 16.
  • the risk map generation unit 16 generates a risk map including dangerous positions and types of dangerous situations.
  • a risk map is generated based on at least one of the aircraft performance of the moving body 1, the dangerous position, or the type of dangerous situation. Further, the risk map generation unit 16 associates the dangerous position with the type of the dangerous situation in the dangerous position.
  • At least one of image information in a dangerous situation, braking distance, or three-dimensional information indicating the environment around the moving body 1 is associated. A specific example will be described with reference to FIG.
  • the dangerous position and the type of dangerous situation associated with the dangerous position will be described as the risk map information.
  • the risk map is information in which the risk map information is added to the map information including the map around the moving body 1.
  • the utility pole around the moving body 1 is the map information
  • the danger position 4 and the type of the dangerous situation at the danger position 4 are the danger map information.
  • the person shown in FIG. 1A is included in the three-dimensional information indicating the environment around the moving body 1.
  • the risk map generation unit 16 sets a restricted area in which the movement of the moving body 1 is restricted based on the danger position.
  • the restricted area can limit the action plan and operation control of the moving body 1.
  • the range of the restricted area and the type of the restricted area are set based on the type of the dangerous situation.
  • the range of the restricted area is set to an arbitrary shape and an arbitrary size.
  • the restricted area is set with a circle in shape and a radius as a range centered on the dangerous position.
  • the type of the restricted area includes an area where the entry of the moving body 1 is restricted, an area where the speed of the moving body 1 is restricted, and an area where the approach and speed of the moving body 1 are restricted. ..
  • the risk map generation unit 16 generates an action plan for the moving body 1 based on the generated risk map.
  • the movement time of the moving body 1 is set as the cost, and the action plan is generated so that the cost is minimized.
  • the total time in the moving section calculated by dividing the distance of each moving section by the speed of each moving section may be treated as the total cost.
  • the cost is not limited to this, and various parameters such as the battery consumption and safety of the mobile body 1 may be set as the cost.
  • the risk map output unit 17 outputs a GUI (Graphical User Interface) that allows the user to identify the restricted area.
  • GUI Graphic User Interface
  • the GUI is presented on the display of the user's PC or a dedicated device.
  • the moving body control unit 18 controls the movement of the moving body 1.
  • the moving body 1 is controlled according to the action plan generated by the risk map generation unit 16. For example, acceleration / deceleration control and direction control of the moving body 1 are performed in order to realize the generated action plan.
  • the moving body control unit 18 limits instructions (operation control) regarding the operation of the moving body 1 by the user. In the present embodiment, the operation control of the user to the moving body 1 is restricted based on the restricted area set by the risk map generation unit 16.
  • the sensor unit 10 corresponds to a sensor unit capable of observing the surroundings of the moving body.
  • the situation candidate detection unit 12, the obstacle detection unit 13, and the danger situation detection unit 14 function as a detection unit that detects a dangerous situation based on the sensing result acquired by the sensor unit. ..
  • the risk map generation unit 16 acts based on at least one of the dangerous positions including the position where the dangerous situation can occur or the position where the dangerous situation occurs and the type of the dangerous situation.
  • the risk map output unit 17 corresponds to a GUI output unit that outputs a GUI whose restricted area can be identified by the user.
  • the mobile control unit 18 corresponds to an operation control unit that limits the user's instructions regarding the operation of the mobile based on the restricted area.
  • FIG. 3 is a flowchart showing the control of the generation of the risk map.
  • candidates for dangerous situations and obstacles are detected (step 101).
  • a dangerous situation is detected based on the detection results detected by the situation candidate detection unit 12 and the obstacle detection unit 13 (step 102).
  • the risk map generation unit 16 generates a risk map from the detected dangerous situation (step 103).
  • the risk map output unit 17 outputs the risk map to the user (step 104).
  • the mobile control unit 18 controls the mobile 1 according to the action plan generated based on the risk map (step 105).
  • FIG. 4 is a diagram showing a detection example of a candidate for a dangerous situation.
  • a candidate for a dangerous situation is detected from the change in the speed and acceleration of the moving body 1 acquired by the sensor unit 10.
  • the acceleration of the moving body 1 changes.
  • the change (amplitude) of the acceleration at this time exceeds a predetermined threshold value 20
  • the situation is detected as a candidate for a dangerous situation.
  • the detection method is not limited, and a dangerous situation is obtained by acquiring a signal indicating that the obstacle detected by the sensor unit 10 has been automatically controlled to avoid the collision of the moving body 1.
  • Candidates may be detected.
  • a candidate for a dangerous situation may be detected by acquiring a signal indicating that the moving body 1 has collided with an obstacle.
  • FIG. 5 is a diagram showing an example of detecting a dangerous situation.
  • the dangerous situation is detected from the change in the depth information of the frames before and after the candidate of the dangerous situation that has occurred. For example, when the depth of the moving body 1 acquired by the sensor unit 10 in the traveling direction is 20 m in the previous frame and 3 m in the current frame, the candidate for a dangerous situation is determined to be a dangerous situation. NS.
  • FIG. 5A is a graph showing depth information before and after the frame.
  • the dotted line 22 is a graph showing depth information when the sensor unit 10 accurately recognizes an object. That is, the moving body 1 is in a state of approaching the object.
  • the solid line 23 indicates a state in which the sensor unit 10 does not recognize an object (the same object as the dotted line 22) at a time (previous frame) before the time t, and shows a state in which the object is recognized at the time t. It is a graph.
  • the time between the frames in which the depth information changes (the time before and after the time t) and the moving body 1
  • a dangerous situation is detected when the product with speed is smaller.
  • the detection method is not limited, and for example, when there is a change in the distance from the moving body to the object exceeding a predetermined threshold within a predetermined time, it may be detected as a dangerous situation.
  • “less than” may include “less than or equal to” and “less than”.
  • “greater than” may include “greater than or equal to”.
  • FIG. 5B is a diagram showing an example of detecting an obstacle.
  • an obstacle is detected based on the braking distance of the moving body 1 at a predetermined speed.
  • the traveling direction (Z-axis direction) of the moving body 1 is the axis
  • the radius 25 (X-axis Y-axis plane) indicating the size of the moving body 1 is the bottom surface
  • the braking distance 26 is the height.
  • the cylinder serves as the collision determination space 27 of the moving body 1.
  • the object is determined as an obstacle. That is, when the moving body 1 advances at the current speed and an object exists in the collision determination space 27, it is determined that the moving body 1 collides with the object. Further, it is possible to determine an obstacle from the size of an object in the collision determination space 27. For example, in the case of an object larger than the area of the bottom surface 28 of the collision determination space 27, it is possible to determine that the obstacle is a wall.
  • FIG. 6 is a table showing an example of risk map information.
  • each dangerous position is numbered and each dangerous position (latitude, longitude, and altitude) is associated with various types of dangerous situations. For example, “date and time”, “speed”, “collision status”, “collision image”, “braking distance” and the like are associated.
  • the "collision status” is a parameter indicating the state of a collision, which is one of the dangerous situations. In this embodiment, no collision, avoidance, or collision with an obstacle is set as a parameter. In addition to this, arbitrary parameters such as crash and damage may be set.
  • the "collision image” is image information when a dangerous situation occurs.
  • a captured image in which an obstacle is captured and a captured image around the moving body 1 are associated with each other.
  • the number of collision images is not limited. Further, the collision image may be used as information for modeling the surrounding three-dimensional information, or may be used as information for mapping the surrounding environment.
  • the dangerous position No. In 1 the following information is set. "Latitude” is 35.619355 "Longitude” is 139.7238340 "Altitude” is 3.5m "Date” is September 29, 2019, 18:45 “Speed” is 20km / h "Collision status” is no collision "Collision image” is dangerous position No. Collision image No. 1 in 1. 1 "Brake distance” is 4m
  • the risk map information is not limited to the above, and may include various information.
  • the luminous intensity, wind speed, wind direction, rainfall, etc. at the dangerous position may be included.
  • the number of floors, the name of the room, and the like may be included.
  • the type of obstacle, the type of the sensor device mounted on the moving body 1, and the like may be included.
  • FIG. 7 is a schematic diagram showing an example of a risk map.
  • FIG. 7A is a schematic diagram showing a risk map 30 and an action plan 31 in the moving body A.
  • FIG. 7B is a schematic diagram showing a risk map 40 and an action plan 41 in the moving body B.
  • the moving body A is a machine whose size is smaller than that of the moving body B. Further, the moving body A is a machine that is easier for the user to operate than the moving body B. In the present embodiment, the ease of operation by the user means that the moving body can accurately perform the moving route, speed, and the like assumed by the user.
  • the machine may not be able to turn easily and may be difficult to operate.
  • the object 32 and the danger position 33 are illustrated on the risk map 30.
  • the risk map generation unit 16 sets the range of the restricted area 34 based on the size of the moving body A and the performance of the operation control of the moving body A.
  • the range of the restricted area 34 is set to a radius so that the moving body A can pass between the object 32 and the dangerous position 33. NS. Further, as shown in FIG.
  • the object 32 and the danger position 33 are shown on the risk map 40 at the same positions as in FIG. 7A.
  • the range of the restricted area 42 is set to a radius so that the moving body B cannot pass between the object 32 and the dangerous position 33. Will be done.
  • the restricted areas 34 and 42 are areas where the entry of the moving body is restricted.
  • an action plan 31 passing between the object 32 and the danger position 33 is generated.
  • an action plan 41 that does not pass between the object 32 and the dangerous position 33 is generated.
  • FIG. 8 is a schematic diagram showing the GUI of the risk map.
  • the user who operates the moving body can browse the risk map GUI50 output by the risk map output unit 17. For example, as shown in FIG. 8, a risk map GUI50 in which a danger position and a restricted area are superimposed on an image captured by an image pickup device mounted on a moving body is displayed.
  • the risk map generation unit 16 sets a restricted area for each danger position.
  • the restricted area is set based on the type of dangerous situation, the number of dangerous positions, and the type of obstacle.
  • the range of the restricted area is set based on the type of dangerous situation, the number of dangerous positions, and the type of obstacle.
  • the restricted area 51 is set centered on the dangerous position 52.
  • the restricted area 56 near the tree 55 is restricted from entering, and the other restricted areas 57 are restricted in speed.
  • the restricted area 60 is set centered on the dangerous position 61.
  • the restricted area 60 is restricted from entering.
  • the restricted area 65 is set centered on the dangerous position 66.
  • the danger position 66 there are danger positions 67 and 68 whose collision status is collision, and there are trees 55 and 69. Therefore, a restricted area 70 in which the speed is restricted up to a predetermined radius and a restricted area 71 in which entry is restricted around the restricted area 70 are set.
  • the restricted area 75 is centered on the dangerous position 76. Further, since the collision status of the dangerous position 76 is avoidance and there are no obstacles, the speed limit 75 is set as the speed limit.
  • the method of setting the restricted area is not limited.
  • the collision status may be set so as not to approach a dangerous position where the collision status is within a predetermined radius from the dangerous position. Further, for example, it may be set according to an object whose sensor unit 10 is difficult to recognize, or an obstacle such as a person or a building that may cause serious damage in the event of a collision.
  • the setting of the restricted area may be set or selected by the user. That is, the type and range of the restricted area may be arbitrarily set by the user.
  • the risk map GUI may provide information to allow the user to select the type and range of the restricted area.
  • an action plan 78 generated based on the restricted area which can avoid a dangerous situation such as a collision, is displayed.
  • the display items displayed on the risk map GUI50 are not limited. For example, a map of a viewpoint viewed from above the moving body 1 may be displayed, or the surrounding situation of an object or the like may be schematically displayed. Further, as the risk map GUI50, voice presentation and image display of the risk map information at the dangerous position may be performed.
  • the restricted area displayed on the risk map GUI50 may be three-dimensional.
  • the restricted areas 70 and 71 may have a cylindrical shape. Further, for example, the limiting region 51 may have a spherical shape.
  • the moving body 1 acts based on at least one of the dangerous positions where a dangerous situation may occur in the movement or the dangerous position where the dangerous situation occurs and the type of the dangerous situation. A plan is generated. This makes it possible to prevent the danger of movement with higher accuracy.
  • Mobile objects such as drones capable of autonomous flight need to fly in places where there is little risk of collision in order to prevent damage to their own aircraft. However, in some places, the presence of obstacles and the approach of animals can put mobiles and animals at risk.
  • Mobile objects such as drones are equipped with recognition devices (sensor devices), but there may be potential dangers that cannot be recognized.
  • an action plan is generated based on at least one of the positions where a dangerous situation may occur in movement or the dangerous position where the dangerous situation occurs and the type of the dangerous situation. This makes it possible to control the aircraft so that it is possible to avoid a place where a dangerous situation has actually occurred or a place where a dangerous situation is about to occur. Further, by recording the dangerous position, it is possible to control the aircraft even when the moving body approaches under conditions (for example, a direction) different from the dangerous situation at the dangerous position. Further, by presenting the GUI that can identify the dangerous position to the user, it becomes easy to grasp the dangerous position and the operation control of the user can be improved.
  • the restricted area is classified into an area where the entry of the moving body 1 is restricted, an area where the speed of the moving body 1 is restricted, and an area where the approach and speed of the moving body 1 are restricted.
  • rice field not limited to this, the restricted area may be set arbitrarily.
  • a restricted area may be provided in which the moving body 1 must stop 1 m before the dangerous position.
  • a risk map was generated based on the dangerous position and the dangerous situation.
  • the risk map may be generated from various factors without being limited to this. For example, by transmitting and receiving the position information and action plan of another moving body, a risk map may be generated with the position and route of the other moving body as the dangerous position.
  • the danger situation detection unit 14 detects (screens) a dangerous situation from the candidates for the dangerous situation based on the depth information and the image information.
  • the degree of risk may be calculated based on the type of dangerous situation without being limited to this. When this degree of risk exceeds a predetermined threshold value, a candidate for a dangerous situation may be detected as a dangerous situation.
  • the risk map is generated by the risk map generation unit 16 possessed by the moving body 1.
  • the risk map may be generated by an external processing device without being limited to this.
  • FIG. 9 is a schematic diagram showing a functional configuration example of the risk map generation system according to another embodiment.
  • the risk map generation system 80 includes a mobile body 1 and an information processing device 90.
  • the danger map information transmission / reception unit 81 possessed by the moving body 1 transmits the dangerous position and the dangerous situation at the dangerous position to the risk map generation unit 91 possessed by the information processing device 90.
  • the risk map generation unit 91 generates a risk map based on the transmitted information.
  • the generated risk map is transmitted to the risk map information transmission / reception unit 81.
  • the information processing device 90 has hardware necessary for configuring a computer, such as a processor such as a CPU, GPU, and DSP, a memory such as a ROM and a RAM, and a storage device such as an HDD (see FIG. 10).
  • a computer such as a processor such as a CPU, GPU, and DSP, a memory such as a ROM and a RAM, and a storage device such as an HDD (see FIG. 10).
  • the information processing method according to the present technology is executed when the CPU loads and executes the program according to the present technology recorded in advance in the ROM or the like into the RAM.
  • the information processing device 90 can be realized by an arbitrary computer such as a PC (Personal Computer).
  • hardware such as FPGA and ASIC may be used.
  • the threshold control unit as a functional block is configured by the CPU executing a predetermined program.
  • the program is installed in the information processing apparatus 90 via, for example, various recording media. Alternatively, the program may be installed via the Internet or the like.
  • the type of recording medium on which the program is recorded is not limited, and any computer-readable recording medium may be used. For example, any non-transient storage medium that can be read by a computer may be used.
  • FIG. 10 is a block diagram showing a hardware configuration example of the information processing device 90.
  • the display unit 96 is a display device using, for example, a liquid crystal display, an EL, or the like.
  • the input unit 97 is, for example, a keyboard, a pointing device, a touch panel, or other operation device. When the input unit 97 includes a touch panel, the touch panel can be integrated with the display unit 96.
  • the storage unit 98 is a non-volatile storage device, for example, an HDD, a flash memory, or other solid-state memory.
  • the drive unit 100 is a device capable of driving a removable recording medium 101 such as an optical recording medium or a magnetic recording tape.
  • the communication unit 99 is a modem, router, or other communication device for communicating with another device that can be connected to a LAN, WAN, or the like.
  • the communication unit 99 may communicate using either wire or wireless.
  • the communication unit 99 is often used separately from the information processing device 90.
  • the communication unit 99 enables communication with other devices via the network.
  • Information processing by the information processing device 90 having the hardware configuration as described above is realized by the cooperation between the software stored in the storage unit 98 or the ROM 92 or the like and the hardware resources of the information processing device 90.
  • the information processing method according to the present technology is realized by loading and executing the program constituting the software stored in the ROM 92 or the like into the RAM 93.
  • the program is installed in the information processing device 90 via, for example, the recording medium 101.
  • the program may be installed in the information processing apparatus 90 via a global network or the like.
  • any non-transient storage medium that can be read by a computer may be used.
  • An information processing device By linking a computer mounted on a communication terminal with another computer capable of communicating via a network or the like, a mobile body, an information processing device, an information processing method, and a program related to this technology are executed, and related to this technology.
  • An information processing device may be constructed.
  • the mobile body, information processing device, information processing method, and program according to the present technology can be executed not only in a computer system composed of a single computer but also in a computer system in which a plurality of computers operate in conjunction with each other. ..
  • the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Therefore, a plurality of devices housed in separate housings and connected via a network, and one device in which a plurality of modules are housed in one housing are both systems.
  • Execution of moving objects, information processing devices, information processing methods, and programs related to this technology by a computer system for example, detection of situation candidates, generation of risk map, output of risk map, etc., is performed by a single computer. This includes both when it is performed and when each process is performed by a different computer. Further, the execution of each process by a predetermined computer includes causing another computer to execute a part or all of the process and acquire the result.
  • the mobile body, information processing device, information processing method, and program related to this technology can be applied to a cloud computing configuration in which one function is shared by a plurality of devices via a network and jointly processed. It is possible.
  • the dangerous situation includes at least one of a situation in which the moving body requires an evasive action against the object or a situation in which the moving body collides with the object.
  • the type of dangerous situation is a moving object that includes object information about the object.
  • the type of dangerous situation includes at least one of the number of times the dangerous situation occurred in the dangerous position, the date and time when the dangerous situation occurred, the speed of the moving body, or information around the moving body.
  • Mobile body (6)
  • the action planning unit is a mobile body that sets at least one of the range of the restricted area and the type of the restricted area. (7) The moving body according to (6).
  • the action planning unit is a moving body that sets a range of the restricted area or at least one of the types of the restricted area based on the recognition level of the object by the sensor unit or at least one of the types of the object.
  • the moving body according to any one of (1) to (10), and further.
  • a sensor unit capable of observing the surroundings of the moving body is provided.
  • the mobile body further includes a detection unit that detects the dangerous situation based on the sensing result acquired by the sensor unit.
  • the moving body according to (11) The detection unit is a moving body that detects the dangerous situation based on at least one of the distance information to the object and the image information of the object.
  • the detection unit is a mobile body that detects a candidate for the dangerous situation based on behavioral information regarding the behavior of the mobile body.
  • the moving body according to any one of (11) to (13).
  • the detection unit is a moving body that detects a candidate for the dangerous situation based on a change in the acceleration of the moving body.
  • the moving body according to any one of (2) to (14).
  • a mobile body including an operation control unit that limits a user's instruction regarding an operation on the moving body based on the restricted area.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

本技術の一形態に係る情報処理装置は、行動計画部を具備する。前記行動計画部は、移動における危険な状況が発生し得る位置、又は前記危険な状況が発生した位置である危険位置の少なくとも一方と前記危険な状況の種類とに基づいて、行動計画を生成する。これにより、移動における危険性をより高精度に防ぐことが可能となる。

Description

移動体、情報処理装置、情報処理方法、及びプログラム
 本技術は、移動制御等に適用可能な移動体、情報処理装置、情報処理方法、及びプログラムに関する。
 特許文献1に記載の運転記録装置は、画像データから3次元画像情報を取得する。3次元画像情報から自車両との接触の可能性のある障害物判定候補領域が検出される。障害物判定候補領域内の物体と自車両との距離情報に基づいて、衝突する可能性が判定される。衝突する可能性があると判定された場合、衝突時点の前後の画像データが記録される。これにより、記録された情報に基づいて、衝突の事例を解析することが開示されている(特許文献1の段落[0038][0052]図3等)。
特開2011-134207号公報
 このように、衝突等の危険性をより高精度に防ぐことを可能とする技術が求められている。
 以上のような事情に鑑み、本技術の目的は、移動における危険性をより高精度に防ぐことが可能な移動体、情報処理装置、情報処理方法、及びプログラムを提供することにある。
 上記目的を達成するため、本技術の一形態に係る情報処理装置は、行動計画部を具備する。
 前記行動計画部は、移動における危険な状況が発生し得る位置、又は前記危険な状況が発生した位置である危険位置の少なくとも一方と前記危険な状況の種類とに基づいて、行動計画を生成する。
 この移動体では、移動における危険な状況が発生し得る位置、又は前記危険な状況が発生した位置である危険位置の少なくとも一方と前記危険な状況の種類とに基づいて、行動計画が生成される。これにより、移動における危険性をより高精度に防ぐことが可能となる。
 前記行動計画部は、前記危険な状況の種類に基づいて、前記危険位置を基準に前記移動体の行動が制限される制限領域が設定されてもよい。
 前記制限領域は、前記移動体の進入が制限される領域と、前記移動体の速度が制限される領域と、前記移動体の進入及び速度が制限される領域との少なくとも1つを含んでもよい。
 前記危険な状況は、前記移動体が物体に対して回避行動を必要とする状況、又は前記移動体が前記物体に対して衝突を起こした状況の少なくとも一方を含んでもよい。この場合、前記危険な状況の種類は、前記物体に関する物体情報を含む
 移動体。
 前記危険な状況の種類は、前記危険位置における前記危険な状況が発生した回数、前記危険な状況が発生した日時、前記移動体の速度、又は前記移動体の周囲の情報の少なくとも1つを含んでもよい。
 前記行動計画部は、前記制限領域の範囲又は前記制限領域の種類の少なくとも一方を設定してもよい。
 前記行動計画部は、前記危険な状況の種類又は前記危険位置の数に基づいて、前記制限領域の範囲を設定してもよい。
 前記行動計画部は、前記移動体の性能に関する性能情報に基づいて、前記制限領域の範囲、又は前記制限領域の種類の少なくとも一方を設定してもよい。
 移動体。
 前記行動計画部は、前記移動体の大きさに基づいて、前記制限領域の範囲又は前記制限領域の種類の少なくとも一方を設定してもよい。
 前記移動体は、さらに、前記移動体の周囲を観測可能なセンサ部を具備してもよい。この場合、前記行動計画部は、前記センサ部による物体の認識度又は前記物体の種類の少なくとも一方に基づいて、前記制限領域の範囲、又は前記制限領域の種類の少なくとも一方を設定してもよい。
 前記移動体は、さらに、前記移動体の周囲を観測可能なセンサ部を具備してもよい。この場合、前記移動体は、さらに、前記センサ部により取得されるセンシング結果に基づいて、前記危険な状況を検出する検出部を具備してもよい。
 前記検出部は、前記物体との距離情報又は前記物体の画像情報の少なくとも一方に基づいて、前記危険な状況を検出してもよい。
 前記検出部は、前記移動体の行動に関する行動情報に基づいて、前記危険な状況の候補を検出してもよい。
 前記検出部は、前記移動体の加速度の変化に基づいて、前記危険な状況の候補を検出してもよい。
 前記移動体は、さらに、前記制限領域に基づいて、ユーザの前記移動体への操作に関する指示を制限する操作制御部を具備してもよい。
 移動体は、無人飛行体、又は車両の少なくとも一方を含んでもよい。
 本技術の一形態に係る情報処理装置は、行動計画部を具備する。
 前記行動計画部は、移動体の移動における危険な状況が発生し得る位置、又は前記危険な状況が発生した位置である危険位置の少なくとも一方と前記危険な状況の種類とに基づいて、前記移動体の行動計画を生成する。
 前記行動計画部は、前記危険な状況の種類に基づいて、前記危険位置を基準に前記移動体の行動を制限する制限領域を設定してもよい。この場合、前記情報処理装置は、さらに、前記制限領域がユーザに識別可能なGUI(Graphical User Interface)を出力するGUI出力部を具備してもよい。
 本技術の一形態に係る情報処理方法は、コンピュータシステムが実行する情報処理方法であって、移動体の移動における危険な状況が発生し得る位置、又は前記危険な状況が発生した位置である危険位置の少なくとも一方と前記危険な状況の種類とに基づいて、前記移動体の行動計画を生成することを含む。
 本技術の一形態に係るプログラムは、コンピュータシステムに以下のステップを実行させる。
 移動体の移動における危険な状況が発生し得る位置、又は前記危険な状況が発生した位置である危険位置の少なくとも一方と前記危険な状況の種類とに基づいて、前記移動体の行動計画を生成するステップ。
移動体の概要を説明するための模式図である。 移動体の機能的な構成例を示すブロック図である。 危険度マップの生成の制御を示すフローチャートである。 危険な状況の候補の検出例を示す図である。 危険な状況の検出例を示す図である。 危険度マップ情報の一例を示す表である。 危険度マップの一例を示す模式図である。 危険度マップのGUIを示す模式図である。 危険度マップ生成システムの機能的な構成例を示す模式図である。 情報処理装置のハードウェア構成例を示すブロック図である。
 以下、本技術に係る実施形態を、図面を参照しながら説明する。
 図1は、本技術に係る移動体の概要を説明するための模式図である。図1Aは、移動体1が所定の空間内を移動する様子を示す模式図である。
 本実施形態では、移動における危険な状況が発生し得る位置、又は危険な状況が発生した位置である危険位置の少なくとも一方と危険な状況の種類とに基づいて、行動計画が生成される。
 移動体1は、自律移動やユーザによる操作制御が可能な移動体である。
 例えば、移動体1は、ドローンや車両である。もちろんこれに限定されず、例えば、車輪型のロボット、多足歩行型のロボット、及び多関節構造を有する脚部を備えるロボットでもよい。
 危険位置は、移動体1の移動における危険な状況が発生し得る位置、又は危険な状況が発生した位置である。例えば、図1Aに示すように、人、電線、及び電柱が危険位置2、3、及び4となる。
 典型的には、移動体1に搭載されたセンサデバイスにとって認識が難しい(認識度が低い)物体が存在する位置が危険位置となる。認識が難しい物体は、例えば、横に長い電線、同じ間隔で四角の模様がついている窓、及び透明な窓ガラスや、移動体1の進行方向に現れる人(動物体)等が該当する。
 危険位置の位置情報としては、絶対座標系(ワールド座標系)により規定される座標値(例えばXYZ座標値)が用いられてもよい。あるいは、所定の点を基準(原点)とした相対座標系により規定される座標値(例えばxyz座標値又はuvd座標値)が用いられてもよい。相対座標系が用いられる場合、基準となる原点は、任意に設定されてよい。
 危険な状況は、移動体1の通常の移動を行う時よりも、危険度が高く安全な移動制御が求められる状況である。本実施形態では、危険な状況は、移動体1が物体に対して回避行動を行う状況、又は物体に対して衝突を起こした状況の少なくとも一方を含む。
 ここで回避行動は、移動体1が物体を避けるように移動する行動や、ブレーキ(停止、減速)等の物体に衝突しないための任意の行動を含む。
 また本実施形態では、通常の移動は、移動体1に予め与えられた行動計画、又は移動体1を操作するユーザの行動指示を含む。すなわち、危険な状況は、通常の移動が妨げられる状況とも言える。
 危険な状況の種類は、危険位置における危険な状況が発生した様々な情報である。例えば、衝突した物体に関する物体情報、危険位置における危険な状況が発生した回数、危険な状況が発生した日時、移動体1の速度、又は移動体1の周囲の情報等が含まれる。
 物体情報は、物体に関する任意の情報を含む。例えば、物体の大きさ、車や人等の物体の種類、又は物体が静止しているか否か等が含まれる。
 本実施形態では、危険位置の緯度、経度、及び高度の位置情報に対して、危険な状況の種類が紐づけられる。
 例えば、図1Aでは、危険位置2の危険な状況の種類は、衝突した物体が「人」、衝突した日時が「9:00」、移動体1の速度が「10km/h」等が紐づけられる。また例えば、危険位置3の危険な状況の種類として、衝突した物体が「電線」、衝突した日時が「12:00」、移動体1の速度が「25km/h」等が紐づけられる。また例えば、危険位置4の危険な状況の種類として、衝突した物体が「電柱」、衝突した日時が「10:00」、移動体1の速度が「36km/h」等が紐づけられる。
 図1Aに示すように、移動体1は、空間内を移動することで、様々な危険位置を検出する。なお、図1Aに示す危険位置は、同じ移動体1により蓄積される情報でもよいし、異なる移動体により共有される情報でもよい。
 行動計画とは、移動体1を制御する種々の情報である。例えば、移動体1の速度、移動体1が移動する経路(軌跡)、移動体1が通過する経由点(位置)、及び移動体1の姿勢等が行動計画に含まれる。
 図1Bは、図1Aに示す空間を異なる視点から見た状態の図である。なお、人や電柱は簡略に記載されている。
 図1Bでは、移動体1は、目的地5に向かって直進する旨の行動計画(点線6)が与えられている。図1Bに示すように、本実施形態では、危険位置に基づいて、実線7の軌跡の行動計画が生成される。例えば、危険位置に対して、遠ざかるように行動計画が生成される。
 図2は、移動体1の機能的な構成例を示すブロック図である。
 図2に示すように、移動体1は、センサ部10、情報取得部11、状況候補検出部12、障害物検出部13、危険状況検出部14、機体性能取得部15、危険度マップ生成部16、危険度マップ出力部17、及び移動体制御部18を有する。
 センサ部10は、移動体1の周囲を観測可能である。本実施形態では、移動体1の周囲にある物体の位置や画像等がセンサ部により取得される。
 例えば、ToF(Time of Flight)カメラ、ステレオカメラ、デジタルカメラ、単眼カメラ、赤外線カメラ、偏光カメラ、及びその他のカメラ等の撮像装置が用いられる。またレーザ測距センサ、接触センサ、超音波センサ、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ソナー等のセンサデバイスが用いられてもよい。
 またセンサ部10は、移動体1の状態を検出可能である。本実施形態では、センサ部10により、加速度や速度が取得される。例えば、ジャイロセンサ、加速度センサ、慣性計測装置(IMU)、及びアクセル等の加速入力の操作量、減速入力の操作量、方向指示入力の操作量、エンジンやモータ等の駆動装置の回転数や入出力エネルギー・燃料量、エンジンやモータ等のトルク量、若しくは、車輪や関節の回転速度やトルク等を検出するためのセンサ等が用いられてもよい。
 情報取得部11は、センサ部10により取得されたセンシング結果を取得する。本実施形態では、センサ部10により供給された、移動体1と物体との距離情報(深度情報)、移動体1の速度や移動体1の加速度等の速度情報、ユーザによる移動体1への操作制御、及び物体の画像情報が取得される。
 また本実施形態では、取得された情報が、状況候補検出部12及び障害物検出部13に出力される。
 状況候補検出部12は、危険な状況の候補を検出する。本実施形態では、情報取得部11により供給された移動体1への操作制御や、移動体1の行動に関する行動情報に基づいて、危険な状況の候補が検出される。例えば、移動体1に急ブレーキをかける旨の操作制御が実行された場合、その状況が危険な状況の候補として検出される。
 行動情報は、移動体1の加速度、速度、旋回、及び姿勢等の任意の行動を含む。また行動情報は、移動体1が通過した軌跡やセンサデバイスによる情報の取得等も含まれる。
 状況候補検出部12により検出された情報が危険状況検出部14に出力される。
 障害物検出部13は、危険な状況の原因となった物体(障害物)を検出する。本実施形態では、情報取得部11により供給された移動体1の進行方向、移動体1の速度、移動体1と物体との深度情報、及び移動体1の制動距離に基づいて、物体が障害物として検出される。
 障害物検出部13により検出された情報が危険状況検出部14及び移動体制御部18に出力される。
 危険状況検出部14は、危険な状況の候補から危険な状況を検出する。本実施形態では、状況候補検出部12及び障害物検出部13により供給された深度情報及び画像情報に基づいて、危険な状況が検出される。例えば、画像情報から物体認識やセマンティックセグメンテーション等を用いることで、障害物が認識される。深度情報を用いた検出例は図5を用いて説明をする。
 機体性能取得部15は、移動体1の性能に関する性能情報を取得する。例えば、性能情報は、移動体1の最大速度、最大加速度、最大減速度、最大角速度、又は移動体1の大きさ等が含まれる。これ以外にも、移動体1のバッテリー容量や最大通信距離、撮影画角等が性能情報に含まれてもよい。
 本実施形態では、機体性能取得部15により取得された情報が危険度マップ生成部16に出力される。
 危険度マップ生成部16は、危険位置及び危険な状況の種類を含む危険度マップを生成する。本実施形態では、移動体1の機体性能、危険位置、又は危険な状況の種類の少なくとも1つに基づいて、危険度マップが生成される。
 また危険度マップ生成部16は、危険位置に対して、危険位置における危険な状況の種類を紐付ける。本実施形態では、物体に関する物体情報、危険な状況が発生した時間帯、天気、移動体1の動作(前進、横移動等)、移動体1の速度、衝突したか回避行動を行ったか否か、危険な状況時における画像情報、制動距離、又は移動体1の周囲の環境を示す3次元情報の少なくとも1つが紐づけられる。具体的な例は図6を用いて説明をする。以下、危険位置及び危険位置に紐づけられた危険な状況の種類を危険度マップ情報と記載する。
 危険度マップは、移動体1の周囲の地図等を含むマップ情報に危険度マップ情報が付与された情報である。例えば、図1Aでは、移動体1の周囲にある電柱がマップ情報であり、危険位置4及び危険位置4における危険な状況の種類が危険度マップ情報となる。また図1Aに示す人は移動体1の周囲の環境を示す3次元情報に含まれる。
 危険度マップ生成部16は、危険位置を基準に移動体1の行動が制限される制限領域を設定する。
 制限領域は、移動体1の行動計画及び操作制御を制限することが可能である。本実施形態では、危険な状況の種類に基づいて、制限領域の範囲及び制限領域の種類が設定される。
 制限領域の範囲は、任意の形状、任意の大きさに設定される。本実施形態では、制限領域は、危険位置を中心とする、形状が円で、半径が範囲として設定される。
 本実施形態では、制限領域の種類は、移動体1の進入が制限される領域と、移動体1の速度が制限される領域と、移動体1の進入及び速度が制限される領域とを含む。
 危険度マップ生成部16は、生成された危険度マップに基づいて、移動体1の行動計画を生成する。本実施形態では、移動体1の移動時間をコストとし、コストが最小となるように行動計画が生成される。例えば、各移動区間の距離を各移動区間の速度で割ることで算出される移動区間における時間の合計がトータルコストとして扱われてもよい。
 もちろんこれに限定されず、例えば、移動体1のバッテリー消費量や安全性等の様々なパラメータがコストとして設定されてもよい。
 危険度マップ出力部17は、制限領域をユーザが識別可能なGUI(Graphical User Interface)を出力する。例えば、ユーザの持つPCのディスプレイや専用のデバイスにGUIが提示される。
 移動体制御部18は、移動体1の移動に関する制御を行う。本実施形態では、危険度マップ生成部16により生成された行動計画に従い、移動体1が制御される。例えば、生成された行動計画を実現するために、移動体1の加減速制御や方向制御が行われる。
 また移動体制御部18は、ユーザの移動体1への操作に関する指示(操作制御)を制限する。本実施形態では、危険度マップ生成部16により設定された制限領域に基づいて、ユーザの移動体1への操作制御が制限される。
 なお、本実施形態において、センサ部10は、移動体の周囲を観測可能なセンサ部に相当する。
 なお、本実施形態において、状況候補検出部12、障害物検出部13、及び危険状況検出部14は、センサ部により取得されるセンシング結果に基づいて、危険な状況を検出する検出部として機能する。
 なお、本実施形態において、危険度マップ生成部16は、危険な状況が発生し得る位置又は危険な状況が発生した位置を含む危険位置の少なくとも一方と危険な状況の種類とに基づいて、行動計画を生成する行動計画部に相当する。
 なお、本実施形態において、危険度マップ出力部17は、制限領域がユーザに識別可能なGUIを出力するGUI出力部に相当する。
 なお、本実施形態において、移動体制御部18は、制限領域に基づいて、ユーザの移動体への操作に関する指示を制限する操作制御部に相当する。
 図3は、危険度マップの生成の制御を示すフローチャートである。
 情報取得部11より取得されたセンサ部10のセンシング結果に基づいて、危険な状況の候補と障害物とが検出される(ステップ101)。
 状況候補検出部12及び障害物検出部13により検出された検出結果に基づいて、危険な状況が検出される(ステップ102)。
 危険度マップ生成部16により、検出された危険な状況から危険度マップが生成される(ステップ103)。
 危険度マップ出力部17により、危険度マップがユーザに出力される(ステップ104)。
 移動体制御部18により、危険度マップに基づいて生成された行動計画に従い、移動体1が制御される(ステップ105)。
 図4は、危険な状況の候補の検出例を示す図である。
 本実施形態では、センサ部10により取得された移動体1の速度及び加速度の変化から、危険な状況の候補が検出される。
 図4に示すように、ある状況で移動体1の速度が時間Aで0となった場合、移動体1の加速度が変化する。この時の加速度の変化(振幅)が所定の閾値20を超えることで、該状況が危険な状況の候補として検出される。
 なお、検出方法は限定されず、センサ部10により検知された障害物に対して、移動体1の衝突を回避するための自動制御が行われた旨の信号が取得されることで危険な状況の候補が検出されてもよい。また例えば、移動体1が障害物に衝突したことを示す旨の信号が取得されることで危険な状況の候補が検出されてもよい。
 図5は、危険な状況の検出例を示す図である。
 本実施形態では、発生した危険な状況の候補の前後のフレームの、深度情報の変化から危険な状況が検出される。例えば、センサ部10により取得される移動体1の進行方向の深度が前のフレームでは20mの状態に対し、現在のフレームでは3mになった場合、危険な状況の候補が危険な状況と判定される。
 図5Aは、フレーム前後の深度情報を示すグラフである。
 図5Aに示すように、点線22は、センサ部10が物体を正確に認識している場合の深度情報を示すグラフである。すなわち、移動体1は、物体に向かって近づいている状態である。
 また実線23は、センサ部10が時間tよりも前の時間(前のフレーム)では、物体(点線22と同じ物体)を認識していない状態であり、時間tに物体を認識した状態を示すグラフである。
 危険な状況の検出方法として、例えば、センサ部10が認識する物体までの深度情報の変化24に対して、深度情報が変化したフレーム間の時間(時間tの前後の時間)と移動体1の速度との積がより小さい場合に危険な状況として検出される。
 なお、検出方法は限定されず、例えば、所定の時間内で、所定の閾値を超える移動体から物体までの距離の変化があった場合に、危険な状況として検出されてもよい。
 なお、「より小さい」は、「以下」及び「未満」を含んでもよい。また「より大きい」は、「以上」を含んでもよい。
 図5Bは、障害物の検出例を示す図である。
 本実施形態では、移動体1の所定の速度における制動距離に基づいて、障害物が検出される。
 図5Bに示すように、移動体1の進行方向(Z軸方向)を軸に、移動体1の大きさを示す半径25(X軸Y軸平面)を底面とし、制動距離26を高さとする円筒が、移動体1の衝突判定空間27となる。物体が衝突判定空間27内に存在する場合、その物体が障害物として判定される。すなわち、現在の移動体1の速度で進んだ場合に、衝突判定空間27内に物体が存在する場合、移動体1が物体と衝突すると判定される。
 また衝突判定空間27内の物体の大きさから、障害物を判断することが可能である。例えば、衝突判定空間27の底面28の面積よりも大きな物体の場合、障害物が壁と判断することが可能である。
 図6は、危険度マップ情報の一例を示す表である。
 本実施形態では、各危険位置がナンバリングされ、各危険位置(緯度、経度、及び高度)に様々な危険な状況の種類が紐づけられる。例えば、「日時」、「速度」、「衝突ステータス」、「衝突画像」、及び「制動距離」等が紐づけられる。
 「衝突ステータス」は、危険な状況の1つである衝突の状態を示すパラメータである。本実施形態では、障害物に対して衝突なし、回避、又は衝突がパラメータとして設定される。これ以外にも、墜落や破損等の任意のパラメータが設定されてもよい。
 「衝突画像」は、危険な状況が発生した際の画像情報である。例えば、障害物が撮像された撮像画像や、移動体1の周囲の撮像画像が紐づけられる。なお、衝突画像の枚数は限定されない。また衝突画像が周囲の3次元情報をモデリングするための情報として用いられてもよいし、周囲環境のマッピングのための情報として用いられてもよい。
 図6に示すように、危険位置No.1では、以下の情報が設定される。
 「緯度」が35.619355
 「経度」が139.728340
 「高度」が3.5m
 「日時」が2019年9月29日、18時45分
 「速度」が20km/h
 「衝突ステータス」が衝突なし
 「衝突画像」が危険位置No.1における衝突画像No.1
 「制動距離」が4m
 また危険位置No.2では、以下の情報が設定される。
 「緯度」が44.619355
 「経度」が109.728340
 「高度」が2.1m
 「日時」が2019年9月29日、18時47分
 「速度」が15.2km/h
 「衝突ステータス」が回避
 「衝突画像」が危険位置No.2における衝突画像No.2
 「制動距離」が3m
 また危険位置No.3では、以下の情報が設定される。
 「緯度」が66.448176
 「経度」が123.612653
 「高度」が6.7m
 「日時」が2019年9月29日、18時47分
 「速度」が64km/h
 「衝突ステータス」が衝突
 「衝突画像」が危険位置No.3における衝突画像No.3
 「制動距離」が20m
 危険度マップ情報は、上記に限定されず、様々な情報が含まれてもよい。例えば、危険位置における光度、風速、風向、又は雨量等が含まれていてもよい。また移動体1が建物内を移動している場合は階数や部屋の名前等が含まれてもよい。また障害物の種類や移動体1に搭載されたセンサデバイスの種類等が含まれてもよい。
 図7は、危険度マップの一例を示す模式図である。
 図7Aは、移動体Aにおける危険度マップ30と行動計画31とを示す模式図である。図7Bは、移動体Bにおける危険度マップ40と行動計画41とを示す模式図である。移動体Aは、移動体Bと比べて、大きさが小さい機体である。また移動体Aは、移動体Bと比べてユーザが操作しやすい機体である。なお、本実施形態において、ユーザが操作しやすいとは、ユーザが想定する移動経路や速度等を移動体が正確に行えることである。例えば、移動体が搭載するロータの出力特性、コントローラの入力値の特性、又はそれらの組み合わせによっては、小回りが利かず操作しにくい機体となる。
 図7Aに示すように、物体32と危険位置33とが危険度マップ30に図示されている。本実施形態では、危険度マップ生成部16により、移動体Aの大きさ、及び移動体Aの操作制御の性能に基づいて、制限領域34の範囲が設定される。図7Aでは、移動体Aが、大きさが小さく、ユーザが操作しやすい機体のため、制限領域34の範囲は移動体Aが物体32と危険位置33との間を通れるような半径に設定される。
 また図7Bに示すように、図7Aと同じ位置に物体32と危険位置33とが危険度マップ40に図示されている。図7Bでは、移動体Bが、大きさが大きく、ユーザが操作しにくい機体のため、制限領域42の範囲は移動体Bが物体32と危険位置33との間を通れないような半径に設定される。
 また図7A及び図7Bでは、制限領域34及び42は、移動体の進入が制限される領域である。
 図7Aに示す危険度マップ30に基づいて、物体32と危険位置33との間を通る行動計画31が生成される。また図7Bでは、物体32と危険位置33との間を通らない行動計画41が生成される。この結果、移動体の機体性能に応じた行動計画が生成されるため、移動体が衝突等の危険な状況を発生させることなく、安全性の高い自律移動又は操作制御が可能となる。
 図8は、危険度マップのGUIを示す模式図である。
 本実施形態では、移動体を操作するユーザは、危険度マップ出力部17により出力された危険度マップGUI50を閲覧することが可能である。例えば、図8に示すように、移動体に搭載された撮像装置により撮像された画像に対して危険位置及び制限領域が重畳された危険度マップGUI50が表示される。
 また図8に示すように、危険度マップ生成部16により、各危険位置に対して、制限領域が設定される。本実施形態では、危険な状況の種類、危険位置の数、及び障害物の種類に基づいて、制限領域が設定される。また本実施形態では、危険な状況の種類、危険位置の数、及び障害物の種類に基づいて、制限領域の範囲が設定される。
 例えば、制限領域51は、危険位置52が中心に設定される。また危険位置52の周辺に、衝突ステータスが衝突である危険位置53及び54が存在する場合、木55に近い制限領域56は進入が制限され、それ以外の制限領域57は速度が制限される。
 例えば、制限領域60は、危険位置61が中心に設定される。また危険位置61の周辺に所定の閾値以上の数の危険位置が存在するため、制限領域60は進入が制限される。
 例えば、制限領域65は、危険位置66が中心に設定される。また危険位置66の周辺に、衝突ステータスが衝突である危険位置67及び68が存在し、かつ、木55及び69が存在する。このため、所定の半径までは速度が制限される制限領域70と、制限領域70の周囲に進入が制限される制限領域71とが設定される。
 例えば、制限領域75は、危険位置76が中心に設定される。また危険位置76の衝突ステータスが回避であり、障害物も存在しないため、制限領域75が速度制限の設定となる。
 なお、制限領域の設定方法は限定されない。例えば、衝突ステータスが衝突である危険位置に対して、その危険位置から所定の半径以内には近づかないように設定されてもよい。また例えば、センサ部10の認識が難しい物体や、衝突した場合に深刻な被害を生む可能性のある人や建造物等の障害物の種類に応じて設定されてもよい。
 またユーザが移動体1の操作制御を行う場合、制限領域の設定がユーザにより設定又は選択されてもよい。すなわち、ユーザにより制限領域の種類及び範囲が任意に設定されてもよい。また危険度マップGUIにより制限領域の種類及び範囲をユーザに選択させる旨の情報が提示されてもよい。
 また危険度マップGUI50では、制限領域に基づいて生成された、衝突等の危険な状況を避けることができる行動計画78が表示される。
 なお、危険度マップGUI50に表示される表示物は限定されない。例えば、移動体1よりも上空から見た視点の地図が表示されてもよいし、物体等の周囲の状況が模式的に表示されてもよい。また危険度マップGUI50として、危険位置における危険度マップ情報の音声提示や画像表示が行われもよい。
 また危険度マップGUI50で表示される制限領域は3次元でもよい。例えば、制限領域70及び71が円柱形状でもよい。また例えば、制限領域51が球形状でもよい。
 以上、本実施形態に関わる移動体1は、移動における危険な状況が発生し得る位置、又は危険な状況が発生した位置である危険位置の少なくとも一方と危険な状況の種類とに基づいて、行動計画が生成される。これにより、移動における危険性をより高精度に防ぐことが可能である。
 自律飛行が可能なドローン等の移動体は、自身の機体の故障を防ぐために、衝突リスクの少ない場所での飛行をする必要がある。しかし、場所によっては、障害物の存在や動物体の接近により、移動体及び動物体が危険にさらされる可能性がある。
 ドローン等の移動体は認識装置(センサデバイス)を備えているが、認識できない潜在的な危険が存在している場合がある。
 そこで本技術では、移動における危険な状況が発生し得る位置、又は危険な状況が発生した位置である危険位置の少なくとも一方と危険な状況の種類とに基づいて、行動計画が生成される。これにより、実際に危険な状況が起こってしまった場所、又は危険な状況が起こりかけた場所を回避することが可能な機体制御が可能となる。
 また危険位置が記録されることで、その危険位置における危険な状況とは異なる条件(例えば方向)で移動体が接近した場合でも機体制御が可能となる。また危険位置が識別可能なGUIをユーザに提示することで、危険位置を把握しやすくなり、かつ、ユーザの操作制御の改善が可能となる。
 <その他の実施形態>
 本技術は、以上説明した実施形態に限定されず、他の種々の実施形態を実現することができる。
 上記の実施形態では、制限領域は、移動体1の進入が制限される領域と、移動体1の速度が制限される領域と、移動体1の進入及び速度が制限される領域とに分類された。これに限定されず、制限領域は任意の設定がされてよい。例えば、危険位置から1m手前で移動体1が停止しなければいけない制限領域が設けられてもよい。
 上記の実施形態では、危険位置及び危険な状況を基準に危険度マップが生成された。これに限定されず、様々な要因から危険度マップが生成されてもよい。例えば、他の移動体の位置情報や行動計画を送受信することで、他の移動体の位置や経路を危険位置として危険度マップが生成されてもよい。
 上記の実施形態では、危険状況検出部14により、深度情報及び画像情報に基づいて、危険な状況の候補から危険な状況が検出(スクリーニング)された。これに限定されず、危険な状況の種類に基づいて、危険度が算出されてもよい。この危険度が所定の閾値を超える場合に、危険な状況の候補が危険な状況として検出されてもよい。
 上記の実施形態では、危険度マップが移動体1の有する危険度マップ生成部16により生成された。これに限定されず、危険度マップが外部の処理装置により生成されてもよい。
 図9は、他の実施形態に係る危険度マップ生成システムの機能的な構成例を示す模式図である。危険度マップ生成システム80は、移動体1と情報処理装置90とを含む。
 本実施形態では、移動体1の有する危険度マップ情報送受信部81により、危険位置と危険位置における危険な状況とが情報処理装置90の有する危険度マップ生成部91に送信される。危険度マップ生成部91は、送信された情報に基づいて、危険度マップを生成する。生成された危険度マップが危険度マップ情報送受信部81に送信される。
 情報処理装置90は、例えばCPUやGPU、DSP等のプロセッサ、ROMやRAM等のメモリ、HDD等の記憶デバイス等、コンピュータの構成に必要なハードウェアを有する(図10参照)。例えばCPUがROM等に予め記録されている本技術に係るプログラムをRAMにロードして実行することにより、本技術に係る情報処理方法が実行される。
 例えばPC(Personal Computer)等の任意のコンピュータにより、情報処理装置90を実現することが可能である。もちろんFPGA、ASIC等のハードウェアが用いられてもよい。
 本実施形態では、CPUが所定のプログラムを実行することで、機能ブロックとしての閾値制御部が構成される。もちろん機能ブロックを実現するために、IC(集積回路)等の専用のハードウェアが用いられてもよい。
 プログラムは、例えば種々の記録媒体を介して情報処理装置90にインストールされる。あるいは、インターネット等を介してプログラムのインストールが実行されてもよい。
 プログラムが記録される記録媒体の種類等は限定されず、コンピュータが読み取り可能な任意の記録媒体が用いられてよい。例えば、コンピュータが読み取り可能な非一過性の任意の記憶媒体が用いられてよい。
 図10は、情報処理装置90のハードウェア構成例を示すブロック図である。
 情報処理装置90は、CPU91、ROM92、RAM93、入出力インタフェース95、及びこれらを互いに接続するバス94を備える。入出力インタフェース95には、表示部96、入力部97、記憶部98、通信部99、及びドライブ部100等が接続される。
 表示部96は、例えば液晶、EL等を用いた表示デバイスである。入力部97は、例えばキーボード、ポインティングデバイス、タッチパネル、その他の操作装置である。入力部97がタッチパネルを含む場合、そのタッチパネルは表示部96と一体となり得る。
 記憶部98は、不揮発性の記憶デバイスであり、例えばHDD、フラッシュメモリ、その他の固体メモリである。ドライブ部100は、例えば光学記録媒体、磁気記録テープ等、リムーバブルの記録媒体101を駆動することが可能なデバイスである。
 通信部99は、LAN、WAN等に接続可能な、他のデバイスと通信するためのモデム、ルータ、その他の通信機器である。通信部99は、有線及び無線のどちらを利用して通信するものであってもよい。通信部99は、情報処理装置90とは別体で使用される場合が多い。
 本実施形態では、通信部99により、ネットワークを介した他の装置との通信が可能となる。
 上記のようなハードウェア構成を有する情報処理装置90による情報処理は、記憶部98またはROM92等に記憶されたソフトウェアと、情報処理装置90のハードウェア資源との協働により実現される。具体的には、ROM92等に記憶された、ソフトウェアを構成するプログラムをRAM93にロードして実行することにより、本技術に係る情報処理方法が実現される。
 プログラムは、例えば記録媒体101を介して情報処理装置90にインストールされる。あるいは、グローバルネットワーク等を介してプログラムが情報処理装置90にインストールされてもよい。その他、コンピュータ読み取り可能な非一過性の任意の記憶媒体が用いられてよい。
 通信端末に搭載されたコンピュータとネットワーク等を介して通信可能な他のコンピュータとが連動することにより本技術に係る移動体、情報処理装置、情報処理方法、及びプログラムが実行され、本技術に係る情報処理装置が構築されてもよい。
 すなわち本技術に係る移動体、情報処理装置、情報処理方法、及びプログラムは、単体のコンピュータにより構成されたコンピュータシステムのみならず、複数のコンピュータが連動して動作するコンピュータシステムにおいても実行可能である。なお、本開示において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれもシステムである。
 コンピュータシステムによる本技術に係る移動体、情報処理装置、情報処理方法、及びプログラムの実行は、例えば、状況候補の検出、危険度マップの生成、及び危険度マップの出力等が、単体のコンピュータにより実行される場合、及び各処理が異なるコンピュータにより実行される場合の両方を含む。また所定のコンピュータによる各処理の実行は、当該処理の一部又は全部を他のコンピュータに実行させその結果を取得することを含む。
 すなわち本技術に係る移動体、情報処理装置、情報処理方法、及びプログラムは、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成にも適用することが可能である。
 各図面を参照して説明した状況候補検出部、危険状況検出部、危険度マップ生成部等の各構成、通信システムの制御フロー等はあくまで一実施形態であり、本技術の趣旨を逸脱しない範囲で、任意に変形可能である。すなわち本技術を実施するための他の任意の構成やアルゴリズム等が採用されてよい。
 なお、本開示中に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。上記の複数の効果の記載は、それらの効果が必ずしも同時に発揮されるということを意味しているのではない。条件等により、少なくとも上記した効果のいずれかが得られることを意味しており、もちろん本開示中に記載されていない効果が発揮される可能性もある。
 以上説明した各形態の特徴部分のうち、少なくとも2つの特徴部分を組み合わせることも可能である。すなわち各実施形態で説明した種々の特徴部分は、各実施形態の区別なく、任意に組み合わされてもよい。
 本開示において、「中心」「中央」「均一」「等しい」「同じ」「直交」「平行」「対称」「延在」「軸方向」「円柱形状」「円筒形状」「リング形状」「円環形状」等の、形状、サイズ、位置関係、状態等を規定する概念は、「実質的に中心」「実質的に中央」「実質的に均一」「実質的に等しい」「実質的に同じ」「実質的に直交」「実質的に平行」「実質的に対称」「実質的に延在」「実質的に軸方向」「実質的に円柱形状」「実質的に円筒形状」「実質的にリング形状」「実質的に円環形状」等を含む概念とする。
 例えば「完全に中心」「完全に中央」「完全に均一」「完全に等しい」「完全に同じ」「完全に直交」「完全に平行」「完全に対称」「完全に延在」「完全に軸方向」「完全に円柱形状」「完全に円筒形状」「完全にリング形状」「完全に円環形状」等を基準とした所定の範囲(例えば±10%の範囲)に含まれる状態も含まれる。
 なお、本技術は以下のような構成も採ることができる。
(1)
 移動における危険な状況が発生し得る位置、又は前記危険な状況が発生した位置である危険位置の少なくとも一方と前記危険な状況の種類とに基づいて、行動計画を生成する行動計画部
 を具備する移動体。
(2)(1)に記載の移動体であって、
 前記行動計画部は、前記危険な状況の種類に基づいて、前記危険位置を基準に前記移動体の行動が制限される制限領域を設定する
 移動体。
(3)(2)に記載の移動体であって、
 前記制限領域は、前記移動体の進入が制限される領域と、前記移動体の速度が制限される領域と、前記移動体の進入及び速度が制限される領域との少なくとも1つを含む
 移動体。
(4)(1)から(3)のうちいずれか1つに記載の移動体であって、
 前記危険な状況は、前記移動体が物体に対して回避行動を必要とする状況、又は前記移動体が前記物体に対して衝突を起こした状況の少なくとも一方を含み、
 前記危険な状況の種類は、前記物体に関する物体情報を含む
 移動体。
(5)(1)から(4)のうちいずれか1つに記載の移動体であって、
 前記危険な状況の種類は、前記危険位置における前記危険な状況が発生した回数、前記危険な状況が発生した日時、前記移動体の速度、又は前記移動体の周囲の情報の少なくとも1つを含む
 移動体。
(6)(2)又は(3)に記載の移動体であって、
 前記行動計画部は、前記制限領域の範囲又は前記制限領域の種類の少なくとも一方を設定する
 移動体。
(7)(6)に記載の移動体であって、
 前記行動計画部は、前記危険な状況の種類又は前記危険位置の数に基づいて、前記制限領域の範囲を設定する
 移動体。
(8)(6)又は(7)に記載の移動体であって、
 前記行動計画部は、前記移動体の性能に関する性能情報に基づいて、前記制限領域の範囲、又は前記制限領域の種類の少なくとも一方を設定する
 移動体。
(9)(6)から(8)のうちいずれか1つに記載の移動体であって、
 前記行動計画部は、前記移動体の大きさに基づいて、前記制限領域の範囲又は前記制限領域の種類の少なくとも一方を設定する
 移動体。
(10)(6)から(9)のうちいずれか1つに記載の移動体であって、さらに、
 前記移動体の周囲を観測可能なセンサ部を具備し、
 前記行動計画部は、前記センサ部による物体の認識度又は前記物体の種類の少なくとも一方に基づいて、前記制限領域の範囲、又は前記制限領域の種類の少なくとも一方を設定する
 移動体。
(11)(1)から(10)のうちいずれか1つに記載の移動体であって、さらに、
 前記移動体の周囲を観測可能なセンサ部を具備し、
 前記移動体は、さらに、前記センサ部により取得されるセンシング結果に基づいて、前記危険な状況を検出する検出部を具備する
 移動体。
(12)(11)に記載の移動体であって、
 前記検出部は、前記物体との距離情報又は前記物体の画像情報の少なくとも一方に基づいて、前記危険な状況を検出する
 移動体。
(13)(11)又は(12)に記載の移動体であって、
 前記検出部は、前記移動体の行動に関する行動情報に基づいて、前記危険な状況の候補を検出する
 移動体。
(14)(11)から(13)のうちいずれか1つに記載の移動体であって、
 前記検出部は、前記移動体の加速度の変化に基づいて、前記危険な状況の候補を検出する
 移動体。
(15)(2)から(14)のうちいずれか1つに記載の移動体であって、
 前記制限領域に基づいて、ユーザの前記移動体への操作に関する指示を制限する操作制御部を具備する
 移動体。
(16)(1)から(15)のうちいずれか1つに記載の移動体であって、
 無人飛行体、又は車両の少なくとも一方を含む
 移動体。
(17)
 移動体の移動における危険な状況が発生し得る位置、又は前記危険な状況が発生した位置である危険位置の少なくとも一方と前記危険な状況の種類とに基づいて、前記移動体の行動計画を生成する行動計画部
 を具備する情報処理装置。
(18)(17)に記載の情報処理装置であって、
 前記行動計画部は、前記危険な状況の種類に基づいて、前記危険位置を基準に前記移動体の行動を制限する制限領域を設定し、
 前記情報処理装置は、さらに、前記制限領域がユーザに識別可能なGUI(Graphical User Interface)を出力するGUI出力部を具備する
 情報処理装置。
(19)
 移動体の移動における危険な状況が発生し得る位置、又は前記危険な状況が発生した位置である危険位置の少なくとも一方と前記危険な状況の種類とに基づいて、前記移動体の行動計画を生成する
 ことをコンピュータシステムが実行する情報処理方法。
(20)
 移動体の移動における危険な状況が発生し得る位置、又は前記危険な状況が発生した位置である危険位置の少なくとも一方と前記危険な状況の種類とに基づいて、前記移動体の行動計画を生成するステップ
 をコンピュータシステムに実行させるプログラム。
 1…移動体
 10…センサ部
 12…状況候補検出部
 13…障害物検出部
 14…危険状況検出部
 16…危険度マップ生成部
 17…危険度マップ出力部
 18…移動体制御部
 80…危険度マップ生成システム
 90…情報処理装置

Claims (20)

  1.  移動における危険な状況が発生し得る位置、又は前記危険な状況が発生した位置である危険位置の少なくとも一方と前記危険な状況の種類とに基づいて、行動計画を生成する行動計画部
     を具備する移動体。
  2.  請求項1に記載の移動体であって、
     前記行動計画部は、前記危険な状況の種類に基づいて、前記危険位置を基準に前記移動体の行動が制限される制限領域を設定する
     移動体。
  3.  請求項2に記載の移動体であって、
     前記制限領域は、前記移動体の進入が制限される領域と、前記移動体の速度が制限される領域と、前記移動体の進入及び速度が制限される領域との少なくとも1つを含む
     移動体。
  4.  請求項1に記載の移動体であって、
     前記危険な状況は、前記移動体が物体に対して回避行動を必要とする状況、又は前記移動体が前記物体に対して衝突を起こした状況の少なくとも一方を含み、
     前記危険な状況の種類は、前記物体に関する物体情報を含む
     移動体。
  5.  請求項1に記載の移動体であって、
     前記危険な状況の種類は、前記危険位置における前記危険な状況が発生した回数、前記危険な状況が発生した日時、前記移動体の速度、又は前記移動体の周囲の情報の少なくとも1つを含む
     移動体。
  6.  請求項2に記載の移動体であって、
     前記行動計画部は、前記制限領域の範囲又は前記制限領域の種類の少なくとも一方を設定する
     移動体。
  7.  請求項6に記載の移動体であって、
     前記行動計画部は、前記危険な状況の種類又は前記危険位置の数に基づいて、前記制限領域の範囲を設定する
     移動体。
  8.  請求項6に記載の移動体であって、
     前記行動計画部は、前記移動体の性能に関する性能情報に基づいて、前記制限領域の範囲、又は前記制限領域の種類の少なくとも一方を設定する
     移動体。
  9.  請求項6に記載の移動体であって、
     前記行動計画部は、前記移動体の大きさに基づいて、前記制限領域の範囲又は前記制限領域の種類の少なくとも一方を設定する
     移動体。
  10.  請求項6に記載の移動体であって、さらに、
     前記移動体の周囲を観測可能なセンサ部を具備し、
     前記行動計画部は、前記センサ部による物体の認識度又は前記物体の種類の少なくとも一方に基づいて、前記制限領域の範囲、又は前記制限領域の種類の少なくとも一方を設定する
     移動体。
  11.  請求項1に記載の移動体であって、さらに、
     前記移動体の周囲を観測可能なセンサ部を具備し、
     前記移動体は、さらに、前記センサ部により取得されるセンシング結果に基づいて、前記危険な状況を検出する検出部を具備する
     移動体。
  12.  請求項11に記載の移動体であって、
     前記検出部は、前記物体との距離情報又は前記物体の画像情報の少なくとも一方に基づいて、前記危険な状況を検出する
     移動体。
  13.  請求項11に記載の移動体であって、
     前記検出部は、前記移動体の行動に関する行動情報に基づいて、前記危険な状況の候補を検出する
     移動体。
  14.  請求項11に記載の移動体であって、
     前記検出部は、前記移動体の加速度の変化に基づいて、前記危険な状況の候補を検出する
     移動体。
  15.  請求項2に記載の移動体であって、さらに、
     前記制限領域に基づいて、ユーザの前記移動体への操作に関する指示を制限する操作制御部を具備する
     移動体。
  16.  請求項1に記載の移動体であって、
     無人飛行体、又は車両の少なくとも一方を含む
     移動体。
  17.  移動体の移動における危険な状況が発生し得る位置、又は前記危険な状況が発生した位置である危険位置の少なくとも一方と前記危険な状況の種類とに基づいて、前記移動体の行動計画を生成する行動計画部
     を具備する情報処理装置。
  18.  請求項17に記載の情報処理装置であって、
     前記行動計画部は、前記危険な状況の種類に基づいて、前記危険位置を基準に前記移動体の行動を制限する制限領域を設定し、
     前記情報処理装置は、さらに、前記制限領域がユーザに識別可能なGUI(Graphical User Interface)を出力するGUI出力部を具備する
     情報処理装置。
  19.  移動体の移動における危険な状況が発生し得る位置、又は前記危険な状況が発生した位置である危険位置の少なくとも一方と前記危険な状況の種類とに基づいて、前記移動体の行動計画を生成する
     ことをコンピュータシステムが実行する情報処理方法。
  20.  移動体の移動における危険な状況が発生し得る位置、又は前記危険な状況が発生した位置である危険位置の少なくとも一方と前記危険な状況の種類とに基づいて、前記移動体の行動計画を生成するステップ
     をコンピュータシステムに実行させるプログラム。
PCT/JP2021/008182 2020-03-18 2021-03-03 移動体、情報処理装置、情報処理方法、及びプログラム WO2021187110A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-047926 2020-03-18
JP2020047926A JP2021149428A (ja) 2020-03-18 2020-03-18 移動体、情報処理装置、情報処理方法、及びプログラム

Publications (1)

Publication Number Publication Date
WO2021187110A1 true WO2021187110A1 (ja) 2021-09-23

Family

ID=77768110

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/008182 WO2021187110A1 (ja) 2020-03-18 2021-03-03 移動体、情報処理装置、情報処理方法、及びプログラム

Country Status (2)

Country Link
JP (1) JP2021149428A (ja)
WO (1) WO2021187110A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6349481B1 (ja) * 2017-10-17 2018-06-27 株式会社自律制御システム研究所 無人航空機の飛行計画経路を設定するためのシステム及びプログラム
WO2019107047A1 (ja) * 2017-11-28 2019-06-06 株式会社Nttドコモ 情報処理装置
JP2020500763A (ja) * 2016-12-01 2020-01-16 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 静止及び移動体に対する無人航空機の飛行方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020500763A (ja) * 2016-12-01 2020-01-16 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 静止及び移動体に対する無人航空機の飛行方法
JP6349481B1 (ja) * 2017-10-17 2018-06-27 株式会社自律制御システム研究所 無人航空機の飛行計画経路を設定するためのシステム及びプログラム
WO2019107047A1 (ja) * 2017-11-28 2019-06-06 株式会社Nttドコモ 情報処理装置

Also Published As

Publication number Publication date
JP2021149428A (ja) 2021-09-27

Similar Documents

Publication Publication Date Title
EP3324332B1 (en) Method and system to predict vehicle traffic behavior for autonomous vehicles to make driving decisions
US10457294B1 (en) Neural network based safety monitoring system for autonomous vehicles
EP3332300B1 (en) Method and system to construct surrounding environment for autonomous vehicles to make driving decisions
JP6588592B2 (ja) 自動運転車両に用いられる衝突予測及びエアバッグ事前展開システム
US11288860B2 (en) Information processing apparatus, information processing method, program, and movable object
EP3315388B1 (en) Spring system-based change lane approach for autonomous vehicles
US10078335B2 (en) Ray tracing for hidden obstacle detection
US10507813B2 (en) Method and system for automated vehicle emergency light control of an autonomous driving vehicle
US10940795B2 (en) Method for keeping distance between an autonomous driving vehicle and a following vehicle using a braking light
WO2018058442A1 (zh) 路径规划的方法、装置、飞行控制系统、全方位避障系统与无人机
US11822341B2 (en) Control device, control method, and mobile object to estimate the mobile object's self-position
JP2024053085A (ja) 飛行体制御装置、飛行体制御方法、及びプログラム
WO2020226085A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2019098082A1 (ja) 制御装置、および制御方法、プログラム、並びに移動体
JPWO2020116195A1 (ja) 情報処理装置、情報処理方法、プログラム、移動体制御装置、及び、移動体
JP7257737B2 (ja) 情報処理装置、自己位置推定方法、及び、プログラム
US11500386B2 (en) Control apparatus, control method, program, and mobile object
WO2021187110A1 (ja) 移動体、情報処理装置、情報処理方法、及びプログラム
WO2022153669A1 (ja) 分散協調システム、及びタスク実行方法
US20230109408A1 (en) Information processing device, method, computer program, and communication system
WO2019176278A1 (ja) 情報処理装置、情報処理方法、プログラム、及び移動体
KR102070110B1 (ko) 자율 무인 시스템을 위한 지능 에이전트 시스템
WO2021140916A1 (ja) 移動体、情報処理装置、情報処理方法、及びプログラム
JP7487178B2 (ja) 情報処理方法、プログラム、及び、情報処理装置
WO2021085124A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21771285

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21771285

Country of ref document: EP

Kind code of ref document: A1