WO2022019118A1 - 情報処理装置、情報処理方法、及び、プログラム - Google Patents
情報処理装置、情報処理方法、及び、プログラム Download PDFInfo
- Publication number
- WO2022019118A1 WO2022019118A1 PCT/JP2021/025621 JP2021025621W WO2022019118A1 WO 2022019118 A1 WO2022019118 A1 WO 2022019118A1 JP 2021025621 W JP2021025621 W JP 2021025621W WO 2022019118 A1 WO2022019118 A1 WO 2022019118A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- target
- action
- information
- movement
- unit
- Prior art date
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 76
- 238000003672 processing method Methods 0.000 title claims abstract description 8
- 230000009471 action Effects 0.000 claims abstract description 421
- 238000011156 evaluation Methods 0.000 claims description 56
- 238000012545 processing Methods 0.000 claims description 17
- 238000013459 approach Methods 0.000 claims description 11
- 238000005516 engineering process Methods 0.000 abstract description 15
- 230000036544 posture Effects 0.000 description 121
- 238000000034 method Methods 0.000 description 52
- 238000004364 calculation method Methods 0.000 description 33
- 230000010391 action planning Effects 0.000 description 21
- 238000010586 diagram Methods 0.000 description 16
- 230000008569 process Effects 0.000 description 16
- 238000004891 communication Methods 0.000 description 15
- 230000000052 comparative effect Effects 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 3
- 238000005265 energy consumption Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0287—Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/12—Target-seeking control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U10/00—Type of UAV
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/10—UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
Definitions
- the present technology relates to information processing devices, information processing methods, and programs, and in particular, to information processing devices, information processing methods, and programs that allow mobile devices to flexibly correspond to specified action targets.
- Patent Document 1 discloses a technique for an autonomous mobile robot to efficiently move to a destination given by a user.
- the mobile device When an action target such as movement to a destination is specified for a mobile device such as an autonomous mobile robot, the mobile device is specified depending on the ability (performance / function) of the mobile device, the state of the moving space, etc. In some cases, it was not possible to meet the action goals.
- This technology was made in view of such a situation, and makes the mobile device flexibly respond to the specified action goal.
- the information processing device or program of the present technology has action target information representing an action target that specifies the destination of the moving device, and a movable space representing a movable space that is the range of the movable real space of the mobile device. It is an information processing device provided with a target planning unit that calculates a movement target of the mobile device based on information, or a program for operating a computer as such an information processing device.
- the target planning unit of the information processing device having the target planning unit has the action target information representing the action target that specifies the movement destination of the mobile device and the movable real space of the mobile device.
- the above is based on the action target information representing the action target for designating the movement destination of the mobile device and the movable space information representing the movable space which is the range of the movable real space of the mobile device.
- the movement target of the moving device is calculated.
- FIG. 1 It is a figure which exemplifies the operation of the autonomous mobile body of the 1st form with respect to the action objective and action goal similar to FIG. It is a figure which exemplifies the operation of the autonomous moving body of the comparative example with respect to an example of an action purpose and an action goal. It is a figure which exemplifies the operation of the autonomous mobile body of the 1st Embodiment with respect to the action objective and the action goal similar to FIG. It is a block diagram which illustrates the structure of the 2nd Embodiment of the autonomous mobile body control system to which this technique is applied. It is a figure which showed the information flow of the autonomous mobile body control system of FIG. It is a flowchart illustrating the processing procedure performed by the autonomous mobile control system of FIG.
- FIG. 1 is a block diagram illustrating the configuration of the first embodiment of the autonomous mobile control system to which the present technology is applied.
- the autonomous mobile control system 11 which is the first embodiment of the autonomous mobile control system to which the present technology is applied has an autonomous mobile body 21 (mobile device) and an operating device 22.
- the boundary between the autonomous mobile body 21 and the operating device 22 is not limited to the case shown in FIG.
- the operating device 22 may have a part of the components of the autonomous moving body 21 in FIG. 1, and the autonomous moving body 21 has a part or all of the components of the operating device 22. You may.
- the autonomous mobile body 21 is a mobile device that moves by any movement method.
- the autonomous moving body 21 may be a vehicle type, a flying type, a multi-legged type, or an endless track type moving device.
- the autonomous mobile body 21 executes an action such as movement or shooting based on the action purpose information and the action target information supplied from the operation device 22.
- the action purpose information represents the action purpose of what the autonomous mobile body 21 does.
- Action objectives include, for example, one or more of movement, approach, and photography.
- the action goal information represents an action goal that limits (specifies / designates) the destination of the autonomous moving body 21 with respect to the action purpose.
- the action goal includes, for example, one or more of a position, a posture, and an object.
- the operation device 22 is an arbitrary device for the user to perform an input operation.
- the operating device 22 may be, for example, a personal computer, a smartphone, a tablet, or the like. Further, the operating device 22 is wirelessly connected to, for example, the autonomous mobile body 21 so as to be communicable. Communication between the operating device 22 and the autonomous mobile body 21 may be via a network such as the Internet, and is not limited to a specific communication method as long as information can be exchanged.
- the operation device 22 receives the action purpose information and the action target information of the autonomous moving body 21 operated and input by the user, and supplies the action purpose information and the action target information designated by the user to the autonomous moving body 21 by communication.
- the action purpose information and the action target information may be supplied from a system other than the operation device 22 that the user operates and inputs, and is not limited to the case where the user specifies the action purpose information and the action target information. However, in the following, the user shall specify the action purpose information and the action goal information.
- the autonomous mobile body 21 has a transmission / reception unit 41, a target planning unit 42, an action planning unit 43, a control unit 44, an actuator 45, a sensor 46, a recognition unit 47, and a storage unit 48.
- the transmission / reception unit 41 controls communication with the operation device 22.
- the transmission / reception unit 41 acquires the action purpose information and the action target information designated by the user from the operation device 22 by communication.
- the transmission / reception unit 41 supplies the acquired action purpose information and action target information to the target planning unit 42.
- the goal planning unit 42 calculates a movement target (reachable target) that the autonomous moving body 21 can reach based on the action purpose information and the action target information specified by the user.
- the reachable target is the position / posture of the target to which the autonomous moving body 21 should move, and represents a moving target limited to the range of the real space in which the autonomous moving body 21 can move.
- the position / posture represents a position, a posture, or a position and a posture.
- the movement target may be not only one position / posture but also a plurality of positions / postures.
- the target planning unit 42 refers to the movable space information and the like supplied from the recognition unit 47 when calculating the reachable target.
- the goal planning unit 42 supplies the calculated reachable target to the action planning unit 43.
- the action planning unit 43 calculates an action plan including the trajectory of the autonomous mobile body 21 which is its own machine to reach the reachable target based on the reachable target from the target planning unit 42.
- the action plan includes information about the action corresponding to the action purpose represented by the action purpose information.
- the action planning unit 43 refers to information on the current position / posture of the autonomous moving body 21 supplied from the recognition unit 47, information on the movable space, and the like.
- the movable space information is information representing the range of the space in which the own machine can move.
- the action planning unit 43 supplies the calculated action plan (orbit) to the control unit 44.
- the control unit 44 supplies a control signal (control value) to the actuator 45 based on the action plan from the action planning unit 43.
- the control unit 44 controls the actuator 45 by a control signal (control value) to move the autonomous moving body 21 according to the action plan (orbit or the like) from the action planning unit 43.
- the actuator 45 operates a moving mechanism (wheels, propellers, caterpillars, etc.) for moving the autonomous moving body 21 to move the autonomous moving body 21.
- the actuator 45 is not limited to a specific type.
- the sensor 46 includes a sensor that detects the position / posture of the autonomous moving body 21, a sensor that detects spatial information, and the like.
- the sensor 46 may include a camera (imaging device), a laser sensor (distance measuring sensor), an IMU (inertial measurement unit), and the like.
- the type of camera may be a monocular camera, a compound eye camera, a depth camera, a ToF camera, or the like.
- the sensor 46 may be a sensor used in SLAM (Simultaneous Localization and Mapping) technology.
- SLAM Simultaneous Localization and Mapping
- the sensor data detected by the sensor 46 is supplied to the recognition unit 47.
- the recognition unit 47 Based on the sensor data from the sensor 46, the recognition unit 47 provides spatial information indicating the current position / posture of the autonomous moving body 21, presence / absence and arrangement of an object in the real space, and an object of an object existing in the real space. Recognize information.
- the recognition unit 47 reads the spatial information and the object information recognized in the past from the storage unit 48, and the spatial information based on the read information, the spatial information newly recognized by the sensor data, and the object information. , And the object information is updated and stored in the storage unit 48.
- the recognition unit 47 recognizes the movable space, which is the range of the space in which the autonomous moving body 21 can move, based on the spatial information, and supplies the movable space information to the target planning unit 42 and the action planning unit 43. Further, the recognition unit 47 supplies the object information to the target planning unit 42.
- the storage unit 48 stores own machine information, spatial information, object information, and the like.
- the recognition unit 47 is configured to store and read various information in the storage unit 48, but the present invention is not limited to this.
- the constituent units other than the recognition unit 47 such as the target planning unit 42 and the action planning unit 43, can store various information in the storage unit 48 as needed, via the recognition unit 47 or without the recognition unit 47. It shall be possible to read.
- FIG. 2 is a block diagram illustrating the configurations of the target planning unit 42 and the storage unit 48.
- the target planning unit 42 has a movement target calculation unit 61, a feasibility determination unit 62, and a movement target recalculation unit 63.
- the movement target calculation unit 61 calculates a provisional movement target based on the action purpose information and the action target information from the operation device 22 designated by the user and the object information from the recognition unit 47.
- the provisional movement target is a movement target that is a provisional movement destination of the autonomous movement body 21, and is the ability of the autonomous movement body 21 (performance / function such as the movement method) and the range of the movable space of the autonomous movement body 21 (the range of the movable space of the autonomous movement body 21). Represents a movement target calculated without considering (movable space) and the like.
- the movement target calculation unit 61 supplies the calculated provisional movement target to the feasibility determination unit 62 together with the action purpose information from the operation device 22.
- the feasibility determination unit 62 determines whether the movement of the autonomous moving body 21 from the movement target calculation unit 61 to the provisional movement target is highly feasible or low, based on the movable space information from the recognition unit 47. do.
- the provisional movement target is within the range of the movable space, it is determined that the feasibility is high, and if the provisional movement target is outside the range of the movable space, it is determined that the feasibility is low. Will be done.
- the feasibility determination unit 62 supplies the action purpose information from the movement target calculation unit 61, the provisional movement target, and the feasibility determination result for the provisional movement target to the movement target recalculation unit 63.
- the movement target recalculation unit 63 calculates the movement target based on the action purpose information from the feasibility determination unit 62, the provisional movement target, and the determination result.
- the movement target recalculation unit 63 sets the provisional movement target as the final movement target (referred to as the reachable target) for the provisional movement target determined to be highly feasible.
- the movement target recalculation unit 63 determines the position / posture that is within the range of the movable space for the provisional movement target determined to be less feasible and is closest to the provisional movement target. Calculated as a reachable goal.
- the movement target recalculation unit 63 supplies the reachable target information representing the calculated reachable target to the action planning unit 43 of FIG. 1 together with the action purpose information.
- the storage unit 48 includes a self-machine information storage unit 81, an object information storage unit 82, and a spatial information storage unit 83.
- the own machine information storage unit 81 stores information such as the performance, function, and shape of the own machine autonomous mobile body 21.
- the object information storage unit 82 stores information regarding an identifier (identification information), a position, a posture, and a shape of an object existing in the real space.
- the spatial information storage unit 83 stores spatial information (map information) representing the arrangement of objects existing in the real space.
- the own machine information is created in advance by an external system and stored in the own machine information storage unit 81.
- the object information and the spatial information are created by accumulating the information recognized by the recognition unit 47 based on the sensor data acquired by the sensor 46 as the information of the object information storage unit 82 and the spatial information storage unit 83.
- the object information and the spatial information may be created in advance by an external system and stored in the object information storage unit 82 and the spatial information storage unit 83.
- FIG. 3 is a diagram showing a list of information supplied to the target planning unit 42 and information calculated by the target planning unit 42.
- Action objectives include, for example, movement, approach, and photography.
- the autonomous moving body 21 is designated to move to the action target.
- the autonomous moving body 21 is designated as an action approaching the action target.
- the autonomous moving body 21 is designated to approach the action target and shoot the action target.
- the action purpose of the autonomous moving body 21 that can be specified by the operation device 22, that is, the action purpose information that can be supplied to the target planning unit 42 is not limited to movement, approach, and photographing, and the autonomous moving body 21 has. Depending on the function, any action that the autonomous mobile body 21 can perform can be included.
- a selection screen for selecting an action purpose to be executed by the autonomous mobile body 21 is displayed.
- the user selects and specifies the action purpose to be executed by the autonomous mobile body 21 on the selection screen.
- the target planning unit 42 of the autonomous moving body 21 is supplied with action purpose information representing the action purpose designated by the user.
- Action goal information In the column of the action target information in the second column of FIG. 3, the types of action targets represented by the action target information supplied from the operation device 22 to the target planning unit 42 are exemplified. There are different types of action goals depending on the purpose of action.
- the types of action goals include, for example, a target position, a target posture, and a target area.
- the action target is the target position
- the position in the real space where the autonomous moving body 21 moves is specified.
- the action target is the target posture
- the posture in the real space where the autonomous moving body 21 moves (changes the posture) is specified.
- the action target is the target area
- the area in the real space where the autonomous moving body 21 moves is specified.
- the types of action goals include a combination of a target position and a target posture, and a combination of a target posture and a target area, but they are omitted in FIG.
- a map screen showing a map of the real space in which the autonomous moving body 21 moves is displayed.
- the map on the map screen is created, for example, based on the object information and the spatial information stored in the object information storage unit 82 and the spatial information storage unit 83 of the storage unit 48 of the autonomous moving body 21.
- the object information and the spatial information stored in the object information storage unit 82 and the spatial information storage unit 83 are supplied from the autonomous moving body 21 to the operation device 22 by communication.
- the autonomous moving body 21 and the operating device 22 share the same map information (object information and spatial information) created in advance, the map between the autonomous moving body 21 and the operating device 22 is shared. No need to exchange information.
- the user specifies the movement as the action purpose to be executed by the autonomous mobile body 21, and then specifies the destination of the target to be moved to the autonomous mobile body 21 on the map screen.
- the position of the designated predetermined point is designated as the target position.
- the user designates, for example, the front direction of the autonomous moving body 21 on the map the posture facing the designated front direction is designated as the target posture.
- the designated area is designated as the target area.
- the action target information representing the target position, the target posture, or the target area specified by the user is supplied from the operation device 22 to the target planning unit 42 of the autonomous moving body 21. ..
- the target position, target posture, or target area can be specified, for example, by specifying a coordinate value representing the target position in the map coordinate system set on the map, or by specifying a posture angle (oiler angle, quaternion, etc.) representing the target posture. It may be designated, the area position representing the target area, the area shape, or the like.
- the image taken by the camera of the autonomous moving body 21 may be displayed on the display unit of the operation device 22, and the target position, the target posture, or the target area may be specified on the image.
- the type of action goal represented by the action goal information is, for example, a target object.
- the method of designating the target object as an action target may be a method of designating an identifier of the target object, a method of designating only the type of the target object, or another method.
- the target position or target area As in the case where the action purpose is movement, it is possible to specify the target position or target area as the action target even when the action purpose is approaching, and when the action purpose is movement, the target object is used as the action target. It is also possible to specify.
- a map screen showing a map of the real space in which the autonomous moving body 21 moves is displayed, as in the case where the action purpose is movement.
- the user specifies the approach as the action purpose to be executed by the autonomous mobile body 21, and then specifies the target object to be brought close to the autonomous mobile body 21 on the map screen.
- the operation device 22 detects the identifier of the object specified by the user from the object information based on the position (coordinates) of the object specified by the user in the map coordinate system.
- the operation device 22 supplies the identifier of the detected object to the target planning unit 42 of the autonomous moving body 21 as action target information representing the target object.
- the target planning unit 42 identifies the object specified by the user and recognizes the target object based on the object information of the object information storage unit 82. do.
- An image taken by the camera of the autonomous mobile body 21 may be displayed on the display unit of the operation device 22, and an object such as a person may be designated as a target object on the image.
- the target planning unit 42 of the autonomous moving body 21 acquires the information of the position designated on the image from the operation device 22, and recognizes the object at the position designated on the image as the target object.
- the type of action goal represented by the action goal information is, for example, a target object.
- the action target is a target object
- the object in the real space to be photographed by the autonomous moving body 21 is specified.
- the target position and target area are specified as the action target even when the action purpose is shooting, as in the case where the action purpose is movement.
- a map screen showing a map of the real space in which the autonomous moving body 21 moves is displayed, as in the case where the action purpose is approaching.
- the user specifies shooting as an action purpose to be executed by the autonomous moving body 21, and then specifies a target object to be shot by the autonomous moving body 21 on the map screen.
- the operation device 22 detects the identifier of the object specified by the user from the object information based on the position (coordinates) of the object specified by the user in the map coordinate system.
- the operation device 22 supplies the identifier of the detected object to the target planning unit 42 of the autonomous moving body 21 as action target information representing the target object.
- the target planning unit 42 identifies the object specified by the user and recognizes the target object based on the object information of the object information storage unit 82. do.
- an object such as a person may be designated as a target object on the image taken by the camera of the autonomous moving body 21 as in the case where the action purpose is approaching.
- the movement target calculation unit 61 sets the target position, target posture, or target area designated as the action target as the provisional movement target as it is.
- the movement target calculation unit 61 provisionally moves the target position to be the movement destination of the autonomous moving body 21 based on the target object designated as the action target and the object information of the target object. Calculate as a goal.
- the movement target calculation unit 61 obtains the object information of the target object stored in the object information storage unit 82 via the recognition unit 47 based on the identifier of the target object given as the target information. get.
- the movement target calculation unit 61 detects the position of the target object (coordinate value of the map coordinate system) based on the object information of the target object, and temporarily moves the detected position or a position a certain distance away from the detected position. Calculated as the target position of the target.
- the movement target calculation unit 61 determines a position where the autonomous moving body 21 does not come into contact with the target object based on information such as the shape and size of the autonomous moving body 21 included in the own machine information of the own machine information storage unit 81. It may be calculated as the target position of the provisional movement target. Further, the movement target calculation unit 61 may calculate the position where the autonomous moving body 21 does not come into contact with the target object in consideration of the shape, posture, and the like of the target object included in the object information of the object information storage unit 82. Further, the movement target calculation unit 61 may calculate as a target position a position that satisfies a predetermined condition regarding approach or a condition designated by a user or the like. The conditions that can be adopted may be, for example, a condition that limits the position where the autonomous moving body 21 approaches to the front side, the side surface side, the back side, or the like of the target object.
- the movement target calculation unit 61 provisionally determines the target position to be the destination of the autonomous moving body 21 based on the target object designated as the action target and the object information of the target object. Calculated as a movement target.
- the movement target calculation unit 61 obtains the object information of the target object stored in the object information storage unit 82 via the recognition unit 47 based on the identifier of the target object given as the target information. get.
- the moving target calculation unit 61 detects the position of the target object (coordinate value of the map coordinate system) based on the object information of the target object, and targets within the shooting range of the camera (imaging device) provided in the autonomous moving body 21.
- the position of the autonomous moving body 21 including the object is calculated as the target position of the provisional moving target.
- the movement target calculation unit 61 provisionally moves the posture of the autonomous moving body 21 in which the target object is captured at an appropriate position within the shooting range of the camera (imaging device) in consideration of the shooting direction of the camera provided by the autonomous moving body 21. Calculated as the target posture of the target.
- the autonomous moving body 21 is provided with a mechanism for controlling the shooting direction of the camera without changing the posture, it is not necessary to consider the target posture of the provisional moving target.
- the target position and the target posture are set as an example of the provisional movement target in the column when the action purpose is shooting (and the action target is the target object). It is shown when it is done.
- the movement target calculation unit 61 may calculate a position that satisfies a predetermined condition for shooting or a condition specified by a user or the like as a target position.
- the conditions that can be adopted may be, for example, a condition that limits the direction in which the target object is photographed to the front side, the side surface side, the back side, or the like of the target object.
- the movement target recalculation unit 63 indicates that the feasibility determination result of the feasibility determination unit 62 (see FIG. 2) is high or low.
- the types of reachable goals calculated are illustrated.
- the movable space used by the feasibility determination unit 62 to determine the feasibility is defined as a set of positions (points) where the autonomous mobile body 21 can exist.
- the movable space is not only determined by the presence or absence of an object in the real space, but also the movement method of the autonomous moving body 21 is taken into consideration. For example, when the movement method of the autonomous moving body 21 can move in the air like a flight type, there are restrictions on the movable space due to the existence of objects and the flight prohibited area where flight is prohibited, but the restrictions due to the movement method. There is no.
- the movement method of the autonomous moving body 21 is a method of moving while touching a surface (referred to as a moving surface) such as the ground or the floor (referred to as a moving surface) like a vehicle type or a multi-legged type, or while maintaining a substantially constant distance.
- a moving surface such as the ground or the floor (referred to as a moving surface) like a vehicle type or a multi-legged type, or while maintaining a substantially constant distance.
- the movable space is limited to the range along the moving surface on which the autonomous moving body 21 can move.
- the feasibility determination unit 62 does not consider the size of the autonomous moving body 21 and the like, and the autonomous moving body 21 does not consider the size and the like.
- a first definition in which the size of the autonomous body 21 is regarded as a point and a second definition in which the size of the autonomous mobile body 21 and the like are taken into consideration can be adopted.
- the autonomous moving body 21 even if the position of the autonomous moving body 21 is within the range of the movable space, if the object surface (excluding the moving surface) is close to the autonomous moving body 21, the autonomous moving body 21 is present. Depending on the posture of 21, a part of the autonomous moving body 21 may interfere with (intersect) the object. Therefore, if the distance between the target position of the provisional movement target and the object surface (excluding the moving surface) near the target position is equal to or greater than a predetermined threshold value, it is determined that the feasibility is high, and if it is less than the threshold value. Is determined to be less feasible.
- the threshold value may be, for example, a distance at which the entire autonomous moving body 21 does not interfere with the object in any posture that can be taken at each position.
- the threshold value does not have to be a value based on the actual size (and shape) of the autonomous mobile body 21.
- the movable space may be defined so as to be outside the range of the movable space. In this case, it is not necessary to consider the interference between the autonomous moving body 21 and the object in determining the feasibility.
- the movable space is defined by limiting the posture in which the autonomous moving body 21 does not interfere with the object in consideration of the size of the autonomous moving body 21 and the like. That is, a set of positions in which the autonomous moving body 21 can exist without interfering with an object in any of the postures that the autonomous moving body 21 can take is defined as a movable space.
- the set of postures in which the autonomous moving body 21 does not interfere with the object at each position in the movable space is called a posture limiting range.
- the target posture is not set as the provisional movement target (when the posture is arbitrary), or it is set as the provisional movement target.
- the target posture target posture of the provisional movement target
- the posture restriction range at the target position of the provisional movement target it is determined that the feasibility is high.
- the target posture of the provisional movement target is out of the posture restriction range. At the time of, it is determined that the feasibility is low.
- the feasibility determination unit 62 shall use the second definition of the movable space. However, it is not necessary to use detailed definitions such as the first and the second as the definition of the movable space. In that case, the interference with the object due to the posture of the autonomous moving body 21 is not considered, or the range that does not interfere with the object regardless of the posture of the autonomous moving body 21 is defined as the movable range.
- the feasibility determination unit 62 determines that the feasibility is high.
- the movement target recalculation unit 63 sets the target position of the provisional movement target as the reachable target as it is, as in the “high” column in the reachable target column in the fourth column of FIG.
- the feasibility determination unit 62 determines the feasibility as in the case described later in which the target position and the target posture are set as the provisional movement target.
- the feasibility determination unit 62 moves the target area (whole). When it is within the range of possible space, it is judged that the feasibility is high. In this case, the movement target recalculation unit 63 can reach an arbitrary position included in the target area of the provisional movement target as in the “high” column of the reachable target column in the fourth column of FIG. Set as the target position of the target.
- the feasibility determination unit 62 can move the target position. When it is within the range of the space and the target posture is within the posture restriction range, it is judged that the feasibility is high. In this case, the movement target recalculation unit 63 sets the target position and target posture of the premise movement target as the reachable target as it is, as shown in the “high” column in the reachable target column in the fourth column of FIG. do.
- the feasibility determination unit 62 determines that the feasibility is low if the above conditions for determining the feasibility are not satisfied.
- the movement target recalculation unit 63 recalculates the movement target, which is more feasible than the provisional movement target, as follows, using the information of the movable space, and can reach the final movement target. Target.
- the "low" column in the column of reachable goals in the fourth column of FIG. 3 shows an outline of the calculated reachable goals, and the details are as follows.
- the movement target recalculation unit 63 calculates the position closest to the target position of the provisional movement target within the range of the movable space and can reach it. Set as the target position of the target. Further, the movement target recalculation unit 63 sets an arbitrary posture within the posture restriction range at the set target position of the reachable target as the target posture of the reachable target. However, if the posture of the autonomous moving body 21 is not restricted at the target position of the reachable target, the target posture may not be set. Further, within the range in which the posture of the autonomous moving body 21 in the movable space is not restricted, the position closest to the target position of the provisional moving target is set as the target position of the reachable target. May be good.
- the feasibility determination unit 62 calculates the reachable target as in the case described later in which the target position and the target posture are set as the provisional movement target.
- the movement target recalculation unit 63 may include any of the product sets included in the product set. Set the position as the target position of the reachable target.
- the movement target recalculation unit 63 is the position closest to the area of the provisional movement target within the range of the movable space. Is calculated and set as the target position of the reachable target.
- the movement target recalculation unit 63 sets an arbitrary posture within the posture restriction range at the set target position of the reachable target as the target posture of the reachable target. However, if the posture of the autonomous moving body 21 is not restricted at the target position of the reachable target, the target posture may not be set. An arbitrary position in the product set of the range in which the posture of the autonomous moving body 21 in the movable space is not restricted and the target area of the provisional moving target, or the autonomous moving body 21 in the movable space. Within the range where the posture is not restricted, the position closest to the target area of the provisional movement target may be set as the target position of the reachable target.
- the target position and the target posture are set as the provisional movement target, for example, the following first to third calculation methods can be adopted as the calculation method of the feasible target of the movement target recalculation unit 63.
- the movement target recalculation unit 63 calculates a position closest to the target position of the provisional movement target within the range of the movable space, and sets it as the target position of the reachable target. ..
- the movement target recalculation unit 63 calculates a posture that is closest to the target posture of the provisional movement target within the posture restriction range at the set target position of the reachable target, and sets it as the target posture of the reachable target. do.
- the posture closest to the target posture means the posture in which the posture distance is the minimum with respect to the target posture.
- the posture distance is a value indicating the magnitude of the difference between the two postures. For example, when the posture change from one of the two postures to the other is represented by the angle of rotation around one rotation axis, the rotation thereof. The size of the angle may be used as the posture distance, or other definitions may be adopted.
- the movement target recalculation unit 63 sets the target posture of the provisional movement target as the target posture of the reachable target. Then, the movement target recalculation unit 63 calculates the position closest to the target position in the range of the movable space whose target posture is the posture within the posture restriction range, and the target position of the feasible target. Set as.
- the movement target recalculation unit 63 is a linear sum (weighted sum) of the distance (geometric distance) of the provisional movement target to the target position and the posture distance to the target posture of the provisional movement target. Calculates the position within the range of the movable space where is the minimum and the posture within the posture restriction range. The weighted sum represents the total distance of the position and the posture with respect to the target position and the target posture of the provisional movement target. The movement target recalculation unit 63 calculates the position within the range of the movable space and the posture within the posture restriction range, which are the closest to the target position and the target posture of the provisional movement target with respect to the total distance, as the reachable target. do. The movement target recalculation unit 63 sets the calculated position and posture as the position and posture of the reachable target.
- a predetermined value is used for the first weight to be multiplied by the geometric distance and the second weight to be multiplied by the posture distance. ..
- the larger the ratio of the first weight to the second weight the closer the target position of the reachable target to the target position of the provisional movement target, rather than the posture. Means to be prioritized.
- the smaller the ratio of the first weight to the second weight the closer the target posture of the reachable target to the target posture of the provisional movement target. Means that is also prioritized.
- the first calculation method corresponds to the case where the second weight is 0 (the first weight is a positive number) in the third calculation method.
- the second calculation method corresponds to the case where the first weight is 0 (the second weight is a positive number) in the third calculation method.
- the movement target recalculation unit 63 will be described as using the third calculation method.
- the movement target recalculation unit 63 may calculate the target position and target posture of the reachable target by the third calculation method using the first and second weights of predetermined values, and may calculate the target position and the target posture of the reachable target, the action purpose information, and the action purpose information. Depending on the action goal information, the first and second weights in the third calculation method may be switched to calculate the reachable goal.
- the movement target recalculation unit 63 reduces the first weight with respect to the second weight, for example. And calculate the reachable goal. In this way, ensuring that the target posture of the reachable target does not differ significantly from the target posture of the provisional movement target is prioritized over the position.
- the movement target recalculation unit 63 is the first.
- the reachable target is calculated by making the first weight for the weight of 2 larger than in the above case. This prevents one of the target position and the target posture of the reachable target from being significantly different from the target position and the target posture of the provisional movement target.
- FIG. 4 is a diagram showing the flow of information of the autonomous mobile control system 11. The operation of the autonomous mobile control system 11 will be described with reference to FIG.
- the user's operation input to the autonomous mobile body 21 is received by the interface 22A using the operation device 22.
- the action purpose information and the action target information designated by the user are supplied to the target planning unit 42 of the autonomous mobile control system 11 via the interface 22A.
- the goal planning unit 42 is an autonomous moving body based on the action purpose information and the action goal information specified by the user, as well as object information from the recognition unit 47 and information (spatial information) regarding the moving space (movable space).
- the target position and target posture that can be moved in 21 are calculated as reachable target information.
- the reachable goal information is supplied to the action planning unit 43.
- the trajectory (movement) until the reachable target represented by the reachable target information is reached based on the reachable target information from the target planning unit 42, the information of the moving space from the recognition unit 47, and the like.
- An action plan) representing an action process such as a route is calculated and supplied to the control unit 44.
- the control unit 44 calculates a control value for controlling the actuator 45 according to the trajectory (action plan) from the action planning unit 43, and supplies the control value to the actuator 45.
- the actuator 45 generates power according to the control value from the control unit 44 to execute the movement of the autonomous moving body 21 and other actions.
- the sensor 46 detects environmental information regarding the position, posture, surrounding objects, and the like of the autonomous moving body 21, and supplies the information to the recognition unit 47.
- the recognition unit 47 is based on the environmental information from the sensor 46, and the past information and the information stored in advance stored in the storage unit 48 (see FIGS. 1 and 2) (not shown in FIG. 4). , Object information and moving space information (movable space information) are recognized.
- the object information is supplied to the target planning unit 42, and the moving space information is supplied to the target planning unit 42 and the action planning unit 43.
- FIG. 5 is a flowchart illustrating the processing procedure performed by the autonomous mobile control system 11.
- step S11 the goal planning unit 42 of the autonomous mobile body 21 acquires the action purpose and the action target specified by the user. The process proceeds from step S11 to step S12.
- step S12 the goal planning unit 42 calculates a movement target (provisional movement target) without considering feasibility based on the action purpose and action goal acquired in step S11. The process proceeds from step S12 to step S13.
- step S13 the target planning unit 42 determines the high or low feasibility of the provisional movement target calculated in step S12. The process proceeds from step S13 to step S14.
- step S14 the target planning unit 42 performs branch processing based on the height of the determination result in step S13.
- step S14 If it is determined in step S14 that the feasibility is high as a result of the determination in step S13, the process proceeds to step S15.
- step S15 the target planning unit 42 sets the provisional movement target calculated in step S12 as an reachable target without modifying it. The process proceeds from step S15 to step S17.
- step S14 If it is determined in step S14 that the feasibility is low as a result of the determination in step S13, the process proceeds to step S16.
- step S16 the target planning unit 42 modifies the provisional movement target calculated in step S12 to a highly feasible movement target and sets it as a reachable target. The process proceeds from step S16 to step S17.
- step S17 the action planning unit 43 of the autonomous moving body 21 is the autonomous moving body 21 for realizing the action purpose and the action goal based on the movement target (reachable target) set in step S15 or step S16. Calculate an action plan that represents the trajectory, etc. The process proceeds from step S17 to step S18.
- step S18 the control unit 44 of the autonomous mobile body 21 controls the actuator 18 according to the action plan calculated in step S17.
- the autonomous mobile body 21 realizes the action purpose and the action goal specified by the user according to the ability of the own machine, the state of the moving space, and the like. Take action to the extent possible.
- the autonomous moving body 21 can be made to perform a purposeful action to the extent feasible, and the action purpose and action goal can be executed.
- the autonomous moving body 21 can be flexibly made to correspond to the above.
- FIG. 6 is a diagram illustrating the operation of an autonomous mobile body in a comparative example with respect to an example of an action purpose and an action goal.
- the autonomous moving body 91 which is the autonomous moving body of the comparative example, moves along a moving surface (movable space 96) such as the ground or the floor by, for example, a vehicle-type moving method.
- the moving surface is exemplified as a plane in FIG. 6, and the movable space 96, which is the range of the movable space of the autonomous moving body 91, is represented by a plane.
- FIG. 6 shows a case where the user designates the position around the chest of the person 92 existing in the space as the movement target 92A (target position) of the action target when the action purpose is movement.
- the autonomous mobile body 91 of the comparative example is, for example, an autonomous mobile body to which the technique described in Patent Document 1 (see JP-A-2006-195969) is applied.
- the autonomous mobile body 91 has a function of planning a movement route (orbit) to a designated movement target 92A while avoiding obstacles.
- the movement target 92A is within the range of the movable space. Therefore, if the movement target 92A is at a position that cannot be reached by the autonomous moving body 91, the movement route cannot be planned.
- the autonomous mobile body 91 responds to notify the user of error information or the like indicating that the movement cannot be performed.
- FIG. 7 is a diagram illustrating the operation of the autonomous mobile body 21 of the present embodiment with respect to the same action objective and action goal as in FIG.
- the same parts as those in FIG. 6 are designated by the same reference numerals as those in FIG. 6, and the description thereof will be omitted.
- the autonomous moving body 21 moves within the range of the movable space 96 along the moving surface by a vehicle-type moving method similar to the autonomous moving body 91 of the comparative example.
- the movement target 92A (target position) as the action target specified by the user is outside the range of the movable space 96.
- the autonomous moving body 21 modifies the moving target 92A to a position within the range of the movable space 96, and sets the corrected position as the reachable target 92B.
- the autonomous moving body 21 calculates a trajectory to reachable target 92B and moves to reachable target 92B along the calculated trajectory.
- the autonomous mobile body 21 executes movement within a feasible range with respect to the movement target specified by the user according to the ability of the own machine and the like.
- the user even if the user specifies an action purpose and an action goal that cannot be realized without considering the ability of the autonomous mobile body 21, the user has to redesignate the action purpose and the action goal, and the time and effort. Is unnecessary.
- the user can specify an action purpose and an action goal without depending on the ability of the autonomous moving body 21 or the state of the moving space.
- the autonomous moving body 21 can be made to perform a purposeful action to the extent feasible, and the action purpose and action goal can be executed.
- the autonomous moving body 21 can be flexibly made to correspond to the above.
- the degree of freedom of the instruction content to the autonomous mobile body 21 is high, and the operability is improved.
- FIG. 8 is a diagram illustrating the operation of an autonomous mobile body in a comparative example with respect to an example of an action purpose and an action goal.
- the autonomous mobile body 91 which is the autonomous mobile body of the comparative example, moves in the air by, for example, a flight-type movement method.
- the movable space 97 which is the range of the movable space of the autonomous moving body 91, is represented by a three-dimensional space.
- the user uses a camera mounted on the autonomous moving body 91 to take a picture of a person 93 existing outside the range of the movable space 97 (for example, a flight prohibited area), and the moving target 93A as an action target. Shows the case where the move to (target position) is specified.
- the autonomous mobile body 91 responds to notify the user of error information or the like indicating that it cannot move.
- FIG. 9 is a diagram illustrating the operation of the autonomous mobile body 21 of the present embodiment with respect to the same action objective and action goal as in FIG.
- the same parts as those in FIG. 8 are designated by the same reference numerals as those in FIG. 8, and the description thereof will be omitted.
- the autonomous moving body 21 moves within the range of the movable space 97, which is a three-dimensional space, by a flight-type moving method similar to the autonomous moving body 91 of the comparative example. It represents a case where the user specifies shooting as an action purpose and a person 93 is specified as an action target.
- the autonomous moving body 21 calculates a moving target 93A (target position) capable of photographing a person 93 as a provisional moving target that does not consider the movable space 97.
- FIG. 9 shows a case where the moving target 93A is out of the range of the movable space 97 as in the case of FIG.
- the autonomous moving body 21 modifies the moving target 93A to a position within the range of the movable space 97, and sets the corrected position as the reachable target 93B.
- the autonomous moving body 21 calculates a trajectory to reachable target 93B and moves to reachable target 93B along the calculated trajectory.
- the autonomous mobile body 21 executes movement within a feasible range with respect to the movement target specified by the user according to the ability of the own machine and the like.
- the user again sets the action purpose and the action goal. There is no need for time and effort to respecify.
- the user can specify an action purpose and an action goal without depending on the ability of the autonomous moving body 21 or the state of the moving space.
- the autonomous moving body 21 can be made to perform a purposeful action to the extent feasible, and the action purpose and action goal can be executed.
- the autonomous moving body 21 can be flexibly made to correspond to the above.
- the degree of freedom of the instruction content to the autonomous mobile body 21 is high, and the operability is improved.
- FIG. 10 is a block diagram illustrating the configuration of the second embodiment of the autonomous mobile control system to which the present technology is applied.
- the parts corresponding to the autonomous mobile control system 11 in FIG. 1 have the same reference numerals or the same reference numerals with the alphabets A, B, C, ... At the end of the same reference numerals. Detailed explanation will be omitted.
- the autonomous mobile body control system 101 of FIG. 10 has a plurality of autonomous mobile bodies 21A, 21B, 21C, ..., An operating device 22, and an information processing device 111. Therefore, the autonomous mobile body control system 101 of FIG. 10 is common to the case of FIG. 1 in that it has an operating device 22 and autonomous mobile bodies 21A, 21B, 21C, .... However, the autonomous mobile control system 101 of FIG. 10 has a plurality of autonomous mobiles 21A, 21B, 21C, ..., And is newly provided with an information processing device 111. , Different from the case of FIG.
- the autonomous moving bodies 21A, 21B, 21C, ... Correspond to the autonomous moving body 21 of FIG. 1, respectively, and are moving bodies that move by an arbitrary moving method.
- the autonomous mobile bodies 21A, 21B, 21C, ... are also collectively referred to as the autonomous mobile body 21.
- each autonomous moving body 21 may be the same or different.
- the autonomous moving bodies 21A, 21B, 21C, ... Correspond to the autonomous moving body 21 of FIG. 1, respectively, and are moving bodies that move by an arbitrary moving method.
- the autonomous mobile bodies 21A, 21B, 21C, ... are also collectively referred to as the autonomous mobile body 21.
- each autonomous moving body 21 may be the same or different.
- Each autonomous mobile body 21 has a transmission / reception unit 41 (not shown in FIG. 10), a target planning unit 42, an action planning unit 43, a control unit 44, an actuator 45, a sensor 46, a recognition unit 47, and a storage unit 48.
- a transmission / reception unit 41 not shown in FIG. 10
- a target planning unit 42 an action planning unit 43
- a control unit 44 an actuator 45
- sensor 46 a recognition unit 47
- a storage unit 48 It is common with the autonomous moving body 21 of FIG. However, the point where the action plan (trajectory) calculated by the action planning unit 43 is supplied to the information processing device 111, and the point where the control unit 44 determines whether or not to execute the control of the actuator 45 according to the instruction from the information processing device 111. It is different from the autonomous moving body 21 of FIG.
- the operation device 22 receives the action purpose information and the action target information of the autonomous moving body 21 operated and input by the user.
- the operation device 22 supplies the action purpose information and the action target information designated by the user to the information processing device 111 by wireless or wired communication.
- the communication between the operation device 22 and the information processing device 111 may be via a network such as the Internet, and is not limited to a specific communication method as long as information can be exchanged.
- the information processing device 111 may be, for example, a server device, a personal computer, a smartphone, a tablet, or the like, and may be included in the operating device 22.
- the information processing device 111 may be included in any of the autonomous mobile bodies 21.
- the information processing device 111 supplies the action purpose information and the action target information from the operation device 22 to each autonomous mobile body 21 by communication. Communication between the information processing device 111 and each autonomous mobile body 21 is not limited to a specific communication method as long as information can be exchanged.
- the information processing apparatus 111 autonomously moves the information of the action plan (orbit, etc.) calculated by the action planning unit 43 of each autonomous moving body 21. Obtained from body 21.
- the information processing device 111 is one or a plurality of all autonomous mobile bodies 21 that execute actions corresponding to the action objectives and action goals specified by the user, based on the action plan acquired from each autonomous mobile body 21. Select the autonomous moving body 21 of the platform.
- the information processing device 111 instructs the selected autonomous mobile body 21 to execute an action based on the action plan.
- the information processing device 111 has an action plan evaluation unit 131 and an arbitration unit 132.
- the action plan evaluation unit 131 calculates the evaluation index of each autonomous mobile body 21 based on the action plan acquired from each autonomous mobile body 21.
- the evaluation index is a value for evaluating the superiority or inferiority (superiority or inferiority of the behavior) when the action purpose is executed. For example, the evaluation index is calculated based on the evaluation target such as the degree of achievement of the action purpose, the travel time that occurs when the action plan is executed, the energy consumption, the safety, or the amount of noise.
- the degree of achievement of the action purpose is, for example, the magnitude of the difference (total distance) between the provisional movement target calculated by the action purpose and the action goal and the reachable target calculated in consideration of the movable range and the like. show. The smaller the deviation, the greater the degree of achievement of the action purpose.
- Safety is a quantified value regarding the safety to the surroundings and the risk of failure of the own machine.
- the noise amount is the noise amount related to the noise generated by the own machine or the noise recorded by shooting or the like.
- the evaluation targets when the purpose of action is shooting, the appearance of the object in shooting and the brightness of the shot image can be evaluated. Further, the average or variance of the evaluation values of each evaluation target may be used as the evaluation target (for example, the expected travel time and its variance).
- the former is used.
- the evaluation index is, for example, a linear sum (weighted sum) of the evaluation values of each evaluation target.
- Weight to be multiplied by each evaluation value Predetermined. By setting any one or a plurality of weights to be multiplied by each evaluation value to 0, the number of evaluation targets contributing to the evaluation index is reduced. Therefore, it means that the evaluation index calculated by the linear sum of the evaluation values of each evaluation target is calculated based on the evaluation value of any one or more of the above evaluation targets.
- the action plan evaluation unit 131 supplies the action plan from each autonomous moving body 21 and the evaluation index calculated for each action plan to the arbitration unit 132.
- the arbitration unit 132 selects the autonomous moving body 21 that executes the action according to the action plan based on the action plan acquired from the action plan evaluation unit 131 and the evaluation index thereof. In other words, the arbitration unit 132 selects the action plan to be executed from the action plans acquired from the action plan evaluation unit 131.
- the arbitration unit 132 has an action plan for each autonomous moving body 21 when it is sufficient for one autonomous moving body 21 to achieve the action purpose, for example, when the action purpose specified by the user is moving or approaching. Based on the evaluation index of, one autonomous moving body 21 that executes an action corresponding to the action purpose is selected.
- the arbitration unit 132 selects a designated number of autonomous mobiles 21.
- the arbitration unit 132 selects the autonomous mobile body 21 corresponding to the evaluation index having the largest value among the evaluation indexes of the action plan of each autonomous mobile body 21.
- the arbitration unit 132 supplies the selected autonomous mobile body 21 with the action plan acquired from the autonomous mobile body 21, and instructs the selected autonomous mobile body 21 to execute the action plan.
- the arbitration unit 132 may only instruct the selected autonomous mobile body 21 to execute the action plan.
- the arbitration unit 132 is each autonomous when, for example, when the action purpose specified by the user is shooting or transportation, and efficiency is achieved when a plurality of autonomous moving bodies 21 perform actions corresponding to the action purpose. Based on the evaluation index of the action plan of the moving body 21, a plurality of autonomous moving bodies 21 that execute the action corresponding to the action purpose are selected.
- the arbitration unit 132 assigns candidate rankings to the autonomous mobile units 21 in descending order of evaluation index.
- the arbitration unit 132 executes the action plan for the autonomous moving body 21 having the highest evaluation index and the highest candidate rank, the autonomous moving body 21 fails or cannot continue the action. Occasionally, the autonomous mobile body 21 having the second highest candidate rank may be instructed to execute the action plan.
- the arbitration unit 132 may simultaneously execute an action plan for a plurality of autonomous mobile bodies 21 having a high candidate order for backup.
- the arbitration unit 132 is the autonomous mobile body for the specified number of the autonomous mobile bodies 21 having a high candidate rank. Have 21 execute the action plan at the same time.
- the arbitration unit 132 refers to information on the amount of achievement that each autonomous mobile body 21 can achieve for the purpose of action.
- the achievement amount is information created in advance based on the ability of each autonomous mobile body 21 and the like.
- the created achievement amount information is stored in a storage unit (not shown) of the information processing device 111 that can be referred to by the arbitration unit 132.
- the achievement amount may be, for example, the maximum transport amount of each autonomous mobile body 21 if the action purpose is transportation, or the number of cameras mounted on each autonomous mobile body 21 if the action purpose is photography. It may be an evaluation value indicating high or low performance.
- the user specifies the target amount required to achieve the action purpose corresponding to the specified action purpose.
- the designated target amount is supplied to the information processing apparatus 111 together with the action purpose information, and is referred to the arbitration unit 132.
- the arbitration unit 132 is an arbitrary combination of all the autonomous mobile bodies 21 in which the total or linear sum of the achievement amounts corresponding to the action objectives is equal to or greater than the comparison value using the target amount specified by the user as the comparison value. Detect as a selection candidate.
- the comparison value may be a value (1 + k) times the target amount specified by the user. k is a positive value and represents a safety factor.
- the arbitration unit 132 calculates the total of the evaluation indexes of the action plan for each of the combinations detected as selection candidates, and detects the combination with the highest total.
- the arbitration unit 132 supplies the action plan acquired from each of the detected combinations of autonomous mobile bodies 21 and instructs the execution of the action plan.
- the arbitration unit 132 has an evaluation index for the combination of the autonomous mobile bodies 21 as selection candidates, as in the case of selecting one autonomous mobile body 21. Candidates are ranked in descending order of total.
- the arbitration unit 132 when an action plan is executed for each autonomous mobile body 21 having a combination with the highest candidate rank having the maximum total evaluation index, one of the autonomous mobile bodies 21 acts. In the event of failure or inability to continue, the autonomous mobile unit 21 having the second highest candidate rank may be instructed to execute the action plan.
- the arbitration unit 132 may simultaneously execute an action plan for a plurality of combinations of autonomous mobile bodies 21 having high candidate rankings for backup.
- FIG. 11 is a diagram showing the flow of information of the autonomous mobile control system 101.
- the operation of the autonomous mobile control system 101 will be described with reference to FIG.
- two autonomous mobile bodies 21A and 21B are exemplified as examples of a plurality of autonomous mobile bodies 21.
- the user's operation input is received by the interface 22A using the operation device 22.
- the action purpose information and the action target information designated by the user are supplied to the information processing device 111 of the autonomous mobile body control system 11 via the interface 22A, and the information processing device 111 supplies the targets of the autonomous mobile bodies 21A and 21B. It is supplied to the planning unit 42.
- the target planning unit 42 is based on the action purpose information and the action target information specified by the user, as well as the object information from the recognition unit 47 and the information of the moving space (movable space). Therefore, the target position and the target posture that can be moved by the autonomous moving body 21 are calculated as the reachable target information.
- the reachable goal information is supplied to the action planning unit 43.
- the action planning unit 43 based on the reachable target information from the target planning unit 42 and the information of the moving space from the recognition unit 47, the trajectory until reaching the reachable target represented by the reachable target information, etc. An action plan that represents the action process is calculated.
- the action plan calculated in each of the autonomous mobile bodies 21A and 21B is supplied to the action plan evaluation unit 131 of the information processing apparatus 111.
- the action plan evaluation unit 131 calculates an evaluation index for the action plan from each autonomous mobile body 21A and 21B.
- the action plans from the autonomous mobile bodies 21A and 21B and their calculated evaluation indexes are supplied from the action plan evaluation unit 131 to the arbitration unit 132.
- the autonomous moving body that executes the action plan is selected from the autonomous moving bodies 21A and 21B based on the action plan and the evaluation index from the action plan evaluation unit 131.
- the action plan calculated by the autonomous mobile 21A as shown in FIG. 11 is supplied from the arbitration unit 132 to the control unit 44 of the autonomous mobile 21A. Will be done. As a result, the autonomous mobile body 21A is instructed to execute the action plan.
- the control unit 44 calculates a control value for controlling the actuator 45 according to the action plan from the arbitration unit 132, and supplies the control value to the actuator 45.
- the actuator 45 generates power according to the control value from the control unit 44 to execute the movement of the autonomous moving body 21 and other actions.
- FIG. 12 is a flowchart illustrating a processing procedure performed by the information processing apparatus 111 of the autonomous mobile control system 101.
- the processing procedure for each autonomous mobile unit 21 is the same as that shown in FIG. However, in the autonomous moving body 21 of the present embodiment, the processing in the information processing apparatus 111 intervenes between steps S17 and S18 in FIG. 5, and the processing in step S18 is performed by the information processing apparatus 111 in the action plan. It differs from the processing of the autonomous moving body 21 in the first embodiment in that it is executed only when an execution instruction is given.
- step S31 of FIG. 12 the action plan evaluation unit 131 of the information processing apparatus 111 acquires the action plan calculated by each autonomous mobile body 21. The process proceeds from step S31 to step S32.
- step S32 the action plan evaluation unit 131 calculates the evaluation index of the action plan from each autonomous moving body 21 acquired in step S31, and supplies each action plan and the calculated evaluation index to the arbitration unit 132. The process proceeds from step S32 to step S33.
- step S33 the arbitration unit 132 selects the autonomous mobile body 21 to execute the action plan based on the action plan of each autonomous mobile body 21 supplied in step S32 and its evaluation index. The process proceeds from step S33 to step S34.
- step S34 the arbitration unit 132 supplies the action plan to the autonomous mobile body 21 selected in step S33, and instructs the execution of the action plan.
- each autonomous mobile body 21 has an action purpose and an action goal specified by the user according to the ability of the own machine, the state of the moving space, and the like. Take action to the extent feasible.
- the autonomous moving body 21 can be made to perform a purposeful action to the extent feasible, and the action purpose and action goal can be executed.
- the autonomous moving body 21 can be flexibly made to correspond to the above.
- a plurality of autonomous moving bodies 21 correspond to one action purpose and action goal, and the action purpose is based on the action plan of each autonomous moving body 21.
- the autonomous moving body 21 that executes the action corresponding to the above is arbitrated (selected). Therefore, the realizability of the action purpose is improved as compared with the case where one autonomous mobile body 21 is used.
- FIG. 13 is a diagram illustrating the operation of the autonomous mobile bodies 21A, 21B, and 21C of the present embodiment with respect to an example of an action purpose and an action goal.
- the autonomous moving body 21A moves within the range of the movable space 156A, which is a three-dimensional space, for example, by a flight-type moving method.
- the autonomous moving body 21B moves within the range of the movable space 156B along the floor surface by, for example, a vehicle-type moving method.
- the autonomous moving body 21C moves within the range of the movable space 156C along the ceiling surface by, for example, a multi-legged moving method.
- the autonomous mobile body 21A sets the movement target 92A as an reachable target and creates an action plan.
- the autonomous moving body 21B modifies the moving target 151A to a position within the range of the movable space 156B, sets the corrected position as the reachable target 151B, and creates an action plan.
- the autonomous moving body 21C modifies the moving target 151A to a position within the range of the movable space 156C, sets the corrected position as the reachable target 151C, and creates an action plan.
- the arbitration unit 132 selects an autonomous mobile body that executes an action corresponding to the action purpose.
- the autonomous moving bodies 21A As in the case where the user designates the movement target 151A as the search point of the disaster site, for example, by designating a plurality of autonomous moving bodies 21 as the autonomous moving bodies 21 that execute the action corresponding to the action purpose, the autonomous moving bodies 21A to It is possible to have two or all of the 21Cs execute the action plan. It may be possible to specify an action purpose (for example, disaster site search) in which a plurality of autonomous mobile bodies 21 execute an action corresponding to the action purpose.
- an action purpose for example, disaster site search
- a plurality of autonomous mobile bodies 21 suitable for achieving the action purpose are arbitrated (selected) based on the action plan of each autonomous mobile body 21. Therefore, the realizability of the action purpose is improved as compared with the case where only one autonomous mobile body 21 is used. Even if a trouble occurs in one of the autonomous mobile bodies 21, any of the other autonomous mobile bodies 21 can achieve the action purpose, so that the action is better than the case where only one autonomous mobile body 21 responds. The feasibility of the purpose is improved.
- a part or all of the series of processes in the above-mentioned autonomous mobile control systems 11 and 101 can be executed by hardware or by software.
- the programs constituting the software are installed in the computer.
- the computer includes a computer embedded in dedicated hardware and, for example, a general-purpose personal computer capable of executing various functions by installing various programs.
- FIG. 14 is a block diagram showing a configuration example of computer hardware that executes the above-mentioned series of processes programmatically.
- a CPU Central Processing Unit
- ROM ReadOnlyMemory
- RAM RandomAccessMemory
- the input / output interface 205 is further connected to the bus 204.
- An input unit 206, an output unit 207, a storage unit 208, a communication unit 209, and a drive 210 are connected to the input / output interface 205.
- the input unit 206 includes a keyboard, a mouse, a microphone, and the like.
- the output unit 207 includes a display, a speaker, and the like.
- the storage unit 208 includes a hard disk, a non-volatile memory, and the like.
- the communication unit 209 includes a network interface and the like.
- the drive 210 drives a removable medium 211 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
- the CPU 201 loads the program stored in the storage unit 208 into the RAM 203 via the input / output interface 205 and the bus 204 and executes the above-mentioned series. Is processed.
- the program executed by the computer can be recorded and provided on the removable media 211 as a package media or the like, for example.
- the program can also be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
- the program can be installed in the storage unit 208 via the input / output interface 205 by mounting the removable media 211 in the drive 210. Further, the program can be received by the communication unit 209 via a wired or wireless transmission medium and installed in the storage unit 208. In addition, the program can be pre-installed in the ROM 202 or the storage unit 208.
- the program executed by the computer may be a program in which processing is performed in chronological order according to the order described in the present specification, in parallel, or at a necessary timing such as when a call is made. It may be a program in which processing is performed.
- the moving device is based on the action target information representing the action target for designating the moving destination of the moving device and the movable space information representing the movable space which is the range of the movable real space of the moving device.
- the target planning department is The provisional movement target representing the movement destination of the movement device is calculated based on the action target information, and the movement target is calculated based on the provisional movement target and the movable space information. Information processing device.
- the target planning department is The information processing device according to (2) above, which determines the feasibility of moving the mobile device to the provisional movement target based on the movable space information.
- the target planning department The information processing apparatus according to (2) or (3) above, which calculates the movement target whose realizability is higher than that of the provisional movement target.
- the target planning department is The information processing apparatus according to (4), wherein when the provisional movement target is outside the range of the movable space, the movement target within the range of the movable space is calculated.
- the target planning department is The information processing apparatus according to (5) above, which calculates the movement target that is closest to the provisional movement target.
- the target planning department The information processing device according to any one of (4) to (6) above, which calculates the movement target within the range of the movable space based on the action purpose information representing the action purpose of the moving device.
- the action target information includes information of any one or more of a target position, a target posture, a target area, and a target object.
- the action purpose information includes information of any one or more of movement, approach, and photography.
- the action target information is information corresponding to the action purpose information.
- the target planning department When the action purpose represented by the action purpose information is movement, the movement target is calculated by using any one or more of the target position, the target posture, and the target area as the action target information in the above (10).
- the target planning department The information processing apparatus according to (10) or (11), wherein when the action purpose represented by the action purpose information is approaching, the information of the approaching target object is used as the action target information to calculate the movement target. .. (13)
- the target planning department When the action purpose represented by the action purpose information is photography, the movement target is calculated using the information of the target object of the photography as the action target information, and the above (9) to the above (12). ) Is described in any of the information processing devices.
- the mobile device includes a plurality of mobile devices.
- the (7) and the above (9) further include an arbitration unit that further selects one or more mobile devices among the plurality of mobile devices as the mobile device that executes the action purpose based on the action purpose information.
- the information processing apparatus is any one of (13) above.
- the arbitration section is Based on the evaluation index for evaluating the superiority or inferiority when the action purpose is executed represented by the action purpose information, one or more mobile devices among the plurality of mobile devices are selected as the mobile device for executing the action purpose.
- the information processing apparatus according to (14) above.
- the arbitration section is Based on the evaluation index for evaluating the superiority or inferiority when the plurality of mobile devices perform the movement to the movement target calculated by the target planning unit, one or more of the plurality of mobile devices are selected.
- the information processing device according to (14) or (15), which is selected as a mobile device for executing the action purpose.
- the mobile device includes any one of a vehicle type, a flight type, a multi-legged type, and an endless track type mobile device.
- the target planning unit of the information processing apparatus having the target planning unit is The movement target of the mobile device is based on the action target information representing the action target that specifies the movement destination of the mobile device and the movable space information that represents the movable space that is the range of the movable real space of the mobile device. Information processing method to calculate.
- the movement target of the mobile device is based on the action target information representing the action target that specifies the movement destination of the mobile device and the movable space information that represents the movable space that is the range of the movable real space of the mobile device.
Landscapes
- Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本技術は、指定された行動目標に対して移動装置を柔軟に対応させるようにする情報処理装置、情報処理方法、及び、プログラムに関する。 移動装置の移動先を指定する行動目標を表す行動目標情報と、前記移動装置の移動可能な実空間の範囲である移動可能空間を表す移動可能空間情報とに基づいて、前記移動装置の移動目標が算出される。
Description
本技術は、情報処理装置、情報処理方法、及び、プログラムに関し、特に、指定された行動目標に対して移動装置を柔軟に対応させるようにした情報処理装置、情報処理方法、及び、プログラムに関する。
特許文献1には、自律移動ロボットがユーザにより与えられた目的地点まで効率的に移動するための技術が開示されている。
自律移動ロボットのような移動装置に対して目的地点への移動などの行動目標が指定された場合に、移動装置の能力(性能・機能)や移動空間の状態等によっては移動装置が指定された行動目標に対応できない場合があった。
本技術はこのような状況に鑑みてなされたものであり、指定された行動目標に対して移動装置を柔軟に対応させるようにする。
本技術の情報処理装置、又は、プログラムは、移動装置の移動先を指定する行動目標を表す行動目標情報と、前記移動装置の移動可能な実空間の範囲である移動可能空間を表す移動可能空間情報とに基づいて、前記移動装置の移動目標を算出する目標計画部を備える情報処理装置、又は、そのような情報処理装置として、コンピュータを機能させるためのプログラムである。
本技術の情報処理方法は、目標計画部を有する情報処理装置の前記目標計画部は、移動装置の移動先を指定する行動目標を表す行動目標情報と、前記移動装置の移動可能な実空間の範囲である移動可能空間を表す移動可能空間情報とに基づいて、前記移動装置の移動目標を算出する情報処理方法である。
本技術においては、移動装置の移動先を指定する行動目標を表す行動目標情報と、前記移動装置の移動可能な実空間の範囲である移動可能空間を表す移動可能空間情報とに基づいて、前記移動装置の移動目標が算出される。
以下、図面を参照しながら本技術の実施の形態について説明する。
<<本技術が適用された自律移動体制御システム>>
<本技術が適用された自律移動体制御システムの第1の実施の形態の構成>
図1は、本技術が適用された自律移動体制御システムの第1の実施の形態の構成を例示したブロック図である。
<本技術が適用された自律移動体制御システムの第1の実施の形態の構成>
図1は、本技術が適用された自律移動体制御システムの第1の実施の形態の構成を例示したブロック図である。
図1において、本技術が適用された自律移動体制御システムの第1の実施の形態である自律移動体制御システム11は、自律移動体21(移動装置)と操作装置22とを有する。なお、自律移動体21と操作装置22との境界は図1の場合に限らない。図1での自律移動体21の構成要素のうちの一部は、操作装置22が有していてもよいし、操作装置22の構成要素の一部又は全ては自律移動体21が有していてもよい。
自律移動体21は、任意の移動方式で移動する移動装置である。例えば、自律移動体21は、車両型、飛行型、多脚型、又は、無限軌道型の移動装置であってよい。自律移動体21は、操作装置22から供給される行動目的情報及び行動目標情報に基づいて移動や撮影等の行動を実行する。行動目的情報は、自律移動体21が何を行うかの行動目的を表す。行動目的としては、例えば、移動、接近、及び、撮影のうちのいずれか1以上を含む。
行動目標情報は、行動目的に対して自律移動体21の移動先を限定(特定・指定)する行動目標を表す。行動目標としては、例えば、位置、姿勢、及び、物体のうちのいずれか1以上を含む。
操作装置22は、ユーザが入力操作を行うための任意の装置である。操作装置22は、例えば、パーソナルコンピュータ、スマートフォン、又は、タブレット等であってよい。また、操作装置22は、例えば、自律移動体21に対して無線により通信可能に接続される。操作装置22と自律移動体21との間の通信は、インターネットなどのネットワークを介していてもよく、情報のやり取りが可能であれば特定の通信方法に限定されない。
操作装置22は、ユーザにより操作入力された自律移動体21の行動目的情報及び行動目標情報を受け付け、ユーザにより指定された行動目的情報及び行動目標情報を通信により自律移動体21に供給する。なお、行動目的情報及び行動目標情報は、ユーザが操作入力する操作装置22以外のシステムから供給されてもよく、ユーザが行動目的情報及び行動目標情報を指定する場合に限らない。ただし、以下においては、ユーザが行動目的情報及び行動目標情報を指定するものとする。
(自律移動体21の構成)
自律移動体21は、送受信部41、目標計画部42、行動計画部43、制御部44、アクチュエータ45、センサ46、認識部47、及び、記憶部48を有する。
自律移動体21は、送受信部41、目標計画部42、行動計画部43、制御部44、アクチュエータ45、センサ46、認識部47、及び、記憶部48を有する。
送受信部41は、操作装置22との間での通信を制御する。送受信部41は、ユーザにより指定された行動目的情報及び行動目標情報を操作装置22から通信により取得する。送受信部41は、取得した行動目的情報及び行動目標情報を目標計画部42に供給する。
目標計画部42は、ユーザにより指定された行動目的情報及び行動目標情報に基づいて、自律移動体21が到達可能な移動目標(到達可能目標)を算出する。到達可能目標は、自律移動体21が移動すべき目標の位置・姿勢であり、かつ、自律移動体21が移動可能な実空間の範囲内に制限された移動目標を表す。なお、位置・姿勢は、位置、姿勢、又は、位置及び姿勢を表す。移動目標は、1つの位置・姿勢だけでなく複数の位置・姿勢であってもよい。
目標計画部42は、到達可能目標を算出する際に、認識部47から供給される移動可能空間情報等を参照する。
目標計画部42は、算出した到達可能目標を行動計画部43に供給する。
行動計画部43は、目標計画部42からの到達可能目標に基づいて、自機である自律移動体21が到達可能目標に到達するまでの軌道等を含む行動計画を算出する。行動計画には、移動に関する情報以外に行動目的情報が表す行動目的に対応する行動に関する情報が含まれる。
行動計画の軌道には、例えば、到達可能目標の位置・姿勢(到達点)の情報と、自律移動体21が現在の位置・姿勢から到達可能目標に到達するまでの1又は複数の通過点の情報とが含まれる。行動計画部43は、行動計画を算出する際に、認識部47から供給される自律移動体21の現在の位置・姿勢の情報、移動可能空間情報等を参照する。移動可能空間情報は、自機が移動可能な空間の範囲を表した情報である。
行動計画部43は、算出した行動計画(軌道)を制御部44に供給する。
制御部44は、行動計画部43からの行動計画に基づいて、制御信号(制御値)をアクチュエータ45へ供給する。制御部44は、制御信号(制御値)によりアクチュエータ45を制御することで、行動計画部43からの行動計画(軌道等)に従って自律移動体21を移動させる。
アクチュエータ45は、自律移動体21を移動させるための移動機構(車輪、プロペラ、キャタピラ等)を作動させて、自律移動体21を移動させる。アクチュエータ45は特定の種類に限定されない。
センサ46は、自律移動体21の位置・姿勢を検出するセンサ、及び、空間情報を検出するセンサ等を含む。例えば、センサ46は、カメラ(撮像装置)、レーザーセンサ(測距センサー)、IMU(inertial measurement unit)等を含んでいてよい。カメラの種類としては単眼カメラ、複眼カメラ、深度カメラ、ToFカメラなどであってよい。
センサ46は、SLAM(Simultaneous Localization and Mapping)技術に用いられるセンサであってよい。
センサ46により検出されたセンサデータは、認識部47に供給される。
認識部47は、センサ46からのセンサデータに基づいて、自律移動体21の現在の位置・姿勢、実空間における物体の有無や配置等を表す空間情報、及び、実空間に存在する物体の物体情報を認識する。
認識部47は、過去に認識した空間情報、及び、物体情報を記憶部48から読み出して、それらの読み出した情報と、センサデータにより新たに認識した空間情報、及び、物体情報とにより、空間情報、及び、物体情報を更新し、記憶部48に保存する。
認識部47は、空間情報に基づいて自律移動体21が移動可能な空間の範囲である移動可能空間を認識し、移動可能空間情報として目標計画部42、及び、行動計画部43に供給する。また、認識部47は、物体情報を目標計画部42に供給する。
記憶部48は、自機情報、空間情報、及び、物体情報等を記憶する。図1では、認識部47だけが記憶部48に対する各種情報の記憶や読み出しを行う構成となっているが、これに限らない。目標計画部42や行動計画部43等の認識部47以外の構成部は、認識部47を介して、又は、認識部47を介さずに、必要に応じて記憶部48に対する各種情報の記憶や読み出しを行うことができるものとする。
(目標計画部42等の構成)
図2は、目標計画部42及び記憶部48の構成を例示したブロック図である。
図2は、目標計画部42及び記憶部48の構成を例示したブロック図である。
目標計画部42は、移動目標算出部61、実現可能性判定部62、及び、移動目標再算出部63を有する。
移動目標算出部61は、ユーザにより指定された操作装置22からの行動目的情報及び行動目標情報と、認識部47からの物体情報とに基づいて、暫定移動目標を算出する。暫定移動目標は、自律移動体21の暫定的な移動先となる移動目標であり、自律移動体21の能力(移動方式等の性能・機能)や自律移動体21の移動可能な空間の範囲(移動可能空間)等を考慮せずに算出される移動目標を表す。
移動目標算出部61は、操作装置22からの行動目的情報とともに、算出した暫定移動目標を実現可能性判定部62に供給する。
実現可能性判定部62は、認識部47からの移動可能空間情報に基づいて、移動目標算出部61からの暫定移動目標への自律移動体21の移動の実現可能性が高いか低いかを判定する。
例えば、暫定移動目標が移動可能空間の範囲内である場合には、実現可能性が高いと判定され、暫定移動目標が移動可能空間の範囲外である場合には、実現可能性が低いと判定される。
実現可能性判定部62は、移動目標算出部61からの行動目的情報及び暫定移動目標と、その暫定移動目標に対する実現可能性の判定結果とを移動目標再算出部63に供給する。
移動目標再算出部63は、実現可能性判定部62からの行動目的情報及び暫定移動目標と判定結果とに基づいて、移動目標を算出する。
移動目標再算出部63は、実現可能性が高いと判定された暫定移動目標に対しては、暫定移動目標をそのまま最終的な移動目標(到達可能目標という)とする。
移動目標再算出部63は、実現可能性が低いと判定された暫定移動目標に対しては、移動可能空間の範囲内であり、かつ、暫定移動目標に対して最近傍となる位置・姿勢を到達可能目標として算出する。
移動目標再算出部63は、算出した到達可能目標を表す到達可能目標情報を行動目的情報とともに図1の行動計画部43に供給する。
記憶部48は、自機情報記憶部81、物体情報記憶部82、及び、空間情報記憶部83を有する。
自機情報記憶部81は、自機である自律移動体21の性能・機能、形状等の情報を記憶する。
物体情報記憶部82は、実空間に存在する物体の識別子(識別情報)、位置、姿勢、及び、形状に関する情報を記憶する。
空間情報記憶部83は、実空間に存在する物体の配置を表した空間情報(地図情報)を記憶する。
なお、自機情報は、事前に外部システムで作成されて自機情報記憶部81に記憶される。
物体情報及び空間情報は、センサ46により取得されたセンサデータに基づいて認識部47により認識された情報が物体情報記憶部82及び空間情報記憶部83の情報として蓄積されて作成される。ただし、物体情報及び空間情報は、事前に外部システムで作成されて物体情報記憶部82及び空間情報記憶部83に記憶されたものであってもよい。
(各種情報の説明)
目標計画部42に供給される情報及び目標計画部42で算出される情報について説明する。
目標計画部42に供給される情報及び目標計画部42で算出される情報について説明する。
図3は、目標計画部42に供給される情報及び目標計画部42で算出される情報の一覧を示した図である。
(行動目的情報)
図3の最左列(第1列目)の行動目的情報の欄には、操作装置22から目標計画部42に供給される行動目的情報が表す行動目的の種類が例示されている。行動目的としては、例えば、移動、接近、及び、撮影がある。
図3の最左列(第1列目)の行動目的情報の欄には、操作装置22から目標計画部42に供給される行動目的情報が表す行動目的の種類が例示されている。行動目的としては、例えば、移動、接近、及び、撮影がある。
行動目的が移動の場合、自律移動体21は、行動目標に移動する行動が指定される。
行動目的が接近の場合、自律移動体21は、行動目標に接近する行動が指定される。
行動目的が撮影の場合、自律移動体21は、行動目標に近づいて行動目標を撮影する行動が指定される。
なお、操作装置22で指定可能な自律移動体21の行動目的、即ち、目標計画部42に供給可能な行動目的情報は、移動、接近、及び、撮影に限定されず、自律移動体21が有する機能に応じて自律移動体21が実行可能な任意の行動を含めることができる。
操作装置22の表示部(不図示)には、例えば、自律移動体21に実行させる行動目的を選択する選択画面が表示される。ユーザはその選択画面において自律移動体21に実行させる行動目的を選択し、指定する。操作装置22から自律移動体21の目標計画部42には、ユーザにより指定された行動目的を表す行動目的情報が供給される。
(行動目標情報)
図3の第2列目の行動目標情報の欄には、操作装置22から目標計画部42に供給される行動目標情報が表す行動目標の種類が例示されている。行動目標には、行動目的に応じた種類がある。
図3の第2列目の行動目標情報の欄には、操作装置22から目標計画部42に供給される行動目標情報が表す行動目標の種類が例示されている。行動目標には、行動目的に応じた種類がある。
行動目的が移動の場合、行動目標の種類としては、例えば、目標位置、目標姿勢、及び、目標領域がある。
行動目標が目標位置の場合、自律移動体21が移動する実空間内での位置が指定される。
行動目標が目標姿勢の場合、自律移動体21が移動(姿勢変更)する実空間内での姿勢が指定される。
行動目標が目標領域の場合、自律移動体21が移動する実空間内での領域が指定される。
なお、行動目標の種類としては、目標位置と目標姿勢の組み合わせや、目標姿勢と目標領域との組み合わせもあるが、図3では省略している。
操作装置22の表示部には、例えば、自律移動体21が移動する実空間の地図を表す地図画面が表示される。地図画面の地図は、例えば、自律移動体21の記憶部48の物体情報記憶部82及び空間情報記憶部83に保存されている物体情報及び空間情報に基づいて作成される。この場合、自律移動体21から操作装置22に物体情報記憶部82及び空間情報記憶部83に保存されている物体情報及び空間情報が通信により供給される。ただし、自律移動体21と操作装置22とが事前に作成された同一の地図情報(物体情報及び空間情報)を共有している場合は、自律移動体21と操作装置22との間での地図情報のやり取りは不要である。
ユーザは、自律移動体21に実行させる行動目的として移動を指定した後、地図画面において、自律移動体21に移動させる目標の移動先を指定する。このとき、ユーザが、地図上の所定点を目標の移動先として指定した場合には、その指定した所定点の位置が目標位置として指定される。また、ユーザが、地図上において自律移動体21の例えば、正面方向を指定した場合には、その指定した正面方向を向く姿勢が目標姿勢として指定される。また、ユーザが、地図上の所定領域を指定した場合には、その指定した領域が目標領域として指定される。
操作装置22から自律移動体21の目標計画部42には、行動目的情報が移動の場合には、ユーザにより指定された目標位置、目標姿勢、又は、目標領域を表す行動目標情報が供給される。
なお、目標位置、目標姿勢、又は、目標領域の指定は、例えば、地図に設定された地図座標系における目標位置を表す座標値の指定、目標姿勢を表す姿勢角(オイラー角、クォータニオン等)の指定、目標領域を表す領域位置及び領域形状等の指定であってもよい。
自律移動体21のカメラで撮影されている画像が操作装置22の表示部に表示されるようにし、その画像上で目標位置、目標姿勢、又は、目標領域の指定を行ってもよい。
図3において、行動目的が接近の場合、行動目標情報が表す行動目標の種類としては、例えば、目標物体がある。
行動目標が目標物体の場合、自律移動体21が接近する実空間内での物体が指定される。行動目標としての目標物体の指定方法は、目標物体の識別子を指定する方法でもよいし、目標物体の種別のみを指定する方法でもよいし、その他の方法でもよい。
なお、行動目的が移動の場合と同様に、行動目的が接近の場合でも行動目標として目標位置や目標領域を指定することも可能であるし、行動目的が移動の場合に、行動目標として目標物体を指定することも可能である。
操作装置22の表示部には、例えば、行動目的が移動の場合と同様に、自律移動体21が移動する実空間の地図を表す地図画面が表示される。
ユーザは、自律移動体21に実行させる行動目的として接近を指定した後、地図画面において、自律移動体21に接近させる目標の物体を指定する。
操作装置22は、ユーザにより指定された物体の地図座標系における位置(座標)に基づいて、ユーザにより指定された物体の識別子を物体情報から検出する。操作装置22は、検出した物体の識別子を目標物体を表す行動目標情報として自律移動体21の目標計画部42に供給する。目標計画部42は、操作装置22からの行動目標情報として物体の識別子が与えられた場合、物体情報記憶部82の物体情報に基づいて、ユーザにより指定された物体を特定して目標物体を認識する。
なお、自律移動体21のカメラで撮影されている画像が操作装置22の表示部に表示されるようにし、その画像上で人等の物体を目標物体として指定できるようにしてもよい。この場合、自律移動体21の目標計画部42は、画像上で指定された位置の情報を操作装置22から取得し、画像上で指定された位置の物体を目標物体として認識する。
図3において、行動目的が撮影の場合、行動目標情報が表す行動目標の種類としては、例えば、目標物体がある。
行動目標が目標物体の場合は、自律移動体21が撮影する対象である実空間内での物体が指定される。
なお、行動目的が移動の場合と同様に、行動目的が撮影の場合でも行動目標として目標位置や目標領域を指定することも可能である。
操作装置22の表示部には、例えば、行動目的が接近の場合と同様に、自律移動体21が移動する実空間の地図を表す地図画面が表示される。
ユーザは、自律移動体21に実行させる行動目的として撮影を指定した後、地図画面において、自律移動体21に撮影させる目標の物体を指定する。
操作装置22は、ユーザにより指定された物体の地図座標系における位置(座標)に基づいて、ユーザにより指定された物体の識別子を物体情報から検出する。操作装置22は、検出した物体の識別子を目標物体を表す行動目標情報として自律移動体21の目標計画部42に供給する。目標計画部42は、操作装置22からの行動目標情報として物体の識別子が与えられた場合、物体情報記憶部82の物体情報に基づいて、ユーザにより指定された物体を特定して目標物体を認識する。
なお、行動目的が接近の場合と同様に、自律移動体21のカメラで撮影されている画像上で人等の物体を目標物体として指定できるようにしてもよい。
(暫定移動目標)
図3の第3列目の暫定移動目標の欄には、目標計画部42の移動目標算出部61(図2参照)により算出される暫定移動目標の種類が例示されている。
図3の第3列目の暫定移動目標の欄には、目標計画部42の移動目標算出部61(図2参照)により算出される暫定移動目標の種類が例示されている。
行動目的が移動の場合において、移動目標算出部61は、行動目標として指定された目標位置、目標姿勢、又は、目標領域をそのまま暫定移動目標とする。
行動目的が接近の場合には、移動目標算出部61は、行動目標として指定された目標物体と、目標物体の物体情報とに基づいて、自律移動体21の移動先となる目標位置を暫定移動目標として算出する。
暫定移動目標の算出において、移動目標算出部61は、目標情報として与えられた目標物体の識別子に基づいて、物体情報記憶部82に保存されている目標物体の物体情報を認識部47を介して取得する。移動目標算出部61は、目標物体の物体情報に基づいて、目標物体の位置(地図座標系の座標値)を検出し、検出した位置、又は、検出した位置から一定距離離れた位置を暫定移動目標の目標位置として算出する。
なお、移動目標算出部61は、自機情報記憶部81の自機情報に含まれる自律移動体21の形状や大きさ等の情報に基づいて、自律移動体21が目標物体に接触しない位置を暫定移動目標の目標位置として算出してもよい。また、移動目標算出部61は、物体情報記憶部82の物体情報に含まれる目標物体の形状や姿勢等を考慮して、自律移動体21が目標物体に接触しない位置を算出してもよい。更に、移動目標算出部61は、接近に関して予め決められた条件又はユーザ等に指定された条件を満たす位置を目標位置として算出してもよい。採用可能な条件としては、例えば、自律移動体21を接近させる位置を目標物体の正面側、側面側、又は、背面側等に限定する条件であってよい。
行動目的情報が撮影の場合には、移動目標算出部61は、行動目標として指定された目標物体と、目標物体の物体情報とに基づいて、自律移動体21の移動先となる目標位置を暫定移動目標として算出する。
暫定移動目標の算出において、移動目標算出部61は、目標情報として与えられた目標物体の識別子に基づいて、物体情報記憶部82に保存されている目標物体の物体情報を認識部47を介して取得する。移動目標算出部61は、目標物体の物体情報に基づいて、目標物体の位置(地図座標系の座標値)を検出し、自律移動体21が備えたカメラ(撮像装置)の撮影範囲内に目標物体が含まれる自律移動体21の位置を暫定移動目標の目標位置として算出する。
移動目標算出部61は、自律移動体21が備えたカメラの撮影方向を考慮して、カメラ(撮像装置)の撮影範囲内の適切な位置に目標物体が写る自律移動体21の姿勢を暫定移動目標の目標姿勢として算出する。ただし、自律移動体21が姿勢を変更することなくカメラの撮影方向を制御する機構を備えている場合には暫定移動目標の目標姿勢を考慮しなくてもよい。図3の第3列目の暫定移動目標の欄において、行動目的が撮影の場合(かつ、行動目標が目標物体の場合)の欄には暫定移動目標の例として目標位置と目標姿勢とが設定される場合が示されている。
なお、移動目標算出部61は、撮影に関して予め決められた条件又はユーザ等に指定された条件を満たす位置を目標位置として算出してもよい。採用可能な条件としては、例えば、目標物体を撮影する方向を目標物体の正面側、側面側、又は、背面側等に限定する条件であってよい。
(到達可能目標)
図3の第4列目の到達可能目標の欄には、実現可能性判定部62(図2参照)での実現可能性の判定結果が高い場合と低い場合とで移動目標再算出部63で算出される到達可能目標の種類が例示されている。
図3の第4列目の到達可能目標の欄には、実現可能性判定部62(図2参照)での実現可能性の判定結果が高い場合と低い場合とで移動目標再算出部63で算出される到達可能目標の種類が例示されている。
ここで、実現可能性判定部62が実現可能性の判定に使用する移動可能空間は、自律移動体21が存在できる位置(点)の集合と定義する。移動可能空間は、実空間における物体の存在の有無によって決められるだけでなく、自律移動体21の移動方式も考慮される。例えば、自律移動体21の移動方式が飛行型のように空中を移動できる場合には、物体の存在や飛行が禁止されている飛行禁止領域による移動可能空間に対する制限はあるが、移動方式による制限はない。
一方、自律移動体21の移動方式が車両型や多脚型のように地面や床などの面(移動面という)に対して、接触しながら、又は、略一定の距離を保ちながら移動する方式の場合には、移動可能空間は、自律移動体21が移動できる移動面に沿った範囲に制限される。
このような移動可能空間の定義において、更に詳細な移動可能空間の定義を採用する場合には、実現可能性判定部62は、自律移動体21の大きさ等を考慮せず、自律移動体21の大きさを点とみなす第1の定義と、自律移動体21の大きさ等を考慮する第2の定義とを採用し得る。
第1の定義では、自律移動体21の位置が移動可能空間の範囲内であっても、自律移動体21に対して物体表面(移動面を除く)が近く存在する場合には、自律移動体21の姿勢によっては自律移動体21の一部がその物体と干渉する(交わる)場合がある。したがって、暫定移動目標の目標位置と、目標位置付近の物体表面(移動面を除く)との距離が、所定の閾値以上の場合には、実現可能性が高いと判定され、前記閾値未満の場合には実現可能性が低いと判定される。閾値は、例えば、自律移動体21の全体が各位置でとり得る任意の姿勢において物体と干渉しない距離であってよい。ただし、閾値は、実際の自律移動体21の大きさ(及び形状)に基づく値でなくてもよい。自律移動体21が姿勢によって物体に干渉する可能性がある場合には、移動可能空間の範囲外となるように移動可能空間を定義してもよい。この場合には、実現可能性の判定において自律移動体21と物体との干渉を考慮する必要は生じない。
第2の定義では、自律移動体21の大きさ等が考慮されて、自律移動体21が物体と干渉しない姿勢が制限されて移動可能空間が定義される。即ち、自律移動体21がとり得る姿勢のうちのいずれか姿勢で物体に干渉せずに自律移動体21が存在することができる位置の集合を移動可能空間と定義する。なお、移動可能空間の各位置において自律移動体21が物体に干渉しない姿勢の集合を姿勢制限範囲という。
したがって、暫定移動目標の目標位置が移動可能空間の範囲内である場合において、暫定移動目標として目標姿勢が設定されていないとき(姿勢が任意のとき)、又は、暫定移動目標として設定されている目標姿勢(暫定移動目標の目標姿勢)が、暫定移動目標の目標位置における姿勢制限範囲内であるときには、実現可能性が高いと判定される。
一方、暫定移動目標の目標位置が移動可能空間の範囲外である場合、又は、暫定移動目標の目標位置が移動可能空間の範囲内である場合において、暫定移動目標の目標姿勢が姿勢制限範囲外のときには、実現可能性が低いと判定される。
以下の説明においては、実現可能性判定部62は、移動可能空間の第2の定義を用いるものとする。ただし、移動可能空間の定義として第1及び第2のような詳細な定義を用いなくてもよい。その場合には、自律移動体21の姿勢による物体との干渉を考慮しないものとし、又は、自律移動体21の姿勢によらず、物体と干渉しない範囲を移動可能範囲として定義する。
暫定移動目標として目標位置のみが設定されている場合(図3において、行動目的が移動、かつ、行動目標が目標位置の場合、又は、行動目的が接近、かつ、行動目標が目標物体の場合)、実現可能性判定部62は、その目標位置が移動可能空間の範囲内のときには、実現可能性が高いと判定する。この場合、移動目標再算出部63は、図3の第4列目の到達可能目標の欄のうちの“高”の欄のように暫定移動目標の目標位置をそのまま到達可能目標とする。
暫定移動目標として目標姿勢のみが設定されている場合(図3において、行動目的が移動、かつ、行動目標が目標姿勢の場合)、自律移動体21の現在位置が暫定移動目標の目標位置として設定されている場合と同じである。したがって、実現可能性判定部62は、暫定移動目標として目標位置と目標姿勢とが設定されている後述の場合と同様に実現可能性を判定する。
暫定移動目標として目標領域のみが設定されている場合(図3において、行動目的が移動、かつ、行動目標が目標領域の場合)、実現可能性判定部62は、その目標領域(全体)が移動可能空間の範囲内であるときには、実現可能性が高いと判定する。この場合、移動目標再算出部63は、図3の第4列目の到達可能目標の欄のうちの“高”の欄のように暫定移動目標の目標領域に含まれる任意の位置を到達可能目標の目標位置とする。
暫定移動目標として目標位置と目標姿勢とが設定されている場合(図3において、行動目的が撮影、かつ、行動目標が目標物体の場合)、実現可能性判定部62は、目標位置が移動可能空間の範囲内であるとき、かつ、目標姿勢が姿勢制限範囲内であるときには、実現可能性が高いと判定する。この場合、移動目標再算出部63は、図3の第4列目の到達可能目標の欄のうちの“高”の欄のように前提移動目標の目標位置及び目標姿勢をそのまま到達可能目標とする。
実現可能性判定部62は、実現可能性が高いと判定する上記条件を満たさない場合には、実現可能性が低いと判定する。この場合、移動目標再算出部63は、移動可能空間の情報を用いて、暫定移動目標よりも実現可能性の高い移動目標を次のように再算出して最終的な移動目標である到達可能目標とする。図3の第4列目の到達可能目標の欄のうちの“低”の欄には、算出される到達可能目標の概要が示されているが詳細は以下の通りである。
暫定移動目標として目標位置のみが設定されている場合、移動目標再算出部63は、暫定移動目標の目標位置に対して、移動可能空間の範囲内で最近傍となる位置を算出し、到達可能目標の目標位置として設定する。また、移動目標再算出部63は、設定した到達可能目標の目標位置における姿勢制限範囲内の任意の姿勢を到達可能目標の目標姿勢として設定する。ただし、到達可能目標の目標位置において自律移動体21の姿勢が制限されていない場合には、目標姿勢は設定されなくてもよい。また、移動可能空間のうちの自律移動体21の姿勢が制限されていない範囲において、暫定移動目標の目標位置に対して最近傍となる位置が到達可能目標の目標位置として設定されるようにしてもよい。
暫定移動目標として目標姿勢のみが設定されている場合、自律移動体21の現在位置が暫定移動目標の目標位置として設定されている場合と同じである。したがって、実現可能性判定部62は、暫定移動目標として目標位置と目標姿勢とが設定されている後述の場合と同様に到達可能目標を算出する。
暫定移動目標として目標領域のみが設定されている場合、暫定移動目標の目標領域と、移動可能空間との積集合が空集合でないときには、移動目標再算出部63は、積集合に含まれる任意の位置を到達可能目標の目標位置として設定する。
暫定移動目標の目標領域と、移動可能空間との積集合が空集合のときには、移動目標再算出部63は、暫定移動目標の領域に対して、移動可能空間の範囲内で最近傍となる位置を算出し、到達可能目標の目標位置として設定する。
移動目標再算出部63は、設定した到達可能目標の目標位置における姿勢制限範囲内の任意の姿勢を到達可能目標の目標姿勢として設定する。ただし、到達可能目標の目標位置において自律移動体21の姿勢が制限されていない場合には、目標姿勢は設定されなくてもよい。移動可能空間のうちの自律移動体21の姿勢が制限されていない範囲と、暫定移動目標の目標領域との積集合のうちの任意の位置、又は、移動可能空間のうちの自律移動体21の姿勢が制限されていない範囲において、暫定移動目標の目標領域に対して最近傍となる位置が、到達可能目標の目標位置として設定されるようにしてもよい。
暫定移動目標として目標位置と目標姿勢とが設定されている場合、移動目標再算出部63の実現可能目標の算出方法として、例えば、次の第1乃至第3の算出方法が採用され得る。
第1の算出方法では、移動目標再算出部63は、暫定移動目標の目標位置に対して、移動可能空間の範囲内で最近傍となる位置を算出し、到達可能目標の目標位置として設定する。移動目標再算出部63は、設定した到達可能目標の目標位置における姿勢制限範囲内のうち、暫定移動目標の目標姿勢に対して最近傍となる姿勢を算出し、到達可能目標の目標姿勢として設定する。目標姿勢に対して最近傍となる姿勢とは、目標姿勢に対して姿勢距離が最小となる姿勢を意味する。姿勢距離は、2つの姿勢の差の大きさを表す値であり、例えば、2つの姿勢のうちの一方から他方への姿勢変化を1つの回転軸周りの回転角で表した場合に、その回転角の大きさを姿勢距離としてもよいし、その他の定義を採用してもよい。
第2の算出方法では、移動目標再算出部63は、暫定移動目標の目標姿勢を到達可能目標の目標姿勢として設定する。そして、移動目標再算出部63は、その目標姿勢が姿勢制限範囲内の姿勢となる移動可能空間の範囲のうち、目標位置に対して最近傍となる位置を算出し、実現可能目標の目標位置として設定する。
第3の算出法方では、移動目標再算出部63は、暫定移動目標の目標位置に対する距離(幾何学的な距離)と、暫定移動目標の目標姿勢に対する姿勢距離との線形和(重み付け和)が最小となる移動可能空間の範囲内の位置と姿勢制限範囲内の姿勢とを算出する。重み付け和は、暫定移動目標の目標位置及び目標姿勢に対する位置及び姿勢に関する総合的な距離を表す。移動目標再算出部63は、総合的な距離に関して暫定移動目標の目標位置及び目標姿勢に対して最近傍となる移動可能空間の範囲内の位置及び姿勢制限範囲内の姿勢を到達可能目標として算出する。移動目標再算出部63は、算出した位置及び姿勢を到達可能目標の位置及び姿勢とする。
幾何学的な距離と姿勢距離との重み付け和の算出においては、幾何学的な距離に乗じる第1の重みと、姿勢距離に乗じる第2の重みとは、事前に決められた値が用いられる。
第1及び第2の重みは、例えば、第1の重みの第2の重みに対する比率が大きくなる程、到達可能目標の目標位置を暫定移動目標の目標位置に対して近づけることが姿勢に関してよりも優先されることを意味する。
反対に、第1及び第2の重みは、第1の重みの第2の重みに対する比率が小さくなる程、到達可能目標の目標姿勢を暫定移動目標の目標姿勢に対して近づけることが位置に関してよりも優先されることを意味する。
なお、第1の算出方法は、第3の算出方法において、第2の重みを0(第1の重みは正の数)とした場合に相当する。また、第2の算出方法は、第3の算出方法において、第1の重みを0(第2の重みは正の数)とした場合に相当する。以下、移動目標再算出部63は、第3の算出方法を用いるものとして説明する。
移動目標再算出部63は、所定の値の第1及び第2の重みを用いた第3の算出方法により、到達可能目標の目標位置及び目標姿勢を算出してもよいし、行動目的情報及び行動目標情報に応じて、第3の算出方法における第1及び第2の重みを切り替えて到達可能目標を算出するようにしてもよい。
例えば、行動目的が移動、かつ、行動目標が目標姿勢のみの場合(現在位置を目標位置とみなす)には、移動目標再算出部63は、例えば、第2の重みに対する第1の重みを小さくして到達可能目標を算出する。これによって、到達可能目標の目標姿勢が暫定移動目標の目標姿勢に対して大きく相違しないようにすることが位置に関してよりも優先される。
また、行動目的が移動、かつ、行動目標が目標位置及び目標姿勢の場合、又は、行動目的が撮影、かつ、行動目標が目標物体の場合には、例えば、移動目標再算出部63は、第2の重みに対する第1の重みを上記の場合よりも大きくして到達可能目標を算出する。これによって、到達可能目標の目標位置及び目標姿勢のうちの一方が暫定移動目標の目標位置及び目標姿勢に対して大きく相違することが抑止される。
(自律移動体制御システムの第1の実施の形態の作用の説明)
図4は、自律移動体制御システム11の情報の流れを示した図である。図4を用いて自律移動体制御システム11の作用について説明する。
図4は、自律移動体制御システム11の情報の流れを示した図である。図4を用いて自律移動体制御システム11の作用について説明する。
自律移動体制御システム11では、自律移動体21に対するユーザの操作入力が操作装置22を用いたインタフェース22Aにより受け付けられる。これによって、ユーザにより指定された行動目的情報及び行動目標情報がインタフェース22Aを介して自律移動体制御システム11の目標計画部42に供給される。
目標計画部42では、ユーザにより指定された行動目的情報及び行動目標情報、並びに、認識部47からの物体情報や移動空間(移動可能空間)に関する情報(空間情報)等に基づいて、自律移動体21で移動可能となる目標位置や目標姿勢が到達可能目標情報として算出される。到達可能目標情報は、行動計画部43に供給される。
行動計画部43では、目標計画部42からの到達可能目標情報、及び、認識部47からの移動空間の情報等に基づいて、到達可能目標情報が表す到達可能目標に到達するまでの軌道(移動経路等の行動過程を表した行動計画)が算出され、制御部44に供給される。
制御部44では、行動計画部43からの軌道(行動計画)にしたがって、アクチュエータ45を制御する制御値が算出され、アクチュエータ45に供給される。
アクチュエータ45では、制御部44からの制御値に従って動力を発生させて自律移動体21の移動やその他の行動を実行させる。
一方、センサ46では、自律移動体21の位置、姿勢、及び、周辺の物体等に関する環境情報が検出され、認識部47に供給される。
認識部47では、センサ46からの環境情報、及び、図4では不図示の記憶部48(図1及び図2参照)に保存されている過去の情報や事前に記憶されている情報に基づいて、物体情報及び移動空間情報(移動可能空間の情報)が認識される。物体情報は目標計画部42に供給され、移動空間情報は目標計画部42及び行動計画部43に供給される。
(自律移動体制御システムの第1の実施の形態の処理手順)
図5は、自律移動体制御システム11が行う処理手順を例示したフローチャートである。
図5は、自律移動体制御システム11が行う処理手順を例示したフローチャートである。
ステップS11では、自律移動体21の目標計画部42は、ユーザにより指定された行動目的及び行動目標を取得する。処理はステップS11からステップS12に進む。
ステップS12では、目標計画部42は、ステップS11で取得した行動目的及び行動目標に基づいて、実現性を考慮しない移動目標(暫定移動目標)を算出する。処理はステップS12からステップS13に進む。
ステップS13では、目標計画部42は、ステップS12で算出した暫定移動目標に対して、実現可能性の高低の判定を行う。処理はステップS13からステップS14に進む。
ステップS14では、目標計画部42は、ステップS13での判定結果の高低に基づいて分岐処理を行う。
ステップS14において、ステップS13での判定結果として実現性が高いと判定された場合には、処理はステップS15に進む。
ステップS15では、目標計画部42は、ステップS12で算出した暫定移動目標を修正せずに到達可能目標として設定する。処理はステップS15からステップS17に進む。
ステップS14において、ステップS13での判定結果として実現性が低いと判定された場合には、処理はステップS16に進む。
ステップS16では、目標計画部42は、ステップS12で算出した暫定移動目標を実現性の高い移動目標に修正し、到達可能目標として設定する。処理はステップS16からステップS17に進む。
ステップS17では、自律移動体21の行動計画部43は、ステップS15又はステップS16で設定された移動目標(到達可能目標)に基づいて、行動目的及び行動目標を実現するための自律移動体21の軌道等を表した行動計画を算出する。処理はステップS17からステップS18に進む。
ステップS18では、自律移動体21の制御部44は、ステップS17で算出された行動計画にしたがってアクチュエータ18を制御する。
ユーザが新たな移動目的及び移動目標を指定するごとに、以上のステップS11からステップS18の処理が実行される。
(自律移動体制御システムの第1の実施の形態の有効性の説明)
自律移動体制御システムの第1の実施の形態によれば、自律移動体21では、自機の能力や移動空間の状態等に応じて、ユーザにより指定された行動目的及び行動目標に対して実現可能な範囲で行動を実行する。
自律移動体制御システムの第1の実施の形態によれば、自律移動体21では、自機の能力や移動空間の状態等に応じて、ユーザにより指定された行動目的及び行動目標に対して実現可能な範囲で行動を実行する。
したがって、自律移動体21の能力や移動空間の状態等に依存することなく行動目的及び行動目標の指定が可能となる。
指定された行動目的及び行動目標が完全には実現不可能な場合であっても、実現可能な範囲で自律移動体21に対して合目的な行動を実行させることができ、行動目的及び行動目標に対して自律移動体21を柔軟に対応させることができる。
図6は、行動目的及び行動目標の一例に対する比較例の自律移動体の動作を例示した図である。
図6において、比較例の自律移動体である自律移動体91は、例えば、車両型の移動方式で地面や床等の移動面(移動可能空間96)に沿って移動する。移動面は、図6では平面として例示されており、自律移動体91の移動可能な空間の範囲である移動可能空間96は平面で表される。
図6では、行動目的が移動である場合に、ユーザが、空間に存在する人物92の胸の辺りの位置を行動目標の移動目標92A(目標位置)として指定した場合を表している。
比較例の自律移動体91は、例えば、特許文献1(特開2006-195969号公報参照)に記載の技術を適用した自律移動体である。自律移動体91は、指定された移動目標92Aまでの移動経路(軌道)を障害物を避けて計画する機能を有する。ただし、移動目標92Aが、移動可能空間の範囲内であることを前提としている。そのため、移動目標92Aが自律移動体91では到達できない位置である場合には、移動経路を計画することができない。例えば、自律移動体91は、到達不能な移動目標92Aが指定された場合、移動できない旨のエラー情報等をユーザに通知する対応となる。
図7は、図6と同様の行動目的及び行動目標に対する本実施の形態の自律移動体21の動作を例示した図である。尚、図中、図6と同じ部分には図6と同一符号を付して説明を省略する。
図7において、自律移動体21は、比較例の自律移動体91と同様に車両型の移動方式で移動面に沿った移動可能空間96の範囲を移動する。ユーザが指定した行動目標としての移動目標92A(目標位置)は移動可能空間96の範囲外である。
この場合に、自律移動体21は、移動目標92Aを移動可能空間96の範囲内の位置に修正し、修正した位置を到達可能目標92Bとして設定する。自律移動体21は到達可能目標92Bへの軌道を算出し、算出した軌道に沿って到達可能目標92Bまで移動する。
このように自律移動体21では、自機の能力等に応じて、ユーザにより指定された移動目標に対して実現可能な範囲で移動を実行する。
したがって、ユーザが、自律移動体21の能力等を考慮せずに実現不可能な行動目的及び行動目標を指定した場合であっても、ユーザが行動目的及び行動目標を再度指定し直す手間や時間が不要となる。ユーザは、自律移動体21の能力や移動空間の状態等に依存することなく行動目的及び行動目標の指定が可能となる。
指定された行動目的及び行動目標が完全には実現不可能な場合であっても、実現可能な範囲で自律移動体21に対して合目的な行動を実行させることができ、行動目的及び行動目標に対して自律移動体21を柔軟に対応させることができる。自律移動体21への指示内容の自由度が高く、操作性が向上する。
図8は、行動目的及び行動目標の一例に対する比較例の自律移動体の動作を例示した図である。
図8において、比較例の自律移動体である自律移動体91は、例えば、飛行型の移動方式で空中を移動する。自律移動体91の移動可能な空間の範囲である移動可能空間97は3次元空間で表される。
図8では、ユーザが、自律移動体91に搭載されたカメラで、移動可能空間97の範囲外(例えば飛行禁止領域)に存在する人物93の撮影を行動目的として、行動目標としての移動目標93A(目標位置)への移動を指定した場合を表している。
この場合に、移動目標93Aは、自律移動体91の移動可能空間97の範囲外であるため、図6の場合と同様に、移動目標93Aまでの移動経路を計画することができない。したがって、自律移動体91は、移動できない旨のエラー情報等をユーザに通知する対応となる。
図9は、図8と同様の行動目的及び行動目標に対する本実施の形態の自律移動体21の動作を例示した図である。尚、図中、図8と同じ部分には図8と同一符号を付して説明を省略する。
図9において、自律移動体21は、比較例の自律移動体91と同様に飛行型の移動方式で3次元空間である移動可能空間97の範囲を移動する。ユーザが行動目的として撮影を指定し、行動目標として人物93を指定した場合を表している。
自律移動体21は、移動可能空間97を考慮しない暫定移動目標として、人物93を撮影できる移動目標93A(目標位置)を算出する。図9では、移動目標93Aが、図8の場合と同様に移動可能空間97の範囲外である場合を表している。
この場合に、自律移動体21は、移動目標93Aを移動可能空間97の範囲内の位置に修正し、修正した位置を到達可能目標93Bとして設定する。自律移動体21は到達可能目標93Bへの軌道を算出し、算出した軌道に沿って到達可能目標93Bまで移動する。
このように自律移動体21では、自機の能力等に応じて、ユーザにより指定された移動目標に対して実現可能な範囲で移動を実行する。
したがって、ユーザが、自律移動体21の能力や移動可能な空間領域等を考慮せずに実現不可能な行動目的及び行動目標を指定した場合であっても、ユーザが行動目的及び行動目標を再度指定し直す手間や時間が不要となる。ユーザは、自律移動体21の能力や移動空間の状態等に依存することなく行動目的及び行動目標の指定が可能となる。
指定された行動目的及び行動目標が完全には実現不可能な場合であっても、実現可能な範囲で自律移動体21に対して合目的な行動を実行させることができ、行動目的及び行動目標に対して自律移動体21を柔軟に対応させることができる。自律移動体21への指示内容の自由度が高く、操作性が向上する。
<本技術が適用された自律移動体制御システムの第2の実施の形態の構成>
図10は、本技術が適用された自律移動体制御システムの第2の実施の形態の構成を例示したブロック図である。なお、図中、図1の自律移動体制御システム11と対応する部分については、同一の符号、又は、同一の符号の末尾にアルファベットA、B、C、・・・を付してあり、その詳細な説明は省略する。
図10は、本技術が適用された自律移動体制御システムの第2の実施の形態の構成を例示したブロック図である。なお、図中、図1の自律移動体制御システム11と対応する部分については、同一の符号、又は、同一の符号の末尾にアルファベットA、B、C、・・・を付してあり、その詳細な説明は省略する。
図10の自律移動体制御システム101は、複数台の自律移動体21A、21B、21C、・・・、操作装置22、及び、情報処理装置111を有する。したがって、図10の自律移動体制御システム101は、操作装置22、及び、自律移動体21A、21B、21C、・・・を有する点で、図1の場合と共通する。但し、図10の自律移動体制御システム101は、複数台の自律移動体21A、21B、21C、・・・を有している点、及び、情報処理装置111が新たに設けられている点で、図1の場合と相違する。
自律移動体21A、21B、21C、・・・は、それぞれ図1の自律移動体21に対応し、任意の移動方式で移動する移動体である。なお、以下において、自律移動体21A、21B、21C、・・・を総称して自律移動体21ともいう。
各自律移動体21のうちの一部又は全ての移動方式は、同一又は相違していてもよい。
自律移動体21A、21B、21C、・・・は、それぞれ図1の自律移動体21に対応し、任意の移動方式で移動する移動体である。なお、以下において、自律移動体21A、21B、21C、・・・を総称して自律移動体21ともいう。
各自律移動体21のうちの一部又は全ての移動方式は、同一又は相違していてもよい。
各自律移動体21は、図10では不図示の送受信部41、目標計画部42、行動計画部43、制御部44、アクチュエータ45、センサ46、認識部47、及び、記憶部48を有する点で、図1の自律移動体21と共通する。ただし、行動計画部43が算出した行動計画(軌道)を情報処理装置111に供給する点、制御部44が情報処理装置111からの指示によりアクチュエータ45の制御を実行するか否かを決定する点で図1の自律移動体21と相違する。
操作装置22は、図1の操作装置22と同様に、ユーザにより操作入力された自律移動体21の行動目的情報及び行動目標情報を受け付ける。操作装置22は、ユーザにより指定された行動目的情報及び行動目標情報を無線又は有線の通信により情報処理装置111に供給する。なお、操作装置22と情報処理装置111との間の通信は、インターネットなどのネットワークを介していてもよいし、情報のやり取りが可能であれば特定の通信方法に限定されない。
情報処理装置111は、例えば、サーバ装置、パーソナルコンピュータ、スマートフォン、又は、タブレット等であってよく、操作装置22に内包されていてもよい。情報処理装置111は、いずれかの自律移動体21に内包されていてもよい。
情報処理装置111は、操作装置22からの行動目的情報及び行動目標情報を、各自律移動体21に通信により供給する。情報処理装置111と各自律移動体21との間の通信は、情報のやり取りが可能であればよく、特定の通信方法に限定されない。
情報処理装置111は、各自律移動体21に行動目的情報及び行動目標情報を供給した結果、各自律移動体21の行動計画部43により算出される行動計画(軌道等)の情報を各自律移動体21から取得する。
情報処理装置111は、各自律移動体21から取得した行動計画に基づいて、全ての自律移動体21のうち、ユーザにより指定された行動目的及び行動目標に対応する行動を実行させる1台又は複数台の自律移動体21を選択する。
情報処理装置111は、選択した自律移動体21に対して行動計画に基づく行動の実行を指示する。
(情報処理装置111の構成)
情報処理装置111は、行動計画評価部131、及び、調停部132を有する。
情報処理装置111は、行動計画評価部131、及び、調停部132を有する。
行動計画評価部131は、各自律移動体21から取得した行動計画に基づいて、各自律移動体21の評価指標を算出する。評価指標は、行動目的を実行した場合の優劣(行動の優劣)を評価する値である。例えば、評価指標は、行動目的の達成度、行動計画を実行した場合に生じる移動時間、エネルギー消費量、安全性、又は、騒音量等の評価対象に基づいて算出される。
行動目的の達成度は、例えば、行動目的及び行動目標により算出された暫定移動目標と、移動可能範囲等を考慮して算出された到達可能目標とのずれ(総合的な距離)の大きさを表す。ずれが小さい程、行動目的の達成度は大きい。
安全性は、周囲への安全性及び自機の故障リスクに関して数値化した値である。騒音量は、自機が発する騒音、又は、撮影などで録音される騒音などに関する騒音量である。これらの評価対象以外に、行動目的が撮影の場合には、撮影における対象物の写り方や撮影画像の明るさを評価対象とすることができる。また、各評価対象の評価値の平均や分散などを評価対象としてもよい(例えば、予想移動時間とその分散など)。
各評価対象を数値化する場合、例えば、行動(行動計画)が優れている程、数値化した値(評価値)が大きくなるように、又は、数値化した値(評価値)が小さくなるようにする。本実施の形態では前者とする。
評価指標は、例えば、各評価対象の評価値の線形和(重み付け和)である。各評価値に乗じる重み事前に決められている。なお、各評価値に乗じる重みのうちのいずれか1又は複数を0とすることで、評価指標に寄与する評価対象が低減する。したがって、各評価対象の評価値の線形和で算出される評価指標は、上記のような評価対象のうちのいずれか1以上の評価値に基づいて算出されることを表す。
行動計画評価部131は、各自律移動体21からの行動計画、及び、各行動計画に対して算出した評価指標を調停部132に供給する。
調停部132は、行動計画評価部131から取得した行動計画及びその評価指標に基づいて、行動計画に従った行動を実行させる自律移動体21を選択する。言い換えると、調停部132は、行動計画評価部131から取得した行動計画のうち、実行する行動計画を選択する。
調停部132は、例えば、ユーザにより指定された行動目的が移動又は接近のように、1台の自律移動体21が行動目的を達成すれば十分な場合には、各自律移動体21の行動計画の評価指標に基づいて、行動目的に対応する行動を実行する1台の自律移動体21を選択する。
だだし、ユーザにより指定された行動目的が移動又は接近の場合であっても、例えば、ユーザが行動目的に対応する行動を実行させる自律移動体21の台数を指定したとき等には、調停部132は、指定された台数の自律移動体21を選択する。
1台の自律移動体21を選択する場合、調停部132は、各自律移動体21の行動計画の評価指標のうち、最も大きな値の評価指標を対応する自律移動体21を選択する。調停部132は、選択した自律移動体21に対して、その自律移動体21から取得した行動計画を供給し、行動計画の実行を指示する。ただし、自律移動体21は自機で算出した行動計画を保持しておくことで、調停部132は、選択した自律移動体21に対して行動計画の実行を指示するだけでもよい。
調停部132は、例えば、ユーザにより指定された行動目的が撮影又は運搬のように、複数台の自律移動体21が行動目的に対応した行動を実行すると効率化が図られる場合には、各自律移動体21の行動計画の評価指標に基づいて、行動目的に対応する行動を実行する複数台の自律移動体21を選択する。
なお、調停部132は、1台の自律移動体21を選択する場合に、評価指数が高い順に自律移動体21に候補順位を付けておく。調停部132は、評価指数が最大値である候補順位が1位の自律移動体21に対して行動計画を実行させた場合に、その自律移動体21が行動の失敗や続行不可能に陥ったときには、候補順位が2位の自律移動体21に対して行動計画の実行を指示してもよい。
調停部132は、バックアップのために候補順位の高い複数台の自律移動体21に対して行動計画を同時に実行させるようにしてもよい。
ユーザが行動目的に対応する行動を実行させる自律移動体21の台数を指定した場合も同様に、調停部132は、候補順位の高い自律移動体21のうちの指定された台数分の自律移動体21に対して行動計画を同時に実行させる。
複数台の自律移動体21を選択する場合、調停部132は、行動目的に対して各自律移動体21が達成できる達成量の情報を参照する。達成量は、各自律移動体21の能力等に基づいて事前に作成された情報である。作成された達成量の情報は、調停部132が参照可能な情報処理装置111の記憶部(不図示)に記憶されている。
達成量は、例えば、行動目的が運搬であれば、各自律移動体21の最大運搬量であってもよいし、行動目的が撮影であれば、各自律移動体21が搭載するカメラの台数や性能の高低の表す評価値であってもよい。
ユーザは、指定した行動目的に対応して行動目的の達成に必要な目標量を指定する。指定された目標量は、行動目的情報と共に情報処理装置111に供給され、調停部132に参照される。
調停部132は、全ての自律移動体21の任意の組み合わせのうち、行動目的に対応する達成量の合計又は線形和が、ユーザにより指定された目標量を比較値として比較値以上となる組み合わせを選択候補として検出する。ただし、比較値は、ユーザにより指定された目標量の(1+k)倍の値としてもよい。kは正の値であり安全率を表す。これによって、比較値をユーザにより指定された目標量とした場合よりも余裕のある台数の自律移動体21の組み合わせが選択候補として検出される。
調停部132は、選択候補として検出した組み合わせの各々について、行動計画の評価指数の合計を算出し、合計が最も高い組み合わせを検出する。
調停部132は、検出した組み合わせの各自律移動体21に対して各々から取得した行動計画を供給し、行動計画の実行を指示する。
なお、調停部132は、複数台の自律移動体21を選択する場合も、1台の自律移動体21を選択する場合と同様に、選択候補とした自律移動体21の組み合わせに対して評価指数の合計が高い順に候補順位を付けておく。調停部132は、評価指数の合計が最大値である候補順位が1位の組み合わせの各自律移動体21に対して行動計画を実行させた場合に、それらの自律移動体21のいずれかが行動の失敗や続行不可能に陥ったときには、候補順位が2位の組み合わせの自律移動体21に対して行動計画の実行を指示してもよい。
調停部132は、バックアップのために候補順位の高い複数の組み合わせの自律移動体21に対して行動計画を同時に実行させるようにしてもよい。
(自律移動体制御システム101の作用の説明)
図11は、自律移動体制御システム101の情報の流れを示した図である。図11を用いて自律移動体制御システム101の作用について説明する。なお、図中、複数台の自律移動体21の例として2台の自律移動体21A、21Bが例示されている。
図11は、自律移動体制御システム101の情報の流れを示した図である。図11を用いて自律移動体制御システム101の作用について説明する。なお、図中、複数台の自律移動体21の例として2台の自律移動体21A、21Bが例示されている。
自律移動体制御システム101では、ユーザの操作入力が操作装置22を用いたインタフェース22Aにより受け付けられる。これによって、ユーザにより指定された行動目的情報及び行動目標情報がインタフェース22Aを介して自律移動体制御システム11の情報処理装置111に供給され、情報処理装置111から各自律移動体21A、21Bの目標計画部42に供給される。
各自律移動体21A、21Bにおいて、目標計画部42では、ユーザにより指定された行動目的情報及び行動目標情報、並びに、認識部47からの物体情報や移動空間(移動可能空間)の情報等に基づいて、自律移動体21で移動可能となる目標位置や目標姿勢が到達可能目標情報として算出される。到達可能目標情報は、行動計画部43に供給される。
行動計画部43では、目標計画部42からの到達可能目標情報、及び、認識部47からの移動空間の情報等に基づいて、到達可能目標情報が表す到達可能目標に到達するまでの軌道等の行動過程を表した行動計画が算出される。
各自律移動体21A、21Bにおいて算出された行動計画は、情報処理装置111の行動計画評価部131に供給される。
行動計画評価部131では、各自律移動体21A、21Bからの行動計画に対する評価指数が算出される。各自律移動体21A、21Bからの行動計画とそれらの算出された評価指数とは行動計画評価部131から調停部132に供給される。
調停部132では、行動計画評価部131からの行動計画と評価指数とに基づいて、自律移動体21A、21Bのうち、行動計画を実行させる自律移動体が選択される。自律移動体21Aが行動計画を実行する自律移動体として選択された場合、図11のように自律移動体21Aで算出された行動計画が、調停部132から自律移動体21Aの制御部44に供給される。これによって、自律移動体21Aに対して行動計画の実行が指示される。
制御部44では、調停部132からの行動計画にしたがって、アクチュエータ45を制御する制御値が算出され、アクチュエータ45に供給される。
アクチュエータ45では、制御部44からの制御値に従って動力を発生させて自律移動体21の移動やその他の行動を実行させる。
なお、各自律移動体21A、21Bのセンサ46及び認識部47での作用は図4の場合と同じであるので説明を省略する。
(自律移動体制御システム101の処理手順)
図12は、自律移動体制御システム101の情報処理装置111が行う処理手順を例示したフローチャートである。なお、各自律移動体21での処理手順は、図5の場合と共通する。ただし、本実施の形態の自律移動体21では、図5のステップS17とステップS18の間に、情報処理装置111での処理が介在し、ステップS18の処理は、情報処理装置111から行動計画の実行の指示が与えられた場合にのみ実行される点で第1の実施の形態での自律移動体21の処理と相違する。
図12は、自律移動体制御システム101の情報処理装置111が行う処理手順を例示したフローチャートである。なお、各自律移動体21での処理手順は、図5の場合と共通する。ただし、本実施の形態の自律移動体21では、図5のステップS17とステップS18の間に、情報処理装置111での処理が介在し、ステップS18の処理は、情報処理装置111から行動計画の実行の指示が与えられた場合にのみ実行される点で第1の実施の形態での自律移動体21の処理と相違する。
図12のステップS31では、情報処理装置111の行動計画評価部131は、各自律移動体21で算出された行動計画を取得する。処理はステップS31からステップS32に進む。
ステップS32では、行動計画評価部131は、ステップS31で取得した各自律移動体21からの行動計画の評価指数を算出し、各行動計画と算出した評価指数とを調停部132に供給する。処理はステップS32からステップS33に進む。
ステップS33では、調停部132は、ステップS32で供給された各自律移動体21の行動計画とその評価指数とに基づいて、行動計画を実行させる自律移動体21を選択する。処理はステップS33からステップS34に進む。
ステップS34では、調停部132は、ステップS33で選択した自律移動体21に対して行動計画を供給し、行動計画の実行を指示する。
ユーザが新たな移動目的及び移動目標を指定するごとに、以上のステップS31からステップS34の処理が情報処理装置111において実行される。
(自律移動体制御システム101の有効性の説明)
自律移動体制御システムの第2の実施の形態によれば、各自律移動体21では、自機の能力や移動空間の状態等に応じて、ユーザにより指定された行動目的及び行動目標に対して実現可能な範囲で行動を実行する。
自律移動体制御システムの第2の実施の形態によれば、各自律移動体21では、自機の能力や移動空間の状態等に応じて、ユーザにより指定された行動目的及び行動目標に対して実現可能な範囲で行動を実行する。
したがって、自律移動体21の能力や移動空間の状態等に依存することなく行動目的及び行動目標の指定が可能となる。
指定された行動目的及び行動目標が完全には実現不可能な場合であっても、実現可能な範囲で自律移動体21に対して合目的な行動を実行させることができ、行動目的及び行動目標に対して自律移動体21を柔軟に対応させることができる。
自律移動体制御システムの第2の実施の形態によれば、1つの行動目的及び行動目標に対して複数台の自律移動体21が対応し、各自律移動体21の行動計画に基づいて行動目的に対応する行動を実行する自律移動体21が調停(選択)される。したがって、1台の自律移動体21で対応する場合よりも、行動目的の実現可能性が向上する。
図13は、行動目的及び行動目標の一例に対する本実施の形態の自律移動体21A、21B、21Cの動作を例示した図である。
図13において、自律移動体21Aは、例えば、飛行型の移動方式で3次元空間である移動可能空間156Aの範囲を移動する。
自律移動体21Bは、例えば、車両型の移動方式で床面に沿った移動可能空間156Bの範囲を移動する。
自律移動体21Cは、例えば、多脚型の移動方式で天井面に沿った移動可能空間156Cの範囲を移動する。
図13では、ユーザが、行動目的として移動を指定し、行動目標として移動可能空間156Aの範囲内であって、移動可能空間156B及び156Cの範囲外の移動目標151A(目標位置)を指定した場合を表している。
この場合に、自律移動体21Aは、移動目標92Aを到達可能目標として設定して行動計画を作成する。
自律移動体21Bは、移動目標151Aを移動可能空間156Bの範囲内の位置に修正し、修正した位置を到達可能目標151Bとして設定して行動計画を作成する。
自律移動体21Cは、移動目標151Aを移動可能空間156Cの範囲内の位置に修正し、修正した位置を到達可能目標151Cとして設定して行動計画を作成する。
これらの自律移動体21A乃至21Cの行動計画に基づいて、行動目的に対応した行動を実行する自律移動体が調停部132により選択される。
したがって、行動目的及び行動目標の達成に適した1台の自律移動体21Aを選択し、行動計画を実行させることが可能であるし、エネルギー消費量や安全性等を考慮した場合に最適な1台の自律移動体を選択し、行動計画を実行させることが可能である。
災害現場の探索ポイントとして移動目標151Aをユーザが指定した場合のように、例えば、行動目的に対応する行動を実行する自律移動体21としてユーザが複数台を指定することで、自律移動体21A乃至21Cのうちの2台又は全てに対して行動計画を実行させることが可能である。複数台の自律移動体21が行動目的に対応する行動を実行する行動目的(例えば、災害現場探索)の指定を行えるようにしてもよい。
この場合に、各自律移動体21の行動計画に基づいて行動目的を達成するために適した複数台の自律移動体21が調停(選択)される。したがって、1台の自律移動体21のみで対応する場合よりも行動目的の実現可能性が向上する。いずれかの自律移動体21にトラブルが発生した場合でも、他のいずれかの自律移動体21が行動目的を達成することができるため、1台の自律移動体21のみで対応する場合よりも行動目的の実現可能性が向上する。
<プログラム>
上述した自律移動体制御システム11及び101での一部又は全ての一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
上述した自律移動体制御システム11及び101での一部又は全ての一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図14は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)201,ROM(Read Only Memory)202,RAM(Random Access Memory)203は、バス204により相互に接続されている。
バス204には、さらに、入出力インタフェース205が接続されている。入出力インタフェース205には、入力部206、出力部207、記憶部208、通信部209、及びドライブ210が接続されている。
入力部206は、キーボード、マウス、マイクロフォンなどよりなる。出力部207は、ディスプレイ、スピーカなどよりなる。記憶部208は、ハードディスクや不揮発性のメモリなどよりなる。通信部209は、ネットワークインタフェースなどよりなる。ドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア211を駆動する。
以上のように構成されるコンピュータでは、CPU201が、例えば、記憶部208に記憶されているプログラムを、入出力インタフェース205及びバス204を介して、RAM203にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU201)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア211に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線又は無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブルメディア211をドライブ210に装着することにより、入出力インタフェース205を介して、記憶部208にインストールすることができる。また、プログラムは、有線又は無線の伝送媒体を介して、通信部209で受信し、記憶部208にインストールすることができる。その他、プログラムは、ROM202や記憶部208に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
本技術は以下のような構成も取ることができる。
(1) 移動装置の移動先を指定する行動目標を表す行動目標情報と、前記移動装置の移動可能な実空間の範囲である移動可能空間を表す移動可能空間情報とに基づいて、前記移動装置の移動目標を算出する目標計画部
を備える情報処理装置。
(2) 前記目標計画部は、
前記行動目標情報に基づいて前記移動装置の前記移動先を表す暫定移動目標を算出し、前記暫定移動目標と前記移動可能空間情報とに基づいて前記移動目標を算出する
前記(1)に記載の情報処理装置。
(3) 前記目標計画部は、
前記移動可能空間情報に基づいて前記移動装置の前記暫定移動目標への移動の実現可能性を判定する
前記(2)に記載の情報処理装置。
(4) 前記目標計画部は、
前記実現可能性が前記暫定移動目標よりも高い前記移動目標を算出する
前記(2)又は前記(3)に記載の情報処理装置。
(5) 前記目標計画部は、
前記暫定移動目標が前記移動可能空間の範囲外である場合には、前記移動可能空間の範囲内となる前記移動目標を算出する
前記(4)に記載の情報処理装置。
(6) 前記目標計画部は、
前記暫定移動目標に対して最近傍となる前記移動目標を算出する
前記(5)に記載の情報処理装置。
(7) 前記目標計画部は、
前記移動装置の行動目的を表す行動目的情報に基づいて、前記移動可能空間の範囲内となる前記移動目標を算出する
前記(4)乃至前記(6)のいずれかに記載の情報処理装置。
(8) 前記行動目標情報は、目標位置、目標姿勢、目標領域、及び、目標物体のうちのいずれか1以上の情報を含む
前記(1)乃至前記(7)のいずれかに記載の情報処理装置。
(9) 前記行動目的情報は、移動、接近、及び、撮影のうちのいずれか1以上の情報を含む
前記(7)に記載の情報処理装置。
(10) 前記行動目標情報は、前記行動目的情報に応じた情報である
前記(7)又は前記(8)に記載の情報処理装置。
(11) 前記目標計画部は、
前記行動目的情報が表す前記行動目的が移動である場合、目標位置、目標姿勢、及び、目標領域のうちのいずれか1以上を前記行動目標情報として、前記移動目標を算出する
前記(10)に記載の情報処理装置。
(12) 前記目標計画部は、
前記行動目的情報が表す前記行動目的が接近である場合、前記接近の目標物体の情報を前記行動目標情報として、前記移動目標を算出する
前記(10)又は前記(11)に記載の情報処理装置。
(13) 前記目標計画部は、
前記行動目的情報が表す前記行動目的が撮影である場合、前記撮影の目標物体の情報を前記行動目標情報として、前記移動目標を算出する
前記(7)、及び、前記(9)乃至前記(12)のいずれかに記載の情報処理装置。
(14) 前記移動装置は複数の移動装置を含み、
前記行動目的情報に基づいて、前記複数の移動装置のうちの1以上の移動装置を、前記行動目的を実行する移動装置として選択する調停部
を更に備える
前記(7)、及び、前記(9)乃至前記(13)のいずれかに記載の情報処理装置。
(15) 前記調停部は、
前記行動目的情報が表す前記行動目的を実行した場合の優劣を評価する評価指標に基づいて、前記複数の移動装置のうちの1以上の移動装置を、前記行動目的を実行する移動装置として選択する
前記(14)に記載の情報処理装置。
(16) 前記調停部は、
前記複数の移動装置がそれぞれ前記目標計画部により算出された前記移動目標への移動を実行した場合の優劣を評価する評価指標に基づいて、前記複数の移動装置のうちの1以上の移動装置を、前記行動目的を実行する移動装置として選択する
前記(14)又は前記(15)に記載の情報処理装置。
(17) 前記移動装置は、車両型、飛行型、多脚型、及び、無限軌道型の移動装置のうちのいずれかを含む
前記(1)乃至前記(16)のいずれかに記載の情報処理装置。
(18) 目標計画部
を有する
情報処理装置の
前記目標計画部は、
移動装置の移動先を指定する行動目標を表す行動目標情報と、前記移動装置の移動可能な実空間の範囲である移動可能空間を表す移動可能空間情報とに基づいて、前記移動装置の移動目標を算出する
情報処理方法。
(19) コンピュータを、
移動装置の移動先を指定する行動目標を表す行動目標情報と、前記移動装置の移動可能な実空間の範囲である移動可能空間を表す移動可能空間情報とに基づいて、前記移動装置の移動目標を算出する目標計画部
として機能させるためのプログラム。
(1) 移動装置の移動先を指定する行動目標を表す行動目標情報と、前記移動装置の移動可能な実空間の範囲である移動可能空間を表す移動可能空間情報とに基づいて、前記移動装置の移動目標を算出する目標計画部
を備える情報処理装置。
(2) 前記目標計画部は、
前記行動目標情報に基づいて前記移動装置の前記移動先を表す暫定移動目標を算出し、前記暫定移動目標と前記移動可能空間情報とに基づいて前記移動目標を算出する
前記(1)に記載の情報処理装置。
(3) 前記目標計画部は、
前記移動可能空間情報に基づいて前記移動装置の前記暫定移動目標への移動の実現可能性を判定する
前記(2)に記載の情報処理装置。
(4) 前記目標計画部は、
前記実現可能性が前記暫定移動目標よりも高い前記移動目標を算出する
前記(2)又は前記(3)に記載の情報処理装置。
(5) 前記目標計画部は、
前記暫定移動目標が前記移動可能空間の範囲外である場合には、前記移動可能空間の範囲内となる前記移動目標を算出する
前記(4)に記載の情報処理装置。
(6) 前記目標計画部は、
前記暫定移動目標に対して最近傍となる前記移動目標を算出する
前記(5)に記載の情報処理装置。
(7) 前記目標計画部は、
前記移動装置の行動目的を表す行動目的情報に基づいて、前記移動可能空間の範囲内となる前記移動目標を算出する
前記(4)乃至前記(6)のいずれかに記載の情報処理装置。
(8) 前記行動目標情報は、目標位置、目標姿勢、目標領域、及び、目標物体のうちのいずれか1以上の情報を含む
前記(1)乃至前記(7)のいずれかに記載の情報処理装置。
(9) 前記行動目的情報は、移動、接近、及び、撮影のうちのいずれか1以上の情報を含む
前記(7)に記載の情報処理装置。
(10) 前記行動目標情報は、前記行動目的情報に応じた情報である
前記(7)又は前記(8)に記載の情報処理装置。
(11) 前記目標計画部は、
前記行動目的情報が表す前記行動目的が移動である場合、目標位置、目標姿勢、及び、目標領域のうちのいずれか1以上を前記行動目標情報として、前記移動目標を算出する
前記(10)に記載の情報処理装置。
(12) 前記目標計画部は、
前記行動目的情報が表す前記行動目的が接近である場合、前記接近の目標物体の情報を前記行動目標情報として、前記移動目標を算出する
前記(10)又は前記(11)に記載の情報処理装置。
(13) 前記目標計画部は、
前記行動目的情報が表す前記行動目的が撮影である場合、前記撮影の目標物体の情報を前記行動目標情報として、前記移動目標を算出する
前記(7)、及び、前記(9)乃至前記(12)のいずれかに記載の情報処理装置。
(14) 前記移動装置は複数の移動装置を含み、
前記行動目的情報に基づいて、前記複数の移動装置のうちの1以上の移動装置を、前記行動目的を実行する移動装置として選択する調停部
を更に備える
前記(7)、及び、前記(9)乃至前記(13)のいずれかに記載の情報処理装置。
(15) 前記調停部は、
前記行動目的情報が表す前記行動目的を実行した場合の優劣を評価する評価指標に基づいて、前記複数の移動装置のうちの1以上の移動装置を、前記行動目的を実行する移動装置として選択する
前記(14)に記載の情報処理装置。
(16) 前記調停部は、
前記複数の移動装置がそれぞれ前記目標計画部により算出された前記移動目標への移動を実行した場合の優劣を評価する評価指標に基づいて、前記複数の移動装置のうちの1以上の移動装置を、前記行動目的を実行する移動装置として選択する
前記(14)又は前記(15)に記載の情報処理装置。
(17) 前記移動装置は、車両型、飛行型、多脚型、及び、無限軌道型の移動装置のうちのいずれかを含む
前記(1)乃至前記(16)のいずれかに記載の情報処理装置。
(18) 目標計画部
を有する
情報処理装置の
前記目標計画部は、
移動装置の移動先を指定する行動目標を表す行動目標情報と、前記移動装置の移動可能な実空間の範囲である移動可能空間を表す移動可能空間情報とに基づいて、前記移動装置の移動目標を算出する
情報処理方法。
(19) コンピュータを、
移動装置の移動先を指定する行動目標を表す行動目標情報と、前記移動装置の移動可能な実空間の範囲である移動可能空間を表す移動可能空間情報とに基づいて、前記移動装置の移動目標を算出する目標計画部
として機能させるためのプログラム。
11,111 自律移動体制御システム, 21 自律移動体, 22 操作装置, 41 送受信部, 42 目標計画部, 43 行動計画部, 44 制御部, 45 アクチュエータ, 46 センサ, 47 認識部, 48 記憶部, 61 移動目標算出部, 62 実現可能性判定部, 63 移動目標再算出部
Claims (19)
- 移動装置の移動先を指定する行動目標を表す行動目標情報と、前記移動装置の移動可能な実空間の範囲である移動可能空間を表す移動可能空間情報とに基づいて、前記移動装置の移動目標を算出する目標計画部
を備える情報処理装置。 - 前記目標計画部は、
前記行動目標情報に基づいて前記移動装置の前記移動先を表す暫定移動目標を算出し、前記暫定移動目標と前記移動可能空間情報とに基づいて前記移動目標を算出する
請求項1に記載の情報処理装置。 - 前記目標計画部は、
前記移動可能空間情報に基づいて前記移動装置の前記暫定移動目標への移動の実現可能性を判定する
請求項2に記載の情報処理装置。 - 前記目標計画部は、
前記実現可能性が前記暫定移動目標よりも高い前記移動目標を算出する
請求項3に記載の情報処理装置。 - 前記目標計画部は、
前記暫定移動目標が前記移動可能空間の範囲外である場合には、前記移動可能空間の範囲内となる前記移動目標を算出する
請求項4に記載の情報処理装置。 - 前記目標計画部は、
前記暫定移動目標に対して最近傍となる前記移動目標を算出する
請求項5に記載の情報処理装置。 - 前記目標計画部は、
前記移動装置の行動目的を表す行動目的情報に基づいて、前記移動可能空間の範囲内となる前記移動目標を算出する
請求項4に記載の情報処理装置。 - 前記行動目標情報は、目標位置、目標姿勢、目標領域、及び、目標物体のうちのいずれか1以上の情報を含む
請求項1に記載の情報処理装置。 - 前記行動目的情報は、移動、接近、及び、撮影のうちのいずれか1以上の情報を含む
請求項7に記載の情報処理装置。 - 前記行動目標情報は、前記行動目的情報に応じた情報である
請求項7に記載の情報処理装置。 - 前記目標計画部は、
前記行動目的情報が表す前記行動目的が移動である場合、目標位置、目標姿勢、及び、目標領域のうちのいずれか1以上を前記行動目標情報として、前記移動目標を算出する
請求項7に記載の情報処理装置。 - 前記目標計画部は、
前記行動目的情報が表す前記行動目的が接近である場合、前記接近の目標物体の情報を前記行動目標情報として、前記移動目標を算出する
請求項7に記載の情報処理装置。 - 前記目標計画部は、
前記行動目的情報が表す前記行動目的が撮影である場合、前記撮影の目標物体の情報を前記行動目標情報として、前記移動目標を算出する
請求項7に記載の情報処理装置。 - 前記移動装置は複数の移動装置を含み、
前記行動目的情報に基づいて、前記複数の移動装置のうちの1以上の移動装置を、前記行動目的を実行する移動装置として選択する調停部
を更に備える
請求項7に記載の情報処理装置。 - 前記調停部は、
前記行動目的情報が表す前記行動目的を実行した場合の優劣を評価する評価指標に基づいて、前記複数の移動装置のうちの1以上の移動装置を、前記行動目的を実行する移動装置として選択する
請求項14に記載の情報処理装置。 - 前記調停部は、
前記複数の移動装置がそれぞれ前記目標計画部により算出された前記移動目標への移動を実行した場合の優劣を評価する評価指標に基づいて、前記複数の移動装置のうちの1以上の移動装置を、前記行動目的を実行する移動装置として選択する
請求項14に記載の情報処理装置。 - 前記移動装置は、車両型、飛行型、多脚型、及び、無限軌道型の移動装置のうちのいずれかを含む
請求項1に記載の情報処理装置。 - 目標計画部
を有する
情報処理装置の
前記目標計画部は、
移動装置の移動先を指定する行動目標を表す行動目標情報と、前記移動装置の移動可能な実空間の範囲である移動可能空間を表す移動可能空間情報とに基づいて、前記移動装置の移動目標を算出する
情報処理方法。 - コンピュータを、
移動装置の移動先を指定する行動目標を表す行動目標情報と、前記移動装置の移動可能な実空間の範囲である移動可能空間を表す移動可能空間情報とに基づいて、前記移動装置の移動目標を算出する目標計画部
として機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022537914A JPWO2022019118A1 (ja) | 2020-07-21 | 2021-07-07 | |
US18/005,144 US20230259134A1 (en) | 2020-07-21 | 2021-07-07 | Information processing device, information processing method, and program |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020-124193 | 2020-07-21 | ||
JP2020124193 | 2020-07-21 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2022019118A1 true WO2022019118A1 (ja) | 2022-01-27 |
Family
ID=79729306
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2021/025621 WO2022019118A1 (ja) | 2020-07-21 | 2021-07-07 | 情報処理装置、情報処理方法、及び、プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230259134A1 (ja) |
JP (1) | JPWO2022019118A1 (ja) |
WO (1) | WO2022019118A1 (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006195969A (ja) * | 2004-12-14 | 2006-07-27 | Honda Motor Co Ltd | 自律移動ロボットの移動経路生成装置 |
JP2009136995A (ja) * | 2007-12-10 | 2009-06-25 | Honda Motor Co Ltd | 目標経路設定支援システム |
JP2019016306A (ja) * | 2017-07-10 | 2019-01-31 | 株式会社豊田中央研究所 | カバレッジ装置、移動体、制御装置、移動体の分散制御プログラム |
JP2019020962A (ja) * | 2017-07-14 | 2019-02-07 | 株式会社スカイマティクス | 移動体の移動を制御するシステムおよび方法 |
WO2019181900A1 (ja) * | 2018-03-19 | 2019-09-26 | 本田技研工業株式会社 | 移動体及びその制御方法並びに優劣決定方法 |
-
2021
- 2021-07-07 JP JP2022537914A patent/JPWO2022019118A1/ja active Pending
- 2021-07-07 US US18/005,144 patent/US20230259134A1/en active Pending
- 2021-07-07 WO PCT/JP2021/025621 patent/WO2022019118A1/ja active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006195969A (ja) * | 2004-12-14 | 2006-07-27 | Honda Motor Co Ltd | 自律移動ロボットの移動経路生成装置 |
JP2009136995A (ja) * | 2007-12-10 | 2009-06-25 | Honda Motor Co Ltd | 目標経路設定支援システム |
JP2019016306A (ja) * | 2017-07-10 | 2019-01-31 | 株式会社豊田中央研究所 | カバレッジ装置、移動体、制御装置、移動体の分散制御プログラム |
JP2019020962A (ja) * | 2017-07-14 | 2019-02-07 | 株式会社スカイマティクス | 移動体の移動を制御するシステムおよび方法 |
WO2019181900A1 (ja) * | 2018-03-19 | 2019-09-26 | 本田技研工業株式会社 | 移動体及びその制御方法並びに優劣決定方法 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2022019118A1 (ja) | 2022-01-27 |
US20230259134A1 (en) | 2023-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8271132B2 (en) | System and method for seamless task-directed autonomy for robots | |
JP3875988B2 (ja) | 未知の障害物の中の予測不可能な目標物の実時間追跡 | |
US11673269B2 (en) | Method of identifying dynamic obstacle and robot implementing same | |
JP5222971B2 (ja) | 歩行ロボット装置及びその制御プログラム | |
KR101539270B1 (ko) | 충돌회피 및 자율주행을 위한 센서융합 기반 하이브리드 반응 경로 계획 방법, 이를 수행하기 위한 기록 매체 및 이동로봇 | |
EP2314428B1 (en) | Movable robot | |
JP2019125354A (ja) | 情報処理装置、システム、方法、およびプログラム | |
WO2018105599A1 (ja) | 制御装置、制御方法およびプログラム記録媒体 | |
CN107351085B (zh) | 一种基于多个控制点的空间机器人避撞方法 | |
US11447195B2 (en) | Leg swing trajectories | |
KR20140031316A (ko) | 이동하는 개체를 이동 로봇을 이용하여 추적 및 추종하는 기법 | |
CN114072254A (zh) | 不确定环境中利用静态和动态碰撞规避的机器人路径规划方法 | |
CN112947403B (zh) | 用于障碍物规避的确定性机器人路径规划 | |
KR102387797B1 (ko) | 3차원 가상 공간 모델을 이용한 사용자 포즈 추정 방법 및 장치 | |
KR20210033808A (ko) | 아웃도어 영역에서 이종의 위치정보 획득 메커니즘을 적용하는 방법 및 이를 구현하는 로봇과 클라우드 서버 | |
Dewan et al. | Heterogeneous UGV-MAV exploration using integer programming | |
KR20210042537A (ko) | 대면적의 공간에서 로컬 영역별로 위치를 추정하는 방법 및 이를 구현하는 로봇과 클라우드 서버 | |
KR20130068603A (ko) | 군집로봇의 역할 할당 방법 | |
WO2022019118A1 (ja) | 情報処理装置、情報処理方法、及び、プログラム | |
Miura et al. | Adaptive robot speed control by considering map and motion uncertainty | |
Hönig et al. | Dynamic multi-target coverage with robotic cameras | |
US20230058999A1 (en) | Robot and method for controlling thereof | |
Ventura | Two faces of human–robot interaction: Field and service robots | |
Streit et al. | Vision-based path construction and maintenance for indoor guidance of autonomous ground vehicles based on collaborative smart cameras | |
Krishna et al. | Autonomous observation of multiple USVs from UAV while prioritizing camera tilt and yaw over UAV motion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 21847247 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2022537914 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 21847247 Country of ref document: EP Kind code of ref document: A1 |