WO2023079852A1 - 情報処理装置、移動体および制御方法 - Google Patents

情報処理装置、移動体および制御方法 Download PDF

Info

Publication number
WO2023079852A1
WO2023079852A1 PCT/JP2022/035057 JP2022035057W WO2023079852A1 WO 2023079852 A1 WO2023079852 A1 WO 2023079852A1 JP 2022035057 W JP2022035057 W JP 2022035057W WO 2023079852 A1 WO2023079852 A1 WO 2023079852A1
Authority
WO
WIPO (PCT)
Prior art keywords
context
information processing
movement
mobile robot
range
Prior art date
Application number
PCT/JP2022/035057
Other languages
English (en)
French (fr)
Inventor
邦在 鳥居
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2023079852A1 publication Critical patent/WO2023079852A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions

Definitions

  • the present disclosure relates to an information processing device, a mobile object, and a control method.
  • the robot When the robot moves through narrow passages, it may interfere with the walking of pedestrians. For example, a robot and a pedestrian may face each other in opposite directions in a narrow passageway where they cannot cross each other. Also, pedestrians may collide with the robot when they jump out into the aisle. Also, when the robot is moving at a low speed in front of the pedestrian, it may interfere with the pedestrian walking at a higher speed than the robot.
  • Patent Document 1 As a technique for predicting a pedestrian's jumping-out, for example, there is a method of predicting a pedestrian's jumping-out from a change in the pedestrian's posture (that is, the shape of the object) (Patent Document 1). In addition, the time-series changes in the positions of the vehicle and the pedestrian are calculated from the moving speed, etc., and compared. There is a method of predicting whether or not a pedestrian will jump out in front of the vehicle (Patent Document 2).
  • the present disclosure has been made in view of the above-described problems, and suppresses obstruction of objects such as walking moving along a moving path when a moving body such as a robot moves along the moving path. for the purpose.
  • An information processing apparatus includes: an occupied range prediction unit that predicts, according to time, an occupied range occupied by the moving body on a moving path on which the moving body can move, based on a movement plan of the moving body; a movement control unit that predicts whether an object in the target environment will enter the occupied range based on sensing information obtained by sensing the target environment including the moving path, and controls the movement of the moving object based on the prediction result; Prepare.
  • FIG. 1 is a block diagram of a mobile robot as a mobile object including an information processing apparatus according to an embodiment of the present disclosure
  • FIG. Detailed block diagram of the environment recognition unit is a diagram of an example of the positional relationship between the mobile robot and the passenger when they move in opposite directions
  • FIG. 4 is a diagram showing an example of the positional relationship between the mobile robot and the passenger when they move in the same direction
  • FIG. 10 is a diagram showing an example of the positional relationship between the mobile robot and the passenger when the passenger enters the aisle
  • FIG. 4 is an explanatory diagram of the occupied range occupied by the mobile robot
  • FIG. 7 is a diagram showing a prediction example of the occupied range occupied by the mobile robot in FIG.
  • FIG. 6 The figure which shows an example of the positional relationship in which a mobile robot and a passenger turn their backs to each other and move in the opposite direction.
  • FIG. 4 is a diagram showing an example of a positional relationship in which a mobile robot and a passenger move in the same direction and the mobile robot precedes the passenger;
  • FIG. 10 is a diagram showing an example of prediction of the range occupied by the mobile robot in the example of FIG. 9;
  • FIG. 4 is a diagram showing an example of the positional relationship between a passenger seated on a seat and a mobile robot entering an aisle;
  • FIG. 4 is a flowchart showing an example of processing of the mobile robot 1000 according to the embodiment of the present disclosure;
  • FIG. 4 is a data flow diagram of processing according to the embodiment;
  • FIG. 1 shows a block diagram of a mobile robot 1000 as a mobile object including an information processing device according to an embodiment of the present disclosure.
  • Mobile robot 1000 includes sensing device 100 , communication device 200 , information processing device 300 , and driving device 400 .
  • the information processing device 300 is mounted on the mobile robot 1000, the information processing device 300 may be mounted on a server on a network so that the information processing device 300 can communicate with the mobile robot 1000 via the network. good.
  • the sensing device 100 includes sensors that detect the surrounding environment of the mobile robot 1000 .
  • Sensing device 100 includes an internal sensing device 110 and an external sensing device 120 .
  • the internal sensing device 110 is the first sensing device that the mobile robot 1000 has.
  • Internal sensing devices 110 include, for example, cameras, microphones, or gyroscopes.
  • a camera captures the surrounding environment as an image or video.
  • a microphone picks up sounds from the surrounding environment.
  • a gyroscope detects the posture of the mobile robot 1000 .
  • the internal sensing device 110 may also include a human sensor that detects the location of a person, a contact sensor that detects physical contact with the surrounding environment, and the like.
  • the internal sensing device 110 provides the acquired sensing information to the information processing device 300 .
  • the external sensing device 120 is a second sensing device installed in the surrounding environment of the mobile robot 1000, such as the seat, seat belt, wall, and floor.
  • the surrounding environment is not limited to a certain range around the mobile robot 1000, and may include the environment in which the mobile robot 1000 moves, that is, the environment of the entire aircraft.
  • the external sensing device 120 functions as a peripheral device of the mobile robot 1000 . By using the external sensing device 120, it is possible to obtain sensing information of a location or space that the mobile robot 1000 cannot sense directly.
  • the external sensing device 120 transmits the acquired sensing information to the information processing device 300 through the communication device 200 .
  • the external sensing device 120 includes, for example, a camera, microphone, or gyroscope. Also, the external sensing device 120 may include a seat sensor that detects whether a passenger is sitting on the seat. In addition, the external sensing device 120 is a sensor that detects lighting of the seating lamp when the seating lamp is installed to indicate whether or not the passenger is seated on the seat (or whether or not the seat belt is worn). may include The sensor may be a camera, a photodetector, or a device that receives a signal indicating that a lighting instruction has been issued from a control device that instructs lighting of the seating lamp. The external sensing device 120 may also include a sensor that detects lighting of a seat belt lamp that instructs the user to fasten the seat belt. The sensor may be a camera, a photodetector, or a device that receives a signal indicating that a lighting instruction has been issued from a control device that instructs lighting of the seatbelt lamp.
  • the communication device 200 is a module for performing communication between the information processing device 300 and peripheral devices.
  • the communication device 200 is used for communication between the external sensing device 120 as a peripheral device and the information processing device 300 .
  • the communication device 200 includes a communication unit 210 and a communication control unit 220.
  • the communication unit 210 includes an AD/DA converter, frequency converter, bandpass filter, amplifier, antenna, and the like.
  • the communication control unit 220 performs communication protocol processing and controls communication with a communication destination (for example, the external sensing device 120).
  • the communication unit 210 is wirelessly or wiredly connected to the external sensing device 120 .
  • communication unit 210 is wirelessly connected to external sensing device 120 .
  • the communication unit 210 receives sensing information from the external sensing device 120 and provides the sensing information to the information processing device 300 via the communication control unit 220 .
  • the communication unit 210 can also communicate with the external sensing device 120 via a relay device such as an access point.
  • the information processing device 300 predicts the entry of a person into a passage (moving route), predicts the occupation range of the mobile robot 1000 in the passage, and predicts the mobile robot 1000 based on these prediction results. movement control, etc.
  • the information processing device 300 includes an environment recognition section 310 , an entry prediction section 320 , an occupation range prediction section 330 , a movement control section 340 and an action planning section 350 .
  • the environment recognition unit 310 recognizes the state of the cabin (target environment) based on the information from the sensing device 100 .
  • the environment recognizing unit 310 recognizes the in-flight environment as a context based on at least one of the internal sensing information and the external sensing information.
  • the context is a global context that represents the state of the entire target environment (for example, the overall state that is commonly recognized by all passengers), and a local context that represents a part of the target environment (target environment local state in ).
  • the local context may indicate, for example, the state of the passenger, the state of the seat, the state of a particular position in the aisle.
  • FIG. 2 is a detailed block diagram of the environment recognition unit 310.
  • the environment recognizer 310 includes a global context recognizer 311 and a local context recognizer 312 .
  • the global context recognition unit 311 recognizes global context based on at least one of internal sensing information and external sensing information.
  • a local context recognizer 312 recognizes a local context based on at least one of internal sensing information and external sensing information.
  • the global context recognition unit 311 recognizes, as a global context, conditions related to the entire airplane, such as whether the seatbelt lamp is on, whether a movie is being broadcast, the tilt of the aircraft, the speed of the aircraft, the shaking of the aircraft, and the like. to recognize The global context recognizer 311 provides the entry predictor 320 and the action planner 350 with information indicating the global context.
  • the local context recognition unit 312 includes a human context recognition unit 3121 (first context recognition unit) and a peripheral context recognition unit 3122 (second context recognition unit).
  • the human context recognition unit 3121 recognizes a human state (human context) as a local context. For example, the human context recognition unit 3121 recognizes the state of the passenger 600, for example, whether the passenger is eating, whether the passenger is sleeping, whether the passenger is moving, whether the passenger is wearing a seatbelt, and where the passenger is on the plane. It recognizes which aisle in the aircraft and in which direction it is moving.
  • the peripheral context recognition unit 3122 recognizes the state of the environment around the passenger (peripheral context) as a local context. For example, the surrounding context recognition unit 3122 determines whether the table is unfolded, whether the backrest of the seat is reclined, whether the person next to you is sleeping, and whether there is an obstacle such as luggage on the floor. Recognize where it is placed.
  • the action planning unit 350 plans the movement route and movement speed from the starting point to the destination of the mobile robot 1000 .
  • the action planning unit 350 holds information (action plan) indicating the planned movement route and movement speed as a movement plan for the mobile robot 1000 .
  • the action plan section 350 may include a storage section that stores action plans.
  • the action planner 350 includes a route planner 351 and a speed planner 352 .
  • the route planning unit 351 plans the movement route from the starting point of the mobile robot 1000 to the destination.
  • the travel route planned by the route planning unit 351 is not limited to the aisles in the aircraft, but also includes places connecting aisles.
  • the speed planning unit 352 plans the movement speed of each section (each passage) of the movement route of the mobile robot.
  • the action planning unit 350 may also plan waiting times at locations included in the movement route, work to be done at the locations, and the like.
  • the method of planning the movement route and movement speed is not particularly limited in this embodiment, and any method may be used.
  • an algorithm that generates an action plan from an in-flight environment map by inputting a departure point, destination, destination, work to be done on the way, etc. may be used.
  • the environment map may be represented by a graph in which each point arranged in the aircraft is a node and a route connecting the points is an edge.
  • the action plan may be prepared in advance by the operator and provided in the form of digital data that can be interpreted by the mobile robot.
  • the action plan (planned movement route and movement speed) can be updated by control information from the movement control unit 340 .
  • the entry prediction unit 320 performs entry prediction as to whether or not the passenger will enter at least one partial region (first region) of the target aisle based on the global context and the local context, depending on time (time series )conduct. That is, the entry prediction unit 320 predicts the time range (first time range) in which the passenger will enter the partial area.
  • a passage to be predicted is, for example, a passage included in the route planned in the action plan.
  • the entry prediction unit 320 may calculate the probability that the passenger will enter the partial area of the target passage according to time.
  • the entry prediction unit 320 may predict the direction in which the passenger will move after entering the sub-region of the aisle. For example, if the local context predicts that the passenger will move to the toilet (e.g., when motion is detected such as the passenger looking in the direction of the toilet), the passenger moves down the aisle in the direction to the nearest toilet. You may predict as a direction.
  • the occupied range prediction unit 330 is an occupied range prediction unit that predicts the occupied range occupied by the mobile robot 1000 in the target passage according to time (in time series). Specifically, the occupied range prediction unit 330 predicts the occupied range of the mobile robot 1000 according to time (predicts the occupied range in time series) based on the action plan (path plan and speed plan) of the mobile robot 1000. . In other words, the occupied range prediction unit 330 predicts the time range (second time range) in which the mobile robot 1000 occupies each partial area included in the passage. The occupied range prediction unit 330 may predict the occupied range or the time range (second time range) based on the direction of movement of the passenger in the aisle predicted by the entry prediction unit 320 .
  • the movement control unit 340 controls the mobile robot 1000 based on the action plan to move the mobile robot 1000 to the destination. That is, the movement control unit 340 moves the mobile robot 1000 at the planned movement speed along the movement route planned in the action plan.
  • the movement control unit 340 predicts whether a passenger will enter the occupied range based on sensing information obtained by sensing the interior of the aircraft (target environment), and controls the movement of the moving body based on the prediction result.
  • a context obtained by transforming sensing information may be used for prediction.
  • the movement control section 340 controls the movement of the mobile robot 1000 based on the prediction result of the entry prediction section 320 and the prediction result of the occupied range prediction section 330 .
  • the movement control unit 340 provides the action planning unit 350 with information (control information) indicating the details of the control, causes the action planning unit 350 to update the action plan, and controls the driving device 400 based on the updated action plan. , control the movement of the mobile robot 1000 .
  • the movement control unit 340 may directly control the driving device 400 with the determined control contents in parallel with updating the action planning unit 350 .
  • the movement control unit 340 may control the movement of the mobile robot 1000 based on the time range predicted by the entry prediction unit 320 for the passenger to enter the partial area of the passage.
  • the movement control unit 340 may control the movement of the mobile robot 1000 based on the entry probability into the partial area of the passage calculated by the entry prediction unit 320 .
  • the movement control unit 340 determines that the passenger enters the passage partial area when the entry probability is equal to or greater than the threshold, and decides that the passenger does not enter the passage partial area when the entry probability is less than the threshold. You may When determining whether a passenger enters a partial area of the aisle, the time required for the passenger to exit the aisle from the seat may be taken into consideration. For example, the time may be determined according to the distance from the seat to the aisle.
  • the movement control unit 340 determines that the passenger will enter the area occupied by the mobile robot 1000 at the timing when the passenger enters the partial area of the aisle, the movement control unit 340 does not allow the mobile robot 1000 to enter the aisle, and instead moves the mobile robot 1000 into an empty space near the entrance of the aisle. It may be controlled to wait for a certain period of time. Alternatively, the movement control unit 340 may increase the movement speed of the mobile robot 1000 so that the passenger does not enter the area occupied by the mobile robot 1000 when the passenger enters the partial area of the passage. The movement control unit 340 may control the movement of the mobile robot 1000 based on the predicted movement direction of the pedestrian in the passage. Controlling the mobile robot 1000 in this manner reduces the possibility that the mobile robot 1000 will interfere with other people walking in the corridor.
  • the movement control section 340 is connected to the action planning section 350 and provides control information for the mobile robot 1000 to the action planning section 350 .
  • the control information for the mobile robot 1000 is information indicating to make the mobile robot 1000 wait for a certain time before the entrance of the passage.
  • the action plan unit 350 updates the action plan based on the control information from the movement control unit 340.
  • the route planning unit 351 changes the route in the action plan when the movement route of the mobile robot 1000 is changed. For example, when it is decided to temporarily wait in an empty space beside the entrance of a passage, the action plan (route plan) is changed so as to temporarily evacuate to the empty space. Further, when the moving speed of the mobile robot 1000 is changed, the speed planning unit 352 changes the action plan (speed plan) so that the moving speed in the corresponding passage is set to a faster value or a slower value.
  • the driving device 400 is a power unit for moving the mobile robot 1000 .
  • Drive device 400 includes a drive control section 410 and a drive section 420 .
  • Drive unit 420 includes, for example, a motor and wheels.
  • Drive control section 410 controls drive section 420 based on the control of movement control section 340 .
  • the drive control unit 410 controls the drive unit 420 based on the physical properties of the mobile robot 1000 , such as the body size and weight, and the mechanical properties of the drive unit 420 . By operating the drive unit 420, the wheels are rotated by the motor, and the mobile robot 1000 moves.
  • FIG. 3 shows an example of a positional relationship that hinders passage of the mobile robot 1000 and the passenger 600 when the mobile robot 1000 and the passenger 600 move in opposite directions in the aisle 510B in an airplane.
  • a set of three seats 121 are arranged as a seat block with a certain interval in the front, back, left and right.
  • the seat 121 or the like is provided with an external sensing device 120 (see FIG. 1).
  • Aisles 510 (510A, 510B) are provided between the left and right of the seat block.
  • the passageway 510 has a width that allows the mobile robot 1000 and a passenger to move independently, but does not have a width that allows them to cross each other.
  • Aisles 520 (520A, 520B) are provided between the front and rear seats 121. Passageway 520 is connected to passageway 510 . Aisle 520 is used by passenger 600 to exit seat 121 to aisle 510 . Assume that the passageway 520 is narrow and the mobile robot 1000 cannot move through the passageway 520 . However, the case where the mobile robot 1000 has a width that allows it to move through the passage 520 is not excluded.
  • mobile robot 1000 and passenger 600 When mobile robot 1000 and passenger 600 move in the directions of the arrows in aisle 510B, mobile robot 1000 and passenger 600 may collide.
  • FIG. 4 shows an example of a positional relationship that hinders passage of the mobile robot 1000 and the passenger 600 when the mobile robot 1000 and the passenger 600 move in the same direction in the aisle 510B in an airplane.
  • the mobile robot 1000 moves in the direction that the passenger 600 is chasing. If the moving speed of mobile robot 1000 is slower than the walking speed of passenger 600 , passenger 600 may catch up with mobile robot 1000 . In this case, the mobile robot 1000 may obstruct traffic.
  • FIG. 5 shows an example of a positional relationship in which the mobile robot 1000 obstructs the passage of the passenger 600 when the passenger 600 moves from the aisle 520 to the aisle 510B in the airplane.
  • FIG. 6 is an explanatory diagram of the occupied range occupied by the mobile robot 1000.
  • FIG. 7 shows a prediction example of the occupied range occupied by the mobile robot 1000 of FIG.
  • Mobile robot 1000 has a size that at least partially straddles two of them at any point in passageway 510B. For example, if the head of mobile robot 1000 is included in partial area 510_2, the tail of mobile robot 1000 is included in partial area 510_1. For example, assume that mobile robot 1000 passes through a partial area of path 510B every X (where X is any real number) seconds. When the mobile robot 1000 is positioned across the partial areas 510_1 and 510_2, the mobile robot 1000 will be positioned across the partial areas 510_2 and 510_3 after X seconds at the latest.
  • mobile robot 1000 and passenger 600 cannot pass each other in aisle 510B.
  • mobile robot 1000 In order not to cause problems such as collisions with passenger 600 moving in the illustrated direction, mobile robot 1000 must be kept from the position of mobile robot 1000 until it reaches partial area 510_7 after mobile robot 1000 enters partial area 510_1. It is necessary to occupy up to area 510_7. More specifically, mobile robot 1000 needs to occupy a partial area including at least part of mobile robot 1000 to partial area 510_7.
  • occupation means that objects other than the mobile robot 1000 (passengers, etc.) do not enter the area to be occupied (occupied range or occupied area).
  • Mobile robot 1000 can avoid or reduce collisions with passengers in aisle 510B by moving aisle 510B only when it is determined that no passenger will enter the occupied area.
  • the occupied range is partial areas 510_2 to 510_7 since the passed partial area 510_1 is excluded as shown in FIG. 7(B).
  • the occupied range is partial areas 510_3 to 510_7 since the partial areas 510_1 and 510_2 that have already passed are excluded, as shown in FIG. 7(C).
  • the mobile robot 1000 finishes passing through the final partial area 510_7, and the entire path 510B (partial areas 510_3 to 510_7) is released.
  • FIG. 8 A specific example will be described with reference to FIGS. 8 to 10.
  • FIG. 8 shows an example of a positional relationship in which the mobile robot 1000 and the passenger 600 turn their backs to each other and move in opposite directions.
  • Passenger 600 is shown moving in the direction opposite to mobile robot 1000 in the aisle portion unoccupied by mobile robot 1000 .
  • passenger 600 does not collide with mobile robot 1000 because passenger 600 is not included in the occupation range of mobile robot 1000 .
  • FIG. 9 shows an example of a positional relationship in which mobile robot 1000 and passenger 600 move in the same direction and mobile robot 1000 precedes passenger 600 .
  • FIG. 10 shows an example of prediction of the range occupied by the mobile robot 1000 in the example of FIG.
  • the passage 510B does not have a width that allows the mobile robot 1000 and the passenger 600 to pass each other. That is, when the passenger 600 walks faster than the mobile robot 1000, the passenger 600 cannot overtake the mobile robot 1000.
  • the mobile robot 1000 moves along the passage 510B, thereby avoiding collision with the passenger. can avoid the problem of Since the area in front of the mobile robot 1000 is out of the occupied range, even if the passenger 600 enters the outside of the occupied range through the aisle 520A or the like, collision with the mobile robot 1000 is avoided. This is because even if the moving speed of passenger 600 is slow, mobile robot 1000 can autonomously reduce the moving speed.
  • the occupied range is partial areas 510_1 to 510_3, including the passed partial areas, as shown in FIG. 10(B).
  • the occupied range is partial areas 510_1 to 510_7 including the passed partial areas, as shown in FIG. 10(C).
  • t7 seconds as shown in FIG. 10(D)
  • the mobile robot 1000 finishes passing the last partial area 510_7, and the entire path 510B (partial areas 510_3 to 510_7) is released.
  • FIGS. 11 to 13 An operation example of the mobile robot 1000 will be described below with reference to FIGS. 11 to 13, taking as an example the case where the passenger 600_2 seated on the seat 121 enters the aisle 510B from the aisle 520B.
  • FIG. 11 shows an example of the positional relationship between passenger 600_2 seated on seat 121 and mobile robot 1000 entering passage 510B.
  • FIG. 12 shows an example of calculating the possibility of passenger 600_2 entering passage 510B according to time (time series) based on the global context acquired by mobile robot 1000 .
  • FIG. 13 shows an example of time-series calculation of the possibility of passenger 600_2 entering passage 510B based on the local context acquired by mobile robot 1000 .
  • the passenger 600_2 leaves the seat 121, moves to a destination (for example, a restroom), uses the restroom at the destination, and then returns to the seat 121.
  • a destination for example, a restroom
  • the destination is area 530 .
  • Passenger 600_2 leaves his seat 121, passes through aisle 520B, and exits to aisle 510B. Passenger 600_2 moves to area 530 through aisle 510B. Passenger 600_2 returns to seat 121 after running errands in area 530 .
  • the route back to seat 121 may be the same as the route taken when going to area 530, or it may be different.
  • FIG. 12 above shows an example of calculating the possibility (for example, the probability of entry) of the passenger 600_2 entering the passage 510B or the partial area 510_3 after the fasten seatbelt sign is released.
  • the global context includes, for example, information indicating whether the seat belt sign is on or off.
  • Passenger 600_2 is more likely to move inside the plane after the seatbelt sign is released, so mobile robot 1000 sets a value (entry possibility) indicating the possibility that passenger 600_2 will enter aisle 510B. becomes higher.
  • the approachability gradually decreases as time passes, and the approachability converges to a constant value after a certain period of time.
  • Such a time transition (graph) of the possibility of entry may be determined in advance according to the type of global context and the value of the global context. For example, a lookup table storing global context types, global context values, and access possibility graphs may be used. One or more types of global contexts may be used for calculating the possibility of entry.
  • the value indicating the possibility of approach may be the probability of entering (probability of approach), or may be a binary value (eg, 1 or 0) representing the presence or absence of the possibility of approach.
  • Examples of global context other than whether the seatbelt sign is on include whether the plane is taking off or arriving, whether the plane has entered an air pocket, whether a video is playing on the common screen on the plane, and whether the plane
  • the extent of the tremors, whether or not in-flight meals are being distributed, etc. are possible. In FIG. 12, the possibility of entry decreases with time, but it may increase depending on the type and value of the global context.
  • FIG. 13 above shows an example of calculating the possibility (for example, the probability of entry) of passenger 600_2 entering passage 510B or partial area 510_3 based on the local context of passenger 600_2. Passenger 600_2 is seated in seat 121 when the accessibility is calculated.
  • the mobile robot 1000 detects that the passenger 600_2 is unfolding the table provided on the seat 121 as a local context (peripheral context). Also, the mobile robot 1000 detects that the passenger 600_2 is eating as a local context (human context). From both local contexts, the mobile robot 1000 determines that the passenger 600_2 is not in a state suitable for movement, and sets the possibility of entry of the passenger 600_2 to zero or a low value (zero in the example shown).
  • the possibility of entry may be calculated from the surrounding context, the possibility of entry may be calculated from the human context, and the minimum value, average value, maximum value, etc. of both the possibilities of entry may be adopted.
  • the possibility of entry may be calculated using a function in which the values of a plurality of contexts including both contexts are used as input variables and the possibility of entry is used as an output variable.
  • Mobile robot 1000 detects as a local context that the passenger 600_2 has folded the table and finished eating at time t2.
  • Mobile robot 1000 also detects as a local context that passenger 600_2 frequently looks in the direction of aisle 510B. Since the passenger 600_2 has folded the table and finished eating, it is considered that the situation is such that it is easy for the passenger 600_2 to move from the seat 121 . Also, since the passenger 600_2 is looking in the direction of the aisle 510B, it is highly possible that he/she wants to go out to the aisle 510B.
  • the mobile robot 1000 calculates entry probabilities from these local contexts. An example of calculation is similar to the method described above. As a result, the mobile robot 1000 calculates the possibility of entry to the value shown in FIG. 13 from time t2 to t4 after a certain period of time.
  • the mobile robot 1000 calculates a prediction result indicating the final possibility of entry based on the possibility of entry calculated from the global context and the possibility of entry calculated from the local context.
  • Mobile robot 1000 calculates a prediction result for each partial area in passage 510B, for example.
  • the mobile robot 1000 may calculate the prediction result at regular time intervals.
  • the mobile robot 1000 may calculate a prediction result each time it moves a fixed distance or reaches a specific point (position).
  • the upper diagram of FIG. 14 shows a state in which the approach possibility graph of FIG. 12 and the approach possibility graph of FIG. 13 are superimposed.
  • the mobile robot 1000 determines the minimum value among the values indicated by both graphs at each time as the prediction result.
  • the lower part of FIG. 13 is a graph showing the minimum value among the values shown by both graphs for each time.
  • the movement control unit 340 controls the movement of the mobile robot 1000 based on the possibility of entry (prediction result) predicted by the entry prediction unit 320 and the occupied range corresponding to the time predicted by the occupied range prediction unit 330 . For example, the movement control unit 340 controls the entry timing and movement speed of the mobile robot 1000 into the path. This reduces the possibility of obstructing the passage of other people in the aisle.
  • the movement control section 340 is connected to the action planning section 350 and provides the action planning section 350 with information on the timing of entry and movement speed.
  • FIG. 15(A) shows an example in which the occupation range prediction unit 330 predicts the range of time during which the partial area 510_3 is occupied.
  • the prediction result of the possibility of entry of passenger 600_2 is as shown in the lower diagram of FIG.
  • the situation of FIG. 11 is assumed here. For simplicity of explanation, passengers other than passenger 600_2 are not considered.
  • Passengers other than passenger 600_2 and other partial areas may be similarly processed. That is, for each other partial area, it is determined whether or not it can be occupied based on the range of occupied time and the predicted result of the possibility of entry into the other partial area by other passengers. If it is determined that all the partial areas (510_1 to 510_7) can be occupied within the respective occupancy time ranges, the mobile robot 1000 moves along the path 510B as planned. If it is determined that the range of occupancy time in at least one partial area is likely to be entered by another passenger, it does not enter the aisle 510B and waits in a nearby empty space.
  • FIG. 15(B) shows another example in which the occupation range prediction unit 330 predicts the time range in which the partial area 510_3 is occupied.
  • the prediction result of the possibility of entry of passenger 600_2 is as shown in the lower diagram of FIG.
  • the situation of FIG. 11 is assumed here. For simplicity of explanation, passengers other than passenger 600_2 are not considered.
  • a passenger may enter the partial area 510_3 in the range from time t2 to t4. For example, from time t2 to t4, the possibility of entry (probability) is greater than the threshold. Therefore, if the mobile robot 1000 moves as planned, it is highly likely or highly likely that problems such as collisions with passengers will occur. Therefore, mobile robot 1000 does not enter passage 510B until time t4 and waits in an empty space. At time t4, the action plan is changed so as to enter passage 510B. As a result, the mobile robot 1000 can avoid colliding with the passenger 600_2.
  • FIG. 16 shows a flowchart illustrating an example of processing of the mobile robot 1000 according to an embodiment of the present disclosure.
  • FIG. 17 shows the data flow of processing according to this embodiment.
  • the sensing device 100 senses the target environment (inside the aircraft) and acquires sensing information (S1001 in FIG. 16).
  • the environment recognition unit 310 calculates a global context and a local context from the acquired sensing information (S1002 in FIG. 16, P311, P3121 and P3122 in FIG. 17).
  • Local context includes person context and peripheral context.
  • the entry prediction unit 320 predicts the probability of a passenger entering (predicted value of possibility of entry) for each position (partial region) included in the passage scheduled in the action plan created in advance by the action planning unit 350. Prediction is made accordingly (S1003 in FIG. 16, P320 in FIG. 17).
  • the action planning unit 350 predicts the movement of the mobile robot 1000 based on the action plan (path plan P351, speed plan P352 in FIG. 17) (S1004 in FIG. 16, P350 in FIG. 17). For example, the action plan unit 350 determines a route to be traveled and a travel speed in each section in the route based on the action plan.
  • the occupied range prediction unit 330 predicts the occupancy range for each position included in the passageway planned in the action plan. is predicted (S1005 in FIG. 16, P330 in FIG. 17).
  • the movement control unit 340 calculates the entry timing and movement speed into the aisle based on the prediction results of the entry prediction unit 320 and the occupation range prediction unit 330 (S1006 in FIG. 16, P340_A in FIG. 17). Specifically, the movement control unit 340 calculates the entry timing and movement speed at which the probability that the passenger will enter the passage is equal to or less than a threshold within the occupation time range for each partial area (position) included in the passage. .
  • the movement control unit 340 controls the driving device 400 to move the mobile robot 1000 at the calculated entry timing and movement speed. As a result, the mobile robot 1000 moves through the passage without colliding with passengers (S1007 in FIG. 16, P340_B in FIG. 17). More specifically, the movement control unit 340 provides the action planning unit 350 with control information including entry timing and movement speed. The action plan section 350 updates the action plan based on the control information. The movement control unit 340 controls the driving device 400 based on the updated action plan.
  • a mobile robot may move through an event hall such as a concert hall or an office corridor.
  • the global context may be information such as whether it is break time or not, or whether the event is lively. If it is the break time, the possibility (probability) of the pedestrian entering the passage may be increased. If the event is lively, the possibility (probability) of pedestrians entering the aisle may be reduced.
  • a person is used as an object that moves in the target environment (airplane), but an animal other than a person may be used, or a mobile device different from a mobile robot may be used.
  • a mobile device different from a mobile robot may be used.
  • it may be an autonomously moving cleaning device that cleans the interior of the machine.
  • All or part of the environment recognition unit 310, the entry prediction unit 320, the occupation range prediction unit 330, the movement control unit 340, and the action planning unit 350 of the mobile robot 1000 are provided in a server (cloud) on the network. good too.
  • the server is configured to communicate with the mobile robot 1000, and the server sends data or instructions to the mobile robot.
  • the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the gist of the present invention at the implementation stage. Further, various inventions can be formed by appropriate combinations of the plurality of constituent elements disclosed in the above embodiments. For example, some components may be omitted from all components shown in the embodiments. Furthermore, components across different embodiments may be combined as appropriate.
  • this disclosure can also take the following structures.
  • an occupied range prediction unit that predicts, based on the movement plan of the mobile body, an occupied range that the mobile body occupies on a moving route along which the mobile body can move according to time; a movement control unit that predicts whether an object in the target environment will enter the occupied range based on sensing information obtained by sensing the target environment including the movement path, and controls the movement of the moving object based on the prediction result; information processing device.
  • the sensing information includes first sensing information and second sensing information, a global context unit that recognizes the global context of the target environment based on the first sensing information; a local context recognition unit that calculates a local context of the target environment based on the second sensing information;
  • the information processing apparatus according to item 1, wherein the movement control unit predicts whether the object will enter the occupied range based on the global context and the local context.
  • the local context recognizer a first context recognition unit that recognizes a first context representing the state of the object as the local context; 3.
  • the information processing apparatus according to item 2 further comprising: a second context recognition unit that recognizes a second context representing a state of the surrounding environment of the object as the local context.
  • the occupied range prediction unit predicts a second time range in which the mobile body occupies the partial area on the movement path based on the movement plan of the mobile body, 7.
  • the information processing apparatus according to any one of items 1 to 6, wherein the movement control unit predicts whether the object will enter the occupied range based on the first time range and the second time range.
  • the entry prediction unit calculates an entry probability of the object into the partial area according to time, Item 9.
  • the information processing apparatus according to item 7 or 8, wherein the movement control unit predicts the first time range based on the entry probability of the object.
  • the entry prediction unit determines that the object will enter the partial area when the entry probability is equal to or greater than a threshold, and determines that the object will not enter the partial area when the entry probability is less than the threshold.
  • the information processing device according to Item 9.
  • the sensing information includes first sensing information and second sensing information, a global context unit that recognizes the global context of the target environment based on the first sensing information; a local context recognition unit that calculates a local context of the target environment based on the second sensing information;
  • the information processing device according to any one of Items 7 to 10, wherein the movement control unit predicts the first time range based on the global context and the local context.
  • the local context recognizer a first context recognition unit that recognizes a first context representing the state of the object as the local context; 12.
  • the information processing apparatus according to item 11, further comprising: a second context recognition unit that recognizes a second context representing a state of the surrounding environment of the object as the local context.
  • 13 13.
  • the information processing device according to any one of items 1 to 12, further comprising a first sensing device that acquires the sensing information by sensing the target environment.
  • [Item 14] 14 The information processing device according to any one of items 1 to 13, further comprising a communication unit that acquires the sensing information by communication from a second sensing device arranged in the target environment.
  • the moving path is a path that does not have a width that allows the object and the moving body to pass each other.
  • the object is a person.

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

ロボット等の移動体が移動路を移動する際に、移動路を移動する歩行等の物体の妨げとなることを抑制するため、本開示の実施形態にかかる情報処理装置は、移動体の移動計画に基づき、前記移動体が移動可能な移動路を前記移動体が占有する占有範囲を時間に応じて予測する占有範囲予測部と、前記移動路を含む対象環境をセンシングしたセンシング情報に基づき、前記対象環境内の物体が前記占有範囲に進入するかを予測し、予測結果に基づき前記移動体の移動を制御する移動制御部とを備える。

Description

情報処理装置、移動体および制御方法
 本開示は、情報処理装置、移動体および制御方法に関する。
 ロボットが狭い通路を移動する際、歩行者の歩行の妨害になる可能性がある。例えば、ロボットと歩行者とが互いに交差できない狭い通路で、互いに逆方向に向かい合う場合がある。また歩行者が通路に飛び出した時にロボットと衝突する場合がある。また、ロボットが歩行者の前方で低速で移動しているときに、ロボットより高速に歩行する歩行者の妨げになる場合がある。
 歩行者の飛び出しを予測する技術として、例えば、歩行者の姿勢(すなわち、対象物の形状)の変化から歩行者の飛び出しを予測する手法がある(特許文献1)。また、車両と歩行者それぞれの位置の時系列変化を移動速度等から算出して比較し、更には歩行者が車道に飛び出す可能性を周辺情報から算出して、自車両が移動している車道に歩行者が飛び出すか否かを予測する手法がある(特許文献2)。
 これらの技術は、歩行者による車道への飛び出しおよび飛び出した際の車両との衝突に特化しており、ロボットが通路を移動する際に歩行者の進行を妨げることを軽減することに対して十分ではない。
 複数台のロボットの制御システムにおいてロボット間の進入判断を通路リソースの排他制御により行う技術もある。この技術はロボット間を対象とする技術であり、歩行者とロボット間を対象とするものではない。
特開2012-122337号公報 特開2010-102437号公報
 本開示は、上述したような問題点に鑑みてなされたものであり、ロボット等の移動体が移動路を移動する際に、移動路を移動する歩行等の物体の妨げとなることを抑制することを目的とする。
 本開示の実施形態にかかる情報処理装置は、移動体の移動計画に基づき、前記移動体が移動可能な移動路を前記移動体が占有する占有範囲を時間に応じて予測する占有範囲予測部と、前記移動路を含む対象環境をセンシングしたセンシング情報に基づき、前記対象環境内の物体が前記占有範囲に進入するかを予測し、予測結果に基づき前記移動体の移動を制御する移動制御部とを備える。
本開示の実施形態の情報処理装置を含む移動体として移動ロボットのブロック図。 環境認識部の詳細ブロック図。 移動ロボットと乗客とが逆方向に動く場合の両者の位置関係の一例の図。 移動ロボットと乗客とが同方向に動く場合の両者の位置関係の一例を示す図。 通路に乗客が進入する場合の移動ロボットと乗客の位置関係の一例を示す図。 移動ロボットが占有する占有範囲の説明図。 図6の移動ロボットが占有する占有範囲の予測例を示す図。 移動ロボットと乗客が互いに背を向けて、逆方向に移動する位置関係の一例を示す図。 移動ロボットと乗客が同方向に移動し、移動ロボットが乗客に先行する位置関係の一例を示す図。 図9の例において移動ロボットが占有する範囲の予測例を示す図。 座席に着席した乗客と通路に進入する移動ロボットとの位置関係の例を示す図。 グローバルコンテキストに基づき乗客が通路に進入する可能性を時系列に計算した例を示す図。 ローカルコンテキストに基づき乗客が通路に進入する可能性を時系列に計算した例を示す図。 図12の進入可能性グラフと図13の進入可能性グラフとを重ねた状態を示す図。 占有範囲予測部が部分領域を占有する時間の範囲を予測した例を示す図。 本開示の実施形態に係る移動ロボット1000の処理の一例を示すフローチャート。 本実施形態に係る処理のデータフロー図。
 図1は、本開示の実施形態の情報処理装置を含む移動体として移動ロボット1000のブロック図を示す。移動ロボット1000は、センシング装置100と、通信装置200と、情報処理装置300と、駆動装置400と、を含む。
 本開示の実施形態では、移動ロボット1000は、飛行機の機内の通路を移動する例を記載するが、人等の物体が移動可能な通路(移動路)を有する場所であれば、飲食店、オフィス、スタジアムなど任意の場所でよい。また情報処理装置300は、移動ロボット1000に搭載されているが、情報処理装置300がネットワーク上のサーバーに搭載され、情報処理装置300がネットワークを介して移動ロボット1000と通信可能に構成されてもよい。
 センシング装置100は、移動ロボット1000の周辺環境を検出するセンサを含む。センシング装置100は、内部センシング装置110と、外部センシング装置120と、を備える。
 内部センシング装置110は、移動ロボット1000が備える第1センシング装置である。内部センシング装置110は、例えば、カメラ、マイク、又はジャイロスコープを含む。カメラは、周辺環境を画像又は映像として取得する。マイクは、周辺環境の音を取得する。ジャイロスコープは、移動ロボット1000の姿勢を検出。また、内部センシング装置110は、人間の所在を検知する人感センサ、周辺環境との物理的な接触を検知する接触センサなどを含んでもよい。内部センシング装置110は、取得したセンシング情報を情報処理装置300に提供する。
 外部センシング装置120は、座席、座席ベルト、壁、床など、移動ロボット1000の周辺環境に設置された第2センシング装置である。なお周辺環境は移動ロボット1000を中心とした一定範囲に限定されず、移動ロボット1000が移動する環境、つまり、機内全体の環境を含み得る。外部センシング装置120は、移動ロボット1000の周辺装置として機能する。外部センシング装置120を用いることで、移動ロボット1000が直接センシングできない箇所又は空間のセンシング情報を取得できる。外部センシング装置120は、取得したセンシング情報を通信装置200により情報処理装置300に送信する。
 外部センシング装置120は、例えばカメラ、マイク、又はジャイロスコープを含む。また、外部センシング装置120は、乗客が座席に座っているか否かを検出する着座センサを含んでもよい。また外部センシング装置120は、座席に乗客が着座しているか否か(あるいは座席ベルトを装着しているか否か)を示す着座ランプが設置されている場合に、当該着座ランプの点灯を検出するセンサを含んでもよい。当該センサはカメラでもよいし、光検出装置でもよいし、着座ランプの点灯を指示する制御装置から点灯指示を行ったことを示す信号を受信する装置でもよい。また外部センシング装置120は、座席ベルトの着用を指示する座席ベルトランプの点灯を検出するセンサを含んでもよい。当該センサはカメラでもよいし、光検出装置でもよいし、座席ベルトランプの点灯を指示する制御装置から点灯指示を行ったことを示す信号を受信する装置でもよい。
 通信装置200は、情報処理装置300と周辺装置間の通信を行うためのモジュールである。通信装置200は、周辺装置である外部センシング装置120と情報処理装置300間の通信に用いられる。
 通信装置200は、通信部210と、通信制御部220とを含む。通信部210は、AD/DA変換器、周波数コンバータ、帯域フィルタ、増幅器、アンテナなどを備える。通信制御部220は、通信プロトコルの処理を行い、通信先(例えば外部センシング装置120)との通信を制御する。通信部210は、外部センシング装置120と無線又は有線で接続される。本開示の実施形態では、通信部210は、外部センシング装置120と、無線で接続される。通信部210は、外部センシング装置120からセンシング情報を受信し、センシング情報を、通信制御部220を介して情報処理装置300に提供する。通信部210は、アクセスポイント等の中継装置を介して、外部センシング装置120と通信することも可能である。
 情報処理装置300は、内部センシング情報及び外部センシング情報の少なくとも一方を元に、通路(移動路)における人の進入予測、通路における移動ロボット1000の占有範囲の予測、これらの予測結果に基づく移動ロボットの移動の制御等を行う。
 情報処理装置300は、環境認識部310と、進入予測部320と、占有範囲予測部330と、移動制御部340と、行動計画部350とを含む。
 環境認識部310は、センシング装置100からの情報をもとに機内(対象環境)の状態を認識する。環境認識部310は、内部センシング情報及び外部センシング情報の少なくとも一方に基づき機内の環境をコンテキストとして、認識する。
 コンテキストは、対象環境全体の状態を表すコンテキストであるグローバルコンテキスト(例えば乗客全員に共通に認識されるような全体の状態)と、対象環境の一部の状態を表すコンテキストであるローカルコンテキスト(対象環境における局所的な状態)とを含む。ローカルコンテキストは、例えば、乗客の状態、座席の状態、通路の特定の位置の状態を示す。
 図2は、環境認識部310の詳細ブロック図である。環境認識部310は、グローバルコンテキスト認識部311と、ローカルコンテキスト認識部312と、を含む。グローバルコンテキスト認識部311は、内部センシング情報及び外部センシング情報の少なくとも一方に基づきグローバルコンテキストを認識する。ローカルコンテキスト認識部312は、内部センシング情報及び外部センシング情報の少なくとも一方に基づきローカルコンテキストを認識する。
 グローバルコンテキスト認識部311は、グローバルコンテキストとして、例えば、飛行機全体に関わる状態、例えば、座席ベルトランプが点灯しているか、映画が放映中か否か、機体の傾き、機体の速度、機体の揺れなどを認識する。グローバルコンテキスト認識部311は、グローバルコンテキストを示す情報を進入予測部320及び行動計画部350に提供する。
 ローカルコンテキスト認識部312は、人コンテキスト認識部3121(第1コンテキスト認識部)と、周辺コンテキスト認識部3122(第2コンテキスト認識部)とを含む。
 人コンテキスト認識部3121は、ローカルコンテキストとして、人の状態(人コンテキスト)を認識する。例えば、人コンテキスト認識部3121は、乗客600の状態、例えば、乗客が食事中か否か、乗客が睡眠中か否か、乗客が移動中か否か、乗客の座席ベルト着用有無、機内のどこにいるか、機内のどの通路をどの方向に移動中かなどを認識する。
 周辺コンテキスト認識部3122は、ローカルコンテキストとして、乗客の周囲の環境の状態(周辺コンテキスト)を認識する。例えば、周辺コンテキスト認識部3122は、備え付けテーブルが展開されているか否か、座席の背もたれが倒されているか、隣の人が寝ているか否か、床に荷物等の歩行の障害となる物が置かれているかなどを認識する。
 行動計画部350は、移動ロボット1000の出発地から目的地までの移動経路と移動速度を計画する。行動計画部350は、計画した移動経路と移動速度とを示す情報(行動計画)を、移動ロボット1000の移動計画として保持する。行動計画部350は、行動計画を記憶する記憶部を備えていてもよい。行動計画部350は、経路計画部351と、速度計画部352と、を含む。
 経路計画部351は、移動ロボット1000の出発地から目的地までの移動経路を計画する。経路計画部351が計画する移動経路は、機内の通路のみに限られず、通路間を結ぶ場所も含む。速度計画部352は、移動ロボットにおける移動経路の各区間(各通路)の移動速度を計画する。その他、行動計画部350は、移動経路に含まれる場所での待機時間、当該場所で行うべき作業等も計画してよい。
 移動経路及び移動速度の計画を行う方法は本実施形態では特に限定されず、任意の方法を用いてよい。例えば出発地、目的地、目的地又は途中で行うべき作業等を入力し、機内の環境マップから行動計画を生成するアルゴリズムを用いてもよい。環境マップは機内に配置された各地点をノード、地点間を結ぶ経路をエッジとしたグラフで表してもよい。あるいは、行動計画は予めオペレータが作成して移動ロボットで解釈可能なデジタルデータの形式で与えたものであってもよい。後述するように行動計画(計画された移動経路及び移動速度)は移動制御部340の制御情報によって更新され得る。
 進入予測部320は、グローバルコンテキスト及びローカルコンテキストに基づき、乗客が対象となる通路の少なくとも1つの部分領域(第1領域)に進入するか否かの進入予測を、時間に応じて(時系列に)行う。すなわち進入予測部320は、当該部分領域に乗客が進入する時間範囲(第1時間範囲)を予測する。予測の対象となる通路は、例えば、行動計画で計画された経路に含まれる通路である。
 進入予測部320は、乗客が対象となる通路の部分領域へ進入する確率を時間に応じて算出してもよい。進入予測部320は、乗客が通路の部分領域に進入した後に移動する方向を予測してもよい。例えば乗客がトイレに移動することがローカルコンテキストから予測できる場合に(例えば乗客がトイレの方向を見るなどの動作が検出される場合など)、最寄りのトイレへ向かう方向を、乗客が通路を移動する方向として予測してもよい。
 占有範囲予測部330は、対象となる通路において移動ロボット1000が占有する占有範囲を時間に応じて(時系列に)予測する占有範囲予測部である。具体的には、占有範囲予測部330は、移動ロボット1000の行動計画(経路計画及び速度計画)に基づき、移動ロボット1000の時間に応じた占有範囲を予測(占有範囲を時系列に予測)する。換言すれば、占有範囲予測部330は、通路に含まれる各部分領域を移動ロボット1000が占有する時間範囲(第2時間範囲)を予測する。占有範囲予測部330は、進入予測部320で予測された通路における乗客の移動方向に基づき、占有範囲または時間範囲(第2時間範囲)を予測してもよい。
 移動制御部340は、行動計画に基づき移動ロボット1000を制御し、移動ロボット1000を目的地まで移動させる。すなわち移動制御部340は、行動計画で計画された移動経路に沿って、計画された移動速度で移動ロボット1000を移動させる。
 また、移動制御部340は、機内(対象環境)をセンシングしたセンシング情報に基づき、乗客が占有範囲に進入するかを予測し、予測結果に基づき移動体の移動を制御する。予測の際、センシング情報を変換したコンテキストを用いてもよい。より詳細には、移動制御部340は、進入予測部320の予測結果、占有範囲予測部330の予測結果に基づき、移動ロボット1000の移動を制御する。移動制御部340は制御の内容を示す情報(制御情報)を行動計画部350に提供して行動計画を行動計画部350に更新させ、更新後の行動計画に基づき駆動装置400を制御することで、移動ロボット1000の移動を制御する。あるいは、移動制御部340は、行動計画部350の更新と並列して、決定した制御の内容で直接、駆動装置400を制御してもよい。
 移動制御部340は、進入予測部320が予測した、乗客が通路の部分領域へ進入する時間範囲に基づき、移動ロボット1000の移動を制御してもよい。移動制御部340は、進入予測部320が算出した通路の部分領域への進入確率に基づき、移動ロボット1000の移動を制御してもよい。この際、移動制御部340は、進入確率が閾値以上のとき、乗客が通路の部分領域へ進入することを決定し、進入確率が閾値未満のとき、乗客が通路の部分領域へ進入しないと決定してもよい。なお乗客が通路の部分領域に進入するかを判断する際、当該乗客の座席から通路に出るまでに必要な時間を考慮してもよい。例えば座席から通路までの距離に応じた時間を決定してもよい。
 移動制御部340は、乗客が通路の部分領域に進入するタイミングで乗客が移動ロボット1000の占有範囲に進入すると判断した場合、移動ロボット1000を通路に入れせず、通路の入り口付近の空きスペースで一定時間待機させるように制御してもよい。あるいは、移動制御部340は、移動ロボット1000の移動速度を速くすることで、乗客が通路の部分領域に入るタイミングでは、乗客が移動ロボット1000の占有範囲に進入しないように制御してもよい。移動制御部340は、通路における歩行者の予測された移動方向に基づき、移動ロボット1000の移動を制御してもよい。このように移動ロボット1000を制御することで、移動ロボット1000が通路を歩行する他の人の妨げとなる可能性を軽減する。
 移動制御部340は、行動計画部350と接続されており、移動ロボット1000の制御情報を行動計画部350に提供する。例えば移動ロボット1000を通路の入り口手前で一定時間待機させる場合は、移動ロボット1000の制御情報は、移動ロボット1000を通路の入り口手前で一定時間待機させることを示す情報である。
 行動計画部350は、移動制御部340の制御情報に基づき、行動計画を更新する。例えば経路計画部351は、移動ロボット1000の移動経路が変更された場合は、行動計画における経路を変更する。例えば、通路の入り口の脇の空きスペースに一時待機することが決定された場合は、空きスペースに一時退避するよう行動計画(経路計画)を変更する。また速度計画部352は、移動ロボット1000の移動速度が変更された場合は、該当する通路における移動速度を速い値又は遅い値に、行動計画(速度計画)を変更する。
 駆動装置400は、移動ロボット1000を動かすための動力部である。駆動装置400は、駆動制御部410と、駆動部420とを含む。駆動部420は、例えば、モーターと車輪等を含む。駆動制御部410は、移動制御部340の制御に基づいて、駆動部420を制御する。駆動制御部410は、移動ロボット1000の機体サイズ、重量などの物理特性、駆動部420のメカ特性に基づき、駆動部420を制御する。駆動部420を動作させることで、モーターにより車輪が回転させられ、移動ロボット1000が移動する。
 図3は、飛行機内において移動ロボット1000と乗客600とが通路510Bで逆方向に移動する場合に、移動ロボット1000乗客600の通行の妨げとなる位置関係の一例を示す。
 飛行機内では、3つで1組の座席121が座席ブロックとして前後左右に一定の間隔を開けて配置されている。座席121等には、外部センシング装置120(図1参照)が設けられている。
 座席ブロックの左右の間には、通路510(510A、510B)が設けられている。通路510は、移動ロボット1000及び乗客等がそれぞれ単独で移動する場合に移動可能な幅を有するが、双方が交差できる程度の幅は有さない。
 前後の座席121間には、通路520(520A、520B)が設けられている。通路520は、通路510に連結している。通路520は、乗客600が座席121から通路510に出るために使用する。通路520は狭く、移動ロボット1000が通路520を移動できないとする。ただし、移動ロボット1000が通路520を移動可能な幅を有している場合も排除されない。
 移動ロボット1000と乗客600が通路510Bにおいてそれぞれ矢印の方向に移動すると、移動ロボット1000と乗客600は衝突の可能性がある。
 図4は、飛行機内において移動ロボット1000と乗客600とが通路510Bで同方向に移動する場合に、移動ロボット1000乗客600の通行の妨げとなる位置関係の一例を示す。
 図4では、移動ロボット1000を乗客600が追いかける方向に移動する。移動ロボット1000の移動速度が乗客600の歩行速度よりも遅い場合、乗客600は、移動ロボット1000に追いつく可能性がある。この場合、移動ロボット1000が通行の妨げとなる可能性がある。
 図5は、飛行機内において通路520から通路510Bに乗客600が移動する場合に、移動ロボット1000が乗客600の通行の妨げとなる位置関係の一例を示す。
 図5において、乗客600が、座席121を離れ、通路520を経由して通路510に出ようとする状況では、乗客600が通路510Bに出る際に、通路510Bを移動する移動ロボット1000と衝突する可能性がある。
 図6は、移動ロボット1000が占有する占有範囲の説明図である。
 図7は、図6の移動ロボット1000が占有する占有範囲の予測例を示す。
 一例として図6の通路510Bを等間隔に分割した部分領域510_1~510_7が示される。移動ロボット1000は、通路510Bの任意の位置において、そのうち2つを少なくとも部分的にまたがるサイズを有する。例えば、移動ロボット1000の先頭が部分領域510_2に含まれる場合、移動ロボット1000の後尾は、部分領域510_1に含まれる。例えば、移動ロボット1000が、X(Xは任意の実数)秒毎に、通路510Bの一部分領域を通過する速さであるとする。移動ロボット1000が部分領域510_1、510_2をまたがる位置に存在する場合、遅くともX秒後には、移動ロボット1000は部分領域510_2、510_3をまたがる位置に存在する。
 上述のように、移動ロボット1000と乗客600は通路510Bで互いにすれ違うことはできない。図示の方向に移動する乗客600と衝突等の問題を発生させないためには、移動ロボット1000が部分領域510_1に進入してから、部分領域510_7に到達するまでの間、移動ロボット1000の位置から部分領域510_7までを占有する必要がある。より詳細には、移動ロボット1000の少なくとも一部を含む部分領域から部分領域510_7までを移動ロボット1000が占有する必要がある。ここで、占有とは、移動ロボット1000以外の物体(乗客等)が占有の対象となる領域(占有範囲又は占有対象領域)に入らないことである。移動ロボット1000は、占有範囲に乗客が入らないと決定した場合にのみ、通路510Bを移動させることで、通路510B内で乗客との衝突等を回避又は低減することができる。
 図7に示すように、移動ロボット1000の占有範囲は、例えば、部分領域510_1の進入からt1秒後(t=t1)では図7(A)のように、部分領域510_1~510_7である。t2秒後では、占有範囲は、図7(B)のように、通過済みの部分領域510_1が除かれるため、部分領域510_2~510_7である。t3秒後では、占有範囲は、図7(C)のように、通過済みの部分領域510_1、510_2が除かれるため、部分領域510_3~510_7である。t7秒後では、図7(D)のように、最後の部分領域510_7を移動ロボット1000が通過し終わり、通路510B全体(部分領域510_3~510_7)が解放される。
 移動ロボット1000の占有範囲外では乗客は移動ロボット1000と衝突する等の問題は生じない。図8~図10を用いて具体例を説明する。
 図8は、移動ロボット1000と乗客600が、互いに背を向けて逆方向に移動する位置関係の一例を示す。乗客600は、移動ロボット1000が占有から解放した通路部分を、移動ロボット1000とは逆方向に移動する状況が示される。この場合、乗客600は、移動ロボット1000の占有範囲に含まれないため、移動ロボット1000と衝突しない。
 図9は、移動ロボット1000と乗客600が同方向に移動し、移動ロボット1000が乗客600に先行する位置関係の一例を示す。
 図10は、図9の例において移動ロボット1000が占有する範囲の予測例を示す。
 上述したように通路510Bは、移動ロボット1000と乗客600がすれ違うことが可能な程度の幅を有さない。つまり、乗客600の歩行速度が移動ロボット1000より速い場合に、乗客600は移動ロボット1000を追い越すことができない。従って、乗客600が移動ロボット1000との衝突等を回避するためには、移動ロボット1000が通路510Bに入ってから、通路510Bの移動を完了するまで、通過済みの領域から移動ロボット1000の位置までを占有範囲とする必要がある。より詳細には、通過済みの部分領域から、移動ロボット1000の少なくとも一部が含まれる部分領域までを占有範囲とする必要がある。移動ロボット1000が通路510Bの移動を完了するまで、乗客600が占有範囲に入ってこないと予測できた場合にのみ、移動ロボット1000が通路510Bを移動するようにすることで、乗客との衝突等の問題を回避できる。なお、移動ロボット1000の前方の領域は占有範囲外であるため、乗客600は占有範囲外には通路520A等から入ったとしても、移動ロボット1000との衝突は回避される。乗客600の移動速度が遅くても、移動ロボット1000が自律的に移動速度を遅くすればよいためである。
 図9の例において、移動ロボット1000の占有範囲は、図10(A)のように、部分領域510_1の進入からt1秒後(t=t1)では、部分領域510_1、510_2である。t2秒後では、占有範囲は、図10(B)のように、通過済みの部分領域を含め、部分領域510_1~510_3である。t6秒後では、占有範囲は、図10(C)のように、通過済みの部分領域を含め、部分領域510_1~510_7である。t7秒後では、図10(D)のように、最後の部分領域510_7を移動ロボット1000が通過し終わり、通路510B全体(部分領域510_3~510_7)が解放される。
 以下、図11~図13を用いて、座席121に着席した乗客600_2が通路520Bから通路510Bに進入する場合を例に移動ロボット1000の動作例を説明する。
 図11は、座席121に着席した乗客600_2と通路510Bに進入する移動ロボット1000との位置関係の例を示す。
 図12は、移動ロボット1000によって取得されたグローバルコンテキストに基づき乗客600_2が通路510Bに進入する可能性を時間に応じて(時系列に)計算した例を示す。
 図13は、移動ロボット1000によって取得されたローカルコンテキストに基づき乗客600_2が通路510Bに進入する可能性を時系列に計算した例を示す。
 乗客600_2は、例えば座席121から離席して目的地(例えばトイレ)に移動し、目的地で用を済ませた後、座席121に戻る状況を想定する。本例では目的地は領域530であるとする。乗客600_2は、自らの座席121から離席し、通路520Bを通って、通路510Bに出る。乗客600_2は、通路510Bを通って領域530へ移動する。乗客600_2は、領域530で用事を済ませた後、座席121に戻る。座席121に戻る経路は、領域530へ行ったときの経路と同じでもよいし、異なってもよい。
 上述の図12には、シートベルト着用サインが解除された後の乗客600_2の通路510B又は部分領域510_3への進入可能性(例えば進入確率)を計算した例が示される。グローバルコンテキストは、一例として、例えばシートベルト着用サインのオンまたはオフを示す情報を含む。
 まず、シートベルト着用サインが解除される前、乗客600_2は座席121に着席しており、移動する可能性はゼロ又は十分に低い値であるとする。
 シートベルト着用サインが解除された後、乗客600_2は、飛行機の機内を移動する可能性が高くなるため、移動ロボット1000は、乗客600_2が通路510Bに進入する可能性を示す値(進入可能性)が高くなる。時間の経過に応じて進入可能性は徐々に低下し、一定時間後、進入可能性は一定の値に収束する。このような進入可能性の時間推移(グラフ)は、グローバルコンテキストの種類及びグローバルコンテキストの値に応じて予め決められていてもよい。例えばグローバルコンテキストの種類とグローバルコンテキストの値と進入可能性グラフとを格納したルックアップテーブルを用いてもよい。進入可能性の計算に用いるグローバルコンテキストの種類は単数でも複数でもよい。進入可能性を示す値は、進入する確率(進入確率)でもよいし、進入可能性の有無を表す2値(例えば1又は0)でもよい。
 シートベルト着用サインの点灯有無以外のグローバルコンテキストの例として、飛行機の離陸又は到着時か否か、飛行機がエアポケットに入ったか否か、機内の共用スクリーンに動画が再生されているか否か、飛行機の揺れの程度、機内食を配布中か否かなどあり得る。図12では進入可能性が時間に応じて低下したが、グローバルコンテキストの種類及び値に応じて、上昇する場合もあり得る。
 上述の図13には、乗客600_2に関するローカルコンテキストに基づき、乗客600_2の通路510B又は部分領域510_3への進入可能性(例えば進入確率)を計算した例が示される。進入可能性の計算時、乗客600_2は、座席121に着席している。
 まず、時刻t2より前において、乗客600_2が、座席121に備え付けられたテーブルを展開していることを移動ロボット1000はローカルコンテキスト(周辺コンテキスト)として検出する。また、移動ロボット1000は乗客600_2が食事をしていることローカルテコンテキスト(人コンテキスト)として検出する。移動ロボット1000は、両ローカルコンテキストから、乗客600_2は移動に適した状態でなく、乗客600_2の進入可能性をゼロ又は低い値とする(図の例ではゼロとしている)。具体的な計算例として、周辺コンテキストから進入可能性を算出し、人コンテキストから進入可能性を算出し、両進入可能性の最小値、平均値、最大値等を採用してもよい。あるいは両コンテキストを含む複数のコンテキストの値を入力変数とし、進入可能性を出力変数とする関数を用いて、進入可能性を算出してもよい。
 次に、乗客600_2が、時刻t2で、テーブルを折りたたみ、食事も終えていることを移動ロボット1000がローカルコンテキストとして検出したとする。また移動ロボット1000が、乗客600_2が通路510Bの方向を頻繁に見ていることをローカルコンテキストとして検出する。乗客600_2は、テーブルを折りたたみ、食事を終えていることから、座席121からの移動を行いやすい状況と考えられる。また乗客600_2は通路510Bの方向を見ていることから、通路510Bに出たいと考えている可能性が高いと考えられる。
 移動ロボット1000は、これらのローカルコンテキストから進入可能性を計算する。計算の例は前述した方法と同様である。この結果、移動ロボット1000は時刻t2から一定時間後のt4まで、図13に示す値に、進入可能性を算出する。
 移動ロボット1000は、グローバルコンテキストから算出した進入可能性と、ローカルコンテキストから算出した進入可能性とに基づき、最終的な進入可能性を示す予測結果を算出する。移動ロボット1000は、例えば通路510Bにおける部分領域毎に予測結果を算出する。移動ロボット1000は一定時間ごとに予測結果を算出してもよい。移動ロボット1000は、一定距離を移動するごと、又は、特定のポイント(位置)に到達するごとに予測結果を算出してもよい。
 図14の上図は、図12の進入可能性グラフと図13の進入可能性グラフとを重ねた状態を示す。移動ロボット1000は時刻毎に、両グラフが示す値のうち最小の値を、予測結果として決定する。図13の下図は、時刻毎に両グラフが示す値のうち最小の値を示すグラフである。
 ここでは最小の値を選択する例を示したが、両グラフの値の乗算値又は最大値など他の値を用いてもよい。あるいは、両グラフの値を入力変数とし、進入可能性を出力変数とする関数を用いてもよい。あるいは、両グラフの値と進入可能性の値とを対応づけたテーブルを用いてもよい。
 移動制御部340は、進入予測部320が予測した進入可能性(予測結果)と、占有範囲予測部330が予測した時間に応じた占有範囲とに基づき、移動ロボット1000の移動を制御する。例えば、移動制御部340は、移動ロボット1000の通路への進入タイミング、及び移動速度を制御する。これにより、通路において他の人の通行の妨げとなる可能性を軽減する。移動制御部340は、行動計画部350と接続されており、進入タイミング及び移動速度の情報を行動計画部350に提供する。
 図15(A)は、占有範囲予測部330が部分領域510_3を占有する時間の範囲を予測した例を示す。つまり移動ロボット1000が計画通り行動する場合、部分領域510_3を時刻t2より前まで占有する必要がある。一方、乗客600_2の進入可能性の予測結果は図13の下図に示されるものであったとする。なお、ここでは図11の状況を想定する。また説明の簡単のため乗客600_2以外の乗客については考慮しないものとする。
 移動ロボット1000は時刻t2より前まで部分領域510_3を占有しても、乗客は部分領域510_3に入らないと予測される。例えば、進入可能性(ここでは進入確率)が閾値以下であるとする。このため、部分領域510_3については、移動ロボット1000は計画通り移動しても問題ない。よって移動ロボット1000は、計画通り、部分領域510_1から入り、通路510Bを移動する。通路510Bを移動する際、時刻t2より前に、乗客600_2が離席して通路510Bに入ってくる可能性は低く、移動ロボット1000と乗客600_2との衝突を回避する可能性が高い。
 乗客600_2以外の乗客及び他の部分領域(510_1、510_2、510_4~510_7)も、同様にして処理すればよい。すなわち、他の部分領域ごとに、占有する時間の範囲と、他の乗客による当該他の部分領域への進入可能性の予測結果に基づき、占有可能か否かを判断する。すべての部分領域(510_1~510_7)に対してそれぞれの占有時間の範囲で占有可能と判断できた場合、移動ロボット1000は計画通り通路510Bを移動する。少なくとも1つの部分領域で占有時間の範囲が他の乗客が進入する可能性があると判断される場合は、通路510Bに入らず、近傍の空きスペースで待機する。
 図15(B)は、占有範囲予測部330が部分領域510_3を占有する時間の範囲を予測した他の例を示す。つまり移動ロボット1000が計画通り行動する場合、部分領域510_3を時刻t2から時刻t4より前まで占有する必要がある。一方、乗客600_2の進入可能性の予測結果は図13の下図に示されるものであったとする。なお、ここでは図11の状況を想定する。また説明の簡単のため乗客600_2以外の乗客については考慮しないものとする。
 時刻t2~t4の範囲は、乗客が部分領域510_3に入る可能性がある。例えば、時刻t2~t4では、進入可能性(確率)が閾値より大きい。このため、移動ロボット1000が計画通り移動すると、乗客と衝突等の問題が発生する可能性がある又は高い。よって移動ロボット1000は、時刻t4より前まで通路510Bに入らず、空きスペースで待機するなどする。時刻t4になったら、通路510Bに入るよう行動計画を変更する。これにより、移動ロボット1000は乗客600_2と衝突等することを回避できる。
 図16は、本開示の実施形態に係る移動ロボット1000の処理の一例を示すフローチャートを示す。
 図17は、本実施形態に係る処理のデータフローを示す。
 センシング装置100(内部センシング装置110、外部センシング装置120)が対象となる対象環境(機体内)をセンシングし、センシング情報を取得する(図16のS1001)。
 環境認識部310は、取得されたセンシング情報からグローバルコンテキスト及びローカルコンテキストを算出する(図16のS1002、図17のP311、P3121、P3122)。ローカルコンテキストは人コンテキストと周辺コンテキストとを含む。
 進入予測部320は、行動計画部350で予め作成された行動計画で予定されている通路に含まれる位置(部分領域)毎に、乗客が進入する確率(進入可能性の予測値)を時間に応じて予測する(図16のS1003、図17のP320)。
 行動計画部350は、行動計画(図17の経路計画P351、速度計画P352)に基づき移動ロボット1000の移動を予測する(図16のS1004、図17のP350)。例えば行動計画部350は、行動計画に基づき、移動する予定の経路と、経路内の各区間での移動速度とを決定する。
 占有範囲予測部330は、移動ロボット1000の移動予測結果と、ロボットサイズ及び通路の幅、長さ等の既定情報800とに基づき、行動計画で予定されている通路に含まれる位置毎に、占有の時間範囲を予測する(図16のS1005、図17のP330)。
 移動制御部340は、進入予測部320及び占有範囲予測部330の予測結果に基づき、通路への進入タイミング及び移動速度を算出する(図16のS1006、図17のP340_A)。具体的には、移動制御部340は、通路に含まれる部分領域(位置)毎の占有の時間範囲内において、乗客が当該通路に進入する確率が閾値以下となる進入タイミング及び移動速度を算出する。
 移動制御部340は、算出した進入タイミング及び移動速度で移動ロボット1000を移動させるよう駆動装置400を制御する。これにより移動ロボット1000を乗客と衝突等させることなく、通路を移動させる(図16のS1007、図17のP340_B)。より詳細には、移動制御部340は、進入タイミング及び移動速度を含む制御情報を行動計画部350に提供する。行動計画部350は、制御情報に基づき行動計画を更新する。移動制御部340は、更新後の行動計画に基づいて駆動装置400を制御する。
 本開示の実施形態では、飛行機の機内の通路を移動ロボットが移動する場合について説明したが、その他の状況、用途であってもよい。例えば、移動ロボットがコンサートホールなどのイベント会場、オフィスの通路を移動する場合であってもよい。このとき、グローバルコンテキストは、休憩時間であるか否か、イベントが盛り上がっているか否かなどの情報でもよい。休憩時間である場合は歩行者が通路に入る可能性(確率)を高くしてもよい。イベントが盛り上がっている場合は、歩行者が通路に入る可能性(確率)を低くしてもよい。
 本実施形態では対象環境(機内)を移動する物体として人を例にしたが、人以外の動物でもよいし、移動ロボットと異なる移動装置でもよい。例えば機内を掃除する、自律移動する掃除装置でもよい。
 移動ロボット1000が備えている環境認識部310、進入予測部320、占有範囲予測部330、移動制御部340、行動計画部350の全てもしくは一部がネットワーク上のサーバー(クラウド)に設けられていてもよい。サーバーは移動ロボット1000と通信可能に構成され、サーバーは移動ロボットにデータまたは指示情報を送信する。
 本開示の実施形態では、移動ロボットが1台の場合を想定して説明を行ったが、移動ロボットが複数台存在する場合、それぞれの移動ロボットが得た人の進入予測結果及び占有範囲の情報を移動ロボット間で共有してもよい。これにより各移動ロボットの処理負荷を軽減できる。
 また、本明細書に記載された本開示の効果は例示に過ぎず、その他の効果があってもよい。
 なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
 なお、本開示は以下のような構成を取ることもできる。
[項目1]
 移動体の移動計画に基づき、前記移動体が移動可能な移動路を前記移動体が占有する占有範囲を時間に応じて予測する占有範囲予測部と、
 前記移動路を含む対象環境をセンシングしたセンシング情報に基づき、前記対象環境内の物体が前記占有範囲に進入するかを予測し、予測結果に基づき前記移動体の移動を制御する移動制御部と
 を備えた情報処理装置。
[項目2]
 前記センシング情報は、第1センシング情報と、第2センシング情報とを含み、
 前記第1センシング情報に基づき、前記対象環境のグローバルコンテキストを認識するグローバルコンテキスト部と、
 前記第2センシング情報に基づき、前記対象環境のローカルコンテキストを算出するローカルコンテキスト認識部と、を備え、
 前記移動制御部は、前記グローバルコンテキスト及び前記ローカルコンテキストに基づき、前記物体が前記占有範囲に進入するかを予測する
 項目1に記載の情報処理装置。
[項目3]
 前記ローカルコンテキスト認識部は、
 前記ローカルコンテキストとして前記物体の状態を表す第1コンテキストを認識する第1コンテキスト認識部と、
 前記ローカルコンテキストとして前記物体の周辺環境の状態を表す第2コンテキストを認識する第2コンテキスト認識部と
 を備えた項目2に記載の情報処理装置。
[項目4]
 前記移動制御部は、前記物体が前記占有範囲に進入することを決定したときは、前記移動体に前記移動路を移動させることを待機させる
 項目1~3のいずれか一項に記載の情報処理装置。
[項目5]
 前記移動制御部は、前物体が前記占有範囲に進入することを決定したときは、前記移動体の移動速度を制御することにより、前記物体が前記占有範囲に進入する前に、前記占有範囲の占有を前記移動体に終了させる
 項目1~4のいずれか一項に記載の情報処理装置。
[項目6]
 前記移動制御部は、前記センシング情報に基づき予測される物体の移動方向に基づき、前記占有範囲を予測する
 項目1~5のいずれか一項に記載の情報処理装置。
[項目7]
 前記センシング情報に基づき、前記移動路における少なくとも1つの部分領域に物体が進入する第1時間範囲を予測する進入予測部を備え、
 前記占有範囲予測部は、前記移動体の移動計画に基づき、前記移動路における前記部分領域を前記移動体が占有する第2時間範囲を予測し、
 前記移動制御部は、前記第1時間範囲と、前記第2時間範囲とに基づき前記占有範囲に前記物体が進入するかを予測する
 項目1~6のいずれか一項に記載の情報処理装置。
[項目8]
 前記移動制御部は、前記第1時間範囲と、前記第2時間範囲とが重なる場合に、前記物体が前記占有範囲に進入することを決定する
 項目7に記載の情報処理装置。
[項目9]
 前記進入予測部は、前記部分領域への前記物体の進入確率を時間に応じて算出し、
 前記移動制御部は、前記物体の進入確率に基づき、前記第1時間範囲を予測する
 項目7又は8に記載の情報処理装置。
[項目10]
 前記進入予測部は、前記進入確率が閾値以上のとき、前記物体が前記部分領域に進入することを決定し、前記進入確率が閾値未満のとき、前記物体が前記部分領域に進入しないことを決定する
 項目9に記載の情報処理装置。
[項目11]
 前記センシング情報は、第1センシング情報と、第2センシング情報とを含み、
 前記第1センシング情報に基づき、前記対象環境のグローバルコンテキストを認識するグローバルコンテキスト部と、
 前記第2センシング情報に基づき、前記対象環境のローカルコンテキストを算出するローカルコンテキスト認識部と、を備え、
 前記移動制御部は、前記グローバルコンテキスト及び前記ローカルコンテキストに基づき、前記第1時間範囲を予測する
 項目7~10のいずれか一項に記載の情報処理装置。
[項目12]
 前記ローカルコンテキスト認識部は、
 前記ローカルコンテキストとして前記物体の状態を表す第1コンテキストを認識する第1コンテキスト認識部と、
 前記ローカルコンテキストとして前記物体の周辺環境の状態を表す第2コンテキストを認識する第2コンテキスト認識部と
 を備えた項目11に記載の情報処理装置。
[項目13]
 前記対象環境をセンシングすることにより前記センシング情報を取得する第1センシング装置
 を備えた項目1~12のいずれか一項に記載の情報処理装置。
[項目14]
 対象環境に配置された第2センシング装置から通信により前記センシング情報を取得する通信部
 を備えた項目1~13のいずれか一項に記載の情報処理装置。
[項目15]
 前記移動路は、前記物体と前記移動体とが互いにすれ違うことが可能な幅を有さない通路である
 項目1~14のいずれか一項に記載の情報処理装置。
[項目16]
 前記物体は、人間である
 項目1~15のいずれか一項に記載の情報処理装置。
[項目17]
 項目1~16のいずれか一項に係る情報処理装置と、
 前記情報処理装置を移動させる駆動装置と、
 を備えた移動体。
[項目18]
 移動体の移動計画に基づき、前記移動体が移動可能な移動路を前記移動体が占有する占有範囲を時間に応じて予測し
 前記移動路を含む対象環境をセンシングしたセンシング情報に基づき、前記対象環境内の物体が前記占有範囲に進入するかを予測し、予測結果に基づき前記移動体の移動を制御する
 制御方法。
1000 移動ロボット
100 センシング装置
110 内部センシング装置
120 外部センシング装置
121 座席
200 通信装置
210 通信部
220 通信制御部
300 情報処理装置
310 環境認識部
311 グローバルコンテキスト認識部
312 ローカルコンテキスト認識部
3121 人コンテキスト認識部
3122 周辺コンテキスト認識部
320 進入予測部
330 占有範囲予測部
340 移動制御部
350 行動計画部
400 駆動装置
410 駆動制御部
420 駆動部
500、510、520 通路
530 領域
600 乗客

Claims (18)

  1.  移動体の移動計画に基づき、前記移動体が移動可能な移動路を前記移動体が占有する占有範囲を時間に応じて予測する占有範囲予測部と、
     前記移動路を含む対象環境をセンシングしたセンシング情報に基づき、前記対象環境内の物体が前記占有範囲に進入するかを予測し、予測結果に基づき前記移動体の移動を制御する移動制御部と
     を備えた情報処理装置。
  2.  前記センシング情報は、第1センシング情報と、第2センシング情報とを含み、
     前記第1センシング情報に基づき、前記対象環境のグローバルコンテキストを認識するグローバルコンテキスト部と、
     前記第2センシング情報に基づき、前記対象環境のローカルコンテキストを算出するローカルコンテキスト認識部と、を備え、
     前記移動制御部は、前記グローバルコンテキスト及び前記ローカルコンテキストに基づき、前記物体が前記占有範囲に進入するかを予測する
     請求項1に記載の情報処理装置。
  3.  前記ローカルコンテキスト認識部は、
     前記ローカルコンテキストとして前記物体の状態を表す第1コンテキストを認識する第1コンテキスト認識部と、
     前記ローカルコンテキストとして前記物体の周辺環境の状態を表す第2コンテキストを認識する第2コンテキスト認識部と
     を備えた請求項2に記載の情報処理装置。
  4.  前記移動制御部は、前記物体が前記占有範囲に進入することを決定したときは、前記移動体に前記移動路を移動させることを待機させる
     請求項1に記載の情報処理装置。
  5.  前記移動制御部は、前記物体が前記占有範囲に進入することを決定したときは、前記移動体の移動速度を制御することにより、前記物体が前記占有範囲に進入する前に、前記占有範囲の占有を前記移動体に終了させる
     請求項1に記載の情報処理装置。
  6.  前記移動制御部は、前記センシング情報に基づき予測される物体の移動方向に基づき、前記占有範囲を予測する
     請求項1に記載の情報処理装置。
  7.  前記センシング情報に基づき、前記移動路における少なくとも1つの部分領域に物体が進入する第1時間範囲を予測する進入予測部を備え、
     前記占有範囲予測部は、前記移動体の移動計画に基づき、前記移動路における前記部分領域を前記移動体が占有する第2時間範囲を予測し、
     前記移動制御部は、前記第1時間範囲と、前記第2時間範囲とに基づき前記占有範囲に前記物体が進入するかを予測する
     請求項1に記載の情報処理装置。
  8.  前記移動制御部は、前記第1時間範囲と、前記第2時間範囲とが重なる場合に、前記物体が前記占有範囲に進入することを決定する
     請求項7に記載の情報処理装置。
  9.  前記進入予測部は、前記部分領域への前記物体の進入確率を時間に応じて算出し、
     前記移動制御部は、前記物体の進入確率に基づき、前記第1時間範囲を予測する
     請求項7に記載の情報処理装置。
  10.  前記進入予測部は、前記進入確率が閾値以上のとき、前記物体が前記部分領域に進入することを決定し、前記進入確率が閾値未満のとき、前記物体が前記部分領域に進入しないことを決定する
     請求項9に記載の情報処理装置。
  11.  前記センシング情報は、第1センシング情報と、第2センシング情報とを含み、
     前記第1センシング情報に基づき、前記対象環境のグローバルコンテキストを認識するグローバルコンテキスト部と、
     前記第2センシング情報に基づき、前記対象環境のローカルコンテキストを算出するローカルコンテキスト認識部と、を備え、
     前記移動制御部は、前記グローバルコンテキスト及び前記ローカルコンテキストに基づき、前記第1時間範囲を予測する
     請求項7に記載の情報処理装置。
  12.  前記ローカルコンテキスト認識部は、
     前記ローカルコンテキストとして前記物体の状態を表す第1コンテキストを認識する第1コンテキスト認識部と、
     前記ローカルコンテキストとして前記物体の周辺環境の状態を表す第2コンテキストを認識する第2コンテキスト認識部と
     を備えた請求項11に記載の情報処理装置。
  13.  前記対象環境をセンシングすることにより前記センシング情報を取得する第1センシング装置
     を備えた請求項1に記載の情報処理装置。
  14.  対象環境に配置された第2センシング装置から通信により前記センシング情報を取得する通信部
     を備えた請求項1に記載の情報処理装置。
  15.  前記移動路は、前記物体と前記移動体とが互いにすれ違うことが可能な幅を有さない通路である
     請求項1に記載の情報処理装置。
  16.  前記物体は、人間である
     請求項1に記載の情報処理装置。
  17.  請求項1に係る情報処理装置と、
     前記情報処理装置を移動させる駆動装置と、
     を備えた移動体。
  18.  移動体の移動計画に基づき、前記移動体が移動可能な移動路を前記移動体が占有する占有範囲を時間に応じて予測し
     前記移動路を含む対象環境をセンシングしたセンシング情報に基づき、前記対象環境内の物体が前記占有範囲に進入するかを予測し、予測結果に基づき前記移動体の移動を制御する
     制御方法。
PCT/JP2022/035057 2021-11-02 2022-09-21 情報処理装置、移動体および制御方法 WO2023079852A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021179507 2021-11-02
JP2021-179507 2021-11-02

Publications (1)

Publication Number Publication Date
WO2023079852A1 true WO2023079852A1 (ja) 2023-05-11

Family

ID=86241295

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/035057 WO2023079852A1 (ja) 2021-11-02 2022-09-21 情報処理装置、移動体および制御方法

Country Status (1)

Country Link
WO (1) WO2023079852A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019054206A1 (ja) * 2017-09-14 2019-03-21 日本電産株式会社 移動体誘導システム
US20200250437A1 (en) * 2019-02-05 2020-08-06 Honda Motor Co., Ltd. System and method for providing context aware road-user importance estimation
US20210004012A1 (en) * 2019-07-05 2021-01-07 Uatc, Llc Goal-Directed Occupancy Prediction for Autonomous Driving
JP2021077088A (ja) * 2019-11-08 2021-05-20 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
US11016491B1 (en) * 2018-01-26 2021-05-25 X Development Llc Trajectory planning for mobile robots
CN113311829A (zh) * 2021-05-11 2021-08-27 北京理工大学 一种基于动态时间窗冲突搜索的多机器人路径规划方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019054206A1 (ja) * 2017-09-14 2019-03-21 日本電産株式会社 移動体誘導システム
US11016491B1 (en) * 2018-01-26 2021-05-25 X Development Llc Trajectory planning for mobile robots
US20200250437A1 (en) * 2019-02-05 2020-08-06 Honda Motor Co., Ltd. System and method for providing context aware road-user importance estimation
US20210004012A1 (en) * 2019-07-05 2021-01-07 Uatc, Llc Goal-Directed Occupancy Prediction for Autonomous Driving
JP2021077088A (ja) * 2019-11-08 2021-05-20 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
CN113311829A (zh) * 2021-05-11 2021-08-27 北京理工大学 一种基于动态时间窗冲突搜索的多机器人路径规划方法

Similar Documents

Publication Publication Date Title
JP6464500B2 (ja) 自動車両配車システム及びサーバ装置
KR102642827B1 (ko) 자율 수송 기법
JP6992019B2 (ja) 乗客支援システム
WO2018132614A2 (en) Rules-based navigation
CN111002875B (zh) 车辆用座椅控制装置
JP7183944B2 (ja) 自律移動体、自律移動体の制御プログラム、自律移動体の制御方法および自律移動体を遠隔地から制御するシステムサーバ
US20200001455A1 (en) Artificial intelligence server for controlling plurality of robots and method for the same
JP2020154941A (ja) 管理装置、管理方法、またはプログラム
CN110300706A (zh) 飞行器-地面车辆协调
US20210179127A1 (en) Fault coordination and management
KR102558767B1 (ko) 로봇 친화형 건물
WO2023079852A1 (ja) 情報処理装置、移動体および制御方法
US10919552B2 (en) Method for determining an embarking/disembarking duration of an object
US11951984B2 (en) Open vehicle and operation management system thereof
CN110650864B (zh) 车辆座椅操作系统和方法
JP7139985B2 (ja) 情報処理装置
WO2020230311A1 (ja) 移動支援システム
CN115547091A (zh) 合乘车辆以及运行管理系统
US20190359084A1 (en) Interior Arrangements for Autonomous Vehicles
JP7357653B2 (ja) 制御システム、移動体、および制御方法
JP2000076581A (ja) 経路決定方法及び移動体交通制御システム
WO2021126648A1 (en) Fault coordination and management
JP7311030B2 (ja) 情報提供方法、車両システム及び管理装置
KR20220070774A (ko) 자율주행차량의 주차관리 장치 및 방법
JP2022027561A (ja) エレベータを停車するためのシステムと方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22889676

Country of ref document: EP

Kind code of ref document: A1