WO2020170502A1 - ロボット、ロボットの動作方法、及び非一時的なコンピュータ可読媒体 - Google Patents

ロボット、ロボットの動作方法、及び非一時的なコンピュータ可読媒体 Download PDF

Info

Publication number
WO2020170502A1
WO2020170502A1 PCT/JP2019/040931 JP2019040931W WO2020170502A1 WO 2020170502 A1 WO2020170502 A1 WO 2020170502A1 JP 2019040931 W JP2019040931 W JP 2019040931W WO 2020170502 A1 WO2020170502 A1 WO 2020170502A1
Authority
WO
WIPO (PCT)
Prior art keywords
robot
fire
laser light
laser
control
Prior art date
Application number
PCT/JP2019/040931
Other languages
English (en)
French (fr)
Inventor
聡見 松村
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2021501550A priority Critical patent/JPWO2020170502A1/ja
Priority to US17/431,265 priority patent/US20220126456A1/en
Publication of WO2020170502A1 publication Critical patent/WO2020170502A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
    • G05D1/0236Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons in combination with a laser
    • AHUMAN NECESSITIES
    • A62LIFE-SAVING; FIRE-FIGHTING
    • A62CFIRE-FIGHTING
    • A62C27/00Fire-fighting land vehicles

Definitions

  • the present disclosure relates to a robot, a robot operation method, and a program.
  • Patent Document 1 describes a technique in which a robot executes a command according to a reflection trajectory of a laser pointer.
  • An object of the present disclosure is to provide a robot, a robot operation method, and a program capable of performing a plurality of different operations by laser light.
  • a robot includes a plurality of operation units corresponding to each of a plurality of functions, a laser detection unit that detects emitted laser light and an irradiation place thereof, and a control unit.
  • the control unit performs control to operate different operation units according to the irradiation location detected by the laser detection unit.
  • a robot operation method is an operation method of a robot including a plurality of operation units corresponding to a plurality of functions, and detects an irradiated laser beam and its irradiation location. It is provided with a detection step and a control step of performing control to operate different operation units according to the irradiation location detected in the detection step.
  • a program inputs a detection result of irradiated laser light to a control computer of a robot having a plurality of operation units corresponding to a plurality of functions, and emits the laser light.
  • a robot capable of performing a plurality of different operations by laser light, a robot operation method, and a program.
  • FIG. 3 is a functional block diagram showing a configuration example of a robot according to the first embodiment.
  • FIG. 6 is an external view showing a configuration example of a fire extinguishing robot according to a second embodiment.
  • FIG. FIG. 6 is a schematic diagram showing an example of laser light that is a detection target in the fire extinguishing robot according to the second embodiment.
  • FIG. 9 is a schematic diagram showing another example of laser light that is a detection target in the fire extinguishing robot according to the second embodiment.
  • 9A and 9B are schematic diagrams showing another example of laser light to be detected by the fire-extinguishing robot according to the second embodiment, and an example of an actual instruction with the laser light.
  • 9A and 9B are schematic diagrams showing another example of laser light to be detected by the fire-extinguishing robot according to the second embodiment, and an example of an actual instruction with the laser light.
  • 9A and 9B are schematic diagrams showing another example of laser light to be detected by the fire-extinguishing robot according to the second embodiment, and an example of an actual instruction with the laser light.
  • 9A and 9B are schematic diagrams showing another example of laser light to be detected by the fire-extinguishing robot according to the second embodiment, and an example of an actual instruction with the laser light. It is a figure which shows an example of the reflective surface used as the detection target in the fire-extinguishing robot which concerns on Embodiment 6. It is a figure which shows an example of the hardware constitutions of a robot.
  • FIG. 1 is a functional block diagram showing a configuration example of a robot according to the first embodiment.
  • the robot 1 according to the present embodiment includes a control unit 1a for controlling the entire robot, n operation units 1b-1 to 1b-n corresponding to n functions, and a laser unit. And a detection unit 1c.
  • the control unit 1a can be a controller.
  • the laser detection unit 1c may be a laser detection device and may have a laser detection sensor.
  • n is an integer of 2 or more.
  • the robot 1 includes a plurality of operating units 1b.
  • Each operation unit 1b corresponds to a different function, and different functions can be achieved when a certain operation unit 1b is operated and when another operation unit 1b is operated.
  • the control unit 1a can be realized by, for example, a CPU (Central Processing Unit), a work memory, and a non-volatile storage device that stores a program for controlling the entire robot 1.
  • the storage device can also function as a storage unit that stores the setting information of the robot 1 and the like.
  • the control unit can also be realized by, for example, an integrated circuit.
  • the laser detection unit 1c detects the irradiated laser light (the laser light reflected by some substance such as a building or smoke) and the irradiation location.
  • Irradiated laser light can refer to, for example, laser light irradiated by a person using a portable type laser irradiation device, and even laser light drawn as a figure at one time The laser light may be drawn as a locus on the.
  • a portable laser irradiation device there is a so-called laser pointer, and when detecting a laser beam having a drawing shape drawn at one time, a laser pointer of a type in which the figure is irradiated at one time. Can be used.
  • control unit 1a performs control to operate different operation units 1b according to the irradiation location detected by the laser detection unit 1c. It can be said that this control is control that enables different functions. That is, the robot 1 is configured to perform operations with different functions depending on the irradiation location of the detected laser light.
  • the operation unit 1b corresponding to one function can also be configured by an aggregate of a plurality of operation units, and some of the operation units of this aggregate are part of the aggregate of other operation units 1b. You can also do it.
  • some of the plurality of operating units that form the operating unit 1b-1 may be some of the plurality of operating units that form the operating unit 1b-n, or It can also be 1b-n itself.
  • the robot 1 may be a robot manufactured for other purposes such as a fire extinguishing robot described in the second embodiment below, a flying object such as a drone, or a road surface such as an automobile. There are various things such as a moving body that moves.
  • the robot 1 can execute an operation method including the following detection step and control step, as described for its operation.
  • the said detection step detects the irradiated laser beam and its irradiation place.
  • the control step performs control to operate different operation units 1b in accordance with the irradiation location detected in the detection step. Other examples are as described in this embodiment.
  • the above program is a program for causing the control computer (control unit 1a) of the robot 1 to execute the following first step and second step.
  • the first step is any one of a step of inputting a detection result of the emitted laser light and detecting an irradiation location of the laser light, or a step of inputting a detection result of the irradiation location of the laser light.
  • the second step is a step of performing control to operate different operation units 1b according to the irradiation place. Other examples are as described in this embodiment.
  • FIG. 2 is an external view showing a configuration example of the fire extinguishing robot according to the second embodiment.
  • the robot according to this embodiment is a fire extinguishing robot 10 as shown in FIG.
  • the fire-extinguishing robot 10 may include a main body 11, a water discharge nozzle mount 12, a water discharge nozzle 13, a hose 14, a tire 15, and a camera 16.
  • the hose 14 When discharging water, the hose 14 can have one end provided in a reservoir or the like, and the water discharge nozzle 13 is attached to the other end.
  • the water discharge nozzle 13 is attached to the water discharge nozzle mount 12, and the water discharge angle and the water discharge direction can be changed by the control from the main body part 11 side, that is, the control from the control part 1a.
  • the tire 15 is a part of a moving mechanism (moving unit) that moves the fire-extinguishing robot 10, and can be rotated or the direction of the rotation axis can be changed by control from the main body 11 side.
  • the camera 16 is an example of an image pickup unit, and is provided on the front side of the main body 11 here so that it can be easily photographed.
  • the camera 16 can be provided with a mechanism that can change the shooting direction, and can also have a zoom function or the like.
  • the fire-extinguishing robot 10 includes the control unit 1a described in the first embodiment, a plurality of operation units 1b, and a laser detection unit 1c.
  • One of the plurality of operating units 1b here is a moving unit including the tire 15, and the other one is a water discharge unit mainly illustrated by the water discharge nozzle mount 12, the water discharge nozzle 13, and the hose 14. ..
  • a camera 16 is provided in the main body 11 as a part of the laser detection unit 1c. It should be noted that parts such as the control unit 1a not shown in FIG. 2 may be provided inside the main body 11.
  • the control unit 1a controls the operation of the different operation unit 1b according to the characteristics of the irradiation location detected by the laser detection unit 1c.
  • the moving part and the water discharge part which were mentioned above are mainly mentioned and demonstrated as an example of the different operation part 1b, you may be another operation part.
  • the characteristic of the irradiation place can be referred to as an attribute of the irradiation place.
  • the laser detection unit 1c can have an analysis unit that analyzes the characteristics of the irradiation location from the image acquired by the camera 16.
  • this analysis unit can be provided separately from the control unit 1a, it can also be mounted on one control circuit together with the control unit 1a. Further, the analysis unit can perform the determination by determining the edge or color of the image, and can determine the feature based on which feature among the plurality of features registered in advance. For example, the road surface can be determined by the black color of the asphalt, and in other cases, the building can be determined.
  • the analysis unit can be equipped with artificial intelligence, for example, can have a learning model such as CNN (Convolutional Neural Network) constructed by deep learning.
  • This learning model can be configured to input image data and output its characteristics (for example, an attribute indicating whether it is a building, a road surface, a person, or another artifact).
  • the learning model may be mounted outside the fire extinguishing robot 10 and configured to exchange input data and output data via wireless communication or the like.
  • the analysis unit is not limited to the above-described example, and the feature can be analyzed using another method.
  • the fire extinguishing robot 10 may have a wireless communication unit (not shown) in order to perform wireless communication.
  • the wireless communication unit can be configured to perform wireless communication based on, for example, a wireless LAN (Local Area Network) standard. Further, the wireless communication unit may be configured to perform wireless communication based on other wireless communication standards such as Bluetooth (registered trademark) and ZigBee (registered trademark) such as the IEEE 802.15 standard.
  • the wireless communication unit may be a communication unit capable of wirelessly connecting to an LPWA (Low Power Wide Area) base station capable of long-distance data communication with low current consumption.
  • the LPWA may be an LPWA using an original network or an LPWA using a mobile phone network.
  • Examples of the former LPWA include LoRaWAN (Long Range Wide Area Network) (registered trademark), SigFox (registered trademark), and Wi-Fi HaLow (IEEE 802.11ah).
  • Examples of the latter LPWA include 3GPP (Third Generation Partnership Project) LTE (Long Term Evolution)-M and 3GPP NB-IoT. Note that NB-IoT is an abbreviation for Narrow Band-Internet of Things.
  • control unit 1a controls the water discharge unit or the moving unit according to the characteristics of the irradiation place analyzed by the analysis unit.
  • FIG. 3 is a schematic diagram showing an example of a laser beam to be detected by the fire extinguishing robot according to the second embodiment
  • FIG. 4 is a schematic diagram showing another example of such a laser beam.
  • the laser light can be emitted as a lattice image (image having a grid pattern) 21 shown in FIG.
  • the laser detection unit 1c having the camera 16 is configured to be able to detect the laser light on which the lattice image 21 is drawn.
  • the number of grid images is not limited to the number of grids illustrated in the grid image 21, and may be different on the left and right sides and the upper and lower sides in the figure.
  • the laser light can be emitted as concentric circles 22 shown in FIG.
  • the laser detector 1c having the camera 16 is configured so as to be able to detect the laser light on which the concentric circle 22 is drawn.
  • the laser detection unit 1c can be configured to detect a laser beam on which any one of a straight line, an arrow, and a cross (cross) is drawn.
  • the cross may be an oblique cross.
  • the laser detection unit 1c can be configured to be able to detect other shapes other than this, and can also be configured to detect a plurality of shapes.
  • the fire-extinguishing robot 10 can also include a setting unit that sets the shape of the laser light to be detected by the laser detection unit 1c.
  • This setting unit can have a separately provided operation unit, or a terminal such as an external PC (Personal Computer) or mobile phone (including a so-called smartphone) via a separately provided wireless communication unit. Can also be configured to receive operations from.
  • the setting contents can be stored in a memory provided in the control unit 1a, for example.
  • the setting unit may be configured to set the size of the laser light in addition to or instead of the shape of the laser light.
  • FIGS. 5 to 8 are schematic diagrams showing another example of the laser light to be detected by the fire-extinguishing robot 10 and an example of an actual instruction with the laser light.
  • FIGS. 5 to 8 all show different examples in which an actual building or the like is irradiated with laser light.
  • FIG. 5 shows a situation where a fire starts from a building Bu such as an apartment, and a flame Fr and smoke Sm are emitted from a certain window.
  • a building Bu such as an apartment
  • a flame Fr and smoke Sm are emitted from a certain window.
  • the resident Mr of the building Bu is left behind, and the firefighter Ff is placed on the roof.
  • a fire brigade member (not shown) irradiates a diagonal cross-shaped laser beam 23 with a laser pointer from the front of the building Bu toward a location where water is to be sprayed.
  • the camera 16 captures an image including the building Bu and the road Rd in front of it, and the analysis unit analyzes the characteristics of the image.
  • the analysis unit can detect the fact that the laser light 23 is irradiated and the feature that it is the window of the building from the image around it.
  • the controller 1a can control the water discharger to operate based on the detection result. Therefore, the fire brigade member can instruct the location of the water sprayed by the fire extinguishing robot 10 by the laser irradiation device.
  • a firefighter (not shown) (or firefighter Ff) irradiates the road Rd with the laser light 24 linearly with a laser pointer.
  • the laser light 24 is drawn in a straight line for easy understanding, but the same diagonal cross shape as the laser light 23 may be moved from the front side to the back side of the road Rd, for example.
  • the analysis unit can detect the fact that the laser light 24 is irradiated and the feature that it is a road from the image around it.
  • the control unit 1a by associating the moving unit with the road in advance, the control unit 1a can control the moving unit to operate based on the detection result. Specifically, the control unit 1a can control the moving unit to move the fire-extinguishing robot 10 along the straight line (or along the locus thereof). Therefore, the firefighter can instruct the movement of the fire-extinguishing robot 10 with the laser irradiation device.
  • FIG. 7 shows a state where a larger cross-shaped laser beam 25 is emitted when the analysis unit cannot detect the irradiation of the laser beam 23.
  • the fact that the irradiation of the laser light 23 cannot be detected can be determined by, for example, confirming that the firefighter does not discharge the water despite the irradiation of the laser light 23. The firefighter who makes such a judgment newly emits a laser beam 25 larger than that.
  • the direction of the laser light by the laser pointer may rotate depending on the direction in which the laser pointer is gripped, without being limited to the example understood from the difference between FIG. 5 and FIG. 7.
  • the laser detector 1c changes the shape and/or the size of the laser light to be detected. For example, if the laser detection unit 1c (or the control unit 1a) cannot detect the laser light for a certain period of time (or the laser light can be detected but the characteristics of the place cannot be detected) and the irradiation place cannot be detected, The shape and/or size of the detection target in the detection unit 1c is changed. It is preferable to make the shape easier to discriminate, and it is preferable to increase the size.
  • the analysis unit can detect the fact that the laser light 25 is irradiated and the feature that it is the window of the building from the image around it.
  • the control unit 1a by associating the water discharge unit with the window (or the window and the flame) in advance, the control unit 1a operates the water discharge unit based on such a detection result. Can be controlled to Therefore, the firefighter can instruct the location where the fire extinguishing robot 10 is spraying water with the laser irradiation device while changing the instruction method so that water can be discharged.
  • the control unit 1a performs an operation to match the irradiation range of the laser light detected by the laser detection unit 1c.
  • the operation unit 1b to be controlled can be controlled. Accordingly, if the control target is a water discharge part, the water discharge range can be adjusted to a range including a cross, and if the control target is a moving part, it can be moved to a range indicated by a straight line.
  • the laser detection unit 1c can include a calculation unit (range estimation unit) that calculates the irradiation range (boundary of the irradiation range) of the irradiated laser light.
  • This calculation unit can be provided separately from the control unit 1a, but can also be installed in one control circuit together with the control unit 1a.
  • the irradiation range can be calculated by geometrical calculation. That is, by providing this calculator, the laser light can be restored so that the irradiation range can be seen.
  • the learning model can also be used in this calculation unit.
  • this calculator can be used to determine the irradiation location. That is, the control unit 1a can also be configured to determine the irradiation place from the calculated irradiation range.
  • the analysis of the laser detection unit 1c may be configured to analyze the features from the image within the calculated irradiation range, and the control unit 1a may be configured to determine the irradiation location based on the analysis result.
  • the control unit 1a can also control the operation by using the irradiation center instead of the irradiation range. That is, the control unit 1a can also control the operation unit 1b to be controlled so as to perform an operation of aligning with the irradiation center of the laser light detected by the laser detection unit 1c. Thereby, if the control target is the water discharge part, the water discharge center can be adjusted so as to be the intersection of the crosses.
  • the laser detection unit 1c has a calculation unit (center estimation unit) that calculates the irradiation center of the irradiated laser light.
  • This calculation unit can be provided separately from the control unit 1a, but can also be installed in one control circuit together with the control unit 1a. Especially in the case of crosses, squares, concentric circles, etc., even if some of them are missing as in the above example, by providing this calculation unit, the irradiation center can be calculated by geometric calculation. be able to. That is, by providing this calculator, the laser light can be restored so that the irradiation center can be seen.
  • the learning model can also be used in this calculation unit.
  • this calculator can be used to determine the irradiation location. That is, the control unit 1a can also be configured to determine the irradiation location from the calculated irradiation center. For example, in the analysis of the laser detection unit 1c, the characteristics are analyzed from an image within a certain range centered on the calculated irradiation center, and the control unit 1a is configured to receive the analysis result and determine the irradiation place. You can
  • control unit 1a can be configured to perform control to operate different operation units 1b according to the lattice shape of a lattice image such as the lattice image 21 illustrated in FIG.
  • the lattice shape can be determined by, for example, the angle of the lattice of the detected lattice image.
  • the angle of the grid of the grid image 21 becomes an acute angle.
  • the angle of the grating is close to 90 degrees when the light is irradiated to the front of the building Bu. Even when the road surface is illuminated, the grid shape becomes sharper than the front of the building Bu.
  • control unit 1a controls the fire extinguishing robot 10 to move to a place where the extinguishing efficiency is high when the angle of the grid is more acute than the predetermined angle, and to discharge water when the angle is obtuse than the predetermined angle. It can be performed. In this way, the control unit 1a can operate different operation units 1b depending on the lattice shape. In this case as well, the result of analyzing the image of the portion other than the laser light can be used to determine the irradiation location. Also, the learning model can be used in the determination process of the lattice image.
  • the laser detection unit 1c can also be configured to detect a laser beam on which a two-dimensional code such as a QR code (registered trademark; the same applies below) is drawn. Particularly, as described above in the case where the irradiation place cannot be detected, the condition of the projection target may not be good. However, when it is good, or when it is assumed that it is good and the first irradiation is performed, the two-dimensional code can be irradiated with laser light. Then, the fire-extinguishing robot 10 can also analyze the two-dimensional code and estimate the center position by the alignment pattern, which is one of the functions of the two-dimensional code. As a result, the water can be discharged to the place as instructed by the firefighters.
  • a two-dimensional code such as a QR code (registered trademark; the same applies below)
  • control unit 1a can also use the information included in the drawn image to control the operation unit 1b or the operation unit 1b selected as the control target. it can.
  • the laser detector 1c may be configured to detect the laser light on which the barcode is drawn.
  • the fire extinguishing robot 10 described above can be called a water discharging robot because it has a water discharging portion.
  • the fire-extinguishing robot 10 may be equipped with a function of sprinkling a fire extinguishing agent instead of or in addition to the function of sprinkling water. That is, instead of the water discharge part, or in combination with the water discharge part, a part for sprinkling the extinguishant may be provided. In the latter case, the water discharger and the part to which the fire extinguisher is sprinkled can be controlled so as to correspond to different operation parts 1b.
  • the fire extinguishing agent include foam extinguishing agent and powder extinguishing agent.
  • the fire-extinguishing robot 10 it is possible to perform a plurality of different operations by the laser light, as in the first embodiment, and in particular, extinguishing and moving the laser light is performed. Instructions can be divided by changing places.
  • the various examples described in the present embodiment can be applied to robots other than the fire extinguishing robot, except for the points related to fire extinguishing.
  • the system according to the present embodiment (hereinafter referred to as the present system) is a system including a plurality of robots 1 (or fire extinguishing robots 10) as described above. Therefore, in the present system, the robots 1 can be configured to be able to operate in cooperation with each other.
  • each robot 1 can be configured to recognize each other's position. Then, the control unit 1a of each robot can change the operation according to the recognized positions of each other.
  • the term “different operation” as used herein may mean different operation sections 1b to be operated, or different operation methods such as operation directions even if they are the same operation section 1b.
  • control unit 1a can perform control such as operating the water discharge unit because the aircraft is closest to the fire extinguishing target, and moving it closer because it is the farthest. In this way, the control unit 1a determines whether or not to execute the type of motion or the motion based on the relationship between the position of another robot, the position where the motion is required (for example, the fire extinguishing position), and the position of the own device. You can also decide.
  • the plurality of robots 1 are connected by a wireless network connection and are provided with a position information acquisition unit, so that the position information can be transmitted and received to and from each other.
  • the position information acquisition unit may be, for example, an acquisition unit using a technology such as a GPS (Global Positioning System) system, Michibiki (quasi-zenith satellite system), Wi-Fi (registered trademark), or the like.
  • the position of another robot may be determined only by the image captured by the image capturing unit exemplified by the camera 16. This is because other robots are also included in the captured image.
  • the laser detection unit 1c of each robot 1 can also be configured to detect the information indicating its own device, which is superimposed on the emitted laser light. For example, it is possible to superimpose a command including the ID of the robot 1 on the laser beam and perform the operation for each robot 1 based on the command to the ID of the own device.
  • this system it is possible to use lasers to instruct work at the same time so that multiple robots 1 can work autonomously.
  • the movement and the water discharge position can be instructed separately for each fire extinguishing robot.
  • it is expected that dangerous work will be robotized due to the shortage of manpower due to the decrease in the working population in the future, it is expected that dangerous work will be robotized. Therefore, as in the present system, it is necessary to instruct a plurality of robots 1 at the same time to allow each robot 1 to work autonomously. Will be beneficial.
  • the fire-extinguishing robot according to the present embodiment includes a control unit 1a, a fire-extinguishing unit that sprinkles water or a fire extinguishing agent, and a laser detection unit 1c, like the fire-extinguishing robot 10 that has the configuration of the robot 1 of FIG. Prepare
  • the laser detector 1c in the present embodiment may detect the emitted laser light.
  • the fire extinguishing robot according to the present embodiment may include the fire extinguishing unit as one operation unit.
  • control unit 1a in the present embodiment controls the fire extinguishing unit so as to sprinkle water or a fire extinguishing agent at the position indicated by the laser beam detected by the laser detecting unit 1c.
  • the fire-extinguishing robot preferably includes a moving unit that moves the fire-extinguishing robot.
  • the control unit 1a controls the moving unit so as to move the laser light on the road surface in the direction indicated by the laser light. Good.
  • the fire-extinguishing robot can execute an operation method including the following detection step and control step, as described above.
  • the said detection step detects the irradiated laser beam.
  • the said control step controls the said fire-extinguishing part so that water or a fire-extinguishing agent may be sprinkled on the position which the laser beam detected by the said detection step shows.
  • Other examples are as described in this embodiment.
  • the above program is a program for causing the control computer of the fire extinguisher robot having the above fire extinguishing unit to execute the following input step and control step.
  • the input step the detection result of the emitted laser light is input.
  • the control step the fire extinguishing section is controlled so as to sprinkle water or a fire extinguishing agent on the detection position of the laser light indicated by the detection result input in the input step.
  • Other examples are as described in this embodiment.
  • the fifth embodiment will be described focusing on the differences from the first embodiment. However, the various examples described in the first to fourth embodiments can be appropriately applied to the fifth embodiment.
  • the robot according to the present embodiment includes a control unit 1a, a plurality of operation units 1b corresponding to a plurality of functions, and a laser detection unit 1c.
  • the laser detector 1c in the present embodiment may detect the emitted laser light.
  • the laser detector 1c in this embodiment detects information embedded in the laser light.
  • the information is embedded on the laser irradiation device side, but not limited to the example of being embedded by modulation or the like, a two-dimensional code such as a QR code can be embedded as the shape of the drawn image.
  • the control unit 1a controls the operation of the different operation unit 1b according to the information detected by the laser detection unit 1c.
  • the fire extinguishing robot as described in the second embodiment can be adopted, and in that case, at least the fire extinguishing section and the fire extinguishing robot that sprinkle water or a fire extinguishing agent are moved as the plurality of operation units 1b. And a moving part.
  • the robot according to the present embodiment can execute the operation method including the following detection step and control step, as described above.
  • the detection step the irradiated laser light is detected, and the information embedded in the laser light is detected.
  • the control step performs control to operate different operation units according to the information detected in the detection step. Other examples are as described in this embodiment.
  • the above program is a program for causing the control computer (control unit 1a) of the robot 1 to execute the following first step and second step.
  • the first step is one of a step of inputting a detection result of the emitted laser light to detect information embedded in the laser light, or a step of inputting the information.
  • the second step is a control step of performing control to operate different operation units according to the information. Other examples are as described in this embodiment.
  • FIG. 9 is a figure which shows an example of the reflective surface used as the detection target in the fire-extinguishing robot which concerns on Embodiment 6.
  • various examples described in the first to fifth embodiments can be appropriately applied.
  • the fire extinguishing robot according to the present embodiment includes a control unit 1a, a fire extinguishing unit that sprinkles water or a fire extinguishing agent, and a laser detection unit 1c. Also, the fire extinguishing robot according to the present embodiment only needs to include the fire extinguishing section as one operation section. However, unlike the fourth embodiment, the laser detection unit 1c in the present embodiment detects the laser light reflected by the reflecting surface having a predetermined shape among the irradiated laser lights. Of course, as described in the first to fifth embodiments, it is possible to detect the laser light reflected by other than the reflecting surface.
  • the reflecting surface is provided on the personal fire protection equipment of fire fighters (hereinafter simply referred to as equipment).
  • the reflective surfaces TB-1 to TB-6 are made of a reflective material such as a fluorescent cloth attached to or embedded in equipment such as fire fighting clothes and helmets of the firefighters Ff-1 and Ff-2. can do. Firefighters are dispatched to the site where a fire-extinguishing robot is needed.
  • the laser light reflected by the laser detector 1c on the reflective surface TB-1 etc. Can be detected.
  • the reflecting surfaces TB-1, TB-2, and TB-3 are provided on the helmet of the firefighter Ff-1 on the outside of the right arm and outside of the right leg, respectively.
  • the reflecting surfaces TB-4, TB-5, and TB-6 are provided on the helmet of the firefighter Ff-2, outside the left arm, and outside the left leg, respectively.
  • the reflecting surface TB-1 and the like have a predetermined shape as described above. Examples of the predetermined shape include a two-dimensional code such as a QR code, but the predetermined shape is not limited to this and may be a simpler geometric pattern.
  • the control unit 1a in the present embodiment identifies the position of the firefighter from the detection position of the laser light detected by the laser detection unit 1c.
  • the position can be specified based on geometrical calculation or the like, as in the calculation of the irradiation center.
  • the position of the firefighter can be specified.
  • the specified position of the fire brigade member can be superimposed and displayed on an electronic map at a terminal such as a PC or a mobile phone. Other fire brigade members, captains, etc. can refer to this when referring to the change of fire brigade members' positions.
  • the reflecting surfaces TB-1 to TB-3 can have the same shape as each other, whereby the position of the firefighter Ff-1 can be specified only by detecting one of the reflecting surfaces.
  • the reflecting surfaces TB-4 to TB-6 can have the same shape as each other.
  • the control unit 1a can also be configured to determine the presence/absence of operation of firefighters from the detection position of the laser light detected by the laser detection unit 1c. Further, based on the result of time-series detection of one or a plurality of reflecting surfaces, it is also possible to determine the presence or absence of the action of the fire brigade member regarding the reflecting surfaces. Further, as illustrated in FIG. 9, by providing a plurality of reflecting surfaces for one firefighter, the control unit 1a determines the posture of the firefighter based on the positional relationship of the plurality of reflecting surfaces. can do. The control unit 1a can accurately detect, for example, that the fire brigade member has fallen and cannot move, based on the determination result of either one or both. In particular, the control unit 1a can determine the presence/absence of the operation of each firefighter by using it together with a configuration that can detect personal information, which will be described later.
  • the reflecting surface may be provided with different shapes (predetermined shapes) from each other at least at two positions on the front side, the rear side, the left side and the right side of the firefighter.
  • the reflecting surfaces TB-1 to TB-3 provided on the right side as exemplified by the firefighter Ff-1 and the reflecting surfaces TB-4 to 6 provided on the left side as exemplified by the firefighter Ff-2 Can have different shapes.
  • the reflective surface that can be detected differs depending on the left-right direction of the firefighter.
  • by providing similar reflecting surfaces (but reflecting surfaces of different shapes) before and after the firefighter it is possible to detect whether the firefighter is facing the fire-extinguishing robot side or the other side.
  • the reflective surface can be different.
  • the control unit 1a can be configured to identify the position and orientation of the firefighter based on the laser light detected by the laser detection unit 1c. This allows the firefighters to know the direction in which they are facing, so other firefighters or captains can easily instruct the firefighters to move using wireless communication devices by viewing this information on the terminal. Become. Furthermore, this makes it possible to easily determine whether or not the fire brigade members are operating.
  • the control unit 1a should be further configured to control the fire extinguishing unit so as to sprinkle water or a fire extinguishing agent on the fire extinguishing position based on the position and direction of the firefighter.
  • the control unit 1a estimates the direction in which the firefighters are looking, and sets the fire extinguishing position at a position away from the firefighters' position in the direction (or a predetermined angle downward in that direction) as a fire-extinguishing position. Control the fire extinguisher to sprinkle. Further, such fire extinguishing can be performed only when another laser beam simultaneously radiated is radiated to the building.
  • the fire-extinguishing robot preferably includes a moving unit that moves the fire-extinguishing robot.
  • the control part 1a can also control a moving part to move to the moving position based on the position and direction of the identified fire brigade member.
  • the control unit 1a estimates the direction in which the firefighter is looking and controls the moving unit so that the fire-extinguishing robot moves to a position away from the position of the firefighter by a predetermined distance in that direction. Further, such movement can be performed only when another laser beam that is simultaneously emitted is emitted to the road surface.
  • the control unit 1a may be configured to control the fire extinguishing unit if a certain condition is satisfied and control the moving unit if another certain condition is satisfied, based on the specified position and orientation.
  • the predetermined shape may include a shape indicating personal information for identifying individual fire brigade members (may be personal information for identifying a role). Then, the laser detector 1c detects this personal information by analyzing the detected laser light or the like.
  • a two-dimensional code such as a QR code can be used as the predetermined shape, but such a detection is possible even if it is a mere geometrical shape if it is distinguished for each firefighter.
  • the control unit 1a can also be configured to perform control according to the personal information detected by the laser detection unit 1c. That is, it can be said that the fire-extinguishing robot according to the present embodiment can use the information formed as the reflecting surface, instead of the information embedded in the laser light described in the fifth embodiment.
  • the firefighter Ff-1 is a member specializing in discharging water
  • the firefighter Ff-2 is a member specializing in rescue
  • another firefighter is a member specializing in guiding a fire extinguishing robot on the road surface, etc.
  • a shaped reflecting surface is provided, and the laser detector 1c detects it.
  • control unit 1a can control the fire extinguishing unit when the detected firefighter is specialized in water discharge, and the moving unit when the detected firefighter is specialized in guiding.
  • the control according to the personal information is not limited to this.
  • the fire-extinguishing robot can execute an operation method including the following detection step and control step, as described above.
  • the detecting step the laser light reflected by the reflecting surface having a predetermined shape provided on the personal fire protection equipment of the firefighter is detected.
  • the control step specifies the position of the firefighter from the detection position of the laser light detected in the detection step. Other examples are as described in this embodiment.
  • the above program is a program for causing the control computer of the fire extinguisher robot having the above fire extinguishing unit to execute the following input step and control step.
  • the input step the detection result of the laser light reflected by the reflecting surface having a predetermined shape provided on the personal fire protection equipment of the firefighter is input.
  • the control step specifies the position of the firefighter from the detection position of the laser light indicated by the detection result input in the input step. Other examples are as described in this embodiment.
  • this learning model can be a learning model in which image data of a fire scene or the like is input and the irradiation location in the laser irradiation device, the shape of laser light, and the like are output. With such a learning model, it is possible to irradiate an appropriate irradiation place with laser light from a laser irradiation device mounted on a robot or the like.
  • the robot according to each embodiment may have the following hardware configuration.
  • FIG. 10 is a diagram showing an example of the hardware configuration of the robot according to each embodiment.
  • the robot 100 shown in FIG. 10 has a processor 101, a memory 102, and an interface 103.
  • the interface 103 can be connected to a detection device that detects laser light.
  • the function of each unit described in each embodiment is realized by the processor 101 reading a program stored in the memory 102 and executing the program based on the information input from the interface 103.
  • This program can be the program described in each embodiment.
  • Non-transitory computer-readable media include various types of tangible storage media.
  • Examples of non-transitory computer readable media include magnetic recording media (eg, flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (eg, magneto-optical disks).
  • this example includes a CD-ROM (Read Only Memory), a CD-R, and a CD-R/W.
  • this example includes a semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (Random Access Memory)).
  • the program may be supplied to the computer by various types of transitory computer readable media.
  • Examples of transitory computer-readable media include electrical signals, optical signals, and electromagnetic waves.
  • the transitory computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.
  • Appendix 1 A plurality of operating parts corresponding to each of a plurality of functions, A laser detection unit that detects the irradiated laser light and its irradiation location, A control unit, Equipped with The control unit performs control to operate different operation units according to the irradiation location detected by the laser detection unit, robot.
  • the control unit performs control to operate different operation units according to the characteristics of the irradiation location detected by the laser detection unit, The robot according to attachment 1.
  • the laser detection unit includes an imaging unit, and an analysis unit that analyzes the characteristics of the irradiation place from the image acquired by the imaging unit, The robot according to attachment 2.
  • the control unit controls the operation unit to be controlled so as to perform an operation that matches the irradiation range of the laser light detected by the laser detection unit,
  • the robot according to any one of appendices 1 to 3.
  • the laser detection unit has a calculation unit that calculates the irradiation range of the irradiated laser light, The robot according to any one of appendices 1 to 4.
  • the control unit controls the operation unit to be controlled so as to perform an operation of aligning with the irradiation center of the laser light detected by the laser detection unit, 6.
  • the robot according to any one of appendices 1 to 5.
  • the laser detection unit has a calculation unit that calculates the irradiation center of the irradiated laser light, 7.
  • the robot according to any one of appendices 1 to 6.
  • the laser detector detects a laser beam on which a two-dimensional code is drawn, 8.
  • the robot according to any one of appendices 1 to 7.
  • the laser detection unit detects laser light on which any one of a straight line, an arrow, a cross, and a concentric circle is drawn. 9. The robot according to any one of appendices 1 to 8.
  • the laser detection unit detects a laser beam on which a lattice image is drawn, 9.
  • the robot according to any one of appendices 1 to 8.
  • the control unit performs control to operate different operation units according to the lattice shape of the lattice image, The robot according to attachment 10.
  • the laser detection unit includes a setting unit that sets at least one of the shape or size of the laser light to be detected. 12.
  • the robot according to any one of appendices 1 to 11.
  • the robot is a fire-extinguishing robot having a function of spraying water or a fire extinguishing agent and a movement function of moving the robot. 14. The robot according to any one of appendices 1 to 13.
  • Appendix 15 A system comprising a plurality of robots according to any one of appendices 1 to 14.
  • Each robot is configured to recognize each other's position, The control unit of each robot changes its operation according to the recognized position of each other, The system according to attachment 15.
  • Appendix 18 An irradiation unit for irradiating the laser beam is provided, The system according to any one of appendices 15 to 17.
  • a fire extinguisher that sprinkles water or extinguishing agents
  • a laser detector that detects the emitted laser light
  • a control unit Equipped with The control unit controls the fire extinguishing unit so as to sprinkle the water or the fire extinguishing agent at a position indicated by the laser beam detected by the laser detection unit, Fire extinguisher robot.
  • a moving unit for moving the fire-extinguishing robot When the position of the laser light detected by the laser detection unit is a position indicating a road surface, the control unit controls the moving unit so as to move the laser light in the direction indicated by the laser light on the road surface, The fire-extinguishing robot according to attachment 21.
  • Appendix 23 A method of operating a fire-extinguishing robot having a fire-extinguishing section that sprinkles water or a fire extinguishing agent, A detection step of detecting the irradiated laser light, In order to sprinkle the water or fire extinguishing agent at the position indicated by the laser beam detected in the detecting step, a control step of controlling the fire extinguishing section, A method for operating a fire-extinguishing robot equipped with.
  • Appendix 25 A plurality of operating parts corresponding to each of a plurality of functions, A laser detector that detects the emitted laser light, A control unit, Equipped with The laser detector detects information embedded in the laser light, The control unit performs control to operate different operation units according to the information detected by the laser detection unit, robot.
  • the robot is a fire extinguishing robot, As the plurality of operation units, at least a fire extinguishing unit that sprinkles water or a fire extinguishing agent and a moving unit that moves the fire extinguishing robot are provided.
  • the robot according to attachment 25.
  • a method of operating a robot comprising:
  • a fire extinguisher that sprinkles water or extinguishing agents
  • a laser detector that detects laser light reflected by a reflecting surface having a predetermined shape
  • a control unit Equipped with The reflective surface is provided on the personal fire protection equipment of firefighters, The control unit identifies the position of the firefighter from the detection position of the laser light detected by the laser detection unit, Fire extinguisher robot.
  • the control unit determines the presence or absence of the operation of the firefighter from the detection position of the laser light detected by the laser detection unit, The fire-extinguishing robot according to attachment 29.
  • the reflecting surface is provided on at least two positions of the front side, the rear side, the left side, and the right side of the firefighter with the predetermined shapes different from each other,
  • the control unit identifies the position and orientation of the firefighter based on the laser light detected by the laser detection unit, The fire-extinguishing robot according to attachment 29 or 30.
  • the control unit controls the fire extinguishing unit so as to sprinkle the water or the fire extinguishing agent at a fire extinguishing position based on the position and orientation of the firefighter.
  • the fire-extinguishing robot according to attachment 31.
  • a moving unit for moving the fire-extinguishing robot The control unit controls the moving unit to move to a moving position based on the position and orientation of the firefighter.
  • the fire-extinguishing robot according to attachment 31 or 32.
  • the predetermined shape includes a shape showing personal information for identifying each of the fire brigade members,
  • the laser detector detects the personal information,
  • the control unit performs control according to the personal information detected by the laser detection unit,
  • the fire-extinguishing robot according to any one of appendices 29 to 33.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Electromagnetism (AREA)
  • Emergency Management (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Public Health (AREA)
  • Health & Medical Sciences (AREA)
  • Optics & Photonics (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Fire-Extinguishing By Fire Departments, And Fire-Extinguishing Equipment And Control Thereof (AREA)

Abstract

レーザ光により複数の異なる動作を行わせることが可能なロボットを提供する。ロボット(1)は、制御部(1a)と、n個の機能のそれぞれに対応したn個の動作部(1b-1)~(1b-n)と、レーザ検出部(1c)と、を備える。nは2以上の整数である。レーザ検出部(1c)は、照射されたレーザ光及びその照射場所を検出する。制御部(1a)は、レーザ検出部(1c)で検出された照射場所に応じて、異なる動作部(1b)を動作させる制御を行う。

Description

ロボット、ロボットの動作方法、及び非一時的なコンピュータ可読媒体
 本開示は、ロボット、ロボットの動作方法、及びプログラムに関する。
 特許文献1には、レーザポインタの反射軌跡に応じた命令をロボットが実行する技術が記載されている。
特開2005-52961号公報
 しかしながら、特許文献1に記載の技術では、レーザポインタでロボットに位置を示してロボットに動作を指示することができるものの、ロボットに1種類の動作を行わせることしかできない。
 本開示の目的は、レーザ光により複数の異なる動作を行わせることが可能なロボット、ロボットの動作方法、及びプログラムを提供することにある。
 本開示の第1の態様に係るロボットは、複数の機能のそれぞれに対応した複数の動作部と、照射されたレーザ光及びその照射場所を検出するレーザ検出部と、制御部と、を備え、前記制御部は、前記レーザ検出部で検出された前記照射場所に応じて、異なる動作部を動作させる制御を行う、ものである。
 本開示の第2の態様に係るロボットの動作方法は、複数の機能のそれぞれに対応した複数の動作部を備えたロボットの動作方法であって、照射されたレーザ光及びその照射場所を検出する検出ステップと、前記検出ステップで検出された前記照射場所に応じて、異なる動作部を動作させる制御を行う制御ステップと、を備えた、ものである。
 本開示の第3の態様に係るプログラムは、複数の機能のそれぞれに対応した複数の動作部を備えたロボットの制御コンピュータに、照射されたレーザ光の検出結果を入力して前記レーザ光の照射場所を検出するステップ、或いは、前記レーザ光の照射場所の検出結果を入力するステップ、のいずれか1つのステップと、前記照射場所に応じて、異なる動作部を動作させる制御を行うステップと、を実行させるためのプログラムである。
 本開示により、レーザ光により複数の異なる動作を行わせることが可能なロボット、ロボットの動作方法、及びプログラムを提供することができる。
実施形態1に係るロボットの一構成例を示す機能ブロック図である。 実施形態2に係る消火ロボットの一構成例を示す外観図である。 実施形態2に係る消火ロボットにおける検出対象となるレーザ光の一例を示す模式図である。 実施形態2に係る消火ロボットにおける検出対象となるレーザ光の他の例を示す模式図である。 実施形態2に係る消火ロボットにおける検出対象となるレーザ光の他の例、並びに実際のそのレーザ光による指示の例を示す模式図である。 実施形態2に係る消火ロボットにおける検出対象となるレーザ光の他の例、並びに実際のそのレーザ光による指示の例を示す模式図である。 実施形態2に係る消火ロボットにおける検出対象となるレーザ光の他の例、並びに実際のそのレーザ光による指示の例を示す模式図である。 実施形態2に係る消火ロボットにおける検出対象となるレーザ光の他の例、並びに実際のそのレーザ光による指示の例を示す模式図である。 実施形態6に係る消火ロボットでの検出対象となる反射面の一例を示す図である。 ロボットのハードウェア構成の一例を示す図である。
 以下、図面を参照して、実施形態について説明する。なお、実施形態において、同一又は同等の要素には、同一の符号を付し、重複する説明を省略する場合がある。
<実施形態1>
 図1は、実施形態1に係るロボットの一構成例を示す機能ブロック図である。
 図1に示すように、本実施形態に係るロボット1は、その全体を制御する制御部1aと、n個の機能のそれぞれに対応したn個の動作部1b-1~1b-nと、レーザ検出部1cと、を備える。制御部1aは、コントローラとすることができる。また、レーザ検出部1cはレーザ検出装置とすることができ、レーザ検出センサを有することができる。
 ここで、nは2以上の整数である。以下、n個の動作部のうち1つを代表して説明する場合には、動作部1bと称する。つまり、ロボット1は、複数の動作部1bを備える。各動作部1bは、異なる機能に対応しており、ある動作部1bを動作させた場合と他の動作部1bを動作させた場合とでは、異なる機能を果たせることになる。
 制御部1aは、例えば、CPU(Central Processing Unit)、作業用メモリ、及びロボット1の全体を制御するためのプログラムを記憶した不揮発性の記憶装置などによって実現することができる。なお、この記憶装置は、ロボット1の設定情報などを記憶する記憶部として機能させることもできる。また、この制御部は、例えば集積回路(Integrated Circuit)によって実現することもできる。
 レーザ検出部1cは、照射されたレーザ光(建物、煙等の何らかの物質に照射されて反射されたレーザ光)及びその照射場所を検出する。照射されたレーザ光とは、例えば、ポータブルタイプのレーザ照射装置を使用して人などにより照射されたレーザ光を指すことができ、一度に図形として描かれたレーザ光であっても、経時的に軌跡として描かれたレーザ光であってもよい。なお、ポータブルタイプのレーザ照射装置としては、レーザポインタと称されるものが挙げられ、一度に描かれた図形状のレーザ光を検出させる場合には、その図形が一度に照射させるタイプのレーザポインタを用いることができる。
 そして、本実施形態の主たる特徴の1つとして、制御部1aは、レーザ検出部1cで検出された照射場所に応じて、異なる動作部1bを動作させる制御を行う。この制御は、異なる機能を有効にする制御であると言える。つまり、ロボット1は、検出されたレーザ光の照射場所に応じて異なる機能の動作を行うように構成されている。
 なお、1つの機能に対応した動作部1bは、複数の動作部の集合体で構成されることもでき、この集合体の一部の動作部は他の動作部1bの集合体の一部とすることもできる。例えば、動作部1b-1を構成する複数の動作部のうち一部の動作部は、動作部1b-nを構成する複数の動作部のうちの一部の動作部とすること、或いは動作部1b-nそのものとすることもできる。
 以上に説明したように、本実施形態に係るロボット1では、レーザ光により複数の異なる動作を行わせることが可能になる。ロボット1としては、以下の実施形態2等で説明するような消火ロボットをはじめ、他の目的のために製造されたロボットであってもよいし、ドローンのような飛行体、自動車のような路面を移動する移動体など、様々なものが挙げられる。
 ここで、複数の機能のそれぞれに対応した複数の動作部1bを備えたロボット1の動作方法及びプログラムについて補足する。本実施形態に係るロボット1は、その動作を説明したように、次のような検出ステップ及び制御ステップを備えた動作方法を実行することができる。上記検出ステップは、照射されたレーザ光及びその照射場所を検出する。上記制御ステップは、上記検出ステップで検出された照射場所に応じて、異なる動作部1bを動作させる制御を行う。その他の例については、本実施形態で説明した通りである。
 上記のプログラムは、ロボット1の制御コンピュータ(制御部1a)に、次の第1ステップと第2ステップを実行させるためのプログラムであると言える。上記第1ステップは、照射されたレーザ光の検出結果を入力してそのレーザ光の照射場所を検出するステップ、或いは、そのレーザ光の照射場所の検出結果を入力するステップ、のいずれか1つである。上記第2ステップは、照射場所に応じて、異なる動作部1bを動作させる制御を行うステップである。その他の例については、本実施形態で説明した通りである。
<実施形態2>
 実施形態2について、図1とともに図2~図8を併せて参照しながら、実施形態1との相違点を中心に説明するが、実施形態1で説明した様々な例が適用できる。図2は、実施形態2に係る消火ロボットの一構成例を示す外観図である。
 本実施形態に係るロボットは、図2に示すように消火ロボット10である。消火ロボット10は、本体部11、放水ノズル取付台12、放水ノズル13、ホース14、タイヤ15、及びカメラ16を備えることができる。
 ホース14は、放水時には、その一端を貯水池などに設けておくことができ、他端に放水ノズル13が取り付けられている。放水ノズル13は、放水ノズル取付台12に取り付けられており、その放水角度と放水方向が本体部11側からの制御により、つまり制御部1aからの制御により、変更可能となっている。タイヤ15は、消火ロボット10を移動させる移動機構(移動部)の一部であり、本体部11側からの制御により、回転や回転軸の方向の変更などが可能になっている。
 カメラ16は、撮像部の一例であり、ここでは撮影し易いように本体部11の前方側に設けられている。カメラ16は、その撮影方向を変更可能にする機構を設けておくことができ、またズーム機能などを持たせておくこともできる。
 また、消火ロボット10は、図示しないが、実施形態1で説明した制御部1a、複数の動作部1b、レーザ検出部1cを備える。ここでの複数の動作部1bのうちの1つがタイヤ15を含む移動部であり、他の1つが、主に放水ノズル取付台12、放水ノズル13、及びホース14で例示された放水部である。また、消火ロボット10は、レーザ検出部1cの一部としてカメラ16が本体部11に設けられている。なお、制御部1aなどの図2で図示しない部分は、本体部11の内部に設けておくことができる。
 本実施形態に係る制御部1aは、レーザ検出部1cで検出された照射場所の特徴に応じて、異なる動作部1bを動作させる制御を行う。以下では、異なる動作部1bの例として、主に上述した移動部及び放水部を挙げて説明するが、他の動作部であってもよい。また、照射場所の特徴とは、照射場所の属性と称することもできる。
 レーザ検出部1cは、カメラ16で取得された画像から照射場所の特徴を解析する解析部を有することができる。なお、この解析部は、制御部1aとは別個に設けることができるが、制御部1aとともに1つの制御回路に搭載することもできる。また、解析部は、画像のエッジや色などを判定することで行うことができ、予め登録しておいた複数の特徴の中からどの特徴に該当するかにより、特徴を判定することができる。例えば、路面であるとアスファルトの黒色で判定ができ、それ以外の場合には建物と判定することもできる。
 また、解析部は、人工知能を搭載すること、例えばディープラーニングにより構築されたCNN(Convolutional Neural Network)等の学習モデルを有することができる。この学習モデルは、画像のデータを入力し、その特徴(例えば、建物、路面、人物、他の人工物のいずれであるのかを示す属性)を出力するように構成することができる。なお、学習モデルは、消火ロボット10の外部に搭載し、無線通信などを介して入力データ及び出力データのやりとりを行うように構成することもできる。また、解析部は、上述したような例に限らず、他の手法を用いて特徴を解析することもできる。
 なお、無線通信を行うために、消火ロボット10は、図示しない無線通信部を有することができる。この無線通信部は、例えば無線LAN(Local Area Network)規格に基づく無線通信を行うように構成することができる。また、この無線通信部は、Bluetooth(登録商標)、ZigBee(登録商標)など、IEEE802.15規格をはじめとする他の無線通信規格に基づく無線通信を行うように構成することもできる。例えば、上記無線通信部は、長距離のデータ通信が低消費電流で可能なLPWA(Low Power Wide Area)基地局と無線接続可能な通信部とすることもできる。LPWAは、独自網を用いたLPWAであってもよいし、携帯電話網を用いたLPWAであってもよい。前者のLPWAとしては、例えば、LoRaWAN(Long Range Wide Area Network)(登録商標)、SigFox(登録商標)、Wi-Fi HaLow(IEEE 802.11ah)などが挙げられる。後者のLPWAとしては、例えば、3GPP(Third Generation Partnership Project) LTE(Long Term Evolution)-M、3GPP NB-IoTなどが挙げられる。なお、NB-IoTはNarrow Band - Internet of Thingsの略である。
 そして、制御部1aは、解析部で解析された照射場所の特徴に応じて、放水部を動作させる制御を行うか、或いは移動部を動作させる制御を行う。
 次に、照射されるレーザ光について例示する。図3は、実施形態2に係る消火ロボットにおける検出対象となるレーザ光の一例を示す模式図で、図4は、そのようなレーザ光の他の例を示す模式図である。
 レーザ光は、図3に示す格子画像(マス目状の画像)21として照射することができる。この場合、カメラ16を有するレーザ検出部1cは、格子画像21が描画されたレーザ光を検出できるように構成しておく。なお、格子画像は、格子画像21で例示する格子数に限らず、図示する左右側と上下側とで異なる数であってもよい。
 また、レーザ光は、図4に示す同心円22として照射することができる。この場合、カメラ16を有するレーザ検出部1cは、同心円22が描画されたレーザ光を検出できるように構成しておく。
 その他、例えば、レーザ検出部1cは、直線、矢印、十字(クロス)のいずれか1が描画されたレーザ光を検出するように構成しておくことができる。なお、十字は斜め十字であってもよい。無論、レーザ検出部1cは、これ以外の他の形状も検出可能に構成することができ、また、複数の形状を検出するように構成することもできる。
 また、消火ロボット10は、レーザ検出部1cで検出対象とするレーザ光の形状を設定する設定部を備えることもできる。この設定部は、別途設けた操作部を有することができ、或いは、別途設けた無線通信部を介して外部のPC(Personal Computer)や携帯電話機(スマートフォンと称されるものを含む)等の端末からの操作を受信するように構成することもできる。設定内容は、例えば、制御部1a内などに設けられたメモリに記憶しておくことができる。また、設定部は、レーザ光の形状と併せて又は形状の代わりに、レーザ光のサイズを設定するように構成することもできる。
 次に、図5~図8を併せて参照しながら、レーザ光等の具体例について説明する。図5~図8はいずれも、消火ロボット10における検出対象となるレーザ光の他の例、並びに実際のそのレーザ光による指示の例を示す模式図である。図5~図8では、いずれも、実際の建物等にレーザ光が照射された異なる例を挙げている。
 図5では、マンション等のビルBuから火災が発生し、或る窓から炎Frと煙Smが出ている状況を示している。なお、図5では、このビルBuの住人Mrが取り残され、消防隊員Ffが屋上に配置されている状況を示している。
 このような状況において、図示しない消防隊員がビルBuの前方などから、放水したい箇所に向けて、レーザポインタにより斜め十字形状のレーザ光23を照射する。カメラ16は、ビルBuやその前の道路Rdを含む画像を撮影し、解析部がそれの特徴を解析する。
 図5の例では、解析部は、レーザ光23が照射されていること、並びにその周囲の画像からそれがビルの窓であるという特徴を検出することができる。制御部1aにおいて、窓(又は窓及び炎)に予め放水部を対応付けておくことで、制御部1aは、このような検出結果に基づき放水部を動作させるように制御することができる。よって、消防隊員は、消火ロボット10による放水場所をレーザ照射装置で指示することができる。
 図6では、図5と同じ状況において、図示しない消防隊員(又は消防隊員Ff)が道路Rdに向けて、レーザポインタにより直線状にレーザ光24を照射する。なお、レーザ光24は分かり易いように直線状に描いているが、例えば、レーザ光23と同じ斜め十字形状を道路Rdの手前側から奥側に向かって移動させていくこともできる。
 図6の例では、解析部は、レーザ光24が照射されていること、並びにその周囲の画像からそれが道路であるという特徴を検出することができる。制御部1aにおいて、道路に予め移動部を対応付けておくことで、制御部1aは、このような検出結果に基づき移動部を動作させるように制御することができる。具体的には、制御部1aは、その直線に沿って(又はその軌跡に沿って)、消火ロボット10を移動させるように移動部を制御することができる。よって、消防隊員は、消火ロボット10の移動をレーザ照射装置で指示することができる。
 図7では、図5と同じ状況において、解析部がレーザ光23の照射を検出できなかった場合に、より大きな十字形状のレーザ光25を照射した状態を示している。レーザ光23の照射を検出できなかったことは、例えば消防隊員がレーザ光23の照射を行ったにも拘わらず放水されないことを確認することで判断することができる。そのような判断を行った消防隊員は、新たにそれより大きなレーザ光25を照射させる。なお、図5と図7の違いから分かる例に限らず、レーザポインタによるレーザ光の向きは、レーザポインタを把持する向きにより回転することがある。
 そして、レーザ検出部1cは、照射場所の検出ができない場合、検出対象とするレーザ光の形状及び/又はサイズを変更する。例えば、レーザ検出部1c(又は制御部1a)は、一定期間、レーザ光が検出できず(或いはレーザ光は検出できるもののその場所の特徴が検出できず)に照射場所の検出ができない場合、レーザ検出部1cでの検出対象の形状及び/又はサイズを変更する。形状はより判別しやすい形状とすることが好ましく、サイズは大きくすることが好ましい。
 図7の例では、解析部は、レーザ光25が照射されていること、並びにその周囲の画像からそれがビルの窓であるという特徴を検出することができる。図5の例について上述したように、制御部1aにおいて、窓(又は窓及び炎)に予め放水部を対応付けておくことで、制御部1aは、このような検出結果に基づき放水部を動作させるように制御することができる。よって、消防隊員は、消火ロボット10による放水場所を、放水できるように指示方法を変えながらレーザ照射装置で指示することができる。
 また、レーザ光23,25への放水やレーザ光24に沿った移動について説明したように、制御部1aは、レーザ検出部1cで検出されたレーザ光の照射範囲に合わせるような動作を行うように、制御対象の動作部1bを制御することができる。これにより、制御対象が放水部であれば放水範囲を十字を含めるような範囲に合わせることができ、制御対象が移動部であれば直線が示す範囲まで移動させることができる。
 また、煙Smにレーザ光が照射された場合のように、レーザ光の照射範囲が不明確になる場合がある。そのような場面への対処として、レーザ検出部1cは、照射されたレーザ光の照射範囲(照射範囲の境界)を算出する算出部(範囲推測部)を有することができる。この算出部は、制御部1aとは別個に設けることができるが、制御部1aとともに1つの制御回路に搭載することもできる。特に十字、マス目、同心円などでは、煙の部分や、木立や割れた窓等、物体の凹凸部分に照射されるなどしてその一部が欠けていた場合であっても、この算出部を設けておくことで、幾何学的な計算で照射範囲を算出することができる。つまり、この算出部を設けておくことでレーザ光を照射範囲が分かるように復元することができる。なお、この算出部においても学習モデルを利用することができる。
 また、この算出部は、照射場所の判定に用いることもできる。つまり、制御部1aは、算出された照射範囲からその照射場所を判定するように構成することもできる。例えば、レーザ検出部1cの解析は、算出された照射範囲内の画像から特徴を解析し、制御部1aはその解析結果を受けて照射場所を判定するように構成することができる。
 また、制御部1aは、照射範囲の代わりに照射中心を利用して動作を制御することもできる。すなわち、制御部1aは、レーザ検出部1cで検出されたレーザ光の照射中心に合わせるような動作を行うように、制御対象の動作部1bを制御することもできる。これにより、制御対象が放水部であれば放水中心を十字の交点にするように合わせることができる。
 レーザ光の照射範囲が不明確になる場合があり、そのような場面への対処として、レーザ検出部1cは、照射されたレーザ光の照射中心を算出する算出部(中心推測部)を有することもできる。この算出部は、制御部1aとは別個に設けることができるが、制御部1aとともに1つの制御回路に搭載することもできる。特に十字、マス目、同心円などでは、上述した例のようにその一部が欠けていた場合であっても、この算出部を設けておくことで、幾何学的な計算で照射中心を算出することができる。つまり、この算出部を設けておくことでレーザ光を照射中心が分かるように復元することができる。なお、この算出部においても学習モデルを利用することができる。
 また、この算出部は、照射場所の判定に用いることもできる。つまり、制御部1aは、算出された照射中心からその照射場所を判定するように構成することもできる。例えば、レーザ検出部1cの解析は、算出された照射中心を中心とする一定範囲内の画像から特徴を解析し、制御部1aはその解析結果を受けて照射場所を判定するように構成することができる。
 さらに、制御部1aは、図3で例示した格子画像21のような格子画像の格子形状に応じて、異なる動作部1bを動作させる制御を行うように構成することができる。格子形状は、例えば検出された格子画像の格子の角度で判定することができる。
 図8に示すように、ビルBuの側壁面に格子画像21が照射されている場合について、説明する。この場合、格子画像21の格子の角度は鋭角になる。一方で、図示しないが、ビルBuの正面に照射された場合には格子の角度は90度近いものとなる。なお、路面に照射された場合にもよりビルBuの正面よりは格子形状が鋭角になる。
 よって、制御部1aは、格子の角度が所定角度より鋭角であった場合には消火ロボット10を消化効率の良い場所に移動させ、所定角度より鈍角であった場合には放水を行うように制御を行うことができる。このように、制御部1aは、格子形状に応じて異なる動作部1bを動作させることができる。なお、この場合においても、照射場所の判定は、レーザ光以外の部分の画像を解析した結果を利用することもできる。また、格子画像の判定処理においても、学習モデルを利用することができる。
 また、レーザ検出部1cは、QRコード(登録商標。以下同様。)等の2次元コードが描画されたレーザ光を検出するように構成しておくこともできる。特に、照射場所の検出ができない場合について上述したように、投影対象の条件が良好でない場合もある。しかし、良好である場合、或いは良好であると仮定して最初の照射を行う場合、2次元コードをレーザ光で照射することもできる。そして、消火ロボット10では、2次元コードの解析を行い、2次元コードの機能の一つであるアライメントパターンによる中心位置推定を行うこともできる。これにより、消防隊員の指示通りの場所に放水を実行することができる。
 また、この場合、2次元コードに細かい指示内容を重畳することにより、さらに細かい指示を行うことも可能である。つまり、このような描画を行うことで、制御部1aは、描画画像に含まれる情報を併せて利用して、動作部1bの選択や制御対象として選択された動作部1bの制御を行うことができる。なお、レーザ検出部1cは、バーコードが描画されたレーザ光を検出するように構成しておくこともできる。
 また、上述した消火ロボット10は、放水部を有することから放水ロボットと称することができる。但し、消火ロボット10は、水を撒く機能の代わりに、或いはその機能と併せて、消火剤を撒く機能を搭載することができる。つまり、放水部の代わりに、或いは放水部と合わせて、消火剤を撒く部位を設けておくこともできる。後者の場合、放水部と、消火剤を撒く部位とは、異なる動作部1bに該当させるように制御を行うことができる。なお、消火剤としては、例えば、泡消火剤や粉末消火剤などが挙げられる。
 以上に説明したように、本実施形態に係る消火ロボット10では、実施形態1と同様に、レーザ光により複数の異なる動作を行わせることが可能になり、特に消火と移動とをレーザ光の照射場所を変えることで指示分けすることができる。なお、本実施形態で説明した様々な例は、消火に関する点を除き、消火ロボット以外のロボットに適用することができる。
<実施形態3>
 実施形態3について、実施形態1,2との相違点を中心に説明する。但し、実施形態3は、適宜、実施形態1,2で説明した様々な例が適用できる。
 本実施形態に係るシステム(以下、本システム)は、上述したようなロボット1(又は消火ロボット10)を複数備えたシステムである。よって、本システムでは、これらのロボット1が連携して動作を行うことを可能に構成することができる。
 本システムでは、各ロボット1は、互いの位置を認識できるように構成されることができる。そして、各ロボットの制御部1aは、認識された互いの位置に応じて、動作を異ならせることができる。ここでいう動作を異ならせるとは、動作対象の動作部1bを異ならせてもよいし、同じ動作部1bであっても動作方向などの動作方法を異ならせてもよい。
 例えば、制御部1aは、自機が消火対象に一番近いため放水部を動作させる、一番遠いため近くに移動するなどの制御を行うことができる。このように、制御部1aは、他のロボットの位置と、動作が必要になる位置(例えば消火位置)と、自機の位置と、の関係から、動作の種類や動作を実行するか否かを決めることもできる。
 補足的に、互いの位置の認識方法の例について説明する。複数のロボット1は、無線ネットワーク接続で接続されるとともに、位置情報取得部を備えることで、互いの位置情報を送受することができる。この位置情報取得部としては、例えばGPS(Global Positioning System)システム、みちびき(準天頂衛星システム)、Wi-Fi(登録商標)等の技術を用いた取得部とすることができる。また、カメラ16で例示した撮影部で撮影した画像だけで他のロボットの位置を判定するように構成することもできる。撮影した画像には、他のロボットも写り込んでいるためである。
 また、各ロボット1のレーザ検出部1cは、照射されたレーザ光に重畳された自機を示す情報を検出するように構成することもできる。例えば、レーザ光にロボット1のIDを含むコマンドを重畳させておき、自機のIDへのコマンドに基づきロボット1毎に動作を行うことができる。
 本システムによれば、複数のロボット1が自律的に作業できるよう、レーザを用いて作業を同時に指示することができる。消火ロボットの場合、例えば移動、放水位置の指示を消火ロボット毎に分けて指示することができる。特に、今後の労働人口減少にともなう人手不足により、危険作業はロボット化が進むと予想されるため、本システムのように、複数のロボット1へ同時に指示し各ロボット1に自律的に作業させることは有益となる。
<実施形態4>
 実施形態4について、実施形態1,2との相違点を中心に説明する。但し、実施形態4は、適宜、実施形態1~3で説明した様々な例が適用できる。
 本実施形態に係る消火ロボットは、図1のロボット1の構成を有する図2の消火ロボット10と同様に、制御部1aと、水又は消火剤を撒く消火部と、レーザ検出部1cと、を備える。但し、本実施形態におけるレーザ検出部1cは、照射されたレーザ光を検出すればよい。また、本実施形態に係る消火ロボットでは、1つの動作部としての上記消火部が備えられていればよい。
 そして、本実施形態における制御部1aは、レーザ検出部1cで検出されたレーザ光が示す位置に水又は消火剤を撒くように、上記消火部を制御する。
 また、本実施形態に係る消火ロボットも、消火ロボットを移動させる移動部を備えることが望ましい。そして、制御部1aは、レーザ検出部1cで検出されたレーザ光の位置が路面を示す位置である場合には、路面上においてレーザ光が示す方向に移動させるように、移動部を制御すればよい。
 水又は消火剤を撒く消火部を備えた消火ロボットの動作方法及びプログラムについて補足する。本実施形態に係る消火ロボットは、その動作を説明したように、次のような検出ステップ及び制御ステップを備えた動作方法を実行することができる。上記検出ステップは、照射されたレーザ光を検出する。上記制御ステップは、上記検出ステップで検出されたレーザ光が示す位置に水又は消火剤を撒くように、上記消火部を制御する。その他の例については、本実施形態で説明した通りである。
 上記のプログラムは、上記消火部を備えた消火ロボットの制御コンピュータに、次の入力ステップと制御ステップを実行させるためのプログラムであると言える。上記入力ステップは、照射されたレーザ光の検出結果を入力する。上記制御ステップは、上記入力ステップで入力された検出結果が示すレーザ光の検出位置に水又は消火剤を撒くように、上記消火部を制御する。その他の例については、本実施形態で説明した通りである。
<実施形態5>
 実施形態5について、実施形態1との相違点を中心に説明する。但し、実施形態5は、適宜、実施形態1~4で説明した様々な例が適用できる。
 本実施形態に係るロボットは、図1のロボット1と同様に、制御部1aと、複数の機能のそれぞれに対応した複数の動作部1bと、レーザ検出部1cと、を備える。但し、本実施形態におけるレーザ検出部1cは、照射されたレーザ光を検出すればよい。
 特に、本実施形態におけるレーザ検出部1cは、レーザ光に埋め込まれた情報を検出する。情報は、レーザ照射装置側で埋め込まれるが、例えば変調などにより埋め込まれる例に限らず、QRコード等の二次元コードなどを描画画像の形状として埋め込むこともできる。そして、制御部1aは、レーザ検出部1cで検出された情報に応じて、異なる動作部1bを動作させる制御を行う。
 本実施形態においても、実施形態2で説明したような消火ロボットを採用することができ、その場合、上記複数の動作部1bとして、少なくとも、水又は消火剤を撒く消火部と消火ロボットを移動させる移動部とを備えておくことができる。
 複数の機能のそれぞれに対応した複数の動作部を備えたロボットの動作方法及びプログラムについて補足する。本実施形態に係るロボットは、その動作を説明したように、次のような検出ステップ及び制御ステップを備えた動作方法を実行することができる。上記検出ステップは、照射されたレーザ光を検出し、そのレーザ光に埋め込まれた情報を検出する。上記制御ステップは、上記検出ステップで検出された上記情報に応じて、異なる動作部を動作させる制御を行う。その他の例については、本実施形態で説明した通りである。
 上記のプログラムは、ロボット1の制御コンピュータ(制御部1a)に、次の第1ステップと第2ステップを実行させるためのプログラムであると言える。上記第1ステップは、照射されたレーザ光の検出結果を入力してレーザ光に埋め込まれた情報を検出するステップ、或いは、上記情報を入力するステップ、のいずれか1つである。上記第2ステップは、上記情報に応じて、異なる動作部を動作させる制御を行う制御ステップである。その他の例については、本実施形態で説明した通りである。
<実施形態6>
 実施形態6について、図9を併せて参照しながら、実施形態4との相違点を中心に説明する。図9は、実施形態6に係る消火ロボットでの検出対象となる反射面の一例を示す図である。但し、実施形態6は、適宜、実施形態1~5で説明した様々な例が適用できる。
 本実施形態に係る消火ロボットは、実施形態4に係る消火ロボットと同様に、制御部1aと、水又は消火剤を撒く消火部と、レーザ検出部1cと、を備える。また、本実施形態に係る消火ロボットでも、1つの動作部としての上記消火部が備えられていればよい。但し、実施形態4と異なり、本実施形態におけるレーザ検出部1cは、照射されたレーザ光のうち所定の形状を有する反射面に反射したレーザ光を検出する。無論、実施形態1~5で説明した通り、上記反射面以外で反射されたレーザ光を検出することもできる。
 特に、本実施形態において、上記反射面は、消防隊員の個人防火装備(以下、単に装備品)に設けられているものとする。例えば、図9に示すように、反射面TB-1~6は、消防隊員Ff-1,Ff-2の消防服やヘルメット等の装備品に取り付け又は埋め込まれた蛍光布等の反射素材で構成することができる。消火ロボットが必要となる現場には、消防隊員が出動しており、装備品に反射面TB-1等を設けておくことで、レーザ検出部1cが反射面TB-1等で反射したレーザ光を検出することができる。
 図9において、反射面TB-1、TB-2、TB-3はそれぞれ、消防隊員Ff-1のヘルメット、右腕外側、右脚外側に設けられている。反射面TB-4、TB-5、TB-6はそれぞれ、消防隊員Ff-2のヘルメット、左腕外側、左脚外側に設けられている。そして、反射面TB-1等は、上述したように所定の形状を有するものである。所定の形状としては、例えば、QRコード等の二次元コードなどが挙げられるが、これに限ったものではなく、より単純な幾何学模様などであってもよい。
 そして、本実施形態における制御部1aは、レーザ検出部1cで検出されたレーザ光の検出位置からその消防隊員の位置を特定する。なお、位置の特定は、照射中心の算出と同様、幾何学的計算などに基づき行うことができる。また、図9の例のように1人の消防隊員につき複数の反射面を有する場合には、少なくとも1つの反射面による反射レーザ光を検出できれば、その消防隊員の位置を特定することができる。特定した消防隊員の位置は、例えば、PCや携帯電話機等の端末において電子地図上に重畳表示させることができる。他の消防隊員や隊長等は、これを閲覧することで、消防隊員の配置変更の指示などの際に参考にすることができる。
 また、反射面TB-1~3は互いに同じ形状を有することができ、これによりいずれかの反射面が検出できただけで消防隊員Ff-1の位置を特定することができる。同様に、反射面TB-4~6は互いに同じ形状を有することができる。
 また、制御部1aは、レーザ検出部1cで検出されたレーザ光の検出位置から消防隊員の動作の有無を判定するように構成することもできる。また、1又は複数の反射面を時系列で検出した結果に基づき、その反射面に係わる消防隊員の動作の有無を判定することもできる。また、図9で例示したように、1人の消防隊員につき、複数の反射面を設けておくことで、制御部1aは、複数の反射面の位置関係に基づき、その消防隊員の姿勢を判定することができる。制御部1aは、いずれか一方又は双方の判定結果により、例えば、消防隊員が倒れて動けなくなっていることを正確に検知することができる。特に、後述する個人情報を検出できる構成と併用することで、制御部1aは、個々の消防隊員の動作の有無を判定することができるようになる。
 また、上記反射面は、消防隊員の前面側、後面側、左側面側、右側面側のうちの少なくとも2箇所に、互いの形状(所定の形状)を異ならせて設けておくこともできる。例えば、消防隊員Ff-1で例示するように右側に設けられた反射面TB-1~3と、消防隊員Ff-2で例示するように左側に設けられた反射面TB-4~6とは、異なる形状を有することができる。これにより、消防隊員の左右方向の向きによって検出できる反射面が異なることになる。同様に、消防隊員の前後にも同様の反射面(但し異なる形状の反射面)を設けておくことで、消防隊員が消火ロボット側を向いているのか、或いは反対側を向いているのかによって検出できる反射面を異ならせることができる。
 そして、制御部1aは、レーザ検出部1cで検出されたレーザ光に基づき消防隊員の位置及び向きを特定するように構成することができる。これにより、消防隊員が向いている方向が分かるため、他の消防隊員や隊長等は、この情報を端末で閲覧することで、無線通信機などによるその消防隊員への移動等の指示が行い易くなる。さらに、これにより、消防隊員の動作の有無の判定を容易に行うこともできる。
 このような向きも特定する構成を採用する場合、さらに、制御部1aは、水又は消火剤を消防隊員の位置及び向きに基づく消火位置に撒くように、消火部を制御するように構成することができる。例えば、制御部1aは、消防隊員が目を向けている方向を推測し、消防隊員の位置からその方向(又はその方向の所定角度下方)に所定距離だけ離れた位置を消火位置として水等を撒くように消火部を制御する。また、同時に照射した別のレーザ光が建物に照射されている場合に限り、このような消火を行わせることもできる。
 また、本実施形態に係る消火ロボットも、消火ロボットを移動させる移動部を備えることが望ましい。そして、制御部1aは、特定された消防隊員の位置及び向きに基づく移動位置に移動させるように、移動部を制御することもできる。例えば、制御部1aは、消防隊員が目を向けている方向を推測し、消防隊員の位置からその方向に所定距離だけ離れた位置に消火ロボットが移動するように移動部を制御する。また、同時に照射した別のレーザ光が路面に照射されている場合に限り、このような移動を行わせることもできる。また、制御部1aは、特定された位置及び向きに基づき、或る条件を満たせば消火部を制御し、他の或る条件を満たせば移動部を制御するように構成することもできる。
 また、上記所定の形状は、個々の消防隊員を特定するための個人情報(役割を特定するための個人情報であってもよい)を示す形状を含むことができる。そして、レーザ検出部1cは、検出レーザ光を解析するなどしてこの個人情報を検出する。所定の形状としてはQRコード等の二次元コードなどを用いることができるが、単なる幾何学形状であっても消防隊員毎に区別しておけばこのような検出は可能である。
 そして、制御部1aは、レーザ検出部1cで検出された個人情報に応じた制御を行うように構成することもできる。つまり、本実施形態に係る消火ロボットは、実施形態5で説明したレーザ光に埋め込まれた情報の代わりに、反射面として形成された情報を用いることができると言える。例えば、消防隊員Ff-1が放水専門の隊員、消防隊員Ff-2が救助専門の隊員、他の消防隊員が路面上での消火ロボット等の誘導専門の隊員である場合など、専門毎に異なる形状の反射面を設けておき、レーザ検出部1cがそれを検出する。制御部1aは、個人情報に応じた制御として、例えば、検出された消防隊員が放水専門であった場合には消火部、誘導専門であった場合には移動部を制御することができる。なお、個人情報に応じた制御はこれに限ったものではない。
 水又は消火剤を撒く消火部を備えた消火ロボットの動作方法及びプログラムについて補足する。本実施形態に係る消火ロボットは、その動作を説明したように、次のような検出ステップ及び制御ステップを備えた動作方法を実行することができる。上記検出ステップは、消防隊員の個人防火装備に設けられた所定の形状を有する反射面で反射されたレーザ光を検出する。上記制御ステップは、上記検出ステップで検出されたレーザ光の検出位置からその消防隊員の位置を特定する。その他の例については、本実施形態で説明した通りである。
 上記のプログラムは、上記消火部を備えた消火ロボットの制御コンピュータに、次の入力ステップと制御ステップを実行させるためのプログラムであると言える。上記入力ステップは、消防隊員の個人防火装備に設けられた所定の形状を有する反射面で反射されたレーザ光の検出結果を入力する。上記制御ステップは、上記入力ステップで入力された検出結果が示すレーザ光の検出位置から消防隊員の位置を特定する。その他の例については、本実施形態で説明した通りである。
<他の実施形態>
 上述した各実施形態では、ロボットの各部の機能について説明したが、ロボットとしてこれらの機能が実現できればよく、その外形も例示したものに限らない。また、レーザ光は、人の指示によりレーザ照射装置から発することを前提に説明したが、このレーザ照射装置(レーザ光を照射する照射部)はロボット側又は他の装置側に設けておくこともできる。また、複数台のロボットを備えたシステムにおいては、その1又は複数のロボットにレーザ照射装置を備えておくことができる。そして、次のような学習モデルを構築しておき、それを利用することができる。すなわち、この学習モデルは、火災の現場などを撮影した画像データを入力して、レーザ照射装置での照射場所やレーザ光の形状などを出力させる学習モデルとすることができる。このような学習モデルにより、ロボット等に搭載されたレーザ照射装置から適切な照射場所にレーザ光を照射させることができる。
 また、各実施形態に係るロボットは、次のようなハードウェア構成を有することができる。図10は、各実施形態に係るロボットのハードウェア構成の一例を示す図である。
 図10に示すロボット100は、プロセッサ101、メモリ102、及びインタフェース103を有する。インタフェース103はレーザ光を検出する検出デバイスに接続されることができる。各実施形態で説明した各部の機能は、プロセッサ101がメモリ102に記憶されたプログラムを読み込んで、インタフェース103から入力された情報に基づき実行することにより実現される。このプログラムは、各実施形態で説明したプログラムとすることができる。
 上述の例において、上記プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)を含む。さらに、この例は、CD-ROM(Read Only Memory)、CD-R、CD-R/Wを含む。さらに、この例は、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、上記プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
 なお、本開示は上述した様々な実施形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。また、本開示は、それぞれの実施形態を適宜組み合わせて実施されてもよい。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
<付記>
(付記1)
 複数の機能のそれぞれに対応した複数の動作部と、
 照射されたレーザ光及びその照射場所を検出するレーザ検出部と、
 制御部と、
 を備え、
 前記制御部は、前記レーザ検出部で検出された前記照射場所に応じて、異なる動作部を動作させる制御を行う、
 ロボット。
 (付記2)
 前記制御部は、前記レーザ検出部で検出された前記照射場所の特徴に応じて、異なる動作部を動作させる制御を行う、
 付記1に記載のロボット。
 (付記3)
 前記レーザ検出部は、撮像部と、前記撮像部で取得された画像から前記照射場所の特徴を解析する解析部と、を有する、
 付記2に記載のロボット。
 (付記4)
 前記制御部は、前記レーザ検出部で検出されたレーザ光の照射範囲に合わせるような動作を行うように、制御対象の動作部を制御する、
 付記1~3のいずれか1項に記載のロボット。
 (付記5)
 前記レーザ検出部は、照射されたレーザ光の照射範囲を算出する算出部を有する、
 付記1~4のいずれか1項に記載のロボット。
 (付記6)
 前記制御部は、前記レーザ検出部で検出されたレーザ光の照射中心に合わせるような動作を行うように、制御対象の動作部を制御する、
 付記1~5のいずれか1項に記載のロボット。
 (付記7)
 前記レーザ検出部は、照射されたレーザ光の照射中心を算出する算出部を有する、
 付記1~6のいずれか1項に記載のロボット。
 (付記8)
 前記レーザ検出部は、2次元コードが描画されたレーザ光を検出する、
 付記1~7のいずれか1項に記載のロボット。
 (付記9)
 前記レーザ検出部は、直線、矢印、十字、同心円のいずれか1が描画されたレーザ光を検出する、
 付記1~8のいずれか1項に記載のロボット。
 (付記10)
 前記レーザ検出部は、格子画像が描画されたレーザ光を検出する、
 付記1~8のいずれか1項に記載のロボット。
 (付記11)
 前記制御部は、前記格子画像の格子形状に応じて、異なる動作部を動作させる制御を行う、
 付記10に記載のロボット。
 (付記12)
 前記レーザ検出部で検出対象とするレーザ光の形状又はサイズの少なくとも一方を設定する設定部を備えた、
 付記1~11のいずれか1項に記載のロボット。
 (付記13)
 前記レーザ検出部は、前記照射場所の検出ができない場合、検出対象とするレーザ光の形状又はサイズの少なくとも一方を変更する、
 付記12に記載のロボット。
 (付記14)
 前記ロボットは、水又は消火剤を撒く機能と、前記ロボットを移動させる移動機能と、を有する消火ロボットである、
 付記1~13のいずれか1項に記載のロボット。
 (付記15)
 付記1~14のいずれか1項に記載のロボットを複数備えたシステム。
 (付記16)
 各ロボットは、互いの位置を認識できるように構成され、
 各ロボットの前記制御部は、認識された互いの位置に応じて、動作を異ならせる、
 付記15に記載のシステム。
 (付記17)
 各ロボットの前記レーザ検出部は、照射されたレーザ光に重畳された自機を示す情報を検出する、
 付記15又は16に記載のシステム。
 (付記18)
 前記レーザ光を照射する照射部を備えた、
 付記15~17のいずれか1項に記載のシステム。
 (付記19)
 複数の機能のそれぞれに対応した複数の動作部を備えたロボットの動作方法であって、
 照射されたレーザ光及びその照射場所を検出する検出ステップと、
 前記検出ステップで検出された前記照射場所に応じて、異なる動作部を動作させる制御を行う制御ステップと、
 を備えた、ロボットの動作方法。
 (付記20)
 複数の機能のそれぞれに対応した複数の動作部を備えたロボットの制御コンピュータに、
 照射されたレーザ光の検出結果を入力して前記レーザ光の照射場所を検出するステップ、或いは、前記レーザ光の照射場所の検出結果を入力するステップ、のいずれか1つのステップと、
 前記照射場所に応じて、異なる動作部を動作させる制御を行うステップと、
 を実行させるためのプログラム。
 (付記21)
 水又は消火剤を撒く消火部と、
 照射されたレーザ光を検出するレーザ検出部と、
 制御部と、
 を備え、
 前記制御部は、前記レーザ検出部で検出されたレーザ光が示す位置に前記水又は消火剤を撒くように、前記消火部を制御する、
 消火ロボット。
 (付記22)
 前記消火ロボットを移動させる移動部を備え、
 前記制御部は、前記レーザ検出部で検出されたレーザ光の位置が路面を示す位置である場合には、路面上において前記レーザ光が示す方向に移動させるように、前記移動部を制御する、
 付記21に記載の消火ロボット。
 (付記23)
 水又は消火剤を撒く消火部を備えた消火ロボットの動作方法であって、
 照射されたレーザ光を検出する検出ステップと、
 前記検出ステップで検出されたレーザ光が示す位置に前記水又は消火剤を撒くように、前記消火部を制御する制御ステップと、
 を備えた、消火ロボットの動作方法。
 (付記24)
 水又は消火剤を撒く消火部を備えた消火ロボットの制御コンピュータに、
 照射されたレーザ光の検出結果を入力する入力ステップと、
 前記入力ステップで入力された検出結果が示すレーザ光の検出位置に前記水又は消火剤を撒くように、前記消火部を制御する制御ステップと、
 を実行させるためのプログラム。
 (付記25)
 複数の機能のそれぞれに対応した複数の動作部と、
 照射されたレーザ光を検出するレーザ検出部と、
 制御部と、
 を備え、
 前記レーザ検出部は、前記レーザ光に埋め込まれた情報を検出し、
 前記制御部は、前記レーザ検出部で検出された前記情報に応じて、異なる動作部を動作させる制御を行う、
 ロボット。
 (付記26)
 前記ロボットは、消火ロボットであり、
 前記複数の動作部として、少なくとも、水又は消火剤を撒く消火部と前記消火ロボットを移動させる移動部とを備えた、
 付記25に記載のロボット。
 (付記27)
 複数の機能のそれぞれに対応した複数の動作部を備えたロボットの動作方法であって、
 照射されたレーザ光を検出し、前記レーザ光に埋め込まれた情報を検出する検出ステップと、
 前記検出ステップで検出された前記情報に応じて、異なる動作部を動作させる制御を行う制御ステップと、
 を備えた、ロボットの動作方法。
 (付記28)
 複数の機能のそれぞれに対応した複数の動作部を備えたロボットの制御コンピュータに、
 照射されたレーザ光の検出結果を入力して前記レーザ光に埋め込まれた情報を検出するステップ、或いは、前記情報を入力するステップ、のいずれか1つのステップと、
 前記情報に応じて、異なる動作部を動作させる制御を行う制御ステップと、
 を実行させるためのプログラム。
 (付記29)
 水又は消火剤を撒く消火部と、
 所定の形状を有する反射面で反射されたレーザ光を検出するレーザ検出部と、
 制御部と、
 を備え、
 前記反射面は、消防隊員の個人防火装備に設けられており、
 前記制御部は、前記レーザ検出部で検出されたレーザ光の検出位置から前記消防隊員の位置を特定する、
 消火ロボット。
 (付記30)
 前記制御部は、前記レーザ検出部で検出されたレーザ光の検出位置から前記消防隊員の動作の有無を判定する、
 付記29に記載の消火ロボット。
 (付記31)
 前記反射面は、前記消防隊員の前面側、後面側、左側面側、右側面側のうちの少なくとも2箇所に、互いの前記所定の形状を異ならせて設けられており、
 前記制御部は、前記レーザ検出部で検出されたレーザ光に基づき前記消防隊員の位置及び向きを特定する、
 付記29又は30に記載の消火ロボット。
 (付記32)
 前記制御部は、前記水又は消火剤を前記消防隊員の位置及び向きに基づく消火位置に撒くように、前記消火部を制御する、
 付記31に記載の消火ロボット。
 (付記33)
 前記消火ロボットを移動させる移動部を備え、
 前記制御部は、前記消防隊員の位置及び向きに基づく移動位置に移動させるように、前記移動部を制御する、
 付記31又は32に記載の消火ロボット。
 (付記34)
 前記所定の形状は、個々の前記消防隊員を特定するための個人情報を示す形状を含み、
 前記レーザ検出部は、前記個人情報を検出し、
 前記制御部は、前記レーザ検出部で検出された前記個人情報に応じた制御を行う、
 付記29~33のいずれか1項に記載の消火ロボット。
 (付記35)
 水又は消火剤を撒く消火部を備えた消火ロボットの動作方法であって、
 消防隊員の個人防火装備に設けられた所定の形状を有する反射面で反射されたレーザ光を検出する検出ステップと、
 前記検出ステップで検出されたレーザ光の検出位置から前記消防隊員の位置を特定する制御ステップと、
 を備えた、消火ロボットの動作方法。
 (付記36)
 水又は消火剤を撒く消火部を備えた消火ロボットの制御コンピュータに、
 消防隊員の個人防火装備に設けられた所定の形状を有する反射面で反射されたレーザ光の検出結果を入力する入力ステップと、
 前記入力ステップで入力された検出結果が示すレーザ光の検出位置から前記消防隊員の位置を特定する制御ステップと、
 を実行させるためのプログラム。
 以上、実施の形態を参照して本願発明を説明したが、本願発明は上記によって限定されるものではない。本願発明の構成や詳細には、発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2019年2月19日に出願された日本出願特願2019-027468を基礎とする優先権を主張し、その開示の全てをここに取り込む。
1、100 ロボット
1a 制御部
1b、1b-1、1b-n 動作部
1c レーザ検出部
10 消火ロボット
11 本体部
12 放水ノズル取付台
13 放水ノズル
14 ホース
15 タイヤ
16 カメラ
21 格子画像
22 同心円
23、24、25 レーザ光
101 プロセッサ
102 メモリ
103 インタフェース

Claims (36)

  1.  複数の機能のそれぞれに対応した複数の動作手段と、
     照射されたレーザ光及びその照射場所を検出するレーザ検出手段と、
     制御手段と、
     を備え、
     前記制御手段は、前記レーザ検出手段で検出された前記照射場所に応じて、異なる動作手段を動作させる制御を行う、
     ロボット。
  2.  前記制御手段は、前記レーザ検出手段で検出された前記照射場所の特徴に応じて、異なる動作手段を動作させる制御を行う、
     請求項1に記載のロボット。
  3.  前記レーザ検出手段は、撮像手段と、前記撮像手段で取得された画像から前記照射場所の特徴を解析する解析手段と、を有する、
     請求項2に記載のロボット。
  4.  前記制御手段は、前記レーザ検出手段で検出されたレーザ光の照射範囲に合わせるような動作を行うように、制御対象の動作手段を制御する、
     請求項1~3のいずれか1項に記載のロボット。
  5.  前記レーザ検出手段は、照射されたレーザ光の照射範囲を算出する算出手段を有する、
     請求項1~4のいずれか1項に記載のロボット。
  6.  前記制御手段は、前記レーザ検出手段で検出されたレーザ光の照射中心に合わせるような動作を行うように、制御対象の動作手段を制御する、
     請求項1~5のいずれか1項に記載のロボット。
  7.  前記レーザ検出手段は、照射されたレーザ光の照射中心を算出する算出手段を有する、
     請求項1~6のいずれか1項に記載のロボット。
  8.  前記レーザ検出手段は、2次元コードが描画されたレーザ光を検出する、
     請求項1~7のいずれか1項に記載のロボット。
  9.  前記レーザ検出手段は、直線、矢印、十字、同心円のいずれか1が描画されたレーザ光を検出する、
     請求項1~8のいずれか1項に記載のロボット。
  10.  前記レーザ検出手段は、格子画像が描画されたレーザ光を検出する、
     請求項1~8のいずれか1項に記載のロボット。
  11.  前記制御手段は、前記格子画像の格子形状に応じて、異なる動作手段を動作させる制御を行う、
     請求項10に記載のロボット。
  12.  前記レーザ検出手段で検出対象とするレーザ光の形状又はサイズの少なくとも一方を設定する設定手段を備えた、
     請求項1~11のいずれか1項に記載のロボット。
  13.  前記レーザ検出手段は、前記照射場所の検出ができない場合、検出対象とするレーザ光の形状又はサイズの少なくとも一方を変更する、
     請求項12に記載のロボット。
  14.  前記ロボットは、水又は消火剤を撒く機能と、前記ロボットを移動させる移動機能と、を有する消火ロボットである、
     請求項1~13のいずれか1項に記載のロボット。
  15.  請求項1~14のいずれか1項に記載のロボットを複数備えたシステム。
  16.  各ロボットは、互いの位置を認識できるように構成され、
     各ロボットの前記制御手段は、認識された互いの位置に応じて、動作を異ならせる、
     請求項15に記載のシステム。
  17.  各ロボットの前記レーザ検出手段は、照射されたレーザ光に重畳された自機を示す情報を検出する、
     請求項15又は16に記載のシステム。
  18.  前記レーザ光を照射する照射手段を備えた、
     請求項15~17のいずれか1項に記載のシステム。
  19.  複数の機能のそれぞれに対応した複数の動作手段を備えたロボットの動作方法であって、
     照射されたレーザ光及びその照射場所を検出する検出ステップと、
     前記検出ステップで検出された前記照射場所に応じて、異なる動作手段を動作させる制御を行う制御ステップと、
     を備えた、ロボットの動作方法。
  20.  複数の機能のそれぞれに対応した複数の動作手段を備えたロボットの制御コンピュータに、
     照射されたレーザ光の検出結果を入力して前記レーザ光の照射場所を検出するステップ、或いは、前記レーザ光の照射場所の検出結果を入力するステップ、のいずれか1つのステップと、
     前記照射場所に応じて、異なる動作手段を動作させる制御を行うステップと、
     を実行させるためのプログラムが格納された非一時的なコンピュータ可読媒体。
  21.  水又は消火剤を撒く消火手段と、
     照射されたレーザ光を検出するレーザ検出手段と、
     制御手段と、
     を備え、
     前記制御手段は、前記レーザ検出手段で検出されたレーザ光が示す位置に前記水又は消火剤を撒くように、前記消火手段を制御する、
     消火ロボット。
  22.  前記消火ロボットを移動させる移動手段を備え、
     前記制御手段は、前記レーザ検出手段で検出されたレーザ光の位置が路面を示す位置である場合には、路面上において前記レーザ光が示す方向に移動させるように、前記移動手段を制御する、
     請求項21に記載の消火ロボット。
  23.  水又は消火剤を撒く消火手段を備えた消火ロボットの動作方法であって、
     照射されたレーザ光を検出する検出ステップと、
     前記検出ステップで検出されたレーザ光が示す位置に前記水又は消火剤を撒くように、前記消火手段を制御する制御ステップと、
     を備えた、消火ロボットの動作方法。
  24.  水又は消火剤を撒く消火手段を備えた消火ロボットの制御コンピュータに、
     照射されたレーザ光の検出結果を入力する入力ステップと、
     前記入力ステップで入力された検出結果が示すレーザ光の検出位置に前記水又は消火剤を撒くように、前記消火手段を制御する制御ステップと、
     を実行させるためのプログラムが格納された非一時的なコンピュータ可読媒体。
  25.  複数の機能のそれぞれに対応した複数の動作手段と、
     照射されたレーザ光を検出するレーザ検出手段と、
     制御手段と、
     を備え、
     前記レーザ検出手段は、前記レーザ光に埋め込まれた情報を検出し、
     前記制御手段は、前記レーザ検出手段で検出された前記情報に応じて、異なる動作手段を動作させる制御を行う、
     ロボット。
  26.  前記ロボットは、消火ロボットであり、
     前記複数の動作手段として、少なくとも、水又は消火剤を撒く消火手段と前記消火ロボットを移動させる移動手段とを備えた、
     請求項25に記載のロボット。
  27.  複数の機能のそれぞれに対応した複数の動作手段を備えたロボットの動作方法であって、
     照射されたレーザ光を検出し、前記レーザ光に埋め込まれた情報を検出する検出ステップと、
     前記検出ステップで検出された前記情報に応じて、異なる動作手段を動作させる制御を行う制御ステップと、
     を備えた、ロボットの動作方法。
  28.  複数の機能のそれぞれに対応した複数の動作手段を備えたロボットの制御コンピュータに、
     照射されたレーザ光の検出結果を入力して前記レーザ光に埋め込まれた情報を検出するステップ、或いは、前記情報を入力するステップ、のいずれか1つのステップと、
     前記情報に応じて、異なる動作手段を動作させる制御を行う制御ステップと、
     を実行させるためのプログラムが格納された非一時的なコンピュータ可読媒体。
  29.  水又は消火剤を撒く消火手段と、
     所定の形状を有する反射面で反射されたレーザ光を検出するレーザ検出手段と、
     制御手段と、
     を備え、
     前記反射面は、消防隊員の個人防火装備に設けられており、
     前記制御手段は、前記レーザ検出手段で検出されたレーザ光の検出位置から前記消防隊員の位置を特定する、
     消火ロボット。
  30.  前記制御手段は、前記レーザ検出手段で検出されたレーザ光の検出位置から前記消防隊員の動作の有無を判定する、
     請求項29に記載の消火ロボット。
  31.  前記反射面は、前記消防隊員の前面側、後面側、左側面側、右側面側のうちの少なくとも2箇所に、互いの前記所定の形状を異ならせて設けられており、
     前記制御手段は、前記レーザ検出手段で検出されたレーザ光に基づき前記消防隊員の位置及び向きを特定する、
     請求項29又は30に記載の消火ロボット。
  32.  前記制御手段は、前記水又は消火剤を前記消防隊員の位置及び向きに基づく消火位置に撒くように、前記消火手段を制御する、
     請求項31に記載の消火ロボット。
  33.  前記消火ロボットを移動させる移動手段を備え、
     前記制御手段は、前記消防隊員の位置及び向きに基づく移動位置に移動させるように、前記移動手段を制御する、
     請求項31又は32に記載の消火ロボット。
  34.  前記所定の形状は、個々の前記消防隊員を特定するための個人情報を示す形状を含み、
     前記レーザ検出手段は、前記個人情報を検出し、
     前記制御手段は、前記レーザ検出手段で検出された前記個人情報に応じた制御を行う、
     請求項29~33のいずれか1項に記載の消火ロボット。
  35.  水又は消火剤を撒く消火手段を備えた消火ロボットの動作方法であって、
     消防隊員の個人防火装備に設けられた所定の形状を有する反射面で反射されたレーザ光を検出する検出ステップと、
     前記検出ステップで検出されたレーザ光の検出位置から前記消防隊員の位置を特定する制御ステップと、
     を備えた、消火ロボットの動作方法。
  36.  水又は消火剤を撒く消火手段を備えた消火ロボットの制御コンピュータに、
     消防隊員の個人防火装備に設けられた所定の形状を有する反射面で反射されたレーザ光の検出結果を入力する入力ステップと、
     前記入力ステップで入力された検出結果が示すレーザ光の検出位置から前記消防隊員の位置を特定する制御ステップと、
     を実行させるためのプログラムが格納された非一時的なコンピュータ可読媒体。
PCT/JP2019/040931 2019-02-19 2019-10-17 ロボット、ロボットの動作方法、及び非一時的なコンピュータ可読媒体 WO2020170502A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021501550A JPWO2020170502A1 (ja) 2019-02-19 2019-10-17 ロボット、ロボットの動作方法、及びプログラム
US17/431,265 US20220126456A1 (en) 2019-02-19 2019-10-17 Robot, robot operating method, and non- transitory computer-readable medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-027468 2019-02-19
JP2019027468 2019-02-19

Publications (1)

Publication Number Publication Date
WO2020170502A1 true WO2020170502A1 (ja) 2020-08-27

Family

ID=72143427

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/040931 WO2020170502A1 (ja) 2019-02-19 2019-10-17 ロボット、ロボットの動作方法、及び非一時的なコンピュータ可読媒体

Country Status (4)

Country Link
US (1) US20220126456A1 (ja)
JP (1) JPWO2020170502A1 (ja)
TW (1) TW202108205A (ja)
WO (1) WO2020170502A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7504502B2 (ja) 2019-04-05 2024-06-24 株式会社Liberaware 飛行体

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016143256A1 (ja) * 2015-03-12 2016-09-15 パナソニックIpマネジメント株式会社 飛行体
JP2017041166A (ja) * 2015-08-21 2017-02-23 シャープ株式会社 自律走行装置
WO2018008388A1 (ja) * 2016-07-04 2018-01-11 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、および情報処理方法
JP2018090096A (ja) * 2016-12-02 2018-06-14 株式会社エンルートM’s 無人噴射装置、噴射方法及び噴射プログラム
JP2019016119A (ja) * 2017-07-05 2019-01-31 能美防災株式会社 火災監視システム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7451028B2 (en) * 2001-12-21 2008-11-11 Oshkosh Corporation Turret control system based on stored position for a fire fighting vehicle
US8793920B2 (en) * 2011-01-14 2014-08-05 Vijay Singh Gunsight with visual range indication
US10120076B2 (en) * 2015-05-07 2018-11-06 GM Global Technology Operations LLC Spatio-temporal scanning patterns for array lidar systems
US10386842B2 (en) * 2017-11-13 2019-08-20 Intel IP Corporation Unmanned aerial vehicle light show

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016143256A1 (ja) * 2015-03-12 2016-09-15 パナソニックIpマネジメント株式会社 飛行体
JP2017041166A (ja) * 2015-08-21 2017-02-23 シャープ株式会社 自律走行装置
WO2018008388A1 (ja) * 2016-07-04 2018-01-11 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、および情報処理方法
JP2018090096A (ja) * 2016-12-02 2018-06-14 株式会社エンルートM’s 無人噴射装置、噴射方法及び噴射プログラム
JP2019016119A (ja) * 2017-07-05 2019-01-31 能美防災株式会社 火災監視システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7504502B2 (ja) 2019-04-05 2024-06-24 株式会社Liberaware 飛行体

Also Published As

Publication number Publication date
JPWO2020170502A1 (ja) 2021-11-25
US20220126456A1 (en) 2022-04-28
TW202108205A (zh) 2021-03-01

Similar Documents

Publication Publication Date Title
US10901218B2 (en) Hybrid reality system including beacons
CN108615321B (zh) 基于雷达侦测及视频图像行为分析的安防预警系统及方法
US20180165931A1 (en) Robot security inspection method based on environment map and robot thereof
US11257341B2 (en) System and method for monitoring and suppressing fire
CN110673603B (zh) 一种火场自主导航侦察机器人
CN212586744U (zh) 用于控制消防设备的防火机器人,相应的防火系统
JP2019144252A (ja) アミューズメントパーク機器の検査時の使用のための追跡システム及び方法
CN111192189A (zh) 一种汽车外形的三维自动检测方法及系统
CN104067111A (zh) 用于跟踪和监测目标对象上的差异的自动化系统和方法
WO2006109308A1 (en) Real-time imaging method and system using structured light
CN105031868B (zh) 基于火焰规模的自适应灭火方法
CN112370694B (zh) 一种基于无人机和机器人的协同灭火方法
WO2020170502A1 (ja) ロボット、ロボットの動作方法、及び非一時的なコンピュータ可読媒体
CN104436501A (zh) 一种基于消防炮技术的控制灭火方法、装置及系统
CN112066994A (zh) 一种消防机器人局部自主导航方法及系统
CN115666738A (zh) 一种灭火系统、服务器、消防机器人和灭火方法
CN110807345A (zh) 建筑物疏散方法和建筑物疏散系统
JP2013113610A (ja) 放射線測定方法および装置
KR101903615B1 (ko) 영상감시 시스템 및 이를 이용한 영상감시 방법
Nam et al. AR-based evacuation route guidance system in indoor fire environment
JP2021189587A (ja) 表示装置、表示方法及び表示プログラム
KR102033498B1 (ko) 소화 시스템, 이의 제어 방법, 프로그램 및 기록 매체
KR101209598B1 (ko) 감시 시스템
CN115228027B (zh) 消防控制方法及系统
KR102632567B1 (ko) 화재 감시 로봇

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19916091

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021501550

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19916091

Country of ref document: EP

Kind code of ref document: A1