WO2018179705A1 - 工業用内視鏡、観察方法、観察装置、水中機械、ポンプ点検システム、水中ロボット制御システム及び水中ロボット制御方法 - Google Patents

工業用内視鏡、観察方法、観察装置、水中機械、ポンプ点検システム、水中ロボット制御システム及び水中ロボット制御方法 Download PDF

Info

Publication number
WO2018179705A1
WO2018179705A1 PCT/JP2018/001706 JP2018001706W WO2018179705A1 WO 2018179705 A1 WO2018179705 A1 WO 2018179705A1 JP 2018001706 W JP2018001706 W JP 2018001706W WO 2018179705 A1 WO2018179705 A1 WO 2018179705A1
Authority
WO
WIPO (PCT)
Prior art keywords
underwater robot
pump
unit
underwater
observation
Prior art date
Application number
PCT/JP2018/001706
Other languages
English (en)
French (fr)
Inventor
基彦 能見
夕美子 関野
Original Assignee
株式会社荏原製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2017070845A external-priority patent/JP2018173513A/ja
Priority claimed from JP2017073644A external-priority patent/JP2018180020A/ja
Priority claimed from JP2017112460A external-priority patent/JP6869112B2/ja
Priority claimed from JP2017113959A external-priority patent/JP7053170B2/ja
Application filed by 株式会社荏原製作所 filed Critical 株式会社荏原製作所
Priority to US16/499,198 priority Critical patent/US11391940B2/en
Publication of WO2018179705A1 publication Critical patent/WO2018179705A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2476Non-optical details, e.g. housings, mountings, supports
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63CLAUNCHING, HAULING-OUT, OR DRY-DOCKING OF VESSELS; LIFE-SAVING IN WATER; EQUIPMENT FOR DWELLING OR WORKING UNDER WATER; MEANS FOR SALVAGING OR SEARCHING FOR UNDERWATER OBJECTS
    • B63C11/00Equipment for dwelling or working underwater; Means for searching for underwater objects
    • B63C11/52Tools specially adapted for working underwater, not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63BSHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING 
    • B63B2203/00Communication means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63GOFFENSIVE OR DEFENSIVE ARRANGEMENTS ON VESSELS; MINE-LAYING; MINE-SWEEPING; SUBMARINES; AIRCRAFT CARRIERS
    • B63G8/00Underwater vessels, e.g. submarines; Equipment specially adapted therefor
    • B63G8/001Underwater vessels adapted for special purposes, e.g. unmanned underwater vessels; Equipment specially adapted therefor, e.g. docking stations
    • B63G2008/002Underwater vessels adapted for special purposes, e.g. unmanned underwater vessels; Equipment specially adapted therefor, e.g. docking stations unmanned
    • B63G2008/005Underwater vessels adapted for special purposes, e.g. unmanned underwater vessels; Equipment specially adapted therefor, e.g. docking stations unmanned remotely controlled
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/14Viewfinders

Definitions

  • the present disclosure relates to an industrial endoscope, an observation method, an observation apparatus, an underwater machine, a pump inspection system, an underwater robot control system, and an underwater robot control method.
  • An industrial endoscope includes an imaging device, a flexible holding member that holds the imaging device, and one or a plurality of nozzles that are fixed to the holding member and eject fluid.
  • FIG. 1 is a schematic configuration diagram of an industrial endoscope 100 according to an embodiment. The figure explaining operation
  • FIG. The schematic block diagram of the industrial endoscope 101 which is a 1st modification.
  • the schematic block diagram of the industrial endoscope 102 which is a 2nd modification.
  • the schematic block diagram of the industrial endoscope 103 which is a 3rd modification.
  • the schematic block diagram of the industrial endoscope 104 which is a 4th modification.
  • the schematic block diagram of the industrial endoscope 105 which is a 5th modification.
  • 1 is a schematic configuration diagram of an observation apparatus 100 according to a first embodiment.
  • the schematic block diagram of the observation apparatus 101 which concerns on 2nd Embodiment.
  • the schematic block diagram of the observation apparatus 102 which concerns on 3rd Embodiment.
  • Explanatory drawing which shows the structure of the pump inspection system in embodiment.
  • inspection apparatus in other embodiment. 1 is a block diagram showing a schematic configuration of an underwater robot control system according to a first embodiment. The figure for demonstrating the underwater robot control method which concerns on 1st Embodiment.
  • FIG. 10 is a block diagram showing a schematic functional configuration of a communication buoy according to a fourth embodiment. Schematic which shows an example of a sonar image.
  • the block diagram which shows schematic structure of the underwater robot control system which concerns on the modification 1 of 4th Embodiment.
  • the block diagram which shows schematic structure of the underwater robot control system which concerns on the modification 2 of 4th Embodiment.
  • the block diagram which shows schematic structure of the underwater robot control system which concerns on the modification 3 of 4th Embodiment.
  • the first aspect relates to an industrial endoscope and an observation method.
  • a general industrial endoscope is provided with an imaging device at the tip, and the position of the imaging device can be changed by bending the vicinity of the tip.
  • the first aspect has been made in view of such problems, and the problem of the first aspect is to provide an industrial endoscope and an observation method that can move the imaging apparatus greatly.
  • An industrial endoscope includes an imaging device, a flexible holding member that holds the imaging device, and one or a plurality of nozzles that are fixed to the holding member and eject fluid. By ejecting the fluid, the imaging apparatus can be moved greatly. As a result, the observable range is expanded. Further, when there is a branching portion in the photographing target, it is possible to advance to a desired branch.
  • the imaging device held by the holding member moves in a direction different from the direction of fluid ejection from the nozzle when the nozzle ejects fluid.
  • the plurality of nozzles may include a first nozzle that ejects fluid in a photographing direction of the imaging device and a second nozzle that ejects fluid in a direction opposite to the photographing direction of the imaging device. Thereby, the imaging device can be moved forward or backward.
  • the flow path includes one flow path, and the plurality of nozzles include two or more nozzles connected to the one flow path, and whether to inject the fluid to each of the two or more nozzles. It is desirable to provide a valve to control. Thereby, the number of flow paths and fluid supply sources can be reduced.
  • the imaging device can be moved greatly.
  • FIG. 1 is a schematic configuration diagram of an industrial endoscope 100 according to an embodiment.
  • the industrial endoscope 100 includes an imaging device 1, nozzles 2a and 2b, flow paths 3a and 3b, high-pressure sources 4a and 4b, and a holding member 5, and is used for, for example, observation inside the pump. It is done.
  • the imaging device 1 may be a camera provided with a lens at the tip or an optical fiber.
  • the imaging device 1 is held at the tip of a flexible holding member 5.
  • a wiring connected to the imaging device 1 passes through the holding member 5, and power supply and control of the imaging device 1 are performed from the outside, and image data obtained by the imaging device 1 is transmitted to the image processing system 11.
  • the captured image is displayed in real time on a monitor (not shown) disposed in the vicinity of the operator, and can be appropriately captured or recorded.
  • the nozzle 2a is attached to the tip of the flexible flow path 3a.
  • a high pressure source 4a is connected to the other end of the flow path 3a through a valve 41a.
  • the flow path 3a is fixed to the holding member 5 directly or indirectly. Therefore, it can be said that the nozzle 2 a is fixed to the holding member 5 or the imaging device 1.
  • the high-pressure source 4a may be a tank or a pump that supplies a liquid such as water, or a compressor that supplies a gas such as air. That is, the high-pressure source 4a may be any one that supplies fluid via the flow path 3a. By providing such a flow path 3a and a high-pressure source 4a, the nozzle 2a can eject a fluid from its tip.
  • the nozzle 2b, the flow path 3b, and the high-pressure source 4b have the same configuration. However, the fluid ejecting direction from the nozzle 2a and the fluid ejecting direction from the nozzle 2b are different from each other, and in the specific example of FIG.
  • FIG. 2 is a diagram for explaining the operation of the industrial endoscope 100.
  • the holding member 5 holding the imaging device 1 and the flow paths 3a and 3b are in a direction different from the fluid ejection direction (specifically, the opposite direction).
  • the direction is largely changed, and as a result, the imaging device 1 moves to change the imaging position.
  • the imaging device 1 also moves in a direction different from the ejection direction.
  • an arbitrary observation target can be observed while moving the imaging device 1.
  • the observation target includes a branch portion, the imaging device 1 can be advanced to a desired branch.
  • FIG. 3 is a schematic configuration diagram of an industrial endoscope 101 which is a first modification. As illustrated, more nozzles 2a1, 2a2, 2b1, and 2b2 may be provided so that the degree of freedom for moving the imaging device 1 is increased.
  • FIG. 4 is a schematic configuration diagram of an industrial endoscope 102 which is a second modified example.
  • a nozzle 2a that ejects fluid in the photographing direction (front) of the imaging apparatus 1 and a nozzle 2b that ejects fluid in the opposite direction (backward) may be provided.
  • the industrial endoscope 102 moves backward by ejecting the fluid only from the nozzle 2a.
  • the industrial endoscope 102 moves forward by ejecting fluid from only the nozzle 2b.
  • FIG. 5 is a schematic configuration diagram of an industrial endoscope 103 which is a third modification.
  • this industrial endoscope 103 includes flow passages 3a and 3b to which nozzles 2a and 2b are attached, respectively, and a coating member 6 that covers the holding member 5.
  • the coating member 6 serves as a protective material, so that water does not easily penetrate into the industrial endoscope 103.
  • the cylindrical coating member 6 by using the cylindrical coating member 6, the vicinity of the nozzle 2a becomes smooth, and the surface of the industrial endoscope 103 is reduced, so that it is difficult to catch on the observation target.
  • FIG. 6 is a schematic configuration diagram of an industrial endoscope 104 which is a fourth modified example. As illustrated, the coating member 6 in the vicinity of the nozzles 2a and 2b may be thickened.
  • FIG. 7 is a schematic configuration diagram of an industrial endoscope 105 which is a fifth modified example.
  • two or more nozzles 2a and 2b may be connected by branching one flow path 3 to which one high pressure source 4 is connected at one end.
  • valves 21a and 21b are provided on the nozzles 2a and 2b, respectively. It is desirable that the valves 21a and 21b can be remotely operated using electric wires, radio waves, sound waves, light, wires, or the like.
  • valve 21a When the valve 21a is opened and the valve 21b is closed, fluid is ejected only from the nozzle 2a. On the other hand, by opening the valve 21b and closing the valve 21a, fluid is ejected only from the nozzle 2b.
  • pressure sources 4 can be reduced.
  • the imaging apparatus 1 since the fluid is ejected from the nozzle, the imaging apparatus 1 can be moved greatly, and the range that can be observed is expanded.
  • a 2nd aspect is related with the observation apparatus and pump observation method which observe the inside of a pump.
  • An observation apparatus includes an imaging device, an ejection port through which liquid is ejected in the imaging direction of the imaging device, and a water purification member provided on a flow path from the liquid supply source to the ejection port.
  • the liquid in the liquid supply source may be muddy water, and may be jetted from the ejection port as a clean liquid by being filtered by the water purification member.
  • the liquid in the liquid supply source may be a chemical solution, and may be jetted from the jet port as a clean liquid by being neutralized by the water purification member.
  • the imaging device in a state in which the liquid is purified by a water purification member, the purified water is ejected between the imaging device and the observation target, and the purified liquid is between the imaging device and the observation target. Provides an observation method for photographing the observation object.
  • An imaging device a first ejection port from which fluid is ejected in the imaging direction of the imaging device, and a thrust balance unit that generates thrust in a direction opposite to the thrust by fluid ejection from the first ejection port.
  • An observation device is provided.
  • the thrust balance unit may include a second ejection port that ejects fluid in a direction opposite to the fluid ejection direction from the first ejection port.
  • the thrust balance unit may be a screw.
  • the fluid While generating a thrust in the first direction, the fluid is ejected to the observation target in the second direction opposite to the first direction, and the imaging is performed in a state where the fluid is between the imaging device and the observation target.
  • An observation method is provided in which an apparatus photographs the observation object.
  • An observation method in which a fluid having a higher transparency than the opaque liquid is sprayed onto a concave portion to be observed placed in an opaque liquid, and the inner surface of the concave portion is observed with an imaging device in a state where the fluid is accumulated in the concave portion.
  • An underwater machine provided with an injection port that is provided in the vicinity of an observation target location and injects a fluid is provided.
  • a fluid having higher transparency than the opaque liquid is ejected from an ejection port provided in the vicinity of the observation target portion placed in the opaque liquid, and the fluid exists between the observation target portion and the imaging device.
  • an observation method for observing the observation target portion with the imaging device is provided.
  • FIG. 8 is a schematic configuration diagram of the observation apparatus 100 according to the first embodiment.
  • the observation device 100 may be an industrial endoscope, an underwater robot, an underwater drone, and the like.
  • the holding member 16 is provided.
  • the imaging device 11 images the front of the lens 11a provided at the tip thereof.
  • the imaging device 11 may be a fiberscope (not shown) with a lens 11a attached to the tip thereof or a camera having the lens 11a.
  • the imaging device 11 is held by a holding member 16.
  • a wiring connected to the imaging device 11 passes through the holding member 16, and power supply and control of the imaging device are performed from the outside, and image data obtained by the imaging device 11 is transmitted to the image processing system 11 b.
  • the captured image is displayed in real time on a monitor (not shown) disposed in the vicinity of the operator, and can be appropriately captured or recorded.
  • One end of the flow path 12 a is connected to the liquid supply source 60, and the other end is connected to the filter 13.
  • One end of the flow path 12 b is connected to the filter 13, and the other end is connected to the pump 14.
  • One end of the flow path 12 c is connected to the pump 14, and the other end is connected to the injection member 15.
  • the filter 13 and the pump 14 are sequentially provided on the flow paths 12a to 12c from the liquid supply source 60 to the ejection member 15.
  • the pump 14 When the pump 14 is driven, the liquid from the liquid supply source 60 is sucked up by the filter 13, and the liquid is ejected from the ejection port 12 d provided at the tip of the ejection member 15 through the pump 14.
  • the liquid supply source 60 may be a tank in which clean liquid is stored in advance, or another water source (for example, public water supply). However, in the following description, the liquid supply source 60 is a suction water tank or a discharge water tank in a drainage station.
  • the liquid of the source 60 is assumed to be an opaque liquid (so-called muddy water) containing mud.
  • the muddy water from the liquid supply source 60 passes through the filter 13 to become a clean liquid and flows into the pump 14. Then, this clean liquid is ejected from the ejection port 12d.
  • “clean” means that the transparency is at least higher than the liquid in the liquid supply source 60.
  • the liquid is ejected from the ejection port 12d in the imaging direction of the imaging device 11.
  • the ejection port 12d ejects liquid between the lens 11a of the imaging device 11 and the observation target.
  • the holding member 16 holds the imaging device 11 at its tip and has flexibility. At least a part of the holding member 16 may be coupled to at least a part of the flow paths 12a to 12c, or may be integrated. Steering means (not shown) such as a joystick is provided at the base of the holding member 16 (the end opposite to the side where the lens 11a is provided). When the operator operates the steering means, the direction of the tip of the holding member 16 (that is, the direction of the lens 11a) can be adjusted. In addition, a control device (not shown) that controls ejection and imaging of the liquid is also provided at the base of the holding member 16.
  • the mode shown in FIG. 8 is merely an example, and when the observation apparatus 100 is a large underwater robot or an underwater drone, the filter 13 and the pump 14 are provided in itself to generate a clean liquid from the surrounding liquid. Also good.
  • the observation using the observation apparatus 100 is performed as follows. First, the operator detects the observation target position in the observation target 2 by operating the control means while observing the video imaged by the imaging device 11 on the monitor. Note that turbid water may exist around the observation object 2.
  • a clean liquid is ejected from the ejection port 12d toward the imaging direction by the imaging device 11 by the operation of the operator. More specifically, the muddy water from the liquid supply source 60 is filtered through the filter 13 by driving the pump 14 to generate a clean liquid. Then, this clean liquid is ejected between the lens 11a and the observation target position.
  • a water channel is formed between the front of the lens 11a and the observation target position by the jetted clean liquid.
  • the operator observes the image picked up by the image pickup device 11 on the monitor and takes a picture when the water channel is formed and the observation target position is seen.
  • a clean liquid obtained by filtering muddy water is sprayed in front of the lens 11a. Therefore, even when dirty water exists between the lens 11a and the observation target position, the observation target position can be easily observed.
  • the filter 13 is arranged downstream of the pump 14 if the pump 14 can drive muddy water. Also good.
  • liquid from the liquid supply source 60 is a chemical solution
  • a water purification member that performs neutralization or the like may be provided instead of / in addition to the filter 13.
  • transparent seawater may be injected without passing through the filter 13.
  • a gas such as air may be injected instead of the liquid.
  • a second embodiment to be described next relates to stabilization of the observation apparatus 100.
  • the first embodiment when liquid is ejected from the ejection port 12d, thrust is generated in the opposite direction (direction away from the observation target position).
  • the observation apparatus 100 When the observation target is close to the water bottom or the liquid tank bottom, the observation apparatus 100 can be grounded, and the observation apparatus 100 can be made difficult to move by friction between the lower surface of the observation apparatus 100 and the water bottom or the liquid tank bottom. However, if this is not the case, the observation apparatus 100 may not be able to stay in place and may move, making observation difficult. Although it is conceivable to make the observation device 100 sufficiently heavy, in view of workability, it is desirable that the observation device 100 be small and light. Therefore, in the present embodiment, the following observation apparatus 101 is provided.
  • FIG. 9 is a schematic configuration diagram of an observation apparatus 101 according to the second embodiment.
  • This observation apparatus 101 includes two injection ports 12d and 22a.
  • the ejection port 12d ejects liquid in the imaging direction of the imaging device 11 as in the first embodiment.
  • the ejection port 22a ejects liquid in a direction opposite to the ejection direction of the ejection port 12d.
  • the injection port 12d and the lens 11a of the imaging device 11 are provided on one surface of the base 23, and the injection port 22a is provided on the opposite surface.
  • liquid is ejected from the ejection port 12d to the observation target position while generating thrust in a direction approaching the observation target 2 by liquid ejection from the ejection port 22a.
  • the thrust by the ejection port 12d and the thrust by the ejection port 22a are balanced, and the observation apparatus 101 hardly moves, so that the observation target position can be easily observed.
  • the liquid supply to the ejection ports 12d and 22a may be the one described in the first embodiment, or may be performed from a tank or the like in which clean liquid is stored in advance. Also good. Further, the liquid supply source to the ejection ports 12d and 22a may be common or may be separate. Furthermore, in this embodiment, you may inject gas instead of a liquid from the injection ports 12d and 22a.
  • FIG. 10 is a schematic configuration diagram of an observation apparatus 102 according to the third embodiment.
  • the observation device 102 includes a screw 24.
  • the injection port 12d and the lens 11a of the imaging device 11 are provided on one surface of the base 23, and the screw 24 is provided on the opposite surface. As the screw 24 rotates, a thrust in a direction approaching the observation target is generated.
  • the screw 24 is rotated to generate a thrust in a direction approaching the observation target, and the liquid is jetted from the injection port 12d to the observation target position.
  • the thrust by the injection port 12d and the thrust by the screw 24 are balanced, and the observation apparatus 102 hardly moves, and the observation target position can be easily observed.
  • a fourth embodiment to be described next relates to observation of a concave portion in an observation target.
  • FIG. 11 is a diagram schematically showing the observation object 30 in the fourth embodiment.
  • the observation target 30 of the present embodiment is an arbitrary underwater machine (for example, a pump) placed in an opaque liquid such as muddy water.
  • the observation object 30 has a concave portion 31, that is, a convex inner surface 32. Since an opaque liquid exists in the recess 31, observation is not easy. Therefore, in this embodiment, the inner surface 32 of the recess 31 is observed as follows.
  • FIG. 12A and 12B are diagrams schematically showing a state in which an observation target is observed using the observation apparatus 200.
  • the observation device 200 is an endoscope with an air supply tube, and an imaging device is provided at the tip, and fluid can be ejected from the tip.
  • the fluid is preferably a gas that does not easily diffuse (such as air), but may be a clean liquid. Note that “clean” only needs to be more transparent than the opaque liquid around the observation object 30.
  • the observation apparatus 200 ejects fluid into the recess 31.
  • the opaque liquid is removed and the fluid is stored in the recess 31.
  • the surface of the observation object 30, more specifically, the inner surface 32 of the recess 31 can be observed by the imaging device.
  • an underwater robot provided with an imaging device may be used as the observation device.
  • air may be ejected as a fluid from an air cylinder mounted on the underwater robot.
  • the air supply tube and the imaging device may be provided separately, and fluid is first ejected from the air supply tube, and then observation is performed with the imaging device.
  • the observation object can be observed even in an opaque liquid.
  • the observation is performed by ejecting a fluid from the observation target.
  • FIG. 13 is an enlarged cross-sectional view of the vicinity of the flange portions 41a and 42a, which is an example of an observation target in the fifth embodiment.
  • the observation target is flange portions 41a and 42a of a pump suction pipe installed in seawater. Since an opaque liquid exists around the flange portions 41a and 42a, it is not easy to observe the flange portions 41a and 42a. Therefore, in the present embodiment, the following is performed.
  • the observation object in this embodiment includes a fluid pipe 43 provided on the flange portion 41a side and a fluid pipe 44 provided on the flange portion 42a side.
  • the fluid piping 43 ejects fluid from below the flange portion 41a.
  • the fluid piping 44 ejects fluid from above the flange portion 42a.
  • the fluid to be ejected may be clean water or clean gas (such as air). Further, the fluid from the fluid piping 43 and the fluid from the fluid piping 44 may be different from each other. Note that “clean” only needs to be more transparent than the opaque liquid around the object to be observed.
  • FIG. 14 is a diagram schematically showing how the observation object is observed.
  • the imaging device 45 provided in the observation device 300 such as an endoscope or an underwater robot is directed toward the flange portions 41a and 42a.
  • the fluid is ejected from the ejection ports 43a and 44a provided at the tips of the fluid pipes 43 and 44.
  • a clean fluid is present around the flange portions 41a and 42a, more specifically, on the optical axis of the imaging device 45.
  • the flange portions 41 a and 42 a are observed by the imaging device 45.
  • the clean fluid is fixed between the flange portions 41a and 42a as the observation target and the imaging device 45, the observation target can be observed even in an opaque liquid.
  • This embodiment is applicable to arbitrary underwater machines. That is, in a submerged machine, when observing a certain part at a relatively high frequency for periodic inspection or the like, a fluid injection port is provided in the vicinity of the observation target part. And what is necessary is just to observe using an imaging device, injecting a fluid.
  • a 3rd aspect is related with a pump inspection system provided with the endoscope inserted in the inside of a pump, and the inspection apparatus to which an endoscope is connected.
  • a vertical shaft pump is used for the purpose of transferring a liquid such as river water.
  • a suspension pipe is installed on the pump installation floor above the suction water tank, and an impeller casing that houses the impeller is connected to the lower part of the suspension pipe. Since the vertical shaft pump is operated in a state in which the impeller and the underwater bearing are immersed in water, the members constituting the vertical shaft are gradually worn with the passage of operation time. Moreover, corrosion may occur in the suspension pipe, impeller casing, impeller, and the like. For this reason, it is necessary to periodically perform internal inspections of the vertical shaft pump to grasp the state of wear and the occurrence of corrosion in the impeller and the impeller casing, and to repair or replace them as necessary.
  • a rail disposed horizontally in the pump casing, an inspection port fixture for fixing the rail to an inspection port provided in the pump casing, and an inner surface fixture for fixing the rail to the inner surface of the pump casing An inspection apparatus having an inspection unit that can move horizontally on a rail has been proposed.
  • the inspection port fixture is attached to one end of the rail, and the inner surface fixture is attached to the other end of the rail.
  • the inspection unit is, for example, an endoscope that captures an image inside the pump casing, and is configured to be movable in the vertical direction within the pump casing (see Patent Document 1).
  • the endoscope can move up and down in the pump.
  • the endoscope is configured to be able to photograph various directions by bending the tip.
  • no consideration is given to knowing the position and direction of the endoscope in the pump, and it is understood which part of the pump is taken from which direction with the endoscope. It was difficult to do.
  • the third aspect is made in view of the above problem, and provides a pump inspection system capable of easily grasping which part of the pump is taken from which direction with an endoscope. Objective.
  • a pump inspection system is a pump inspection system including an endoscope inserted into a pump and an inspection device to which the endoscope is connected.
  • the endoscope includes a plurality of cameras.
  • a cable unit for transmitting camera images photographed by the plurality of cameras to the inspection device, wherein the inspection device captures a camera image inside the pump photographed by the plurality of cameras.
  • the endoscope in the pump A direction determining unit for obtaining a direction in which the tip is directed.
  • the position of the tip of the endoscope in the pump and the direction in which the tip of the endoscope faces can be obtained based on the camera images inside the pump taken by a plurality of cameras. Therefore, it is possible to easily grasp which part in the pump is taken from which direction with the endoscope.
  • the plurality of cameras are arranged at different positions of the imaging unit so as to capture camera images in different imaging directions, and the inspection device is disposed inside the pump.
  • the storage unit stores the position of the reference marker in the pump
  • the position determination unit is a camera image inside the pump taken by the plurality of cameras. Based on two camera images obtained by photographing the same reference marker, a distance from the distal end of the endoscope to the reference marker is calculated, and at least three different distances to the reference marker and the inside of the pump are calculated.
  • the position of the distal end of the endoscope in the pump may be obtained based on the position of the reference marker.
  • the distance from the distal end of the endoscope to the reference marker is calculated based on two camera images of the same reference marker among the camera images taken by the plurality of cameras. can do. Based on the distance to at least three different reference markers and the position of the reference marker in the pump, the position (three-dimensional coordinates) of the tip of the endoscope in the pump can be obtained.
  • the storage unit stores a directional relationship between the imaging direction of each of the plurality of cameras and the direction of the distal end of the endoscope
  • the direction determination unit includes: Based on the position in the image of the reference marker in the camera image obtained by photographing the reference marker among the camera images taken by the plurality of cameras, the photographing direction of the camera photographing the reference marker is calculated.
  • the direction in which the distal end of the endoscope is directed may be obtained based on the directional relationship between the direction of the distal end of the endoscope and the shooting direction of the camera.
  • the camera that photographed the reference marker based on the position of the reference marker (the position in the image) in the camera image obtained by photographing the reference marker among the camera images taken by the plurality of cameras, the camera that photographed the reference marker.
  • the shooting direction can be calculated.
  • the direction in which the distal end of the endoscope faces can be obtained from the directional relationship between the direction of the distal end of the endoscope and the shooting direction of the camera.
  • the inspection device may include a multi-display unit that displays camera images inside the pump taken by the plurality of cameras on a plurality of screens.
  • the inspection device includes a spherical display processing unit that converts a camera image captured by the plurality of cameras into a spherical display image, and the spherical display image as a spherical shape.
  • a spherical display unit for displaying on the screen.
  • the camera images in the pump photographed by a plurality of cameras are converted into a spherical display image (for example, a whole sky image) and displayed on a spherical screen (for example, a whole sky screen).
  • a spherical display image for example, a whole sky image
  • a spherical screen for example, a whole sky screen
  • the inspection device includes a stereoscopic display processing unit that converts a camera image inside the pump photographed by the plurality of cameras into a stereoscopic display image, and stereoscopic display of the stereoscopic display image.
  • a 3D display unit for displaying on a screen.
  • the camera images in the pump captured by a plurality of cameras are converted into a stereoscopic display image (three-dimensional display image) and displayed on the stereoscopic display screen (three-dimensional display screen). Can be grasped three-dimensionally (three-dimensionally).
  • FIG. 15 is an explanatory diagram (sectional view) schematically showing the overall configuration of the vertical shaft pump.
  • the pump casing 2 of the vertical shaft pump 1 includes an impeller casing 3, a suspension pipe 4, and a discharge curved pipe 5.
  • the impeller casing 3 is suspended in the suction water tank 6 by a suspension pipe 4.
  • a discharge curved pipe 5 is connected to the upper end of the suspension pipe 4.
  • the pump casing 2 is fixed to a pump installation floor 7 above the suction water tank 6 via an installation base 8.
  • a suction bell mouth 17 that opens downward is connected to the lower end of the impeller casing 3.
  • An impeller 9 is accommodated in the impeller casing 3.
  • a plurality of guide vanes 10 are provided above the impeller 9. The guide vane 10 is fixed to the inner peripheral surface of the impeller casing 3.
  • the impeller 9 is fixed to a rotating shaft 11 (main shaft), and the impeller 9 and the rotating shaft 11 rotate integrally.
  • the rotating shaft 11 extends in the vertical direction and is rotatably supported by the intermediate bearing 12.
  • the rotary shaft 11 protrudes upward from the discharge curved pipe 5 and is connected to the drive source 13.
  • the discharge curved pipe 5 is provided with an inspection port 15 (hand hole) above the inspection location.
  • the inspection location is, for example, a gap between the guide vane 10 and the impeller 9.
  • An endoscope 21 (described later) is inserted into the pump casing 2 from the inspection port 15 and the vertical shaft pump 1 is inspected.
  • a plurality of reference markers 16 are provided on the inner surface of the pump casing 2 (for example, the inner surface in the vicinity of the inspection location).
  • the reference marker 16 is, for example, identification information (for example, letters, numbers, figures, etc.) for identifying the position (position in the pump casing 2) where the reference marker 16 is provided.
  • the pump inspection system 20 includes an endoscope 21 inserted into the pump casing 2 and an inspection device 22 to which the endoscope 21 is connected.
  • FIG. 16 is an explanatory diagram showing the configuration of the endoscope 21.
  • an imaging unit 24 having a plurality of cameras 23 (camera A, camera B,...) Is provided at the distal end of the endoscope 21.
  • a cable part 25 for transmitting camera images photographed by a plurality of cameras 23 to the inspection device 22 is extended from the photographing part 24.
  • the plurality of cameras 23 are arranged at different positions of the photographing unit 24 so as to photograph camera images in different photographing directions.
  • a camera 23 that captures the front is disposed on the front surface of the image capturing unit 24, and a camera 23 that captures the oblique front, side, oblique rear, and the like is disposed on the side surface of the image capture unit 24.
  • the cable part 25 has a softness
  • FIG. 17 is a block diagram showing the configuration of the inspection device 22.
  • the inspection device 22 includes a control unit 26 composed of a CPU, a multi display unit 27 composed of a plurality of screens (monitor A, monitor B,...), A memory, and the like.
  • storage part 28 comprised is provided.
  • the storage unit 28 stores the position of the reference marker 16 in the pump casing 2 for each of a plurality of reference markers 16 (reference marker A, reference marker B,...) Provided on the inner surface of the pump casing 2. ing.
  • reference marker A reference marker A
  • reference marker B reference marker B
  • the coordinates (X A , Y A , Z A ) of the reference marker A the coordinates (X B , Y B , Z B ), etc. of the reference marker B are stored.
  • (X, Y, Z) are three coordinates in the orthogonal linear coordinate system.
  • the storage unit 28 stores a directional relationship between the shooting direction of each of the plurality of cameras 23 and the direction of the tip of the endoscope 21 (reference direction). For example, the angle ( ⁇ A , ⁇ A ) of the shooting direction of the camera A with respect to the direction (reference direction) of the tip of the endoscope 21 and the angle of the shooting direction of the camera B with respect to the direction of the tip of the endoscope 21 (reference direction). ( ⁇ B , ⁇ B ),... Are stored. Note that ( ⁇ , ⁇ ) is two angular coordinates of the spherical coordinate system.
  • the control unit 26 includes a position determination unit 29, a direction determination unit 30, and a multi-display processing unit 31.
  • the position determination unit 29 has a function of obtaining the position of the distal end of the endoscope 21 in the pump casing 2 based on the camera images inside the pump casing 2 taken by a plurality of cameras 23. More specifically, the position determination unit 29 is based on two camera images obtained by photographing the same reference marker 16 among the camera images inside the pump casing 2 photographed by a plurality of cameras 23. The distance from the distal end of the endoscope 21 to the reference marker 16 is calculated, and the endoscope 21 in the pump casing 2 is determined based on the distance to at least three different reference markers 16 and the position of the reference marker 16 in the pump casing 2. Find the tip position.
  • the direction determining unit 30 has a function of obtaining a direction in which the distal end of the endoscope 21 faces in the pump casing 2 based on camera images inside the pump casing 2 photographed by a plurality of cameras 23. . More specifically, the direction determining unit 30 sets the position of the reference marker 16 (in-image position) in the camera image obtained by photographing the reference marker 16 among the camera images inside the pump casing 2 photographed by the plurality of cameras 23. Based on this, the photographing direction of the camera 23 that photographed the reference marker 16 is calculated, and the distal end of the endoscope 21 is directed based on the directional relationship between the orientation of the distal end of the endoscope 21 and the photographing direction of the camera 23. Find the direction you are.
  • the multi display unit 27 displays the camera images inside the pump casing 2 taken by a plurality of cameras 23 (camera A, camera B,%) On a plurality of screens (monitor A, monitor B,). It has a display function. For example, the camera image inside the pump casing 2 photographed by the camera A is displayed on the monitor A, and the camera image inside the pump casing 2 photographed by the camera B is displayed on the monitor B.
  • the multi-display unit 27 does not necessarily display all camera images on all screens. For example, some camera images (for example, only images in a predetermined horizontal direction) may be displayed on some screens (for example, only the monitor A).
  • the direction determining unit 30 determines the direction in which the distal end of the endoscope 21 is facing, so that it can be determined which camera image is an image showing a predetermined horizontal direction. Therefore, it is possible to select a camera image (camera image to be displayed on the screen) showing a predetermined horizontal direction from a plurality of camera images.
  • the reference marker from the distal end of the endoscope 21 based on two camera images obtained by photographing the same reference marker 16 among the camera images inside the pump casing 2 photographed by a plurality of cameras 23, the reference marker from the distal end of the endoscope 21.
  • a distance up to 16 can be calculated.
  • the position (three-dimensional coordinates) of the tip of the endoscope 21 in the pump casing 2 can be obtained. .
  • the shooting direction of the camera 23 that has shot the reference marker 16 can be calculated.
  • the direction in which the distal end of the endoscope 21 faces can be obtained from the directional relationship between the orientation of the distal end of the endoscope 21 and the shooting direction of the camera 23.
  • a camera image of each part in the pump casing 2 photographed by a plurality of cameras 23 (camera A, camera B,...) Is displayed on a plurality of screens (monitor A, monitor B,. ), It is possible to check a plurality of locations in the pump casing 2 for each screen.
  • the inspection apparatus includes the multi-display unit 27 that displays the camera images inside the pump casing 2 captured by the plurality of cameras 23 on the plurality of screens.
  • the range is not limited to this.
  • FIG. 18 shows another embodiment of the inspection apparatus.
  • the inspection apparatus displays a spherical display image on a spherical screen, and a spherical display processing unit 32 that converts a camera image inside the pump casing 2 captured by a plurality of cameras 23 into a spherical display image.
  • a spherical display unit 33 may be provided.
  • the spherical display image is a full sky image
  • the spherical display unit 33 is a full sky monitor.
  • the spherical display image may be a partial spherical image
  • the spherical display unit 33 may be a partial spherical monitor.
  • a camera image in the pump casing 2 taken by a plurality of cameras 23 is converted into a spherical display image (for example, an all-sky image) and a spherical screen (for example, an all-around screen). ), The state inside the pump casing 2 can be grasped as a whole.
  • a spherical display image for example, an all-sky image
  • a spherical screen for example, an all-around screen
  • FIG. 19 shows another embodiment of the inspection apparatus.
  • the inspection apparatus converts a stereoscopic display processing unit 34 that converts a camera image inside the pump casing 2 captured by a plurality of cameras 23 into a stereoscopic display image (three-dimensional display screen), and the stereoscopic display image.
  • a stereoscopic display unit 35 that displays on the stereoscopic display screen may be provided.
  • the stereoscopic display screen may be a naked eye type three-dimensional display screen or a glasses type three-dimensional display screen.
  • a camera image in the pump casing 2 photographed by a plurality of cameras 23 is converted into a stereoscopic display image (three-dimensional display image) and displayed on a stereoscopic display screen (three-dimensional display screen). Therefore, the state in the pump casing 2 can be grasped three-dimensionally (three-dimensionally).
  • the reference marker 16 may be an asymmetric two-dimensional figure instead of a point. In this case, if information on the position, direction and size of the two-dimensional figure on the object is stored in advance, only one reference marker 16 can be photographed with one camera 23 having known optical characteristics. By analyzing the captured image, the position and direction of the endoscope 21 with respect to the object can be specified.
  • the two-dimensional figure may be an arbitrary figure, and may be a character or a number. However, since asymmetry is required, for example, “O”, “o”, “l”, “I”, “X”, “x” and the like are not desirable in the alphabet. However, it can be used if the symmetry is broken by combining a plurality. For example, “Xx” can be used.
  • the camera 23 may be monocular, if such a system is adopted, the robustness and accuracy of positioning and direction determination can be improved by using a plurality of cameras 23. For example, in the case of one camera 23, if all the reference markers 16 are out of the field of view, the position / direction analysis becomes impossible, but in the case of a plurality of cameras 23, any one camera 23 corresponds to any one reference marker 16. If you can shoot, you can analyze the position and direction.
  • the pump inspection system according to the third aspect has an effect that it is possible to easily grasp which part of the pump is being photographed from which direction with the endoscope. It is used for maintenance and is useful.
  • the fourth aspect relates to an underwater robot control system and an underwater robot control method.
  • the fourth aspect has been made in view of the above problem, and an underwater robot control system and an underwater robot that can facilitate remote control even when the underwater underwater robot cannot be seen by the operator.
  • An object is to provide a control method.
  • the underwater robot control system is a remotely controlled underwater robot control system capable of transmitting sound waves and having a propulsion mechanism and receiving sound waves transmitted from the underwater robot.
  • Three or more communication buoys that can transmit the reception time when the sound wave is received and float on the water surface, position detection means that detects the position of each of the communication buoys, and the reception time transmitted by the communication buoy.
  • a position determination unit that determines a position of the underwater robot using a difference between a transmission time of the sound wave and a reception time when each communication buoy receives the sound wave, and a position of each of the communication buoys; Prepare.
  • the underwater robot control system is the underwater robot control system according to the first aspect, wherein the position determination unit includes a transmission time of the sound wave and a reception time when each of the communication buoys receives the sound wave. Is used to determine the distance between each communication buoy and the underwater robot, and the position of the underwater robot is determined based on the determined distance and the position of each of the communication buoys.
  • the position of the underwater robot can be determined even when the underwater robot is not visible from the operator.
  • the underwater robot control system is the underwater robot control system according to the first or second aspect, wherein the position determination unit moves the underwater robot by a predetermined distance to stop it, and after the stop, Using the difference between the transmission time of the sound wave and the reception time when each communication buoy received the sound wave, and the position of each communication buoy, the position of the underwater robot after stopping is determined, and before and after the movement. The direction of the underwater robot is determined using the position of the underwater robot.
  • the direction of the underwater robot can be determined even when the underwater robot is not visible from the operator.
  • the underwater robot control system is the underwater robot control system according to the third aspect, wherein the underwater robot can image underwater, and the position determination unit uses a direction of the underwater robot. Then, the direction of the underwater robot is changed toward the inspection object.
  • the underwater robot can be moved toward the inspection target, and the inspection target is obtained by imaging the inspection target after the movement. Can be checked.
  • the underwater robot control system is the underwater robot control system according to any one of the first to fourth aspects, wherein the position detection means is provided in each of the communication buoys and the position of the communication buoy is determined. A positioning unit to measure.
  • the position of the communication buoy can be measured.
  • the underwater robot control system is a remotely controlled underwater robot control system that can image an inspection object placed underwater and can transmit ultrasonic waves to an underwater robot having a propulsion mechanism.
  • a communication buoy having a sonar capable of capturing the reflected wave of the ultrasonic wave and floating on the water surface, position detecting means for detecting the position of the communication buoy, an observation result by the sonar, and a position of the communication buoy.
  • a position determining unit that determines the position of the underwater robot.
  • the underwater robot control system is the underwater robot control system according to the sixth aspect, wherein the difference between the position of the underwater robot and the position on the trajectory from the underwater robot to the inspection object is minimized. And a control unit for controlling the underwater robot.
  • control unit can guide the underwater robot to the destination by continuing this control.
  • An underwater robot control system is the underwater robot control system according to the sixth or seventh aspect, wherein the position detection means is a positioning provided in each of the communication buoys and measuring the position of the communication buoy. Part.
  • the position of the communication buoy can be measured.
  • An underwater robot control system is a remotely controlled underwater robot control system that can image an inspection object placed underwater and has a propulsion mechanism, and a communication buoy that floats on water.
  • the communication buoy includes a floating member that floats on water, a sound wave transmitter that transmits sound waves and can receive sound waves reflected from the underwater robot, and an image using sound waves received by the sound wave transmitters.
  • a processor that generates data; and a communication unit that transmits an image signal including the generated image data.
  • the underwater robot control system is the underwater robot control system according to the ninth aspect, wherein the sound wave transmitter is a synthetic aperture sonar capable of transmitting sound waves in a plurality of directions.
  • the underwater robot control system is the underwater robot control system according to the ninth aspect, wherein the sound wave transmitter is a synthetic aperture sonar capable of transmitting sound waves in one direction, and the communication buoy is: A drive unit for rotating the synthetic aperture sonar is provided.
  • the synthetic aperture sonar can be rotated and scanned, sonar images in a plurality of directions can be acquired, so the underwater robot sonar image can be obtained in any direction in the water. Can be obtained.
  • An underwater robot control system is the underwater robot control system according to the ninth aspect, wherein the sound wave transmitter is a transducer, and the communication buoy includes a drive unit that moves the transducer up and down. Prepare.
  • the transducer since the transducer can be scanned up and down, a sonar image can be acquired in the depth direction. Therefore, the underwater robot's sonar image can be displayed at any depth in the water. Can be acquired.
  • the underwater robot control system is the underwater robot control system according to the ninth aspect, wherein the sound wave transmitter is a transducer array in which a plurality of transducers are arranged in substantially the same plane.
  • the transducer array can be scanned, a sonar image in a predetermined range in the depth direction can be acquired at a time, so that a sonar image including an underwater robot can be easily acquired. it can.
  • An underwater robot control system is a remotely controlled underwater robot control system, comprising: an acoustic camera that shoots an underwater image using ultrasonic waves to generate image data; and a communication unit that transmits the image data.
  • An underwater robot having a propulsion mechanism, a display device, and a controller for receiving the image data and displaying the image data on the display device. The underwater robot is controlled to move.
  • the operator can bring the underwater robot closer to the inspection target while viewing the image data displayed on the display device.
  • An underwater robot control method is a remotely controlled underwater robot control method, wherein the underwater robot shoots an underwater image using ultrasonic waves to generate image data, and the underwater robot acquires the image data.
  • the operator can bring the underwater robot closer to the inspection target while viewing the image data displayed on the display device.
  • the underwater robot control method is a remotely controlled underwater robot control method, wherein the controller moves the underwater robot on the water surface according to an operation by the operator, and the underwater robot moves the inspection object.
  • the controller causes the underwater robot to submerge underwater in accordance with an operation by the operator, the underwater robot images the inspection site of the inspection object underwater, and the underwater robot Transmitting the image data generated by imaging to the controller, and the controller displaying the image data on a display device.
  • the pilot can be moved to the inspection site underwater and the inspection site can be imaged and displayed.
  • the site can be inspected.
  • FIG. 20 is a block diagram illustrating a schematic configuration of the underwater robot control system according to the first embodiment.
  • the underwater robot control system S1 includes an underwater robot 1 that can move underwater, a controller 2 for maneuvering the underwater robot 1 from a remote location (eg, on the water, land, etc.), and an underwater robot. 1 includes a display device 3 that displays a captured image.
  • the video includes moving images and still images.
  • the underwater robot 1 is, for example, an underwater drone. In the following embodiments, the underwater robot 1 will be described below as an example of an underwater drone.
  • the underwater robot 1 includes a camera 11, a propulsion mechanism 10, a processor 14, and a communication unit 15.
  • the propulsion mechanism 10 includes, as an example, a propeller 12 and a drive unit 13 connected to the propeller.
  • the processor 14 is connected to the camera 11, the drive unit 13, and the communication unit 15 via a bus.
  • the camera 11 captures a subject in water and generates image data.
  • the camera 11 includes an image sensor that captures an image of a subject and generates image data, and a lens unit that collects light from the subject on the image sensor.
  • the drive unit 13 rotates the propeller 12.
  • the drive unit 13 is, for example, a motor.
  • the processor 14 controls the drive unit 13 to adjust the rotation amount and / or rotation direction of the propeller 12. Thereby, the underwater robot 1 can move forward and backward.
  • the communication unit 15 is connected to the controller 2 via the communication cable CB. Thereby, the communication unit 15 can communicate with the controller 2.
  • the processor 14 causes the image data obtained by the camera to be transmitted from the communication unit 15 to the controller 2.
  • the communication unit 15 and the communication unit 21 of the controller 2 will be described as communicating by wire as an example.
  • the controller 2 includes a communication unit 21, an operation unit 22, and a processor 23.
  • the processor 23 is connected to the communication unit 21 and the operation unit 22 via a bus.
  • the communication unit 21 receives image data transmitted from the communication unit 15 of the underwater robot 1.
  • the processor 23 controls the display device 3 to display this image data.
  • the operation unit 22 receives an operation for operating the underwater robot 1 from the operator.
  • the operation unit 22 is, for example, a control stick.
  • the processor 23 generates a control signal for moving the underwater robot 1 in accordance with the operation received by the operation unit 22 and transmits the control signal from the communication unit 21 to the underwater robot 1.
  • the communication unit 15 of the underwater robot 1 receives this control signal, and the processor 14 of the underwater robot 1 controls the drive unit 13 to move the underwater robot 1 based on this control signal.
  • FIG. 21 is a diagram for explaining the underwater robot control method according to the first embodiment.
  • FIG. 21 shows an underwater robot visually confirmed by the influence of opaque or low-transparency water such as muddy water and / or the presence of opaque chemicals and / or colored organisms (algae, plankton, etc.) It is an underwater robot control method used when it cannot.
  • opaque or low-transparency water such as muddy water and / or the presence of opaque chemicals and / or colored organisms (algae, plankton, etc.)
  • the suction water tank is filled with muddy water, and that the inspection site can be visualized by optical imaging when close to the inspection site.
  • the term “opaque” in the present embodiment means that it has a transparency within a range in which the inspection part can be visualized by optical imaging if it is close to the inspection part.
  • the underwater robot 1 is moved on the water surface toward the pumping pipe PT of the pump.
  • the operator can operate the underwater robot 1 while visually confirming the position of the underwater robot 1.
  • FIG. 21B when the operator visually confirms that the underwater robot 1 has approached the pumping pipe PT of the pump, as shown in FIG. Controls the underwater robot 1 to be submerged in the water along the pumping pipe PT of the pump.
  • the image data of the pumping pipe P captured by the camera 11 of the underwater robot 1 is displayed on the display device 3, so that the operator can submerge the object to be inspected by submerging while viewing this image data.
  • the underwater robot 1 can be moved to the inspection site of the pumping pipe P.
  • the underwater robot 1 images the inspection site of the pump in the water. Then, the image data generated by the underwater robot 1 is transmitted to the controller 2. The controller 2 causes the display device 3 to display image data.
  • the remotely controlled underwater robot control method includes a step in which the controller 2 moves the underwater robot 1 on the water surface in accordance with an operation by the operator. Further, the underwater robot control method includes a step in which the controller 2 submerses the underwater robot 1 in the water according to the operation by the operator when the underwater robot 1 moves to the vicinity of the pumping pipe PT of the pump.
  • FIG. 22 is a block diagram illustrating a schematic configuration of an underwater robot control system according to the second embodiment.
  • the underwater robot control system S2 according to the second embodiment includes an underwater robot 1b that can move underwater, three communication buoys 4-1, 4-2, and 4-3 that float on the water surface.
  • the controller 2b and the display device 3 are provided.
  • FIG. 23 is a block diagram showing a schematic configuration of the underwater robot control system S2 according to the second embodiment.
  • the underwater robot control system S2 according to the second embodiment in FIG. 23 is changed from the underwater robot 1 to the underwater robot 1b as compared with the underwater robot control system S1 according to the first embodiment in FIG.
  • the controller 2b is changed.
  • the underwater robot 1b according to the present embodiment can transmit sound waves.
  • the underwater robot 1b according to the present embodiment has a configuration in which a timer unit 16 and a sound wave transmission unit 17 are added as compared to the underwater robot 1 according to the first embodiment.
  • the timer unit 16 and the sound wave transmitter unit 17 are connected to the processor 14 via a bus.
  • the underwater robot 1b can image underwater.
  • the timer unit 16 measures time.
  • the time in the timer unit 16 is synchronized in advance with the time in the communication buoys 4-1, 4-2, and 4-3.
  • the sound wave transmitting unit 17 transmits a sound wave (Ping wave). For example, the sound wave transmission unit 17 transmits a sound wave at a predetermined time.
  • the communication buoy 4-1 includes a positioning unit 41, a time measuring unit 42, a sound wave receiving unit 43, a processor 44, a communication unit 45, and an antenna 46.
  • the processor 44 is connected to other elements via a bus.
  • the positioning unit 41 is an example of a position detecting unit that detects the positions of the communication buoys 4-1, 4-2, and 4-3.
  • the positioning unit 41 is a GPS (Global Positioning System) receiver, for example, and is provided in the communication buoy 4-1, and measures the position of the communication buoy 4-1.
  • GPS Global Positioning System
  • Time measuring unit 42 measures time. As described above, the time in the timekeeping unit 42 is motivated in advance by the time in the timekeeping unit 16 of the underwater robot 1b.
  • the sound wave receiver 43 receives the sound wave transmitted from the sound wave transmitter 17 of the underwater robot 1b.
  • the processor 44 acquires the time when the sound wave receiving unit 43 received the sound wave (hereinafter referred to as reception time) from the time measuring unit 42.
  • the communication unit 45 can communicate with the controller 2b via the antenna 46 by radio.
  • the processor 44 causes the communication unit 45 to transmit the acquired reception time and the position of the communication buoy 4-1 to the controller 2b.
  • the controller 2b according to the second embodiment has a configuration in which the processor 23 is changed to the processor 23b and an antenna 24 and a communication unit 25 are added.
  • the communication unit 25 wirelessly receives the reception times transmitted by the communication buoys 4-1 to 4-3 and the positions of the communication buoys 4-1 to 4-3 via the antenna 24.
  • the processor 23b functions as the position determination unit 231 by reading and executing the program.
  • the position determining unit 231 uses the difference between the transmission time of the sound wave and the reception time when each communication buoy 4-1 to 4-3 receives the sound wave, and the position of each of the communication buoys 4-1 to 4-3.
  • the position of the underwater robot 1 is determined. Specifically, the position determination unit 231 uses the difference between the transmission time of the sound wave and the reception time at which the communication buoys 4-1 to 4-3 each receive the sound wave to use the communication buoys 4-1 to 4-3. And the position of the underwater robot 1 are determined based on the determined distance and the positions of the communication buoys 4-1 to 4-3.
  • the position determination unit 231 moves the underwater robot 1 by a predetermined distance to stop it, and after the stop, the sound wave transmission time and the reception time when each communication buoy 4-1 to 4-3 receives the sound wave. Using the difference and the respective positions of the communication buoys 4-1 to 4-3, the position of the underwater robot 1 after stopping is determined.
  • the position determination unit 231 determines the direction of the underwater robot 1 using the positions of the underwater robot 1 before and after the movement.
  • the position determining unit uses the direction of the underwater robot 1 to change the direction of the underwater robot 1 toward an inspection target (here, a pumping pipe of a pump).
  • the inspection object is an object to be inspected, searched, or targeted.
  • FIG. 24 is a flowchart illustrating an example of the flow of the underwater robot control method according to the second embodiment.
  • Step S101 First, the underwater robot transmits a sound wave at a predetermined time.
  • each of the communication buoys 4-1 to 4-3 receives a sound wave.
  • Step S103 the position determination unit 231 uses each communication buoy 4-1 to 4-3 and the underwater using the difference between the sound wave transmission time and the reception time of each communication buoy 4-1 to 4-3. The distance to the robot 1 is determined.
  • Step S104 the position determination unit 231 determines the position of the underwater robot 1 in the three-dimensional space based on the distance determined in step S103 and the positions of the communication buoys 4-1 to 4-3. .
  • the position determination unit 231 determines the position of the underwater robot 1 in the three-dimensional space based on the distance determined in step S103 and the positions of the communication buoys 4-1 to 4-3.
  • Step S105 the position determination unit 231 determines whether or not the position of the underwater robot 1 after being advanced by a predetermined distance has been determined.
  • the process proceeds to step S107.
  • Step S106 When the position of the underwater robot 1 after being advanced by a predetermined distance is not determined in step S105, the position determination unit 231 keeps the depth of the underwater robot 1 at a predetermined distance (for example, 1m) is moved (eg, moved forward or backward) and stopped. Then, returning to step S102, the process of steps S102 to S104 is executed after the movement, and the position of the underwater robot after the movement is determined.
  • a predetermined distance for example, 1m
  • Step S107 When the position of the underwater robot 1 after being advanced by a predetermined distance in step S105 is determined, the position determination unit 231 uses the position of the underwater robot 1 before and after movement (for example, forward or backward). Then, the direction of the underwater robot 1 is determined.
  • Step S108 the position determination unit 231 changes the direction of the underwater robot 1 toward the inspection object using the direction of the underwater robot 1 determined in step S107.
  • Step S109 the processor 23b advances the underwater robot 1 by a set distance.
  • Step S110 the processor 23b determines whether or not the underwater robot 1 is within a predetermined distance range from the inspection object.
  • the process returns to step S101 and is repeated.
  • the processing of this flowchart ends.
  • the remotely controlled underwater robot control system S2 includes the underwater robot 1 that can transmit sound waves and has a propulsion mechanism. Further, the underwater robot control system S2 includes three communication buoys 4-1 to 4-3 that can receive the sound wave transmitted by the underwater robot 1, can transmit the reception time when the sound wave is received, and float on the water surface. The underwater robot control system S2 further includes a positioning unit 41 as position detecting means for detecting the positions of the communication buoys 4-1 to 4-3. Further, the underwater robot control system S2 includes a communication unit 25 that receives the reception times transmitted by the communication buoys 4-1 to 4-3.
  • the underwater robot control system S2 determines the position of the underwater robot 1 by using the difference between the sound wave transmission time and the reception time when each communication buoy 4-1 to 4-3 receives the sound wave, and the position of each communication buoy.
  • a position determining unit 231 for determining is provided.
  • the positioning unit 41 as an example of the position detecting unit measures the position of the own communication buoy.
  • the position detecting unit is not limited to this, and the position detecting unit is not limited to the communication buoys 4-1 to 4-4. -3 may be picked up, and image data obtained by picking up the image may be processed to specify the positions of the communication buoys 4-1 to 4-3.
  • the communication unit 25 and the communication unit 45 are wireless, but may be wired.
  • the position of the underwater robot 1 is measured by a sonar included in each communication buoy. Thereby, the position of the underwater robot 1 can be measured almost in real time.
  • FIG. 25 is a block diagram showing a schematic configuration of an underwater robot control system according to the third embodiment.
  • the underwater robot control system S3 according to the third embodiment includes an underwater robot 1, three communication buoys 4c-1, 4c-2, 4c-3 floating on the water surface, a controller 2c, And a display device 3.
  • the underwater robot 1 can image a subject placed underwater and has a propulsion mechanism. Since the underwater robot 1 which concerns on this embodiment is the same as the structure of the underwater robot 1 which concerns on 1st Embodiment, the detailed description is abbreviate
  • the communication buoy 4c-1 has a configuration in which the sound wave receiving unit 43 is deleted and a sonar 47 is added, compared to the communication buoy 4-1 according to the second embodiment of FIG.
  • the sonar 47 can transmit an ultrasonic wave and can capture a reflected wave of the ultrasonic wave.
  • the positioning unit 41 that detects the position of the own communication buoy is provided.
  • the processor 23b is changed to the processor 23c as compared with the controller 2b according to the second embodiment.
  • the processor 23c functions as the position determination unit 231b and the control unit 232 by reading and executing the program.
  • the position determination unit 231b determines the position of the underwater robot 1 using the observation result of the sonar 47 included in the communication buoy 4c-1 and the position of the communication buoy 4c-1. Specifically, for example, the position determining unit 231b uses the time taken for the ultrasonic wave to return after being transmitted to the underwater robot 1 after transmitting the ultrasonic wave, and determines the direction in which the ultrasonic wave returns. The direction of the robot 1 may be determined, and the position of the underwater robot 1 may be determined using the distance, the direction, and the position of the communication buoy.
  • the position determining unit 231b may determine the position of the underwater robot 1 using the observation result of the sonar 47 included in the communication buoy 4c-2 and the position of the communication buoy 4c-2. Further, the position determination unit 231b may determine the position of the underwater robot 1 using the observation result of the sonar 47 included in the communication buoy 4c-3 and the position of the communication buoy 4c-3.
  • the control unit 232 performs feedback control and / or control of the underwater robot 1 so as to minimize the difference between the position of the underwater robot 1 and the position on the trajectory from the underwater robot 1 to the inspection target (here, a pump as an example). Feed forward control.
  • the position on the trajectory may be, for example, a position away from the current position of the underwater robot 1 on the trajectory.
  • the control part 232 guides the underwater robot 1 to the destination by continuing this control.
  • FIG. 26 is a flowchart showing an example of the flow of the underwater robot control method according to the third embodiment.
  • Step S201 First, the underwater robot 1 is observed with the sonar 47 included in the communication buoy 4c-1.
  • Step S202 the position determination unit 231b determines the position of the underwater robot 1 using the observation result of the sonar 47 included in the communication buoy 4c-1 and the position of the communication buoy 4c-1.
  • Step S203 the control unit 232 controls the underwater robot 1 to minimize the difference between the position of the underwater robot 1 and the position on the trajectory from the underwater robot 1 to the pump to be inspected.
  • Step S204 the control unit 232 determines whether or not the underwater robot 1 is within a predetermined distance range from the pump to be inspected. When the underwater robot 1 is not within the predetermined distance range from the inspection target pump, the process returns to step S201 and the process is continued. When the underwater robot 1 is within a predetermined distance range from the inspection target pump, the control in the control unit 232 is terminated.
  • the remotely controlled underwater robot control system S3 can pick up ultrasonic waves from the underwater robot 1 that can image an inspection object placed underwater and has a propulsion mechanism.
  • Communication buoys 4c-1 to 4c-3 which have sonar capable of capturing the reflected waves of the ultrasonic waves and float on the water surface, and positioning units as position detection means for detecting the positions of the communication buoys 4c-1 to 4c-3 41, and a position determination unit that determines the position of the underwater robot 1 using the observation result of the sonar 47 and the positions of the communication buoys 4c-1 to 4c-3.
  • the number is not limited to this, and the number of communication buoys may be one or two, or four or more. Also good.
  • the communication buoy has a synthetic aperture sonar that can emit sound waves in a plurality of directions.
  • the synthetic aperture sonar acquires a sonar image including the underwater robot 1 and the pumping pipe PT of the pump to be inspected.
  • the sonar image is updated and displayed on the display device 3. Thereby, the operator can guide and approach the underwater robot 1 to the pumping pipe PT of the pump to be inspected while viewing this image.
  • FIG. 27 is a block diagram showing a schematic configuration of an underwater robot control system according to the fourth embodiment.
  • the underwater robot control system S4 includes an underwater robot 1, a controller 2 for maneuvering the underwater robot 1 from a location (eg, on the water, land, etc.), a display device 3, and a communication buoy. 5 is provided.
  • the display device 3 displays a video or sonar image captured by the underwater robot 1.
  • the underwater robot 1, the controller 2, and the display device 3 according to the present embodiment are the same as those according to the first embodiment, and thus detailed description thereof is omitted.
  • the communication buoy 5 includes a floating member 51 that can float on water and a synthetic aperture sonar 52 that can emit sound waves in a plurality of directions.
  • the synthetic aperture sonar 52 can acquire an omnidirectional sonar image. With this configuration, since sonar images in a plurality of directions can be acquired, it is possible to improve the possibility that the sonar image of the underwater robot 1 can be acquired regardless of the direction of the underwater robot 1 in the water.
  • the synthetic aperture sonar 52 is an example of a sound wave transmitter that is connected to the floating member 51 so as to be placed in water, and that can transmit sound waves and receive sound waves reflected from the underwater robot 1.
  • FIG. 28 is a block diagram showing a schematic functional configuration of a communication buoy according to the fourth embodiment.
  • the communication buoy 5 further includes a processor 53, a communication unit 54, and an antenna 55.
  • the processor 53 reads out and executes the program, thereby generating image data of the sonar image using the sound wave received by the synthetic aperture sonar 52.
  • the communication unit 54 transmits an image signal including the generated image data to the controller 2 via the antenna 55.
  • the controller 2 receives the image signal and causes the display device 3 to display the sonar image. By repeating this series of processing, for example, at regular intervals, the sonar image displayed on the display device 3 is updated as needed.
  • FIG. 29 is a schematic diagram showing an example of a sonar image.
  • the sonar image IMG includes an object OB1 representing the underwater robot 1 and an object OB2 representing the pumping pipe PT of the pump.
  • the underwater robot 1 can be guided and approached by the pumping pipe PT of the pump while watching the sonar image IMG updated as needed.
  • the remotely controlled underwater robot control system S4 is capable of imaging an inspection object placed underwater and has a propulsion mechanism, and the communication buoy 5 floating in water.
  • the communication buoy 5 includes a floating member 51 that floats in water, and a sound wave transmitter that is connected to the floating member 51 so as to be placed in water and that can transmit sound waves and receive sound waves reflected from the underwater robot 1.
  • a synthetic aperture sonar 52 as an example, a processor 53 that generates image data using sound waves received by the synthetic aperture sonar 52, and a communication unit 54 that transmits an image signal including the generated image data.
  • controller 2 may create a three-dimensional view of the structure in water based on the generated sonar image. Further, when there is a three-dimensional CAD diagram of a structure in water in advance, the controller 2 may correct the three-dimensional diagram of the structure based on the sonar image using the three-dimensional CAD diagram.
  • FIG. 30 is a block diagram illustrating a schematic configuration of an underwater robot control system according to Modification 1 of the fourth embodiment.
  • the underwater robot control system S4b according to Modification 1 of the fourth embodiment is different from the underwater robot control system S4 of FIG. 27 in that the communication buoy 5 is changed to the communication buoy 5b. It has become. Compared with the communication buoy 5 of FIG.
  • the synthetic buoy 5b is changed from the synthetic aperture sonar 52 to a synthetic aperture sonar 56 capable of transmitting sound waves in one direction, and a drive unit 57 for rotating the synthetic aperture sonar 56 is added. It has a configuration.
  • the synthetic aperture sonar 56 is connected to the floating member 51 via a drive unit 57 so as to be disposed in water.
  • the synthetic aperture sonar 56 can be rotated and scanned, sonar images in a plurality of directions can be acquired, so the underwater robot sonar image can be displayed in any direction in the water. Can be acquired.
  • the synthetic aperture sonar 56 is an example of a sound wave transmitter that can transmit sound waves and receive sound waves reflected from the underwater robot 1.
  • FIG. 31 is a block diagram illustrating a schematic configuration of an underwater robot control system according to Modification 2 of the fourth embodiment.
  • the underwater robot control system S4c according to the second modification of the fourth embodiment is different from the underwater robot control system S4 of FIG. 27 in that the communication buoy 5 is changed to the communication buoy 5c. It has become.
  • the communication buoy 5c has a configuration in which the synthetic aperture sonar 52 is changed to the transducer 58 and a drive unit 57c for moving the transducer 58 up and down is added.
  • the transducer 58 is connected to the floating member 51 via a drive unit 57c so that it can be placed in water.
  • the transducer 58 can be scanned up and down, a sonar image can be acquired in the depth direction, so that the sonar image of the underwater robot 1 can be obtained at any depth in the water. Can be obtained.
  • the transducer 58 is an example of a sound wave transmitter that can transmit sound waves and receive sound waves reflected from the underwater robot 1.
  • FIG. 32 is a block diagram illustrating a schematic configuration of an underwater robot control system according to Modification 3 of the fourth embodiment.
  • the underwater robot control system S4d according to the third modification of the fourth embodiment is different from the underwater robot control system S4 in FIG. 27 in that the communication buoy 5 is changed to the communication buoy 5d. It has become.
  • the communication buoy 5d has a configuration in which the synthetic aperture sonar 52 is changed to a transducer array 59 as compared with the communication buoy 5 of FIG.
  • the transducer array 59 has a plurality of transducers arranged in substantially the same plane, and is connected to the floating member 51 so that it can be placed in water.
  • the transducer array 59 can be scanned, so that a sonar image in a predetermined range in the depth direction can be acquired at a time, so that a sonar image including the underwater robot 1 can be easily acquired. It can.
  • the transducer array 59 is an example of a sound wave transmitter that can transmit sound waves and receive sound waves reflected from the underwater robot 1.
  • the underwater robot itself has an acoustic camera that shoots an underwater image using ultrasonic waves and generates image data. Move the robot closer to the inspection object.
  • FIG. 33 is a block diagram illustrating a schematic configuration of an underwater robot control system according to the fifth embodiment.
  • the underwater robot control system S5 according to the fifth embodiment is different from the underwater robot control system S1 according to the first embodiment in that the underwater robot 1 is changed to an underwater robot 1e. It has become.
  • the underwater robot 1e has a configuration in which an acoustic camera 18 is added as compared to the underwater robot 1 of FIG. 20, and the acoustic camera 18 shoots an underwater image with ultrasound and generates image data.
  • the processor 14 transmits an image signal including the image data from the communication unit 15 to the controller 2 via the cable CB.
  • the communication unit 21 of the controller 2 receives the image signal
  • the processor 23 of the controller 2 causes the display device 3 to display this image data. This series of processing is performed at a predetermined interval, for example, whereby the image data is updated and displayed.
  • FIG. 34 is a block diagram showing a schematic configuration of an underwater robot control system according to the fifth embodiment.
  • FIG. 34 shows an underwater robot 1e that transmits ultrasonic waves US in muddy water. As shown in FIG. 34, the operator can bring the underwater robot 1 closer to the pumping pipe PT of the pump to be inspected while watching the image data updated and displayed on the display device 3 as needed.
  • the remotely controlled underwater robot control system S5 includes the acoustic camera 18 that shoots an underwater image using ultrasound and generates image data, and the communication unit 15 that transmits the image data. And the underwater robot 1e having the propulsion mechanism 10, the display device 3, and the controller 2 that receives the image data and displays the image data on the display device 3. The controller 2 controls the underwater robot 1e to move the underwater robot 1e according to the operation by the operator.
  • the operator can bring the underwater robot 1 closer to the inspection object (here, the pumping pipe PT of the pump as an example) while watching the image data updated and displayed on the display device 3 as needed.
  • the inspection object here, the pumping pipe PT of the pump as an example
  • the underwater robot 1e shoots an underwater image using ultrasonic waves to generate image data, and the underwater robot 1e transmits the image data. Thereafter, the controller 2 receives the image data, the controller 2 displays the image data on a display device, and the controller 2 controls the underwater robot to move the underwater robot according to an operation by the operator.
  • the operator can bring the underwater robot 1 closer to the inspection object (here, the pumping pipe PT of the pump as an example) while watching the image data updated and displayed on the display device 3 as needed.
  • the inspection object here, the pumping pipe PT of the pump as an example
  • the underwater robot 1e may further include a sonar.
  • first to fourth aspects described above are not limited to the above-described embodiments as they are, but can be embodied by modifying the components without departing from the scope of the invention in the implementation stage.
  • various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment.
  • constituent elements over different embodiments may be appropriately combined.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Astronomy & Astrophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Ocean & Marine Engineering (AREA)
  • Robotics (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Endoscopes (AREA)

Abstract

ポンプなどを観察する種々の装置、システムおよび方法を提供する。 撮像装置と、前記撮像装置を保持する可撓性の保持部材と、前記保持部材に固定され、流体を噴射する1または複数のノズルと、を備える工業用内視鏡が提供される。

Description

工業用内視鏡、観察方法、観察装置、水中機械、ポンプ点検システム、水中ロボット制御システム及び水中ロボット制御方法
 本開示は、工業用内視鏡、観察方法、観察装置、水中機械、ポンプ点検システム、水中ロボット制御システム及び水中ロボット制御方法に関する。
 ポンプなどを観察する種々の装置、手法が提案されている。
特開2008-202575号公報 特開2015-96707号公報 特開2005-246578号公報
 ポンプなどを観察する種々の装置、システムおよび方法を提供する。
 撮像装置と、前記撮像装置を保持する可撓性の保持部材と、前記保持部材に固定され、流体を噴射する1または複数のノズルと、を備える工業用内視鏡が提供される。
一実施形態に係る工業用内視鏡100の概略構成図。 工業用内視鏡100の動作を説明する図。 第1変形例である工業用内視鏡101の概略構成図。 第2変形例である工業用内視鏡102の概略構成図。 第3変形例である工業用内視鏡103の概略構成図。 第4変形例である工業用内視鏡104の概略構成図。 第5変形例である工業用内視鏡105の概略構成図。 第1の実施形態に係る観察装置100の概略構成図。 第2の実施形態に係る観察装置101の概略構成図。 第3の実施形態に係る観察装置102の概略構成図。 第4の実施形態における観察対象30を模式的に示す図。 観察装置200を用いて観察対象を観察する様子を模式的に示す図。 観察装置200を用いて観察対象を観察する様子を模式的に示す図。 第5の実施形態における観察対象の一例であるフランジ部41a,42a付近の拡大断面図。 観察対象を観察する様子を模式的に示す図。 実施の形態におけるポンプ点検システムの構成を示す説明図。 実施の形態における内視鏡の構成を示す説明図。 実施の形態における検査装置の構成を示すブロック図。 他の実施の形態における検査装置の構成を示すブロック図。 他の実施の形態における検査装置の構成を示すブロック図。 第1の実施形態に係る水中ロボット制御システムの概略構成を示すブロック図。 第1の実施形態に係る水中ロボット制御方法について説明するための図。 第2の実施形態に係る水中ロボット制御システムの概略構成を示すブロック図。 第2の実施形態に係る水中ロボット制御システムの概略構成を示すブロック図。 第2の実施形態に係る水中ロボット制御方法の流れの一例を示すフローチャートである。 第3の実施形態に係る水中ロボット制御システムの概略構成を示すブロック図。 第3の実施形態に係る水中ロボット制御方法の流れの一例を示すフローチャートである。 第4の実施形態に係る水中ロボット制御システムの概略構成を示すブロック図。 第4の実施形態に係る通信ブイの概略の機能構成を示すブロック図。 ソナー画像の一例を示す概略図。 第4の実施形態の変形例1に係る水中ロボット制御システムの概略構成を示すブロック図。 第4の実施形態の変形例2に係る水中ロボット制御システムの概略構成を示すブロック図。 第4の実施形態の変形例3に係る水中ロボット制御システムの概略構成を示すブロック図。 第5の実施形態に係る水中ロボット制御システムの概略構成を示すブロック図。 第5の実施形態に係る水中ロボット制御方法を説明するための模式図。
(第1態様)
[技術分野]
 第1態様は、工業用内視鏡および観察方法に関する。
[背景技術]
 一般的な工業用内視鏡は先端に撮像装置が設けられており、その先端近傍が曲がることで撮像装置の位置を変えられるようになっている。
[第1態様の概要]
[第1態様が解決しようとする課題]
 しかしながら、先端が曲がるだけでは撮像装置の可動範囲が狭く、工業用内視鏡で観察できる範囲が限られるという問題がある。
 第1態様はこのような問題点に鑑みてなされたものであり、第1態様の課題は、撮像装置を大きく移動させることができる工業用内視鏡および観察方法を提供することである。
[課題を解決するための手段]
 撮像装置と、前記撮像装置を保持する可撓性の保持部材と、前記保持部材に固定され、流体を噴射する1または複数のノズルと、を備える工業用内視鏡が提供される。
 流体を噴射することにより、撮像装置を大きく移動させることができる。その結果、観察できる範囲が広がる。また撮影対象に分岐部がある場合、所望する分岐に進行させることができる。
 前記ノズルが流体を噴射することで、前記ノズルからの流体噴射方向とは異なる方向に前記保持部材に保持された撮像装置が動くのが望ましい。
 前記複数のノズルは、前記撮像装置の撮影方向に流体を噴射する第1ノズルと、前記撮像装置の撮影方向とは反対方向に流体を噴射する第2ノズルと、を含んでもよい。
 これにより、撮像装置を前進させることもできるし、後退させることもできる。
 前記撮像装置、前記保持部材および前記1または複数のノズルを覆う被膜部材を備えてもよい。
 これにより、観察対象に引っかかるリスクを軽減でき、かつ、水中の観察を行う場合でも、工業用内視鏡の内部に水がしみこみにくくなる。
 前記流体が流れる1つの流路を備え、前記複数のノズルは、前記1つの流路に接続された2以上のノズルを含み、前記2以上のノズルのそれぞれに、流体を噴射するか否かを制御するバルブが設けられるのが望ましい。
 これにより、流路や流体の供給源の数を減らすことができる。
 保持部材に固定されたノズルから流体を噴射することで、前記保持部材に保持された撮像装置を移動させながら観察を行う観察方法が提供される。
 流体を噴射することにより、撮像装置を大きく移動させることができる。その結果、観察できる範囲が広がる。
[第1態様の効果]
 撮像装置を大きく移動させることができる。
[第1態様を実施するための形態]
 以下、第1態様に係る実施形態について、図面を参照しながら具体的に説明する。
 図1は、一実施形態に係る工業用内視鏡100の概略構成図である。この工業用内視鏡100は、撮像装置1と、ノズル2a,2bと、流路3a,3bと、高圧源4a,4bと、保持部材5とを備えており、例えばポンプ内部の観察に用いられる。
 撮像装置1は、先端にレンズが設けられたカメラでもよいし、光ファイバであってもよい。撮像装置1は可撓性のある保持部材5の先端に保持される。保持部材5内には撮像装置1と接続された配線が通っており、外部から電源供給や撮像装置1の制御が行われたり、撮像装置1で得られた画像データが画像処理系11に伝送されたりする。撮像した画像はオペレータの近傍に配置されたモニタ(不図示)にリアルタイム表示されるようになっており、適宜撮影あるいは録画も可能である。
 ノズル2aは可撓性のある流路3aの先端に取り付けられている。流路3aの他端にはバルブ41aを介して高圧源4aが接続されている。流路3aは直接または間接的に保持部材5に固定されている。よって、ノズル2aが保持部材5あるいは撮像装置1に固定されているとも言える。高圧源4aは、水などの液体を供給するタンクやポンプであってもよいし、空気などの気体を供給するコンプレッサであってもよい。すなわち、高圧源4aは流路3aを介して流体を供給するものであればよい。このような流路3aおよび高圧源4aを設けることで、ノズル2aはその先端から流体を噴射できるようになっている。
 ノズル2b、流路3bおよび高圧源4bも同様の構成である。ただし、ノズル2aからの流体噴射方向とノズル2bからの流体噴射方向は互いに異なっており、図1の具体例では180度逆向きである。
 図2は、工業用内視鏡100の動作を説明する図である。図示のように、ノズル2aのみから流体を噴射した場合、撮像装置1を保持した保持部材5および流路3a,3bは、流体の噴射方向とは異なる方向(具体的には、反対方向)に大きく方向を変え、結果として撮像装置1が移動して撮像する位置が変化する。図示しないが、ノズル2bのみから流体を噴射すると、やはりその噴射方向とは異なる方向に撮像装置1が移動する。このように撮像装置1を移動させながら任意の観察対象を観察できる。特に、観察対象に分岐部がある場合、所望の分岐に撮像装置1を進行させることができる。
 図3は、第1変形例である工業用内視鏡101の概略構成図である。図示のように、より多くのノズル2a1,2a2,2b1,2b2を設け、撮像装置1を移動させる自由度が高くなるようにしてもよい。
 図4は、第2変形例である工業用内視鏡102の概略構成図である。図示のように、撮像装置1の撮影方向(前方)に流体を噴射するノズル2aと、同方向とは反対方向(後方)に流体を噴射するノズル2bとを設けてもよい。ノズル2aのみから流体を噴射することで、工業用内視鏡102は後退する。ノズル2bのみから流体を噴射することで、工業用内視鏡102は前進する。
 図5は、第3変形例である工業用内視鏡103の概略構成図である。図示のように、この工業用内視鏡103はノズル2a,2bがそれぞれ取り付けられた流路3a,3bおよび保持部材5を覆う被膜部材6を備えている。ポンプなど水中での観察を行う際に、被膜部材6が保護材となって水が工業用内視鏡103内にしみこみにくくなる。また、筒状の被膜部材6とすることでノズル2aの近傍が滑らかになって工業用内視鏡103の表面に凹凸が少なくなり、観察対象にひっかかりにくくなる。
 図6は、第4変形例である工業用内視鏡104の概略構成図である。図示のように、ノズル2a,2bの近傍の被膜部材6を厚くしてもよい。
 図7は、第5変形例である工業用内視鏡105の概略構成図である。図示のように、1つの高圧源4が一端に接続された1つの流路3を分岐して2以上のノズル2a,2bを接続してもよい。この場合、ノズル2a,2bにそれぞれバルブ21a,21bを設ける。バルブ21a,21bは、電線、電波、音波、光、ワイヤーなどを利用して遠隔操作できるのが望ましい。
 バルブ21aを開いてバルブ21bを閉じることにより、ノズル2aからのみ流体が噴射される。一方、バルブ21bを開いてバルブ21aを閉じることにより、ノズル2bからのみ流体が噴射される。このような構成とすることで、流路3や高圧源4の数を減らすことができる。
 上述した2以上の変形例を任意に組み合わせてもよい。
 このように、本実施形態ではノズルから流体を噴射するため、撮像装置1を大きく動かすことができ、観察できる範囲が広がる。
[符号の説明]
1 撮像装置
11 画像処理系
2a,2a1,2a2,2b,2b1,2b2 ノズル
3,3a,3b 流路
4,4a,4b 高圧源
5 保持部材
6 被膜部材
11 画像処理系
(第2態様)
[技術分野]
 第2態様は、ポンプの内部を観察する観察装置およびポンプ観察方法に関する。
[背景技術]
 ポンプなどの水中機械は、使用を続けると劣化したり摩耗・腐食したりするため、定期的に観察を行う必要がある。
[第2態様の概要]
[第2態様が解決しようとする課題]
 水中機械の周囲には泥水のような透明度の低い水や薬品、あるいは、有色生物が存在することが多く、観察を行うのは容易ではない。
 第2態様はこのような問題点に鑑みてなされたものであり、第2態様の課題は、水中機械を観察可能な観察装置および観察方法を提供すること、また、観察が容易な水中機械を提供することである。
[課題を解決するための手段]
 撮像装置と、前記撮像装置による撮像方向に向かって液体が噴射される噴射口と、前記液体の供給源から前記噴射口までの流路上に設けられた浄水部材と、を備える観察装置が提供される。
 前記液体の供給源にある液体は泥水であり、前記浄水部材によって濾過されることで清浄な液体となって前記噴射口から噴射されてもよい。
 あるいは、前記液体の供給源にある液体は化学薬液であり、前記浄水部材によって中和されることで清浄な液体となって前記噴射口から噴射されてもよい。
 浄水部材によって液体を浄水し、撮像装置と観察対象との間に前記浄水された液体を噴射し、前記浄水された液体が前記撮像装置と前記観察対象との間にある状態で、前記撮像装置が前記観察対象を撮影する観察方法が提供される。
 撮像装置と、前記撮像装置による撮像方向に向かって流体が噴射される第1噴射口と、前記第1噴射口からの流体噴射による推力と反対方向の推力を発生させる推力バランス部と、を備える、観察装置が提供される。
 前記推力バランス部は、前記第1噴射口からの流体噴射方向とは反対方向に流体を噴射する第2噴射口を有してもよい。
 あるいは、前記推力バランス部は、スクリューであってもよい。
 第1方向に推力を発生させながら、前記第1方向とは反対の第2方向にある観察対象に流体を噴射し、前記流体が撮像装置と前記観察対象との間にある状態で、前記撮像装置が前記観察対象を撮影する観察方法が提供される。
 不透明な液体中に置かれた観察対象の凹部に、前記不透明な液体より透明度が高い流体を噴射し、該流体が前記凹部に貯まった状態で前記凹部の内面を撮像装置で観察する、観察方法が提供される。
 観察対象箇所の近傍に設けられ、流体を噴射する噴射口を備える水中機械が提供される。
 不透明な液体中に置かれた観察対象箇所の近傍に設けられた噴射口から、前記不透明な液体より透明度が高い流体を噴射し、前記観察対象箇所と撮像装置との間に前記流体が存在する状態で、前記観察対象箇所を前記撮像装置で観察する観察方法が提供される。
[第2態様を実施するための形態]
 以下、第2態様に係る実施形態について、図面を参照しながら具体的に説明する。なお、符号は第1態様とは独立して付している。
 図8は、第1の実施形態に係る観察装置100の概略構成図である。観察装置100は、工業用内視鏡、水中ロボット、水中ドローンなどであってよく、撮像装置11と、流路12a~12cと、フィルタ13(浄水部材)と、ポンプ14と、噴射部材15と、保持部材16とを備えている。
 撮像装置11は、その先端に設けられたレンズ11aの前方を撮像する。撮像装置11は、ファイバースコープ(不図示)の先端にレンズ11aを取り付けたものでもよいし、レンズ11aを有するカメラであってもよい。撮像装置11は保持部材16によって保持される。保持部材16内には撮像装置11と接続された配線が通っており、外部から電源供給や撮像装置の制御が行われたり、撮像装置11で得られた画像データが画像処理系11bに伝送されたりする。撮像した画像はオペレータの近傍に配置されたモニタ(不図示)にリアルタイム表示されるようになっており、適宜撮影あるいは録画も可能である。
 流路12aの一端は液体供給源60に接続され、他端はフィルタ13に接続される。流路12bの一端はフィルタ13に接続され、他端はポンプ14に接続される。流路12cの一端はポンプ14に接続され、他端は噴射部材15に接続される。言い換えると、液体供給源60から噴射部材15までの流路12a~12c上にフィルタ13およびポンプ14が順に設けられる。
 ポンプ14の駆動によって液体供給源60からの液体がフィルタ13に吸い上げられ、ポンプ14を通って噴射部材15の先端に設けられた噴射口12dから液体が噴射される。
 液体供給源60は予め清浄な液体が蓄えられたタンクやなど別の水源(例えば公共の水道)などであってもよいが、以下では排水機場における吸込水槽や吐出水槽などであって、液体供給源60の液体は泥を含んだ不透明な液体(いわゆる泥水)であるとする。液体供給源60からの泥水がフィルタ13を通ることで清浄な液体となりポンプ14に流入する。そして、この清浄な液体が噴射口12dから噴射される。なお、「清浄な」とは、少なくとも液体供給源60にある液体と比べて透明度が高ければよい。
 噴射口12dからは、撮像装置11による撮像方向に向かって液体が噴射される。言い換えると、噴射口12dは撮像装置11のレンズ11aと観察対象との間に液体を噴射する。
 保持部材16はその先端に撮像装置11を保持しており、可撓性を有する。保持部材16の少なくとも一部は流路12a~12cの少なくとも一部に結合されていてもよいし、一体であっていてもよい。保持部材16の根元(レンズ11aが設けられるのとは反対側の端部)にはジョイスティックなどの操縦手段(不図示)が設けられている。オペレータが操縦手段を操作することで、保持部材16の先端の向き(つまりレンズ11aの向き)を調整できる。また、保持部材16の根元には、液体の噴射や撮像を制御する制御装置(不図示)も設けられている。
 なお、図8に示す態様は一例にすぎず、観察装置100が大型の水中ロボットや水中ドローンである場合、それ自体にフィルタ13やポンプ14を設け、周囲の液体から清浄な液体を生成してもよい。
 以下のようにして観察装置100を用いた観察を行う。まず、オペレータは、撮像装置11によって撮像された映像をモニタ上で観察しつつ操縦手段を操作することで、観察対象2における観察対象位置を検出する。なお、観察対象2の周囲には濁った水が存在し得る。
 観察対象位置が見つかると、オペレータの操作により、噴射口12dから撮像装置11による撮像方向に向って清浄な液体を噴射する。より詳しくは、ポンプ14の駆動によって液体供給源60からの泥水をフィルタ13に通して濾過し、清浄な液体を生成する。そして、この清浄な液体をレンズ11aと観察対象位置との間に噴射する。
 これにより、噴射された清浄な液体による水みちがレンズ11aの前方と観察対象位置との間に形成される。この状態でオペレータは撮像装置11によって撮像された映像をモニタ上で観察し、水みちが形成されて観察対象位置が見えた時点で撮影する。
 このように、第1の実施形態では、泥水を濾過して得られた清浄な液体をレンズ11aの前方に噴射する。そのため、レンズ11aと観察対象位置との間に汚れた水が存在する場合でも、観察対象位置の観察が容易となる。
 なお、フィルタ13をポンプ14の上流に配置して清浄な液体がポンプ14に流れ込むようにするのが望ましいが、ポンプ14が泥水を駆動できるのであればフィルタ13をポンプ14の下流に配置してもよい。
 また、液体供給源60からの液体が化学薬液の場合、フィルタ13に代えて/加えて、中和等を行う浄水部材を設けてもよい。さらに、観察対象が海中の装置である場合、透明な海水をフィルタ13を介さずに噴射してもよい。また、液体に代えて空気などの気体を噴射してもよい。
(第2の実施形態)
 次に説明する第2の実施形態は、観察装置100の安定化に関する。第1の実施形態において、噴射口12dから液体を噴射する際、その反対方向(観察対象位置から遠ざかる方向)に推力が発生する。特に、汚れた水を押しのけるためにはできるだけ高圧で噴射口12dから液体を噴射するのが望ましく、そうすると推力はより大きくなる。
 観察対象が水底あるいは液槽底に近い場合には、観察装置100を着底させ、観察装置100の下面と水底あるいは液槽底との摩擦で観察装置100を動きにくくさせることができる。しかしながら、そうでない場合には、観察装置100がその場に留まることができずに移動し、観察が困難になることもある。観察装置100を十分に重くすることも考えられるが、作業性を考慮すると、観察装置100は小型かつ軽量であることが望まれる。
 そこで、本実施形態では次のような観察装置101を提供する。
 図9は、第2の実施形態に係る観察装置101の概略構成図である。以下、第1の実施形態との相違点を中心に説明する。この観察装置101は2つの噴射口12d,22aを備えている。噴射口12dは第1の実施形態と同様に撮像装置11による撮像方向に向かって液体を噴射する。一方、噴射口22aは噴射口12dの噴射方向とは反対方向に液体を噴射する。一例として、ベース23の一面に噴射口12dおよび撮像装置11のレンズ11aが設けられ、反対側の面に噴射口22aが設けられる。
 そして、ポンプ観察時に、噴射口22aからの液体噴射によって観察対象2に近づく方向への推力を発生させながら、噴射口12dから観察対象位置に液体を噴射する。その結果、噴射口12dによる推力と噴射口22aによる推力とがバランスし、観察装置101はほとんど移動しなくなり、観察対象位置の観察が容易となる。
 なお、本実施形態において、噴射口12d,22aへの液体供給は、第1の実施形態で説明した態様のものであってもよいし、予め清浄な液体が蓄えられたタンクなどから行われてもよい。また、噴射口12d,22aへの液体供給源が共通していてもよいし、別個にあってもよい。さらに、本実施形態では、噴射口12d,22aから液体ではなく気体を噴射してもよい。
(第3の実施形態)
 次に説明する第3の実施形態は、第2の実施形態の変形例であり、スクリューを用いて推力のバランスを図るものである。
 図10は、第3の実施形態に係る観察装置102の概略構成図である。以下、第2の実施形態との相違点を中心に説明する。この観察装置102はスクリュー24を備えている。一例として、ベース23の一面に噴射口12dおよび撮像装置11のレンズ11aが設けられ、反対側の面にスクリュー24が設けられる。スクリュー24が回転することで観察対象に近づく方向への推力が発生する。
 本実施形態では、ポンプ観察時に、スクリュー24を回転させて観察対象に近づく方向への推力を発生させながら、噴射口12dから観察対象位置に液体を噴射する。その結果、噴射口12dによる推力とスクリュー24による推力とがバランスし、観察装置102はほとんど移動しなくなり、観察対象位置の観察が容易となる。
(第4の実施形態)
 次に説明する第4の実施形態は、観察対象における凹部の観察に関する。
 図11は、第4の実施形態における観察対象30を模式的に示す図である。図示のように、本実施形態の観察対象30は泥水のような不透明な液体中に置かれた任意の水中機械(例えばポンプ)である。そして、観察対象30は、凹部31、すなわち、上に凸の内面32を有する。不透明な液体が凹部31に存在するため、観察は容易ではない。そこで、本実施形態では以下のようにして、凹部31の内面32を観察する。
 図12Aおよび図12Bは、観察装置200を用いて観察対象を観察する様子を模式的に示す図である。観察装置200は送気管付内視鏡であり、先端に撮像装置が設けられ、かつ、流体を先端から噴出することができる。流体は拡散しにくい気体(空気など)が望ましいが、清浄な液体であってもよい。なお、「清浄な」とは、観察対象30の周囲にある不透明な液体より透明度が高ければよい。
 まず、図12Aに示すように、観察装置200は流体を凹部31に噴射する。これにより、図12Bに示すように、不透明な液体が除去されて凹部31に流体が貯まる。この状態で、撮像装置によって観察対象30の表面、より具体的には、凹部31の内面32を観察できる。
 なお、観察装置として、撮像装置が設けられた水中ロボットを用いてもよい。この場合、水中ロボットに搭載された空気ボンベから空気を流体として噴射してもよい。あるいは、送気管と撮像装置とを別個に設け、まず送気管から流体を噴射し、続いて撮像装置で観察を行ってもよい。
 このように、本実施形態では、凹部31に流体を貯めるため、不透明な液体中であっても観察対象を観察できる。
(第5の実施形態)
 次に説明する第5の実施形態は、観察対象から流体を噴射して観察を行うものである。
 図13は、第5の実施形態における観察対象の一例であるフランジ部41a,42a付近の拡大断面図である。具体例として観察対象は海水中に設置されたポンプ吸込配管のフランジ部41a,42aである。フランジ部41a,42aの周囲には不透明な液体が存在するため、フランジ部41a,42aの観察は容易ではない。そこで、本実施形態では以下のようにする。
 本実施形態における観察対象は、フランジ部41a側に設けられた流体配管43と、フランジ部42a側に設けられた流体配管44とを備えている。流体配管43はフランジ部41aの下方から流体を噴射する。流体配管44はフランジ部42aの上方から流体を噴射する。噴射する流体は、清浄な水であってもよいし、清浄な気体(空気など)であってもよい。また、流体配管43からの流体と流体配管44からの流体とが互いに異なっていてもよい。なお、「清浄な」とは、観察対象の周囲にある不透明な液体より透明度が高ければよい。
 図14は、観察対象を観察する様子を模式的に示す図である。まず、内視鏡あるいは水中ロボットなどの観察装置300に設けられた撮像装置45をフランジ部41a,42aに向ける。そして、流体配管43,44の先端に設けられた噴射口43a,44aから流体を噴射する。これにより、フランジ部41a,42aの周囲、より詳しくは、撮像装置45の光軸上には清浄な流体が定在することとなる。この状態で、撮像装置45によって、フランジ部41a,42aを観察する。
 このように、本実施形態では、観察対象であるフランジ部41a,42aと撮像装置45との間に清浄な流体を定在させるため、不透明な液体中であっても観察対象を観察できる。
 なお、観察対象に特に制限はなく、任意の水中機械に本実施形態を適用できる。すなわち、水中機械において、定期点検などで一定の箇所を比較的高頻度に観察する場合、その観察対象箇所の近傍に流体の噴射口を設ける。そして、流体を噴射しつつ撮像装置を用いて観察を行えばよい。
[符号の説明]
11 撮像装置
11a レンズ
11b 画像処理系
12a~12c 流路
13 フィルタ
14 ポンプ
15 噴射部材
16 保持部材
100~102 観察装置
2 観察対象
23 ベース
24 スクリュー
30 観察対象
31 凹部
32 内面
41a,42a フランジ
43,44 流体配管
43a,44a 噴射口
60 液体供給源
(第3態様)

[技術分野]
 第3態様は、ポンプの内部に挿入される内視鏡と、内視鏡が接続される点検装置を備えるポンプ点検システムに関する。
[背景技術]
 ポンプには、様々な種類のものが存在する。例えば、河川水などの液体を移送する目的では、立軸ポンプが用いられる。立軸ポンプでは、一般に、吊下管が吸込水槽上部のポンプ据付床に設置され、吊下管の下方には羽根車を収容するインペラケーシングが接続される。立軸ポンプは、羽根車や水中軸受が水中に浸漬された状態で運転されるため、運転時間の経過とともに立軸ポンプを構成する部材が徐々に摩耗する。また、吊下管、インペラケーシング、羽根車などに腐食が発生する場合もある。このため、立軸ポンプの内部点検を定期的に行って、羽根車やインペラケーシングなどにおける摩耗状況や腐食の発生状況を把握し、必要に応じて補修または交換を行うことが必要となる。
 そのため従来から、ポンプの内部を容易に点検するための様々な装置や方法が提案されている。例えば、ポンプケーシング内に水平に配置されるレールと、ポンプケーシングに設けられた点検口にレールを固定するための点検口固定具と、ポンプケーシングの内面にレールを固定するための内面固定具と、レール上を水平方向に移動可能な点検ユニットを備えた点検装置が提案されている。点検口固定具は、レールの一端部に取り付けられ、内面固定具はレールの他端部に取り付けられる。点検ユニットは、例えば、ポンプケーシング内部の画像を撮影する内視鏡であり、ポンプケーシング内を上下方向に移動可能に構成されている(特許文献1参照)。
[第3態様の概要]
[第3態様が解決しようとする課題]
 上記のように、内視鏡は、ポンプ内を上下方向に移動することができる。また、内視鏡は、先端を屈曲させて様々な方向を撮影できるように構成されている。しかしながら、従来の装置では、ポンプ内における内視鏡の位置と方向を知ることについては、何ら考慮されておらず、内視鏡でポンプ内のどの部分をどの方向から撮影しているのかを把握することが困難であった。
 第3態様は、上記の課題に鑑みてなされたもので、内視鏡でポンプ内のどの部分をどの方向から撮影しているのかを容易に把握することのできるポンプ点検システムを提供することを目的とする。
[課題を解決するための手段]
 第3態様のポンプ点検システムは、ポンプの内部に挿入される内視鏡と、前記内視鏡が接続される点検装置とを備えるポンプ点検システムであって、前記内視鏡は、複数のカメラを有する撮影部と、前記複数のカメラで撮影したカメラ画像を前記点検装置に送信するためのケーブル部と、を備え、前記点検装置は、前記複数のカメラで撮影した前記ポンプの内部のカメラ画像に基づいて、前記ポンプ内における前記内視鏡の先端の位置を求める位置決定部と、前記複数のカメラで撮影した前記ポンプの内部のカメラ画像に基づいて、前記ポンプ内において前記内視鏡の先端が向いている方向を求める方向決定部と、を備えている。
 この構成によれば、複数のカメラで撮影したポンプの内部のカメラ画像に基づいて、ポンプ内における内視鏡の先端の位置と、内視鏡の先端が向いている方向を求めることができる。したがって、内視鏡でポンプ内のどの部分をどの方向から撮影しているのかを容易に把握することができる。
 また、第3態様のポンプ点検システムでは、前記複数のカメラは、それぞれ異なる撮影方向のカメラ画像を撮影するように、前記撮影部の異なる位置に配置され、前記点検装置は、前記ポンプの内部に設けられた複数の基準マーカーの各々について、前記ポンプ内における前記基準マーカーの位置が記憶されている記憶部を備え、前記位置決定部は、前記複数のカメラで撮影した前記ポンプの内部のカメラ画像のうち、同一の前記基準マーカーを撮影した2つのカメラ画像に基づいて、前記内視鏡の先端から当該基準マーカーまでの距離を算出し、少なくとも3つの異なる前記基準マーカーまでの距離と前記ポンプ内における当該基準マーカーの位置に基づいて、前記ポンプ内における前記内視鏡の先端の位置を求めてもよい。
 この構成によれば、複数のカメラで撮影したポンプの内部のカメラ画像のうち、同一の基準マーカーを撮影した2つのカメラ画像に基づいて、内視鏡の先端から当該基準マーカーまでの距離を算出することができる。そして、少なくとも3つの異なる基準マーカーまでの距離とポンプ内における基準マーカーの位置に基づいて、ポンプ内における内視鏡の先端の位置(3次元座標)を求めることができる。
 また、第3態様のポンプ点検システムでは、前記記憶部に、前記複数のカメラの各々の撮影方向と前記内視鏡の先端の向きとの方向関係が記憶されており、前記方向決定部は、前記複数のカメラで撮影した前記ポンプの内部のカメラ画像のうち、前記基準マーカーを撮影したカメラ画像における当該基準マーカーの画像内位置に基づいて、当該基準マーカーを撮影したカメラの撮影方向を算出し、前記内視鏡の先端の向きと当該カメラの撮影方向との方向関係に基づいて、前記内視鏡の先端が向いている方向を求めてもよい。
 この構成によれば、複数のカメラで撮影したポンプの内部のカメラ画像のうち、基準マーカーを撮影したカメラ画像における基準マーカーの位置(画像内位置)に基づいて、その基準マーカーを撮影したカメラの撮影方向を算出することができる。そして、内視鏡の先端の向きとカメラの撮影方向との方向関係から、内視鏡の先端が向いている方向を求めることができる。
 また、第3態様のポンプ点検システムでは、前記点検装置は、前記複数のカメラで撮影した前記ポンプの内部のカメラ画像を複数の画面にそれぞれ表示するマルチ表示部を備えてもよい。
 この構成によれば、複数のカメラで撮影したポンプ内の各部のカメラ画像が複数の画面に表示されるので、ポンプ内の複数の箇所の点検を画面ごとに行うことができる。
 また、第3態様のポンプ点検システムでは、前記点検装置は、前記複数のカメラで撮影した前記ポンプの内部のカメラ画像を球面表示画像に変換する球面表示処理部と、前記球面表示画像を球面状の画面に表示する球面表示部と、を備えてもよい。
 この構成によれば、複数のカメラで撮影したポンプ内のカメラ画像が球面表示画像(例えば、全天周画像)に変換されて球面状の画面(例えば、全天周画面)に表示されるので、ポンプ内の様子を全体的に把握することができる。
 また、第3態様のポンプ点検システムでは、前記点検装置は、前記複数のカメラで撮影した前記ポンプの内部のカメラ画像を立体表示画像に変換する立体表示処理部と、前記立体表示画像を立体表示画面に表示する立体表示部と、を備えてもよい。
 この構成によれば、複数のカメラで撮影したポンプ内のカメラ画像が立体表示画像(3次元表示画像)に変換されて立体表示画面(3次元表示画面)に表示されるので、ポンプ内の様子を立体的に(3次元的に)把握することができる。
[第3態様の効果]
 第3態様によれば、内視鏡でポンプ内のどの部分をどの方向から撮影しているのかを容易に把握することができる。
[第3態様を実施するための形態]
 以下、第3態様の実施の形態のポンプ点検システムについて、図面を用いて説明する。本実施の形態では、立軸ポンプのメンテナンス等に用いられるポンプ点検システムの場合を例示する。なお、符号は第1および第2態様とは独立して付している。
 図15は、立軸ポンプの全体構成を概略的に示した説明図(断面図)である。図15に示すように、立軸ポンプ1のポンプケーシング2は、インペラケーシング3と吊下管4と吐出曲管5で構成されている。インペラケーシング3は、吊下管4によって吸込水槽6内に吊り下げられている。吊下管4の上端には、吐出曲管5が接続されている。ポンプケーシング2は、吸込水槽6の上部のポンプ据付床7に据付ベース8を介して固定されている。
 インペラケーシング3の下端には、下方に向けて開口する吸込ベルマウス17が接続されている。インペラケーシング3の内部には、羽根車9が収容されている。羽根車9の上方には、複数のガイドベーン10が設けられている。ガイドベーン10は、インペラケーシング3の内周面に固定されている。
 羽根車9は、回転軸11(主軸)に固定されており、羽根車9と回転軸11は一体的に回転する。回転軸11は、鉛直方向に延びており、中間軸受12により回転自在に支持されている。回転軸11は、吐出曲管5から上方に突出して、駆動源13に連結されている。駆動源13を運転することにより、回転軸11を介して羽根車9を回転させると、吸込水槽6内の水(河川から引き込まれた水など)が吸込ベルマウス17から吸い込まれ、インペラケーシング3、吊下管4、吐出曲管5を通って、吐出配管14に移送される。
 吐出曲管5には、点検箇所の上方に点検口15(ハンドホール)が設けられている。点検箇所は、例えば、ガイドベーン10や羽根車9の隙間などである。点検口15からポンプケーシング2の内部に内視鏡21(後述する)が挿入され、立軸ポンプ1の点検が行われる。また、ポンプケーシング2の内面(例えば、点検箇所の近傍の内面)には、複数の基準マーカー16が設けられている。基準マーカー16は、例えば、その基準マーカー16が設けられている位置(ポンプケーシング2内における位置)を識別するための識別情報(例えば、文字、数字、図形など)である。
 つぎに、立軸ポンプ1の点検に用いられるポンプ点検システム20の構成を、図面を参照して説明する。ポンプ点検システム20は、ポンプケーシング2の内部に挿入される内視鏡21と、内視鏡21が接続される点検装置22を備えている。
 図16は、内視鏡21の構成を示す説明図である。図16に示すように、内視鏡21の先端には、複数のカメラ23(カメラA、カメラB、・・・)を有する撮影部24が設けられている。撮影部24からは、複数のカメラ23で撮影したカメラ画像を点検装置22に送信するためのケーブル部25が延設されている。この場合、複数のカメラ23は、それぞれ異なる撮影方向のカメラ画像を撮影するように、撮影部24の異なる位置に配置されている。例えば、撮影部24の前面部に、前方を撮影するカメラ23が配置されており、撮影部24の側面部に、斜め前方、側方、斜め後方などを撮影するカメラ23が配置されている。また、ケーブル部25は、柔軟性を有しており、任意に屈曲させることができる。ケーブル部25を屈曲させることにより、撮影部24の向き(内視鏡21の先端が向いている方向)を変えることができる。
 図17は、点検装置22の構成を示すブロック図である。図17に示すように、点検装置22は、CPUなどで構成される制御部26と、複数の画面(モニタA、モニタB、・・・)で構成されるマルチ表示部27と、メモリなどで構成される記憶部28を備えている。
 記憶部28には、ポンプケーシング2の内面に設けられた複数の基準マーカー16(基準マーカーA、基準マーカーB、・・・)の各々について、ポンプケーシング2内における基準マーカー16の位置が記憶されている。例えば、基準マーカーAの座標(XA,YA,ZA)、基準マーカーBの座標(XB,YB,ZB)、・・・などが記憶されている。なお、(X,Y,Z)は、直交直線座標系の3つの座標である。
 また、記憶部28には、複数のカメラ23の各々の撮影方向と内視鏡21の先端の向き(基準方向)との方向関係が記憶されている。例えば、内視鏡21の先端の向き(基準方向)に対するカメラAの撮影方向の角度(θA,φA)、内視鏡21の先端の向き(基準方向)に対するカメラBの撮影方向の角度(θB,φB)、・・・などが記憶されている。なお、(θ,φ)は、球面座標系の2つの角度座標である。
 制御部26は、位置決定部29と方向決定部30とマルチ表示処理部31を備えている。位置決定部29は、複数のカメラ23で撮影したポンプケーシング2の内部のカメラ画像に基づいて、ポンプケーシング2内における内視鏡21の先端の位置を求める機能を備えている。より具体的には、位置決定部29は、複数のカメラ23で撮影したポンプケーシング2の内部のカメラ画像のうち、同一の基準マーカー16を撮影した2つのカメラ画像に基づいて、内視鏡21の先端から当該基準マーカー16までの距離を算出し、少なくとも3つの異なる基準マーカー16までの距離とポンプケーシング2内におけるその基準マーカー16の位置に基づいて、ポンプケーシング2内における内視鏡21の先端の位置を求める。
 また、方向決定部30は、複数のカメラ23で撮影したポンプケーシング2の内部のカメラ画像に基づいて、ポンプケーシング2内において内視鏡21の先端が向いている方向を求める機能を備えている。より具体的には、方向決定部30は、複数のカメラ23で撮影したポンプケーシング2の内部のカメラ画像のうち、基準マーカー16を撮影したカメラ画像における基準マーカー16の位置(画像内位置)に基づいて、その基準マーカー16を撮影したカメラ23の撮影方向を算出し、内視鏡21の先端の向きとそのカメラ23の撮影方向との方向関係に基づいて、内視鏡21の先端が向いている方向を求める。
 マルチ表示部27は、複数のカメラ23(カメラA、カメラB、・・・)で撮影したポンプケーシング2の内部のカメラ画像を、複数の画面(モニタA、モニタB、・・・)にそれぞれ表示する機能を備えている。例えば、カメラAで撮影したポンプケーシング2内部のカメラ画像が、モニタAに表示され、カメラBで撮影したポンプケーシング2内部のカメラ画像が、モニタBに表示される。
 なお、マルチ表示部27は、必ずしもすべての画面にすべてのカメラ画像を表示しなくてもよい。例えば、一部の画面(例えば、モニタAのみ)に一部のカメラ画像(例えば、所定の水平方向の画像のみ)を表示してもよい。本実施の形態では、方向決定部30によって、内視鏡21の先端が向いている方向が求められるので、どのカメラ画像が所定の水平方向を映している画像かがわかる。したがって、複数のカメラ画像の中から、所定の水平方向を映しているカメラ画像(画面に映すべきカメラ画像)を選択することができる。
 このような本実施の形態のポンプ点検システム20によれば、複数のカメラ23で撮影したポンプケーシング2の内部のカメラ画像に基づいて、ポンプケーシング2内における内視鏡21の先端の位置と、内視鏡21の先端が向いている方向を求めることができる。したがって、内視鏡21でポンプケーシング2内のどの部分をどの方向から撮影しているのかを容易に把握することができる。
 本実施の形態では、複数のカメラ23で撮影したポンプケーシング2の内部のカメラ画像のうち、同一の基準マーカー16を撮影した2つのカメラ画像に基づいて、内視鏡21の先端から当該基準マーカー16までの距離を算出することができる。そして、少なくとも3つの異なる基準マーカー16までの距離とポンプケーシング2内における基準マーカー16の位置に基づいて、ポンプケーシング2内における内視鏡21の先端の位置(3次元座標)を求めることができる。
 また、本実施の形態では、複数のカメラ23で撮影したポンプケーシング2の内部のカメラ画像のうち、基準マーカー16を撮影したカメラ画像における基準マーカー16の位置(画像内位置)に基づいて、その基準マーカー16を撮影したカメラ23の撮影方向を算出することができる。そして、内視鏡21の先端の向きとカメラ23の撮影方向との方向関係から、内視鏡21の先端が向いている方向を求めることができる。
 この場合、複数のカメラ23(カメラA、カメラB、・・・)で撮影したポンプケーシング2内の各部のカメラ画像が、マルチ表示部27の複数の画面(モニタA、モニタB、・・・)に表示されるので、ポンプケーシング2内の複数の箇所の点検を画面ごとに行うことができる。
 以上、第3態様の実施の形態を例示により説明したが、第3態様の範囲はこれらに限定されるものではなく、請求項に記載された範囲内において目的に応じて変更・変形することが可能である。
 例えば、上記の実施の形態では、検査装置が、複数のカメラ23で撮影したポンプケーシング2の内部のカメラ画像を複数の画面にそれぞれ表示するマルチ表示部27を備えていたが、第3態様の範囲はこれに限定されるものではない。
 図18には、検査装置の他の実施の形態が示される。図18に示すように、検査装置は、複数のカメラ23で撮影したポンプケーシング2の内部のカメラ画像を球面表示画像に変換する球面表示処理部32と、球面表示画像を球面状の画面に表示する球面表示部33を備えてもよい。例えば、球面表示画像は全天周画像であり、球面表示部33は全天周モニタである。なお、球面表示画像は部分球面画像であり、球面表示部33は部分球面モニタであってもよい。
 このような検査装置によれば、複数のカメラ23で撮影したポンプケーシング2内のカメラ画像が球面表示画像(例えば、全天周画像)に変換されて球面状の画面(例えば、全天周画面)に表示されるので、ポンプケーシング2内の様子を全体的に把握することができる。
 また、図19には、検査装置の他の実施の形態が示される。図19に示すように、検査装置は、複数のカメラ23で撮影したポンプケーシング2の内部のカメラ画像を立体表示画像(3次元表示画面)に変換する立体表示処理部34と、立体表示画像を立体表示画面に表示する立体表示部35を備えてもよい。なお、立体表示画面は、裸眼式の3次元表示画面であってもよく、メガネ式の3次元表示画面であってもよい。
 このような検査装置によれば、複数のカメラ23で撮影したポンプケーシング2内のカメラ画像が立体表示画像(3次元表示画像)に変換されて立体表示画面(3次元表示画面)に表示されるので、ポンプケーシング2内の様子を立体的に(3次元的に)把握することができる。
 なお、基準マーカー16は、点ではなく、非対称な二次元図形であっても良い。この場合、対象物上の二次元図形の位置、方向、大きさの情報をあらかじめ記憶しておけば、光学特性の既知である一つのカメラ23で、一つの基準マーカー16を撮影するだけで、撮影画像の解析によって内視鏡21の対象物に対する位置と方向を特定することができる。二次元図形は、任意な図形でよく、文字や数字等であってもよい。ただし非対称性を必要とするため、例えばアルファベットでは「O」、「o」、「l」、「I」、「X」、「x」などは望ましくない。しかしながら、複数を組み合わせで対称性を崩せば使用することができる。例えば「Xx」などであれば使用することができる。カメラ23は単眼でも良いが、このような方式をとれば、カメラ23を複数にすることにより、位置決めと方向決めのロバスト性と精度を上げることができる。例えば、一つのカメラ23の場合、全ての基準マーカー16が視野からはずれると位置方向解析が不可能になるが、複数のカメラ23の場合、どれか一つのカメラ23がどれか一つの基準マーカー16を撮影できれば位置方向解析が可能になる。
[産業上の利用可能性]
 以上のように、第3態様にかかるポンプ点検システムは、内視鏡でポンプ内のどの部分をどの方向から撮影しているのかを容易に把握することができるという効果を有し、立軸ポンプのメンテナンス等に用いられ、有用である。
[符号の説明]
 1 立軸ポンプ
 2 ポンプケーシング
 3 インペラケーシング
 4 吊下管
 5 吐出曲管
 6 吸込水槽
 7 ポンプ据付床
 8 据付ベース
 9 羽根車
 10 ガイドベーン
 11 回転軸
 12 中間軸受
 13 駆動源
 14 吐出配管
 15 点検口
 16 基準マーカー
 17 吸込ベルマウス
 20 ポンプ点検システム
 21 内視鏡
 22 点検装置
 23 カメラ
 24 撮影部
 25 ケーブル部
 26 制御部
 27 マルチ表示部
 28 記憶部
 29 位置決定部
 30 方向決定部
 31 マルチ表示処理部
 32 球面表示処理部
 33 球面表示部
 34 立体表示処理部
 35 立体表示部
(第4態様)
[技術分野]
 第4態様は、水中ロボット制御システム及び水中ロボット制御方法に関する。
[背景技術]
 従来、遠隔操縦可能な水中ロボット(例えば、水中ドローンなど)が知られている(例えば、特許文献1参照)。
[第4態様の概要]
[第4態様が解決しようとする課題]
 水中の機械類(例えば、ポンプの部品など)の点検、水中探査などの様々な用途において、遠隔操縦可能な水中ロボット(例えば、水中ドローンなど)を使用することが考えられる。しかしながら、水中ロボット(例えば、水中ドローンなど)を使用する際、泥水のような不透明あるいは透明度の低い水、及び/または不透明な薬品類及び/または有色の生物類(藻、プランクトン等)の存在下で、水中(液中)の水中移動装置が陸上または水上にいる操縦者から目視できず、遠隔操縦が困難な場合があるという問題がある。
 第4態様は、上記問題に鑑みてなされたものであり、水中の水中ロボットが操縦者から目視できない場合であっても、遠隔操縦を容易にすることを可能とする水中ロボット制御システム及び水中ロボット制御方法を提供することを目的とする。
[課題を解決するための手段]
 第4態様に係る水中ロボット制御システムは、遠隔操縦式の水中ロボット制御システムであって、音波を発信可能であり且つ推進機構を有する水中ロボットと、前記水中ロボットが発信した音波を受信可能であり、前記音波を受信した受信時刻を送信可能であり且つ水面に浮かぶ三つ以上の通信ブイと、前記通信ブイそれぞれの位置を検出する位置検出手段と、前記通信ブイが送信した受信時刻を受信する通信部と、前記音波の発信時刻と各通信ブイが前記音波を受信した受信時刻との差、及び前記通信ブイそれぞれの位置を用いて、前記水中ロボットの位置を決定する位置決定部と、を備える。
 この構成によれば、水中の水中ロボットが操縦者から目視できない場合であっても、操縦者は水中ロボットの位置を把握することができるので、遠隔操縦を容易にすることができる。
 第4態様に係る水中ロボット制御システムは、第1の態様に係る水中ロボット制御システムであって、前記位置決定部は、前記音波の発信時刻と前記通信ブイそれぞれが前記音波を受信した受信時刻との差を用いて、各通信ブイと水中ロボットとの間の距離を決定し、決定した距離と前記通信ブイそれぞれの位置に基づいて、前記水中ロボットの位置を決定する。
 この構成によれば、水中の水中ロボットが操縦者から目視できない場合であっても、水中ロボットの位置を決定することができる。
 第4態様に係る水中ロボット制御システムは、第1または2の態様に係る水中ロボット制御システムであって、位置決定部は、前記水中ロボットを所定の距離だけ移動させて停止させ、停止後において、前記音波の発信時刻と各通信ブイが前記音波を受信した受信時刻との差、及び前記通信ブイそれぞれの位置を用いて、停止後の前記水中ロボットの位置を決定し、移動前と移動後の前記水中ロボットの位置を用いて、当該水中ロボットの方向を決定する。
 この構成によれば、水中の水中ロボットが操縦者から目視できない場合であっても、水中ロボットの方向を決定することができる。
 第4態様に係る水中ロボット制御システムは、第3の態様に係る水中ロボット制御システムであって、前記水中ロボットは、水中で撮像可能であり、前記位置決定部は、前記水中ロボットの方向を用いて、前記水中ロボットを点検対象物に向けて方向転換させる。
 この構成によれば、水中の水中ロボットが操縦者から目視できない場合であっても、水中ロボットを点検対象物に向けて移動させることができ、移動後に点検対象物を撮像した画像により点検対象物を点検することができる。
 第4態様に係る水中ロボット制御システムは、第1から4のいずれかの態様に係る水中ロボット制御システムであって、前記位置検出手段は、前記通信ブイそれぞれに設けられ且つ当該通信ブイの位置を測定する測位部である。
 この構成によれば、通信ブイの位置を測定することができる。
 第4態様に係る水中ロボット制御システムは、遠隔操縦式の水中ロボット制御システムであって、水中に配置された点検対象物を撮像可能であり且つ推進機構を有する水中ロボットと、超音波を発信可能であり当該超音波の反射波を捕捉可能なソナーを有し且つ水面に浮かぶ通信ブイと、前記通信ブイの位置を検出する位置検出手段と、前記ソナーによる観測結果と前記通信ブイの位置とを用いて、前記水中ロボットの位置を決定する位置決定部と、を備える。
 この構成によれば、水中の水中ロボットが操縦者から目視できない場合であっても、操縦者は水中ロボットの位置を把握することができるので、遠隔操縦を容易にすることができる。
 第4態様に係る水中ロボット制御システムは、第6の態様に係る水中ロボット制御システムであって、前記水中ロボットの位置と、前記水中ロボットから点検対象物までの軌道上の位置との差を最小にするよう前記水中ロボットを制御する制御部を更に備える。
 この構成によれば、制御部は、この制御を継続することによって、目的地まで水中ロボットを誘導することができる。
 第4態様に係る水中ロボット制御システムは、第6または7の態様に係る水中ロボット制御システムであって、前記位置検出手段は、前記通信ブイそれぞれに設けられ且つ当該通信ブイの位置を測定する測位部である。
 この構成によれば、通信ブイの位置を測定することができる。
 第4態様に係る水中ロボット制御システムは、遠隔操縦式の水中ロボット制御システムであって、水中に配置された点検対象物を撮像可能であり且つ推進機構を有する水中ロボットと、水に浮く通信ブイと、を備え、前記通信ブイは、水に浮く浮遊部材と、音波を発信し前記水中ロボットから反射された音波を受信可能な音波発信器と、当該音波発信器が受信した音波を用いて画像データを生成するプロセッサと、生成された画像データを含む画像信号を送信する通信部と、を有する。
 この構成によれば、水中の水中ロボットが操縦者から目視できない場合であっても、操縦者は画像データから水中ロボットと点検対象物との位置関係を把握することができるので、遠隔操縦を容易にすることができる。
 第4態様に係る水中ロボット制御システムは、第9の態様に係る水中ロボット制御システムであって、前記音波発信器は、複数の方向に音波を発信可能な合成開口ソナーである。
 この構成によれば、一度に複数の方向のソナー画像を取得することができ、水中ロボットがどの方位にいても、水中ロボットのソナー画像を取得できる可能性を向上させることができる。
 第4態様に係る水中ロボット制御システムは、第9の態様に係る水中ロボット制御システムであって、前記音波発信器は、一方向に音波を発信可能な合成開口ソナーであり、前記通信ブイは、前記合成開口ソナーを回転させる駆動部を備える。
 この構成によれば、合成開口ソナーを回転して走査することができるので、複数の方向のソナー画像を取得することができるので、水中ロボットが水中のどの方向にいても、水中ロボットのソナー画像を取得することができる。
 第4態様に係る水中ロボット制御システムは、第9の態様に係る水中ロボット制御システムであって、前記音波発信器は、トランスデューサであり、前記通信ブイは、前記トランスデューサを上下に移動させる駆動部を備える。
 この構成によれば、トランスデューサを上下して走査することができるので、深さ方向にソナー画像を取得することができるので、水中ロボットが水中のどの深さにいても、水中ロボットのソナー画像を取得することができる。
 第4態様に係る水中ロボット制御システムは、第9の態様に係る水中ロボット制御システムであって、前記音波発信器は、トランスデューサを略同一平面状に複数個並べたトランスデューサアレイである。
 この構成によれば、トランスデューサアレイを走査することができるので、深さ方向に所定の範囲のソナー画像を一度に取得することができるので、水中ロボットが含まれるソナー画像を容易に取得することができる。
 第4態様に係る水中ロボット制御システムは、遠隔操縦式の水中ロボット制御システムであって、超音波により水中映像撮影して画像データを生成する音響カメラと、前記画像データを送信する通信部とを有し且つ推進機構を有する水中ロボットと、表示装置と、前記画像データを受信し当該画像データを前記表示装置に表示させるコントローラと、を備え、前記コントローラは、操縦者による操作に従って前記水中ロボットを移動させるよう前記水中ロボットを制御する。
 この構成によれば、操縦者が表示装置に表示される画像データを見ながら、水中ロボットを点検対象物に接近させることができる。
 第4態様に係る水中ロボット制御方法は、遠隔操縦式の水中ロボット制御方法であって、水中ロボットが超音波により水中映像撮影して画像データを生成する工程と、前記水中ロボットが前記画像データを送信する工程と、コントローラが前記画像データを受信する工程と、前記コントローラが当該画像データを表示装置に表示させる工程と、前記コントローラは、操縦者による操作に従って前記水中ロボットを移動させるよう前記水中ロボットを制御する工程と、を有する。
 この構成によれば、操縦者が表示装置に表示される画像データを見ながら、水中ロボットを点検対象物に接近させることができる。
 第4態様に係る水中ロボット制御方法は、遠隔操縦式の水中ロボット制御方法であって、コントローラが、操縦者による操作に従って、水中ロボットを水面上を移動させる工程と、水中ロボットが前記点検対象物の近傍に移動した場合、前記コントローラが、操縦者による操作に従って、水中ロボットを水中に潜行させる工程と、前記水中ロボットが水中において前記点検対象物の点検部位を撮像する工程と、前記水中ロボットが前記撮像して生成された画像データを前記コントローラに送信する工程と、前記コントローラは、前記画像データを表示装置に表示させる工程と、を有する。
 この構成によれば、操縦者が水中の水中ロボットを目視で確認できない場合であっても、水中にある点検部位まで移動させることができ当該点検部位を撮像して表示することができるので、点検部位を点検することができる。
[第4態様の効果]
 第4態様によれば、水中の水中ロボットが操縦者から目視できない場合であっても、操縦者は水中ロボットの位置を把握することができるので、遠隔操縦を容易にすることができる。
[第4態様を実施するための形態]
 以下、各実施形態について、図面を参照しながら説明する。なお、本明細書に添付する図面においては、図示の理解のしやすさの便宜上、適宜縮尺および縦横の寸法比等を、実物のそれらから変更し誇張してある。なお、符号は第1、第2および第3態様とは独立して付している。
 (第1の実施形態)
 図20は、第1の実施形態に係る水中ロボット制御システムの概略構成を示すブロック図である。図20に示すように、水中ロボット制御システムS1は、水中を移動可能な水中ロボット1と、水中ロボット1を離れた場所(例えば、水上、陸上など)から操縦するためのコントローラ2と、水中ロボット1が撮像した映像を表示する表示装置3とを備える。ここで映像には、動画も静止画も含まれる。水中ロボット1は例えば水中ドローンである。以降の各実施形態では、水中ロボット1は一例として水中ドローンであるものとして以下説明する。
 水中ロボット1は、カメラ11と、推進機構10と、プロセッサ14と、通信部15とを備える。ここで本実施形態に係る推進機構10は一例として、プロペラ12と、プロペラに連結された駆動部13を備える。プロセッサ14は、バスを介してカメラ11、駆動部13、通信部15に接続されている。
 カメラ11は、水中において被写体を撮像し、画像データを生成する。カメラ11は、被写体を撮像し画像データを生成するイメージセンサと、被写体からの光をイメージセンサに集光するレンズユニットとを有する。
 駆動部13は、プロペラ12を回転させる。駆動部13は例えばモータである。プロセッサ14は、駆動部13を制御してプロペラ12の回転量及び/または回転方向を調節する。これにより、水中ロボット1は前進、後退が可能である。
 通信部15は、通信ケーブルCBを介してコントローラ2に接続されている。これにより、通信部15は、コントローラ2と通信可能である。プロセッサ14は、カメラによって得られた画像データを通信部15からコントローラ2へ送信させる。なお、本実施形態では一例として通信部15及びコントローラ2の通信部21は有線で通信するとして説明するが、これに限らず、無線(電波、光通信、超音波通信)であってもよい。
 コントローラ2は、通信部21と、操作部22と、プロセッサ23とを備える。プロセッサ23は、バスを介して通信部21と操作部22に接続されている。
 通信部21は、水中ロボット1の通信部15から送信された画像データを受信する。プロセッサ23は、この画像データを表示装置3に表示する制御する。
 操作部22は、水中ロボット1を操縦するための操作を操縦者から受け付ける。操作部22は例えば操縦桿である。
 プロセッサ23は、操作部22が受け付けた操作に応じて、水中ロボット1を移動させるための制御信号を生成し、通信部21から水中ロボット1へ制御信号を送信させる。これにより、水中ロボット1の通信部15はこの制御信号を受信し、水中ロボット1のプロセッサ14は、この制御信号に基づいて、水中ロボット1を移動するよう駆動部13を制御する。
 図21は、第1の実施形態に係る水中ロボット制御方法について説明するための図である。図21は、泥水のような不透明あるいは透明度の低い水、及び/または不透明な薬品類及び/または有色の生物類(藻、プランクトン等)の存在などの影響で、水中の水中ロボットが目視で確認できない場合に用いられる水中ロボット制御方法である。本実施形態では一例として吸込水槽が泥水で満たされており、点検部位に近接すれば光学撮影で点検部位を可視化できることを前提とする。このように、本実施形態における不透明とは、点検部位に近接すれば光学撮影で点検部位を可視化できる範囲の透明度を有することを意味する。
 図21(A)に示すように、ポンプの揚水管PTへ向かって、水中ロボット1を水面上を移動させる。この際、水上を水中ロボット1が移動するので、操縦者は目視で水中ロボット1の位置を確認しながら、水中ロボット1を操縦することができる。図21(B)に示すように、操縦者は、水中ロボット1がポンプの揚水管PTに近づいたと目視で確認した場合、図21(C)に示すように、操縦者による操作に従って、プロセッサ23は、水中ロボット1をポンプの揚水管PTに沿って、水中に潜行させるよう制御する。この潜行中は、水中ロボット1のカメラ11によって撮像された揚水管Pの画像データが表示装置3に表示されるので、操縦者は、この画像データを見ながら、潜行させることにより、点検対象となる揚水管Pの点検部位まで水中ロボット1を移動させることができる。
 そして、点検部位に到達した場合、水中ロボット1が水中においてポンプの点検部位を撮像する。そして、水中ロボット1が撮像して生成された画像データをコントローラ2に送信する。コントローラ2は、画像データを表示装置3に表示させる。
 以上、第1の実施形態に係る遠隔操縦式の水中ロボット制御方法は、コントローラ2が、操縦者による操作に従って、水中ロボット1を水面上を移動させる工程を有する。更に、水中ロボット制御方法は、水中ロボット1がポンプの揚水管PTの近傍に移動した場合、コントローラ2が、操縦者による操作に従って、水中ロボット1を水中に潜行させる工程を有する。水中ロボット1が水中において点検対象物(ここでは一例としてポンプの揚水管)の点検部位を撮像する工程と、水中ロボット1が撮像して生成された画像データをコントローラ2に送信する工程と、コントローラ2は、画像データを表示装置3に表示させる工程と、を有する。
 この構成により、操縦者が水中の水中ロボット1を目視で確認できない場合であっても、水中にある点検部位まで移動させることができ当該点検部位を撮像することができるので、点検部位を点検することができる。
 (第2の実施形態)
 続いて、第2の実施形態について説明する。図22は、第2の実施形態に係る水中ロボット制御システムの概略構成を示すブロック図である。図22に示すように、第2の実施形態に係る水中ロボット制御システムS2は、水中で移動可能な水中ロボット1bと、水面に浮かぶ三つの通信ブイ4-1、4-2、4-3と、コントローラ2bと、表示装置3とを備える。
 図23は、第2の実施形態に係る水中ロボット制御システムS2の概略構成を示すブロック図である。図23の第2の実施形態に係る水中ロボット制御システムS2は、図20の第1の実施形態に係る水中ロボット制御システムS1に比べて、水中ロボット1が水中ロボット1bに変更され、コントローラ2がコントローラ2bに変更されたものになっている。
 本実施形態に係る水中ロボット1bは、音波を発信可能である。本実施形態に係る水中ロボット1bは、第1の実施形態に係る水中ロボット1に比べて、計時部16と、音波送信部17が追加された構成になっている。計時部16と音波送信部17とはバスを介してプロセッサ14に接続されている。水中ロボット1bは、水中で撮像可能である。
 計時部16は、計時する。計時部16における時刻は、通信ブイ4-1、4-2、4-3における時刻と予め同期が取られている。
 音波送信部17は、音波(Ping波)を発信する。例えば予め決められた時刻に、音波送信部17は音波を発信する。
 通信ブイ4-1、4-2、4-3は互いに同じ構成であるので、代表して通信ブイ4-1の構成について説明する。
 通信ブイ4-1は、測位部41、計時部42、音波受信部43、プロセッサ44、通信部45、及びアンテナ46を備える。プロセッサ44は、バスを介して他の要素と接続されている。
 測位部41は、通信ブイ4-1、4-2、4-3それぞれの位置を検出する位置検出手段の一例である。測位部41は、例えばGPS(Global Positioning System)受信機であり、通信ブイ4-1に設けられ且つ当該通信ブイ4-1の位置を測定する。
 計時部42は、計時する。上述したように、計時部42における時刻は、水中ロボット1bの計時部16における時刻と予め動機が取られている。
 音波受信部43は、水中ロボット1bの音波送信部17から送信された音波を受信する。音波受信部43が音波を受信したときに、プロセッサ44は、音波受信部43が音波を受信した時刻(以下、受信時刻という)を計時部42から取得する。
 通信部45は、無線により、アンテナ46を介してコントローラ2bと通信可能である。プロセッサ44は、取得した受信時刻と当該通信ブイ4-1の位置を通信部45からコントローラ2bへ送信させる。
 第2の実施形態に係るコントローラ2bは、第1の実施形態に係るコントローラ2と比べて、プロセッサ23がプロセッサ23bに変更され、アンテナ24及び通信部25が追加された構成になっている。
 通信部25は、アンテナ24を介して、通信ブイ4-1~4-3が送信した受信時刻と通信ブイ4-1~4-3の位置を無線により受信する。
 プロセッサ23bは、プログラムを読み出して実行することにより位置決定部231として機能する。位置決定部231は、音波の発信時刻と各通信ブイ4-1~4-3が音波を受信した受信時刻との差、及び前記通信ブイ4-1~4-3それぞれの位置を用いて、水中ロボット1の位置を決定する。具体的には、位置決定部231は、音波の発信時刻と通信ブイ4-1~4-3それぞれが音波を受信した受信時刻との差を用いて、各通信ブイ4-1~4-3と水中ロボット1との間の距離を決定し、決定した距離と通信ブイ4-1~4-3それぞれの位置に基づいて、水中ロボット1の位置を決定する。
 また、位置決定部231は、水中ロボット1を所定の距離だけ移動させて停止させ、停止後において、音波の発信時刻と各通信ブイ4-1~4-3が音波を受信した受信時刻との差、及び通信ブイ4-1~4-3それぞれの位置を用いて、停止後の水中ロボット1の位置を決定する。位置決定部231は、移動前と移動後の水中ロボット1の位置を用いて、当該水中ロボット1の方向を決定する。位置決定部は、当該水中ロボット1の方向を用いて、水中ロボット1を点検対象物(ここでは一例としてポンプの揚水管)に向けて方向転換させる。ここで、点検対象物は、点検、探査または目標の対象となる物である。
 図24は、第2の実施形態に係る水中ロボット制御方法の流れの一例を示すフローチャートである。
 (ステップS101)まず、水中ロボットが予め決められた時刻に音波を発信する。
 (ステップS102)次に、通信ブイ4-1~4-3それぞれは、音波を受信する。
 (ステップS103)次に、位置決定部231は、音波の発信時刻と通信ブイ4-1~4-3それぞれの受信時刻との差を用いて、各通信ブイ4-1~4-3と水中ロボット1との間の距離を決定する。
 (ステップS104)次に、位置決定部231は、ステップS103で決定された距離と通信ブイ4-1~4-3それぞれの位置に基づいて、水中ロボット1の3次元空間上の位置を決定する。ここでステップS103で決定された三つの距離それぞれを半径とする三つの球の交点は二つになるが、交点のうち一つは空中になるので、もう一つの水中に存在する交点が水中ロボット1の3次元空間上の位置となる。
 (ステップS105)次に、位置決定部231は、所定の距離だけ前進させた後の水中ロボット1の位置が決定されたか否か判定する。所定の距離だけ前進させた後の水中ロボット1の位置が決定された場合、ステップS107に処理が進む。
 (ステップS106)ステップS105で、所定の距離だけ前進させた後の水中ロボット1の位置が決定されていない場合、位置決定部231は、深度を維持したまま、水中ロボットを所定に距離(例えば、1m)だけ移動(例えば、前進または後退)させて停止させる。そして、ステップS102に戻って、移動後においてステップS102~S104の処理が実行され、移動後における水中ロボットの位置が決定される。
 (ステップS107)ステップS105で所定の距離だけ前進させた後の水中ロボット1の位置が決定された場合、位置決定部231は、移動(例えば前進または後退)の前後の水中ロボット1の位置を用いて、水中ロボット1の方向を決定する。
 (ステップS108)次に、位置決定部231は、ステップS107で決定された水中ロボット1の方向を用いて、水中ロボット1を点検対象物に向けて方向転換させる。
 (ステップS109)次に、プロセッサ23bは、水中ロボット1を設定距離だけ進ませる。
 (ステップS110)次に、プロセッサ23bは、水中ロボット1が点検対象物から所定の距離範囲内にあるか否か判定する。水中ロボット1が点検対象物(ここでは一例としてポンプの揚水管)から所定の距離範囲内にない場合、ステップS101に戻って処理が繰り返される。水中ロボット1が点検対象物から所定の距離範囲内にある場合、本フローチャートの処理が終了する。
 以上、第2の実施形態に係る遠隔操縦式の水中ロボット制御システムS2は、音波を発信可能であり且つ推進機構を有する水中ロボット1を備える。更に水中ロボット制御システムS2は、水中ロボット1が発信した音波を受信可能であり、音波を受信した受信時刻を送信可能であり且つ水面に浮かぶ三つの通信ブイ4-1~4-3を備える。更に水中ロボット制御システムS2は、通信ブイ4-1~4-3それぞれの位置を検出する位置検出手段としての測位部41を備える。更に水中ロボット制御システムS2は、通信ブイ4-1~4-3が送信した受信時刻を受信する通信部25を備える。更に水中ロボット制御システムS2は、音波の発信時刻と各通信ブイ4-1~4-3が音波を受信した受信時刻との差、及び通信ブイそれぞれの位置を用いて、水中ロボット1の位置を決定する位置決定部231を備える。
 この構成により、水中の水中ロボット1が操縦者から目視できない場合であっても、操縦者は水中ロボット1の位置を把握することができるので、遠隔操縦を容易にすることができる。
 なお、第2の実施形態において、通信ブイは三つであると説明したが、この数に限ったものではなく、通信ブイは四つ以上あってもよい。
 また、第2の実施形態では、位置検出手段の一例としての測位部41が自通信ブイの位置を測定したが、これに限ったものではなく、位置検出手段は、通信ブイ4-1~4-3を撮像し、撮像して得られた画像データを画像処理して、通信ブイ4-1~4-3位置を特定してもよい。
 また通信部25、及び通信部45は無線としたが、有線であってもよい。
 (第3の実施形態)
 続いて、第3の実施形態について説明する。第3の実施形態では、第2の実施形態とは異なり、各通信ブイが備えるソナ-で、水中ロボット1の位置を測定する。これにより、ほぼリアルタイムで、水中ロボット1の位置を測定することができる。
 図25は、第3の実施形態に係る水中ロボット制御システムの概略構成を示すブロック図である。図25に示すように、第3の実施形態に係る水中ロボット制御システムS3は、水中ロボット1と、水面に浮かぶ三つの通信ブイ4c-1、4c-2、4c-3と、コントローラ2cと、表示装置3とを備える。
 水中ロボット1は、水中に配置された被写体を撮像可能であり且つ推進機構を有する。本実施形態に係る水中ロボット1は、第1の実施形態に係る水中ロボット1の構成と同一であるので、その詳細な説明を省略する。通信ブイ4c-1、4c-2、4c-3は互いに同一の構成であるので、代表して通信ブイ4c-1の構成について説明する。
 通信ブイ4c-1は、図23の第2の実施形態に係る通信ブイ4-1と比べて、音波受信部43が削除され、ソナー47が追加された構成になっている。ソナー47は、超音波を発信可能であり当該超音波の反射波を捕捉可能である。なお、位置検出手段の一例として、自通信ブイの位置を検出する測位部41が有する。
 本実施形態に係るコントローラ2cは、第2の実施形態に係るコントローラ2bと比べて、プロセッサ23bがプロセッサ23cに変更されたものになっている。プロセッサ23cは、プログラムを読み出して実行することにより、位置決定部231bと制御部232として機能する。
 位置決定部231bは、通信ブイ4c-1が有するソナー47による観測結果と通信ブイ4c-1の位置とを用いて、水中ロボット1の位置を決定する。具体的には例えば、位置決定部231bは、超音波を発信してから水中ロボット1に反射して超音波が戻ってくるまでにかかる時間を用いて、当該超音波が戻ってくる方向を水中ロボット1の方向に決定し、当該距離、当該方向、及び前記通信ブイの位置を用いて、水中ロボット1の位置を決定してもよい。
 なお、位置決定部231bは、通信ブイ4c-2が有するソナー47による観測結果と通信ブイ4c-2の位置とを用いて、水中ロボット1の位置を決定してもよい。また、位置決定部231bは、通信ブイ4c-3が有するソナー47による観測結果と通信ブイ4c-3の位置とを用いて、水中ロボット1の位置を決定してもよい。
 制御部232は、水中ロボット1の位置と、水中ロボット1から点検対象物(ここでは一例としてポンプ)までの軌道上の位置との差を最小にするよう水中ロボット1を、フィードバック制御及び/またはフィードフォワード制御する。軌道上の位置は、例えば、軌道上において、現在の水中ロボット1の位置から設定された距離離れた位置であってもよい。これにより、制御部232は、この制御を継続することによって、目的地まで水中ロボット1を誘導する。
 図26は、第3の実施形態に係る水中ロボット制御方法の流れの一例を示すフローチャートである。
 (ステップS201)まず、通信ブイ4c-1が有するソナー47で水中ロボット1を観測する。
 (ステップS202)次に、位置決定部231bは、通信ブイ4c-1が有するソナー47による観測結果と通信ブイ4c-1の位置とを用いて、水中ロボット1の位置を決定する。
 (ステップS203)次に、制御部232は、水中ロボット1の位置と、水中ロボット1から点検対象のポンプまでの軌道上の位置との差を最小にするよう水中ロボット1を制御する。
 (ステップS204)次に、制御部232は、水中ロボット1が点検対象のポンプから所定の距離範囲内にあるか否か判定する。水中ロボット1が点検対象のポンプから所定の距離範囲内にない場合、ステップS201に戻って処理が継続される。水中ロボット1が点検対象のポンプから所定の距離範囲内にある場合、制御部232における制御を終了する。
 以上、第3の実施形態に係る遠隔操縦式の水中ロボット制御システムS3は、水中に配置された点検対象物を撮像可能であり且つ推進機構を有する水中ロボット1と、超音波を発信可能であり当該超音波の反射波を捕捉可能なソナーを有し且つ水面に浮かぶ通信ブイ4c-1~4c-3と、通信ブイ4c-1~4c-3の位置を検出する位置検出手段としての測位部41と、ソナー47による観測結果と通信ブイ4c-1~4c-3の位置とを用いて、水中ロボット1の位置を決定する位置決定部と、を備える。
 この構成により、水中の水中ロボット1が操縦者から目視できない場合であっても、操縦者は水中ロボット1の位置を把握することができるので、遠隔操縦を容易にすることができる。
 なお、第3の実施形態において、通信ブイは三つであると説明したが、この数に限ったものではなく、通信ブイは一つまたは二つであってもよいし、四つ以上あってもよい。
 (第4の実施形態)
 続いて第4の実施形態について説明する。第4の実施形態では、通信ブイが複数の方向に向けて音波を発信可能な合成開口ソナーを有する。合成開口ソナーは、水中ロボット1と点検対象となるポンプの揚水管PTとが含まれるソナー画像を取得する。このソナー画像が表示装置3に更新表示される。これにより、この画像を見ながら、操縦者は、水中ロボット1を点検対象となるポンプの揚水管PTに誘導接近させることができる。
 図27は、第4の実施形態に係る水中ロボット制御システムの概略構成を示すブロック図である。図27に示すように、水中ロボット制御システムS4は、水中ロボット1と、水中ロボット1を離れた場所(例えば、水上、陸上など)から操縦するためのコントローラ2と、表示装置3と、通信ブイ5と、を備える。表示装置3は、水中ロボット1が撮像した映像またはソナー画像を表示する。本実施形態に係る水中ロボット1、コントローラ2及び表示装置3は、第1の実施形態に係る構成と同一であるので、その詳細な説明を省略する。
 通信ブイ5は、水に浮くことが可能な浮遊部材51と、複数の方向に向けて音波を発信可能な合成開口ソナー52とを有する。本実施形態では一例として、合成開口ソナー52は、全方位のソナー画像を取得可能である。この構成により、複数の方向のソナー画像を取得することができるので、水中ロボット1が水中のどの方向にいても、水中ロボット1のソナー画像を取得することができる可能性を向上させることができる。ここで、この合成開口ソナー52は、水中に配置可能なように浮遊部材51に連結されており且つ音波を発信し水中ロボット1から反射された音波を受信可能な音波発信器の一例である。
 図28は、第4の実施形態に係る通信ブイの概略の機能構成を示すブロック図である。図28に示すように、更に通信ブイ5は、プロセッサ53、通信部54、アンテナ55を備える。プロセッサ53は、プログラムを読み出して実行することにより、合成開口ソナー52が受信した音波を用いて、ソナー画像の画像データを生成する。通信部54は、生成された画像データを含む画像信号をアンテナ55を介してコントローラ2へ送信する。これにより、コントローラ2は、この画像信号を受信し、当該ソナー画像を表示装置3に表示させる。この一連の処理が、例えば一定の間隔で繰り返されることによって、表示装置3に表示されるソナー画像が随時更新される。
 図29は、ソナー画像の一例を示す概略図である。図29に示すように、ソナー画像IMGには、水中ロボット1を表すオブジェクトOB1と、ポンプの揚水管PTを表すオブジェクトOB2が含まれる。これにより、随時更新されるソナー画像IMGを見ながら、水中ロボット1を、ポンプの揚水管PTの誘導接近させることができる。
 以上、第4の実施形態に係る遠隔操縦式の水中ロボット制御システムS4は、水中に配置された点検対象物を撮像可能であり且つ推進機構を有する水中ロボット1と、水に浮く通信ブイ5と、を備える。通信ブイ5は、水に浮く浮遊部材51と、水中に配置可能なように当該浮遊部材51に接続されており且つ音波を発信し水中ロボット1から反射された音波を受信可能な音波発信器の一例である合成開口ソナー52と、当該合成開口ソナー52が受信した音波を用いて画像データを生成するプロセッサ53と、生成された画像データを含む画像信号を送信する通信部54と、を有する。
 この構成により、水中の水中ロボット1が操縦者から目視できない場合であっても、操縦者は画像データから水中ロボット1と点検対象物との位置関係を把握することができるので、遠隔操縦を容易にすることができる。
 なお、コントローラ2は、生成されたソナー画像に基づいて、水中における構造体の3次元図を作成してもよい。また、事前に水中における構造体の3次元CAD図がある場合には、コントローラ2は、その3次元CAD図を用いて、ソナー画像に基づく構造体の3次元図を修正してもよい。
 (第4の実施形態の変形例1)
 続いて第4の実施形態の変形例1について説明する。変形例1では、一方向に音波を発信可能な合成開口ソナーを回転して走査する。図30は、第4の実施形態の変形例1に係る水中ロボット制御システムの概略構成を示すブロック図である。図30に示すように、第4の実施形態の変形例1に係る水中ロボット制御システムS4bは、図27の水中ロボット制御システムS4に比べて、通信ブイ5が通信ブイ5bに変更されたものになっている。通信ブイ5bは、図27の通信ブイ5と比べて、合成開口ソナー52が、一方向に音波を発信可能な合成開口ソナー56に変更され、合成開口ソナー56を回転させる駆動部57が追加された構成になっている。この合成開口ソナー56は、水中に配置可能なように浮遊部材51に駆動部57を介して接続されている。
 この構成により、合成開口ソナー56を回転して走査することができるので、複数の方向のソナー画像を取得することができるので、水中ロボットが水中のどの方向にいても、水中ロボットのソナー画像を取得することができる。ここで合成開口ソナー56は、音波を発信し水中ロボット1から反射された音波を受信可能な音波発信器の一例である。
 (第4の実施形態の変形例2)
 続いて第4の実施形態の変形例2について説明する。変形例2では、トランスデューサを上下して走査する。図31は、第4の実施形態の変形例2に係る水中ロボット制御システムの概略構成を示すブロック図である。図31に示すように、第4の実施形態の変形例2に係る水中ロボット制御システムS4cは、図27の水中ロボット制御システムS4に比べて、通信ブイ5が通信ブイ5cに変更されたものになっている。通信ブイ5cは、図27の通信ブイ5と比べて、合成開口ソナー52が、トランスデューサ58に変更され、トランスデューサ58を上下に移動させる駆動部57cが追加された構成になっている。このトランスデューサ58は、水中に配置可能なように浮遊部材51に駆動部57cを介して接続されている。
 この構成により、トランスデューサ58を上下して走査することができるので、深さ方向にソナー画像を取得することができるので、水中ロボット1が水中のどの深さにいても、水中ロボット1のソナー画像を取得することができる。ここでトランスデューサ58は、音波を発信し水中ロボット1から反射された音波を受信可能な音波発信器の一例である。
 (第4の実施形態の変形例3)
 続いて第4の実施形態の変形例3について説明する。変形例3では、トランスデューサを略同一平面状に複数個並べたトランスデューサアレイで走査する。図32は、第4の実施形態の変形例3に係る水中ロボット制御システムの概略構成を示すブロック図である。図32に示すように、第4の実施形態の変形例3に係る水中ロボット制御システムS4dは、図27の水中ロボット制御システムS4に比べて、通信ブイ5が通信ブイ5dに変更されたものになっている。通信ブイ5dは、図27の通信ブイ5と比べて、合成開口ソナー52が、トランスデューサアレイ59に変更された構成になっている。このトランスデューサアレイ59は、トランスデューサを略同一平面状に複数個並べたものであり、水中に配置可能なように浮遊部材51に接続されている。
 この構成により、トランスデューサアレイ59を走査することができるので、深さ方向に所定の範囲のソナー画像を一度に取得することができるので、水中ロボット1が含まれるソナー画像を容易に取得することができる。ここでトランスデューサアレイ59は、音波を発信し水中ロボット1から反射された音波を受信可能な音波発信器の一例である。
 (第5の実施形態)
 続いて第5の実施形態について説明する。第5の実施形態に係る水中ロボット制御システムでは、水中ロボット自体が、超音波により水中映像撮影して画像データを生成する音響カメラを有しており、操縦者がこの画像データを見ながら、水中ロボットを点検対象物に接近させる。
 図33は、第5の実施形態に係る水中ロボット制御システムの概略構成を示すブロック図である。図33に示すように、第5の実施形態に係る水中ロボット制御システムS5は、第1の実施形態に係る水中ロボット制御システムS1に比べて、水中ロボット1が水中ロボット1eに変更されたものになっている。
 水中ロボット1eは、図20の水中ロボット1に比べて、音響カメラ18が追加された構成になっており、音響カメラ18は、超音波により水中映像撮影して画像データを生成する。プロセッサ14は、この画像データを含む画像信号を通信部15からケーブルCBを介してコントローラ2へ送信させる。これにより、コントローラ2の通信部21は、画像信号を受信し、コントローラ2のプロセッサ23は、この画像データを表示装置3に表示させる。この一連の処理が、例えば所定の間隔で行われることにより、画像データが更新表示される。
 図34は、第5の実施形態に係る水中ロボット制御システムの概略構成を示すブロック図である。図34には、泥水の中を、超音波USを発信する水中ロボット1eが示されている。図34に示すように、操縦者が表示装置3に随時更新表示される画像データを見ながら、水中ロボット1を点検対象となるポンプの揚水管PTに接近させることができる。
 以上、第5の実施形態に係る遠隔操縦式の水中ロボット制御システムS5は、超音波により水中映像撮影して画像データを生成する音響カメラ18と、この画像データを送信する通信部15とを有し且つ推進機構10を有する水中ロボット1eと、表示装置3と、当該画像データを受信し当該画像データを前記表示装置3に表示させるコントローラ2と、を備える。コントローラ2は、操縦者による操作に従って水中ロボット1eを移動させるよう水中ロボット1eを制御する。
 この構成により、操縦者が表示装置3に随時更新表示される画像データを見ながら、水中ロボット1を点検対象物(ここでは一例としてポンプの揚水管PT)に接近させることができる。
 また、第5の実施形態に係る遠隔操縦式の水中ロボット制御方法において、水中ロボット1eが超音波により水中映像撮影して画像データを生成し、水中ロボット1eが前記画像データを送信する。その後、コントローラ2が前記画像データを受信し、コントローラ2が当該画像データを表示装置に表示させ、コントローラ2は、操縦者による操作に従って前記水中ロボットを移動させるよう前記水中ロボットを制御する。
 この構成により、操縦者が表示装置3に随時更新表示される画像データを見ながら、水中ロボット1を点検対象物(ここでは一例としてポンプの揚水管PT)に接近させることができる。
 なお、本実施形態に係る水中ロボット1eは、更にソナーを備えていてもよい。
 以上の第1~第4の各態様は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
[符号の説明]
1、1b 水中ロボット
10 推進機構
11 カメラ
12 プロペラ
13 駆動部
14 プロセッサ
15 通信部
16 計時部
17 音波送信部
2 コントローラ
21 通信部
22 操作部
23 プロセッサ
231、231b 位置決定部
232 制御部
23b、23c プロセッサ
24 アンテナ
25 通信部
2b、2c コントローラ
3 表示装置
4、4c 通信ブイ
41 測位部
42 計時部
43 音波受信部
44 プロセッサ
45 通信部
46 アンテナ
47 ソナー
5、5b、5c、5d 通信ブイ
51 浮遊部材
52、56 合成開口ソナー
53 プロセッサ
54 通信部
55 アンテナ
57、57c 駆動部
58 トランスデューサ
59 トランスデューサアレイ
S1、S2、S3、S4、S4b、S4c、S4d、S5 水中ロボット制御システム

Claims (39)

  1.  撮像装置と、
     前記撮像装置を保持する可撓性の保持部材と、
     前記保持部材に固定され、流体を噴射する1または複数のノズルと、を備える工業用内視鏡。
  2.  前記ノズルが流体を噴射することで、前記ノズルからの流体噴射方向とは異なる方向に前記保持部材に保持された撮像装置が動く、請求項1に記載の工業用内視鏡。
  3.  前記複数のノズルは、
      前記撮像装置の撮影方向に流体を噴射する第1ノズルと、
      前記撮像装置の撮影方向とは反対方向に流体を噴射する第2ノズルと、
    を含む、請求項1または2に記載の工業用内視鏡。
  4.  前記撮像装置、前記保持部材および前記1または複数のノズルを覆う被膜部材を備える、請求項1乃至3のいずれかに記載の工業用内視鏡。
  5.  前記流体が流れる1つの流路を備え、
     前記複数のノズルは、前記1つの流路に接続された2以上のノズルを含み、
     前記2以上のノズルのそれぞれに、流体を噴射するか否かを制御するバルブが設けられる、請求項1乃至4のいずれかに記載の工業用内視鏡。
  6.  保持部材に固定されたノズルから流体を噴射することで、前記保持部材に保持された撮像装置を移動させながら観察を行う観察方法。
  7.  撮像装置と、
     前記撮像装置による撮像方向に向かって液体が噴射される噴射口と、
     前記液体の供給源から前記噴射口までの流路上に設けられた浄水部材と、を備える観察装置。
  8.  前記液体の供給源にある液体は泥水であり、前記浄水部材によって濾過されることで清浄な液体となって前記噴射口から噴射される、請求項7に記載の観察装置。
  9.  前記液体の供給源にある液体は化学薬液であり、前記浄水部材によって中和されることで清浄な液体となって前記噴射口から噴射される、請求項7に記載の観察装置。
  10.  浄水部材によって液体を浄水し、
     撮像装置と観察対象との間に前記浄水された液体を噴射し、
     前記浄水された液体が前記撮像装置と前記観察対象との間にある状態で、前記撮像装置が前記観察対象を撮影する観察方法。
  11.  撮像装置と、
     前記撮像装置による撮像方向に向かって流体が噴射される第1噴射口と、
     前記第1噴射口からの流体噴射による推力と反対方向の推力を発生させる推力バランス部と、を備える、観察装置。
  12.  前記推力バランス部は、前記第1噴射口からの流体噴射方向とは反対方向に流体を噴射する第2噴射口を有する、請求項11に記載の観察装置。
  13.  前記推力バランス部は、スクリューである、請求項11に記載の観察装置。
  14.  第1方向に推力を発生させながら、前記第1方向とは反対の第2方向にある観察対象に流体を噴射し、
     前記流体が撮像装置と前記観察対象との間にある状態で、前記撮像装置が前記観察対象を撮影する観察方法。
  15.  不透明な液体中に置かれた観察対象の凹部に、前記不透明な液体より透明度が高い流体を噴射し、該流体が前記凹部に貯まった状態で前記凹部の内面を撮像装置で観察する、観察方法。
  16.  観察対象箇所の近傍に設けられ、流体を噴射する噴射口を備える水中機械。
  17.  不透明な液体中に置かれた観察対象箇所の近傍に設けられた噴射口から、前記不透明な液体より透明度が高い流体を噴射し、
     前記観察対象箇所と撮像装置との間に前記流体が存在する状態で、前記観察対象箇所を前記撮像装置で観察する観察方法。
  18.  ポンプの内部に挿入される内視鏡と、前記内視鏡が接続される点検装置とを備えるポンプ点検システムであって、
     前記内視鏡は、
     複数のカメラを有する撮影部と、
     前記複数のカメラで撮影したカメラ画像を前記点検装置に送信するためのケーブル部と、
    を備え、
     前記点検装置は、
     前記複数のカメラで撮影した前記ポンプの内部のカメラ画像に基づいて、前記ポンプ内における前記内視鏡の先端の位置を求める位置決定部と、
     前記複数のカメラで撮影した前記ポンプの内部のカメラ画像に基づいて、前記ポンプ内において前記内視鏡の先端が向いている方向を求める方向決定部と、
    を備えることを特徴とするポンプ点検システム。
  19.  前記複数のカメラは、それぞれ異なる撮影方向のカメラ画像を撮影するように、前記撮影部の異なる位置に配置され、
     前記点検装置は、前記ポンプの内部に設けられた複数の基準マーカーの各々について、前記ポンプ内における前記基準マーカーの位置が記憶されている記憶部を備え、
     前記位置決定部は、前記複数のカメラで撮影した前記ポンプの内部のカメラ画像のうち、同一の前記基準マーカーを撮影した2つのカメラ画像に基づいて、前記内視鏡の先端から当該基準マーカーまでの距離を算出し、少なくとも3つの異なる前記基準マーカーまでの距離と前記ポンプ内における当該基準マーカーの位置に基づいて、前記ポンプ内における前記内視鏡の先端の位置を求める、請求項18に記載のポンプ点検システム。
  20.  前記記憶部には、前記複数のカメラの各々の撮影方向と前記内視鏡の先端の向きとの方向関係が記憶されており、
     前記方向決定部は、前記複数のカメラで撮影した前記ポンプの内部のカメラ画像のうち、前記基準マーカーを撮影したカメラ画像における当該基準マーカーの画像内位置に基づいて、当該基準マーカーを撮影したカメラの撮影方向を算出し、前記内視鏡の先端の向きと当該カメラの撮影方向との方向関係に基づいて、前記内視鏡の先端が向いている方向を求める、請求項19に記載のポンプ点検システム。
  21.  前記点検装置は、
     前記複数のカメラで撮影した前記ポンプの内部のカメラ画像を複数の画面にそれぞれ表示するマルチ表示部を備える、請求項18~請求項20のいずれか一項に記載のポンプ点検システム。
  22.  前記点検装置は、
     前記複数のカメラで撮影した前記ポンプの内部のカメラ画像を球面表示画像に変換する球面表示処理部と、
     前記球面表示画像を球面状の画面に表示する球面表示部と、
    を備える、請求項18~請求項20のいずれか一項に記載のポンプ点検システム。
  23.  前記点検装置は、
     前記複数のカメラで撮影した前記ポンプの内部のカメラ画像を立体表示画像に変換する立体表示処理部と、
     前記立体表示画像を立体表示画面に表示する立体表示部と、
    を備える、請求項18~請求項20のいずれか一項に記載のポンプ点検システム。
  24.  遠隔操縦式の水中ロボット制御システムであって、
     音波を発信可能であり且つ推進機構を有する水中ロボットと、
     前記水中ロボットが発信した音波を受信可能であり、前記音波を受信した受信時刻を送信可能であり且つ水面に浮かぶ三つ以上の通信ブイと、
     前記通信ブイそれぞれの位置を検出する位置検出手段と、
     前記通信ブイが送信した受信時刻を受信する通信部と、
     前記音波の発信時刻と各通信ブイが前記音波を受信した受信時刻との差、及び前記通信ブイそれぞれの位置を用いて、前記水中ロボットの位置を決定する位置決定部と、
     を備える水中ロボット制御システム。
  25.  前記位置決定部は、前記音波の発信時刻と前記通信ブイそれぞれが前記音波を受信した受信時刻との差を用いて、各通信ブイと水中ロボットとの間の距離を決定し、決定した距離と前記通信ブイそれぞれの位置に基づいて、前記水中ロボットの位置を決定する
     請求項24に記載の水中ロボット制御システム。
  26.  前記位置決定部は、
     前記水中ロボットを所定の距離だけ移動させて停止させ、
     停止後において、前記音波の発信時刻と各通信ブイが前記音波を受信した受信時刻との差、及び前記通信ブイそれぞれの位置を用いて、停止後の前記水中ロボットの位置を決定し、
     移動前と移動後の前記水中ロボットの位置を用いて、当該水中ロボットの方向を決定する
     請求項24または25に記載の水中ロボット制御システム。
  27.  前記水中ロボットは、水中で撮像可能であり、
     前記位置決定部は、前記水中ロボットの方向を用いて、前記水中ロボットを点検対象物に向けて方向転換させる
     請求項26に記載の水中ロボット制御システム。
  28.  前記位置検出手段は、前記通信ブイそれぞれに設けられ且つ当該通信ブイの位置を測定する測位部である
     請求項24から27のいずれか一項に記載の水中ロボット制御システム。
  29.  遠隔操縦式の水中ロボット制御システムであって、
     水中に配置された点検対象物を撮像可能であり且つ推進機構を有する水中ロボットと、
     超音波を発信可能であり当該超音波の反射波を捕捉可能なソナーを有し且つ水面に浮かぶ通信ブイと、
     前記通信ブイの位置を検出する位置検出手段と、
     前記ソナーによる観測結果と前記通信ブイの位置とを用いて、前記水中ロボットの位置を決定する位置決定部と、
     を備える水中ロボット制御システム。
  30.  前記水中ロボットの位置と、前記水中ロボットから点検対象物までの軌道上の位置との差を最小にするよう前記水中ロボットを制御する制御部を更に備える
     請求項29に記載の水中ロボット制御システム。
  31.  前記位置検出手段は、前記通信ブイそれぞれに設けられ且つ当該通信ブイの位置を測定する測位部である
     請求項29または30に記載の水中ロボット制御システム。
  32.  遠隔操縦式の水中ロボット制御システムであって、
     水中に配置された点検対象物を撮像可能であり且つ推進機構を有する水中ロボットと、
     水に浮く通信ブイと、
     を備え、
     前記通信ブイは、水に浮く浮遊部材と、音波を発信し前記水中ロボットから反射された音波を受信可能な音波発信器と、当該音波発信器が受信した音波を用いて画像データを生成するプロセッサと、生成された画像データを含む画像信号を送信する通信部と、を有する
     水中ロボット制御システム。
  33.  前記音波発信器は、複数の方向に音波を発信可能な合成開口ソナーである
     請求項32に記載の水中ロボット制御システム。
  34.  前記音波発信器は、一方向に音波を発信可能な合成開口ソナーであり、
     前記通信ブイは、前記合成開口ソナーを回転させる駆動部を備える
     請求項32に記載の水中ロボット制御システム。
  35.  前記音波発信器は、トランスデューサであり、
     前記通信ブイは、前記トランスデューサを上下に移動させる駆動部を備える
     請求項32に記載の水中ロボット制御システム。
  36.  前記音波発信器は、トランスデューサを略同一平面状に複数個並べたトランスデューサアレイである
     請求項32に記載の水中ロボット制御システム。
  37.  遠隔操縦式の水中ロボット制御システムであって、
     超音波により水中映像撮影して画像データを生成する音響カメラと、前記画像データを送信する通信部とを有し且つ推進機構を有する水中ロボットと、
     表示装置と、
     前記画像データを受信し当該画像データを前記表示装置に表示させるコントローラと、
     を備え、
     前記コントローラは、操縦者による操作に従って前記水中ロボットを移動させるよう前記水中ロボットを制御する
     水中ロボット制御システム。
  38.  遠隔操縦式の水中ロボット制御方法であって、
     水中ロボットが超音波により水中映像撮影して画像データを生成する工程と、
     前記水中ロボットが前記画像データを送信する工程と、
     コントローラが前記画像データを受信する工程と、
     前記コントローラが当該画像データを表示装置に表示させる工程と、
     前記コントローラは、操縦者による操作に従って前記水中ロボットを移動させるよう前記水中ロボットを制御する工程と、
     を有する水中ロボット制御方法。
  39.  遠隔操縦式の水中ロボット制御方法であって、
     コントローラが、操縦者による操作に従って、水中ロボットを水面上を移動させる工程と、
     水中ロボットが点検対象物の近傍に移動した場合、前記コントローラが、操縦者による操作に従って、水中ロボットを水中に潜行させる工程と、
     前記水中ロボットが水中において前記点検対象物の点検部位を撮像する工程と、
     前記水中ロボットが前記撮像して生成された画像データを前記コントローラに送信する工程と、
     前記コントローラは、前記画像データを表示装置に表示させる工程と、
     を有する水中ロボット制御方法。
PCT/JP2018/001706 2017-03-31 2018-01-22 工業用内視鏡、観察方法、観察装置、水中機械、ポンプ点検システム、水中ロボット制御システム及び水中ロボット制御方法 WO2018179705A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/499,198 US11391940B2 (en) 2017-03-31 2018-01-22 Industrial endoscope, observation method, observation device, underwater machine, pump inspection system, underwater robot control system, and underwater robot control method

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
JP2017070845A JP2018173513A (ja) 2017-03-31 2017-03-31 工業用内視鏡および観察方法
JP2017-070845 2017-03-31
JP2017073644A JP2018180020A (ja) 2017-04-03 2017-04-03 観察装置、水中機械および観察方法
JP2017-073644 2017-04-03
JP2017-112460 2017-06-07
JP2017112460A JP6869112B2 (ja) 2017-06-07 2017-06-07 ポンプ点検システム
JP2017-113959 2017-06-09
JP2017113959A JP7053170B2 (ja) 2017-06-09 2017-06-09 水中ロボット制御システム及び水中ロボット制御方法

Publications (1)

Publication Number Publication Date
WO2018179705A1 true WO2018179705A1 (ja) 2018-10-04

Family

ID=63674752

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/001706 WO2018179705A1 (ja) 2017-03-31 2018-01-22 工業用内視鏡、観察方法、観察装置、水中機械、ポンプ点検システム、水中ロボット制御システム及び水中ロボット制御方法

Country Status (2)

Country Link
US (1) US11391940B2 (ja)
WO (1) WO2018179705A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114906299B (zh) * 2022-05-24 2023-03-31 郑州大学 磁吸式水下作业机器人及凝汽器冷凝管多孔检测方法

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6294500A (ja) * 1985-10-21 1987-04-30 Ishikawajima Harima Heavy Ind Co Ltd 水中作業装置
US5168473A (en) * 1990-07-02 1992-12-01 Parra Jorge M Integrated passive acoustic and active marine aquatic apparatus and method
JPH0543115U (ja) * 1991-11-08 1993-06-11 三菱重工業株式会社 不透明液中の撮影装置
JPH10227847A (ja) * 1997-02-14 1998-08-25 Kaijo Corp 水中移動体の位置測定装置
JP2005058904A (ja) * 2003-08-12 2005-03-10 Kawasaki Kensetsu Kk 内視機能等を備えた方向制御可能な小径管内の洗浄装置
JP2008129439A (ja) * 2006-11-22 2008-06-05 Fujifilm Corp 複眼撮像装置
JP2009017241A (ja) * 2007-07-05 2009-01-22 Japan Radio Co Ltd Gps内蔵高機能ブイ
JP2009041503A (ja) * 2007-08-10 2009-02-26 Ebara Corp 立軸ポンプ及びポンプシステム並びにポンプ点検方法
JP2010038873A (ja) * 2008-08-08 2010-02-18 Ihi Corp 水柱観測装置及び水柱観測方法
JP2011059108A (ja) * 2009-09-11 2011-03-24 Qinghua Univ アクティブ・ソナーシステム
JP2011226873A (ja) * 2010-04-19 2011-11-10 Hitachi Ltd 水中音波撮像装置
JP2014170015A (ja) * 2014-06-23 2014-09-18 Penta Ocean Construction Co Ltd 水中検査システム
JP2014528794A (ja) * 2011-09-30 2014-10-30 ルフトハンザ・テッヒニク・アクチェンゲゼルシャフトLufthansa Technik Ag ガスタービンを検査するための内視鏡検査システムおよび対応する方法
JP2014233005A (ja) * 2013-05-29 2014-12-11 株式会社ニコン 画像表示装置
JP2015503258A (ja) * 2011-11-01 2015-01-29 コーニンクレッカ フィリップス エヌ ヴェ 突出ベース視差マッピング
JP2015230625A (ja) * 2014-06-05 2015-12-21 キヤノン株式会社 画像表示装置
JP2017508162A (ja) * 2014-03-14 2017-03-23 タレス 合成アンテナビームを形成するための合成アンテナソナーおよび方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2699713B1 (fr) 1992-12-17 1995-03-24 Hubert Thomas Procédé et dispositif de contrôle à distance d'un engin sous marin inhabité.
JP3429536B2 (ja) 1993-09-30 2003-07-22 オリンパス光学工業株式会社 内視鏡シース
JPH07198844A (ja) 1993-12-28 1995-08-01 Mitsubishi Precision Co Ltd 水中物体位置計測装置及び物体位置計測装置及び遠隔投下装置
JP2655535B2 (ja) 1994-08-23 1997-09-24 防衛庁技術研究本部長 水中航走体、計測装置並びに水中航走体の位置計測方法及び装置
JPH08248114A (ja) 1995-03-15 1996-09-27 Yokogawa Denshi Kiki Kk 水中航走体の測位方式
JPH09145821A (ja) 1995-11-20 1997-06-06 Akihide Sakitani 水中物体位置測定装置
JPH10111352A (ja) 1996-10-08 1998-04-28 Mitsubishi Heavy Ind Ltd 水中航走体誘導装置及び方法
JP4460857B2 (ja) * 2003-06-23 2010-05-12 オリンパス株式会社 外科手術用システム
JP4108629B2 (ja) 2004-03-08 2008-06-25 三井造船株式会社 水中ロボット操縦方法及び水中ロボット操縦システム
JP2005263092A (ja) 2004-03-19 2005-09-29 Mitsubishi Electric Corp 海洋情報収集ブイ及びこれを用いた海洋情報通信システム
JP2006078329A (ja) 2004-09-09 2006-03-23 Oki Electric Ind Co Ltd 水中航走体の位置計測システム及び、位置計測方法
JP2006189509A (ja) * 2004-12-28 2006-07-20 Goto Optical Mfg Co ドームスクリーン用ビデオ投映機
JP2006275827A (ja) 2005-03-30 2006-10-12 Hitachi Ltd 水中生体位置特定システム、音波発信機、水中聴音機、基地局および水中生体位置特定方法
JP2008202575A (ja) 2007-02-22 2008-09-04 Ebara Corp 立軸ポンプ
JP6242646B2 (ja) 2013-09-30 2017-12-06 株式会社東芝 配管内作業装置および作業方法
FI124658B (en) 2013-10-18 2014-11-28 Uwis Oy Underwater tracking system
JP6267492B2 (ja) 2013-11-15 2018-01-24 株式会社荏原製作所 立軸ポンプの点検装置および点検方法
JP6167317B2 (ja) 2015-07-16 2017-07-26 パナソニックIpマネジメント株式会社 水中用ロボット
US20170035268A1 (en) * 2015-08-07 2017-02-09 Ming Shi CO., LTD. Stereo display system and method for endoscope using shape-from-shading algorithm
JP5890572B1 (ja) 2015-09-18 2016-03-22 株式会社計測工業 水中用検査装置および方法

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6294500A (ja) * 1985-10-21 1987-04-30 Ishikawajima Harima Heavy Ind Co Ltd 水中作業装置
US5168473A (en) * 1990-07-02 1992-12-01 Parra Jorge M Integrated passive acoustic and active marine aquatic apparatus and method
JPH0543115U (ja) * 1991-11-08 1993-06-11 三菱重工業株式会社 不透明液中の撮影装置
JPH10227847A (ja) * 1997-02-14 1998-08-25 Kaijo Corp 水中移動体の位置測定装置
JP2005058904A (ja) * 2003-08-12 2005-03-10 Kawasaki Kensetsu Kk 内視機能等を備えた方向制御可能な小径管内の洗浄装置
JP2008129439A (ja) * 2006-11-22 2008-06-05 Fujifilm Corp 複眼撮像装置
JP2009017241A (ja) * 2007-07-05 2009-01-22 Japan Radio Co Ltd Gps内蔵高機能ブイ
JP2009041503A (ja) * 2007-08-10 2009-02-26 Ebara Corp 立軸ポンプ及びポンプシステム並びにポンプ点検方法
JP2010038873A (ja) * 2008-08-08 2010-02-18 Ihi Corp 水柱観測装置及び水柱観測方法
JP2011059108A (ja) * 2009-09-11 2011-03-24 Qinghua Univ アクティブ・ソナーシステム
JP2011226873A (ja) * 2010-04-19 2011-11-10 Hitachi Ltd 水中音波撮像装置
JP2014528794A (ja) * 2011-09-30 2014-10-30 ルフトハンザ・テッヒニク・アクチェンゲゼルシャフトLufthansa Technik Ag ガスタービンを検査するための内視鏡検査システムおよび対応する方法
JP2015503258A (ja) * 2011-11-01 2015-01-29 コーニンクレッカ フィリップス エヌ ヴェ 突出ベース視差マッピング
JP2014233005A (ja) * 2013-05-29 2014-12-11 株式会社ニコン 画像表示装置
JP2017508162A (ja) * 2014-03-14 2017-03-23 タレス 合成アンテナビームを形成するための合成アンテナソナーおよび方法
JP2015230625A (ja) * 2014-06-05 2015-12-21 キヤノン株式会社 画像表示装置
JP2014170015A (ja) * 2014-06-23 2014-09-18 Penta Ocean Construction Co Ltd 水中検査システム

Also Published As

Publication number Publication date
US20210109339A1 (en) 2021-04-15
US11391940B2 (en) 2022-07-19

Similar Documents

Publication Publication Date Title
US7496226B2 (en) Multi-camera inspection of underwater structures
AU2013333801B2 (en) Improvements in relation to underwater imaging for underwater surveys
Aulinas et al. Feature extraction for underwater visual SLAM
Weidner et al. Underwater cave mapping using stereo vision
KR20080093536A (ko) 선저 청소 및 검사용 수중로봇
CN101294917A (zh) 一种采用水下机器人对于输水道井内检测的方法
JP2007132769A (ja) 水中検査装置
CN110133667B (zh) 基于移动前视声呐的水下三维检测系统
CA2934164A1 (en) Improved ultrasound inspection
US20190300135A1 (en) Apparatus and Methods for Measuring Positions of Points on Submerged Surfaces
KR102181649B1 (ko) 3자 시점 카메라를 갖는 스마트 수중 드론 시스템
WO2018179705A1 (ja) 工業用内視鏡、観察方法、観察装置、水中機械、ポンプ点検システム、水中ロボット制御システム及び水中ロボット制御方法
CN116009559A (zh) 一种输水管道内壁巡检机器人及检测方法
CN108051444A (zh) 基于图像的水下管道检测装置及其检测方法
EP3519724A1 (en) Devices, products and methods for pipe imaging and inspection
JP2016151460A (ja) 水中探査解析方法
JP2018151964A (ja) 桟橋上部工下面の検査装置、桟橋上部工下面の検査システムおよび桟橋上部工下面の検査方法
US20200056890A1 (en) Mapping and tracking methods and systems principally for use in connection with swimming pools and spas
CN103744085B (zh) 水下机器人五分量测距声纳斜井三维成像系统及成像方法
CN107132524A (zh) 基于两台识别声呐的水下目标空间位置计算方法
CN108227744B (zh) 一种水下机器人定位导航系统及定位导航方法
JP7053170B2 (ja) 水中ロボット制御システム及び水中ロボット制御方法
AU2021307545A1 (en) System and method for geolocation of an object in water
KR20140112243A (ko) 지하매설배관 오염 조사장치
CN104569991A (zh) 矿井采空区三维空间声呐探测装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18776057

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18776057

Country of ref document: EP

Kind code of ref document: A1