WO2019181750A1 - Hapsを介した広域水中探査潜水ロボットによるリアルタイム水中探査 - Google Patents

Hapsを介した広域水中探査潜水ロボットによるリアルタイム水中探査 Download PDF

Info

Publication number
WO2019181750A1
WO2019181750A1 PCT/JP2019/010667 JP2019010667W WO2019181750A1 WO 2019181750 A1 WO2019181750 A1 WO 2019181750A1 JP 2019010667 W JP2019010667 W JP 2019010667W WO 2019181750 A1 WO2019181750 A1 WO 2019181750A1
Authority
WO
WIPO (PCT)
Prior art keywords
underwater
information
unit
buoy
exploration
Prior art date
Application number
PCT/JP2019/010667
Other languages
English (en)
French (fr)
Inventor
進 米田
Original Assignee
Hapsモバイル株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hapsモバイル株式会社 filed Critical Hapsモバイル株式会社
Publication of WO2019181750A1 publication Critical patent/WO2019181750A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63BSHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING 
    • B63B22/00Buoys
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63CLAUNCHING, HAULING-OUT, OR DRY-DOCKING OF VESSELS; LIFE-SAVING IN WATER; EQUIPMENT FOR DWELLING OR WORKING UNDER WATER; MEANS FOR SALVAGING OR SEARCHING FOR UNDERWATER OBJECTS
    • B63C11/00Equipment for dwelling or working underwater; Means for searching for underwater objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63CLAUNCHING, HAULING-OUT, OR DRY-DOCKING OF VESSELS; LIFE-SAVING IN WATER; EQUIPMENT FOR DWELLING OR WORKING UNDER WATER; MEANS FOR SALVAGING OR SEARCHING FOR UNDERWATER OBJECTS
    • B63C11/00Equipment for dwelling or working underwater; Means for searching for underwater objects
    • B63C11/48Means for searching for underwater objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B7/00Radio transmission systems, i.e. using radiation field
    • H04B7/14Relay systems
    • H04B7/15Active relay systems
    • H04B7/185Space-based or airborne stations; Stations for satellite systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to a technique for exploring underwater fish schools such as the sea.
  • the conventional system has a problem that underwater exploration over a wide area such as the sea cannot be performed accurately in real time.
  • a system is a system that performs underwater exploration, and includes a plurality of wired communication units that communicate via an underwater cable, and wireless communication units that wirelessly communicate with an over-the-air wireless relay device Wired communication that is connected to each of the buoys and the plurality of buoys via the underwater cable, and communicates via the underwater cable with a drive unit for diving and moving underwater by autonomous control or external control.
  • a plurality of underwater mobile units having an information acquisition unit for acquiring underwater information, an over-the-air wireless relay device capable of wireless communication with the plurality of buoys, and the underwater acquired by the plurality of underwater mobile units
  • An information processing device that performs underwater exploration information processing based on the information.
  • the information acquisition unit of the underwater moving body may include an imaging unit that captures underwater using light, sound waves, ultrasonic waves, or radio waves, and the underwater information may include underwater image information.
  • the buoy further includes an information acquisition unit that acquires peripheral information around the buoy, and the information processing apparatus includes the plurality of underwater information acquired by the plurality of underwater moving bodies. Underwater exploration information processing may be performed based on peripheral information acquired by the plurality of buoys.
  • the information acquisition unit of the buoy may include an imaging unit that images the periphery of the buoy, and the peripheral information may include image information of the periphery of the buoy.
  • the surrounding information may include at least one of position information of the buoy and position information of the underwater moving body.
  • the underwater exploration target may be at least one of a group of underwater fish, an organism, a living reef, a treasure, a lost property, a victim, a submarine volcano, a ruin, a resource, an environment, and landform.
  • the information processing apparatus includes a database in which relationships between a plurality of types of underwater exploration target candidates that may be explored underwater and the underwater information are stored, Underwater exploration information processing may be performed based on the acquired underwater information and the database, and an identification result of the underwater exploration target may be obtained based on the information processing result.
  • the information processing apparatus may update the database based on underwater information acquired by the underwater moving body and an identification result of the underwater exploration target. Further, in the system, the information processing apparatus transmits the result of the underwater exploration to a ship or a flying body located near the target found by the underwater exploration or the underwater moving body located near the target. May be. In the system, the information processing apparatus may generate control information for controlling the underwater moving body based on the result of the underwater exploration, and transmit the control information to the underwater moving body.
  • the information processing device may be a server provided on the ground, a ship, or a flying body, or may be an edge computer provided in the underwater moving body, the buoy, or the wireless relay device. May be.
  • the underwater moving body may include a battery
  • the buoy may include a power generation device
  • the battery may be charged by supplying power to the underwater moving body via the underwater cable.
  • the buoy's power generator may be a wave power generator that generates power using wave energy.
  • underwater exploration over a wide area such as the sea can be performed with high accuracy.
  • FIG. 1 is a schematic configuration diagram showing an example of the overall configuration of a wide-area underwater exploration system via HAPS according to an embodiment of the present invention.
  • Drawing 2 is a perspective view showing an example of HAPS which can be used for a wide area underwater exploration system concerning an embodiment.
  • FIG. 3 is a block diagram illustrating an example of components of basic functions of the HAPS according to the embodiment.
  • FIG. 4 is a block diagram illustrating an example of components of basic functions of a buoy that constitutes the underwater exploration unit in the wide-area underwater exploration system according to the embodiment.
  • FIG. 5 is a block diagram illustrating an example of components of basic functions of the submersible robot constituting the underwater exploration unit according to the embodiment.
  • FIG. 6 is a block diagram illustrating an example of components of basic functions of the server in the wide-area underwater exploration system according to the embodiment.
  • FIG. 7 is a block diagram illustrating an example of basic functional components of the remote control device in the wide-area underwater exploration system according to the embodiment.
  • FIG. 8 is a sequence diagram illustrating an example of underwater exploration and position control of a submersible robot in the wide-area underwater exploration system according to the embodiment.
  • FIG. 9 is a flowchart illustrating an example of underwater exploration and position control of a submersible robot in the wide-area underwater exploration system according to the embodiment.
  • FIG. 10 is an explanatory diagram illustrating an example of position control of the underwater exploration unit according to the embodiment.
  • FIG. 11 is an explanatory diagram illustrating another example of position control of the underwater exploration unit according to the embodiment.
  • FIG. 12 is an explanatory diagram illustrating still another example of the position control of the underwater exploration unit according to the embodiment.
  • FIG. 1 is a schematic configuration diagram showing an example of the overall configuration of a wide-area underwater exploration system according to an embodiment of the present invention.
  • the wide-area underwater exploration system of the embodiment uses ICT (information and communication technology) and AI (artificial intelligence) technology, underwater fish school 91 such as the sea, organisms, biological reefs, lost items, victims, submarine volcanoes, ruins It is a system for exploring resources, the environment, and topography, and can be applied as a smart fishery system that searches for fish 91 in the ocean in the ocean, and monitors and observes cultured fish.
  • ICT information and communication technology
  • AI artificial intelligence
  • a wide-area underwater exploration system includes a HAPS (“high-altitude platform station” or “high-altitude pseudo-satellite”) 10 serving as a plurality of over-the-air wireless relay devices, and a sea level 90 s of a wide-area sea 90. And a plurality of underwater exploration units (underwater exploration units) 30 that are distributed and can communicate with each other via the HAPS 10.
  • the wide-area underwater exploration system via the HAPS 10 according to the present embodiment is the fifth generation or the fifth generation and subsequent ones corresponding to simultaneous connection, large-capacity transmission, low-delay transmission, etc. of a large number of underwater exploration units (terminal devices) 30. Suitable for the realization of a three-dimensional network for next generation mobile communications.
  • this embodiment demonstrates the example which arrange
  • the HAPS 10 is located in an airspace at a predetermined altitude and forms a 3D cell (3D area) in a cell formation target airspace at a predetermined altitude.
  • the HAPS 10 is a floating body or flying body that is controlled to float or fly in a high altitude air space (floating air space) of 100 [km] or less from the sea surface 90s of the wide area sea 90 by autonomous control or external control. (For example, a solar plane, an airship) is equipped with a radio relay station.
  • the airspace where the HAPS 10 is located is, for example, a stratospheric airspace whose altitude is 11 [km] or more and 50 [km] or less. This airspace may be an airspace with an altitude of 15 [km] or more and 25 [km] or less, in which the weather conditions are relatively stable, and particularly an airspace with an altitude of approximately 20 [km].
  • Each of the wireless relay stations of the HAPS 10 forms a beam for wireless communication with a terminal device that is a mobile station toward the sea surface 90s.
  • the terminal device in the present embodiment is incorporated in the buoy 310 of each underwater exploration unit 30.
  • the terminal device may be a communication terminal module incorporated in a drone that is an aircraft such as a remotely controlled helicopter that flies over the sea, or a communication terminal such as a user device that is used in an airplane flying over the sea. It may be.
  • Each of the wireless relay stations of the HAPS 10 is, for example, a base station that wirelessly communicates with a gateway (GW) station (also referred to as a “feeder station”) 70 as a relay station connected to the core network of the mobile communication network 80 on the ground 95.
  • GW gateway
  • it is a repeater slave that communicates wirelessly with a feeder station (repeater master) 70 as a relay station connected to a base station on the ground 95.
  • Each wireless relay station of the HAPS 10 is connected to the core network of the mobile communication network 80 via a GW station 70 installed on the ground 95, for example. Communication between the HAPS 10 and the GW station 70 may be performed by wireless communication using radio waves such as microwaves, or may be performed by optical communication using laser light or the like.
  • the HAPS 10 may autonomously control its own floating movement (flight), wireless relay processing, and the like by a control unit configured by a computer or the like incorporated therein executing a control program.
  • the HAPS 10 acquires its own current position information (for example, GPS position information), previously stored position control information (for example, flight schedule information), position information of other HAPSs located in the vicinity, and the like. Based on the above, levitation movement (flight), wireless relay processing, and the like may be autonomously controlled.
  • each HAPS 10 may be controlled by a management device or a remote control device provided in a communication center of the mobile communication network 80 or the like.
  • FIG. 2 is a perspective view showing an example of the HAPS 10 that can be used in the wide-area underwater exploration system of the embodiment.
  • HAPS 10 is a solar plane type HAPS, which has a main wing portion 101 whose both ends in the longitudinal direction run upward, and one end edge in the short direction of the main wing portion 101 as a propulsion device for a bus power system. And a plurality of motor-driven propellers 103.
  • a solar power generation panel (hereinafter referred to as “solar panel”) 102 as a solar power generation unit having a solar power generation function is provided on the upper surface of the main wing part 101.
  • a plurality of pods 105 serving as device storage units in which the mission devices are stored are connected to two locations in the longitudinal direction of the lower surface of the main wing unit 101 via plate-like connection units 104.
  • Each pod 105 accommodates a radio relay station 110 as a mission device and a battery 106.
  • wheels 107 used at the time of taking off and landing are provided on the lower surface side of each pod 105.
  • the electric power generated by the solar panel 102 is stored in the battery 106, the electric power supplied from the battery 106 drives the motor of the propeller 103 to rotate, and the wireless relay station 110 performs wireless relay processing.
  • the HAPS 10 includes a three-dimensional directional antenna device 130 as a communication unit used for communication with other HAPSs and artificial satellites.
  • the antenna device 130 is disposed at both ends in the longitudinal direction of the main wing portion 101, but the antenna device 130 may be disposed at another location of the HAPS 10.
  • the communication used for communication with other HAPS and satellites may be optical communication or wireless communication by other methods such as wireless communication using radio waves such as microwaves.
  • FIG. 3 is a block diagram illustrating an example of basic functional components of the HAPS 10 according to the embodiment.
  • the wireless relay station of the HAPS 10 includes a feeder link communication unit 11 that wirelessly communicates with the GW station 70 and the like via the antenna 11a, and a service link that wirelessly communicates with the underwater exploration unit (terminal device) 30 via the antenna 12a.
  • the inter-HAPS communication unit 15 can also be used for communication with an artificial satellite.
  • the HAPS 10 further includes a control unit 14 that controls each unit, a flight drive unit including a motor-driven propeller 103 and the like, and a power source unit 17 including a solar panel 102 and a battery 106 and the like.
  • the HAPS 10 may include an imaging unit 18 such as a camera that images the buoys 310 of the plurality of underwater exploration units 30 located on the sea surface.
  • the overhead images of the plurality of buoys 310 photographed by the imaging unit 18 can be used for position control between the buoys 310.
  • the solar plane type HAPS 10 is levitated by lift by, for example, performing a circular flight based on a predetermined target flight route, performing a “D” flight, or performing an “8” flight, It is possible to levitate so as to stay in a predetermined range in the horizontal direction at a predetermined altitude.
  • the solar plane type HAPS 10 can fly like a glider when the propeller 103 is not driven to rotate. For example, when the power of the battery 106 is surplus due to the power generation of the solar panel 102 at daytime or the like, the battery 106 rises to a high position, and when the solar panel 102 cannot generate power at night or the like, the power supply from the battery 106 to the motor is stopped and the glider is stopped. Can fly like.
  • the HAPS that can be used in the wide-area underwater exploration system of the present embodiment may be an unmanned airship type HAPS that has a large payload and can be mounted with a large-capacity battery.
  • This type of HAPS includes an airship body filled with a gas such as helium gas for buoyancy, a motor-driven propeller as a propulsion device for a bus power system, and a device housing portion for housing mission devices.
  • a gas such as helium gas for buoyancy
  • a motor-driven propeller as a propulsion device for a bus power system
  • a device housing portion for housing mission devices.
  • a solar panel having a solar power generation function may be provided on the upper surface of the airship body, and the power generated by the solar panel may be stored in a battery.
  • the unmanned airship type HAPS may also include a three-dimensional directivity antenna device as a communication unit used for communication with other HAPS or satellites.
  • the plurality of HAPSs 10 of the embodiment are configured to be able to perform inter-HAPS communication by optical communication or the like in the sky, and are capable of stably realizing a three-dimensional network over a wide area and having excellent robustness May be formed.
  • This wireless communication network can also function as an ad hoc network by dynamic routing according to various environments and various information.
  • the wireless communication network between the HAPSs 10 can be formed to have various two-dimensional or three-dimensional topologies, and may be, for example, a mesh-type wireless communication network.
  • communication between the HAPS 10 and the core network of the mobile communication network 80 may be performed via the GW station 70 and a low-orbit satellite.
  • communication between the artificial satellite and the GW station 70 may be performed by wireless communication using radio waves such as microwaves, or may be performed by optical communication using laser light or the like.
  • the HAPS 10 of the embodiment may include an edge computer as an information processing apparatus that performs various types of information processing.
  • the edge computer is composed of, for example, a small computer, and by executing a pre-installed program, information processing of underwater exploration based on information acquired by the underwater exploration unit 30, position control of the underwater exploration unit 30, and HAPS 10
  • Various types of information processing related to wireless relaying in the wireless relay station 110 may be executed.
  • the uplink and downlink duplex schemes for wireless communication with the underwater exploration unit 30 (terminal device) via the radio relay station 110 are not limited to specific schemes.
  • time division duplex Time Division Duplex: (TDD) method or Frequency Division Duplex (FDD) method may be used.
  • the access method for wireless communication with the terminal device via the wireless relay station 110 is not limited to a specific method, for example, FDMA (Frequency Division Multiple Access) method, TDMA (Time Division Multiple Access) method, CDMA ( It may be a Code Division Multiple Access (OFDM) system or OFDMA (Orthogonal Frequency Division Multiple Access).
  • OFDM Code Division Multiple Access
  • OFDMA Orthogonal Frequency Division Multiple Access
  • the wireless communication has functions such as diversity coding, transmission beamforming, and spatial division multiplexing (SDM), and by using a plurality of antennas simultaneously for both transmission and reception, MIMO (multi-input and multi-output) technology capable of increasing the transmission capacity of the network may be used.
  • MIMO multi-input and multi-output
  • the MIMO technique may be a SU-MIMO (Single-User MIMO) technique in which one base station transmits a plurality of signals at the same time and the same frequency as one terminal device.
  • MU-MIMO (Multi-User MIMO) technology may be used in which signals are transmitted to different terminal devices at the same time and the same frequency, or a plurality of different base stations transmit signals to one terminal device at the same time and the same frequency.
  • the wireless relay device that wirelessly communicates with the underwater exploration unit 30 is a solar plane type HAPS 10 having the wireless relay station 110 will be described.
  • the following embodiments include the wireless relay station 210.
  • the present invention can be similarly applied to other wireless relay devices that can move over the unmanned airship type HAPS.
  • the plurality of underwater exploration units 30 capable of performing wireless communication via the HAPS 10 are respectively a buoy 310 as a floating device arranged in a state of floating on the sea surface 90s, and a buoy 310 underwater.
  • an unmanned submersible robot (hereinafter referred to as “submersible robot”) 330 as an underwater moving body connected via a cable 320.
  • An antenna 311 for wireless communication with the HAPS 10 is provided at the upper end of the buoy 310, and an underwater cable 320 including a communication line for communicating with the underwater side is connected to the lower end of the buoy 310.
  • FIG. 4 is a block diagram illustrating an example of components of basic functions of the buoy 310 constituting the underwater exploration unit 30 in the wide area underwater exploration system according to the embodiment.
  • the buoy 310 includes a wired communication unit 312 that communicates with the submersible robot 330 via the signal line 321 of the underwater cable 320, a wireless communication unit 313 that communicates wirelessly with the HAPS 10, and a control unit 314.
  • the control unit 314 controls each unit in the buoy 310, processes information / data acquired by each unit, and processes information / data transmitted to the outside.
  • the buoy 310 further includes a GPS receiver 315 and a power generation device 316.
  • the GPS receiving unit 315 receives radio signals from a plurality of GPS satellites and acquires position information of the current position of the buoy 310 (for example, latitude and longitude where the buoy 310 is located).
  • the power generation device 316 is, for example, a wave power generation device that generates power using wave energy (for example, energy of wave vertical movement).
  • the power generation device 316 may include a solar power generation panel that generates power by receiving sunlight, or a battery.
  • the electric power generated by the power generation device 316 is supplied to the diving robot 330 via the power line 322 of the underwater cable 320.
  • the buoy 310 may include at least one of the imaging unit 317, the sensor 318, and the light projecting device 319.
  • the imaging unit 317 can capture an image of the sea and the sky around the buoy 310 and an object located in the vicinity (for example, a ship invading the territorial sea).
  • the sensor 318 may include, for example, peripheral information around the buoy (for example, weather information such as temperature, atmospheric pressure, wind direction, and wind speed, environmental information such as current direction and speed, wave height and period), At least one of a relative movement direction (azimuth) and speed, a direction of the underwater cable 320 extending underwater from the buoy 310 (an angle and an orientation of the underwater cable 320 with respect to the sea surface), and a shooting direction (azimuth) by the imaging unit 317 are measured. It is a sensor. From the direction and length of the underwater cable 320, the position of the submersible robot 330 towing the buoy 310 (relative position with respect to the buoy 310) is known.
  • the sensor 318 may be configured by combining a plurality of types of sensors.
  • the light projecting device 319 illuminates the surroundings of the buoy 10 when photographing the surroundings at night or the like by the imaging unit 317, or emits light so that the buoy 310 can be easily recognized from the HAPS 10 or a surrounding ship. .
  • the buoy 310 is connected via the HAPS 10 to a server 61 and a remote control device 62 provided in a marine vessel (for example, a mother vessel of the underwater exploration unit 30) 60, a server 85 as an information processing device arranged on the ground 95, and a remote It is possible to communicate with the control device 86 and the like. Further, when an information processing apparatus such as an edge computer is incorporated in the HAPS 10, the buoy 310 can communicate with the information processing apparatus in the HAPS 10.
  • FIG. 5 is a block diagram illustrating an example of components of basic functions of the submersible robot 330 configuring the underwater exploration unit 30 according to the embodiment.
  • a diving robot 330 is connected to a buoy 310 via an underwater cable 320, and a submersible cable includes a drive unit 331 for diving underwater and moving in an arbitrary direction by autonomous control or external control.
  • a wired communication unit 332 and a control unit 333 communicating with each other.
  • the control unit 333 controls each unit in the submersible robot 330, processes information / data acquired by each unit, and processes information / data transmitted to the outside.
  • the driving unit 331 is composed of, for example, a single or a plurality of thrusters including a propeller and a motor that drives the propeller.
  • Power for driving the drive unit 331 is supplied from the buoy 310 via the power line 322 of the underwater cable 320 and the power supply unit 334.
  • the power is supplied from the battery 335 via the power supply unit 334.
  • the battery 335 can also be charged using the power received from the power supply unit 334.
  • the submersible robot 330 includes an information acquisition unit 336 that acquires various types of underwater information.
  • the information acquisition unit 336 is an imaging unit 3361 that captures an underwater image as underwater information using, for example, light, sound waves, ultrasonic waves, or radio waves.
  • the imaging unit 3361 has a view of the surroundings of the diving robot 330 and the seabed (for example, submarine volcano, ruins, topography) and surrounding objects (for example, biological reefs such as school of fish, reefs, lost items, victims, invading territorial waters). Image of a submarine).
  • the light projecting device 337 may be provided so that the image can be captured even if the area to be captured is dark.
  • the information acquisition unit 336 may include a sonar 3362 such as a fish finder, a sensor 3363, and the like.
  • the sensor 3363 includes, for example, peripheral information around the dive robot 330 (for example, environmental information such as water depth, water temperature, water pressure, water flow direction and speed), a moving direction (azimuth) and speed of the dive robot 330 itself, a dive robot 330. It is a sensor that measures at least one of the direction of the underwater cable 320 (angle and direction of the underwater cable 320) extending from the camera to the buoy 310 and the shooting direction (direction) of the imaging unit 3361.
  • the sensor 3363 may be configured by combining a plurality of types of sensors.
  • the underwater information acquired by the information acquisition unit 336 is transmitted to the buoy 310 on the sea surface via the underwater cable 320, and the land server 85 and the remote control device 86 and the server 61 in the ship 60 are further transmitted from the buoy 310 via the HAPS 10. And can be transmitted to the remote control device 62.
  • FIG. 6 is a block diagram illustrating an example of basic functional components of the server 85 in the wide-area underwater exploration system according to the embodiment.
  • the server 61 of the ship 60 can also be comprised similarly to the server 85 of FIG.
  • the server may be provided in an airplane flying on the ocean.
  • the server 85 includes, for example, a single or a plurality of computer devices, and includes a communication unit 851, a database unit 852, a data processing unit 853, and a control unit 854 that controls each unit.
  • the communication unit 851 communicates with the buoys 310 of the plurality of underwater exploration units 30 distributed over the sea surface via the mobile communication network 80, the GW station 70, and the HAPS 10.
  • the database unit 852 stores information and data indicating the relationship between a plurality of types of underwater exploration candidates that may be explored underwater and underwater information.
  • Many data sets are stored in which camera, sonar, fish finder, etc, Date / time, water depth, water temperature, ocean name, buoy position information (latitude, longitude) and the like are associated with each other.
  • the data processing unit 853 When the underwater information acquired by the submersible robot 330 of the underwater exploration unit 30 is received, the data processing unit 853, based on the acquired information such as the received image and the information / data stored in the database unit 852, Underwater exploration information processing (image recognition) for identifying an underwater exploration target (for example, a school of fish of a specific fish) included in an image is performed.
  • image recognition image recognition
  • AI artificial intelligence
  • Various AI (artificial intelligence) engines may be used for this underwater exploration information processing.
  • the server 85 updates the database unit 852 to add the data set based on the underwater information acquired by the submersible robot 330 and the identification result of the target of the underwater exploration in order to improve the accuracy of the underwater exploration.
  • a learning process may be executed.
  • FIG. 7 is a block diagram showing an example of basic functional components of the remote control device 86 in the wide-area underwater exploration system according to the embodiment.
  • the remote control device 62 of the ship 60 can also be configured in the same manner as the remote control device 86 of FIG. Further, the remote control device may be provided in an airplane flying on the ocean.
  • the remote control device 86 is configured by, for example, a single or a plurality of computer devices, and includes a communication unit 861, a database unit 862, a control information generation unit 863, and a control unit 864 that controls each unit.
  • the communication unit 861 communicates with the buoys 310 of the plurality of underwater exploration units 30 distributed over the sea surface via the mobile communication network 80, the GW station 70, and the HAPS 10.
  • the database unit 862 stores information and data of a plurality of underwater exploration units 30 to be managed.
  • the database unit 862 includes identification information of each of the plurality of underwater exploration units 30, current and past position information (latitude, longitude) and surrounding information of the underwater exploration unit 30, exploration targets currently being explored or explored in the past, Information and data such as underwater information and weather information used for the exploration are accumulated.
  • the control information generation unit 863 When receiving the acquisition information acquired by the buoy 310 of the underwater exploration unit 30 and the submersible robot 330, the control information generation unit 863 acquires the acquired information such as an image and the information / data stored in the database unit 862. Information processing for generating control information for controlling the movement of the submersible robot 330 of the underwater exploration unit 30 is performed. Various AI (artificial intelligence) engines may be used for information processing for generating the control information.
  • the remote control device 86 increases the accuracy of control of the underwater exploration unit 30, the acquired information obtained by the buoy 310 of each underwater exploration unit 30 and the submersible robot 330, and the actually performed underwater exploration unit 30. You may perform the learning process which updates the database part 862 so that control information may be added.
  • the server 85 in FIG. 6 and the remote control device 86 in FIG. 7 may be integrally configured as a single device, and the server 61 and the remote control device 62 in the ship 60 are similarly integrated as a single device. You may comprise.
  • FIG. 8 is a sequence diagram illustrating an example of underwater exploration and position control of a submersible robot in the wide-area underwater exploration system according to the embodiment.
  • the submersible robot 330 of the underwater exploration unit 30 acquires underwater information such as an image (S101)
  • the acquired information is transmitted to the server 85 and the remote control device 86 via the buoy 310, the HAPS 10, and the GW station 70.
  • S102 to S105, S105 ′ When information is acquired by the buoy 310 and the HAPS 10 (S101 ′, S101 ′′), the acquired information is also transmitted to the server 85 and the remote control device 86.
  • the server 85 receives acquisition information (underwater information) such as an image from the submersible robot 330 of the underwater exploration unit 30, the underwater exploration information processing for identifying an underwater exploration target (for example, a school of specific fish) using AI. (Image recognition) is performed, and an identification result of an underwater exploration target is obtained based on the result of the information processing (S106). Whether the identification result of the underwater exploration target is approaching one or a plurality of target candidates identified from among a plurality of types of underwater exploration target candidates registered in the database unit 852, for example. Or a determination result of whether or not any of a plurality of types of candidates for underwater exploration exists. And the learning process which adds and updates the received underwater information and the identification result of the object of underwater exploration to the database part 852 is performed (S107).
  • acquisition information underwater information
  • AI image recognition
  • the underwater exploration result obtained by the server 85 is transmitted to a predetermined information distribution destination (for example, if the exploration target is a fish school, the fishing boat near the position where the fish school has been explored). (S108) and transmitted to the remote control device 86 (S109).
  • a predetermined information distribution destination for example, if the exploration target is a fish school, the fishing boat near the position where the fish school has been explored.
  • the remote control device 86 generates control information for controlling the position of the submersible robot 330 of each underwater exploration unit 30 based on the underwater exploration result received from the server 85 and the position information of each underwater exploration unit 30. (S110).
  • the generation of the control information may use AI as described above, or may execute update processing (learning processing) of the database unit 862 that adds the acquisition information and control information of the underwater exploration unit 30.
  • the control information generated by the remote control device 86 is transmitted to the diving robot 330 via the GW station 70, the HAPS 10 and the buoy 310 of the underwater exploration unit 30 (S111 to S114). Based on the control information received from the remote control device 86, the submersible robot 330 drives and controls the buoy 310 so as to move to a predetermined position (S115).
  • FIG. 9 is a flowchart showing an example of underwater exploration and submersible robot position control in the wide-area underwater exploration system according to the embodiment.
  • FIG. 11 and FIG. 12 are explanatory diagrams showing examples of position control of the underwater exploration unit according to the embodiment.
  • the remote control device 86 of the wide-area underwater exploration system executes a wide-area exploration mode for exploring a specific target over a wide area of the ocean by the control process using the AI.
  • the underwater exploration units 30 are controlled to be distributed (S201).
  • the position of the submersible robot 330 is controlled so that the minimum distance between adjacent buoys 310 is a predetermined distance (for example, X km) or more.
  • the distance between two buoys 310 (3) and 310 (4) out of the six buoys 310 (1) to 310 (6) located in the management area 100 in the distributed arrangement is less than a predetermined Xkm. Therefore, the position of the submersible robot 330 towing the buoy 310 (3) is controlled so as to be separated from the buoy 310 (4) by X km or more.
  • buoys 310 (1) to 310 (6) are gathered near the center of the distributed management area 100 as in the example of FIG. 11, another buoy 310 (1) is connected to the center buoy 310 (1).
  • the submersible robots of buoys 310 (2) to 310 (6) are controlled so that each of 310 (2) to 310 (6) is radially separated by X km or more.
  • the server 85 collects acquisition information from the plurality of underwater exploration units 30 in the distributed arrangement (S202), and based on the acquisition information and database of each underwater exploration unit 30 (for example, a target object)
  • An exploration process (AI recognition process) is executed for a fish school, a treasure, etc. (S203), and an AI learning process for updating the database when the target is found is executed (S204).
  • the remote control device 86 of the wide-area underwater exploration system collects the surrounding underwater exploration units 30 near the underwater exploration unit 30 that has discovered the object by the control process using the AI, and selects the object.
  • a concentrated search mode for searching in detail is executed (S205).
  • a submersible robot 330 of one underwater exploration unit 30 discovers a target object (for example, a fish school, a treasure, etc.), and a buoy connected to the submersible robot 330 (hereinafter referred to as “discovery buoy”). .) 310 (6) is specified, the remote control device 86 controls to move the buoy as in the following A to E.
  • A. Based on the acquired information from the discovery buoy 310 (6), the movement of the discovered object is grasped using AI image recognition technology.
  • Control is performed so that the neighboring buoys 310 (1) and 310 (5) located near the discovery buoy 310 (6) are brought closer to the discovery buoy 310 (6).
  • the neighborhood buoys 310 (1) and 310 (5) detect the target object, the neighborhood buoys 310 (1) and 310 (5) are also set as discovery buoys thereafter.
  • the server 85 collects acquired information from the underwater exploration units 30 arranged in the vicinity of the discovered object (S206), and analyzes the discovered object in detail. Then, a centralized search process for centrally detecting and monitoring is performed, and AI learning for updating the database is executed based on the result (S207).
  • a plurality of underwater exploration units 30 are arranged over a wide area of the ocean, and the acquired information acquired by the plurality of underwater exploration units 30 is transmitted to the servers 85 and 61 on the ground and ships (mother ships). Can be collected and processed. As a result, it is possible to accurately search for target targets on the sea, in the sea, and on the sea floor in a wide area of the ocean while on the ground or in a ship.
  • acquisition information from the underwater exploration unit 30 can be collected via wireless communication via the HAPS 10 capable of large-capacity transmission, image data having a relatively large data size can be collected. The accuracy of exploration can be increased.
  • the buoy 310 of the underwater exploration unit 30 can be towed by the submersible robot 330 whose position is controlled by the remote control devices 86 and 62 of the ground or ship (mother ship). Exploration can be performed at low cost in a short time.
  • the underwater exploration unit 30 can be accurately controlled based on image data acquired via the HAPS 10 capable of large-capacity transmission, and wireless communication via the HAPS 10 enables low-delay data transmission. Real-time control of the underwater exploration unit 30 in a wide area is possible.
  • the buoy 310 of the underwater exploration unit 30 includes a power generation device such as a wave power generation device, and powers the submersible robot 330 connected to the buoy 310 or charges the battery of the submersible robot 330. Therefore, the exploration over a wide area of the ocean and the control of the underwater exploration unit 30 used therefor can be performed over a long period of time (for example, 24 hours, 365 days).
  • a power generation device such as a wave power generation device
  • the components of the machine can be implemented by various means. For example, these steps and components may be implemented in hardware, firmware, software, or a combination thereof.
  • control and processing in a wireless device such as a base station according to the present embodiment is executed by reading a predetermined program into hardware described later, or executing a predetermined program incorporated in hardware described later. This is realized.
  • means such as a processing unit used to realize the above steps and components in an entity Is one or more application specific ICs (ASICs), digital signal processors (DSPs), digital signal processors (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs) , Processor, controller, microcontroller, microprocessor, electronic device, other electronic unit designed to perform the functions described herein, a computer, or a combination thereof .
  • ASICs application specific ICs
  • DSPs digital signal processors
  • DSPDs digital signal processors
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • firmware and / or software implementation means such as processing units used to implement the above components may be programs (eg, procedures, functions, modules, instructions) that perform the functions described herein. , Etc.).
  • any computer / processor readable medium that specifically embodies firmware and / or software code is means such as a processing unit used to implement the steps and components described herein. May be used to implement
  • the firmware and / or software code may be stored in a memory, for example, in a control device, and executed by a computer or processor.
  • the memory may be implemented inside the computer or processor, or may be implemented outside the processor.
  • the firmware and / or software code may be, for example, random access memory (RAM), read only memory (ROM), nonvolatile random access memory (NVRAM), programmable read only memory (PROM), electrically erasable PROM (EEPROM) ), FLASH memory, floppy disk, compact disk (CD), digital versatile disk (DVD), magnetic or optical data storage, etc. Good.
  • the code may be executed by one or more computers or processors, and may cause the computers or processors to perform the functional aspects described herein.
  • the medium may be a non-temporary recording medium.
  • the code of the program may be read and executed by a computer, a processor, another device or an apparatus machine, and the format is not limited to a specific format.
  • the code of the program may be any of source code, object code, and binary code, or two or more of these codes may be mixed.
  • Buoy 11 Feeder link communication unit 11a: Antenna 12: Service link communication unit 12a: Antenna 13: Frequency conversion unit 14: Control unit 17: Power supply unit 18: Imaging unit 30: Underwater exploration unit 60: Ship 61: Server 62 : Remote control device 70: GW station 80: Mobile communication network 85: Server 86: Remote control device 90: Sea 90 s: Sea surface 91: Fish school 95: Ground 110: Wireless relay station 310: Buoy 311: Antenna 312: Wired communication unit 313 : Wireless communication unit 314: control unit 315: GPS reception unit 316: power generation device 317: imaging unit 318: sensor 319: floodlight device 320: underwater cable 321: signal line 322: power line 330: submersible robot 331: drive unit 332: Wired communication unit 333: control unit 334: power supply unit 335: battery 336: information acquisition unit 337: projector 851: Communication unit 852: database 853: Data processing unit 854: control unit 861:

Landscapes

  • Engineering & Computer Science (AREA)
  • Ocean & Marine Engineering (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Combustion & Propulsion (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Astronomy & Astrophysics (AREA)
  • Acoustics & Sound (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Radio Relay Systems (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

海などの広域にわたる水中探査を精度よく行うことができるシステムを提供する。システムは、複数のブイと、複数の水中移動体と、複数のブイと無線通信可能な上空滞在型の無線中継装置と、情報処理装置とを備える。ブイは、水中ケーブルを介して通信する有線通信部と、上空滞在型の無線中継装置と無線通信する無線通信部とを有する。水中移動体は、ブイに水中ケーブルを介して連結され、自律制御又は外部からの制御により水中を潜水して移動するための駆動部と、水中ケーブルを介して通信する有線通信部と、水中情報を取得する情報取得部とを有する。情報処理装置は、複数の水中移動体で取得された水中情報に基づいて水中探査の情報処理を行う。

Description

HAPSを介した広域水中探査潜水ロボットによるリアルタイム水中探査
 本発明は、海などの水中の魚群などを探査する技術に関するものである。
 従来、海などの水面に浮遊するブイで取得された水中の画像やセンサ測定データなどの水中情報を、通信回線を介して収集するシステムが知られている(例えば、特許文献1、2参照)。
特開平11-298884号公報 特願2007-253888号公報
 従来のシステムでは、海などの広域にわたる水中探査を精度よくリアルタイムに行うことができないという課題がある。
 本発明の一態様に係るシステムは、水中探査を行うシステムであって、水中ケーブルを介して通信する有線通信部と、上空滞在型の無線中継装置と無線通信する無線通信部とを有する複数のブイと、前記複数のブイのそれぞれに前記水中ケーブルを介して連結され、自律制御又は外部からの制御により水中を潜水して移動するための駆動部と、前記水中ケーブルを介して通信する有線通信部と、水中情報を取得する情報取得部とを有する複数の水中移動体と、前記複数のブイと無線通信可能な上空滞在型の無線中継装置と、前記複数の水中移動体で取得された水中情報に基づいて水中探査の情報処理を行う情報処理装置と、を備える。
 前記システムにおいて、前記水中移動体の情報取得部は、光、音波、超音波又は電波を用いて水中を撮像する撮像部を含み、前記水中情報は、水中の画像情報を含んでもよい。
 また、前記システムにおいて、前記ブイは、そのブイの周辺における周辺情報を取得する情報取得部を更に有し、前記情報処理装置は、前記複数の水中移動体で取得された前記複数の水中情報と前記複数のブイで取得された周辺情報とに基づいて水中探査の情報処理を行ってもよい。
 また、前記システムにおいて、前記ブイの情報取得部は、そのブイの周辺を撮像する撮像部を含み、前記周辺情報は、前記ブイの周辺の画像情報を含んでもよい。前記周辺情報は、前記ブイの位置情報及び前記水中移動体の位置情報の少なくとも一方を含んでもよい。
 また、前記システムにおいて、前記水中探査の対象は、水中の魚群、生物、生物礁、宝物、遺失物、遭難者、海底火山、遺跡、資源、環境及び地形の少なくとも一つであってもよい。
 また、前記システムにおいて、前記情報処理装置は、水中で探査される可能性がある複数種類の水中探査の対象の候補と前記水中情報との関係を蓄積したデータベースを有し、前記水中移動体で取得された水中情報と前記データベースとに基づいて水中探査の情報処理を行い、その情報処理の結果に基づいて水中探査の対象の識別結果を得てもよい。前記水中探査の対象の識別結果は、前記複数種類の水中探査の対象の候補の中から特定された一つ又は複数の対象の候補に近づいているのか否か、又は、前記複数種類の水中探査の対象の候補のいずれかが在るのか無いのかの判断結果であってもよい。また、前記情報処理装置は、前記水中移動体で取得された水中情報と前記水中探査の対象の識別結果とに基づいて前記データベースを更新してもよい。
 また、前記システムにおいて、前記情報処理装置は、前記水中探査の結果を、前記水中探査で見つかった対象の近くに位置する船舶若しくは飛行体又は前記対象の近くに位置する前記水中移動体に送信してもよい。
 また、前記システムにおいて、前記情報処理装置は、前記水中探査の結果に基づいて前記水中移動体を制御する制御情報を生成し、前記制御情報を前記水中移動体に送信してもよい。
 また、前記システムにおいて、前記情報処理装置は、地上、船舶又は飛行体に設けられたサーバであってもよいし、前記水中移動体、前記ブイ又は前記無線中継装置に設けられたエッジコンピュータであってもよい。
 また、前記システムにおいて、前記水中移動体はバッテリを備え、前記ブイは発電装置を備え、前記水中ケーブルを介して前記水中移動体に電力を供給して前記バッテリを充電してもよい。前記ブイの発電装置は、波のエネルギーを利用して発電する波力発電装置であってもよい。
 本発明によれば、海などの広域にわたる水中探査を精度よく行うことができる。
図1は、本発明の一実施形態に係るHAPSを介した広域水中探査システムの全体構成の一例を示す概略構成図である。 図2は、実施形態に係る広域水中探査システムに用いることができるHAPSの一例を示す斜視図である。 図3は、実施形態に係るHAPSの基本的な機能の構成要素の一例を示すブロック図である。 図4は、実施形態に係る広域水中探査システムにおける水中探査ユニットを構成するブイの基本的な機能の構成要素の一例を示すブロック図である。 図5は、実施形態に係る水中探査ユニットを構成する潜水ロボットの基本的な機能の構成要素の一例を示すブロック図である。 図6は、実施形態に係る広域水中探査システムにおけるサーバの基本的な機能の構成要素の一例を示すブロック図である。 図7は、実施形態に係る広域水中探査システムにおける遠隔制御装置の基本的な機能の構成要素の一例を示すブロック図である。 図8は、実施形態に係る広域水中探査システムにおける水中探査及び潜水ロボットの位置制御の一例を示すシーケンス図である。 図9は、実施形態に係る広域水中探査システムにおける水中探査及び潜水ロボットの位置制御の一例を示すフローチャートである。 図10は、実施形態に係る水中探査ユニットの位置制御の一例を示す説明図である。 図11は、実施形態に係る水中探査ユニットの位置制御の他の例を示す説明図である。 図12は、実施形態に係る水中探査ユニットの位置制御の更に他の例を示す説明図である。
 以下、図面を参照して本発明の実施形態について説明する。
 図1は、本発明の一実施形態に係る広域水中探査システムの全体構成の一例を示す概略構成図である。実施形態の広域水中探査システムは、ICT(情報通信技術)やAI(人工知能)技術を利用して、海などの水中の魚群91、生物、生物礁、遺失物、遭難者、海底火山、遺跡、資源、環境及び地形を探査するシステムであり、例えば、大海原の海中にいる魚群91などを探し出したり養殖魚の監視・観察を行ったりするスマート漁業システムとしても適用可能である。
 図1において、実施形態の広域水中探査システムは、複数の上空滞在型の無線中継装置としてのHAPS(「高高度プラットフォーム局」又は「高高度疑似衛星」)10と、広域の海90の海面90sに分散配置されHAPS10を介して通信可能な複数の水中探査ユニット(海中探査ユニット)30とを備える。本実施形態に係るHAPS10を介した広域水中探査システムは、多数の水中探査ユニット(端末装置)30の同時接続、大容量伝送、低遅延伝送などに対応する第5世代又は第5世代以降の次々世代の移動通信の3次元化ネットワークの実現に適する。なお、本実施形態では、水中探査ユニットを海面に配置して海中を探査する例について説明するが、川又は湖の水面に水中探査ユニットを配置して川又は湖の水中を探査してもよい。
 HAPS10は、所定高度の空域に位置して、所定高度のセル形成目標空域に3次元セル(3次元エリア)を形成する。HAPS10は、自律制御又は外部から制御により広域の海90の海面90sから100[km]以下の高高度の空域(浮揚空域)に浮遊あるいは飛行して位置するように制御される浮揚体又は飛行体(例えば、ソーラープレーン、飛行船)に、無線中継局が搭載されたものである。HAPS10の位置する空域は、例えば、高度が11[km]以上及び50[km]以下の成層圏の空域である。この空域は、気象条件が比較的安定している高度15[km]以上25[km]以下の空域であってもよく、特に高度がほぼ20[km]の空域であってもよい。
 HAPS10の無線中継局はそれぞれ、移動局である端末装置と無線通信するためのビームを海面90sに向けて形成する。本実施形態における端末装置は、各水中探査ユニット30のブイ310に組み込まれている。端末装置は、海上の上空を飛行する遠隔操縦可能な小型のヘリコプター等の航空機であるドローンに組み込まれた通信端末モジュールでもよいし、海上を飛行する飛行機の中で使用するユーザ装置等の通信端末であってもよい。
 HAPS10の無線中継局はそれぞれ、例えば、地上95の移動通信網80のコアネットワークに接続された中継局としてのゲートウェイ(GW)局(「フィーダ局」ともいう。)70と無線通信する基地局、又は、地上95の基地局に接続された中継局としてのフィーダ局(リピーター親機)70と無線通信するリピーター子機である。HAPS10の無線中継局はそれぞれ、例えば地上95に設置されたGW局70を介して、移動通信網80のコアネットワークに接続される。HAPS10とGW局70との間の通信は、マイクロ波などの電波による無線通信で行ってもよいし、レーザ光などを用いた光通信で行ってもよい。
 HAPS10はそれぞれ、内部に組み込まれたコンピュータ等で構成された制御部が制御プログラムを実行することにより、自身の浮揚移動(飛行)や無線中継処理などを自律制御してもよい。例えば、HAPS10はそれぞれ、自身の現在位置情報(例えばGPS位置情報)、予め記憶した位置制御情報(例えば、飛行スケジュール情報)、周辺に位置する他のHAPSの位置情報などを取得し、それらの情報に基づいて浮揚移動(飛行)や無線中継処理などを自律制御してもよい。
 また、HAPS10それぞれの浮揚移動(飛行)や無線中継処理などは、移動通信網80の通信センター等に設けられた管理装置や遠隔制御装置によって制御できるようにしてもよい。
 図2は、実施形態の広域水中探査システムに用いることができるHAPS10の一例を示す斜視図である。図2において、HAPS10は、ソーラープレーンタイプのHAPSであり、長手方向の両端部側が上方に沿った主翼部101と、主翼部101の短手方向の一端縁部にバス動力系の推進装置としての複数のモータ駆動のプロペラ103とを備える。主翼部101の上面には、太陽光発電機能を有する太陽光発電部としての太陽光発電パネル(以下「ソーラーパネル」という。)102が設けられている。また、主翼部101の下面の長手方向の2箇所には、板状の連結部104を介して、ミッション機器が収容される複数の機器収容部としてのポッド105が連結されている。各ポッド105の内部には、ミッション機器としての無線中継局110と、バッテリー106とが収容されている。また、各ポッド105の下面側には離発着時に使用される車輪107が設けられている。ソーラーパネル102で発電された電力はバッテリー106に蓄電され、バッテリー106から供給される電力により、プロペラ103のモータが回転駆動され、無線中継局110による無線中継処理が実行される。
 また、HAPS10は、他のHAPSや人工衛星との通信に用いられる通信部としての3次元対応指向性のアンテナ装置130を備えている。なお、図2の例では主翼部101の長手方向の両端部にアンテナ装置130を配置しているが、HAPS10の他の箇所にアンテナ装置130を配置してもよい。なお、他のHAPSや人工衛星との通信に用いられる通信は、光通信でもよいし、マイクロ波などの電波による無線通信などの他の方式による無線通信であってもよい。
 図3は、実施形態に係るHAPS10の基本的な機能の構成要素の一例を示すブロック図である。図3において、HAPS10の無線中継局は、アンテナ11aを介してGW局70などと無線通信するフィーダリンク通信部11と、アンテナ12aを介して水中探査ユニット(端末装置)30と無線通信するサービスリンク通信部12と、互いに異なるフィーダリンクの周波数とサービスリンクの周波数との間の変換を行う周波数変換部13と、前述のアンテナ装置130を介して周辺の他のHAPSと無線通信するHAPS間通信部15とを備える。HAPS間通信部15は、人工衛星との通信に用いることもできる。更に、HAPS10は、各部を制御する制御部14と、モータ駆動のプロペラ103等を含む飛行駆動部と、ソーラーパネル102及びバッテリー106等を含む電源部17とを備える。
 HAPS10は、海面に位置している複数の水中探査ユニット30のブイ310を俯瞰して撮像するカメラなどの撮像部18を備えてもよい。撮像部18で撮影した複数のブイ310の俯瞰画像は、ブイ310間の位置制御に用いることができる。
 ソーラープレーンタイプのHAPS10は、例えば所定の目標飛行ルートに基づいて円形状に旋回飛行を行ったり「D」の字飛行を行ったり「8」の字飛行を行ったりすることにより揚力で浮揚し、所定の高度で水平方向の所定の範囲に滞在するように浮揚することができる。なお、ソーラープレーンタイプのHAPS10は、プロペラ103が回転駆動されていないときは、グライダーのように飛ぶこともできる。例えば、昼間などのソーラーパネル102の発電によってバッテリー106の電力が余っているときに高い位置に上昇し、夜間などのソーラーパネル102で発電できないときにバッテリー106からモータへの給電を停止してグライダーのように飛ぶことができる。
 なお、本実施形態の広域水中探査システムに用いることができるHAPSは、ペイロードが大きく大容量のバッテリーを搭載することができる無人飛行船タイプのHAPSであってもよい。このタイプのHAPSは、浮力で浮揚するためのヘリウムガス等の気体が充填された飛行船本体と、バス動力系の推進装置としてのモータ駆動のプロペラと、ミッション機器が収容される機器収容部とを備える。機器収容部の内部には、無線中継局とバッテリーとが収容されている。バッテリーから供給される電力により、プロペラのモータが回転駆動され、無線中継局による無線中継処理が実行される。なお、飛行船本体の上面に、太陽光発電機能を有するソーラーパネルを設け、ソーラーパネルで発電された電力をバッテリーに蓄電するようにしてもよい。また、無人飛行船タイプのHAPSも、他のHAPSや人工衛星との通信に用いられる通信部としての3次元対応指向性のアンテナ装置を備えてもよい。
 また、実施形態の複数のHAPS10は、上空で互いに光通信などによるHAPS間通信ができるように構成され、3次元化したネットワークを広域にわたって安定に実現することができるロバスト性に優れた無線通信ネットワークを形成してもよい。この無線通信ネットワークは、各種環境や各種情報に応じたダイナミックルーティングによるアドホックネットワークとして機能することもできる。HAPS10間の無線通信ネットワークは、2次元又は3次元の各種トポロジーを有するように形成することができ、例えばメッシュ型の無線通信ネットワークであってもよい。
 また、本実施形態において、HAPS10と移動通信網80のコアネットワークとの間の通信は、GW局70及び低軌道の人工衛星を介して行ってもよい。この場合、人工衛星とGW局70との間の通信は、マイクロ波などの電波による無線通信で行ってもよいし、レーザ光などを用いた光通信で行ってもよい。
 また、実施形態のHAPS10は、各種情報処理を行う情報処理装置としてのエッジコンピュータを備えてもよい。エッジコンピュータは、例えば小型のコンピュータで構成され、予め組み込まれたプログラムを実行することにより、水中探査ユニット30で取得された情報に基づく水中探査の情報処理、水中探査ユニット30の位置制御、HAPS10の無線中継局110における無線中継などに関する各種の情報処理を実行してもよい。
 無線中継局110を介した水中探査ユニット30(端末装置)との無線通信の上りリンク及び下りリンクの複信方式は、特定の方式に限定されず、例えば、時分割複信(Time Division Duplex:TDD)方式でもよいし、周波数分割複信(Frequency Division Duplex:FDD)方式でもよい。また、無線中継局110を介した端末装置との無線通信のアクセス方式は、特定の方式に限定されず、例えば、FDMA(Frequency Division Multiple Access)方式、TDMA(Time Division Multiple Access)方式、CDMA(Code Division Multiple Access)方式、又は、OFDMA(Orthogonal Frequency Division Multiple Access)であってもよい。また、前記無線通信には、ダイバーシティ・コーディング、送信ビームフォーミング、空間分割多重化(SDM:Spatial Division Multiplexing)等の機能を有し、送受信両方で複数のアンテナを同時に利用することにより、単位周波数当たりの伝送容量を増やすことができるMIMO(多入力多出力:Multi-Input and Multi-Output)技術を用いてもよい。また、前記MIMO技術は、1つの基地局が1つの端末装置と同一時刻・同一周波数で複数の信号を送信するSU-MIMO(Single-User MIMO)技術でもよいし、1つの基地局が複数の異なる端末装置に同一時刻・同一周波数で信号を送信又は複数の異なる基地局が1つの端末装置に同一時刻・同一周波数で信号を送信するMU-MIMO(Multi-User MIMO)技術であってもよい。
 以下、水中探査ユニット30(端末装置)と無線通信する無線中継装置が、無線中継局110を有するソーラープレーンタイプのHAPS10である場合について説明するが、以下の実施形態は、無線中継局210を有する無人飛行船タイプのHAPS等の上空を移動可能な他の無線中継装置にも同様に適用できる。
 前述の図1に示すように、HAPS10を介して無線通信することができる複数の水中探査ユニット30はそれぞれ、海面90sに浮遊した状態で配置される浮遊装置としてのブイ310と、ブイ310に水中ケーブル320を介して連結された水中移動体としての無人潜水ロボット(以下「潜水ロボット」という。)330とを備える。ブイ310の上端部には、HAPS10と無線通信するためのアンテナ311が設けられ、ブイ310の下端部には、水中側と通信するための通信線を含む水中ケーブル320が連結されている。
 図4は、実施形態に係る広域水中探査システムにおける水中探査ユニット30を構成するブイ310の基本的な機能の構成要素の一例を示すブロック図である。
 図4において、ブイ310は、水中ケーブル320の信号線321を介して潜水ロボット330と通信する有線通信部312と、HAPS10と無線通信する無線通信部313と、制御部314とを有する。制御部314は、ブイ310内の各部を制御したり、各部で取得された情報・データを処理したり、外部に送信する情報・データを処理したりする。
 ブイ310は、GPS受信部315と発電装置316とを更に備える。GPS受信部315は、複数のGPS衛星からの無線信号を受信してブイ310の現在位置の位置情報(例えばブイ310が位置する緯度及び経度)を取得する。
 発電装置316は、例えば、波のエネルギー(例えば波の上下動のエネルギー)を利用して発電する波力発電装置である。発電装置316は、太陽光を受けて発電する太陽光発電パネルや、バッテリーを含んでもよい。発電装置316で発電された電力は、水中ケーブル320の電力線322を介して潜水ロボット330に供給される。
 ブイ310は、撮像部317、センサ318及び投光装置319の少なくとも一つを備えてもよい。撮像部317は、ブイ310の周囲の海上や上空の光景及び周囲に位置する物体(例えば領海侵犯している船舶)の画像を撮影することができる。
 センサ318は、例えば、ブイの周辺における周辺情報(例えば、気温、気圧、風向、風速などの気象情報、海流の方向及び速度、波の高さ及び周期などの環境情報)、海面に対するブイ自体の相対移動方向(方位)及び速度、ブイ310から水中に延びている水中ケーブル320の方向(海面に対する水中ケーブル320の角度及び方位)並びに撮像部317による撮影方向(方位)の少なくとも一つを測定するセンサである。水中ケーブル320の方向及び長さにより、ブイ310を曳航している潜水ロボット330の位置(ブイ310に対する相対的な位置)がわかる。センサ318は、複数種類のセンサを組み合わせて構成してもよい。
 投光装置319は、例えば、撮像部317で夜間等に周辺を撮影するときにブイ10の周辺を照らしたり、HAPS10や周辺の船舶などからブイ310が認知されやすくするように光を発したりする。
 ブイ310は、HAPS10を介して、海上の船舶(例えば、水中探査ユニット30の母船)60に設けられたサーバ61及び遠隔制御装置62、地上95に配置された情報処理装置としてのサーバ85や遠隔制御装置86などと通信することができる。また、HAPS10にエッジコンピュータ等の情報処理装置が組み込まれている場合、ブイ310は、HAPS10内の情報処理装置と通信することもできる。
 図5は、実施形態に係る水中探査ユニット30を構成する潜水ロボット330の基本的な機能の構成要素の一例を示すブロック図である。
 図5において、潜水ロボット330は、水中ケーブル320を介してブイ310に連結され、自律制御又は外部からの制御により水中を潜水して任意の方向に移動するための駆動部331と、水中ケーブルを介して通信する有線通信部332と、制御部333と、とを有する。制御部333は、潜水ロボット330内の各部を制御したり、各部で取得された情報・データを処理したり、外部に送信する情報・データを処理したりする。
 駆動部331は、例えば、プロペラ及びそれを駆動するモータなどからなる単一又は複数のスラスターで構成される。駆動部331を駆動する電力は、ブイ310から水中ケーブル320の電力線322及び電力供給部334を介して供給される。ブイ310からの電力供給がない場合は、バッテリー335から電力供給部334を介して供給される。電力供給部334から受けた電力を用いてバッテリー335を充電することもできる。
 また、潜水ロボット330は、各種の水中情報を取得する情報取得部336を備えている。情報取得部336は、例えば、光、音波、超音波又は電波を用いて、水中情報としての水中画像を撮像する撮像部3361である。撮像部3361は、潜水ロボット330の周囲や海底の光景(例えば、海底火山、遺跡、地形)及び周囲に位置する物体(例えば、魚群、魚礁などの生物礁、遺失物、遭難者、領海侵犯している潜水艦)の画像を撮影することができる。撮像部3361が光学的なカメラで水中画像を撮影する場合は、撮影対象のエリアが暗くても撮影できるように投光装置337を備えてもよい。情報取得部336は、魚群探知機などのソナー3362、センサ3363などを備えてもよい。
 センサ3363は、例えば、潜水ロボット330の周辺における周辺情報(例えば、水深、水温、水圧、水流の方向及び速度などの環境情報)、潜水ロボット330自体の移動方向(方位)及び速度、潜水ロボット330からブイ310に向かって延びている水中ケーブル320の方向(水中ケーブル320の角度及び方位)並びに撮像部3361による撮影方向(方位)の少なくとも一つを測定するセンサである。センサ3363は、複数種類のセンサを組み合わせて構成してもよい。
 情報取得部336で取得した水中情報は、水中ケーブル320を介して海面上のブイ310に伝送し、更にブイ310からHAPS10を介して陸上のサーバ85及び遠隔制御装置86、船舶60内のサーバ61及び遠隔制御装置62に伝送することができる。
 図6は、実施形態に係る広域水中探査システムにおけるサーバ85の基本的な機能の構成要素の一例を示すブロック図である。なお、船舶60のサーバ61も図6のサーバ85と同様に構成することができる。また、サーバは、海洋上の飛行する飛行機に設けてもよい。
 図6において、サーバ85は、例えば単一又は複数のコンピュータ装置で構成され、通信部851と、データベース部852と、データ処理部853と、各部を制御する制御部854とを備える。通信部851は、移動通信網80、GW局70及びHAPS10を介して、海面上に分散配置されている複数の水中探査ユニット30のブイ310と通信する。
 データベース部852には、水中で探査される可能性がある複数種類の水中探査の対象の候補と、水中情報との関係を示す情報・データを蓄積されている。例えば、データベース部852には、水中探査ユニット30が過去に探査した探査対象の名称、画像データ、画像の種別(光像、ソナー像、・・・)、並びに、その画像を取得した装置(光学カメラ、ソナー、魚群探知機、・・・)、日時、水深、水温、海洋名、ブイの位置情報(緯度、経度)などが互いに関連付けられたデータセットが多数蓄積されている。
 水中探査ユニット30の潜水ロボット330で取得された水中情報を受信すると、データ処理部853は、その受信した画像などの取得情報と、データベース部852に蓄積されている情報・データとに基づいて、画像に含まれている水中探査の対象(例えば特定の魚の魚群)を識別する水中探査の情報処理(画像認識)を行う。この水中探査の情報処理には各種のAI(人工知能)エンジンを用いてもよい。
 また、サーバ85は、水中探査の精度を高めるために、潜水ロボット330で取得された水中情報と水中探査の対象の識別結果とに基づいて、上記データセットを追加するようにデータベース部852を更新する学習処理を実行してもよい。
 図7は、実施形態に係る広域水中探査システムにおける遠隔制御装置86の基本的な機能の構成要素の一例を示すブロック図である。なお、船舶60の遠隔制御装置62も図7の遠隔制御装置86と同様に構成することができる。また、遠隔制御装置は、海洋上の飛行する飛行機に設けてもよい。
 図7において、遠隔制御装置86は、例えば単一又は複数のコンピュータ装置で構成され、通信部861と、データベース部862と、制御情報生成部863と、各部を制御する制御部864とを備える。通信部861は、移動通信網80、GW局70及びHAPS10を介して、海面上に分散配置されている複数の水中探査ユニット30のブイ310と通信する。
 データベース部862には、管理対象の複数の水中探査ユニット30の情報・データを蓄積されている。例えば、データベース部862には、複数の水中探査ユニット30それぞれの識別情報、水中探査ユニット30の現在及び過去の位置情報(緯度、経度)及び周辺情報、現在探査中又は過去に探査した探査対象、その探査に用いた水中情報、気象情報などの情報・データが蓄積されている。
 水中探査ユニット30のブイ310及び潜水ロボット330で取得された取得情報を受信すると、制御情報生成部863は、その受信した画像などの取得情報と、データベース部862に蓄積されている情報・データとに基づいて、水中探査ユニット30の潜水ロボット330の移動などを制御する制御情報を生成する情報処理を行う。この制御情報の生成の情報処理には各種のAI(人工知能)エンジンを用いてもよい。
 また、遠隔制御装置86は、水中探査ユニット30の制御の精度を高めるために、各水中探査ユニット30のブイ310及び潜水ロボット330で取得された取得情報と、実際に行った水中探査ユニット30の制御情報とを追加するようにデータベース部862を更新する学習処理を実行してもよい。
 なお、図6のサーバ85及び図7の遠隔制御装置86は単一装置として一体的に構成してもよいし、船舶60のサーバ61及び遠隔制御装置62についても同様に単一装置として一体的に構成してもよい。
 図8は、実施形態に係る広域水中探査システムにおける水中探査及び潜水ロボットの位置制御の一例を示すシーケンス図である。
 図8において、水中探査ユニット30の潜水ロボット330が画像などの水中情報を取得すると(S101)、その取得情報が、ブイ310、HAPS10及びGW局70を介してサーバ85及び遠隔制御装置86に送信される(S102~S105,S105’)。ブイ310及びHAPS10で情報が取得された場合(S101’、S101’’)は、その取得情報もサーバ85及び遠隔制御装置86に送信される。
 サーバ85は、水中探査ユニット30の潜水ロボット330等から画像などの取得情報(水中情報)を受信すると、AIを用いた水中探査の対象(例えば特定の魚の魚群)を識別する水中探査の情報処理(画像認識)を行い、その情報処理の結果に基づいて水中探査の対象の識別結果を得る(S106)。その水中探査の対象の識別結果は、例えば、データベース部852に登録されている複数種類の水中探査の対象の候補の中から特定された一つ又は複数の対象の候補に近づいているのか否か、又は、複数種類の水中探査の対象の候補のいずれかが在るのか無いのかの判断結果である。そして、受信した水中情報と水中探査の対象の識別結果とをデータベース部852に追加して更新する学習処理を実行する(S107)。サーバ85で得られた水中探査の探査結果は、予め決められた所定の情報配信先(例えば、探査対象が魚群の場合は、その魚群が探査された位置の近傍の出漁漁船)に送信されるととともに(S108)、遠隔制御装置86に送信される(S109)。
 遠隔制御装置86は、サーバ85から受信した水中探査の探査結果と、各水中探査ユニット30の位置情報とに基づいて、各水中探査ユニット30の潜水ロボット330の位置を制御する制御情報を生成する(S110)。この制御情報の生成は前述のようにAIを用いてもよく、また、水中探査ユニット30の取得情報と制御情報とを追加するデータベース部862の更新処理(学習処理)を実行してもよい。
 遠隔制御装置86で生成した制御情報は、GW局70、HAPS10及び水中探査ユニット30のブイ310を介して、潜水ロボット330に送信される(S111~S114)。潜水ロボット330は、遠隔制御装置86から受信した制御情報に基づいて、ブイ310を曳航しながら所定の位置に移動するように駆動制御する(S115)。
 図9は、実施形態に係る広域水中探査システムにおける水中探査及び潜水ロボットの位置制御の一例を示すフローチャートである。また、図10、図11及び図12はそれぞれ、実施形態に係る水中探査ユニットの位置制御の一例を示す説明図である。
 図9において、実施形態に係る広域水中探査システムの遠隔制御装置86は、上記AIを用いた制御処理により、海洋の広域にわたって特定の対象を探査する広域探査モードを実行し、例えば図10に示すように水中探査ユニット30を分散配置するように制御する(S201)。この分散配置制御では、例えば互いに隣接するブイ310間の最低距離が所定距離(例えばXkm)以上になるように潜水ロボット330の位置を制御する。
 図10の例では、分散配置の管理エリア100に位置する6台のブイ310(1)~310(6)のうち2台のブイ310(3)及び310(4)の距離が所定のXkm未満になっているので、ブイ310(4)からXkm以上離れるようにブイ310(3)を曳航する潜水ロボット330の位置を制御する。
 また、他の分散配置の制御では、任意の2台のブイ間の距離がXkm未満になったとき、次の(1)~(4)のいずれかアルゴリズムにてブイを曳航する潜水ロボットの位置を制御する。
(1)2台のブイのうち東に位置するブイを東の方向にXkm以上離れるまで移動させる。
(2)2台のブイのうち西に位置するブイを西の方向にXkm以上離れるまで移動させる。
(3)2台のブイのうち南に位置するブイを南の方向にXkm以上離れるまで移動させる。
(4)2台のブイのうち北に位置するブイを北の方向にXkm以上離れるまで移動させる。
 また、図11の例のように分散配置の管理エリア100の中央付近に6台のブイ310(1)~310(6)が集まっている場合は、センターのブイ310(1)から他のブイ310(2)~310(6)それぞれが放射状にXkm以上離れるようにブイ310(2)~310(6)の潜水ロボットを制御する。
 次に、図9において、サーバ85は、上記分散配置の複数の水中探査ユニット30から取得情報を収集し(S202)、各水中探査ユニット30の取得情報とデータベースとに基づいて目標の対象(例えば魚群、宝物など)について探査処理(AI認識処理)を実行し(S203)、その対象を発見するとデータベースを更新するAI学習処理を実行する(S204)。
 上記対象を発見した後、広域水中探査システムの遠隔制御装置86は、上記AIを用いた制御処理により、対象を発見した水中探査ユニット30の近くに周辺の水中探査ユニット30を集めて対象のより詳細に探査する集中探査モードを実行する(S205)。
 例えば図12に示すように1台の水中探査ユニット30の潜水ロボット330が目的の対象(例えば魚群、宝物など)を発見し、その潜水ロボット330に接続されているブイ(以下「発見ブイ」という。)310(6)が特定されると、遠隔制御装置86は、次のA~Eのようにブイを動かすように制御する。
 A.発見ブイ310(6)からの取得情報に基づいて、発見した対象の動きをAI画像認識技術を用いて把握する。
 B.対象が動いていなければ、発見ブイ310(6)がその場に留まるように制御する。
 C.対象が動いていれば、その対象の動きに沿って発見ブイ310(6)が移動するように制御する。
 D.発見ブイ310(6)の近くに位置する近傍ブイ310(1),310(5)を発見ブイ310(6)に近づけるように制御する。
 E.近傍ブイ310(1),310(5)が目的の対象を検知すると、その後は、近傍ブイ310(1),310(5)も発見ブイとする。
 図9において、上記水中探査ユニット30の集中配置の後、サーバ85は、発見した対象の近くに集中配置された水中探査ユニット30から取得情報を収集し(S206)、発見した対象を詳細に分析して集中的に検知・監視する集中探査処理を行い、その結果に基づいてデータベースを更新するAI学習を実行する(S207)。
 以上、本実施形態によれば、海洋の広域にわたって複数の水中探査ユニット30を配置し、その複数の水中探査ユニット30で取得された取得情報を、地上や船舶(母船)のサーバ85,61で収集して処理することができる。これにより、地上や船舶にいながら、海洋の広域において海上、海中、海底の目標の対象を精度よく探査できる。
 特に、本実施形態によれば、水中探査ユニット30からの取得情報を、大容量伝送が可能なHAPS10を介して無線通信を介して収集できるため、比較的データサイズが大きな画像データを収集して探査の精度を高めることができる。また、HAPS10を介した無線通信は低遅延のデータ伝送が可能であるため、海洋の広域にわたる探査をリアルタイムに行うことができる。
 また、本実施形態によれば、水中探査ユニット30のブイ310を、地上や船舶(母船)の遠隔制御装置86,62で位置制御される潜水ロボット330で曳航できるため、海などの広域にわたる水中探査を低コストで短時間に行うことができる。また、大容量伝送が可能なHAPS10を介して取得した画像データに基づいて水中探査ユニット30を精度よく制御できるとともに、HAPS10を介した無線通信は低遅延のデータ伝送が可能であるため、海洋の広域における水中探査ユニット30のリアルタイム制御が可能になる。
 また、本実施形態によれば、水中探査ユニット30のブイ310は、波力発電装置などの発電装置を備え、そのブイ310に接続された潜水ロボット330に電力したり潜水ロボット330のバッテリーを充電できるため、海洋の広域にわたる探査及びそれに用いる水中探査ユニット30の制御を長期間(例えば、24時間、365日)にわたって実行することができる。
 なお、本明細書で説明された処理工程並びに水中探査ユニットのブイ及び潜水ロボット、サーバ、遠隔制御装置、無線中継装置、通信システム、GW局、基地局及び端末装置(ユーザ装置、移動局、移動機)の構成要素は、様々な手段によって実装することができる。例えば、これらの工程及び構成要素は、ハードウェア、ファームウェア、ソフトウェア、又は、それらの組み合わせで実装されてもよい。例えば、本実施形態の基地局等の無線装置における制御・処理は、後述のハードウェアに所定のプログラムが読み込まれて実行されたり、後述のハードウェアに予め組み込まれた所定のプログラムが実行されたりすることにより、実現される。
 ハードウェア実装については、実体(例えば、コンピュータ装置、各種無線通信装置、NodeB、端末、ハードディスクドライブ装置、又は、光ディスクドライブ装置)において上記工程及び構成要素を実現するために用いられる処理ユニット等の手段は、1つ又は複数の、特定用途向けIC(ASIC)、デジタルシグナルプロセッサ(DSP)、デジタル信号処理装置(DSPD)、プログラマブル・ロジック・デバイス(PLD)、フィールド・プログラマブル・ゲート・アレイ(FPGA)、プロセッサ、コントローラ、マイクロコントローラ、マイクロプロセッサ、電子デバイス、本明細書で説明された機能を実行するようにデザインされた他の電子ユニット、コンピュータ、又は、それらの組み合わせの中に実装されてもよい。
 また、ファームウェア及び/又はソフトウェア実装については、上記構成要素を実現するために用いられる処理ユニット等の手段は、本明細書で説明された機能を実行するプログラム(例えば、プロシージャ、関数、モジュール、インストラクション、などのコード)で実装されてもよい。一般に、ファームウェア及び/又はソフトウェアのコードを明確に具体化する任意のコンピュータ/プロセッサ読み取り可能な媒体が、本明細書で説明された上記工程及び構成要素を実現するために用いられる処理ユニット等の手段の実装に利用されてもよい。例えば、ファームウェア及び/又はソフトウェアコードは、例えば制御装置において、メモリに記憶され、コンピュータやプロセッサにより実行されてもよい。そのメモリは、コンピュータやプロセッサの内部に実装されてもよいし、又は、プロセッサの外部に実装されてもよい。また、ファームウェア及び/又はソフトウェアコードは、例えば、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、不揮発性ランダムアクセスメモリ(NVRAM)、プログラマブルリードオンリーメモリ(PROM)、電気的消去可能PROM(EEPROM)、FLASHメモリ、フロッピー(登録商標)ディスク、コンパクトディスク(CD)、デジタルバーサタイルディスク(DVD)、磁気又は光データ記憶装置、などのような、コンピュータやプロセッサで読み取り可能な媒体に記憶されてもよい。そのコードは、1又は複数のコンピュータやプロセッサにより実行されてもよく、また、コンピュータやプロセッサに、本明細書で説明された機能性のある態様を実行させてもよい。
 また、前記媒体は非一時的な記録媒体であってもよい。また、前記プログラムのコードは、コンピュータ、プロセッサ、又は他のデバイス若しくは装置機械で読み込んで実行可能であれよく、その形式は特定の形式に限定されない。例えば、前記プログラムのコードは、ソースコード、オブジェクトコード及びバイナリコードのいずれでもよく、また、それらのコードの2以上が混在したものであってもよい。
 また、本明細書で開示された実施形態の説明は、当業者が本開示を製造又は使用するのを可能にするために提供される。本開示に対するさまざまな修正は当業者には容易に明白になり、本明細書で定義される一般的原理は、本開示の趣旨又は範囲から逸脱することなく、他のバリエーションに適用可能である。それゆえ、本開示は、本明細書で説明される例及びデザインに限定されるものではなく、本明細書で開示された原理及び新規な特徴に合致する最も広い範囲に認められるべきである。
10:ブイ
11:フィーダリンク通信部
11a:アンテナ
12:サービスリンク通信部
12a:アンテナ
13:周波数変換部
14:制御部
17:電源部
18:撮像部
30:水中探査ユニット
60:船舶
61:サーバ
62:遠隔制御装置
70:GW局
80:移動通信網
85:サーバ
86:遠隔制御装置
90:海
90s:海面
91:魚群
95:地上
110:無線中継局
310:ブイ
311:アンテナ
312:有線通信部
313:無線通信部
314:制御部
315:GPS受信部
316:発電装置
317:撮像部
318:センサ
319:投光装置
320:水中ケーブル
321:信号線
322:電力線
330:潜水ロボット
331:駆動部
332:有線通信部
333:制御部
334:電力供給部
335:バッテリー
336:情報取得部
337:投光装置
851:通信部
852:データベース部
853:データ処理部
854:制御部
861:通信部
862:データベース部
863:制御情報生成部
864:制御部
3361:撮像部
3362:ソナー
3363:センサ

Claims (15)

  1.  水中探査を行うシステムであって、
     水中ケーブルを介して通信する有線通信部と、上空滞在型の無線中継装置と無線通信する無線通信部とを有する複数のブイと、
     前記複数のブイのそれぞれに前記水中ケーブルを介して連結され、自律制御又は外部からの制御により水中を潜水して移動するための駆動部と、前記水中ケーブルを介して通信する有線通信部と、水中情報を取得する情報取得部とを有する複数の水中移動体と、
     前記複数のブイと無線通信可能な上空滞在型の無線中継装置と、
     前記複数の水中移動体で取得された水中情報に基づいて水中探査の情報処理を行う情報処理装置と、を備えることを特徴とするシステム。
  2.  請求項1のシステムにおいて、
     前記水中移動体の情報取得部は、光、音波、超音波又は電波を用いて水中を撮像する撮像部を含み、
     前記水中情報は、水中の画像情報を含むことを特徴とするシステム。
  3.  請求項1又は2のシステムにおいて、
     前記ブイは、そのブイの周辺における周辺情報を取得する情報取得部を更に有し、
     前記情報処理装置は、前記複数の水中移動体で取得された前記複数の水中情報と前記複数のブイで取得された周辺情報とに基づいて水中探査の情報処理を行うことを特徴とするシステム。
  4.  請求項3のシステムにおいて、
     前記ブイの情報取得部は、そのブイの周辺を撮像する撮像部を含み、
     前記周辺情報は、前記ブイの周辺の画像情報を含むことを特徴とするシステム。
  5.  請求項3又は4のシステムにおいて、
     前記周辺情報は、前記ブイの位置情報及び前記水中移動体の位置情報の少なくとも一方を含むことを特徴とするシステム。
  6.  請求項1乃至5のいずれかのシステムにおいて、
     前記水中探査の対象は、水中の魚群、生物、生物礁、宝物、遺失物、遭難者、海底火山、遺跡、資源、環境及び地形の少なくとも一つであることを特徴とするシステム。
  7.  請求項1乃至6のいずれかのシステムにおいて、
     前記情報処理装置は、水中で探査される可能性がある複数種類の水中探査の対象の候補と前記水中情報との関係を蓄積したデータベースを有し、前記水中移動体で取得された水中情報と前記データベースとに基づいて水中探査の情報処理を行い、その情報処理の結果に基づいて水中探査の対象の識別結果を得ることを特徴とするシステム。
  8.  請求項7のシステムにおいて、
     前記水中探査の対象の識別結果は、前記複数種類の水中探査の対象の候補の中から特定された一つ又は複数の対象の候補に近づいているのか否か、又は、前記複数種類の水中探査の対象の候補のいずれかが在るのか無いのかの判断結果であることを特徴とするシステム。
  9.  請求項7又は8のシステムにおいて、
     前記情報処理装置は、前記水中移動体で取得された水中情報と前記水中探査の対象の識別結果とに基づいて前記データベースを更新することを特徴とするシステム。
  10.  請求項1乃至9のいずれかのシステムにおいて、
     前記情報処理装置は、前記水中探査の結果を、前記水中探査で見つかった対象の近くに位置する船舶若しくは飛行体又は前記対象の近くに位置する前記水中移動体に送信することを特徴とするシステム。
  11.  請求項1乃至10のいずれかのシステムにおいて、
     前記情報処理装置は、前記水中探査の結果に基づいて前記水中移動体を制御する制御情報を生成し、前記制御情報を前記水中移動体に送信することを特徴とするシステム。
  12.  請求項1乃至11のいずれかのシステムにおいて、
     前記情報処理装置は、地上、船舶又は飛行体に設けられたサーバであることを特徴とするシステム。
  13.  請求項1乃至11のいずれかのシステムにおいて、
     前記情報処理装置は、前記水中移動体、前記ブイ又は前記無線中継装置に設けられたエッジコンピュータであることを特徴とするシステム。
  14.  請求項1乃至13のいずれかのシステムにおいて、
     前記水中移動体はバッテリを備え、
     前記ブイは発電装置を備え、前記水中ケーブルを介して前記水中移動体に電力を供給して前記バッテリを充電することを特徴とするシステム。
  15.  請求項14のシステムにおいて、
     前記ブイの発電装置は、波のエネルギーを利用して発電する波力発電装置であることを特徴とするシステム。
PCT/JP2019/010667 2018-03-23 2019-03-14 Hapsを介した広域水中探査潜水ロボットによるリアルタイム水中探査 WO2019181750A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-056015 2018-03-23
JP2018056015A JP6715281B2 (ja) 2018-03-23 2018-03-23 水中探査を行うシステム及び情報処理装置

Publications (1)

Publication Number Publication Date
WO2019181750A1 true WO2019181750A1 (ja) 2019-09-26

Family

ID=67987642

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/010667 WO2019181750A1 (ja) 2018-03-23 2019-03-14 Hapsを介した広域水中探査潜水ロボットによるリアルタイム水中探査

Country Status (2)

Country Link
JP (1) JP6715281B2 (ja)
WO (1) WO2019181750A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111263111A (zh) * 2020-01-17 2020-06-09 中国水产科学研究院东海水产研究所 一种基于监控视频的延绳钓捕捞信息提取系统
CN116560290A (zh) * 2023-07-05 2023-08-08 深之蓝(天津)水下智能科技有限公司 水下机器人控制方法、浮漂、系统、存储介质和电子设备

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7386039B2 (ja) * 2019-10-15 2023-11-24 川崎重工業株式会社 操船支援システム
JP2021172179A (ja) * 2020-04-22 2021-11-01 川崎重工業株式会社 救援船

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5231609A (en) * 1992-09-28 1993-07-27 The United States Of America As Represented By The Secretary Of The Navy Multiplatform sonar system and method for underwater surveillance
US5646366A (en) * 1996-08-22 1997-07-08 The United States Of America As Represented By The Secretary Of The Navy Underwater defense system
JP2007191147A (ja) * 2001-07-27 2007-08-02 Raytheon Co フォトニックブイ
JP2008110656A (ja) * 2006-10-30 2008-05-15 Kenwood Corp 水中撮影ブイ
JP4291852B2 (ja) * 2003-07-09 2009-07-08 シャ、ボン−リョウ 波力発電を用いたマーキングブイ
JP2009196503A (ja) * 2008-02-21 2009-09-03 Kenwood Corp 画像データ伝送ブイ
US20160244135A1 (en) * 2013-10-01 2016-08-25 Elta Systems Ltd. Underwater system and method
JP2017181448A (ja) * 2016-03-31 2017-10-05 日本電気株式会社 アクティブソーナー制御装置と送信制御方法とプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8200251B2 (en) * 2010-01-15 2012-06-12 Apple Inc. Determining a location of a mobile device using a location database
US8990002B1 (en) * 2011-10-14 2015-03-24 The Boeing Company Method and apparatus for determining the relative position of a target

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5231609A (en) * 1992-09-28 1993-07-27 The United States Of America As Represented By The Secretary Of The Navy Multiplatform sonar system and method for underwater surveillance
US5646366A (en) * 1996-08-22 1997-07-08 The United States Of America As Represented By The Secretary Of The Navy Underwater defense system
JP2007191147A (ja) * 2001-07-27 2007-08-02 Raytheon Co フォトニックブイ
JP4291852B2 (ja) * 2003-07-09 2009-07-08 シャ、ボン−リョウ 波力発電を用いたマーキングブイ
JP2008110656A (ja) * 2006-10-30 2008-05-15 Kenwood Corp 水中撮影ブイ
JP2009196503A (ja) * 2008-02-21 2009-09-03 Kenwood Corp 画像データ伝送ブイ
US20160244135A1 (en) * 2013-10-01 2016-08-25 Elta Systems Ltd. Underwater system and method
JP2017181448A (ja) * 2016-03-31 2017-10-05 日本電気株式会社 アクティブソーナー制御装置と送信制御方法とプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111263111A (zh) * 2020-01-17 2020-06-09 中国水产科学研究院东海水产研究所 一种基于监控视频的延绳钓捕捞信息提取系统
CN116560290A (zh) * 2023-07-05 2023-08-08 深之蓝(天津)水下智能科技有限公司 水下机器人控制方法、浮漂、系统、存储介质和电子设备

Also Published As

Publication number Publication date
JP2019166959A (ja) 2019-10-03
JP6715281B2 (ja) 2020-07-01

Similar Documents

Publication Publication Date Title
WO2019181751A1 (ja) Hapsを介した広域水中探査潜水ロボットの自律分散制御
WO2019181750A1 (ja) Hapsを介した広域水中探査潜水ロボットによるリアルタイム水中探査
JP6883461B2 (ja) 無人飛行体を用いた水中調査システム及び水中調査方法
US10410788B1 (en) Wireless power and data transfer for unmanned vehicles
KR101779376B1 (ko) 드론을 이용한 다중 해양 관측 시스템
US9321529B1 (en) Hybrid mobile buoy for persistent surface and underwater exploration
US8418642B2 (en) Unmanned submersible vehicles and methods for operating the same in a body of liquid
KR100734814B1 (ko) 자율운항무인선박
US10303995B2 (en) System and method for autonomous tracking and imaging of a target
KR20190141252A (ko) 제5세대 통신의 3차원화 네트워크를 구축하는 haps간 통신 및 대용량 다셀 haps
CA2873874C (en) Satellite and acoustic tracking device
US20220185436A1 (en) Autonomous navigation type marine buoy and marine information system using the same
JP7053774B2 (ja) 無人飛行体を用いた水中調査システム及び水中調査方法
CA3102427A1 (en) Wirelessly controlled flying and submerging vehicle
WO2012078022A1 (en) System of autonomous surface vehicles with swarming algorithm
Manley et al. Unmanned Surface Vessels (USVs) as tow platforms: Wave Glider experience and results
JP6810071B2 (ja) 飛行体への無線電力供給システム
Huixi et al. Heterogeneous oceanographic exploration system based on USV and AUV: A survey of developments and challenges
JP2019166959A5 (ja) 水中探査を行うシステム及び情報処理装置
Karthik Underwater vehicle for surveillance with navigation and swarm network communication
Mahalle et al. Introduction to underwater wireless sensor networks
JP2022145659A (ja) 水上中継機と水中航走体との連結システム及びその運用方法
IL263189B2 (en) Flexible antenna array and methods for its operation
US11711135B1 (en) Nautical ground station
Ahilan et al. Efficient utilization of unmanned aerial vehicle (UAV) for fishing through surveillance for fishermen

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19771920

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19771920

Country of ref document: EP

Kind code of ref document: A1