WO2021075364A1 - 操船支援システム - Google Patents
操船支援システム Download PDFInfo
- Publication number
- WO2021075364A1 WO2021075364A1 PCT/JP2020/038248 JP2020038248W WO2021075364A1 WO 2021075364 A1 WO2021075364 A1 WO 2021075364A1 JP 2020038248 W JP2020038248 W JP 2020038248W WO 2021075364 A1 WO2021075364 A1 WO 2021075364A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- ship
- berthing
- information
- tugboat
- control device
- Prior art date
Links
- 238000000034 method Methods 0.000 title description 3
- 238000004891 communication Methods 0.000 description 27
- 239000004020 conductor Substances 0.000 description 8
- 238000013459 approach Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000004397 blinking Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011179 visual inspection Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B63—SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
- B63B—SHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING
- B63B35/00—Vessels or similar floating structures specially adapted for specific purposes and not otherwise provided for
- B63B35/66—Tugs
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B63—SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
- B63B—SHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING
- B63B49/00—Arrangements of nautical instruments or navigational aids
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B63—SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
- B63B—SHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING
- B63B79/00—Monitoring properties or operating parameters of vessels in operation
- B63B79/10—Monitoring properties or operating parameters of vessels in operation using sensors, e.g. pressure sensors, strain gauges or accelerometers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B63—SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
- B63B—SHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING
- B63B79/00—Monitoring properties or operating parameters of vessels in operation
- B63B79/40—Monitoring properties or operating parameters of vessels in operation for controlling the operation of vessels, e.g. monitoring their speed, routing or maintenance schedules
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D47/00—Equipment not otherwise provided for
- B64D47/08—Arrangements of cameras
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G3/00—Traffic control systems for marine craft
Definitions
- the present invention relates to a ship maneuvering support system.
- FIG. 29 of Patent Document 1 describes a portable tablet computer for a pilot.
- the outlines of the ship and the tugboat are displayed on the tablet computer screen. That is, the conductor (captain of the ship or pilot) can grasp the position and direction (direction) of the ship and the tugboat by looking at the screen of the tablet computer.
- the quay line is also displayed on the screen. Therefore, the conductor can also grasp how far the ship and the tugboat are from the quay by looking at the screen of the tablet computer.
- Patent Document 1 Although it is not described in Patent Document 1, it is assumed that the information on the quay line displayed on the screen is generated based on the map information. However, in many cases, the quay and other berthing and berthing facilities are not surveyed and are not reflected in the map information. Therefore, the device of Patent Document 1 has a problem that it is not possible to accurately grasp how far the ship is from the berthing and berthing equipment.
- the present invention provides a ship maneuvering support system capable of grasping an accurate distance between the ship and the berthing / berthing equipment when the ship leaves or berths while being assisted by at least one tugboat. With the goal.
- the ship maneuvering support system from one aspect of the present invention is a ship maneuvering support system used when the ship leaves or berths while being assisted by at least one tugboat.
- Image information taken from the sky of the display device having a screen and the berthing / berthing area including the quay where the ship is scheduled to berth is acquired, and the outline information of the ship and the image information are displayed on the screen of the display device.
- a control device for displaying is provided, and the control device acquires the position / attitude information of the ship and the specifications of the ship, and the outline of the ship is based on the position / attitude information of the ship and the specifications of the ship.
- Request information or acquire the position and attitude information of the tugboat, the specifications of the tugboat, the specifications of the ship, and the connection information between the tugboat and the ship, and obtain the position and attitude information of the tugboat and the tagboat.
- the outline information of the ship is obtained based on the specifications of the ship, the specifications of the ship, and the connection information between the tugboat and the ship.
- the control device acquires image information taken from the sky of the berthing and berthing area of the ship, and the outline information and image information of the ship are displayed on the screen of the display device. Specifically, the control device acquires the position / attitude information of the ship and the specifications of the ship, and obtains the outline information of the ship based on the position / attitude information of the ship and the specifications of the ship. Alternatively, the control device acquires the position / attitude information of the tugboat, the specifications of the tugboat, the specifications of the ship, and the connection information between the tugboat and the ship, and the position / attitude information of the tugboat and the tagboat.
- the outline information of the ship is obtained based on the specifications of the ship, the specifications of the ship, and the connection information between the tugboat and the ship. Therefore, for example, a tugboat operator can grasp the exact distance between the ship and the berthing / berthing area by looking at the screen. This enables efficient berthing and berthing maneuvers.
- FIG. 1 is a schematic configuration diagram of a ship maneuvering support system according to the first embodiment of the present invention.
- FIG. 2 is a flowchart showing an example of a procedure for calculating relative position / orientation information by the support device.
- FIG. 3 is a first screen display example displayed on the display device of the support device.
- FIG. 4 is a second screen display example displayed on the display device of the support device.
- FIG. 5 is a third screen display example displayed on the display device of the support device.
- FIG. 6 is a schematic configuration diagram of a ship maneuvering support system according to a second embodiment of the present invention.
- FIG. 7 is a flowchart showing an example of the operation of an unmanned aerial vehicle.
- FIG. 8 is a diagram showing a state of camera photography by an unmanned aerial vehicle in flight.
- FIG. 9 is a fourth screen display example displayed on the display device of the support device.
- FIG. 10 is a fifth screen display example displayed on the display device of the support device.
- FIG. 1 shows a ship maneuvering support system 4 according to the first embodiment of the present invention.
- the ship maneuvering support system 4 includes a support device 3 used when leaving or berthing while the ship 1 is assisted by at least one tugboat 2 (two in the present embodiment).
- the support device 3 is carried by the conductor (pilot guide or captain of the ship) or installed on land equipment.
- the support device 3 includes a control device 31, a display device 32, an input device 34, and a communication device 33.
- the support device 3 may be a portable tablet computer or a notebook computer.
- the support device 3 has a memory such as a ROM or RAM, a storage such as an HDD, and a CPU, and the program stored in the ROM or the HDD is executed by the CPU.
- the input device 34 is a pointing device such as a mouse and is used to specify a point displayed on the screen of a portable tablet computer or a notebook computer.
- the ship maneuvering support system 4 includes a display device 12 mounted on the ship 1 and a display device 22 mounted on at least one tugboat 2 in addition to the support device 3.
- the ship 1 is equipped with a control device 11 and a communication device 13.
- at least one tugboat 2 is equipped with a control device 21 and a communication device 23 in addition to the display device 22.
- it is assumed that the ship 1 and at least one tugboat 2 are manned ships.
- the communication device 33 of the support device 3 can communicate with the communication device 13 of the ship 1 and the communication device 23 of the tugboat 2.
- Wireless communication is performed between communication devices, and this wireless communication may be communication via AIS (Automatic Identification System), direct communication between ships, or direct communication between ships. It may be ship-land communication via a ground base station.
- AIS Automatic Identification System
- the position of the ship 1 is measured by GNSS (Global Navigation Satellite System).
- GNSS Global Navigation Satellite System
- a GPS receiver is installed on the ship 1.
- the attitude of the ship 1 is measured by the directional meter provided on the ship 1.
- information on the position of the ship and the attitude of the ship will be collectively referred to as the position and attitude information of the ship.
- the position / attitude information of the ship 1 is transmitted from the communication device 13 of the ship 1 to the communication device 33 of the support device 3.
- the position of the tugboat 2 is measured by GNSS.
- GNSS GNSS
- a GPS receiver is installed in each tugboat 2.
- the posture of the tugboat 2 is measured by an azimuth meter provided on the tugboat 2.
- the position / attitude information of at least one tugboat 2 is transmitted from the communication device 23 of the tugboat 2 to the communication device 33 of the support device 3.
- the support device 3 stores the position / orientation information of the tugboat 2 in the memory of the control device 31 in real time.
- the ship maneuvering support system 4 of the present embodiment when the ship 1 is assisted by at least one tugboat 2 and berths or berths, all the display devices 12, 22, mounted on the ships involved in the berthing / berthing operation, 32 displays the same screen.
- the image information taken from the sky of the berthing and berthing equipment 7 including the quay where the ship 1 is scheduled to berth and the outline information of the ship 1 are displayed on all the display devices 12, 22, and 32.
- the image information of the berthing and berthing equipment 7 and the outline information of the ship 1 may be displayed only on the display device 32 of the support device 3, may be displayed only on the display device 22 of the tugboat 2, or may be displayed only on the display device 22 of the tugboat 2. It may be displayed only on the display device 12 of 1.
- the image information of the berthing and berthing equipment 7 displayed on the display devices 32, 12, and 22 is the image information of the satellite photograph including the position information taken from the sky near the berthing and berthing equipment 7 of the ship 1.
- Accurate location information of the takeoff and berthing equipment 7 may not be reflected in the map information because it is not possible to survey the takeoff and berthing equipment 7 of the ship 1 due to circumstances such as land ownership. Even if there is, the berthing and berthing equipment is shown in the satellite photograph including the location information.
- the relative position / attitude information of the ship 1 with respect to the berthing / berthing equipment 7 is calculated (hereinafter, also simply referred to as “relative position / attitude information”).
- relative position / attitude information the procedure for calculating the relative position / attitude information of the ship 1 with respect to the berthing / berthing equipment 7 when the ship 1 is berthed by the two tugboats 2 will be described with reference to the flowchart of FIG.
- the relative position / attitude information is calculated by executing the program stored in the memory by the control device 31, and the relative position / attitude information is controlled by the control device 11 of the ship 1 or the tag boat 2. It may be calculated by the device 21.
- the control device 31 acquires image information of a satellite photograph taken from the sky near the berthing / berthing facility 7 of the ship 1 and displays the image information on the display device 32 (step S11 in FIG. 2).
- the image information of the satellite photograph has high-precision position information and is stored in an image file format such as a GeoTIFF file.
- the image information of the satellite photograph may be acquired from an external server via the Internet or the like, or may be stored in advance in the memory of the control device 31.
- the display device 32 has a screen 6 as shown in FIG.
- the control device 31 displays the image information of the satellite photograph taken in the vicinity of the berthing / berthing facility 7 on the screen 6 of the display device 32 in the satellite photograph coordinate system C1.
- the berthing / berthing equipment 7 is represented by a plurality of straight lines, but the berthing / berthing equipment 7 may be represented by a single straight line or a curved line.
- the control device 31 registers the berthing / berthing equipment points (step S12 in FIG. 2). Specifically, the conductor operates the pointing device (input device 34) to specify the position of the berthing / berthing facility 7 displayed on the screen 6 of the display device 32 (satellite photographic coordinate system C1). The control device 31 registers the three points of the berthing / berthing equipment 7 designated by the input device 34 as the berthing / berthing equipment points 71. In FIG. 3, three offshore equipment points 71 are registered and displayed as black squares.
- the control device 31 acquires the position / attitude information of the tugboat 2 (step S13 in FIG. 2). Specifically, the position / attitude information of the two tugboats 2 is transmitted from the two tugboats 2 to the support device 3 and stored in the memory of the control device 31. The control device 31 reads out the position / attitude information of the two tugboats 2 stored in the memory.
- the control device 31 converts the position / attitude information of the tugboat 2 into the berthing point of the ship (step S14 in FIG. 2). Specifically, the control device 31 acquires the position / attitude information of the two tugboats 2, the specifications of the tugboat 2, the specifications of the tugboat 1, and the connection information between the two tugboats 2 and the tugboat 1, and the two tugboats 2 Based on the position and attitude information, the specifications of the tugboat 2 and the specifications of the ship 1, and the connection information between the two tugboats 2 and the ship 1, information on the ship outline 14 of the ship 1 (hereinafter, also referred to as outline information) is provided. calculate.
- connection information between the two tugboats 2 and the ship 1 indicates that the two tugboats 2 are in contact with the ship 1, and the position where the two tugboats 2 are connected to the ship 1. It contains information indicating whether or not it is.
- a plurality of connection points (not shown) capable of connecting the tugboat 2 and the ship 1 are provided in advance on the side surface of the ship 1.
- the connection information between the two tugboats 2 and the ship 1 may be detected by sensors (for example, pressure sensor and tension sensor, switching sensor and proximity sensor) provided at each connection point, or the operator of the tugboat 2. May visually confirm the connection status and input to the support device 3.
- the tugboat 2 is provided with a camera and the camera is set so that the tip of the tugboat is reflected in the camera image, it is possible to detect that something is in contact with the tip of the tugboat 2 by image processing.
- the connection information between the two tugboats 2 and the ship 1 may be detected by a camera provided on the tugboat 2.
- the specifications of the two tugboats 2 and the ship 1 are stored in advance in the memory of the control device 31. Based on the connection information between the two tugboats 2 and the ship 1, the control device 31 may display the ship outline 14 of the ship 1 by a dotted line, blinking, or the like if it has not yet contacted.
- the outline line 14 of the ship 1 displayed by the dotted line is displayed. May be displayed as a solid line.
- the control device 31 detects that the two tugboats 2 have come into contact with the ship 1 based on the connection information between the two tugboats 2 and the ship 1, the outer shape of the ship 1 displayed by blinking is displayed.
- the line 14 may be displayed so as to be constantly lit. In this way, the control device 31 acquires the connection information between the two tugboats 2 and the ship 1, and based on the connection information between the two tugboats 2 and the ship 1, the two tugboats 2 become the ship 1.
- the display mode of the outline 14 of the ship 1 displayed on the screen may be changed.
- the captain of the ship 1 looks at the screen, it can be visually recognized that the two tugboats 2 are ready to berth and maneuver the ship 1.
- the control device 31 converts the calculated outline information of the ship 1 into the ship berthing point 15 in the GPS coordinate system.
- the ship berthing point 15 is converted into three points on the ship outline 14 of the ship 1 corresponding to the three berthing equipment points 71 (registered in step S12) in the berthing equipment 7.
- the berthing point 15 of the ship may be predetermined or may be input via the input device 34.
- FIG. 4 is an example in which the position / attitude information of the two tugboats 2 in the GPS coordinate system C2 and the berthing point 15 of the ship are displayed on the display device 32.
- the outlines 24 of the two tugboats in the berthing and berthing maneuvering are displayed (GPS coordinate system C2).
- the shape of the tugboat outline 24 is represented by an isosceles triangle with the stern at the bottom and the bow at the apex.
- the outline line 14 of the ship is displayed (GPS coordinate system C2).
- the shape of the outline line 14 of the ship is displayed as a pentagon with the stern at the bottom and the bow at the top, and three berthing points 15 of the ship indicated by black squares are shown on the left side surface.
- the support device 3 calculates the berthing / berthing equipment point 71 and the relative position / attitude information 72 of the ship 1 with respect to the berthing / berthing equipment 7 (step S15 in FIG. 2).
- the control device 31 converts the berthing / berthing equipment point 71 registered in step S12 from the satellite photo coordinate system C1 to the GPS coordinate system C2.
- the relative position / attitude information 72 of the ship 1 with respect to the berthing / berthing equipment 7 is calculated based on the berthing / berthing equipment point 71 and the berthing point 15 of the ship (calculated in step S14).
- control device 31 displays the relative position / attitude information 72 of the ship 1 with respect to the berthing / berthing equipment 7 on the screen of the display device 32 (step S16 in FIG. 2). Specifically, the control device 31 converts the relative position / orientation information 72 from the GPS coordinate system C2 to the satellite photo coordinate system C1. As shown in FIG. 5, the display device 32 displays the takeoff / berthing equipment 7 including the takeoff / berthing equipment point 71 on the screen 6 together with the relative position / attitude information 72 in the satellite photographic coordinate system C1.
- control device 31 also converts the coordinates of the ship outline 14 including the ship berthing point 15 and the two tugboat outlines 24 from the GPS coordinate system C2 to the satellite photo coordinate system C1, and the display device 32 displays the coordinates.
- the ship outline 14 including the ship berthing point 15 and the two tugboat outlines 24 are displayed on the screen 6.
- the control device 31 acquires the image information of the satellite photograph of the takeoff and berthing equipment 7 of the ship 1 from the sky, and the outline 14 of the ship 1 and the outline 14 of the ship 1
- the image information of the berthing / berthing equipment 7 is displayed on the screens of the display devices 32, 12, and 22.
- the position and attitude information of the tugboat 2, the specifications of the tugboat 2, the specifications of the ship 1, and the connection information between the tugboat 2 and the ship 1 are acquired by the control device 31, and the tugboat 2 It is calculated based on the position / attitude information, the specifications of the tugboat 2, the specifications of the ship 1, and the connection information between the tugboat 2 and the ship 1. Therefore, for example, if the operator of the tugboat 2 looks at the screen, he / she can grasp the accurate distance between the ship 1 and the berthing / berthing equipment 7. This enables efficient berthing and berthing maneuvers.
- the control device 31 determines the accurate distance (relative position / attitude information 72) between the ship and the berthing / berthing equipment 7 based on the outline information and the image information of the ship. Can be calculated. Since the relative position / attitude information 72 is displayed on the screens of the display devices 32, 12, and 22, for example, if the operator of the tugboat 2 looks at the screen, he / she can grasp the accurate distance between the ship 1 and the berthing / berthing equipment 7. It becomes easier to do. Further, by utilizing the relative position / attitude information 72 for the propulsion system (not shown) of the tugboat 2, it is possible to realize the automation of the takeoff and berthing maneuvering.
- the control device 31 converts the outer line 14 of the ship 1 into the berthing point 15 of the ship, which is a point on the outer line 14 of the ship 1 corresponding to the berthing / berthing equipment point 71.
- the converted ship berthing point 15 is displayed on the screens of the display devices 32, 12, and 22.
- the control device 31 calculates the relative position / attitude information 72 based on the takeoff / berthing equipment point 71 and the berthing point 15 of the ship. Therefore, for example, if the operator of the tugboat 2 sees the screen, it is registered on the screen. It is possible to grasp the exact distance between the takeoff and berthing equipment point 71 and the ship berthing point 15 on the outline 14 of the ship 1.
- FIG. 6 shows the ship maneuvering support system 4A according to the second embodiment of the present invention.
- the ship maneuvering support system 4A is different from the ship maneuvering support system 4 (FIG. 1) of the first embodiment in that it further includes an autonomous unmanned aerial vehicle 5 equipped with a camera 53.
- the unmanned aerial vehicle 5 is configured to be able to communicate with the support device 3A (communication device 33). Further, the unmanned aerial vehicle 5 is equipped with various sensors such as a GPS receiver, and has a configuration capable of realizing autonomous control by known technology.
- the unmanned aerial vehicle 5 flies within a predetermined range from the berthing and berthing equipment 7. Specifically, the unmanned aerial vehicle 5 stands by in a state where it can fly on the ship 1 (for example, a deck), and starts flying when the ship 1 approaches the berthing and berthing equipment 7 and approaches a predetermined range from the berthing and berthing equipment 7. To do.
- the unmanned aerial vehicle 5 may stand by in a state where it can fly on the deck of the tugboat 2.
- the unmanned aerial vehicle 5 may be on standby in a state where it can fly at the berthing / berthing facility 7.
- the predetermined range is, for example, a range of about 20 m from the shore of the takeoff and berthing facility 7. Further, for example, when the distance between the takeoff and berthing equipment 7 and the tugboat 2 approaches within a predetermined range by GPS mounted on the tugboat 2, the unmanned aerial vehicle 5 may start flight.
- the unmanned aerial vehicle 5 photographs the vicinity of the berthing and berthing equipment 7 with the camera 53 during flight.
- the control device 31 acquires an image of the vicinity of the berthing / berthing facility 7 of the ship 1 by the unmanned aerial vehicle 5, and displays the acquired image on the display devices 32, 12, and 22.
- the unmanned aerial vehicle 5 photographs the vicinity of the berthing and berthing equipment 7 with the camera 53 during flight.
- the control device 31 acquires the position / attitude information (GPS positioning information) of the tugboat 2 together with the image taken by the unmanned aerial vehicle 5 in the vicinity of the takeoff / berthing equipment 7 of the ship 1, and the ship corresponding to the acquired position / attitude information of the tugboat 2.
- the image information of the outline 14 of 1 and the berthing / berthing equipment 7 is displayed on the screens of the display devices 32, 12, and 22.
- the outline 14 of the ship 1 is calculated by the control device 31 based on the position / attitude information of the tugboat 2, the specifications of the tugboat 2, and the specifications of the ship 1. Therefore, on the tugboat 2 side, if the operator of the tugboat 2 sees the screen, it is possible to grasp the accurate distance between the tugboat 1 and the berthing / berthing equipment 7 without coordinating with the tugboat 1 by communication. it can.
- the conductor and the operator of the tugboat 2 can grasp the situation of the ship 1 and the tugboat 2 around it in real time only by looking at the screen of the display device 32. it can.
- the conductor and the operator of the tugboat 2 can easily grasp the berthing situation without going back and forth between the bridges.
- the unmanned aerial vehicle 5 flies within a predetermined range from the berthing / berthing facility 7 (step S21 in FIG. 7).
- the height of the unmanned aerial vehicle 5 is autonomously controlled so that the ship 1 and the tugboat 2 are within the shooting range in the camera image (step S22 in FIG. 7).
- the unmanned aerial vehicle 5 is equipped with a GPS receiver, the pixels of the photograph taken by the camera 53 of the unmanned aerial vehicle 5 are taken from the altitude information of the unmanned aerial vehicle 5 and the angle information of the camera 53.
- the hit distance data can be calculated, and the position information (GPS coordinate system) of each pixel in the photographed photograph can be calculated from the distance data per pixel.
- the center of the ship 1 is controlled to be near the center of the image in the camera image, and the height of the unmanned aerial vehicle 5 is controlled more accurately from the image so that the ship 1 and the tugboat 2 are within the shooting range. can do. It is also possible to control the height of the unmanned aerial vehicle 5 so that the ship 1, the tugboat 2, and the berthing and berthing equipment 7 are within the shooting range.
- the display devices 32, 12, and 22 display the camera image captured by the camera 53 (step S23 in FIG. 7). Specifically, the unmanned aerial vehicle 5 transmits the camera image as image information to the support device 3A (communication device 33). The display devices 32, 12, and 22 of the support device 3A display the image information of the camera image on the screen 6.
- the ship maneuvering support system 4A of the present embodiment includes the autonomous unmanned aerial vehicle 5 equipped with the camera 53, the commander and the maneuverers of the ship 1 and the tugboat 2 can display the display device 32, The situation of the ship 1 and the tugboat 2 around it can be grasped in real time just by looking at the screens of 12 and 22. The conductor and the operators of the ship 1 and the tugboat 2 can easily grasp the berthing situation without going back and forth between the bridges.
- the status of the ship 1 and the tugboat 2 around it and the berthing and berthing equipment 7 are displayed in real time. I can grasp it.
- the conductor and the operators of the ship 1 and the tugboat 2 can easily grasp the berthing situation without going back and forth between the bridges.
- Support devices 3 and 3A may be mounted on the ship 1. In this case, the display device 12 mounted on the ship 1 is unnecessary.
- the display device 22 mounted on the tugboat 2 displays the relative position and attitude of the ship 1 with respect to the berthing and berthing equipment 7 as shown in FIG. If the information 72 can be displayed, the relative position / attitude information 72 can be shared between the operator of the ship 1 and the operator of the tugboat 2.
- the support device 3 may be mounted on one tugboat 2.
- the display device 22 mounted on the tugboat 2 is unnecessary.
- the display device 12 mounted on the ship 1 is displayed on the screen of the ship 1 with respect to the takeoff and berthing facility 7 as shown in FIG. If the relative position / attitude information 72 can be displayed, the relative position / attitude information 72 can be shared between the operator of the ship 1 and the operator of the tugboat 2.
- the takeoff and berthing maneuvering may be automated based on the relative position / attitude information 72 calculated by the ship maneuvering support systems 4 and 4A.
- the ship maneuvering support systems 4 and 4A generate propulsion commands for the ship 1 and / or the tugboat 2 based on the relative position / attitude information 72, and give propulsion commands to these propulsion systems.
- the display devices 12, 22 and 32 may be omitted, but may be used as a monitor for monitoring the maneuvering status.
- the commander operates the pointing device (input device 34) of the support devices 3 and 3A to display the berthing and berthing equipment displayed on the screen 6 of the display device 32.
- the operator of the ship 1 operates the input device (not shown) of the control device 11 of the ship 1 to display the position of the takeoff and berthing equipment 7 displayed on the screen of the display device 12.
- the operator of the tag boat 2 operates an input device (not shown) of the control device 21 of the tag boat 2 to display the position of the berthing / berthing equipment 7 displayed on the screen of the display device 22. May be specified.
- the support devices 3 and 3A include the input device 34, but may be omitted.
- the outline 14 of the ship 1 displayed on the screens of the display devices 32, 12 and 22 is the position and orientation information (GPS positioning) of the tugboat 2 by the control device 31.
- the specifications of the tugboat 2, the specifications of the ship 1, and the connection information between the tugboat 2 and the ship 1 are acquired, and the position and attitude information of the tugboat 2, the specifications of the tugboat 2, the specifications of the ship 1, and the tugboat 2 It was calculated based on the connection information between the ship 1 and the ship 1, but the mode is not limited to this.
- the position and attitude information (GPS positioning) of the ship and the specifications of the ship 1 are acquired by the control device 31, and the position and attitude information of the ship 1 is acquired. It may be calculated based on (GPS positioning) and the specifications of the ship 1.
- the position / attitude information of the ship 1 is transmitted from the communication device 13 of the ship 1 to the communication device 33 of the support device 3, and is stored in the memory of the control device 31 in real time.
- the berthing and berthing equipment points 71 designated in the berthing and berthing equipment 7 and the corresponding berthing and berthing points 15 on the outline 14 of the ship were three points (see FIG. 5), but two or more points. If so, it is not limited to this. Further, by simply designating the representative point of the takeoff and berthing equipment point 71, another point may be automatically designated according to the size of the own ship. Further, the berthing / berthing equipment point 71 and the berthing point 15 of the ship may be two points as shown in FIG. In FIG.
- the distance L1 between the two points of the berthing and berthing equipment points 71 displayed on the screen 6 and the distance L2 between the two points of the berthing point 15 of the ship are equal distances.
- the distance L1 between the two points of the berthing and berthing equipment points 71 displayed on the screen 6 and the distance L2 of the berthing point 15 of the ship may be different.
- the position of the takeoff and berthing equipment point 71 (or the berthing point 15 of the ship) may be automatically corrected so that the distances between L1 and L2 are equal.
- the ship maneuvering support system from one aspect of the present invention is a ship maneuvering support system used when the ship leaves or berths while being assisted by at least one tugboat, and is a display device having a screen and the ship.
- the control device includes a control device that acquires image information taken from the sky of the takeoff and berthing area including the quay scheduled to take off and berth, and displays the outline information and image information of the ship on the screen of the display device. Obtain the position and attitude information of the ship and the specifications of the ship, and obtain the outline information of the ship based on the position and attitude information of the ship and the specifications of the ship, or obtain the position and attitude information of the tugboat, the specifications of the tugboat, and the ship.
- the control device acquires image information taken from the sky of the berthing and berthing area of the ship, and the outline information and image information of the ship are displayed on the screen of the display device. Specifically, the control device acquires the position / attitude information of the ship and the specifications of the ship, and obtains the outline information of the ship based on the position / attitude information of the ship and the specifications of the ship. Alternatively, the control device acquires the position and attitude information of the tugboat, the specifications of the tugboat, the specifications of the ship, and the connection information between the tugboat and the ship, and the position and attitude information of the tugboat, the specifications of the tugboat, and the specifications of the ship.
- the outline information of the ship is required based on the connection information between the tugboat and the ship. Therefore, for example, a tugboat operator can grasp the exact distance between the ship and the berthing / berthing area by looking at the screen. This enables efficient berthing and berthing maneuvers.
- control device may calculate the relative position / attitude information of the ship with respect to the berthing / berthing area based on the outline information and the image information of the ship, and display the calculated relative position / attitude information on the screen of the display device.
- the control device can calculate the accurate distance between the ship and the berthing / berthing equipment based on the outline information and the image information of the ship. Since the relative position / attitude information is displayed on the screen of the display device, for example, if the tugboat operator looks at the screen, it becomes easy to grasp the accurate distance between the ship and the berthing / berthing area. Further, by utilizing the relative position / attitude information for, for example, a tugboat propulsion system, it is possible to realize automation of takeoff and berthing maneuvering.
- the ship maneuvering support system further includes an input device that accepts user input, and the input device receives input for two or more points of the berthing / berthing area included in the image information displayed on the screen and is a control device. May register the points in the berthing / berthing area received by the input device as the berthing / berthing points, and calculate the relative position / attitude information based on the berthing / berthing points and the outline information of the ship.
- the control device converts the ship's outline information into the ship's berthing points, which are two or more points on the ship's outline corresponding to the takeoff and berthing points, and displays the converted ship's berthing points on the screen of the display device. It may be displayed and the relative position / attitude information of the ship's berthing point with respect to the berthing / berthing point may be calculated.
- the control device converts the outline information of the ship into the berthing points of the ship, which are two or more points on the outline of the ship corresponding to the berthing and berthing points, and the converted berthing points of the ship are displayed on the display device. Is displayed on the screen of. Then, the control device calculates the relative position / attitude information of the berthing point of the ship with respect to the berthing / berthing point. Therefore, for example, when the tugboat operator sees the screen, the berthing / berthing point registered on the screen and the outer shape of the ship It is possible to grasp the exact distance to the berthing point of the ship on the line.
- control device acquires the connection information between the tugboat and the ship, and when it detects that the tugboat is in contact with the ship based on the connection information between the tugboat and the ship, it is displayed on the screen.
- the display mode of the outline information of the ship may be changed.
- the control device detects that the tugboat is in contact with the ship based on the connection information between the tugboat and the ship, the outline information of the ship displayed on the screen is displayed. Since the display mode is changed, for example, if the captain of the ship looks at the screen, it can be visually recognized that the tugboat is ready for berthing and maneuvering the ship.
- the image information may be image information of a satellite photograph including position information.
- the above-mentioned ship maneuvering support system is further equipped with an autonomous unmanned aerial vehicle that is equipped with a camera and is configured to be able to communicate with the control device.
- the video may be acquired as image information.
- the unmanned aerial vehicle flies within a predetermined range from the berthing and berthing area, and autonomously controls the height of the unmanned aerial vehicle so that the ship, the tugboat and the berthing and berthing area are within the shooting range in the camera image, and the camera.
- the image information of the video may be transmitted to the control device.
- the tugboat maneuvering support system is equipped with an autonomous unmanned aerial vehicle equipped with a camera, so that, for example, a tugboat operator can simply look at the screen of the display device to view the tugboat and the tugboats around it. You can grasp the situation in real time. The tugboat operator can easily grasp the berthing situation without going back and forth between the bridges.
Landscapes
- Engineering & Computer Science (AREA)
- Ocean & Marine Engineering (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Mechanical Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Aviation & Aerospace Engineering (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
Abstract
操船支援システムは、少なくとも1隻のタグボートで本船がアシストされながら離岸または着岸する際に使用される。操船支援システムは、画面を有する表示装置と、本船が離着岸する予定の岸壁を含む離着岸領域を上空から撮影された画像情報を取得し、本船の外形線情報及び画像情報を表示装置の画面に表示させる制御装置と、を備える。制御装置は、本船の位置姿勢情報と本船の仕様とに基づいて本船の外形線情報を求める。または、制御装置は、タグボートの位置姿勢情報と、タグボートの仕様と、本船の仕様と、タグボートと本船との接続情報とに基づいて本船の外形線情報を求める。
Description
本発明は、操船支援システムに関する。
従来、本船では自船からの目視を通じた搭載スラスタの操作、あるいはタグボートとの連携が行われてきた。そのため、目視のためには自船のブリッジを行き来する必要があり、自船周辺の状況を一目で把握することが困難である。このため離着岸操船の非効率性や不安全状態を作り出しているという課題がある。また、タグボートにおいては、目視のみでは、本船で視野が遮られるため、本船が着岸する予定の岸壁と本船との相対的な位置関係が把握できない。このため、タグボートは離着岸操船において本船との音声通信による連携が必要になるが、タグボート側での指示/状況把握/対応の遅れ等により効率的な操船が行えない課題がある。
近年では、本船とタグボートの操船状況を視覚化するための支援装置が提案されている。例えば、特許文献1の図29には、水先案内人用のポータブルタブレットコンピュータが記載されている。このタブレットコンピュータ画面上には、本船およびタグボートの外形線が表示される。すなわち、指揮者(本船の船長又は水先案内人)は、タブレットコンピュータの画面を見れば、本船およびタグボートの位置および方位(向き)を把握することができる。また、画面上には、岸壁線も表示される。このため、指揮者は、タブレットコンピュータの画面を見ることで、本船およびタグボートが岸壁からどれぐらい離れているかも把握することができる。
ところで、上記特許文献1には記載されていないが、画面に表示される岸壁線の情報は地図情報に基づいて生成されることが想定される。しかし、通常、岸壁等の離着岸設備は測量が行われておらず地図情報に反映されていないことが多い。このため、上記特許文献1の装置は、本船が離着岸設備までどれぐらい離れているかを正確に把握することができないという課題があった。
そこで、本発明は、少なくとも1隻のタグボートで本船がアシストされながら離岸または着岸する際に、本船と離着岸設備との間の正確な距離を把握することができる操船支援システムを提供することを目的とする。
上記の課題を解決するために、本発明の一つの側面からの操船支援システムは、少なくとも1隻のタグボートで本船がアシストされながら離岸または着岸する際に使用される操船支援システムであって、画面を有する表示装置と、前記本船が離着岸する予定の岸壁を含む離着岸領域を上空から撮影された画像情報を取得し、前記本船の外形線情報及び前記画像情報を前記表示装置の画面に表示させる制御装置と、を備え、前記制御装置は、前記本船の位置姿勢情報と前記本船の仕様とを取得し、前記本船の位置姿勢情報と前記本船の仕様とに基づいて前記本船の外形線情報を求める、または、前記タグボートの位置姿勢情報と、前記タグボートの仕様と、前記本船の仕様と、前記タグボートと前記本船との接続情報とを取得し、前記タグボートの位置姿勢情報と、前記タグボートの仕様と、前記本船の仕様と、前記タグボートと前記本船との接続情報とに基づいて前記本船の外形線情報を求める、ことを特徴とする。
上記の構成によれば、制御装置によって、本船の離着岸領域を上空から撮影された画像情報が取得され、本船の外形線情報及び画像情報が表示装置の画面に表示される。具体的に、制御装置によって、前記本船の位置姿勢情報と前記本船の仕様とが取得され、前記本船の位置姿勢情報と前記本船の仕様とに基づいて前記本船の外形線情報が求められる。または、制御装置によって、前記タグボートの位置姿勢情報と、前記タグボートの仕様と、前記本船の仕様と、前記タグボートと前記本船との接続情報とが取得され、前記タグボートの位置姿勢情報と、前記タグボートの仕様と、前記本船の仕様と、前記タグボートと前記本船との接続情報とに基づいて前記本船の外形線情報が求められる。従って、例えばタグボートの操船者は、その画面を見れば、本船と離着岸領域との間の正確な距離を把握することができる。これにより、効率的な離着岸操船が可能になる。
本発明によれば、本船と離着岸設備との間の正確な距離を把握することができる。
(第1実施形態)
図1に、本発明の第1実施形態に係る操船支援システム4を示す。この操船支援システム4は、少なくとも1隻(本実施形態では2隻)のタグボート2で本船1がアシストされながら離岸または着岸する際に使用される支援装置3を含んでいる。本実施形態では、支援装置3は指揮者(水先案内人又は本船の船長)が携帯するか陸上設備に設置される。
図1に、本発明の第1実施形態に係る操船支援システム4を示す。この操船支援システム4は、少なくとも1隻(本実施形態では2隻)のタグボート2で本船1がアシストされながら離岸または着岸する際に使用される支援装置3を含んでいる。本実施形態では、支援装置3は指揮者(水先案内人又は本船の船長)が携帯するか陸上設備に設置される。
支援装置3は、制御装置31、表示装置32、入力装置34及び通信装置33を含む。例えば、支援装置3は、ポータブルタブレットコンピュータであってもよいし、ノートブックコンピュータであってもよい。例えば、支援装置3は、ROMやRAMなどのメモリと、HDDなどのストレージと、CPUを有し、ROMまたはHDDに記憶されたプログラムがCPUにより実行される。入力装置34は、例えば、マウスなどのポインティングデバイスであり、ポータブルタブレットコンピュータまたはノートブックコンピュータの画面上に表示された点を指定するために使用される。
具体的に、操船支援システム4は、支援装置3に加えて、本船1に搭載された表示装置12と、少なくとも1隻のタグボート2に搭載された表示装置22を含む。本船1には、表示装置12の他に、制御装置11および通信装置13が搭載されている。同様に、少なくとも1隻のタグボート2には、表示装置22の他に、制御装置21および通信装置23が搭載されている。本実施形態では、本船1および少なくとも1隻のタグボート2が有人船であることを前提とする。
支援装置3の通信装置33は、本船1の通信装置13およびタグボート2の通信装置23と通信可能なものである。通信装置同士では無線通信が行われ、この無線通信は、AIS(Automatic Identification System:自動船舶識別装置)を介した通信であってもよいし、船間同士の直接通信であってもよいし、地上基地局を介した船陸間通信であってもよい。
本船1の位置は、GNSS(Global Navigation Satellite System)により測定される。例えばGNSS受信機として、本船1にはGPS受信機が設置される。本船1の姿勢は、本船1に設けられた方位計により測定される。以下では、船の位置および船の姿勢に関する情報を総称して船の位置姿勢情報と称する。本実施形態では、本船1の位置姿勢情報は、本船1の通信装置13から支援装置3の通信装置33へ送信される。
タグボート2の位置は、GNSSにより測定される。例えばGNSS受信機として、各タグボート2にはGPS受信機が設置される。タグボート2の姿勢は、タグボート2に設けられた方位計により測定される。本実施形態では、少なくとも1隻のタグボート2の位置姿勢情報は、タグボート2の通信装置23から支援装置3の通信装置33へ送信される。本実施形態では、支援装置3は、制御装置31のメモリにタグボート2の位置姿勢情報をリアルタイムで記憶する。
本実施形態の操船支援システム4では、少なくとも1隻のタグボート2で本船1がアシストされながら離岸または着岸する際に、離着岸オペレーションに関与する船舶に搭載された全ての表示装置12,22,32は同じ画面を表示する。ここでは本船1が離着岸する予定の岸壁を含む離着岸設備7を上空から撮影された画像情報と本船1の外形線情報が全ての表示装置12,22,32に表示される。但し、離着岸設備7の画像情報と本船1の外形線情報は、支援装置3の表示装置32だけに表示されてもよいし、タグボート2の表示装置22だけに表示されてもよいし、本船1の表示装置12だけに表示されてもよい。
表示装置32,12,22に表示される離着岸設備7の画像情報は、本船1の離着岸設備7付近を上空から撮影した位置情報を含む衛星写真の画像情報である。土地所有権等の事情により本船1の離着岸設備7の測量を行うことができないために離着岸設備7の正確な位置情報が地図情報に反映されていない場合があるが、このような場合であっても、位置情報が含まれた衛星写真には離着岸設備は写っている。
さらに、本実施形態の操船支援システム4では、離着岸設備7に対する本船1の相対位置姿勢情報が算出される(以下、単に「相対位置姿勢情報」とも称する)。以下、2隻のタグボート2で本船1を着岸する際の、離着岸設備7に対する本船1の相対位置姿勢情報の算出手順について図2のフローチャートを用いて説明する。ここでは支援装置3において、メモリに記憶されたプログラムが制御装置31により実行されることにより相対位置姿勢情報が算出されるが、相対位置姿勢情報は、本船1の制御装置11又はタグボート2の制御装置21で算出されてもよい。
まず、制御装置31は、本船1の離着岸設備7付近を上空から撮影した衛星写真の画像情報を取得し、画像情報を表示装置32に表示させる(図2のステップS11)。衛星写真の画像情報は、高精度の位置情報を有し、例えばGeoTIFFファイル等のイメージファイル形式で保存されている。衛星写真の画像情報は、インターネットなどを経由して外部サーバーから取得されてもよいし、制御装置31のメモリに予め格納されてもよい。表示装置32は、図3に示すような画面6を有している。制御装置31は、衛星写真座標系C1において、離着岸設備7付近を撮影した衛星写真の画像情報を表示装置32の画面6上に表示させる。図3では離着岸設備7は複数の直線で表されているが、離着岸設備7は1本の直線又は曲線で表されてもよい。
次に、制御装置31は、離着岸設備ポイントを登録する(図2のステップS12)。具体的に、指揮者は、ポインティングデバイス(入力装置34)を操作して、表示装置32の画面6上に表示された離着岸設備7の位置を指定する(衛星写真座標系C1)。制御装置31は、入力装置34により指定された離着岸設備7の3点を離着岸設備ポイント71として登録する。図3では3か所の離着岸設備ポイント71が登録され、黒色の四角で表示されている。
次に、制御装置31は、タグボート2の位置姿勢情報を取得する(図2のステップS13)。具体的に、2隻のタグボート2の位置姿勢情報は、2隻のタグボート2から支援装置3へ送信され、制御装置31のメモリに記憶されている。制御装置31は、メモリに記憶された2隻のタグボート2の位置姿勢情報を読み出す。
次に、制御装置31は、タグボート2の位置姿勢情報を本船着岸ポイントに変換する(図2のステップS14)。具体的に、制御装置31は、2隻のタグボート2の位置姿勢情報、タグボート2の仕様及び本船1の仕様並びに2隻のタグボート2と本船1との接続情報を取得し、2隻のタグボート2の位置姿勢情報、タグボート2の仕様及び本船1の仕様並びに2隻のタグボート2と本船1との接続情報に基づいて、本船1の本船外形線14に関する情報(以下、外形線情報ともいう)を算出する。ここで、2隻のタグボート2と本船1との接続情報は、2隻のタグボート2が本船1に接触していることを示す情報と、2隻のタグボート2が本船1のどの位置に接続しているかを示す情報とが含まれる。本船1の側面にはタグボート2と本船1とを接続可能な接続ポイント(図示せず)が予め複数設けられている。2隻のタグボート2と本船1との接続情報は、各接続ポイントに設けられたセンサ(例えば、圧力センサ及び引っ張りセンサ、スイッチングセンサや近接センサ)により検出してもよいし、タグボート2の操船者が目視で接続状況を確認し、支援装置3に入力されてもよい。また、タグボート2にカメラが設けられ、カメラはカメラ画像にタグボートの先端が映るように設定されていれば、画像処理によりタグボート2の先端に何か接触していることを検知することができる。これにより、2隻のタグボート2と本船1との接続情報をタグボート2に設けられたカメラにより検出してもよい。2隻のタグボート2と本船1の仕様は、制御装置31のメモリに予め格納されている。制御装置31は、2隻のタグボート2と本船1との接続情報により、まだ接触していない場合は、本船1の本船外形線14を点線や点滅等によって表示してもよい。制御装置31は、2隻のタグボート2と本船1との接続情報により、2隻のタグボート2と本船1と接触したことを検出した場合は、点線によって表示されていた本船1の本船外形線14を実線で表示してもよい。または、制御装置31は、2隻のタグボート2と本船1との接続情報により、2隻のタグボート2と本船1と接触したことを検出した場合は、点滅によって表示されていた本船1の本船外形線14を常時点灯するように表示してもよい。このように、制御装置31は、2隻のタグボート2と本船1との接続情報を取得し、2隻のタグボート2と本船1との接続情報に基づいて、2隻のタグボート2が本船1と接触していることを検出した場合には、画面上に表示されていた本船1の外形線14の表示態様を変更させてもよい。これにより、例えば本船1の船長がその画面を見れば、2隻のタグボート2による本船1の着岸操船の準備が整ったことを視認することができる。
そして、制御装置31は、GPS座標系において、算出した本船1の外形線情報を本船着岸ポイント15に変換する。本船着岸ポイント15は、離着岸設備7における3つの離着岸設備ポイント71(ステップS12で登録)に対応する本船1の本船外形線14上の3つの点に変換される。本船着岸ポイント15は、予め定められていてもよいし、入力装置34を介して入力されてもよい。
図4は、表示装置32にGPS座標系C2における2隻のタグボート2の位置姿勢情報と本船着岸ポイント15を表示した例である。図4の画面6の中央付近には、離着岸操船における2隻のタグボート外形線24が表示されている(GPS座標系C2)。タグボート外形線24の形状は、船尾を底辺、船首を頂点とする二等辺三角形で表示される。図4の画面6の左側には、本船外形線14が表示されている(GPS座標系C2)。本船外形線14の形状は、船尾を底辺、船首を頂点とする五角形で表示され、左側面には黒い四角で示した本船着岸ポイント15が3点示されている。
次に、支援装置3は、離着岸設備ポイント71と、離着岸設備7に対する本船1の相対位置姿勢情報72を算出する(図2のステップS15)。具体的に、制御装置31は、ステップS12で登録した離着岸設備ポイント71を、衛星写真座標系C1からGPS座標系C2へ座標変換する。GPS座標系C2において、離着岸設備ポイント71及び本船着岸ポイント15(ステップS14で算出)に基づいて、離着岸設備7に対する本船1の相対位置姿勢情報72を計算する。
最後に、制御装置31は、離着岸設備7に対する本船1の相対位置姿勢情報72を表示装置32の画面に表示させる(図2のステップS16)。具体的に、制御装置31は、相対位置姿勢情報72を、GPS座標系C2から衛星写真座標系C1へ座標変換する。表示装置32は、図5に示すように、衛星写真座標系C1において、相対位置姿勢情報72とともに、離着岸設備ポイント71を含む離着岸設備7を画面6に表示する。ここでは、制御装置31は、本船着岸ポイント15を含む本船外形線14、および、2隻のタグボート外形線24についてもGPS座標系C2から衛星写真座標系C1へ座標変換し、表示装置32は、本船着岸ポイント15を含む本船外形線14、および、2隻のタグボート外形線24を画面6に表示する。
以上説明したように、本実施形態の操船支援システム4では、制御装置31によって、本船1の離着岸設備7を上空から撮影された衛星写真の画像情報が取得され、本船1の外形線14及び離着岸設備7の画像情報が表示装置32,12,22の画面に表示される。本船1の外形線14は、制御装置31によって、タグボート2の位置姿勢情報と、タグボート2の仕様と、本船1の仕様と、タグボート2と本船1との接続情報とが取得され、タグボート2の位置姿勢情報と、タグボート2の仕様と、本船1の仕様と、タグボート2と本船1との接続情報とに基づいて算出される。従って、例えばタグボート2の操船者がその画面を見れば、本船1と離着岸設備7との間の正確な距離を把握することができる。これにより、効率的な離着岸操船が可能になる。
また、本実施形態の操船支援システム4では、制御装置31によって、本船の外形線情報及び画像情報に基づいて、本船と離着岸設備7との間の正確な距離(相対位置姿勢情報72)を算出することができる。表示装置32,12,22の画面に相対位置姿勢情報72が表示されるので、例えばタグボート2の操船者がその画面を見れば、本船1と離着岸設備7との間の正確な距離を把握し易くなる。また、相対位置姿勢情報72をタグボート2の推進システム(図示せず)に活用することで、離着岸操船の自動化を実現することができる。
また、本実施形態の操船支援システム4では、制御装置31によって、本船1の外形線14が、離着岸設備ポイント71に対応する本船1の外形線14上の点である本船着岸ポイント15に変換され、変換された本船着岸ポイント15が表示装置32,12,22の画面に表示される。そして、制御装置31によって、離着岸設備ポイント71および本船着岸ポイント15に基づいて、相対位置姿勢情報72が算出されるので、例えばタグボート2の操船者がその画面を見れば、画面上に登録された離着岸設備ポイント71と、本船1の外形線14上の本船着岸ポイント15との間の正確な距離を把握することができる。
(第2実施形態)
次に、第2実施形態について説明する。本実施形態の操船支援システムの基本的な構成は、第1実施形態と同様である。以下では、第1実施形態と共通する構成の説明は省略し、相違する構成についてのみ説明する。
次に、第2実施形態について説明する。本実施形態の操船支援システムの基本的な構成は、第1実施形態と同様である。以下では、第1実施形態と共通する構成の説明は省略し、相違する構成についてのみ説明する。
図6は、本発明の第2実施形態に係る操船支援システム4Aを示す。この操船支援システム4Aは、カメラ53を搭載した自律式の無人航空機5を更に備える点が第1実施形態の操船支援システム4(図1)と異なる。この無人航空機5は、支援装置3A(通信装置33)と通信可能に構成される。また、この無人航空機5は、GPS受信機等の各種センサを搭載し、公知の技術で自律制御を実現可能な構成を備える。
無人航空機5は、離着岸設備7から所定範囲内を飛行する。具体的に、無人航空機5は、本船1(例えばデッキ)の上で飛行可能な状態で待機し、本船1が離着岸設備7に近づき、離着岸設備7から所定範囲内に近づくと飛行を開始する。無人航空機5は、タグボート2のデッキで飛行可能な状態で待機していてもよい。無人航空機5は、離着岸設備7で飛行可能な状態で待機していてもよい。所定範囲とは、離着岸設備7の岸から例えば約20mの範囲である。また、例えば、タグボート2に搭載しているGPSにより離着岸設備7とタグボート2との距離が所定範囲内に近づいた場合、無人航空機5は飛行を開始してもよい。
無人航空機5は、飛行中に、カメラ53により離着岸設備7付近を撮影する。制御装置31は、無人航空機5で本船1の離着岸設備7付近を撮影した画像を取得し、取得した画像を表示装置32,12,22に表示させる。本実施形態の操船支援システム4Aでは、無人航空機5は、飛行中にカメラ53により離着岸設備7付近を撮影する。制御装置31は、無人航空機5で本船1の離着岸設備7付近を撮影した画像とともに、タグボート2の位置姿勢情報(GPS測位情報)を取得し、取得したタグボート2の位置姿勢情報に対応した本船1の外形線14及び離着岸設備7の画像情報を表示装置32,12,22の画面に表示する。本船1の外形線14は、制御装置31によって、タグボート2の位置姿勢情報並びにタグボート2の仕様及び本船1の仕様に基づいて算出される。従って、タグボート2側において、タグボート2の操船者がその画面を見れば、本船1との通信による連携を行うことなく、本船1と離着岸設備7との間の正確な距離を把握することができる。
また、無人航空機5を以下のように制御することで、指揮者及びタグボート2の操船者は、表示装置32の画面を見るだけで、本船1とその周りにいるタグボート2の状況をリアルタイムで把握できる。指揮者及びタグボート2の操船者は、船橋(ブリッジ)を行き来することなく、簡易に着岸状況を把握できる。
以下、無人航空機5の動作について図7のフローチャートを用いて説明する。まず、無人航空機5は、離着岸設備7から所定範囲内を飛行する(図7のステップS21)。次に、図8に示すように、カメラ映像において本船1とタグボート2とが撮影範囲内に入るように無人航空機5の高さを自律制御する(図7のステップS22)。具体的に、無人航空機5は、GPS受信機を搭載しているので、無人航空機5のカメラ53によって撮影された写真について、無人航空機5の高度情報とカメラ53の画角情報から撮影写真の画素当たりの距離データを算出し、画素当たりの距離データから撮影写真の各画素の位置情報(GPS座標系)を計算することができる。これにより、カメラ映像において本船1の中心が画像中央付近となるように制御し、本船1とタグボート2とが撮影範囲内に入るように無人航空機5の高さを画像から決定するより正確に制御することができる。本船1とタグボート2と離着岸設備7とが撮影範囲内に入るように無人航空機5の高さを制御することもできる。
表示装置32,12,22は、カメラ53で撮影されたカメラ映像を表示する(図7のステップS23)。具体的に、無人航空機5は、カメラ映像を画像情報として支援装置3A(通信装置33)に送信する。支援装置3Aの表示装置32,12,22は、カメラ映像の画像情報を画面6上に表示する。
以上説明したように、本実施形態の操船支援システム4Aは、カメラ53を搭載した自律式の無人航空機5を備えているので、指揮者並びに本船1及びタグボート2の操船者は、表示装置32,12,22の画面を見るだけで、本船1とその周りにいるタグボート2の状況をリアルタイムで把握できる。指揮者並びに本船1及びタグボート2の操船者は、船橋(ブリッジ)を行き来することなく、簡易に着岸状況を把握できる。本船1とタグボート2と離着岸設備7とが撮影範囲内に入るように無人航空機5の高さを制御する場合は、本船1とその周りにいるタグボート2の状況および離着岸設備7をリアルタイムで把握できる。指揮者並びに本船1及びタグボート2の操船者は、船橋(ブリッジ)を行き来することなく、簡易に着岸状況を把握できる。
(変形例)
本発明は上述した実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲で種々の変形が可能である。
本発明は上述した実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲で種々の変形が可能である。
支援装置3,3Aは、本船1に搭載されてもよい。この場合、本船1に搭載される表示装置12は不要である。また、支援装置3,3Aが本船1に搭載される場合は、タグボート2に搭載される表示装置22が、画面上に、図5で示したような離着岸設備7に対する本船1の相対位置姿勢情報72を表示可能であれば、本船1の操船者とタグボート2の操船者とで相対位置姿勢情報72を共有することができる。
あるいは、支援装置3は、1隻のタグボート2に搭載されてもよい。この場合、そのタグボート2に搭載される表示装置22は不要である。また、支援装置3,3Aは1隻のタグボート2に搭載される場合は、本船1に搭載される表示装置12が、画面上に、図5で示したような離着岸設備7に対する本船1の相対位置姿勢情報72を表示可能であれば、本船1の操船者とタグボート2の操船者とで相対位置姿勢情報72を共有することができる。
あるいは、操船支援システム4,4Aにより算出した相対位置姿勢情報72に基づいて、離着岸操船が自動化されてもよい。自動操船の場合には、例えば、操船支援システム4,4Aは、相対位置姿勢情報72に基づいて、本船1および/またはタグボート2の推進指令を生成し、これらの推進システムに推進指令を与える。この場合、表示装置12,22,32は省略されてもよいが操船状況を監視するためのモニタとして使用されてもよい。
また、上記実施形態の操船支援システム4,4Aでは、指揮者が、支援装置3,3Aのポインティングデバイス(入力装置34)を操作して、表示装置32の画面6上に表示された離着岸設備7の位置を指定したが、本船1の操船者が、本船1の制御装置11の入力装置(図示せず)を操作して、表示装置12の画面上に表示された離着岸設備7の位置を指定してもよいし、タグボート2の操船者が、タグボート2の制御装置21の入力装置(図示せず)を操作して、表示装置22の画面上に表示された離着岸設備7の位置を指定してもよい。
その他、上記実施形態では、支援装置3,3Aは、入力装置34を備えたが、省略されてもよい。
また、上記実施形態の操船支援システム4,4Aでは、表示装置32,12,22の画面に表示された本船1の外形線14は、制御装置31によって、タグボート2の位置姿勢情報(GPS測位)と、タグボート2の仕様と、本船1の仕様と、タグボート2と本船1との接続情報とが取得され、タグボート2の位置姿勢情報と、タグボート2の仕様と、本船1の仕様と、タグボート2と本船1との接続情報とに基づいて算出されたが、このような態様に限られない。表示装置32,12,22の画面に表示された本船1の外形線14は、制御装置31によって、本船の位置姿勢情報(GPS測位)と本船1の仕様とが取得され、本船の位置姿勢情報(GPS測位)と本船1の仕様とに基づいて算出されてもよい。このとき、本船1の位置姿勢情報は、本船1の通信装置13から支援装置3の通信装置33へ送信され、制御装置31のメモリにリアルタイムで記憶される。
尚、上記実施形態では、離着岸設備7において指定された離着岸設備ポイント71及びこれに対応する本船外形線14の本船着岸ポイント15は3点であったが(図5参照)、2点以上であればこれに限られない。また、離着岸設備ポイント71の代表点を指定するだけで、自船の大きさに応じて自動的に他の点が指定されるようにしてもよい。また、離着岸設備ポイント71及び本船着岸ポイント15は図9に示すように2点でもよい。図9では、衛星写真の座標系C1において、画面6に表示された離着岸設備ポイント71の2点間の距離L1と、本船着岸ポイント15の2点間の距離L2は等距離としたが、図10に示すように、衛星写真の座標系C1において、画面6に表示された離着岸設備ポイント71の2点間の距離L1と、本船着岸ポイント15の距離L2は異なってもよい。この場合、例えばL1とL2の距離が等しくなるように、離着岸設備ポイント71(又は本船着岸ポイント15)の位置が自動的に修正されるようにしてもよい。
(まとめ)
本発明の一つの側面からの操船支援システムは、少なくとも1隻のタグボートで本船がアシストされながら離岸または着岸する際に使用される操船支援システムであって、画面を有する表示装置と、本船が離着岸する予定の岸壁を含む離着岸領域を上空から撮影された画像情報を取得し、本船の外形線情報及び画像情報を表示装置の画面に表示させる制御装置と、を備え、制御装置は、本船の位置姿勢情報と本船の仕様とを取得し、本船の位置姿勢情報と本船の仕様とに基づいて本船の外形線情報を求める、または、タグボートの位置姿勢情報と、タグボートの仕様と、本船の仕様と、タグボートと本船との接続情報とを取得し、タグボートの位置姿勢情報と、タグボートの仕様と、本船の仕様と、タグボートと本船との接続情報とに基づいて本船の外形線情報を求める、ことを特徴とする。
本発明の一つの側面からの操船支援システムは、少なくとも1隻のタグボートで本船がアシストされながら離岸または着岸する際に使用される操船支援システムであって、画面を有する表示装置と、本船が離着岸する予定の岸壁を含む離着岸領域を上空から撮影された画像情報を取得し、本船の外形線情報及び画像情報を表示装置の画面に表示させる制御装置と、を備え、制御装置は、本船の位置姿勢情報と本船の仕様とを取得し、本船の位置姿勢情報と本船の仕様とに基づいて本船の外形線情報を求める、または、タグボートの位置姿勢情報と、タグボートの仕様と、本船の仕様と、タグボートと本船との接続情報とを取得し、タグボートの位置姿勢情報と、タグボートの仕様と、本船の仕様と、タグボートと本船との接続情報とに基づいて本船の外形線情報を求める、ことを特徴とする。
上記の構成によれば、制御装置によって、本船の離着岸領域を上空から撮影された画像情報が取得され、本船の外形線情報及び画像情報が表示装置の画面に表示される。具体的に、制御装置によって、本船の位置姿勢情報と本船の仕様とが取得され、本船の位置姿勢情報と本船の仕様とに基づいて本船の外形線情報が求められる。または、制御装置によって、タグボートの位置姿勢情報と、タグボートの仕様と、本船の仕様と、タグボートと本船との接続情報とが取得され、タグボートの位置姿勢情報と、タグボートの仕様と、本船の仕様と、タグボートと本船との接続情報とに基づいて本船の外形線情報が求められる。従って、例えばタグボートの操船者は、その画面を見れば、本船と離着岸領域との間の正確な距離を把握することができる。これにより、効率的な離着岸操船が可能になる。
また、制御装置は、本船の外形線情報及び画像情報に基づいて、離着岸領域に対する本船の相対位置姿勢情報を算出し、算出した相対位置姿勢情報を表示装置の画面に表示させてもよい。
上記の構成によれば、制御装置によって、本船の外形線情報及び画像情報に基づいて、本船と離着岸設備との間の正確な距離を算出することができる。表示装置の画面に相対位置姿勢情報が表示されるので、例えばタグボートの操船者がその画面を見れば、本船と離着岸領域との間の正確な距離を把握し易くなる。また、相対位置姿勢情報を例えばタグボートの推進システムに活用することで、離着岸操船の自動化を実現することができる。
上記操船支援システムは、ユーザの入力を受け付ける入力装置を更に備え、入力装置は、画面上に表示された画像情報に含まれる離着岸領域のうちの二以上の点についての入力を受け付け、制御装置は、入力装置により受け付けられた離着岸領域の点を離着岸ポイントとして登録し、離着岸ポイント及び本船の外形線情報に基づいて、相対位置姿勢情報を算出してもよい。
上記構成によれば、例えばタグボートの操船者によって、画面を見ながら入力装置を操作して、画面上に表示された離着岸領域のうちの二以上の点を入力すると、入力された点が離着岸ポイントとして登録される。これにより、登録された離着岸ポイントと本船との間の正確な距離を算出することができる。
具体的に、制御装置は、本船の外形線情報を、離着岸ポイントに対応する本船の外形線上の二以上の点である本船着岸ポイントに変換し、変換した本船着岸ポイントを表示装置の画面に表示させ、離着岸ポイントに対する本船着岸ポイントの相対位置姿勢情報を算出してもよい。
上記構成によれば、制御装置によって、本船の外形線情報が、離着岸ポイントに対応する本船の外形線上の二以上の点である本船着岸ポイントに変換され、変換された本船着岸ポイントが表示装置の画面に表示される。そして、制御装置によって、離着岸ポイントに対する本船着岸ポイントの相対位置姿勢情報が算出されるので、例えばタグボートの操船者がその画面を見れば、画面上に登録された離着岸ポイントと、本船の外形線上の本船着岸ポイントとの間の正確な距離を把握することができる。
また、制御装置は、タグボートと本船との接続情報を取得し、タグボートと本船との接続情報に基づいて、タグボートが本船に接触していることを検出した場合には、画面上に表示された本船の外形線情報の表示態様を変更してもよい。
上記構成によれば、制御装置によって、タグボートと本船との接続情報に基づいて、タグボートが本船に接触していることが検出された場合には、画面上に表示された本船の外形線情報の表示態様が変更されるので、例えば本船の船長がその画面を見れば、タグボートによる本船の着岸操船の準備が整ったことを視認することができる。
尚、画像情報は、位置情報を含む衛星写真の画像情報でもよい。
その他、上記操船支援システムは、カメラを搭載し、制御装置と通信可能に構成された自律式の無人航空機を更に備え、制御装置は、飛行中の無人航空機のカメラにより離着岸領域を撮影したカメラ映像を画像情報として取得してもよい。具体的に、無人航空機は、離着岸領域から所定範囲内を飛行し、且つ、カメラ映像において本船、タグボートおよび離着岸領域が撮影範囲内に入るように無人航空機の高さを自律制御し、カメラ映像の画像情報を制御装置に送信してもよい。
この構成によれば、操船支援システムが、カメラを搭載した自律式の無人航空機を備えているので、例えばタグボートの操船者は、表示装置の画面を見るだけで、本船とその周りにいるタグボートの状況をリアルタイムで把握できる。タグボートの操船者は、船橋(ブリッジ)を行き来することなく、簡易に着岸状況を把握できる。
1 本船
11 制御装置
12 表示装置
13 通信装置
14 本船外形線
15 本船着岸ポイント
2 タグボート
21 制御装置
22 表示装置
23 通信装置
24 タグボート外形線
3 支援装置
31 通信装置
32 制御装置
33 表示装置
33a 画面
34 入力装置
31 制御装置
32 表示装置
33 通信装置
34 入力装置
35 記憶装置
4,4A 操船支援システム
5 無人航空機
53 カメラ
7 離着岸設備(離着岸領域)
71 離着岸設備ポイント
72 相対位置姿勢情報
11 制御装置
12 表示装置
13 通信装置
14 本船外形線
15 本船着岸ポイント
2 タグボート
21 制御装置
22 表示装置
23 通信装置
24 タグボート外形線
3 支援装置
31 通信装置
32 制御装置
33 表示装置
33a 画面
34 入力装置
31 制御装置
32 表示装置
33 通信装置
34 入力装置
35 記憶装置
4,4A 操船支援システム
5 無人航空機
53 カメラ
7 離着岸設備(離着岸領域)
71 離着岸設備ポイント
72 相対位置姿勢情報
Claims (8)
- 少なくとも1隻のタグボートで本船がアシストされながら離岸または着岸する際に使用される操船支援システムであって、
画面を有する表示装置と、
前記本船が離着岸する予定の岸壁を含む離着岸領域を上空から撮影された画像情報を取得し、前記本船の外形線情報及び前記画像情報を前記表示装置の画面に表示させる制御装置と、を備え、
前記制御装置は、前記本船の位置姿勢情報と前記本船の仕様とを取得し、前記本船の位置姿勢情報と前記本船の仕様とに基づいて前記本船の外形線情報を求める、または、前記タグボートの位置姿勢情報と、前記タグボートの仕様と、前記本船の仕様と、前記タグボートと前記本船との接続情報とを取得し、前記タグボートの位置姿勢情報と、前記タグボートの仕様と、前記本船の仕様と、前記タグボートと前記本船との接続情報とに基づいて前記本船の外形線情報を求めることを特徴とする、操船支援システム。 - 前記制御装置は、前記本船の外形線情報及び前記画像情報に基づいて、前記離着岸領域に対する本船の相対位置姿勢情報を算出し、算出した前記相対位置姿勢情報を前記表示装置の画面に表示させる、
請求項1に記載の操船支援システム。 - ユーザの入力を受け付ける入力装置を更に備え、
前記入力装置は、前記画面上に表示された前記画像情報に含まれる前記離着岸領域のうちの二以上の点についての入力を受け付け、
前記制御装置は、
前記入力装置により受け付けられた前記離着岸領域の点を離着岸ポイントとして登録し、
前記離着岸ポイント及び前記本船の外形線情報に基づいて、前記相対位置姿勢情報を算出する、
請求項2に記載の操船支援システム。 - 前記制御装置は、
前記本船の外形線情報を、前記離着岸ポイントに対応する前記本船の外形線上の二以上の点である本船着岸ポイントに変換し、変換した本船着岸ポイントを前記表示装置の画面に表示させ、
前記離着岸ポイントおよび前記本船着岸ポイントに基づいて、前記相対位置姿勢情報を算出する、請求項3に記載の操船支援システム。 - 前記制御装置は、前記タグボートと前記本船との接続情報を取得し、前記タグボートと前記本船との接続情報に基づいて、前記タグボートが前記本船に接触していることを検出した場合には、画面上に表示された前記本船の外形線情報の表示態様を変更する、請求項1乃至3のいずれか一項に記載の操船支援システム。
- 前記画像情報は、位置情報を含む衛星写真の画像情報である、
請求項1乃至5のいずれか一項に記載の操船支援システム。 - カメラを搭載し、前記制御装置と通信可能に構成された自律式の無人航空機を更に備え、
前記制御装置は、飛行中の前記無人航空機の前記カメラにより前記離着岸領域を撮影したカメラ映像を前記画像情報として取得する、
請求項1乃至5のいずれか一項に記載の操船支援システム。 - 前記無人航空機は、前記離着岸領域から所定範囲内を飛行し、且つ、前記カメラ映像において前記本船、前記タグボートおよび前記離着岸領域が撮影範囲内に入るように前記無人航空機の高さを自律制御し、前記カメラ映像の画像情報を前記制御装置に送信する、
請求項7に記載の操船支援システム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019188377A JP7386039B2 (ja) | 2019-10-15 | 2019-10-15 | 操船支援システム |
JP2019-188377 | 2019-10-15 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2021075364A1 true WO2021075364A1 (ja) | 2021-04-22 |
Family
ID=75487317
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2020/038248 WO2021075364A1 (ja) | 2019-10-15 | 2020-10-09 | 操船支援システム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7386039B2 (ja) |
WO (1) | WO2021075364A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021189031A1 (en) * | 2020-03-20 | 2021-09-23 | Cashman Dredging And Marine Contracting, Co., Llc | Lidar vessel-to-vessel docking system and method |
CN116767424B (zh) * | 2023-06-08 | 2023-12-15 | 交通运输部水运科学研究所 | 一种无人机协同辅助船舶靠泊方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6269763B1 (en) * | 1998-02-20 | 2001-08-07 | Richard Lawrence Ken Woodland | Autonomous marine vehicle |
JP2005180949A (ja) * | 2003-12-16 | 2005-07-07 | Tama Tlo Kk | 船舶自動接岸システム |
WO2019093416A1 (ja) * | 2017-11-08 | 2019-05-16 | Molエンジニアリング株式会社 | 船舶の航行支援システム |
JP2019515829A (ja) * | 2016-03-31 | 2019-06-13 | エー・ピー・モラー−マースク エー/エス | 1隻または複数隻のタグボートを操作する方法およびシステム |
JP2019166959A (ja) * | 2018-03-23 | 2019-10-03 | Hapsモバイル株式会社 | Hapsを介した広域水中探査潜水ロボットによるリアルタイム水中探査 |
-
2019
- 2019-10-15 JP JP2019188377A patent/JP7386039B2/ja active Active
-
2020
- 2020-10-09 WO PCT/JP2020/038248 patent/WO2021075364A1/ja active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6269763B1 (en) * | 1998-02-20 | 2001-08-07 | Richard Lawrence Ken Woodland | Autonomous marine vehicle |
JP2005180949A (ja) * | 2003-12-16 | 2005-07-07 | Tama Tlo Kk | 船舶自動接岸システム |
JP2019515829A (ja) * | 2016-03-31 | 2019-06-13 | エー・ピー・モラー−マースク エー/エス | 1隻または複数隻のタグボートを操作する方法およびシステム |
WO2019093416A1 (ja) * | 2017-11-08 | 2019-05-16 | Molエンジニアリング株式会社 | 船舶の航行支援システム |
JP2019166959A (ja) * | 2018-03-23 | 2019-10-03 | Hapsモバイル株式会社 | Hapsを介した広域水中探査潜水ロボットによるリアルタイム水中探査 |
Also Published As
Publication number | Publication date |
---|---|
JP2021062748A (ja) | 2021-04-22 |
JP7386039B2 (ja) | 2023-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101683274B1 (ko) | 무인항공기를 이용한 선박 접안 지원 시스템 및 그 방법 | |
US11328155B2 (en) | Augmented reality labels systems and methods | |
CN115214866B (zh) | 自动定位放置系统 | |
US11430332B2 (en) | Unmanned aerial system assisted navigational systems and methods | |
EP2118713B1 (en) | Precision approach control | |
WO2018201097A2 (en) | Video and image chart fusion systems and methods | |
WO2017136014A2 (en) | Video sensor fusion and model based virtual and augmented reality systems and methods | |
WO2021075364A1 (ja) | 操船支援システム | |
JP7386041B2 (ja) | 操船支援システム及び方法 | |
CN111966133A (zh) | 一种云台视觉伺服控制系统 | |
KR102007849B1 (ko) | 무인항공기에 탑재된 3d 라이다를 이용한 선박 입출항 지원 시스템 및 방법 | |
GB2611003A (en) | Video sensor fusion and model based virtual and augmented reality systems and methods | |
EP3860908B1 (en) | System and method for assisting docking of a vessel | |
EP3077880B1 (en) | Imaging method and apparatus | |
JPWO2019093416A1 (ja) | 船舶の航行支援システム | |
WO2018102772A1 (en) | System and method for augmented reality comprising labels | |
JP2023080054A (ja) | 多重映像ベースの船舶近接周辺状況認識支援システム及び方法 | |
JP2019200198A (ja) | 検査装置 | |
JP2016118995A (ja) | 監視システム | |
KR102045362B1 (ko) | 회전익기의 조종 보조 장치, 연관된 디스플레이, 및 대응하는 조종 보조 방법 | |
JP6738059B2 (ja) | 表示装置、探索システム、表示方法、およびプログラム | |
Okazaki et al. | Development of sea route display system by using augmented reality | |
WO2024116719A1 (ja) | 航行支援装置、航行支援方法、及びプログラム | |
WO2024116717A1 (ja) | 航行支援装置、航行支援方法、及びプログラム | |
JP2004151278A (ja) | 空中写真地図作成装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 20877635 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 20877635 Country of ref document: EP Kind code of ref document: A1 |