KR20130134833A - Robot and method for direction recognition - Google Patents
Robot and method for direction recognition Download PDFInfo
- Publication number
- KR20130134833A KR20130134833A KR1020120058654A KR20120058654A KR20130134833A KR 20130134833 A KR20130134833 A KR 20130134833A KR 1020120058654 A KR1020120058654 A KR 1020120058654A KR 20120058654 A KR20120058654 A KR 20120058654A KR 20130134833 A KR20130134833 A KR 20130134833A
- Authority
- KR
- South Korea
- Prior art keywords
- robot
- housing
- hull surface
- driving direction
- driving
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 239000011324 bead Substances 0.000 claims abstract description 46
- 238000004891 communication Methods 0.000 claims abstract description 44
- 230000001413 cellular effect Effects 0.000 claims 1
- 238000004140 cleaning Methods 0.000 description 26
- 238000010586 diagram Methods 0.000 description 7
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 241000238586 Cirripedia Species 0.000 description 2
- XEEYBQQBJWHFJM-UHFFFAOYSA-N Iron Chemical compound [Fe] XEEYBQQBJWHFJM-UHFFFAOYSA-N 0.000 description 2
- 239000000446 fuel Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000013535 sea water Substances 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 238000003466 welding Methods 0.000 description 2
- 241000195493 Cryptophyta Species 0.000 description 1
- 229910000831 Steel Inorganic materials 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003703 image analysis method Methods 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 229910052742 iron Inorganic materials 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000010959 steel Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
- B25J5/007—Manipulators mounted on wheels or on carriages mounted on wheels
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1684—Tracking a line or surface by means of sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B63—SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
- B63B—SHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING
- B63B59/00—Hull protection specially adapted for vessels; Cleaning devices specially adapted for vessels
- B63B59/06—Cleaning devices for hulls
- B63B59/08—Cleaning devices for hulls of underwater surfaces while afloat
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Multimedia (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Ocean & Marine Engineering (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
본 발명은 로봇 및 방향 인식 방법에 관한 것으로, 상세하게는 선체면을 따라 주행하며 로봇 및 상기 로봇의 주행 방향을 인식하는 방향 인식 방법에 관한 것이다.The present invention relates to a robot and a direction recognition method, and more particularly, to a direction recognition method for driving along the hull surface and recognizing the driving direction of the robot.
선저를 비롯한 선체의 수중 외판에 따개비나 물이끼와 같은 수중 생물(sea growth)이 부착되면 수중 저항이 증가하며, 이로 인하여 선박의 운항 속도가 저하되고 연료 소모량이 증가하는 문제가 야기될 수 있다. 따라서, 선박을 운용함에 있어서 선체의 수중 외판을 정기적으로 청소하는 것이 필수적이다.When sea growth, such as barnacles or moss, is attached to the outer shell of the hull and other hulls, the resistance to the water increases, which may cause a problem of slowing the ship's operating speed and increasing fuel consumption. Therefore, it is essential to regularly clean the outer shell of the hull in operation of the ship.
종래에는 선체면을 수작업으로 청소하고 있는데, 작업자가 수중에 장시간 잠수해야 하므로 시간의 제약이 따를 뿐 아니라 청소로 인해 발생하는 수중 부유물로 인하여 시계가 좋지 않은 등 작업 환경이 열악하여 청소시간이 많이 소요되는 문제점이 있었다. 더구나 조류가 강하거나 파도가 심한 경우에는 안전상의 문제로 인해 청소를 할 수 없다.Conventionally, the hull surface is cleaned by hand, but since the worker has to dive for a long time in the water, it is not only limited by time, but also requires a lot of cleaning time due to poor working environment such as poor clock due to underwater floating caused by cleaning. There was a problem. In addition, if the algae is strong or the waves are severe, it is not possible to clean due to safety problems.
최근에는 미리 정해진 경로에 따라 자동으로 또는 원격 조종을 받아 선체면을 주행하면서 청소를 하는 청소 장비가 개발되고 있는데, 기존의 청소 장비들은 정확한 주행 방향을 인식할 수 없어 동일 구역을 중복적으로 주행하거나 또는 아직 청소하지 않을 구역을 주행하지 않는 등에 따라 청소 효율이 낮은 문제점을 가지고 있다. Recently, cleaning equipment has been developed to clean the hull surface automatically or remotely according to a predetermined path. Existing cleaning equipment cannot recognize the exact direction of travel and repeatedly travel the same area. Or there is a problem that the cleaning efficiency is low, such as not driving the area not yet cleaned.
본 발명의 일 과제는, 비드선을 이용하여 정확한 주행 방향을 인식하는 로봇 및 방향 인식 방법을 제공하는 것이다.One object of the present invention is to provide a robot and a direction recognition method for recognizing a correct driving direction using a bead line.
본 발명의 다른 과제는, 정확한 방향을 인식하여 선체면을 효과적으로 청소하는 로봇 및 방향 인식 방법을 제공하는 것이다.Another object of the present invention is to provide a robot and direction recognition method for effectively cleaning the hull surface by recognizing the correct direction.
본 발명이 해결하고자 하는 과제가 상술한 과제로 제한되는 것은 아니며, 언급되지 아니한 과제들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problem to be solved by the present invention is not limited to the above-described problem, the objects that are not mentioned will be clearly understood by those skilled in the art from the present specification and the accompanying drawings. .
본 발명의 일 측면에 따르면, 용접된 비드선이 형성된 선체면에 부착되는 하우징; 상기 하우징을 주행시키는 바퀴; 상기 하우징의 3차원 위치를 외부로부터 제공받는 통신 모듈; 상기 하우징의 전방을 촬영하는 카메라; 및 상기 카메라에 의해 촬영된 상기 비드선의 방향과 상기 촬영된 영상의 기준선의 각도 차이를 산출하여, 상기 하우징의 주행 방향을 산출하는 제어기;를 포함하는 로봇이 제공될 수 있다.According to an aspect of the invention, the housing is attached to the hull surface is formed welded bead wire; Wheels for driving the housing; A communication module configured to receive a three-dimensional position of the housing from an outside; A camera for photographing the front of the housing; And a controller configured to calculate an angle difference between a direction of the bead line photographed by the camera and a reference line of the photographed image, and to calculate a driving direction of the housing.
또한, 상기 선체면의 상기 비드선을 포함하는 맵 데이터를 저장하는 메모리;를 더 포함하고, 상기 제어기는, 상기 하우징의 3차원 위치와 상기 맵 데이터를 참조하여 상기 하우징의 위치 및 주행 방향을 산출할 수 있다. The apparatus may further include a memory configured to store map data including the bead line of the hull surface, wherein the controller calculates a position and a driving direction of the housing by referring to the three-dimensional position of the housing and the map data. can do.
또한, 상기 하우징은 자력에 의해 상기 선체면에 부착되고, 상기 하우징의 주행 거리를 측정하는 주행 거리 센서를 더 포함할 수 있다. The housing may further include a travel distance sensor attached to the hull surface by magnetic force and measuring a travel distance of the housing.
또한, 상기 통신 모듈은 전 지구 위성 항법 시스템(GNSS), 휴대폰 기지국, 및 근거리 무선 통신망 중 적어도 어느 하나로부터 상기 하우징의 3차원 위치를 제공받을 수 있다.In addition, the communication module may be provided with a three-dimensional position of the housing from at least one of a global satellite navigation system (GNSS), a mobile phone base station, and a local area wireless communication network.
본 발명의 다른 측면에 따르면, 용접된 비드선이 형성된 선체면을 주행하는 로봇의 주행 방향을 인식하는 방법으로서, 상기 로봇이 상기 선체면에 부착되어 주행하는 단계; 상기 로봇의 3차원 위치를 외부로부터 제공받는 단계; 상기 로봇의 전방을 촬영하는 단계; 및 촬영된 상기 비드선의 방향과 상기 촬영된 영상의 기준선의 각도 차이를 산출하여, 상기 로봇의 주행 방향을 산출하는 단계;를 포함하는 로봇의 주행 방향 인식 방법이 제공될 수 있다. According to another aspect of the present invention, a method for recognizing the driving direction of the robot traveling on the hull surface is formed welded bead line, the robot is attached to the hull surface for traveling; Receiving a three-dimensional position of the robot from the outside; Photographing the front of the robot; And calculating a driving direction of the robot by calculating an angle difference between the direction of the photographed bead line and the reference line of the photographed image, and the driving direction recognition method of the robot.
또한, 상기 선체면의 상기 비드선을 포함하는 맵 데이터를 저장하는 단계를 더 포함하고, 상기 로봇의 주행 방향을 인식하는 단계는, 상기 로봇의 3차원 위치와 상기 맵 데이터를 참조하여 상기 로봇의 위치 및 주행 방향을 산출할 수 있다. The method may further include storing map data including the bead line of the hull surface, and recognizing a driving direction of the robot by referring to a three-dimensional position of the robot and the map data. The position and the driving direction can be calculated.
본 발명에 의하면, 로봇의 주행 방향을 정확히 인식할 수 있다.According to the present invention, it is possible to accurately recognize the driving direction of the robot.
본 발명에 의하면, 주행 방향을 정확히 인식함으로써 로봇을 주행 방향을 원하는 방향으로 조종하여 선체면의 청소 등의 원하는 작업을 효과적으로 수행할 수 있다. According to the present invention, by accurately recognizing the driving direction, the robot can be steered in the desired direction to effectively perform a desired operation such as cleaning the hull surface.
본 발명의 효과가 상술한 효과들로 제한되는 것은 아니며, 언급되지 아니한 효과들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.The effects of the present invention are not limited to the above-described effects, and effects that are not mentioned will be clearly understood by those skilled in the art from the present specification and the accompanying drawings.
도 1은 본 발명의 일 실시예에 따른 선박의 개략도이다.
도 2는 도 1의 로봇의 사시도이다.
도 3은 도 1의 로봇의 측면도이다.
도 4는 도 1의 로봇의 구성도이다.
도 5는 본 발명의 일 실시예에 따른 방향 인식 방법의 순서도이다.
도 6 내지 도 8은 도 5의 방향 인식 방법에서 로봇이 비드선 상을 주행하면서 주행 방향을 인식하는 것을 도시한 도면이다.
도 9 내지 도 11은 도 5의 방향 인식 방법에서 로봇이 비드선의 사이를 주행하면서 주행 방향을 인식하는 것을 도시한 도면이다.
도 12는 도 1의 로봇이 선체면을 청소하는 것을 도시한 도면이다.1 is a schematic view of a ship according to an embodiment of the present invention.
2 is a perspective view of the robot of FIG. 1.
3 is a side view of the robot of FIG. 1.
4 is a configuration diagram of the robot of FIG. 1.
5 is a flowchart illustrating a direction recognition method according to an embodiment of the present invention.
6 to 8 are diagrams illustrating that the robot recognizes a driving direction while traveling on a bead line in the direction recognition method of FIG. 5.
9 to 11 are diagrams illustrating that the robot recognizes the driving direction while traveling between the bead lines in the direction recognition method of FIG. 5.
12 is a view showing the robot of FIG. 1 cleaning the hull surface.
본 명세서에 기재된 실시예는 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 본 발명의 사상을 명확히 설명하기 위한 것이므로, 본 발명이 본 명세서에 기재된 실시예에 의해 한정되는 것은 아니며, 본 발명의 범위는 본 발명의 사상을 벗어나지 아니하는 수정예 또는 변형예를 포함하는 것으로 해석되어야 한다.It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are intended to be illustrative of the present invention and not to limit the scope of the invention. Should be interpreted to include modifications or variations that do not depart from the spirit of the invention.
본 명세서에서 사용되는 용어와 첨부된 도면은 본 발명을 용이하게 설명하기 위한 것이고, 도면에 도시된 형상은 필요에 따라 본 발명의 이해를 돕기 위하여 과장되어 표시된 것이므로, 본 발명이 본 명세서에서 사용되는 용어와 첨부된 도면에 의해 한정되는 것은 아니다.The terms used in the present specification and the accompanying drawings are for easily explaining the present invention, and the shapes shown in the drawings are exaggerated and displayed to help understanding of the present invention as necessary, and thus, the present invention is used herein. It is not limited by the terms and the accompanying drawings.
본 명세서에서 본 발명에 관련된 공지의 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에 이에 관한 자세한 설명은 필요에 따라 생략한다.In the following description, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.
이하에서는 본 발명의 일 실시예에 따른 선박(10)에 관하여 설명한다.Hereinafter will be described with respect to the
도 1은 본 발명의 일 실시예에 따른 선박(10)의 개략도이다.1 is a schematic diagram of a
도 1을 참조하면, 선박(10)은 선체(12), 조종실(16) 및 로봇(100)을 포함한다.Referring to FIG. 1, the
선체(12)는 선박(10)의 몸체를 이룬다. 선체(12)는 복수의 블록(block)으로 구성될 수 있다. 블록은 각각 별도로 제작된 후 용접(welding) 등에 의해 접합됨으로써 전체 선체(12)를 이룬다. 각 블록 간에는 용접 등에 의한 이음선, 즉 비드선(14)이 형성될 수 있다. 비드선(14)은 도 1에 도시된 바와 같이, 수평 방향 또는 수직 방향으로 형성될 수 있다.The
한편, 선체(12)의 외측면은 그 일부가 수중에 잠길 수 있다. 해수에 잠긴 선체(12)의 수중 외판에는 따개비나 물이끼와 같은 수중 생물이 부착될 수 있다. 이처럼 선체(12)에 수중 생물이 부착되면, 수중 저항이 증가하여 심할 경우 선박(10)의 운항 속도 및 연료 효율이 약 40% 이상 저하될 수 있다. On the other hand, a portion of the outer surface of the
조종실(16)은 선체(12)에 설치된다. 조종실(16)에서는 파일럿(pilot)이 로봇(100)을 조종할 수 있다. 조종실(16)은 통신 수단, 디스플레이 및 입력 수단을 포함할 수 있다. 통신 수단은 로봇(100)과 통신을 수행할 수 있다. 디스플레이는 통신 수단을 통해 로봇(100)으로부터 수신된 영상 정보에 따라 영상을 출력할 수 있다. 입력 수단은 파일럿으로부터 조종 신호를 입력받는다. 조종 신호는 통신 수단을 통해 로봇(100)으로 송출되고, 로봇은 이에 따라 조종될 수 있다. The
한편, 조종실(16)이 반드시 선체(12)에 설치되어야 하는 것은 아니며, 조종실(16)은 선박(10)과는 별도의 장소에 설치될 수 있다. 또 로봇(100)이 미리 정해진 경로에 따라 자동으로 주행하는 경우에는 조종실(16)이 생략될 수도 있다. On the other hand, the
로봇(100)은 선체면(12)에 부착되어 주행한다. 로봇(100)은 선체면(12)을 청소하는 청소 로봇일 수 있다. 청소 로봇은 선체면(12)을 주행하면서 선체면(12)으로부터 이물질(D)을 제거하는 등 선체면(12)을 청소할 수 있다. 물론, 로봇(100)이 청소 로봇으로 한정되는 것은 아니며, 이외에도 선체면(12)을 검사하는 검사 로봇이나 그 밖의 다른 작업을 수행하는 작업 로봇일 수 있다. 다만, 이하에서는 설명의 용이를 위하여 로봇(100)에 대하여 청소 로봇을 중심으로 설명하기로 한다. The
이하에서는 본 발명의 일 실시예에 따른 로봇(100)에 관하여 설명한다.Hereinafter, a description will be given of the
도 2는 도 1의 로봇(100)의 사시도이고, 도 3은 도 1의 로봇(100)의 측면도이고, 도 4는 도 1의 로봇(100)의 구성도이다.2 is a perspective view of the
도 2 내지 도 4를 참조하면, 로봇(100)은 하우징(110), 바퀴(120), 청소 부재(130), 카메라(140), 조명 부재(150), 통신 모듈(160), 메모리(170) 및 제어기(180)를 포함한다.2 to 4, the
하우징(110)은 로봇(100)의 몸체를 이룬다. 하우징(110)에는 로봇(100)의 다른 구성 요소들이 설치될 수 있다. 로봇(100)의 구성 요소들 중 충격에 약하거나 외부에 노출되어서는 안 되는 구성 요소는 하우징(110)의 내부에 설치될 수 있다. 이때 하우징(110)은 그 내부가 침수되지 않도록 방수 처리 될 수 있다. The
하우징(110)은 유선형의 형상으로 제공될 수 있다. 이에 따라 로봇(100)이 수중에서도 물의 저항을 적게 받으면서 선체면(12)을 따라 주행할 수 있다. 또 하우징(110)은 내수성(耐水性)이 강한 재질로 마련될 수 있다.The
바퀴(120)는 로봇(100)을 주행시킨다. 바퀴(120)는 선체면(12)과 구름 접촉하도록 하우징(110)의 측면 또는 하면에 설치될 수 있다. 바퀴(120)가 회전하면 이에 따라 로봇(100)이 선체면(12)을 따라 주행할 수 있다. The
바퀴(120)는 선체면(12)에 부착된다. 예를 들어, 바퀴(120)는 자석 바퀴일 수 있다. 이때 자석은 영구 자석 또는 전자석일 수 있다. 자석 바퀴는 그 자력에 의해 철판, 강판 등으로 이루어진 선체면(12)에 부착될 수 있다. 여기서, 바퀴(120)는 그 전체가 자석으로 제공될 수 있다. 또는 바퀴(120)에는 별도의 자력 부재가 그 내부에 결합되는 형태로 제공될 수 있다. 한편, 바퀴(120)가 자석 바퀴로 제공되는 대신 별도의 자력 부재가 바퀴(120) 대신 하우징(110)의 하면에 선체면(12)을 향하도록 설치되는 것도 가능하다. 이에 따라 로봇(100)이 선체면(12)에 부착될 수 있다. The
한편, 로봇(100)은 바퀴(120)를 대신해서 프로펠러나 그 외의 주행 수단을 가지고 이를 이용해 선체면(12)을 주행할 수 있다. Meanwhile, the
청소 부재(130)는 선체면(12)을 청소한다. 예를 들어, 청소 부재(130)는 브러쉬(brush)일 수 있다. 브러쉬는 하우징(110)으로부터 하측으로 연장되고, 선체면(12)과 접촉하여 선체면(12)으로부터 이물질(D)을 제거할 수 있다. 청소 부재(130)가 브러쉬로 한정되는 것은 아니며, 청소 부재(130)는 이외에도 분사 노즐(injection nozzle)을 비롯한 다양한 청소 수단일 수 있다. The cleaning
한편, 상술한 바와 같이 로봇(100)은 청소 로봇이 이외의 탐사 로봇이나 다른 작업 로봇일 수 있는데, 이때에 로봇(100)은 청소 부재(130) 대신 다른 작업 수단이 포함할 수 있다.Meanwhile, as described above, the
카메라(140)는 영상을 촬영한다. 예를 들어, 카메라(140)는 하우징(110)의 전방이나 후방에 설치되어 영상을 촬영할 수 있다. 여기서, 카메라(140)는 가시광 카메라는, 물론 적외선 카메라일 수도 있다. The
카메라(140)에 촬영된 영상에는 비드선(14)이 포함될 수 있는데, 로봇(100)은 이러한 비드선(14)이 포함된 영상을 이용하여 주행 방향을 인식할 수 있다. 이에 관한 보다 상세한 설명은 본 발명에 따른 방향 인식 방법에서 후술될 것이다.The image captured by the
또, 촬영된 영상을 분석하면, 선체면(12)이 청소되었는지 여부를 판단할 수 있다. 이외에도 로봇(100)은 조종자에 의해 원격 조종되는 경우에는, 촬영된 영상을 조종자에게 제공할 수도 있다. In addition, if the captured image is analyzed, it may be determined whether the
조명 부재(150)는 광을 출력하여 조명을 제공한다. 예를 들어, 조명 부재(150)는 카메라(140)가 촬영하는 지점을 조명할 수 있다.The
통신 모듈(160)은 통신을 수행한다. 예를 들어, 통신 모듈(160)은 상술한 무선 통신망을 통해 조종실(16)로 영상 정보를 제공하거나 조종실(16)로부터 조종 신호를 수신할 수 있다. The
이때 통신 모듈(160)은 근거리 무선 통신망을 통해 통신을 할 수 있다. 예를 들어, 통신 모듈(160)은 블루투스(Bluetooth), RFID(radio frequency identification), 적외선 통신(IrDA, infrared data association), UWB(ultra wideband), 직비(ZigBee) 및 그 밖의 근거리 통신규격 중 적어도 하나를 통해 통신을 수행할 수 있다. 다른 예를 들어, 통신 모듈(160)은 인터넷망을 통해 인터넷에 접속하여 통신을 수행할 수 있다. 여기서, 통신 모듈(160)은 WLAN(wireless LAN), Wibro(wireless broadband), Wimax(world interoperability for microwave access), HSDPA(high speed downlink packet access) 및 그 밖의 다양한 통신규격 중 적어도 하나에 따라 통신을 수행할 수 있다.In this case, the
다른 예를 들어, 통신 모듈(160)은 위치 정보를 수신할 수 있다. 통신 모듈(160)은 전 지구 위성 항법 시스템(GNSS: global navigation satellite system)을 이용하여 위치 정보를 획득할 수 있다. 제어기(180)는 이러한 위치 정보를 분석하여 로봇(100)의 위치를 산출하거나 로봇(100)의 주행 속도나 방향을 산출할 수 있다.As another example, the
여기서 GNSS는 지구를 공전하는 항법 위성과 항법 위성으로부터 위성 전파를 수신하여 그 위성 전파를 이용하여 소정의 위치에 대한 위치 정보를 산출하는 항법 수신기를 포함하여, 위치 정보를 획득하는 시스템이다. 전 지구 위성 항법 시스템에는, 미국이 운용하는 GPS(global position system), 유럽에서 운영하는 갈릴레요(Galileo), 러시아에서 운영하는 GLONASS(global orbiting navigational satellite system), 중국에서 운영하는 COMPASS, 인도에서 운영하는 IRNS(Indian regional navigation satellite system), 일본에서 운영하는 QZSS(quasi-zenith satellite system) 등이 있다. 따라서, 통신 모듈(160)은 각 GNSS에 대응하는 예를 들어, GPS 모듈일 수 있다. The GNSS is a system for acquiring position information, including a navigation satellite that orbits the earth and a navigation receiver that receives satellite radio waves from the navigation satellites and calculates position information on a predetermined position using the satellite radio waves. Global satellite navigation systems include: Global Position System (GPS) operated by the US, Galileo operated by Europe, Global Orbiting Navigational Satellite System (GLONASS) operated by Russia, COMPASS operated by China, India Indian regional navigation satellite system (IRNS) operated, and quasi-zenith satellite system (QZSS) operated in Japan. Accordingly, the
통신 모듈(160)은 3개 이상의 항법 위성으로부터 항법 위성의 식별 정보 및 시간 정보를 포함하는 위성 전파를 수신하여 소정의 위치에 대한 3차원 위치 정보를 산출할 수 있다. 이러한 3차원 위치 정보는, 위도, 경도 및 고도로써 표현될 수 있다. The
여기서, 위치 정보가 반드시 소정의 위치에 대한 좌표값과 같이 직접적인 위치를 반영해야 하는 것은 아니다. 예를 들어, 통신 모듈(160)은 GNSS를 이용하여 위치 정보를 획득하는 이외에도, 휴대폰 기지국과 통신을 수행하여 통신 신호를 이용한 삼각측량을 통해 위치 정보를 획득할 수도 있다. 또는 통신 모듈(160)은 근거리 통신망을 통해 외부 억세스 포인트(AP: access point)와 통신하여 억세스 포인트의 위치를 이용하여 위치 정보를 획득할 수 있다. Here, the position information does not necessarily reflect a direct position such as a coordinate value for a predetermined position. For example, in addition to obtaining location information using GNSS, the
한편, 이상에서는 통신 모듈(160)이 무선 통신망을 통해 통신을 수행하는 것으로 설명하였으나, 통신 모듈(160)은 유선 통신을 수행하는 것도 가능하다. 예를 들어, 통신 모듈(160)은 케이블을 통해 조종실(16)과 연결되어 유선 통신으로 정보를 송수신할 수 있다. 유선 통신을 수행하는 경우에는 로봇(100)의 이동 및 동작에 다소 제한이 발생할 수 있으나, 통신 안정성이 확보되는 장점이 있을 수 있다. Meanwhile, although the
메모리(170)는 정보를 저장할 수 있다. 메모리(170)는 로봇(100)의 동작에 필요한 정보 및 로봇(100)의 동작에 의하여 생성된 정보를 저장할 수 있다. 예를 들어, 메모리(170)에는 로봇(100)의 동작에 필요한 운영체제(OS: operating system)나 선체(12)에 대한 맵 데이터(map data)가 저장될 수 있다. 다른 예를 들어, 메모리(170)에는 카메라(140)가 촬영한 영상의 정보가 임시적 또는 반영구적으로 저장될 수 있다. The
메모리(170)는 다양한 저장 매체로 제공될 수 있다. 예를 들어, 메모리(170)는 플래쉬메모리(flash memory), 램(RAM: random access memory), 에스램(SRAM: static random access memory), 롬(ROM: read only memory), 이이피롬(EEPROM: electrically erasable programmable read only memory), 하드 디스크(hard disk), 자기메모리, 자기 디스크(magnetic disc), 에스디카드(SD card) 등의 카드 타입 메모리 및 본 발명이 속하는 기술의 분야에서 통상의 지식을 가진 자에게 자명한 다른 저장 수단으로 제공될 수 있다. The
제어기(180)는 로봇(100)의 전반적인 동작 및 로봇(100)의 다른 구성 요소를 제어한다. 예를 들어, 제어기(180)는 카메라(140)의 영상을 분석하여 로봇(100)의 주행 방향을 인식할 수 있다. 이에 관한 자세한 내용은 후술되는 방향 인식 방법에서 설명하기로 한다. The
제어기(180)는 소프트웨어, 하드웨어 또는 이들의 조합을 이용하여 컴퓨터 또는 이와 유사한 장치로 구현될 수 있다.
하드웨어적으로 제어기(180)는 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors) 및 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 제어기능을 수행하기 위한 전기적인 장치로 제공될 수 있다. In hardware, the
소프트웨어적으로 제어기(180)는 하나 이상의 프로그램 언어로 쓰여진 소프트웨어 코드(software code) 또는 소프트웨어 어플리케이션(software application)에 의해 구현될 수 있다. 소프트웨어는 메모리(170)에 저장되고, 제어기(180)의 하드웨어적인 구성에 의해 실행될 수 있다. 또 소프트웨어는 통신 모듈(160)을 통해 외부로부터 로봇(100)으로 송신되어 메모리(170)에 설치될 수 있다. In software, the
이하에서는 본 발명의 일 실시예에 따른 방향 인식 방법에 관하여 설명한다. 이하에서 설명하는 방향 인식 방법은 상술한 선박(10) 및 로봇(100)에 의해 수행될 수 있다. 다만, 방향 인식 방법에 이에 한정되는 것은 아니며, 본 발명에 따른 선박(10) 및 로봇(100)과 동일 또는 유사한 다른 장치에 의해 수행되는 것도 가능하다. 또한 후술될 방향 인식 방법은 별도의 언급이 없더라도 로봇(100)의 제어기(180)에 의해 수행될 수 있다. Hereinafter, a direction recognition method according to an embodiment of the present invention will be described. The direction recognition method described below may be performed by the
본 발명의 일 실시예에 따른 방향 인식 방법은 영상을 촬영하여 그 영상에 촬영된 비드선(14)을 이용하여 로봇(100)의 주행 방향을 인식하는 방법에 관한 것이다.The direction recognition method according to an embodiment of the present invention relates to a method of recognizing a driving direction of the
도 5는 본 발명의 일 실시예에 따른 방향 인식 방법의 순서도이다.5 is a flowchart illustrating a direction recognition method according to an embodiment of the present invention.
도 5를 참조하면, 방향 인식 방법은 선체면(12)에 부착되는 단계(S110), 선체면(12)을 주행하는 단계(S120), 영상을 촬영하는 단계(S130), 영상 내의 비드선(14)을 이용하여 주행 방향을 인식하는 단계(S140)를 포함한다. 이하에서는 상술한 단계들에 관하여 구체적으로 설명한다. Referring to FIG. 5, the direction recognizing method may include attaching the hull surface 12 (S110), driving the hull surface 12 (S120), photographing an image (S130), and bead line in the image. Recognizing the driving direction by using 14) (S140). Hereinafter, the above-described steps will be described in detail.
로봇(100)은 선체면(12)에 부착된다(S110). 영구 자석 또는 전자석으로 제공되는 바퀴(120)가 그 자력에 의해 선체면(12)에 부착되거나 별도의 자석 부재와 선체면(12) 간의 자력에 의해 로봇(100)이 선체면(12)에 부착될 수 있다. The
선체면(12)에 부착된 로봇(100)은 선체면(12)을 주행한다(S120). 바퀴(120)가 회전함에 따라 로봇(100)은 선체면(12)을 주행할 수 있다. 로봇(100)은 이처럼 주행하면서 작업을 수행할 수 있다. 예를 들어, 로봇(100)이 청소 로봇인 경우에는 청소 부재(130)가 주행하는 선체면(12)으로부터 이물질(D)을 제거하며 청소를 수행할 수 있다.The
카메라(140)는 영상을 촬영한다(S130). 여기서, 카메라(140)는 주행 방향 전방의 영상을 촬영할 수 있다. The
제어기(180)는 촬영된 영상을 이용해 주행 방향을 인식한다(S140). 촬영된 영상에는 비드선(14)이 포함되어 있는데 제어기(180)는 비드선의 방향을 분석하여 주행 방향을 인식할 수 있다. 비드선(14)은 선체(12)에 수평 또는 수직 방향으로 형성되므로 제어기(180)는 촬영된 영상 내의 비드선(14)의 방향으로부터 로봇(100)의 주행 방향을 알 수 있다. The
도 6 내지 도 8은 도 5의 방향 인식 방법에서 로봇(100)이 비드선(14) 상을 주행하면서 주행 방향을 인식하는 것을 도시한 도면이다.6 to 8 are diagrams illustrating that the
도 6을 참조하면, 로봇(100)이 선체면(12)에서 비드선(14)을 따라 주행한다. 이때 카메라(140)는 전방을 촬영한다. 도 7 및 도 8은 카메라(140)가 촬영한 영상이다. 도 7 및 도 8에서 기준선(Lref)은 로봇(100)의 주행 경로 또는 주행 방향과 일치하는 가상선이다. Referring to FIG. 6, the
도 7을 참조하면, 촬영된 영상에서 비드선(14)이 중앙의 기준선(Lref)과 일치하고 있다. 제어기(180)는 이와 같은 방법을 이용해 촬영된 영상의 비드선(14)의 방향을 분석하여 로봇(100)의 주행 방향이 비드선(14)이 형성된 방향, 즉 수직 또는 수평 방향임을 판단할 수 있다. Referring to FIG. 7, the
도 8을 참조하면, 촬영된 영상에서 비드선(14)이 기준선(Lref)과 불일치하고, 소정의 각도(θ)로 어긋나고 있다. 제어기(180)는 이러한 영상을 분석하여 로봇(100)의 주행 방향이 비드선(14)으로부터 소정의 각도(θ)로 어긋난 방향임을 알 수 있다. 예를 들어, 비드선(14)이 수평 방향의 비드선(14)이고 소정의 각도(θ)가 5°인 경우에는 제어기(180)는 로봇(100)이 수평선과 5°를 이룬 방향으로 주행하는 것으로 판단할 수 있다. Referring to FIG. 8, in the photographed image, the
도 9 내지 도 11은 도 5의 방향 인식 방법에서 로봇(100)이 비드선(14)의 사이를 주행하면서 주행 방향을 인식하는 것을 도시한 도면이다.9 to 11 are diagrams illustrating that the
도 9를 참조하면, 로봇(100)이 선체면(12)에서 비드선(14)이 없는 구간을 주행하는 경우를 보여주고 있다. 이때 카메라(140)는 로봇(100)의 전방을 촬영한다. 도 10 및 도 11은 카메라(140)가 촬영한 영상이다. 도 10 및 도 11에서 평행선들(Lother)은 실제 선체면(12)에서 기준선(Lref)과 평행한 가상의 선이다. Referring to FIG. 9, the
도 10을 참조하면, 로봇(100)이 비드선(14)을 따라 이동하지 않고 있으므로, 비드선(14)이 영상의 중앙이 아닌 측부에 위치한다. 이때 제어기(180)는 비드선(14)과 평행선(Lother)의 방향이 서로 일치하므로 로봇(100)의 주행 방향이 비드선(14)의 방향인 수직 또는 수평 방향임을 판단할 수 있다. Referring to FIG. 10, since the
도 11을 참조하면, 제어기(180)는 비드선(140)과 평행선(Lother)이 이루는 각도를 이용하여 로봇(100)의 주행 방향을 판단할 수 잇다. Referring to FIG. 11, the
이상에서는 제어기(180)가 주행 방향을 인식하는 방법에 관해 도 6 내지 도 11을 참조하여 설명하였는데, 제어기(180)가 이와 같은 방식으로 주행 방향을 인식하는 것은 아니다. 제어기(180)는 상술한 예 이외의 다른 영상 분석 방법에 따라 촬영된 영상 내의 비드선(12)의 방향으로부터 로봇(100)의 주행 방향을 인식할 수 있다. In the above, the method for recognizing the driving direction of the
이처럼 로봇(100)의 주행 방향을 인식하면, 제어기(180)는 이를 이용해 로봇(100)의 주행 방향을 조종할 수 있다. 예를 들어, 로봇(100)의 미리 정해진 주행 경로가 수평 방향인 경우에는 로봇(100)은 촬영된 영상을 분석하여 산출되는 로봇(100)의 주행 방향이 수평이 되도록 바퀴(120)를 제어할 수 있을 것이다.As such, when the driving direction of the
한편, 수동으로 원격 조종 받는 로봇(100)인 경우에는 카메라(140)가 촬영한 영상을 통신 모듈(160)이 조종실(16)로 송신하여, 파일럿이 디스플레이를 통해 촬영된 영상을 볼 수 있다. 이때 디스플레이 되는 영상에는 기준선(Lref)과 평행선(Lother)이 함께 표시될 수 있다. 파일럿은 이 가상선들과 비드선(14)간의 각도로부터 주행 방향을 판단하여 입력 수단을 통해 로봇(100)을 조종할 수 있다. Meanwhile, in the case of the
또 이처럼, 로봇(100)이 정확한 주행 방향을 산출하면 선체면(12)을 효과적으로 청소할 수 있다. 로봇(100)은 선체면(12)에서 주행하는 방향을 알 수 있으므로, 동일 구역을 중복하여 주행하지 않고, 또 원하는 경로에 따라 효과적으로 주행하면서 선체면(12)을 청소할 수 있다. In this way, when the
도 12는 도 1의 로봇이 선체면을 청소하는 것을 도시한 도면이다.12 is a view showing the robot of FIG. 1 cleaning the hull surface.
도 12를 참조하면, 로봇(100)은 그 주행 방향을 정밀하게 인식할 수 있으므로, 주행한 경로를 기억할 수 있다. 로봇(100)은 선체면(12)에서 기 주행한 경로를 알 수 있으므로, 동일 구역을 중복하여 주행하지 않을 수 있다. 또 로봇(100)은 주행하지 않은 경로를 지나치지 않을 수 있다. 이에 따라 로봇(100)이 선체면(12)을 주행하면서 효과적으로 선체면(12)의 청소를 수행할 수 있다. Referring to FIG. 12, the
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. The foregoing description is merely illustrative of the technical idea of the present invention, and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention.
따라서, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within the equivalent scope should be interpreted as being included in the scope of the present invention.
10: 선박 12: 선체, 선체면
14: 비드선 16: 조종실
100: 로봇 110: 하우징
120: 바퀴 130: 청소 부재
140: 카메라 150: 조명 부재
160: 통신 모듈 170: 메모리 180: 제어기
10: ship 12: hull, hull surface
14: Bead line 16: Cockpit
100: robot 110: housing
120: wheel 130: cleaning member
140: camera 150: lighting member
160: communication module 170: memory 180: controller
Claims (6)
상기 하우징을 주행시키는 바퀴;
상기 하우징의 3차원 위치를 외부로부터 제공받는 통신 모듈;
상기 하우징의 전방을 촬영하는 카메라; 및
상기 카메라에 의해 촬영된 상기 비드선의 방향과 상기 촬영된 영상의 기준선의 각도 차이를 산출하여, 상기 하우징의 주행 방향을 산출하는 제어기;를 포함하는
로봇.
A housing attached to the hull surface on which the welded bead wire is formed;
Wheels for driving the housing;
A communication module configured to receive a three-dimensional position of the housing from an outside;
A camera for photographing the front of the housing; And
And a controller configured to calculate a driving direction of the housing by calculating an angle difference between the direction of the bead line photographed by the camera and a reference line of the photographed image.
robot.
상기 선체면의 상기 비드선을 포함하는 맵 데이터를 저장하는 메모리;를 더 포함하고,
상기 제어기는, 상기 하우징의 3차원 위치와 상기 맵 데이터를 참조하여 상기 하우징의 위치 및 주행 방향을 산출하는
로봇.
The method of claim 1,
And a memory configured to store map data including the bead line of the hull surface.
The controller calculates a position and a driving direction of the housing with reference to the three-dimensional position of the housing and the map data.
robot.
상기 하우징은 자력에 의해 상기 선체면에 부착되고,
상기 하우징의 주행 거리를 측정하는 주행 거리 센서를 더 포함하는
로봇.
3. The method of claim 2,
The housing is attached to the hull surface by magnetic force,
Further comprising a traveling distance sensor for measuring the traveling distance of the housing
robot.
상기 통신 모듈은 전 지구 위성 항법 시스템(GNSS), 휴대폰 기지국, 및 근거리 무선 통신망 중 적어도 어느 하나로부터 상기 하우징의 3차원 위치를 제공받는
로봇.
The method according to any one of claims 1 to 3,
The communication module receives a three-dimensional position of the housing from at least one of a global satellite navigation system (GNSS), a cellular base station, and a local area network.
robot.
상기 로봇이 상기 선체면에 부착되어 주행하는 단계;
상기 로봇의 3차원 위치를 외부로부터 제공받는 단계;
상기 로봇의 전방을 촬영하는 단계; 및
촬영된 상기 비드선의 방향과 상기 촬영된 영상의 기준선의 각도 차이를 산출하여, 상기 로봇의 주행 방향을 산출하는 단계;를 포함하는
로봇의 주행 방향 인식 방법.
As a method of recognizing the running direction of the robot traveling on the hull surface on which the welded bead wire is formed,
Driving the robot attached to the hull surface;
Receiving a three-dimensional position of the robot from the outside;
Photographing the front of the robot; And
Calculating a driving direction of the robot by calculating an angle difference between the direction of the photographed bead line and the reference line of the photographed image;
How to recognize the driving direction of the robot.
상기 선체면의 상기 비드선을 포함하는 맵 데이터를 저장하는 단계를 더 포함하고,
상기 로봇의 주행 방향을 인식하는 단계는,
상기 로봇의 3차원 위치와 상기 맵 데이터를 참조하여 상기 로봇의 위치 및 주행 방향을 산출하는
로봇의 주행 방향 인식 방법. The method of claim 5,
Storing map data including the bead line of the hull surface;
Recognizing the driving direction of the robot,
Computing the position and the driving direction of the robot with reference to the three-dimensional position and the map data of the robot
How to recognize the driving direction of the robot.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120058654A KR101380247B1 (en) | 2012-05-31 | 2012-05-31 | Robot and method for direction recognition |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120058654A KR101380247B1 (en) | 2012-05-31 | 2012-05-31 | Robot and method for direction recognition |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20130134833A true KR20130134833A (en) | 2013-12-10 |
KR101380247B1 KR101380247B1 (en) | 2014-04-10 |
Family
ID=49982395
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020120058654A KR101380247B1 (en) | 2012-05-31 | 2012-05-31 | Robot and method for direction recognition |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101380247B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105139911A (en) * | 2015-08-05 | 2015-12-09 | 中国核电工程有限公司 | Spent fuel storage pool bottom scrubbing device |
KR20230030319A (en) * | 2021-08-25 | 2023-03-06 | 한국로봇융합연구원 | Method for track position of robot |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20080093536A (en) * | 2007-04-17 | 2008-10-22 | 박원철 | Rov for cleaning and inspection of ship hull |
KR20110024946A (en) * | 2009-09-03 | 2011-03-09 | 현대중공업 주식회사 | Blasting apparatus for hull shell |
-
2012
- 2012-05-31 KR KR1020120058654A patent/KR101380247B1/en active IP Right Grant
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105139911A (en) * | 2015-08-05 | 2015-12-09 | 中国核电工程有限公司 | Spent fuel storage pool bottom scrubbing device |
KR20230030319A (en) * | 2021-08-25 | 2023-03-06 | 한국로봇융합연구원 | Method for track position of robot |
Also Published As
Publication number | Publication date |
---|---|
KR101380247B1 (en) | 2014-04-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109934891B (en) | Water area shoreline construction method and system based on unmanned ship | |
EP3451010B1 (en) | Underwater positioning system | |
KR101380250B1 (en) | Robot and method for position recognition | |
KR101554995B1 (en) | Method and System for Providing Underwater Navigation Using Mobile Sensor Platform | |
Bruno et al. | Underwater augmented reality for improving the diving experience in submerged archaeological sites | |
CN110580044A (en) | unmanned ship full-automatic navigation heterogeneous system based on intelligent sensing | |
EP3625590A1 (en) | NON-LINE-OF-SIGHT (NLoS) SATELLITE DETECTION AT A VEHICLE USING A CAMERA | |
CN102495420A (en) | Underwater object precision positioning system and method | |
CN102306025A (en) | Wireless remote-control automatic sampling monitoring ship | |
WO2016059904A1 (en) | Moving body | |
JP2007164441A (en) | Mobile object bearing determination device, mobile object bearing determination method, navigation device, and mobile terminal device | |
CN204037874U (en) | Measurement type unmanned boat | |
KR101015039B1 (en) | Underwater position finding system and method | |
Specht et al. | Determination of the Territorial Sea Baseline-Aspect of Using Unmanned Hydrographic Vessels. | |
US20210131810A1 (en) | Position tracking inside metallic environments using magneto-electric quasistatic fields | |
CN110536830A (en) | The utilization system of the application method of multiple submarine navigation devices and multiple submarine navigation devices | |
JP7133196B2 (en) | Underwater equipment recovery method and underwater equipment recovery system | |
WO2019130940A1 (en) | Video generation device and video generation method | |
KR101380247B1 (en) | Robot and method for direction recognition | |
Okamoto et al. | Development of hovering-type AUV “HOBALIN” for exploring seafloor hydrothermal deposits | |
CN114442652B (en) | Port facility three-dimensional inspection method and system based on air-sea diving cross-domain cooperation | |
CN111694003A (en) | Underwater ground object recognition system | |
CN109765596A (en) | A kind of underwater navigation detection mobile terminal | |
ES2904561T3 (en) | Device for the integrated representation of information on a vessel | |
JP2006275920A (en) | Underwater position detection system, sound source device, underwater position detection device and underwater position detection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |