KR101380247B1 - Robot and method for direction recognition - Google Patents

Robot and method for direction recognition Download PDF

Info

Publication number
KR101380247B1
KR101380247B1 KR1020120058654A KR20120058654A KR101380247B1 KR 101380247 B1 KR101380247 B1 KR 101380247B1 KR 1020120058654 A KR1020120058654 A KR 1020120058654A KR 20120058654 A KR20120058654 A KR 20120058654A KR 101380247 B1 KR101380247 B1 KR 101380247B1
Authority
KR
South Korea
Prior art keywords
robot
housing
hull surface
driving direction
driving
Prior art date
Application number
KR1020120058654A
Other languages
Korean (ko)
Other versions
KR20130134833A (en
Inventor
정희용
김기환
백상훈
서현우
윤지원
이동훈
이인호
이재용
정태일
조기수
최윤규
Original Assignee
삼성중공업 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성중공업 주식회사 filed Critical 삼성중공업 주식회사
Priority to KR1020120058654A priority Critical patent/KR101380247B1/en
Publication of KR20130134833A publication Critical patent/KR20130134833A/en
Application granted granted Critical
Publication of KR101380247B1 publication Critical patent/KR101380247B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1684Tracking a line or surface by means of sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63BSHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING 
    • B63B59/00Hull protection specially adapted for vessels; Cleaning devices specially adapted for vessels
    • B63B59/06Cleaning devices for hulls
    • B63B59/08Cleaning devices for hulls of underwater surfaces while afloat

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Multimedia (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Ocean & Marine Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 발명은 로봇 및 방향 인식 방법에 관한 것으로, 상세하게는 선체면을 따라 주행하며 로봇 및 상기 로봇의 주행 방향을 인식하는 방향 인식 방법에 관한 것이다. 본 발명의 일 측면에 따르면, 용접된 비드선이 형성된 선체면에 부착되는 하우징; 상기 하우징을 주행시키는 바퀴; 상기 하우징의 3차원 위치를 외부로부터 제공받는 통신 모듈; 상기 하우징의 전방을 촬영하는 카메라; 및 상기 카메라에 의해 촬영된 상기 비드선의 방향과 상기 촬영된 영상의 기준선의 각도 차이를 산출하여, 상기 하우징의 주행 방향을 산출하는 제어기;를 포함하는 로봇이 제공될 수 있다.The present invention relates to a robot and a direction recognition method, and more particularly, to a direction recognition method for driving along the hull surface and recognizing the driving direction of the robot. According to an aspect of the invention, the housing is attached to the hull surface is formed welded bead wire; Wheels for driving the housing; A communication module configured to receive a three-dimensional position of the housing from an outside; A camera for photographing the front of the housing; And a controller configured to calculate an angle difference between a direction of the bead line photographed by the camera and a reference line of the photographed image, and to calculate a driving direction of the housing.

Description

로봇 및 방향 인식 방법{ROBOT AND METHOD FOR DIRECTION RECOGNITION}ROBOT AND METHOD FOR DIRECTION RECOGNITION}

본 발명은 로봇 및 방향 인식 방법에 관한 것으로, 상세하게는 선체면을 따라 주행하며 로봇 및 상기 로봇의 주행 방향을 인식하는 방향 인식 방법에 관한 것이다.The present invention relates to a robot and a direction recognition method, and more particularly, to a direction recognition method for driving along the hull surface and recognizing the driving direction of the robot.

선저를 비롯한 선체의 수중 외판에 따개비나 물이끼와 같은 수중 생물(sea growth)이 부착되면 수중 저항이 증가하며, 이로 인하여 선박의 운항 속도가 저하되고 연료 소모량이 증가하는 문제가 야기될 수 있다. 따라서, 선박을 운용함에 있어서 선체의 수중 외판을 정기적으로 청소하는 것이 필수적이다.When sea growth, such as barnacles or moss, is attached to the outer shell of the hull and other hulls, the resistance to the water increases, which may cause a problem of slowing the ship's operating speed and increasing fuel consumption. Therefore, it is essential to regularly clean the outer shell of the hull in operation of the ship.

종래에는 선체면을 수작업으로 청소하고 있는데, 작업자가 수중에 장시간 잠수해야 하므로 시간의 제약이 따를 뿐 아니라 청소로 인해 발생하는 수중 부유물로 인하여 시계가 좋지 않은 등 작업 환경이 열악하여 청소시간이 많이 소요되는 문제점이 있었다. 더구나 조류가 강하거나 파도가 심한 경우에는 안전상의 문제로 인해 청소를 할 수 없다.Conventionally, the hull surface is cleaned by hand, but since the worker has to dive for a long time in the water, it is not only limited by time, but also requires a lot of cleaning time due to poor working environment such as poor clock due to underwater floating caused by cleaning. There was a problem. In addition, if the algae is strong or the waves are severe, it is not possible to clean due to safety problems.

최근에는 미리 정해진 경로에 따라 자동으로 또는 원격 조종을 받아 선체면을 주행하면서 청소를 하는 청소 장비가 개발되고 있는데, 기존의 청소 장비들은 정확한 주행 방향을 인식할 수 없어 동일 구역을 중복적으로 주행하거나 또는 아직 청소하지 않을 구역을 주행하지 않는 등에 따라 청소 효율이 낮은 문제점을 가지고 있다. Recently, cleaning equipment has been developed to clean the hull surface automatically or remotely according to a predetermined path. Existing cleaning equipment cannot recognize the exact direction of travel and repeatedly travel the same area. Or there is a problem that the cleaning efficiency is low, such as not driving the area not yet cleaned.

본 발명의 일 과제는, 비드선을 이용하여 정확한 주행 방향을 인식하는 로봇 및 방향 인식 방법을 제공하는 것이다.One object of the present invention is to provide a robot and a direction recognition method for recognizing a correct driving direction using a bead line.

본 발명의 다른 과제는, 정확한 방향을 인식하여 선체면을 효과적으로 청소하는 로봇 및 방향 인식 방법을 제공하는 것이다.Another object of the present invention is to provide a robot and direction recognition method for effectively cleaning the hull surface by recognizing the correct direction.

본 발명이 해결하고자 하는 과제가 상술한 과제로 제한되는 것은 아니며, 언급되지 아니한 과제들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problem to be solved by the present invention is not limited to the above-described problem, the objects that are not mentioned will be clearly understood by those skilled in the art from the present specification and the accompanying drawings. .

본 발명의 일 측면에 따르면, 용접된 비드선이 형성된 선체면에 부착되는 하우징; 상기 하우징을 주행시키는 바퀴; 상기 하우징의 3차원 위치를 외부로부터 제공받는 통신 모듈; 상기 하우징의 전방을 촬영하는 카메라; 및 상기 카메라에 의해 촬영된 상기 비드선의 방향과 상기 촬영된 영상의 기준선의 각도 차이를 산출하여, 상기 하우징의 주행 방향을 산출하는 제어기;를 포함하는 로봇이 제공될 수 있다.According to an aspect of the invention, the housing is attached to the hull surface is formed welded bead wire; Wheels for driving the housing; A communication module configured to receive a three-dimensional position of the housing from an outside; A camera for photographing the front of the housing; And a controller configured to calculate an angle difference between a direction of the bead line photographed by the camera and a reference line of the photographed image, and to calculate a driving direction of the housing.

또한, 상기 선체면의 상기 비드선을 포함하는 맵 데이터를 저장하는 메모리;를 더 포함하고, 상기 제어기는, 상기 하우징의 3차원 위치와 상기 맵 데이터를 참조하여 상기 하우징의 위치 및 주행 방향을 산출할 수 있다. The apparatus may further include a memory configured to store map data including the bead line of the hull surface, wherein the controller calculates a position and a driving direction of the housing by referring to the three-dimensional position of the housing and the map data. can do.

또한, 상기 하우징은 자력에 의해 상기 선체면에 부착되고, 상기 하우징의 주행 거리를 측정하는 주행 거리 센서를 더 포함할 수 있다. The housing may further include a travel distance sensor attached to the hull surface by magnetic force and measuring a travel distance of the housing.

또한, 상기 통신 모듈은 전 지구 위성 항법 시스템(GNSS), 휴대폰 기지국, 및 근거리 무선 통신망 중 적어도 어느 하나로부터 상기 하우징의 3차원 위치를 제공받을 수 있다.In addition, the communication module may be provided with a three-dimensional position of the housing from at least one of a global satellite navigation system (GNSS), a mobile phone base station, and a local area wireless communication network.

본 발명의 다른 측면에 따르면, 용접된 비드선이 형성된 선체면을 주행하는 로봇의 주행 방향을 인식하는 방법으로서, 상기 로봇이 상기 선체면에 부착되어 주행하는 단계; 상기 로봇의 3차원 위치를 외부로부터 제공받는 단계; 상기 로봇의 전방을 촬영하는 단계; 및 촬영된 상기 비드선의 방향과 상기 촬영된 영상의 기준선의 각도 차이를 산출하여, 상기 로봇의 주행 방향을 산출하는 단계;를 포함하는 로봇의 주행 방향 인식 방법이 제공될 수 있다. According to another aspect of the present invention, a method for recognizing the driving direction of the robot traveling on the hull surface is formed welded bead line, the robot is attached to the hull surface for traveling; Receiving a three-dimensional position of the robot from the outside; Photographing the front of the robot; And calculating a driving direction of the robot by calculating an angle difference between the direction of the photographed bead line and the reference line of the photographed image, and the driving direction recognition method of the robot.

또한, 상기 선체면의 상기 비드선을 포함하는 맵 데이터를 저장하는 단계를 더 포함하고, 상기 로봇의 주행 방향을 인식하는 단계는, 상기 로봇의 3차원 위치와 상기 맵 데이터를 참조하여 상기 로봇의 위치 및 주행 방향을 산출할 수 있다. The method may further include storing map data including the bead line of the hull surface, and recognizing a driving direction of the robot by referring to a three-dimensional position of the robot and the map data. The position and the driving direction can be calculated.

본 발명에 의하면, 로봇의 주행 방향을 정확히 인식할 수 있다.According to the present invention, it is possible to accurately recognize the driving direction of the robot.

본 발명에 의하면, 주행 방향을 정확히 인식함으로써 로봇을 주행 방향을 원하는 방향으로 조종하여 선체면의 청소 등의 원하는 작업을 효과적으로 수행할 수 있다. According to the present invention, by accurately recognizing the driving direction, the robot can be steered in the desired direction to effectively perform a desired operation such as cleaning the hull surface.

본 발명의 효과가 상술한 효과들로 제한되는 것은 아니며, 언급되지 아니한 효과들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.The effects of the present invention are not limited to the above-described effects, and effects that are not mentioned will be clearly understood by those skilled in the art from the present specification and the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 선박의 개략도이다.
도 2는 도 1의 로봇의 사시도이다.
도 3은 도 1의 로봇의 측면도이다.
도 4는 도 1의 로봇의 구성도이다.
도 5는 본 발명의 일 실시예에 따른 방향 인식 방법의 순서도이다.
도 6 내지 도 8은 도 5의 방향 인식 방법에서 로봇이 비드선 상을 주행하면서 주행 방향을 인식하는 것을 도시한 도면이다.
도 9 내지 도 11은 도 5의 방향 인식 방법에서 로봇이 비드선의 사이를 주행하면서 주행 방향을 인식하는 것을 도시한 도면이다.
도 12는 도 1의 로봇이 선체면을 청소하는 것을 도시한 도면이다.
1 is a schematic view of a ship according to an embodiment of the present invention.
2 is a perspective view of the robot of FIG. 1.
3 is a side view of the robot of FIG. 1.
4 is a configuration diagram of the robot of FIG. 1.
5 is a flowchart illustrating a direction recognition method according to an embodiment of the present invention.
6 to 8 are diagrams illustrating that the robot recognizes a driving direction while traveling on a bead line in the direction recognition method of FIG. 5.
9 to 11 are diagrams illustrating that the robot recognizes the driving direction while traveling between the bead lines in the direction recognition method of FIG. 5.
12 is a view showing the robot of FIG. 1 cleaning the hull surface.

본 명세서에 기재된 실시예는 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 본 발명의 사상을 명확히 설명하기 위한 것이므로, 본 발명이 본 명세서에 기재된 실시예에 의해 한정되는 것은 아니며, 본 발명의 범위는 본 발명의 사상을 벗어나지 아니하는 수정예 또는 변형예를 포함하는 것으로 해석되어야 한다.It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are intended to be illustrative of the present invention and not to limit the scope of the invention. Should be interpreted to include modifications or variations that do not depart from the spirit of the invention.

본 명세서에서 사용되는 용어와 첨부된 도면은 본 발명을 용이하게 설명하기 위한 것이고, 도면에 도시된 형상은 필요에 따라 본 발명의 이해를 돕기 위하여 과장되어 표시된 것이므로, 본 발명이 본 명세서에서 사용되는 용어와 첨부된 도면에 의해 한정되는 것은 아니다.The terms used in the present specification and the accompanying drawings are for easily explaining the present invention, and the shapes shown in the drawings are exaggerated and displayed to help understanding of the present invention as necessary, and thus, the present invention is used herein. It is not limited by the terms and the accompanying drawings.

본 명세서에서 본 발명에 관련된 공지의 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에 이에 관한 자세한 설명은 필요에 따라 생략한다.In the following description, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

이하에서는 본 발명의 일 실시예에 따른 선박(10)에 관하여 설명한다.Hereinafter will be described with respect to the ship 10 according to an embodiment of the present invention.

도 1은 본 발명의 일 실시예에 따른 선박(10)의 개략도이다.1 is a schematic diagram of a vessel 10 according to an embodiment of the present invention.

도 1을 참조하면, 선박(10)은 선체(12), 조종실(16) 및 로봇(100)을 포함한다.Referring to FIG. 1, the vessel 10 includes a hull 12, a cockpit 16, and a robot 100.

선체(12)는 선박(10)의 몸체를 이룬다. 선체(12)는 복수의 블록(block)으로 구성될 수 있다. 블록은 각각 별도로 제작된 후 용접(welding) 등에 의해 접합됨으로써 전체 선체(12)를 이룬다. 각 블록 간에는 용접 등에 의한 이음선, 즉 비드선(14)이 형성될 수 있다. 비드선(14)은 도 1에 도시된 바와 같이, 수평 방향 또는 수직 방향으로 형성될 수 있다.The hull 12 forms the body of the vessel 10. The hull 12 may be composed of a plurality of blocks. Each block is separately manufactured and then joined by welding or the like to form the entire hull 12. Between each block, a seam line, that is, a bead line 14, may be formed by welding or the like. The bead line 14 may be formed in a horizontal direction or a vertical direction, as shown in FIG. 1.

한편, 선체(12)의 외측면은 그 일부가 수중에 잠길 수 있다. 해수에 잠긴 선체(12)의 수중 외판에는 따개비나 물이끼와 같은 수중 생물이 부착될 수 있다. 이처럼 선체(12)에 수중 생물이 부착되면, 수중 저항이 증가하여 심할 경우 선박(10)의 운항 속도 및 연료 효율이 약 40% 이상 저하될 수 있다. On the other hand, a portion of the outer surface of the hull 12 may be submerged underwater. Underwater shells of the hull 12 submerged in seawater may be attached to an underwater creature such as barnacles or moss. As such, when the aquatic organisms are attached to the hull 12, the underwater resistance is increased, and if the seawater 12 is severe, the operating speed and fuel efficiency of the vessel 10 may be reduced by about 40% or more.

조종실(16)은 선체(12)에 설치된다. 조종실(16)에서는 파일럿(pilot)이 로봇(100)을 조종할 수 있다. 조종실(16)은 통신 수단, 디스플레이 및 입력 수단을 포함할 수 있다. 통신 수단은 로봇(100)과 통신을 수행할 수 있다. 디스플레이는 통신 수단을 통해 로봇(100)으로부터 수신된 영상 정보에 따라 영상을 출력할 수 있다. 입력 수단은 파일럿으로부터 조종 신호를 입력받는다. 조종 신호는 통신 수단을 통해 로봇(100)으로 송출되고, 로봇은 이에 따라 조종될 수 있다. The cockpit 16 is installed in the hull 12. In the cockpit 16, a pilot may control the robot 100. The cockpit 16 may include communication means, a display and an input means. The communication means may communicate with the robot 100. The display may output an image according to the image information received from the robot 100 through a communication means. The input means receives a steering signal from the pilot. The steering signal is sent to the robot 100 through a communication means, and the robot can be manipulated accordingly.

한편, 조종실(16)이 반드시 선체(12)에 설치되어야 하는 것은 아니며, 조종실(16)은 선박(10)과는 별도의 장소에 설치될 수 있다. 또 로봇(100)이 미리 정해진 경로에 따라 자동으로 주행하는 경우에는 조종실(16)이 생략될 수도 있다. On the other hand, the cockpit 16 is not necessarily installed in the hull 12, the cockpit 16 may be installed in a separate place from the ship 10. In addition, when the robot 100 automatically runs along a predetermined path, the cockpit 16 may be omitted.

로봇(100)은 선체면(12)에 부착되어 주행한다. 로봇(100)은 선체면(12)을 청소하는 청소 로봇일 수 있다. 청소 로봇은 선체면(12)을 주행하면서 선체면(12)으로부터 이물질(D)을 제거하는 등 선체면(12)을 청소할 수 있다. 물론, 로봇(100)이 청소 로봇으로 한정되는 것은 아니며, 이외에도 선체면(12)을 검사하는 검사 로봇이나 그 밖의 다른 작업을 수행하는 작업 로봇일 수 있다. 다만, 이하에서는 설명의 용이를 위하여 로봇(100)에 대하여 청소 로봇을 중심으로 설명하기로 한다. The robot 100 is attached to the hull surface 12 to travel. The robot 100 may be a cleaning robot that cleans the hull surface 12. The cleaning robot can clean the hull surface 12 such as removing foreign matters D from the hull surface 12 while driving the hull surface 12. Of course, the robot 100 is not limited to the cleaning robot, but may also be an inspection robot for inspecting the hull surface 12 or a work robot for performing other tasks. However, hereinafter, the robot 100 will be described based on the cleaning robot for ease of explanation.

이하에서는 본 발명의 일 실시예에 따른 로봇(100)에 관하여 설명한다.Hereinafter, a description will be given of the robot 100 according to an embodiment of the present invention.

도 2는 도 1의 로봇(100)의 사시도이고, 도 3은 도 1의 로봇(100)의 측면도이고, 도 4는 도 1의 로봇(100)의 구성도이다.2 is a perspective view of the robot 100 of FIG. 1, FIG. 3 is a side view of the robot 100 of FIG. 1, and FIG. 4 is a configuration diagram of the robot 100 of FIG. 1.

도 2 내지 도 4를 참조하면, 로봇(100)은 하우징(110), 바퀴(120), 청소 부재(130), 카메라(140), 조명 부재(150), 통신 모듈(160), 메모리(170) 및 제어기(180)를 포함한다.2 to 4, the robot 100 includes a housing 110, a wheel 120, a cleaning member 130, a camera 140, a lighting member 150, a communication module 160, and a memory 170. ) And controller 180.

하우징(110)은 로봇(100)의 몸체를 이룬다. 하우징(110)에는 로봇(100)의 다른 구성 요소들이 설치될 수 있다. 로봇(100)의 구성 요소들 중 충격에 약하거나 외부에 노출되어서는 안 되는 구성 요소는 하우징(110)의 내부에 설치될 수 있다. 이때 하우징(110)은 그 내부가 침수되지 않도록 방수 처리 될 수 있다. The housing 110 forms the body of the robot 100. Other components of the robot 100 may be installed in the housing 110. Among the components of the robot 100, a component that should not be exposed to impact or exposed to the outside may be installed inside the housing 110. In this case, the housing 110 may be waterproofed so that the inside thereof is not flooded.

하우징(110)은 유선형의 형상으로 제공될 수 있다. 이에 따라 로봇(100)이 수중에서도 물의 저항을 적게 받으면서 선체면(12)을 따라 주행할 수 있다. 또 하우징(110)은 내수성(耐水性)이 강한 재질로 마련될 수 있다.The housing 110 may be provided in a streamlined shape. Accordingly, the robot 100 may travel along the hull surface 12 while receiving less water resistance from underwater. In addition, the housing 110 may be formed of a material having strong water resistance.

바퀴(120)는 로봇(100)을 주행시킨다. 바퀴(120)는 선체면(12)과 구름 접촉하도록 하우징(110)의 측면 또는 하면에 설치될 수 있다. 바퀴(120)가 회전하면 이에 따라 로봇(100)이 선체면(12)을 따라 주행할 수 있다. The wheel 120 drives the robot 100. The wheel 120 may be installed on the side or the bottom of the housing 110 to make a rolling contact with the hull surface 12. When the wheel 120 rotates, the robot 100 may travel along the hull surface 12.

바퀴(120)는 선체면(12)에 부착된다. 예를 들어, 바퀴(120)는 자석 바퀴일 수 있다. 이때 자석은 영구 자석 또는 전자석일 수 있다. 자석 바퀴는 그 자력에 의해 철판, 강판 등으로 이루어진 선체면(12)에 부착될 수 있다. 여기서, 바퀴(120)는 그 전체가 자석으로 제공될 수 있다. 또는 바퀴(120)에는 별도의 자력 부재가 그 내부에 결합되는 형태로 제공될 수 있다. 한편, 바퀴(120)가 자석 바퀴로 제공되는 대신 별도의 자력 부재가 바퀴(120) 대신 하우징(110)의 하면에 선체면(12)을 향하도록 설치되는 것도 가능하다. 이에 따라 로봇(100)이 선체면(12)에 부착될 수 있다. The wheel 120 is attached to the hull surface 12. For example, the wheel 120 may be a magnetic wheel. In this case, the magnet may be a permanent magnet or an electromagnet. The magnet wheel can be attached to the hull surface 12 made of an iron plate, a steel sheet, or the like by its magnetic force. Here, the wheel 120 may be provided in its entirety as a magnet. Alternatively, the wheel 120 may be provided in a form in which a separate magnetic force member is coupled therein. Meanwhile, instead of the wheel 120 being provided as a magnet wheel, a separate magnetic member may be installed to face the hull surface 12 on the lower surface of the housing 110 instead of the wheel 120. Accordingly, the robot 100 may be attached to the hull surface 12.

한편, 로봇(100)은 바퀴(120)를 대신해서 프로펠러나 그 외의 주행 수단을 가지고 이를 이용해 선체면(12)을 주행할 수 있다. Meanwhile, the robot 100 may travel the hull surface 12 by using the propeller or other driving means instead of the wheel 120.

청소 부재(130)는 선체면(12)을 청소한다. 예를 들어, 청소 부재(130)는 브러쉬(brush)일 수 있다. 브러쉬는 하우징(110)으로부터 하측으로 연장되고, 선체면(12)과 접촉하여 선체면(12)으로부터 이물질(D)을 제거할 수 있다. 청소 부재(130)가 브러쉬로 한정되는 것은 아니며, 청소 부재(130)는 이외에도 분사 노즐(injection nozzle)을 비롯한 다양한 청소 수단일 수 있다. The cleaning member 130 cleans the hull surface 12. For example, the cleaning member 130 may be a brush. The brush extends downward from the housing 110 and may contact the hull surface 12 to remove the foreign matter D from the hull surface 12. The cleaning member 130 is not limited to a brush, and the cleaning member 130 may be various cleaning means including an injection nozzle.

한편, 상술한 바와 같이 로봇(100)은 청소 로봇이 이외의 탐사 로봇이나 다른 작업 로봇일 수 있는데, 이때에 로봇(100)은 청소 부재(130) 대신 다른 작업 수단이 포함할 수 있다.Meanwhile, as described above, the robot 100 may be an exploration robot other than a cleaning robot or another working robot. In this case, the robot 100 may include other working means instead of the cleaning member 130.

카메라(140)는 영상을 촬영한다. 예를 들어, 카메라(140)는 하우징(110)의 전방이나 후방에 설치되어 영상을 촬영할 수 있다. 여기서, 카메라(140)는 가시광 카메라는, 물론 적외선 카메라일 수도 있다. The camera 140 captures an image. For example, the camera 140 may be installed at the front or the rear of the housing 110 to capture an image. Here, the camera 140 may be a visible light camera, of course, an infrared camera.

카메라(140)에 촬영된 영상에는 비드선(14)이 포함될 수 있는데, 로봇(100)은 이러한 비드선(14)이 포함된 영상을 이용하여 주행 방향을 인식할 수 있다. 이에 관한 보다 상세한 설명은 본 발명에 따른 방향 인식 방법에서 후술될 것이다.The image captured by the camera 140 may include a bead line 14, and the robot 100 may recognize a driving direction by using the image including the bead line 14. A more detailed description thereof will be described later in the direction recognition method according to the present invention.

또, 촬영된 영상을 분석하면, 선체면(12)이 청소되었는지 여부를 판단할 수 있다. 이외에도 로봇(100)은 조종자에 의해 원격 조종되는 경우에는, 촬영된 영상을 조종자에게 제공할 수도 있다. In addition, if the captured image is analyzed, it may be determined whether the hull surface 12 is cleaned. In addition, when the robot 100 is remotely controlled by the operator, the robot 100 may provide the captured image to the operator.

조명 부재(150)는 광을 출력하여 조명을 제공한다. 예를 들어, 조명 부재(150)는 카메라(140)가 촬영하는 지점을 조명할 수 있다.The lighting member 150 outputs light to provide illumination. For example, the lighting member 150 may illuminate the spot photographed by the camera 140.

통신 모듈(160)은 통신을 수행한다. 예를 들어, 통신 모듈(160)은 상술한 무선 통신망을 통해 조종실(16)로 영상 정보를 제공하거나 조종실(16)로부터 조종 신호를 수신할 수 있다. The communication module 160 performs communication. For example, the communication module 160 may provide image information to the cockpit 16 or receive a steering signal from the cockpit 16 through the wireless communication network described above.

이때 통신 모듈(160)은 근거리 무선 통신망을 통해 통신을 할 수 있다. 예를 들어, 통신 모듈(160)은 블루투스(Bluetooth), RFID(radio frequency identification), 적외선 통신(IrDA, infrared data association), UWB(ultra wideband), 직비(ZigBee) 및 그 밖의 근거리 통신규격 중 적어도 하나를 통해 통신을 수행할 수 있다. 다른 예를 들어, 통신 모듈(160)은 인터넷망을 통해 인터넷에 접속하여 통신을 수행할 수 있다. 여기서, 통신 모듈(160)은 WLAN(wireless LAN), Wibro(wireless broadband), Wimax(world interoperability for microwave access), HSDPA(high speed downlink packet access) 및 그 밖의 다양한 통신규격 중 적어도 하나에 따라 통신을 수행할 수 있다.In this case, the communication module 160 may communicate through a short range wireless communication network. For example, the communication module 160 may include at least one of Bluetooth, radio frequency identification (RFID), infrared data association (IrDA), ultra wideband (UWB), ZigBee, and other short-range communication standards. Communication can be performed through one. For another example, the communication module 160 may access the Internet through the Internet network to perform communication. Here, the communication module 160 performs communication according to at least one of a wireless LAN (WLAN), a wireless broadband (WBRO), a world interoperability for microwave access (Wimax), a high speed downlink packet access (HSDPA), and various other communication standards. Can be done.

다른 예를 들어, 통신 모듈(160)은 위치 정보를 수신할 수 있다. 통신 모듈(160)은 전 지구 위성 항법 시스템(GNSS: global navigation satellite system)을 이용하여 위치 정보를 획득할 수 있다. 제어기(180)는 이러한 위치 정보를 분석하여 로봇(100)의 위치를 산출하거나 로봇(100)의 주행 속도나 방향을 산출할 수 있다.As another example, the communication module 160 may receive location information. The communication module 160 may obtain location information using a global navigation satellite system (GNSS). The controller 180 may analyze the location information to calculate the location of the robot 100 or to calculate the traveling speed or direction of the robot 100.

여기서 GNSS는 지구를 공전하는 항법 위성과 항법 위성으로부터 위성 전파를 수신하여 그 위성 전파를 이용하여 소정의 위치에 대한 위치 정보를 산출하는 항법 수신기를 포함하여, 위치 정보를 획득하는 시스템이다. 전 지구 위성 항법 시스템에는, 미국이 운용하는 GPS(global position system), 유럽에서 운영하는 갈릴레요(Galileo), 러시아에서 운영하는 GLONASS(global orbiting navigational satellite system), 중국에서 운영하는 COMPASS, 인도에서 운영하는 IRNS(Indian regional navigation satellite system), 일본에서 운영하는 QZSS(quasi-zenith satellite system) 등이 있다. 따라서, 통신 모듈(160)은 각 GNSS에 대응하는 예를 들어, GPS 모듈일 수 있다. The GNSS is a system for acquiring position information, including a navigation satellite that orbits the earth and a navigation receiver that receives satellite radio waves from the navigation satellites and calculates position information on a predetermined position using the satellite radio waves. Global satellite navigation systems include: Global Position System (GPS) operated by the US, Galileo operated by Europe, Global Orbiting Navigational Satellite System (GLONASS) operated by Russia, COMPASS operated by China, India Indian regional navigation satellite system (IRNS) operated, and quasi-zenith satellite system (QZSS) operated in Japan. Accordingly, the communication module 160 may be, for example, a GPS module corresponding to each GNSS.

통신 모듈(160)은 3개 이상의 항법 위성으로부터 항법 위성의 식별 정보 및 시간 정보를 포함하는 위성 전파를 수신하여 소정의 위치에 대한 3차원 위치 정보를 산출할 수 있다. 이러한 3차원 위치 정보는, 위도, 경도 및 고도로써 표현될 수 있다. The communication module 160 may receive satellite radio waves including identification information and time information of the navigation satellites from three or more navigation satellites, and calculate three-dimensional location information for a predetermined location. Such three-dimensional location information may be expressed as latitude, longitude, and altitude.

여기서, 위치 정보가 반드시 소정의 위치에 대한 좌표값과 같이 직접적인 위치를 반영해야 하는 것은 아니다. 예를 들어, 통신 모듈(160)은 GNSS를 이용하여 위치 정보를 획득하는 이외에도, 휴대폰 기지국과 통신을 수행하여 통신 신호를 이용한 삼각측량을 통해 위치 정보를 획득할 수도 있다. 또는 통신 모듈(160)은 근거리 통신망을 통해 외부 억세스 포인트(AP: access point)와 통신하여 억세스 포인트의 위치를 이용하여 위치 정보를 획득할 수 있다. Here, the position information does not necessarily reflect a direct position such as a coordinate value for a predetermined position. For example, in addition to obtaining location information using GNSS, the communication module 160 may also communicate with a mobile phone base station to obtain location information through triangulation using a communication signal. Alternatively, the communication module 160 may communicate with an external access point (AP) through a local area network to obtain location information using the location of the access point.

한편, 이상에서는 통신 모듈(160)이 무선 통신망을 통해 통신을 수행하는 것으로 설명하였으나, 통신 모듈(160)은 유선 통신을 수행하는 것도 가능하다. 예를 들어, 통신 모듈(160)은 케이블을 통해 조종실(16)과 연결되어 유선 통신으로 정보를 송수신할 수 있다. 유선 통신을 수행하는 경우에는 로봇(100)의 이동 및 동작에 다소 제한이 발생할 수 있으나, 통신 안정성이 확보되는 장점이 있을 수 있다. Meanwhile, although the communication module 160 has been described as performing communication through a wireless communication network, the communication module 160 may also perform wired communication. For example, the communication module 160 may be connected to the cockpit 16 through a cable to transmit and receive information through wired communication. When performing wired communication, some restrictions may occur in movement and operation of the robot 100, but there may be an advantage that communication stability is secured.

메모리(170)는 정보를 저장할 수 있다. 메모리(170)는 로봇(100)의 동작에 필요한 정보 및 로봇(100)의 동작에 의하여 생성된 정보를 저장할 수 있다. 예를 들어, 메모리(170)에는 로봇(100)의 동작에 필요한 운영체제(OS: operating system)나 선체(12)에 대한 맵 데이터(map data)가 저장될 수 있다. 다른 예를 들어, 메모리(170)에는 카메라(140)가 촬영한 영상의 정보가 임시적 또는 반영구적으로 저장될 수 있다. The memory 170 may store information. The memory 170 may store information necessary for the operation of the robot 100 and information generated by the operation of the robot 100. For example, the memory 170 may store an operating system (OS) required for the operation of the robot 100 or map data for the hull 12. For another example, the memory 170 may temporarily or semi-permanently store information of an image captured by the camera 140.

메모리(170)는 다양한 저장 매체로 제공될 수 있다. 예를 들어, 메모리(170)는 플래쉬메모리(flash memory), 램(RAM: random access memory), 에스램(SRAM: static random access memory), 롬(ROM: read only memory), 이이피롬(EEPROM: electrically erasable programmable read only memory), 하드 디스크(hard disk), 자기메모리, 자기 디스크(magnetic disc), 에스디카드(SD card) 등의 카드 타입 메모리 및 본 발명이 속하는 기술의 분야에서 통상의 지식을 가진 자에게 자명한 다른 저장 수단으로 제공될 수 있다. The memory 170 may be provided in various storage media. For example, the memory 170 may include flash memory, random access memory (RAM), static random access memory (SRAM), read only memory (ROM), and EEPROM (EEPROM). Card type memory, such as electrically erasable programmable read only memory, hard disk, magnetic memory, magnetic disk, SD card, and the like, and those skilled in the art. It may be provided by another storage means that is obvious to the person.

제어기(180)는 로봇(100)의 전반적인 동작 및 로봇(100)의 다른 구성 요소를 제어한다. 예를 들어, 제어기(180)는 카메라(140)의 영상을 분석하여 로봇(100)의 주행 방향을 인식할 수 있다. 이에 관한 자세한 내용은 후술되는 방향 인식 방법에서 설명하기로 한다. The controller 180 controls the overall operation of the robot 100 and other components of the robot 100. For example, the controller 180 may recognize the driving direction of the robot 100 by analyzing the image of the camera 140. Details thereof will be described later in the direction recognition method.

제어기(180)는 소프트웨어, 하드웨어 또는 이들의 조합을 이용하여 컴퓨터 또는 이와 유사한 장치로 구현될 수 있다. Controller 180 may be implemented in a computer or similar device using software, hardware or a combination thereof.

하드웨어적으로 제어기(180)는 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors) 및 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 제어기능을 수행하기 위한 전기적인 장치로 제공될 수 있다. In hardware, the controller 180 may include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), and processors (processors). The present invention can be provided as an electronic device for performing a control function that is obvious to those skilled in the art, such as micro-controllers, microprocessors and the present invention.

소프트웨어적으로 제어기(180)는 하나 이상의 프로그램 언어로 쓰여진 소프트웨어 코드(software code) 또는 소프트웨어 어플리케이션(software application)에 의해 구현될 수 있다. 소프트웨어는 메모리(170)에 저장되고, 제어기(180)의 하드웨어적인 구성에 의해 실행될 수 있다. 또 소프트웨어는 통신 모듈(160)을 통해 외부로부터 로봇(100)으로 송신되어 메모리(170)에 설치될 수 있다. In software, the controller 180 may be implemented by software code or software application written in one or more programming languages. The software may be stored in the memory 170 and executed by a hardware configuration of the controller 180. In addition, the software may be transmitted to the robot 100 from the outside through the communication module 160 and installed in the memory 170.

이하에서는 본 발명의 일 실시예에 따른 방향 인식 방법에 관하여 설명한다. 이하에서 설명하는 방향 인식 방법은 상술한 선박(10) 및 로봇(100)에 의해 수행될 수 있다. 다만, 방향 인식 방법에 이에 한정되는 것은 아니며, 본 발명에 따른 선박(10) 및 로봇(100)과 동일 또는 유사한 다른 장치에 의해 수행되는 것도 가능하다. 또한 후술될 방향 인식 방법은 별도의 언급이 없더라도 로봇(100)의 제어기(180)에 의해 수행될 수 있다. Hereinafter, a direction recognition method according to an embodiment of the present invention will be described. The direction recognition method described below may be performed by the vessel 10 and the robot 100 described above. However, the direction recognition method is not limited thereto, and may be performed by another apparatus that is the same as or similar to the vessel 10 and the robot 100 according to the present invention. In addition, the direction recognition method, which will be described later, may be performed by the controller 180 of the robot 100 even if not mentioned otherwise.

본 발명의 일 실시예에 따른 방향 인식 방법은 영상을 촬영하여 그 영상에 촬영된 비드선(14)을 이용하여 로봇(100)의 주행 방향을 인식하는 방법에 관한 것이다.The direction recognition method according to an embodiment of the present invention relates to a method of recognizing a driving direction of the robot 100 by using an image of a bead line 14 photographed on the image.

도 5는 본 발명의 일 실시예에 따른 방향 인식 방법의 순서도이다.5 is a flowchart illustrating a direction recognition method according to an embodiment of the present invention.

도 5를 참조하면, 방향 인식 방법은 선체면(12)에 부착되는 단계(S110), 선체면(12)을 주행하는 단계(S120), 영상을 촬영하는 단계(S130), 영상 내의 비드선(14)을 이용하여 주행 방향을 인식하는 단계(S140)를 포함한다. 이하에서는 상술한 단계들에 관하여 구체적으로 설명한다. Referring to FIG. 5, the direction recognizing method may include attaching the hull surface 12 (S110), driving the hull surface 12 (S120), photographing an image (S130), and bead line in the image. Recognizing the driving direction by using 14) (S140). Hereinafter, the above-described steps will be described in detail.

로봇(100)은 선체면(12)에 부착된다(S110). 영구 자석 또는 전자석으로 제공되는 바퀴(120)가 그 자력에 의해 선체면(12)에 부착되거나 별도의 자석 부재와 선체면(12) 간의 자력에 의해 로봇(100)이 선체면(12)에 부착될 수 있다. The robot 100 is attached to the hull surface 12 (S110). A wheel 120 provided as a permanent magnet or an electromagnet is attached to the hull surface 12 by its magnetic force, or the robot 100 is attached to the hull surface 12 by a magnetic force between a separate magnet member and the hull surface 12. Can be.

선체면(12)에 부착된 로봇(100)은 선체면(12)을 주행한다(S120). 바퀴(120)가 회전함에 따라 로봇(100)은 선체면(12)을 주행할 수 있다. 로봇(100)은 이처럼 주행하면서 작업을 수행할 수 있다. 예를 들어, 로봇(100)이 청소 로봇인 경우에는 청소 부재(130)가 주행하는 선체면(12)으로부터 이물질(D)을 제거하며 청소를 수행할 수 있다.The robot 100 attached to the hull surface 12 travels the hull surface 12 (S120). As the wheel 120 rotates, the robot 100 may travel the hull surface 12. The robot 100 may perform the work while driving in this way. For example, when the robot 100 is a cleaning robot, the cleaning member 130 may perform cleaning while removing the foreign matter D from the hull surface 12 on which the cleaning member 130 travels.

카메라(140)는 영상을 촬영한다(S130). 여기서, 카메라(140)는 주행 방향 전방의 영상을 촬영할 수 있다. The camera 140 captures an image (S130). Here, the camera 140 may take an image of the front of the driving direction.

제어기(180)는 촬영된 영상을 이용해 주행 방향을 인식한다(S140). 촬영된 영상에는 비드선(14)이 포함되어 있는데 제어기(180)는 비드선의 방향을 분석하여 주행 방향을 인식할 수 있다. 비드선(14)은 선체(12)에 수평 또는 수직 방향으로 형성되므로 제어기(180)는 촬영된 영상 내의 비드선(14)의 방향으로부터 로봇(100)의 주행 방향을 알 수 있다. The controller 180 recognizes the driving direction by using the captured image (S140). The captured image includes a bead line 14. The controller 180 may recognize the driving direction by analyzing the direction of the bead line. Since the bead line 14 is formed in the hull 12 in the horizontal or vertical direction, the controller 180 can know the driving direction of the robot 100 from the direction of the bead line 14 in the captured image.

도 6 내지 도 8은 도 5의 방향 인식 방법에서 로봇(100)이 비드선(14) 상을 주행하면서 주행 방향을 인식하는 것을 도시한 도면이다.6 to 8 are diagrams illustrating that the robot 100 recognizes a driving direction while traveling on the bead line 14 in the direction recognizing method of FIG. 5.

도 6을 참조하면, 로봇(100)이 선체면(12)에서 비드선(14)을 따라 주행한다. 이때 카메라(140)는 전방을 촬영한다. 도 7 및 도 8은 카메라(140)가 촬영한 영상이다. 도 7 및 도 8에서 기준선(Lref)은 로봇(100)의 주행 경로 또는 주행 방향과 일치하는 가상선이다. Referring to FIG. 6, the robot 100 travels along the bead line 14 on the hull surface 12. At this time, the camera 140 photographs the front side. 7 and 8 are images captured by the camera 140. In FIG. 7 and FIG. 8, the reference line Lref is an imaginary line coinciding with the driving path or the driving direction of the robot 100.

도 7을 참조하면, 촬영된 영상에서 비드선(14)이 중앙의 기준선(Lref)과 일치하고 있다. 제어기(180)는 이와 같은 방법을 이용해 촬영된 영상의 비드선(14)의 방향을 분석하여 로봇(100)의 주행 방향이 비드선(14)이 형성된 방향, 즉 수직 또는 수평 방향임을 판단할 수 있다. Referring to FIG. 7, the bead line 14 coincides with the center reference line Lref in the captured image. The controller 180 may analyze the direction of the bead line 14 of the captured image by using the same method to determine that the driving direction of the robot 100 is a direction in which the bead line 14 is formed, that is, a vertical or horizontal direction. have.

도 8을 참조하면, 촬영된 영상에서 비드선(14)이 기준선(Lref)과 불일치하고, 소정의 각도(θ)로 어긋나고 있다. 제어기(180)는 이러한 영상을 분석하여 로봇(100)의 주행 방향이 비드선(14)으로부터 소정의 각도(θ)로 어긋난 방향임을 알 수 있다. 예를 들어, 비드선(14)이 수평 방향의 비드선(14)이고 소정의 각도(θ)가 5°인 경우에는 제어기(180)는 로봇(100)이 수평선과 5°를 이룬 방향으로 주행하는 것으로 판단할 수 있다. Referring to FIG. 8, in the photographed image, the bead line 14 is inconsistent with the reference line Lref and is shifted by a predetermined angle θ. The controller 180 analyzes the image to determine that the driving direction of the robot 100 is shifted from the bead line 14 by a predetermined angle θ. For example, when the bead line 14 is the bead line 14 in the horizontal direction and the predetermined angle θ is 5 °, the controller 180 travels in a direction in which the robot 100 forms a 5 ° angle with the horizontal line. You can judge that.

도 9 내지 도 11은 도 5의 방향 인식 방법에서 로봇(100)이 비드선(14)의 사이를 주행하면서 주행 방향을 인식하는 것을 도시한 도면이다.9 to 11 are diagrams illustrating that the robot 100 recognizes a driving direction while traveling between the bead lines 14 in the direction recognition method of FIG. 5.

도 9를 참조하면, 로봇(100)이 선체면(12)에서 비드선(14)이 없는 구간을 주행하는 경우를 보여주고 있다. 이때 카메라(140)는 로봇(100)의 전방을 촬영한다. 도 10 및 도 11은 카메라(140)가 촬영한 영상이다. 도 10 및 도 11에서 평행선들(Lother)은 실제 선체면(12)에서 기준선(Lref)과 평행한 가상의 선이다. Referring to FIG. 9, the robot 100 travels a section in which the bead line 14 is absent from the hull surface 12. At this time, the camera 140 photographs the front of the robot 100. 10 and 11 are images captured by the camera 140. In FIGS. 10 and 11, the parallel lines (Lother) are imaginary lines parallel to the reference line (Lref) in the actual hull surface 12.

도 10을 참조하면, 로봇(100)이 비드선(14)을 따라 이동하지 않고 있으므로, 비드선(14)이 영상의 중앙이 아닌 측부에 위치한다. 이때 제어기(180)는 비드선(14)과 평행선(Lother)의 방향이 서로 일치하므로 로봇(100)의 주행 방향이 비드선(14)의 방향인 수직 또는 수평 방향임을 판단할 수 있다. Referring to FIG. 10, since the robot 100 does not move along the bead line 14, the bead line 14 is located at the side of the image rather than the center. In this case, since the direction of the bead line 14 and the parallel line coincide with each other, the controller 180 may determine that the driving direction of the robot 100 is a vertical or horizontal direction that is the direction of the bead line 14.

도 11을 참조하면, 제어기(180)는 비드선(140)과 평행선(Lother)이 이루는 각도를 이용하여 로봇(100)의 주행 방향을 판단할 수 잇다. Referring to FIG. 11, the controller 180 may determine the driving direction of the robot 100 by using an angle formed by the bead line 140 and the parallel line (Lother).

이상에서는 제어기(180)가 주행 방향을 인식하는 방법에 관해 도 6 내지 도 11을 참조하여 설명하였는데, 제어기(180)가 이와 같은 방식으로 주행 방향을 인식하는 것은 아니다. 제어기(180)는 상술한 예 이외의 다른 영상 분석 방법에 따라 촬영된 영상 내의 비드선(12)의 방향으로부터 로봇(100)의 주행 방향을 인식할 수 있다. In the above, the method for recognizing the driving direction of the controller 180 has been described with reference to FIGS. 6 to 11, but the controller 180 does not recognize the driving direction in this manner. The controller 180 may recognize the driving direction of the robot 100 from the direction of the bead line 12 in the captured image according to an image analysis method other than the above-described example.

이처럼 로봇(100)의 주행 방향을 인식하면, 제어기(180)는 이를 이용해 로봇(100)의 주행 방향을 조종할 수 있다. 예를 들어, 로봇(100)의 미리 정해진 주행 경로가 수평 방향인 경우에는 로봇(100)은 촬영된 영상을 분석하여 산출되는 로봇(100)의 주행 방향이 수평이 되도록 바퀴(120)를 제어할 수 있을 것이다.As such, when the driving direction of the robot 100 is recognized, the controller 180 may control the driving direction of the robot 100 by using the same. For example, when the predetermined driving path of the robot 100 is in the horizontal direction, the robot 100 may control the wheel 120 so that the traveling direction of the robot 100 calculated by analyzing the photographed image is horizontal. Could be.

한편, 수동으로 원격 조종 받는 로봇(100)인 경우에는 카메라(140)가 촬영한 영상을 통신 모듈(160)이 조종실(16)로 송신하여, 파일럿이 디스플레이를 통해 촬영된 영상을 볼 수 있다. 이때 디스플레이 되는 영상에는 기준선(Lref)과 평행선(Lother)이 함께 표시될 수 있다. 파일럿은 이 가상선들과 비드선(14)간의 각도로부터 주행 방향을 판단하여 입력 수단을 통해 로봇(100)을 조종할 수 있다. Meanwhile, in the case of the robot 100 manually controlled by the remote control, the communication module 160 transmits the image captured by the camera 140 to the cockpit 16, so that the pilot may view the captured image on the display. In this case, the reference line Lref and the parallel line may be displayed together on the displayed image. The pilot may control the robot 100 through the input means by determining the driving direction from the angle between the virtual lines and the bead line 14.

또 이처럼, 로봇(100)이 정확한 주행 방향을 산출하면 선체면(12)을 효과적으로 청소할 수 있다. 로봇(100)은 선체면(12)에서 주행하는 방향을 알 수 있으므로, 동일 구역을 중복하여 주행하지 않고, 또 원하는 경로에 따라 효과적으로 주행하면서 선체면(12)을 청소할 수 있다. In this way, when the robot 100 calculates the correct driving direction, the hull surface 12 can be effectively cleaned. Since the robot 100 knows the direction of travel on the hull surface 12, the robot 100 can clean the hull surface 12 while traveling effectively along the desired path without overlapping the same zone.

도 12는 도 1의 로봇이 선체면을 청소하는 것을 도시한 도면이다.12 is a view showing the robot of FIG. 1 cleaning the hull surface.

도 12를 참조하면, 로봇(100)은 그 주행 방향을 정밀하게 인식할 수 있으므로, 주행한 경로를 기억할 수 있다. 로봇(100)은 선체면(12)에서 기 주행한 경로를 알 수 있으므로, 동일 구역을 중복하여 주행하지 않을 수 있다. 또 로봇(100)은 주행하지 않은 경로를 지나치지 않을 수 있다. 이에 따라 로봇(100)이 선체면(12)을 주행하면서 효과적으로 선체면(12)의 청소를 수행할 수 있다. Referring to FIG. 12, the robot 100 may accurately recognize the driving direction thereof, and thus may store the traveled route. Since the robot 100 may know the path previously driven on the hull surface 12, the robot 100 may not travel in the same area. In addition, the robot 100 may not pass a path not traveling. Accordingly, the robot 100 may effectively clean the hull surface 12 while driving the hull surface 12.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. The foregoing description is merely illustrative of the technical idea of the present invention, and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention.

따라서, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas falling within the scope of the same shall be construed as falling within the scope of the present invention.

10: 선박 12: 선체, 선체면
14: 비드선 16: 조종실
100: 로봇 110: 하우징
120: 바퀴 130: 청소 부재
140: 카메라 150: 조명 부재
160: 통신 모듈 170: 메모리 180: 제어기
10: ship 12: hull, hull surface
14: Bead line 16: Cockpit
100: robot 110: housing
120: wheel 130: cleaning member
140: camera 150: lighting member
160: communication module 170: memory 180: controller

Claims (6)

용접된 비드선이 형성된 선체면에 부착되는 하우징;
상기 하우징을 주행시키는 바퀴;
상기 하우징의 3차원 위치를 외부로부터 제공받는 통신 모듈;
상기 하우징의 전방을 촬영하는 카메라; 및
상기 카메라에 의해 촬영된 상기 비드선의 방향과, 상기 촬영된 영상에서의 상기 하우징의 주행 방향과 일치하는 가상의 기준선 간의 각도 차이를 산출하여, 상기 하우징의 주행 방향을 산출하는 제어기;를 포함하는
로봇.
A housing attached to the hull surface on which the welded bead wire is formed;
Wheels for driving the housing;
A communication module configured to receive a three-dimensional position of the housing from an outside;
A camera for photographing the front of the housing; And
And a controller for calculating an angle difference between a direction of the bead line photographed by the camera and an imaginary reference line coinciding with a driving direction of the housing in the photographed image, to calculate a driving direction of the housing.
robot.
제1항에 있어서,
상기 선체면의 상기 비드선을 포함하는 맵 데이터를 저장하는 메모리;를 더 포함하고,
상기 제어기는, 상기 하우징의 3차원 위치와 상기 맵 데이터를 참조하여 상기 하우징의 위치 및 주행 방향을 산출하는
로봇.
The method of claim 1,
And a memory configured to store map data including the bead line of the hull surface.
The controller calculates a position and a driving direction of the housing with reference to the three-dimensional position of the housing and the map data.
robot.
제2항에 있어서,
상기 하우징은 자력에 의해 상기 선체면에 부착되고,
상기 하우징의 주행 거리를 측정하는 주행 거리 센서를 더 포함하는
로봇.
3. The method of claim 2,
The housing is attached to the hull surface by magnetic force,
Further comprising a traveling distance sensor for measuring the traveling distance of the housing
robot.
제1항 내지 제3항 중 어느 항 항에 있어서,
상기 통신 모듈은 전 지구 위성 항법 시스템(GNSS), 휴대폰 기지국, 및 근거리 무선 통신망 중 적어도 어느 하나로부터 상기 하우징의 3차원 위치를 제공받는
로봇.
The method according to any one of claims 1 to 3,
The communication module receives a three-dimensional position of the housing from at least one of a global satellite navigation system (GNSS), a cellular base station, and a local area network.
robot.
용접된 비드선이 형성된 선체면을 주행하는 로봇의 주행 방향을 인식하는 방법으로서,
상기 로봇이 상기 선체면에 부착되어 주행하는 단계;
상기 로봇의 3차원 위치를 외부로부터 제공받는 단계;
상기 로봇의 전방을 촬영하는 단계; 및
촬영된 상기 비드선의 방향과, 상기 촬영된 영상에서의 상기 로봇의 주행 방향과 일치하는 가상의 기준선 간의 각도 차이를 산출하여, 상기 로봇의 주행 방향을 산출하는 단계;를 포함하는
로봇의 주행 방향 인식 방법.
As a method of recognizing the running direction of the robot traveling on the hull surface on which the welded bead wire is formed,
Driving the robot attached to the hull surface;
Receiving a three-dimensional position of the robot from the outside;
Photographing the front of the robot; And
Calculating a driving direction of the robot by calculating an angle difference between a direction of the photographed bead line and a virtual reference line that matches a driving direction of the robot in the photographed image;
How to recognize the driving direction of the robot.
제5항에 있어서,
상기 선체면의 상기 비드선을 포함하는 맵 데이터를 저장하는 단계를 더 포함하고,
상기 로봇의 주행 방향을 인식하는 단계는,
상기 로봇의 3차원 위치와 상기 맵 데이터를 참조하여 상기 로봇의 위치 및 주행 방향을 산출하는
로봇의 주행 방향 인식 방법.
6. The method of claim 5,
Storing map data including the bead line of the hull surface;
Recognizing the driving direction of the robot,
Computing the position and the driving direction of the robot with reference to the three-dimensional position and the map data of the robot
How to recognize the driving direction of the robot.
KR1020120058654A 2012-05-31 2012-05-31 Robot and method for direction recognition KR101380247B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120058654A KR101380247B1 (en) 2012-05-31 2012-05-31 Robot and method for direction recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120058654A KR101380247B1 (en) 2012-05-31 2012-05-31 Robot and method for direction recognition

Publications (2)

Publication Number Publication Date
KR20130134833A KR20130134833A (en) 2013-12-10
KR101380247B1 true KR101380247B1 (en) 2014-04-10

Family

ID=49982395

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120058654A KR101380247B1 (en) 2012-05-31 2012-05-31 Robot and method for direction recognition

Country Status (1)

Country Link
KR (1) KR101380247B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105139911B (en) * 2015-08-05 2021-03-26 中国核电工程有限公司 Spent fuel storage pool bottom scrubbing device
KR102575683B1 (en) * 2021-08-25 2023-09-06 한국로봇융합연구원 Method for track position of robot

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080093536A (en) * 2007-04-17 2008-10-22 박원철 Rov for cleaning and inspection of ship hull
KR20110024946A (en) * 2009-09-03 2011-03-09 현대중공업 주식회사 Blasting apparatus for hull shell

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080093536A (en) * 2007-04-17 2008-10-22 박원철 Rov for cleaning and inspection of ship hull
KR20110024946A (en) * 2009-09-03 2011-03-09 현대중공업 주식회사 Blasting apparatus for hull shell

Also Published As

Publication number Publication date
KR20130134833A (en) 2013-12-10

Similar Documents

Publication Publication Date Title
CN109934891B (en) Water area shoreline construction method and system based on unmanned ship
KR101380250B1 (en) Robot and method for position recognition
EP3451010B1 (en) Underwater positioning system
US20190127034A1 (en) Autonomous underwater survey apparatus and system
KR101554995B1 (en) Method and System for Providing Underwater Navigation Using Mobile Sensor Platform
CN110580044A (en) unmanned ship full-automatic navigation heterogeneous system based on intelligent sensing
CN102306025A (en) Wireless remote-control automatic sampling monitoring ship
CN105242022A (en) Beidou navigation twin-hull boat for intelligent water quality monitoring
CN106707926B (en) Logistics corridor tele-control system based on technology of Internet of things
CN105270583A (en) Measuring type unmanned ship and measuring method thereof
WO2016059904A1 (en) Moving body
JP2006137309A (en) Support method and system of ship for entering/departing port and reaching/leaving pier
CN204037874U (en) Measurement type unmanned boat
JP2007164441A (en) Mobile object bearing determination device, mobile object bearing determination method, navigation device, and mobile terminal device
WO2020061545A1 (en) Augmented reality display view generation
KR102531807B1 (en) A method for operating a plurality of underwater anti-subjects and an operating system for a plurality of submersible anti-submarine anti-submarine
KR101015039B1 (en) Underwater position finding system and method
Hiller et al. Expanding the small auv mission envelope; longer, deeper & more accurate
US20210131810A1 (en) Position tracking inside metallic environments using magneto-electric quasistatic fields
Specht et al. Determination of the Territorial Sea Baseline-Aspect of Using Unmanned Hydrographic Vessels.
US20210009240A1 (en) Image generating device and method of generating image
CN110727282A (en) AUV docking method and device and underwater docking system
KR101380247B1 (en) Robot and method for direction recognition
Okamoto et al. Development of hovering-type AUV “HOBALIN” for exploring seafloor hydrothermal deposits
CN109765596A (en) A kind of underwater navigation detection mobile terminal

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant