KR102269384B1 - 선박 운항 지원 시스템 및 이를 포함하는 선박 - Google Patents
선박 운항 지원 시스템 및 이를 포함하는 선박 Download PDFInfo
- Publication number
- KR102269384B1 KR102269384B1 KR1020200028644A KR20200028644A KR102269384B1 KR 102269384 B1 KR102269384 B1 KR 102269384B1 KR 1020200028644 A KR1020200028644 A KR 1020200028644A KR 20200028644 A KR20200028644 A KR 20200028644A KR 102269384 B1 KR102269384 B1 KR 102269384B1
- Authority
- KR
- South Korea
- Prior art keywords
- ship
- unit
- information
- horizontal line
- image
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B63—SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
- B63B—SHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING
- B63B43/00—Improving safety of vessels, e.g. damage control, not otherwise provided for
- B63B43/18—Improving safety of vessels, e.g. damage control, not otherwise provided for preventing collision or grounding; reducing collision damage
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G3/00—Traffic control systems for marine craft
- G08G3/02—Anti-collision systems
Landscapes
- Ocean & Marine Engineering (AREA)
- Engineering & Computer Science (AREA)
- Public Health (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Mechanical Engineering (AREA)
- Health & Medical Sciences (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
Abstract
본 발명은 선박 운항 지원 시스템 및 이를 포함하는 선박에 관한 것으로서, 자선을 기준으로 전방의 영상을 획득하는 센서부; 상기 센서부에 의해 수집된 상기 영상에서 수평선을 분석하여 상기 자선의 자세정보를 산출하는 분석부; 및 상기 분석부에 의해 산출된 상기 자선의 자세정보를 출력하는 출력부를 포함하는 것을 특징으로 한다.
Description
본 발명은 선박 운항 지원 시스템 및 이를 포함하는 선박에 관한 것이다.
선박은 대량의 광물이나 원유, 천연가스, 또는 몇천 개 이상의 컨테이너 등을 싣고 대양을 항해하는 운송수단으로서, 강철로 이루어져 있고 부력에 의해 수선면에 부유한 상태에서 프로펠러의 회전을 통해 발생되는 추력을 통해 이동한다.
이러한 선박은 엔진이나 가스 터빈 등을 구동함으로써 추력을 발생시키는데, 이때 엔진은 중유(HFO) 또는 경유(MDO, MGO) 등의 오일연료를 사용하여 피스톤을 움직여서 피스톤의 왕복운동에 의해 크랭크 축이 회전되도록 하고, 크랭크 축에 연결된 샤프트가 회전되어 프로펠러가 구동되도록 하며, 반면 가스 터빈은 압축 공기와 함께 오일연료를 연소시키고, 연소 공기의 온도/압력을 통해 터빈 날개를 회전시킴으로써 발전하여 프로펠러에 동력을 전달하는 방식을 사용한다.
그러나 최근에는, 오일연료 사용 시의 배기로 인한 환경 파괴 문제를 해소하기 위해, 액화천연가스(LNG)나 액화석유가스(LPG) 등의 가스연료를 사용하여 엔진이나 터빈 등을 구동해 추진하는 가스연료 추진 방식이 사용되고 있다. 특히 LNG는 청정연료이고 매장량도 석유보다 풍부하기 때문에, 가스연료로 LNG를 사용하는 방식이 LNG 운반선 외에 컨테이너선 등과 같은 다른 선박에도 적용되고 있다.
이와 같이 선박은, 화물의 운송 효율을 보장하는 기본 기능에서 더 나아가, 환경 오염을 억제하고 에너지 소비를 줄일 수 있도록, 운항 효율을 보장하는 수준까지 점차 발전해 나가고 있다.
이러한 발전 과정에 따라 운항을 효과적이고 심지어 자율적으로 제어할 수 있도록 하는 기술에 대한 연구 및 개발이 지속적으로 이루어지고 있다. 그러나 아직까지 선박에 적용된 사례는 많지 않은 것이 현실이며, 꾸준한 연구가 필요한 실정이다.
본 발명은 상기와 같은 종래기술의 문제점을 해결하고자 창출된 것으로서, 본 발명의 목적은, 항해 과정에서 객체에 대한 직관적 정보를 제공하여 안전한 운항을 가능케 하며, 객체의 자세정보를 토대로 객체의 운동을 추적해 제공하며, 자선의 자세를 명확하게 추정할 수 있고, 선박의 형상정보를 토대로 촬영 수단의 효율적 관리가 가능한 선박 운항 지원 시스템 및 이를 포함하는 선박을 제공하기 위한 것이다.
본 발명의 일 측면에 따른 선박 운항 지원 시스템은, 자선을 기준으로 전방의 영상을 획득하는 센서부; 상기 센서부에 의해 수집된 상기 영상에서 수평선을 분석하여 상기 자선의 자세정보를 산출하는 분석부; 및 상기 분석부에 의해 산출된 상기 자선의 자세정보를 출력하는 출력부를 포함하는 것을 특징으로 한다.
구체적으로, 상기 센서부는, 상기 자선의 좌우방향 중심에 마련되며 이미지 센서를 갖는 단안 카메라일 수 있다.
구체적으로, 상기 분석부는, 상기 영상에 포함되어 있는 현재 수평선을 추출하는 수평선 추출부; 상기 자선이 기설정 자세일 때의 수평선을 기준 수평선으로 설정한 뒤, 상기 현재 수평선을 상기 기준 수평선과 대비하는 수평선 분석부; 및 상기 기준 수평선 대비 상기 현재 수평선의 차이를 토대로 상기 자선의 자세정보를 산출하는 자세 산출부를 포함할 수 있다.
구체적으로, 상기 자세 산출부는, 상기 기준 수평선 대비 상기 현재 수평선의 기울기를 이용하여 상기 자선의 롤링 각도를 산출하며, 상기 기준 수평선 대비 상기 현재 수평선의 상하 편차를 이용하여 상기 자선의 피칭 각도를 산출할 수 있다.
본 발명의 일 측면에 따른 선박은, 상기 선박 운항 지원 시스템을 갖는 것을 특징으로 한다.
본 발명에 따른 선박 운항 지원 시스템 및 이를 포함하는 선박은, 운항 시 마주하게 될 객체에 대해 정보를 직관적으로 제공할 수 있고, 객체의 운동추적을 구현하여 사고 위험을 혁신적으로 낮추며, 자선 자세의 추정 및 자선 형상을 바탕으로 한 자선 장비의 최적 관리를 구현할 수 있다.
도 1은 본 발명에 따른 선박 운항 지원 시스템의 디스플레이 화면을 나타내는 도면이다.
도 2 내지 도 4는 본 발명의 제1 실시예에 따른 선박 운항 지원 시스템의 블록도이다.
도 5는 본 발명의 제1 실시예에 따른 선박 운항 지원 시스템의 분석 원리를 설명하는 도면이다.
도 6 및 도 7은 본 발명의 제2 실시예에 따른 선박 운항 지원 시스템의 블록도이다.
도 8은 본 발명의 제2 실시예에 따른 선박 운항 지원 시스템의 분석 예시를 나타내는 도면이다.
도 9 및 도 10은 본 발명의 제3 실시예에 따른 선박 운항 지원 시스템의 블록도이다.
도 11은 본 발명의 제3 실시예에 따른 선박 운항 지원 시스템의 분석 예시를 나타내는 도면이다.
도 12 및 도 13은 본 발명의 제4 실시예에 따른 선박 운항 지원 시스템의 블록도이다.
도 2 내지 도 4는 본 발명의 제1 실시예에 따른 선박 운항 지원 시스템의 블록도이다.
도 5는 본 발명의 제1 실시예에 따른 선박 운항 지원 시스템의 분석 원리를 설명하는 도면이다.
도 6 및 도 7은 본 발명의 제2 실시예에 따른 선박 운항 지원 시스템의 블록도이다.
도 8은 본 발명의 제2 실시예에 따른 선박 운항 지원 시스템의 분석 예시를 나타내는 도면이다.
도 9 및 도 10은 본 발명의 제3 실시예에 따른 선박 운항 지원 시스템의 블록도이다.
도 11은 본 발명의 제3 실시예에 따른 선박 운항 지원 시스템의 분석 예시를 나타내는 도면이다.
도 12 및 도 13은 본 발명의 제4 실시예에 따른 선박 운항 지원 시스템의 블록도이다.
본 발명의 목적, 특정한 장점들 및 신규한 특징들은 첨부된 도면들과 연관되어지는 이하의 상세한 설명과 바람직한 실시예로부터 더욱 명백해질 것이다. 본 명세서에서 각 도면의 구성요소들에 참조번호를 부가함에 있어서, 동일한 구성 요소들에 한해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 번호를 가지도록 하고 있음에 유의하여야 한다. 또한, 본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명은 생략한다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다. 본 발명은 이하에서 설명하는 선박 운항 지원 시스템은 물론이고, 해당 시스템이 탑재/내장되는 선박도 포함한다.
이때 선박이라 함은 화물이나 사람을 출발지에서 도착지까지 실어 나르는 상선/여객선과 같은 일반적인 선박 외에도, 해양에서 특정한 작업을 수행하기 위한 부유 구조물 등을 모두 포괄하는 개념일 수 있다.
또한 참고로 본 명세서에서, 본 발명의 시스템이 마련되는 선박을 자선이라 하며, 자선의 주변에 위치하는 물체로서 선박이나 부유체, 교각과 같은 고정 구조물 등을 객체라 지칭함을 알려둔다.
도 1은 본 발명에 따른 선박 운항 지원 시스템의 디스플레이 화면을 나타내는 도면이고, 도 2 내지 도 4는 본 발명의 제1 실시예에 따른 선박 운항 지원 시스템의 블록도이며, 도 5는 본 발명의 제1 실시예에 따른 선박 운항 지원 시스템의 분석 원리를 설명하는 도면이다.
도 1 내지 도 5를 참조하면, 본 발명의 제1 실시예에 따른 선박 운항 지원 시스템(1)은, 추정부(110), 수집부(120), 분석부(130), 출력부(140)를 포함한다.
추정부(110)는, 자선을 기준으로 일정 범위 내에 위치한 객체의 제1 객체정보를 추정한다. 이때 추정부(110)는, 일정 범위 내의 영상을 기반으로 할 수 있다.
추정부(110)는 센서부(111), 탐지부(112), 정보 추정부(113)를 포함할 수 있다. 이때 센서부(111)는 일정 범위 내의 영상을 획득하기 위한 구성으로서, 이미지 센서일 수 있고 카메라 등의 촬영장비일 수 있다.
센서부(111)는 자선의 상갑판 위에 마련되어 전방을 향하도록 설치될 수 있으며, 일례로 선실이나 조타실 등과 같이 높이가 높은 위치에 마련되어 비교적 충분한 전방 시야를 확보할 수 있다.
다만 센서부(111)가 촬영하는 영상은 원근법으로 인하여 왜곡될 수 있는데, 이하 정보 추정부(113)는 이러한 왜곡을 고려하여 제1 객체정보의 추정을 수행할 수 있다.
탐지부(112)는, 일정 범위 내에서 객체를 탐지한다. 이때 탐지부(112)가 탐지하는 객체는 움직이는 물체 또는 움직이지 않는 물체 등을 제한하지 않는다. 즉 탐지부(112)는 일정 범위 내에서, 해수와 공기를 제외하고 자선의 운항에 영향을 미치는 모든 물체를 객체로서 탐지할 수 있다. 일례로 탐지부(112)가 탐지하는 객체는 해양생물도 가능하다.
탐지부(112)는, 영상에서 객체가 탐지된 영역에 대해 바운딩 박스를 할당할 수 있다. 바운딩 박스(Bounding Box)라 함은 객체를 내포할 수 있는 최소한의, 혹은 최적의 크기를 갖는 가상의 사각 테두리를 의미한다.
센서부(111)에 의해 획득되는 영상은 픽셀(pixel) 단위로 쪼개질 수 있으므로, 탐지부(112)는 일정 픽셀 크기로 바운딩 박스를 생성할 수 있다. 일례로 도 1을 참고하면 좌측의 객체에 대한 바운딩 박스는 20픽셀의 높이를 갖고, 우측의 객체에 대한 바운딩 박스는 10픽셀의 높이를 갖는 것으로 할당될 수 있다.
정보 추정부(113)는, 객체의 제1 객체정보를 추정한다. 이때 제1 객체정보는 객체의 위치와 방위각 정보 등을 포함할 수 있다. 물론 이하에서 서술하겠으나, 영상에서 별도로 추출되는 것이 아니라 직접 탐지하거나 객체로부터 직접 수신되는 제2 객체정보 외에, 충돌 위험도의 분석에 필요할 수 있는 모든 정보(영상에서 획득 가능한)가 제1 객체정보에 포함될 수 있다.
추정부(110)가 영상에서 객체의 위치를 추정하는 것은, 영상에서 객체가 위치한 해수면을 기준으로 확인 가능하다. 센서부(111)에 의해 획득되는 영상은 앞서 설명한 것과 같이 원근법이 적용된 영상일 수 있으므로, 이를 고려하여 객체가 놓인 해수면 지점이 센서부(111)로부터 이격된 전후 거리가 추정될 수 있다.
일례로 도 1에서와 같이, 영상 내에서 해수면은 그리드(Grid)로 분할될 수 있는데, 이때 분할은 원근법을 고려하여 격자 크기가 수평선에 가까울수록 작게 이루어질 수 있다.
또한 도 1에 나타난 것처럼 좌우 방향의 격자 형상도 원근법을 고려하여 배분될 수 있으며, 정보 추정부(113)는 이러한 사항들을 고려하여 객체의 위치를 효율적이고 비교적 정확하게 추출해낼 수 있다.
수집부(120)는, 전파를 이용하여 객체의 제2 객체정보를 수집한다. 수집부(120)는 레이더 또는 위성을 이용하여 제2 객체정보를 수집할 수 있으며, AIS를 이용할 수도 있다. 즉 수집부(120)는 레이더 센서이거나, 위성 통신장비 등으로 마련될 수 있다.
이때 수집부(120)는 제2 객체정보를 수집할 수 있는데, 이는 앞서 설명한 것과 같이 제2 객체정보는 자선이 직접 측정하거나 객체로부터 직접 전달받을 수 있는 정보이기 때문이다. 즉 제2 객체정보는 제1 객체정보와 같은 데이터 변환이나 가공 없이 (혹은 낮은 수준의 가공 정도로) 획득 가능하다.
제2 객체정보는, 자선과 객체 간의 거리, 객체의 속도, 객체의 경로 등을 포함할 수 있다. 물론 자선과 객체의 충돌 위험 판단을 위해 필요한 모든 정보가 제2 객체정보로서 수집될 수 있다.
특히 영상에서 추출 가능하여 제1 객체정보로 취급될 수 있는 정보도, 제2 객체정보로서 수집될 수 있다. 이 경우 동일한 변수에 대한 값이 제1 객체정보 및 제2 객체정보로 입력되는데, 두 값의 차이가 발생할 경우에는 알림을 제공해줄 수 있다. 또한 제1 객체정보와 제2 객체정보의 충돌 시에는 제2 객체정보를 신뢰하도록 작동할 수 있다.
분석부(130)는, 추정부(110)가 추정한 제1 객체정보 및 수집부(120)에 의해 수집된 제2 객체정보를 융합해 매칭시켜서, 객체의 제3 객체정보를 생성한다. 분석부(130)는 제1 객체정보의 객체와 제2 객체정보의 객체를 매칭시켜 하나의 객체에 제1, 2 객체정보가 할당되도록 분류할 수 있다.
혹 제1 객체정보와 제2 객체정보가 매칭되지 않는 경우, 이는 영상에서 확인되지 않으나 레이더로 잡히는 객체이거나, 반대로 영상에서는 확인되나 레이더로 확인되지 않는 객체(stealth 등) 등일 수 있다.
이 경우에도 제1, 2 객체정보가 충돌하는 상황과 유사하게 알림을 제공해줄 수 있으며, 다만 이때의 알림은 앞선 객체정보의 충돌 시 알림과 상이할 수 있다.
상세하게 분석부(130)는 정보 융합부(131), 위험 산출부(132)를 포함한다. 정보 융합부(131)는, 추정부(110)가 추정한 제1 객체정보 및 수집부(120)에 의해 수집된 제2 객체정보를 융합해 매칭시켜서, 객체의 크기를 산출할 수 있다.
앞서 탐지부(112)는 객체에 대해 바운딩 박스를 할당할 수 있다고 설명하였는데, 정보 융합부(131)는 탐지부(112)에 의한 바운딩 박스를 활용할 수 있다. 일례로 정보 융합부(131)는 바운딩 박스의 크기와 제2 객체정보에 포함된 거리를 이용하여 객체의 크기를 산출할 수 있다.
물론 바운딩 박스 없이, 탐지부(112)가 직접 영상 내에서 객체의 크기(높이 등)를 픽셀 단위 등으로 탐지해낼 수 있고, 정보 융합부(131)가 객체의 크기를 직접 고려하는 것도 가능하다.
다만 영상 내에서 객체와 해수 부분의 구별이 픽셀 단위로 명확히 이루어지지 못할 수 있으며, 충돌 위험을 충분히 방지하기 위한 여유분을 확보하고자, 바운딩 박스를 활용하는 것이 바람직할 수 있다.
정보 융합부(131)는 도 5에서 나타난 것과 같은 계산을 사용할 수 있다. 센서부(111)가 촬영장비일 경우 센서부(111)의 초점거리(f), 영상 내 탐지부(112)에 의해 탐지된 객체의 이미지크기(y, 일례로 높이), 자선과 객체 간의 거리(d_obj, 구체적으로는 센서부(111)와 객체 간의 거리를 활용할 수도 있음)를 이용하면, 객체의 실제 크기(h_obj, 높이)를 산출할 수 있게 된다.
일례로 d_obj가 5km이고, y가 0.06mm, f가 15mm일 경우, 객체는 약 20m의 높이를 갖는 물체임을 알 수 있다. 다만 이러한 계산을 위하여 영상 내 객체의 크기는 자선과 객체 간의 거리와 동일한 단위로 산출될 수 있다.
즉 영상은 픽셀 단위로 생성되는데, 픽셀을 일례로 mm 단위 등으로 변환하는 작업이 필요하다. 이는 이미지 센서의 크기를 고려해 결정될 수 있다. 일례로 이미지 센서의 크기(y_sensor)= 12.2 mm 인 카메라의 경우, 3000 pixels를 수용할 수 있으므로, 객체의 크기가 15 pixels라면, 이미지 센서에 투영된 이미지크기(y)는 약 0.06 mm로 산출될 수 있다.
위험 산출부(132)는, 객체의 크기와 제2 객체정보를 이용하여 객체의 제3 객체정보를 산출할 수 있다. 이때 제3 객체정보는 충돌 위험도를 포함할 수 있다.
객체의 크기는 등급 형태로 변환한 수치가 사용될 수 있는데, 일례로 객체의 높이가 10m 이내이면 1, 객체의 높이가 10~20m이면 2, 객체의 높이가 20m 이상이면 3 등으로 단계적 수치화될 수 있다.
위험 산출부(132)는, 객체의 크기, 객체의 속도, 객체의 경로 등을 병합하여 충돌 위험도를 산출하게 되는데, 이때 충돌 위험의 계산 알고리즘은 종래 알려져 있는 DCPA, TCPA, VCD, 퍼지 등의 계산법을 이용할 수 있으므로, 여기서 자세한 설명은 생략한다.
위험 산출부(132)가 퍼지 계산을 이용할 경우, 위험 산출부(132)는 퍼지 계산기로부터 나온 추론값을 비퍼지화함으로써, 최종 충돌 위험도를 산출해낼 수 있다.
출력부(140)는, 분석부(130)에 의해 생성된 객체의 제3 객체정보를 출력한다. 출력부(140)는 디스플레이 등일 수 있으며, 출력부(140)는 조타실, 선원들이 개인별로 소지하는 단말기 등과 같이 다양한 위치나 장비에 마련될 수 있다.
출력부(140)는 제3 객체정보인 충돌 위험도를 출력할 수 있는데, 출력 방법은 제한되지 않는다. 일례로 충돌 위험도 자체를 수치적으로 표현할 수 있고, 또는 색상이나 소리 등을 이용하는 출력도 가능하다.
이와 같이 본 실시예는, 레이더 등을 이용하여 수집되는 객체정보에 더하여, 영상에서 추출될 수 있는 객체정보(객체의 크기 등)를 통합 분석함으로써 객체에 대한 충돌 위험도를 보다 정확하게 제공하여, 운항 안전도를 개선할 수 있다.
도 6 및 도 7은 본 발명의 제2 실시예에 따른 선박 운항 지원 시스템의 블록도이고, 도 8은 본 발명의 제2 실시예에 따른 선박 운항 지원 시스템의 분석 예시를 나타내는 도면이다.
도 6 내지 도 8을 참조하면, 본 발명의 제2 실시예에 따른 선박 운항 지원 시스템(1)은, 추정부(210), 수집부(220), 분석부(230), 출력부(240)를 포함한다. 본 명세서에서 동일한 명칭의 구성이라 하더라도 반드시 동일한 구성을 의미하는 것은 아니며, 또한 반대로 반드시 상이한 구성인 것도 아님을 알려둔다. 다만 이하에서는 설명의 편의를 위하여, 동일한 명칭을 사용하는 구성에 대해서는 상이한 부분을 위주로 설명하도록 한다.
추정부(210)는, 자선을 기준으로 일정 범위 내의 객체에 대한 제1 객체정보를 추정한다. 이때 추정부(210)는 앞선 제1 실시예에서와 같이, 일정 범위 내의 영상을 기반으로 제1 객체정보를 추정할 수 있다.
또한 추정부(210)는, 제1 실시예에서와 마찬가지로 일정 범위 내의 영상을 획득하는 센서부(211)와, 일정 범위 내에서 객체를 탐지하는 탐지부(212)와, 객체의 제1 객체정보를 추정하는 정보 추정부(213)를 포함할 수 있다.
추가로 탐지부(212)는, 영상에서 객체가 탐지된 영역에 대해 바운딩 박스를 할당하는 것 역시 앞서 제1 실시예에서 설명한 것과 동일하다.
다만 본 실시예의 추정부(210) 및 정보 추정부(213)는, 제1 객체정보로서 객체의 자세를 추정할 수 있다. 객체의 자세라 함은 (자항을 이용하여) 움직이는 객체에 대해, 예상되는 미래의 위치를 파악하기 위한 것으로, 선수각 등과 관련되는 정보일 수 있다.
본 명세서에서 객체는 앞서 설명한 것과 같이 고정 구조물을 포괄하는 개념이다. 다만 본 실시예는 객체의 자세를 고려하고자 하는 것이어서, 위치가 고정되어 있는 구조물(부표, 해상플랜트, 교각, 육상과 연결되는 구조물 등)은 탐지 대상에서 제외될 수 있다.
즉 본 실시예의 탐지부(212)는, 영상에서 주요 관심 장애물을 객체로서 탐지할 수 있고, 이때 주요 관심 장애물이라 함은 자세의 추정이 의미있는 선박일 수 있다.
물론 본 발명에서 영상에 포함된 객체 중 주요 관심 장애물에서 제외되는 객체들은, 앞선 제1 실시예를 통해 충돌 위험이 안내될 수 있다.
정보 추정부(213)는, 자선을 기준으로 한 상대좌표계에서 객체의 선수방향을 추정할 수 있다. 도 8에 나타난 것과 같이, 정보 추정부(213)는 객체의 특징점 좌표를 토대로 영상에 투영된 객체의 선수방향을 산출할 수 있다.
여기서 특징점은 선수나 선미의 좌현 및 우현 모서리점 등을 의미할 수 있지만, 영상에서 추출이 용이한 점이 모두 특징점으로 사용될 수 있다. 이러한 특징점을 바탕으로 정보 추정부(213)는 딥러닝 기반의 자세 추정 알고리즘 모델을 이용해, 이미지 평면에 투영된 객체의 선수방향(선수각 정보)을 계측할 수 있다.
다만 계측된 선수각 정보는, 자선에 고정된 센서부(211)(카메라)의 좌표계에서 정의된 선수각이므로 좌표계 변환이 필요하다. 따라서 정보 추정부(213)는 선수각 정보를 관성좌표계로 변환하도록 연산하여 객체의 자세를 추정할 수 있다.
수집부(220)는, 전파를 이용해 객체의 제2 객체정보를 수집할 수 있다. 이때 수집부(220)는 레이더 센서 등일 수 있으며, 레이더나 위성, AIS 등을 이용하여 제2 객체정보인 자선과 객체 간의 거리, 객체의 속도 등을 수집할 수 있다.
분석부(230)는, 추정부(210)가 추정한 제1 객체정보 및 수집부(220)에 의해 수집된 제2 객체정보를 융합해 매칭시킨다. 이를 통해 분석부(230)는 객체의 제3 객체정보를 생성할 수 있다.
여기서 제3 객체정보는, 객체의 운동 추적정보를 포함할 수 있다. 운동 추적정보라 함은 움직이는 객체의 예상 이동 방향 등의 예측값(predicted value)으로서 현재 측정될 수 없는 미래 정보를 의미한다.
본 실시예는 앞서 설명한 선수각 정보, 객체의 위치와 속도 등을 융합해 분석함으로써, 객체의 운동 추적정보를 추정해낼 수 있다.
출력부(240)는, 분석부(230)에 의해 생성된 객체의 제3 객체정보를 출력한다. 출력부(240)는 디스플레이 등일 수 있음은 앞서 설명한 바와 같고, 또한 제3 객체정보의 출력 방식에 제한이 없다는 것 역시 앞선 내용과 마찬가지이다.
다만 출력부(240)는 객체의 제3 객체정보를 활용하여, 객체의 예상 경로를 시각화하여 출력할 수 있다. 따라서 자선을 운항하는 관리자 입장에서, 객체와의 충돌 위험을 사전에 차단시킬 수 있는 운영이 가능해진다.
이와 같이 본 실시예는, 자선에 인접하는 객체에 대해 선수 방향을 객체정보로서 활용함에 따라, 영상이나 레이더 등으로 현재 수집될 수 없는 미래 정보인 운동 추적정보를 산출할 수 있게 되어, 운항 안전성을 혁신적으로 높일 수 있다.
도 9 및 도 10은 본 발명의 제3 실시예에 따른 선박 운항 지원 시스템의 블록도이고, 도 11은 본 발명의 제3 실시예에 따른 선박 운항 지원 시스템의 분석 예시를 나타내는 도면이다.
도 9 내지 도 11을 참조하면, 본 발명의 제3 실시예에 따른 선박 운항 지원 시스템(1)은, 센서부(310), 분석부(320), 출력부(330)를 포함한다.
센서부(310)는, 자선을 기준으로 전방의 영상을 획득할 수 있다. 센서부(310)는 앞선 내용에서 설명한 것과 마찬가지로 영상의 획득이 가능한 이미지 센서(카메라) 등의 장비를 포함할 수 있다. 일례로 센서부(310)는, 자선의 좌우방향 중심에 마련되며 이미지 센서를 갖는 단안 카메라일 수 있다.
또한 본 실시예에서 센서부(310)는 자선의 전방에서 수평선이 포함되는 영상을 획득할 수 있다. 이를 위해 센서부(310)의 설치 위치, 각도 등이 적절하게 세팅될 수 있으며, 센서부(310)는 선박에서 높이가 높은 데크 하우스 상부나 선교 등에 마련될 수 있다.
분석부(320)는, 센서부(310)에 의해 수집된 영상을 통해 자선의 자세정보를 산출할 수 있다. 특히 분석부(320)는, 영상 내에 포함된 수평선을 분석하여 자세정보를 산출해낼 수 있다.
분석부(320)는, 수평선 추출부(321), 수평선 분석부(322), 자세 산출부(323)를 포함한다. 수평선 추출부(321)는 영상에 포함되어 있는 현재 수평선을 추출할 수 있으며, 수평선은 면적이 없는 직선의 형태로 추출될 수 있다.
수평선 분석부(322)는, 수평선 추출부(321)가 추출하는 현재 수평선을, 기준 수평선과 대비한다. 여기서 기준 수평선이라 함은 자선이 기설정 자세일 때의 수평선으로서, 자선이 횡동요인 롤링(rolling)이나 종동요인 피칭(pitching)이 없는 정수 중에 놓여있을 때 센서부(310)가 획득하는 영상 내의 수평선으로서 설정될 수 있다.
즉 기준 수평선은, 자선의 자세정보를 추출하기 위한 기준값으로서, 현재 수평선이 기준 수평선과 일치하는 경우 자선의 자세는 움직임이 없는 기준 상태가 될 수 있다.
자세 산출부(323)는, 기준 수평선 대비 현재 수평선의 차이를 토대로 자선의 자세 정보를 산출한다. 구체적으로 자세 산출부(323)는, 롤링과 피칭을 각각 구분하여 산출해낼 수 있다.
도 11을 참조하면, 센서부(310)에 의해 획득된 영상 내의 현재 수평선이, 기설정된 기준 수평선 대비 중앙 부분에서 상방으로 편향되고 일정각도 기울어진 것을 알 수 있다.
이때 자세 산출부(323)는, 기준 수평선 대비 현재 수평선의 기울기를 이용하여 자선의 롤링 각도를 산출할 수 있다. 또한 자세 산출부(323)는 기준 수평선 대비 현재 수평선의 상하 편차를 이용하여 자선의 피칭 각도를 산출해낼 수 있다.
롤링 각도의 산출 시 기울기는 기준 수평선과 현재 수평선이 이루는 각도로서 이용될 수 있으며, 피칭 각도의 산출 시 상하 편차는 기준 수평선에서의 중심점과 현재 수평선에서의 중심점 간의 상하 이격 거리를 활용할 수 있다.
이때 중심점은, 영상 내에서 좌우 방향으로 중앙에 위치하는 점을 의미할 수 있고, 센서부(310)가 선박에서 폭방향으로 센터라인(C.L.)에 마련되어 있고 기울어져 있지 않다면, 중심점은 선박의 센터라인의 연장선 상에 놓여 있을 수 있다.
물론 센서부(310)가 제대로 설치되지 않은 경우에는 위의 롤링 각도나 피칭 각도의 계산에 오류가 발생할 수 있는데, 이는 이하에서 후술하는 제4 실시예에서의 센서부(310) 탑재 교정을 통해 해소 가능함을 알려둔다.
출력부(330)는, 위와 같이 분석부(320)에 의하여 도출되는 자선의 자세정보를 출력한다. 출력부(330)는 디스플레이 등일 수 있음은 앞서 설명한 바와 같으며, 롤링 각도 등을 디스플레이 상에서 숫자 등으로 표현할 수 있다.
다만 롤링 각도나 피칭 각도가 임계값을 넘어서는 경우에는 출력 방식이 변경될 수 있고, 일례로 롤링 각도가 제1 임계값을 넘어서면 화면 반전 등의 강조 효과를 활용하고, 롤링 각도가 제2 임계값을 넘어서면 음향 효과를 추가로 활용하여 관리자에게 적절한 조치가 필요함을 긴급히 안내할 수 있다.
이와 같이 본 실시예는, 선박의 기울기를 자이로미터 등을 대신하거나 자이로미터 등과 함께, 전방 영상에 포함되는 수평선의 기울기 등을 이용하여 산출해냄으로써, 자선의 제어에 대한 신뢰성을 대폭 향상시킬 수 있다.
도 12 및 도 13은 본 발명의 제4 실시예에 따른 선박 운항 지원 시스템의 블록도이다.
도 12 및 도 13을 참조하면, 본 발명의 제4 실시예에 따른 선박 운항 지원 시스템(1)은, 가상부(410), 센서부(420), 분석부(430), 교정부(440)를 포함한다.
가상부(410)는, 자선의 제원정보 및 자선에 탑재되는 장비의 탑재정보를 토대로, 장비에 의하여 수집될 수 있는 가상의 수집정보를 생성한다. 여기서 장비는 자선의 제원정보가 적어도 부분적으로 포함되는 데이터를 수집하는 장치일 수 있다.
일례로 장비는, 자선의 외형에 대한 정보를 부분적으로 포함하는 데이터를 수집할 수 있고, 구체적으로 장비는 자선의 외형을 포함한 영상을 획득하는 이미지 센서(카메라) 등일 수 있다. 또한 장비는 앞서 제3 실시예에서 설명한 것과 같이 수평선을 포함하는 영상을 획득하는 이미지 센서일 수 있다.
가상부(410)는, 선박정보 입력부(411), 장비정보 입력부(412), 가상정보 생성부(413)를 포함한다. 선박정보 입력부(411)는, 자선의 제원정보로서 자선의 도면정보를 입력받을 수 있다. 이때 자선의 도면정보에는 장비에 의하여 획득되는 데이터와 중첩될 수 있는 부분이 포함된다.
장비정보 입력부(412)는, 자선에 탑재되는 장비의 탑재정보로서 장비의 설치위치 및 자세정보를 입력받는다. 장비는 제3 실시예에서와 유사하게 데크하우스 등과 같이 선박에서 높이가 높은 위치에 설치될 수 있으며, 전방의 영상을 왜곡 없이 획득하기 위하여 수평하게 설치될 수 있다.
다만 장비정보 입력부(412)가 입력받는 장비의 자세정보 등은, 장비의 설치 시 요구되는 세팅 정보를 의미하며, 현재 장비가 기울어져 있다고 하여 기울어진 자세정보를 입력받는 것은 아니다.
가상정보 생성부(413)는, 자선의 도면정보 및 장비의 설치위치 및 자세정보를 토대로 장비에 의해 수집될 수 있는 가상의 수집정보를 생성한다. 일례로 가상정보 생성부(413)는, 자선의 도면정보에 포함된 외형을 장비의 촬영 각도 등을 고려하여 변형시켜서, 설계값에 따라 설치된 장비라면 응당 획득해야 하는 자선의 외형 데이터를 가상으로 만들어낼 수 있다.
센서부(420)는, 장비에 의해 수집되는 현실의 수집정보를 수집한다. 센서부(420)는 장비인 이미지 센서로부터 획득되는 데이터를 전달받아 분석부(430)에 제공하는 구성일 수 있고, 또는 장비 자체가 센서부(420)를 의미하는 것도 가능하다.
이하에서는 편의상 장비와 센서부(420)가 동일 구성인 것으로 가정하여 설명한다.
분석부(430)는, 가상부(410)에 의해 생성된 가상의 수집정보와 센서부(420)에 의해 수집된 현실의 수집정보를 분석하여 장비의 탑재 상태정보를 분석할 수 있다. 분석부(430)는 가상정보 생성부(413)에 의해 생성된 가상의 수집정보 대비, 센서부(420)가 획득한 현실의 수집정보의 차이를 토대로 장비의 탑재 정보로서 장비에 대한 교정신호를 생성할 수 있다.
일례로 가상의 수집정보는 장비가 설계 제원에 맞춰 마련되어 있을 경우 현실의 수집정보와 일치하게 될 것인데(다만 가상부(410)에 의해 생성되는 가상의 수집정보는 촬영 영상 자체가 될 수는 없으므로, 여기서 일치라 함은 색상이나 이미지 타입 등의 차이는 허용하되 외곽선 등과 같은 특징점은 일치하는 상태를 말하는 것일 수 있다.), 현실의 수집정보가 가상의 수집정보와 어긋나게 되면, 이는 장비의 탑재 상태가 설계 제원에서 벗어나 있다는 것을 의미한다.
즉 분석부(430)는, 현실의 수집정보가 가상의 수집정보로부터 얼마나 벗어나 있는지에 따라, 장비를 설계 제원에 맞게 설치된 상태로 복구시키기 위한 교정신호를 생성하게 된다.
이와 같이 분석부(430)는 센서부(420)에 의해 실제로 수집되는 수집정보를, 센서부(420)가 제대로 설치되어 있을 경우를 가정해 수집되어야 할 가상의 수집정보와 매칭시키면서 센서부(420)의 설치 상태를 점검할 수 있게 된다.
및/또는 분석부(430)는, 앞서 제3 실시예에서 설명한 수평선의 차이를 활용할 수도 있다. 즉 분석부(430)는, 가상의 수집정보에 포함되는 기준 수평선 대비, 현실의 수집정보에 포함되는 현재 수평선의 차이를 토대로, 장비의 탑재 상태정보로서 장비에 대한 교정신호를 생성할 수 있다.
물론 이 경우 자이로미터 등의 데이터를 함께 활용하여, 선박의 자세정보가 교정신호를 왜곡하지 않도록 계산을 수행하는 것이 가능하다. 즉 선박이 기울어진 상태에서 수평선의 차이를 이용하면, 장비는 제대로 설치되어 있는데 교정신호가 생성될 수 있다.
따라서 분석부(430)는, 수평선의 차이에서 자이로미터 등의 외부 측정장비로부터 획득한 선박의 자세정보를 제한 뒤, 여전히 존재하는 수평선의 차이를 이용하여 장비의 교정신호를 생성하는 것이 가능하다.
교정부(440)는, 분석부(430)에 의해 산출된 장비의 탑재 상태정보를 출력한다. 교정부(440)는 앞선 출력부(140, 240, 330)와 유사하게 디스플레이 등을 이용하여 장비의 교정신호를 출력하게 되는데, 다만 교정부(440)는 선박 운항의 총 관리를 위한 디스플레이가 아니라, 장비의 담당자가 보유한 단말기에 교정신호 등을 알람과 함께 출력하는 것이 바람직할 수 있다.
이와 같이 본 실시예는, 선박에 마련되는 장비의 상태가 바람직한 상태에 설치되어 있는 것인지를, 직접 장비에 접근하지 않더라도 점검 가능하도록 하여 효율적인 장비 관리를 가능케 한다.
본 발명은 앞서 설명된 실시예 외에도, 상기 실시예들 중 적어도 둘 이상의 조합 또는 적어도 하나 이상의 상기 실시예와 공지기술의 조합에 의해 발생하는 실시예들을 모두 포괄한다.
이상 본 발명을 구체적인 실시예를 통하여 상세히 설명하였으나, 이는 본 발명을 구체적으로 설명하기 위한 것으로, 본 발명은 이에 한정되지 않으며, 본 발명의 기술적 사상 내에서 당해 분야의 통상의 지식을 가진 자에 의해 그 변형이나 개량이 가능함은 명백하다고 할 것이다.
본 발명의 단순한 변형 내지 변경은 모두 본 발명의 영역에 속하는 것으로 본 발명의 구체적인 보호 범위는 첨부된 특허청구범위에 의하여 명확해질 것이다.
1: 선박 운항 지원 시스템 110: 추정부
111: 센서부 112: 탐지부
113: 정보 추정부 120: 수집부
130: 분석부 131: 정보 융합부
132: 위험 산출부 140: 출력부
210: 추정부 211: 센서부
212: 탐지부 213: 정보 추정부
220: 수집부 230: 분석부
240: 출력부 310: 센서부
320: 분석부 321: 수평선 추출부
322: 수평선 분석부 323: 자세 산출부
330: 출력부 410: 가상부
411: 선박정보 입력부 412: 장비정보 입력부
413: 가상정보 생성부 420: 센서부
430: 분석부 440: 교정부
111: 센서부 112: 탐지부
113: 정보 추정부 120: 수집부
130: 분석부 131: 정보 융합부
132: 위험 산출부 140: 출력부
210: 추정부 211: 센서부
212: 탐지부 213: 정보 추정부
220: 수집부 230: 분석부
240: 출력부 310: 센서부
320: 분석부 321: 수평선 추출부
322: 수평선 분석부 323: 자세 산출부
330: 출력부 410: 가상부
411: 선박정보 입력부 412: 장비정보 입력부
413: 가상정보 생성부 420: 센서부
430: 분석부 440: 교정부
Claims (5)
- 자선을 기준으로 전방의 영상을 획득하는 센서부;
상기 센서부에 의해 수집된 상기 영상에서 수평선을 분석하여 상기 자선의 자세정보를 산출하는 분석부; 및
상기 분석부에 의해 산출된 상기 자선의 자세정보를 출력하는 출력부를 포함하며,
상기 센서부는,
상기 자선의 센터라인에 마련되며 이미지 센서를 갖고,
상기 분석부는,
상기 영상에 포함되어 있는 현재 수평선을 추출하는 수평선 추출부;
상기 자선이 기설정 자세일 때의 수평선을 기준 수평선으로 설정한 뒤, 상기 현재 수평선을 상기 기준 수평선과 대비하는 수평선 분석부; 및
상기 기준 수평선 대비 상기 현재 수평선의 차이를 토대로 상기 자선의 자세정보를 산출하는 자세 산출부를 포함하며,
상기 자세 산출부는,
상기 기준 수평선과 상기 현재 수평선이 이루는 각도를 통해 상기 자선의 롤링 각도를 산출하며,
상기 기준 수평선에서 상기 센터라인의 연장선 상에 놓이는 중심점과 상기 현재 수평선에서 상기 센터라인의 연장선 상에 놓이는 중심점 간의 상하 이격 거리를 통해 상기 자선의 피칭 각도를 산출하며,
상기 출력부는,
상기 롤링 각도 또는 상기 피칭 각도가 임계값을 넘어서는 경우 출력 방식을 변경하는 것을 특징으로 하는 선박 운항 지원 시스템. - 제 1 항에 있어서, 상기 센서부는,
단안 카메라인 것을 특징으로 하는 선박 운항 지원 시스템. - 삭제
- 삭제
- 제 1 항 또는 제 2 항의 상기 선박 운항 지원 시스템을 갖는 것을 특징으로 하는 선박.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190128047 | 2019-10-15 | ||
KR20190128047 | 2019-10-15 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210044674A KR20210044674A (ko) | 2021-04-23 |
KR102269384B1 true KR102269384B1 (ko) | 2021-06-25 |
Family
ID=75738322
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200028649A KR102269386B1 (ko) | 2019-10-15 | 2020-03-06 | 선박 운항 지원 시스템 및 이를 포함하는 선박 |
KR1020200028640A KR102269383B1 (ko) | 2019-10-15 | 2020-03-06 | 선박 운항 지원 시스템 및 이를 포함하는 선박 |
KR1020200028636A KR102269385B1 (ko) | 2019-10-15 | 2020-03-06 | 선박 운항 지원 시스템 및 이를 포함하는 선박 |
KR1020200028644A KR102269384B1 (ko) | 2019-10-15 | 2020-03-06 | 선박 운항 지원 시스템 및 이를 포함하는 선박 |
Family Applications Before (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200028649A KR102269386B1 (ko) | 2019-10-15 | 2020-03-06 | 선박 운항 지원 시스템 및 이를 포함하는 선박 |
KR1020200028640A KR102269383B1 (ko) | 2019-10-15 | 2020-03-06 | 선박 운항 지원 시스템 및 이를 포함하는 선박 |
KR1020200028636A KR102269385B1 (ko) | 2019-10-15 | 2020-03-06 | 선박 운항 지원 시스템 및 이를 포함하는 선박 |
Country Status (1)
Country | Link |
---|---|
KR (4) | KR102269386B1 (ko) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102455565B1 (ko) * | 2021-11-29 | 2022-10-17 | 한국해양과학기술원 | 다중영상 기반 선박 근접 주변 상황인식 지원 시스템 및 방법 |
WO2024144368A1 (ko) * | 2022-12-30 | 2024-07-04 | 주식회사 아비커스 | 복수의 센서들을 이용하여 객체의 정보를 획득하는 방법 및 장치 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007003260A (ja) * | 2005-06-22 | 2007-01-11 | Shimadzu Corp | 船体磁気測定システム |
JP2008514483A (ja) * | 2004-09-29 | 2008-05-08 | シー オン ライン | 海上乗物用衝突防止警報装置および衝突防止解析方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007022349A (ja) * | 2005-07-19 | 2007-02-01 | Shipbuilding Research Centre Of Japan | 船舶前方監視システム |
KR102181095B1 (ko) * | 2014-03-14 | 2020-11-20 | 주식회사 에스코어 | 선박의 이중 수평 확인 장치 및 방법 |
KR101683274B1 (ko) * | 2014-11-24 | 2016-12-06 | (주)세이프텍리서치 | 무인항공기를 이용한 선박 접안 지원 시스템 및 그 방법 |
KR102251720B1 (ko) * | 2015-03-16 | 2021-05-17 | 한국전자통신연구원 | 선박의 충돌 방지 방법 및 장치 |
KR101941521B1 (ko) * | 2016-12-07 | 2019-01-23 | 한국해양과학기술원 | 해상객체의 자동추적 시스템 및 방법 |
KR101882483B1 (ko) * | 2018-01-24 | 2018-07-27 | 엘아이지넥스원 주식회사 | 무인 수상정의 장애물 탐지 장치 및 방법 |
-
2020
- 2020-03-06 KR KR1020200028649A patent/KR102269386B1/ko active IP Right Grant
- 2020-03-06 KR KR1020200028640A patent/KR102269383B1/ko active IP Right Grant
- 2020-03-06 KR KR1020200028636A patent/KR102269385B1/ko active IP Right Grant
- 2020-03-06 KR KR1020200028644A patent/KR102269384B1/ko active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008514483A (ja) * | 2004-09-29 | 2008-05-08 | シー オン ライン | 海上乗物用衝突防止警報装置および衝突防止解析方法 |
JP2007003260A (ja) * | 2005-06-22 | 2007-01-11 | Shimadzu Corp | 船体磁気測定システム |
Also Published As
Publication number | Publication date |
---|---|
KR102269385B1 (ko) | 2021-06-25 |
KR102269386B1 (ko) | 2021-06-25 |
KR20210044675A (ko) | 2021-04-23 |
KR20210044672A (ko) | 2021-04-23 |
KR20210044673A (ko) | 2021-04-23 |
KR102269383B1 (ko) | 2021-06-25 |
KR20210044674A (ko) | 2021-04-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102240839B1 (ko) | 이미지 세그멘테이션을 이용한 자율 운항 방법 | |
KR102235787B1 (ko) | 접안 모니터링 장치 및 방법 | |
Zhuang et al. | Radar-based collision avoidance for unmanned surface vehicles | |
US20220024549A1 (en) | System and method for measuring the distance to an object in water | |
JP2018503913A (ja) | 船舶補助ドッキング方法およびシステム | |
US12106573B2 (en) | Method and device for monitoring port and ship in consideration of sea level | |
Clunie et al. | Development of a perception system for an autonomous surface vehicle using monocular camera, lidar, and marine radar | |
KR102269384B1 (ko) | 선박 운항 지원 시스템 및 이를 포함하는 선박 | |
KR102535115B1 (ko) | 선박 및 항만 모니터링 장치 및 방법 | |
Robinette et al. | Sensor evaluation for autonomous surface vehicles in inland waterways | |
Gladstone et al. | Distance estimation for marine vehicles using a monocular video camera | |
Thompson | Maritime object detection, tracking, and classification using lidar and vision-based sensor fusion | |
Yao et al. | LiDAR-based simultaneous multi-object tracking and static mapping in nearshore scenario | |
Jeong et al. | Efficient lidar-based in-water obstacle detection and segmentation by autonomous surface vehicles in aquatic environments | |
Sangekar et al. | Development of a landing algorithm for autonomous underwater vehicles using laser profiling | |
CN114061565B (zh) | 一种无人船舶slam及其应用方法 | |
KR20230164518A (ko) | 해양 정보 추정 시스템 및 이를 포함하는 선박 | |
CN110580045A (zh) | 一种无人艇避障方法 | |
KR102428892B1 (ko) | 선박 운항 지원 시스템 및 이를 포함하는 선박 | |
Zhang et al. | Intelligent ship-bridge collision avoidance algorithm research based on a modified Gaussian Mixture Model | |
US20240193904A1 (en) | Method and system for determining a region of water clearance of a water surface | |
CN115761497B (zh) | 基于海洋平台姿态信息的多源异构数据预处理方法及系统 | |
Xuefeng et al. | Ship behavior recognition based on infrared video analysis in a maritime environment | |
KR102314803B1 (ko) | 해상 상태 및 기상 정보에 따른 운용 제어 기능을 구비하는 무인 수상정 | |
KR102249156B1 (ko) | 증강현실 이미지를 이용한 항해 보조장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |