KR20230040487A - 대상물 탐지장치가 탑재된 선박 - Google Patents

대상물 탐지장치가 탑재된 선박 Download PDF

Info

Publication number
KR20230040487A
KR20230040487A KR1020210123684A KR20210123684A KR20230040487A KR 20230040487 A KR20230040487 A KR 20230040487A KR 1020210123684 A KR1020210123684 A KR 1020210123684A KR 20210123684 A KR20210123684 A KR 20210123684A KR 20230040487 A KR20230040487 A KR 20230040487A
Authority
KR
South Korea
Prior art keywords
information
sound
processing unit
distance
image
Prior art date
Application number
KR1020210123684A
Other languages
English (en)
Other versions
KR102596268B1 (ko
Inventor
하영열
Original Assignee
삼성중공업 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성중공업 주식회사 filed Critical 삼성중공업 주식회사
Priority to KR1020210123684A priority Critical patent/KR102596268B1/ko
Publication of KR20230040487A publication Critical patent/KR20230040487A/ko
Application granted granted Critical
Publication of KR102596268B1 publication Critical patent/KR102596268B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63BSHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING 
    • B63B43/00Improving safety of vessels, e.g. damage control, not otherwise provided for
    • B63B43/18Improving safety of vessels, e.g. damage control, not otherwise provided for preventing collision or grounding; reducing collision damage
    • B63B43/20Feelers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63BSHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING 
    • B63B49/00Arrangements of nautical instruments or navigational aids
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/04Systems determining presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • G01S15/08Systems for measuring distance only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Mechanical Engineering (AREA)
  • Ocean & Marine Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Public Health (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

대상물 탐지장치가 탑재된 선박을 제공한다. 대상물 탐지장치가 탑재된 선박은, 선박에 설치되어 대상물에 대한 음향정보를 획득하는 음향획득모듈; 선박에 설치되어 대상물에 대한 영상정보를 획득하는 영상획득모듈; 및 상기 음향정보 및 상기 영상정보를 기반으로 대상물의 위치를 탐지하는 위치탐지모듈을 포함하되, 상기 음향획득모듈은 대상물에 대한 제1음향정보를 획득하는 제1음향처리부와, 상기 제1음향처리부와 이웃하며 대상물에 대한 제2음향정보를 획득하는 제2음향처리부를 포함하며, 상기 영상획득모듈은 대상물에 대한 제1영상정보를 획득하는 제1영상처리부와, 상기 제1영상처리부와 이웃하며 대상물에 대한 제2영상정보를 획득하는 제2영상처리부를 포함하며, 상기 위치탐지모듈은 상기 제1영상정보, 상기 제2영상정보, 상기 제1음향정보 및 상기 제2음향정보를 기반으로 대상물에 대한 탐지를 수행한다.

Description

대상물 탐지장치가 탑재된 선박{Vessel having object recognition apparatus}
본 발명은 대상물 탐지장치가 탑재된 선박에 관한 것이다.
선박 운항에 있어 선박 주변 대상물의 식별 탐지를 위해서 선박의 전방향 카메라가 가지는 제한된 해상도의 제약을 극복하고 촬영 영상 내의 장애물 탐지를 수행하는 것이 필요하다. 그리고 이러한 촬영 영상을 충돌 예측을 위한 입력으로 활용하여 기존 항통장치에서 감지할 수 없는 해상 장애물에 대한 탐지를 수행하는 것이 필요하다.
한국공개특허 제10-2004-0016956호
본 발명이 해결하고자 하는 과제는 선박의 운항에 있어서 선박 주변 대상물의 식별 탐지를 위하여 전방향 카메라가 가지는 제한된 해상도의 제약을 극복할 수 있는 대상물 탐지장치가 탑재된 선박을 제공하는 것이다.
또한, 화각이 작은 고해상도 영상을 획득하며 선박의 장애물 탐지를 위한 촬영 영상 내의 장애물 탐지를 수행하되, 이를 충돌 예측 방법의 입력으로 활용하여 기존 항통장치에서 감지할 수 없는 해상 장애물에 대한 탐지를 수행하는 대상물 탐지장치가 탑재된 선박을 제공하는 것이다.
또한, 기존 항통장치의 해상장애물 정보와 기존 발명에서 영상으로 탐지한 장애물 정보를 활용하여, 자선 및 장애물의 미래 경로를 예측할 수 있는 대상물 탐지장치가 탑재된 선박을 제공하는 것이다.
또한, 이러한 미래 경로 예측에 있어 자선이 다른 선박 등을 포함하는 장애물과 언제, 어디에서, 얼마의 확률로 충돌될 수 있는지에 관한 정보를 향해에 활용하여 향해 안전성을 향상시킬 수 있는 대상물 탐지장치가 탑재된 선박을 제공하는 것이다.
본 발명의 과제들은 이상에서 언급한 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 과제를 달성하기 위한 본 발명의 일 면(aspect)에 따른 대상물 탐지장치가 탑재된 선박은, 선박에 설치되어 대상물에 대한 음향정보를 획득하는 음향획득모듈; 선박에 설치되어 대상물에 대한 영상정보를 획득하는 영상획득모듈; 및 상기 음향정보 및 상기 영상정보를 기반으로 대상물의 위치를 탐지하는 위치탐지모듈을 포함하되, 상기 음향획득모듈은 대상물에 대한 제1음향정보를 획득하는 제1음향처리부와, 상기 제1음향처리부와 이웃하며 대상물에 대한 제2음향정보를 획득하는 제2음향처리부를 포함하며, 상기 영상획득모듈은 대상물에 대한 제1영상정보를 획득하는 제1영상처리부와, 상기 제1영상처리부와 이웃하며 대상물에 대한 제2영상정보를 획득하는 제2영상처리부를 포함하며, 상기 위치탐지모듈은 상기 제1영상정보, 상기 제2영상정보, 상기 제1음향정보 및 상기 제2음향정보를 기반으로 대상물에 대한 탐지를 수행하는, 대상물 탐지장치가 탑재된 선박을 제공한다.
또한, 상기 선박의 주변에 위치하는 주변선박의 자동식별을 위한 자동식별정보를 수신하는 식별정보수신부를 더 포함하며, 상기 제1음향처리부는 상기 제1음향정보에 기반하여 적어도 순환 신경망 recurrent neural network, RNN) 방식을 통한 제1특징정보를 생성하고, 상기 제2음향처리부는 상기 제1음향처리부와 이웃하도록 위치되며, 상기 제2음향정보에 기반하여 적어도 순환 신경망 방식을 통한 제2특징정보를 생성하며, 상기 제1영상처리부는 상기 제1영상정보를 기반으로 제1이미지정보를 획득하고, 상기 제1이미지정보상의 대상물을 디텍팅한 제1처리정보를 생성하며, 상기 제2영상처리부는 상기 제2영상정보를 기반으로 제2이미지정보를 획득하고, 상기 제2이미지정보상의 대상물을 디텍팅한 제2처리정보를 생성하며, 상기 위치탐지모듈은, 상기 제1영상정보, 상기 제2영상정보, 상기 제1음향정보, 상기 제2음향정보 및 상기 자동식별정보를 수신하여, 리플레이 가능한 재생정보를 생성하는 재생정보생성부를 포함하되, 상기 제1영상처리부는 상기 제1이미지정보상의 해상영역을 구분하도록 상기 제1이미지정보에 대한 픽셀단위 분석을 수행하여 상기 제1처리정보를 생성하며, 상기 제2영상처리부는 상기 제2이미지정보상의 해상영역을 구분하도록 상기 제2이미지정보에 대한 픽셀단위 분석을 수행하여 상기 제2처리정보를 생성할 수 있다.
또한, 상기 위치탐지모듈은 상기 제1영상정보, 상기 제2영상정보, 상기 제1음향정보, 상기 제2음향정보 및 상기 자동식별정보를 수신하여, 리플레이 가능한 재생정보를 생성하는 재생정보생성부를 포함할 수 있다.
또한, 상기 위치탐지모듈은, 상기 재생정보를 수신하여 대상물의 위치를 추정하는 위치추정정보를 생성하는 위치추정부와, 상기 재생정보를 수신하여 대상물을 포함하는 단편화된 영역을 취합하여 파노라마뷰 및 탑뷰 중 적어도 어느 하나를 포함하는 뷰정보를 생성하는 정보스티칭부와, 상기 뷰정보에서 선택된 선택영역을 줌방식으로 확대시켜 줌정보를 생성하는 줌정보생성부와, 상기 재생정보를 수신하여 대상물의 이동경로에 관한 대상물이동경로정보를 산출하며, 대상물이동경로정보와, 상기 선박의 이동경로에 관한 선박동경로정보를 기반으로 상기 선박과 대상물간의 충돌시점, 충돌위치를 중 적어도 어느 하나의 예측정보를 산출하는 예측정보산출부와, 상기 위치추정정보, 상기 뷰정보, 상기 줌정보 및 상기 예측정보를 기반으로 상기 선박과 상기 선박 주변의 대상물의 관한 정보를 증강시켜 증강 뷰 정보로 제공하는 정보증강부를 더 포함할 수 있다.
또한, 상기 위치추정부는, 제1특징정보와 상기 제2특징정보를 수신하고, 상기 제1특징정보와 상기 제2특징정보의 대비분석을 통하여 상기 제1음향정보와 상기 제2음향정보를 발생시킨 대상물의 방위각을 추정하며, 상기 제1특징정보는 대상물에서 발생되는 음향에 관한 제1진폭패턴 크기와, 제1진폭패턴 도착시간값을 포함하며, 상기 제2특징정보는 대상물에서 발생되는 음향에 관한 제2진폭패턴 크기와, 제2진폭패턴 도착시간값을 포함하며, 상기 위치추정부는, 상기 제1특징정보와 상기 제2특징정보 상호간의 차이를 기반으로 대상물의 방위각을 추정하되, 적어도 상기 제1진폭패턴 크기와 상기 제2진폭패턴 크기의 차이값과, 상기 지1진폭패턴 도착시간값과 상기 제2진폭패턴 도착시간값의 차이값을 기반으로 상기 방위각을 추정할 수 있다.
또한, 상기 음향획득모듈은, 상기 선박의 특정위치에 설치되며 상기 제1음향처리부가 설치되는 제1하단구조체와, 상기 제2음향처리부는 상기 선박의 특정위치에 설치되며 상기 제2음향처리부가 설치되는 제2하단구조체를 포함하며, 상기 영상획득모듈은, 상기 제1하단구조체상에서 둘레방향으로 회전 구동되며 상기 제1영상처리부가 설치되는 제1상단구조체와, 상기 제2하단구조체상에서 둘레방향으로 회전 구동되며 상기 제2영상처리부가 설치되는 제2상단구조체를 포함하되, 상기 제1음향처리부는 상기 제1하단구조체의 둘레부에 다수로 구비되어, 상호간에 다수의 제1측정구간을 이루며, 상기 제2음향처리부는 상기 제2하단구조체의 둘레부에 다수로 구비되어, 상호간에 상기 제1측정구가과 대응되는 다수의 제2측정구간을 이루고, 상기 위치추정부는, 상기 제1측정구간상의 상기 제1진폭패턴 크기값과 상기 제2측정구간상의 상기 제2진폭패턴 크기값 중 적어도 어느 하나를 기반으로 도출된 제3진폭패턴 크기값을 획득하며, 상기 제1측정구간상의 상기 제1진폭패턴 도착시간값과 상기 제2측정구간상의 상기 제2진폭패턴 도착시간값 중 적어도 어느 하나를 기반으로 도출된 제3진폭패턴 도착시간값을 획득하며, 상기 제3진폭패턴 크기값이 획득된 각도인 제1각도와 상기 제3진폭패턴 도착시간값이 획득된 각도인 제2각도를 기준으로, 상기 제1각도와 상기 제2각도 사이의 영역인 선정영역을 선정하고, 상기 선정영역 중 적어도 일부를 대상물의 상기 음향정보가 발생된 방위각으로 도출할 수 있다.
또한, 상기 제1음향처리부는 상기 선박에서 대상물과 제1위치로 위치되며, 상기 제2음향처리부는 상기 선박에서 대상물과 상기 제1위치를 기반으로 하는 제2위치로 위치되며, 상기 제1위치는, 상기 제1음향처리부와 수평으로 이웃하는 거리인 제1거리(L1)와, 상기 제1거리(L1)로부터 대상물로 직교하는 거리인 제2거리(L2)와, 상기 제1거리(L1)와 상기 제2거리(L2)를 기반으로 상기 제1음향처리부와 대상물 간에 빗변을 이루는 거리인 제3거리(D1)와, 상기 제1거리(L1)와 상기 제3거리(D1)가 이루는 각도인 제1각도(th1)를 포함하며, 상기 제2위치는, 상기 제2음향처리부와 수평으로 이격되는 거리인 이격거리(d) 및 상기 제1거리(L1)를 포함하는 거리인 제4거리(L+d)와, 상기 제4거리(L+d)로부터 대상물로 직교하는 거리인 상기 제2거리(L2)와, 상기 제4거리(L+d)와 상기 제2거리(L2)를 기반으로 상기 제2음향처리부와 대상물 간에 빗변을 이루는 거리인 제5거리(D2)와, 상기 제4거리(L+d)와 상기 제5거리(D2)가 이루는 각도인 제2각도(th2)를 포함하며, 상기 위치추정부는 상기 제1위치, 상기 제2위치 및 식1를 기반으로 대상물의 상기 음향정보가 발생된 거리를 추정할 수 있다. sys2) D1 = T*s D2 = (T+dt)*s cos(th1) = L/D1 cos(th2) = (L+d)/D2 상기 식 1에서, s: 대상물에서 수신된 음향정보의 속도 d: 상기 제1음향처리부와 상기 제2음향처리부의 이격거리
또한, 상기 위치추정부는 상기 식 1과 하기 식 2를 기반으로 상기 음향정보가 발생된 거리를 추정할 수 있다. [식 2] D1 = T*s D2 = (T+dt)*s cos(th1) = L/D1 cos(th2) = (L+d)/D2
상기와 같은 본 발명의 대상물 탐지장치가 탑재된 선박에 따르면 다음과 같은 효과가 하나 혹은 그 이상이 있다.
본 발명은 선박의 운항에 있어서 선박 주변 대상물의 식별 탐지를 위하여 전방향 카메라가 가지는 제한된 해상도의 제약을 극복할 수 있는 대상물 탐지장치가 탑재된 선박을 제공할 수 있다.
또한, 화각이 작은 고해상도 영상을 획득하며 선박의 장애물 탐지를 위한 촬영 영상 내의 장애물 탐지를 수행하되, 이를 충돌 예측 방법의 입력으로 활용하여 기존 항통장치에서 감지할 수 없는 해상 장애물에 대한 탐지를 수행하는 대상물 탐지장치가 탑재된 선박을 제공할 수 있다.
또한, 기존 항통장치의 해상장애물 정보와 기존 발명에서 영상으로 탐지한 장애물 정보를 활용하여, 자선 및 장애물의 미래 경로를 예측할 수 있는 대상물 탐지장치가 탑재된 선박을 제공할 수 있다.
또한, 이러한 미래 경로 예측에 있어 자선이 다른 선박 등을 포함하는 장애물과 언제, 어디에서, 얼마의 확률로 충돌될 수 있는지에 관한 정보를 향해에 활용하여 향해 안전성을 향상시킬 수 있는 대상물 탐지장치가 탑재된 선박을 제공할 수 있다.
도 1은 본 발명의 일 실시예에 따른 대상물 탐지장치가 탑재된 선박의 구성들을 도시한 블록도이다.
도 2는 도 1에 따른 구성들 중 일부를 도시한 도면이다.
도 3은 도 1에 따른 구성들 중 일부를 도시한 도면이다.
도 4는 도 1에 따른 구성에 의하여 대상물이 레이더방식으로 탐지되는 상태를 도시한 도면이다.
도 5는 도 4에 기반하여 대상물이 실제 탐지되는 상태를 도시한 도면이다.
도 6은 도 4에 기반하여 대상물이 파노라마방식으로 탐지되는 상태를 도시한 도면이다.
도 8 내지 도 9는 도 1에 따른 구성에 의하여 증강이 적용된 탐지뷰를 도시한 도면들이다.
도 10은 도 1에 따른 구성들 중 일부가 대상물로부터 탐지한 음향신호의 파형크기에 관하여 도시한 도면이다.
도 11은 도 1에 따른 구성들 중 일부가 대상물로부터 탐지한 음향신호의 도착시간에 관하여 도시한 도면이다.
도 12는 도 10 내지 도 11에 기반하는 방위각 산출에 관한 도면이다.
도 13은 도 1에 따른 구성을 통한 대상물의 음향 발생 거리 추정방식에 관한 도면이다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 대상물 또는 구성 요소들과 다른 대상물 또는 구성 요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 대상물의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들면, 도면에 도시되어 있는 대상물을 뒤집을 경우, 다른 대상물의 "아래(below)" 또는 "아래(beneath)"로 기술된 대상물은 다른 대상물의 "위(above)"에 놓일 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 대상물은 다른 방향으로도 배향될 수 있고, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.
비록 제1, 제2 등이 다양한 대상물, 구성요소 및/또는 섹션들을 서술하기 위해서 사용되나, 이들 대상물, 구성요소 및/또는 섹션들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 대상물, 구성요소 또는 섹션들을 다른 대상물, 구성요소 또는 섹션들과 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 대상물, 제1 구성요소 또는 제1 섹션은 본 발명의 기술적 사상 내에서 제2 대상물, 제2 구성요소 또는 제2 섹션일 수도 있음은 물론이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 대상물은 하나 이상의 다른 구성요소, 단계, 동작 및/또는 대상물의 존재 또는 추가를 배제하지 않는다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
이하, 첨부한 도면들을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어 도면 부호에 상관없이 동일하거나 대응하는 구성 요소는 동일한 참조번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
도 1 및 도 2를 참조하면, 대상물 탐지장치가 탑재된 선박은 음향획득모듈(110), 영상획득모듈(120), 식별정보수신부(125) 및 위치탐지모듈(130)을 포함한다. 상기 음향획득모듈(110)은 제1음향처리부(111) 및 제2음향처리부(112), 제1하단구조체(113) 및 제2하단구조체(114)를 포함한다.
여기서 상기 영상획득모듈(120)은 제1영상처리부(121), 제2영상처리부(122), 제1상단구조체(123) 및 제2상단구조체(124)를 포함한다. 상기 위치탐지모듈(130)은 재생정보생성부(131), 위치추정부(132), 정보스티칭부(133), 줌정보생성부(134), 예측정보산출부(135) 및 정보증강부(136)를 포함한다.
상기 음향획득모듈(110)은 선박(S)에 설치되어 대상물(O)에 대한 음향정보를 획득한다. 보다 구체적으로 상기 음향획득모듈(110)의 제1음향처리부(111)는 대상물(O)에 대한 제1음향정보를 획득한다. 상기 음향획득모듈(110)의 상기 제2음향처리부(112)는 상기 제1음향처리부(111)와 이웃하며 대상물(O)에 대한 제2음향정보를 획득한다.
아울러 상기 영상획득모듈(120)은 선박(S)에 설치되어 대상물(O)에 대한 영상정보를 획득한다. 보다 구체적으로 상기 영상획득모듈(120)의 상기 제1영상처리부(121)은 대상물(O)에 대한 제1영상정보를 획득한다. 영상획득모듈(120)의 상기 제2영상처리부(122)는 상기 제1영상처리부(121)와 이웃하며 대상물(O)에 대한 제2영상정보를 획득한다.
상기 위치탐지모듈(130)은 상기 음향정보 및 상기 영상정보를 기반으로 대상물(O)의 위치를 탐지한다. 보다 구체적으로 이러한 상기 위치탐지모듈(130)은 상기 제1영상정보, 상기 제2영상정보, 상기 제1음향정보 및 상기 제2음향정보를 기반으로 대상물(O)에 대한 탐지를 수행한다.
한편 상기 식별정보수신부(125)는 상기 선박(S)의 주변에 위치하는 대상물(O)에 포함되는 주변선박의 자동식별을 위한 자동식별정보를 수신한다. 상기 제1음향처리부(111)는 상기 제1음향정보에 기반하여 적어도 순환 신경망 recurrent neural network, RNN) 방식을 통한 제1특징정보를 생성한다.
이때 상기 순환 신경망은 시간에 따라 변화하는 신호에서 특징을 훈련을 통해 학습하는 방법을 포함한다. 즉, 학습에 요구되는 특징 신호는 장애물에서 발생되는 소리(선박의 경적 소리, 고래의 울음소리 등)와 해상 장애물과 파도 간의 마찰에 의한 소리(선박과 파도가 만나는 소리와, 바다와 바위가 만나는 소리 등)를 포함할 수 있다.
상기 제2음향처리부(112)는 상기 제1음향처리부(111)와 이웃하도록 위치되며, 상기 제2음향정보에 기반하여 적어도 순환 신경망 방식을 통한 제2특징정보를 생성한다.
여기서 상기 제1영상처리부(121)는 상기 제1영상정보를 기반으로 제1이미지정보를 획득한다. 상기 제1영상처리부(121)는 상기 제1이미지정보상의 대상물(O)을 디텍팅한 제1처리정보를 생성한다.
상기 제2영상처리부(122)는 상기 제2영상정보를 기반으로 제2이미지정보를 획득한다. 상기 제2영상처리부(122)는 상기 제2이미지정보상의 대상물(O)을 디텍팅한 제2처리정보를 생성한다.
도 2 내지 도 3을 참조하면, 한편 상기 음향획득모듈(110)의 제1하단구조체(113)는 상기 선박(S)의 특정위치에 설치되며 상기 제1음향처리부(111)가 설치된다. 상기 음향획득모듈(110)의 상기 제2하단구조체(114)는 상기 선박(S)의 특정위치에 설치되며 상기 제2음향처리부(112)가 설치된다.
상기 영상획득모듈(120)의 상기 제1상단구조체(123)는 상기 제1하단구조체(113)상에서 둘레방향으로 회전 구동되며 상기 제1영상처리부(121)가 설치된다. 상기 영상획득모듈(120)의 상기 제2상단구조체(124)는 상기 제2하단구조체(114)상에서 둘레방향으로 회전 구동되며 상기 제2영상처리부(122)가 설치된다.
여기서 상기 위치탐지모듈(130)의 상기 재생정보생성부(131)는 상기 제1영상정보, 상기 제2영상정보, 상기 제1음향정보, 상기 제2음향정보 및 상기 자동식별정보 등을 수신한다.
도 1을 참조하면, 상기 재생정보생성부(131)는 수신된 상기 제1영상정보, 상기 제2영상정보, 상기 제1음향정보, 상기 제2음향정보 및 상기 자동식별정보를 리플레이 가능한 재생정보를 생성한다.
아울러 상기 제1영상처리부(121)는 상기 제1이미지정보상의 해상영역을 구분하도록 상기 제1이미지정보에 대한 픽셀단위 분석을 수행하여 상기 제1처리정보를 생성한다.
상기 제2영상처리부(122)는 상기 제2이미지정보상의 해상영역을 구분하도록 상기 제2이미지정보에 대한 픽셀단위 분석을 수행하여 상기 제2처리정보를 생성한다.
이러한 상기 위치탐지모듈(130)의 상기 위치추정부(132)는 상기 재생정보를 수신하여 대상물(O)의 위치를 추정하는 위치추정정보를 생성한다. 상기 위치탐지모듈(130)의 상기 정보스티칭부(133)는 상기 재생정보를 수신하여 예컨데 도 4와 같이 대상물(O)을 포함하는 단편화된 영역을 취합하여 도 5 내지 도 6과 같은 탑뷰, 파노라마뷰 등을 포함하는 뷰정보를 생성한다.
상기 위치탐지모듈(130)의 줌정보생성부(134)는 상기 뷰정보에서 선택된 선택영역(ZL)을(도 6 참조) 줌방식으로 확대시켜 줌정보를 생성한다. 상기 위치탐지모듈(130)의 상기 예측정보산출부(135)는 상기 재생정보를 수신하여 대상물(O)의 이동경로에 관한 대상물(O)이동경로정보를 산출한다.
아울러 상기 예측정보산출부(135)는 대상물(O)의 이동경로(예: 도 6의 L2)에 관한 대상물(O)이동경로정보(예: 도 7의 R2)와, 상기 선박(S)의 이동경로(예: 도 7의 R1)에 관한 선박이동경로정보를 기반으로 상기 선박(S)과 대상물(O)간의 충돌시점, 충돌위치(예: 도 7의 R3) 등을 포함하는 예측정보를 산출한다.
상기 위치탐지모듈(130)의 상기 정보증강부(136)는 상기 위치추정정보, 상기 뷰정보, 상기 줌정보 및 상기 예측정보를 기반으로 상기 선박(S)과 상기 선박(S) 주변의 대상물(O)의 관한 정보를 설정 이미지 등의 정보로 증강시켜(예: 도 8, 도 9의 D) 증강 뷰 정보로 제공한다.
도 10 내지 도 12를 참조하면 상기 제1특징정보는 대상물(O)에서 발생되는 음향에 관한 제1진폭패턴 크기와, 제1진폭패턴 도착시간값을 포함한다. 상기 제2특징정보는 대상물(O)에서 발생되는 음향에 관한 제2진폭패턴 크기와, 제2진폭패턴 도착시간값을 포함한다.
상기 위치추정부(132)는 상기 제1특징정보와 상기 제2특징정보를 수신한다. 상기 위치추정부(132)는 상기 제1특징정보와 상기 제2특징정보의 대비분석을 통하여 상기 제1음향정보와 상기 제2음향정보를 발생시킨 대상물(O)의 방위각을 추정한다.
한편 도 10 내지 도 11의 가로축(t)은 시간을 나타내고, 세로축은(mic1, mic2)은 음향의 크기를 나타낸다. 도 11의 time1과 time2는 각각의 파형의 피크값을 포함한다. 상기 위치추정부(132)는 상기 제1특징정보와 상기 제2특징정보 상호간의 차이를 기반으로 대상물(O)이 위치되는 방위각을 추정한다.
도 10 내지 도 11의 차이들을 정규화하고 특정 함수 형태(정규분포함수, 다양식)에 근사(approximation)시키면 도 13과 같은 파형의 함수를 찾을 수 있다. 여기서 특성함수의 형태는 먼저 정의되며 매개변수를 찾아 함수를 찾는다.
아울러 크기와 시간에 대한 삼수로부터 어느 방향에서 음향이 발생되었는지를 알 수 있는 것이다. 두 함수를 통해 음향 발생을 찾는 방법은 평균을 사용할 수 있으며, 보다 고도화된 신호 처리 방법도 사용 가능하다.
특히 상기 위치추정부(132)는 적어도 상기 제1진폭패턴 크기와 상기 제2진폭패턴 크기의 차이값과, 상기 지1진폭패턴 도착시간값과 상기 제2진폭패턴 도착시간값의 차이값을 기반으로 상기 방위각을 추정한다.
상기 제1음향처리부(111)는 상기 제1하단구조체(113)의 둘레부에 다수로 구비되어, 상호간에 다수의 제1측정구간(P11~15)을 이룬다. 상기 제2음향처리부(112)는 상기 제2하단구조체(114)의 둘레부에 다수로 구비되어, 상호간에 상기 제1측정구간(P11~15)과 대응되는 다수의 제2측정구간(P21~25)을 이룬다.
이러한 상기 위치추정부(132)는 상기 제1선택측정구간(P1)상의 상기 제1진폭패턴 크기값과 상기 제2선택측정구간(P2)상의 상기 제2진폭패턴 크기값 중 적어도 어느 하나를 기반으로 도출된 제3진폭패턴 크기값을 획득한다.
상기 위치추정부(132)는 상기 제1선택측정구간(P1)상의 상기 제1진폭패턴 도착시간값과 상기 제2선택측정구간(P2)상의 상기 제2진폭패턴 도착시간값 중 적어도 어느 하나를 기반으로 도출된 제3진폭패턴 도착시간값을 획득한다.
여기서 상기 위치추정부(132)는 상기 제3진폭패턴 크기값이 획득된 각도인 제1각도와 상기 제3진폭패턴 도착시간값이 획득된 각도인 제2각도를 기준으로, 상기 제1각도와 상기 제2각도 사이의 영역인 선정영역을 선정한다. 상기 위치추정부(132)는 상기 선정영역 중 적어도 일부를 대상물(O)의 상기 음향정보가 발생된 추정방위각(A)으로 도출한다.
도 13을 참조하면, 상기 위치추정부(132)는 대상물(O)과 선박(S)에 있어 대상물(O)로부터 음향이 발생되는 거리를 추정할 수 있다. 상기 제1음향처리부(111)는 상기 선박(S)에서 대상물(O)과 제1위치로 위치된다. 상기 제2음향처리부(112)는 상기 선박(S)에서 대상물(O)과 상기 제1위치를 기반으로 하는 제2위치로 위치된다.
상기 제1위치는 상기 제1음향처리부(111)와 수평으로 이웃하는 거리인 제1거리(L1)와, 상기 제1거리(L1)로부터 대상물(O)로 직교하는 거리인 제2거리(L2)와, 상기 제1거리(L1)와 상기 제2거리(L2)를 기반으로 상기 제1음향처리부(111)와 대상물(O) 간에 빗변을 이루는 거리인 제3거리(D1)와, 상기 제1거리(L1)와 상기 제3거리(D2)가 이루는 각도인 제1각도(th1)를 포함한다.
아울러 상기 제2위치는 상기 제2음향처리부(112)와 수평으로 이격되는 이격거리(d) 및 상기 제1거리(L1)를 포함하는 거리인 제4거리(L+d)와, 상기 제4거리(L+d)로부터 대상물(O)로 직교하는 거리인 상기 제2거리(L2)와, 상기 4거리(L+d)로와 상기 제2거리(L2)를 기반으로 상기 제2음향처리부(112)와 대상물(O) 간에 빗변을 이루는 거리인 제5거리(D2)와, 상기 4거리(L+d)로와 상기 제5거리(D2)가 이루는 각도인 제2각도(th2)를 포함한다.
한편 상기 위치추정부(132)는 상기 제1위치, 상기 제2위치 및 하기 식 1을 기반으로 대상물(O)의 상기 음향정보가 발생된 거리를 추정한다. 한편 이하에서 소리의 속도 c는 약 340m/s를 포함한다. 이러한 수치는 이미 알고 있는 것으로 가정한다.
[식 1]
th1 = sound_angle1
th2 = sound_angle2
dt = time(sound_angle2) - time(sound_angle1)
s = speed of sound
d = baseline (length between sys1 and sys2)
D1 = T*s
D2 = (T+dt)*s
cos(th1) = L/D1
cos(th2) = (L+d)/D2
상기 식 1에서,
s: 대상물(O)에서 수신된 음향정보의 속도
d: 상기 제1음향처리부(111)와 상기 제2음향처리부(112)의 이격거리
상기 위치추정부(132)는 상기 식 1과 하기 식 2를 기반으로 상기 음향정보가 발생된 거리를 추정한다.
[식 2]
D1 = T*s
D2 = (T+dt)*s
cos(th1) = L/D1
cos(th2) = (L+d)/D2
이상과 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
110: 음향획득모듈 111: 제1음향처리부
112: 제2음향처리부 120: 영상획득모듈
121: 제1영상처리부 122: 제2영상처리부
125: 식별정보수신부 131: 재생정보생성부
132: 위치추정부 133: 정보스티칭부
134: 줌정보생성부 135: 예측정보산출부

Claims (6)

  1. 선박에 설치되어 대상물에 대한 음향정보를 획득하는 음향획득모듈;
    선박에 설치되어 대상물에 대한 영상정보를 획득하는 영상획득모듈; 및
    상기 음향정보 및 상기 영상정보를 기반으로 대상물의 위치를 탐지하는 위치탐지모듈을 포함하되,
    상기 음향획득모듈은 대상물에 대한 제1음향정보를 획득하는 제1음향처리부와, 상기 제1음향처리부와 이웃하며 대상물에 대한 제2음향정보를 획득하는 제2음향처리부를 포함하며,
    상기 영상획득모듈은 대상물에 대한 제1영상정보를 획득하는 제1영상처리부와, 상기 제1영상처리부와 이웃하며 대상물에 대한 제2영상정보를 획득하는 제2영상처리부를 포함하며,
    상기 위치탐지모듈은 상기 제1영상정보, 상기 제2영상정보, 상기 제1음향정보 및 상기 제2음향정보를 기반으로 대상물에 대한 탐지를 수행하는, 대상물 탐지장치가 탑재된 선박.
  2. 제1항에 있어서,
    상기 선박의 주변에 위치하는 주변선박의 자동식별을 위한 자동식별정보를 수신하는 식별정보수신부를 더 포함하며,
    상기 제1음향처리부는 상기 제1음향정보에 기반하여 적어도 순환 신경망 recurrent neural network, RNN) 방식을 통한 제1특징정보를 생성하고,
    상기 제2음향처리부는 상기 제1음향처리부와 이웃하도록 위치되며, 상기 제2음향정보에 기반하여 적어도 순환 신경망 방식을 통한 제2특징정보를 생성하며,
    상기 제1영상처리부는 상기 제1영상정보를 기반으로 제1이미지정보를 획득하고, 상기 제1이미지정보상의 대상물을 디텍팅한 제1처리정보를 생성하며,
    상기 제2영상처리부는 상기 제2영상정보를 기반으로 제2이미지정보를 획득하고, 상기 제2이미지정보상의 대상물을 디텍팅한 제2처리정보를 생성하며,
    상기 위치탐지모듈은,
    상기 제1영상정보, 상기 제2영상정보, 상기 제1음향정보, 상기 제2음향정보 및 상기 자동식별정보를 수신하여, 리플레이 가능한 재생정보를 생성하는 재생정보생성부를 포함하되,
    상기 제1영상처리부는 상기 제1이미지정보상의 해상영역을 구분하도록 상기 제1이미지정보에 대한 픽셀단위 분석을 수행하여 상기 제1처리정보를 생성하며,
    상기 제2영상처리부는 상기 제2이미지정보상의 해상영역을 구분하도록 상기 제2이미지정보에 대한 픽셀단위 분석을 수행하여 상기 제2처리정보를 생성하는, 대상물 탐지장치가 탑재된 선박.
  3. 제2항에 있어서,
    상기 위치탐지모듈은,
    상기 재생정보를 수신하여 대상물의 위치를 추정하는 위치추정정보를 생성하는 위치추정부와,
    상기 재생정보를 수신하여 대상물을 포함하는 단편화된 영역을 취합하여 파노라마뷰 및 탑뷰 중 적어도 어느 하나를 포함하는 뷰정보를 생성하는 정보스티칭부와,
    상기 뷰정보에서 선택된 선택영역을 줌방식으로 확대시켜 줌정보를 생성하는 줌정보생성부와,
    상기 재생정보를 수신하여 대상물의 이동경로에 관한 대상물이동경로정보를 산출하며, 대상물이동경로정보와, 상기 선박의 이동경로에 관한 선박동경로정보를 기반으로 상기 선박과 대상물간의 충돌시점, 충돌위치를 중 적어도 어느 하나의 예측정보를 산출하는 예측정보산출부와,
    상기 위치추정정보, 상기 뷰정보, 상기 줌정보 및 상기 예측정보를 기반으로 상기 선박과 상기 선박 주변의 대상물의 관한 정보를 증강시켜 증강 뷰 정보로 제공하는 정보증강부를 더 포함하는, 대상물 탐지장치가 탑재된 선박.
  4. 제2항에 있어서,
    상기 위치추정부는,
    제1특징정보와 상기 제2특징정보를 수신하고, 상기 제1특징정보와 상기 제2특징정보의 대비분석을 통하여 상기 제1음향정보와 상기 제2음향정보를 발생시킨 대상물의 방위각을 추정하며,
    상기 제1특징정보는 대상물에서 발생되는 음향에 관한 제1진폭패턴 크기와, 제1진폭패턴 도착시간값을 포함하며,
    상기 제2특징정보는 대상물에서 발생되는 음향에 관한 제2진폭패턴 크기와, 제2진폭패턴 도착시간값을 포함하며,
    상기 위치추정부는,
    상기 제1특징정보와 상기 제2특징정보 상호간의 차이를 기반으로 대상물의 방위각을 추정하되,
    적어도 상기 제1진폭패턴 크기와 상기 제2진폭패턴 크기의 차이값과, 상기 지1진폭패턴 도착시간값과 상기 제2진폭패턴 도착시간값의 차이값을 기반으로 상기 방위각을 추정하는, 대상물 탐지장치가 탑재된 선박.
  5. 제4항에 있어서,
    상기 음향획득모듈은 상기 선박의 특정위치에 설치되며 상기 제1음향처리부가 설치되는 제1하단구조체와, 상기 제2음향처리부는 상기 선박의 특정위치에 설치되며 상기 제2음향처리부가 설치되는 제2하단구조체를 포함하며,
    상기 영상획득모듈은 상기 제1하단구조체상에서 둘레방향으로 회전 구동되며 상기 제1영상처리부가 설치되는 제1상단구조체와, 상기 제2하단구조체상에서 둘레방향으로 회전 구동되며 상기 제2영상처리부가 설치되는 제2상단구조체를 포함하되,
    상기 제1음향처리부는 상기 제1하단구조체의 둘레부에 다수로 구비되어, 상호간에 다수의 제1측정구간을 이루며,
    상기 제2음향처리부는 상기 제2하단구조체의 둘레부에 다수로 구비되어, 상호간에 상기 제1측정구간과 대응되는 다수의 제2측정구간을 이루고,
    상기 위치추정부는,
    상기 제1측정구간상의 상기 제1진폭패턴 크기값과 상기 제2측정구간상의 상기 제2진폭패턴 크기값 중 적어도 어느 하나를 기반으로 도출된 제3진폭패턴 크기값을 획득하며,
    상기 제1측정구간상의 상기 제1진폭패턴 도착시간값과 상기 제2측정구간상의 상기 제2진폭패턴 도착시간값 중 적어도 어느 하나를 기반으로 도출된 제3진폭패턴 도착시간값을 획득하며,
    상기 제3진폭패턴 크기값이 획득된 각도인 제1각도와 상기 제3진폭패턴 도착시간값이 획득된 각도인 제2각도를 기준으로,
    상기 제1각도와 상기 제2각도 사이의 영역인 선정영역을 선정하고, 상기 선정영역 중 적어도 일부를 대상물의 상기 음향정보가 발생된 추정방위각으로 도출하는, 대상물 탐지장치가 탑재된 선박.
  6. 제3항에 있어서,
    상기 제1음향처리부는 상기 선박에서 대상물과 제1위치로 위치되며,
    상기 제2음향처리부는 상기 선박에서 대상물과 상기 제1위치를 기반으로 하는 제2위치로 위치되며,
    상기 제1위치는,
    상기 제1음향처리부와 수평으로 이웃하는 거리인 제1거리와, 상기 제1거리로부터 대상물로 직교하는 거리인 제2거리와, 상기 제1거리와 상기 제2거리를 기반으로 상기 제1음향처리부와 대상물 간에 빗변을 이루는 거리인 제3거리와, 상기 제1거리와 상기 제3거리가 이루는 각도인 제1각도를 포함하며,
    상기 제2위치는,
    상기 제2음향처리부와 수평으로 이격되는 거리인 이격거리 및 상기 제1거리를 포함하는 거리인 제4거리와, 상기 제4거리로부터 대상물로 직교하는 거리인 상기 제2거리와, 상기 제4거리와 상기 제2거리를 기반으로 상기 제2음향처리부와 대상물 간에 빗변을 이루는 거리인 제5거리와, 상기 제4거리와 상기 제5거리가 이루는 각도인 제2각도를 포함하며,
    상기 위치추정부는 상기 제1위치, 상기 제2위치 및 하기 식 1을 기반으로 대상물의 상기 음향정보가 발생된 거리를 추정하는, 대상물 탐지장치가 탑재된 선박.
    [식 1]
    th1 = sound_angle1
    th2 = sound_angle2
    dt = time(sound_angle2) - time(sound_angle1)
    s = speed of sound
    d = baseline (length between sys1 and sys2)
    D1 = T*s
    D2 = (T+dt)*s
    cos = L/D1
    cos = /D2
    상기 식 1에서,
    s: 대상물에서 수신된 음향정보의 속도
    d: 상기 제1음향처리부와 상기 제2음향처리부의 이격거리
KR1020210123684A 2021-09-16 2021-09-16 대상물 탐지장치가 탑재된 선박 KR102596268B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210123684A KR102596268B1 (ko) 2021-09-16 2021-09-16 대상물 탐지장치가 탑재된 선박

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210123684A KR102596268B1 (ko) 2021-09-16 2021-09-16 대상물 탐지장치가 탑재된 선박

Publications (2)

Publication Number Publication Date
KR20230040487A true KR20230040487A (ko) 2023-03-23
KR102596268B1 KR102596268B1 (ko) 2023-10-30

Family

ID=85799421

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210123684A KR102596268B1 (ko) 2021-09-16 2021-09-16 대상물 탐지장치가 탑재된 선박

Country Status (1)

Country Link
KR (1) KR102596268B1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040016956A (ko) 2004-02-05 2004-02-25 이윤희 선박 충돌방지 경보기
KR101657646B1 (ko) * 2016-02-16 2016-09-22 한국해양과학기술원 증강현실 항해정보 출력을 위한 라벨 표시 방법
KR20200053093A (ko) * 2018-11-08 2020-05-18 성균관대학교산학협력단 건설현장 이상징후 감지 방법 및 시스템
KR20200095888A (ko) * 2019-02-01 2020-08-11 한국전자통신연구원 무인 선박 시스템의 상황인지 방법 및 장치
KR102155724B1 (ko) * 2020-04-21 2020-09-14 호서대학교 산학협력단 심층신경망을 이용한 선박 내 객체의 위험 검출 방법 및 시스템

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040016956A (ko) 2004-02-05 2004-02-25 이윤희 선박 충돌방지 경보기
KR101657646B1 (ko) * 2016-02-16 2016-09-22 한국해양과학기술원 증강현실 항해정보 출력을 위한 라벨 표시 방법
KR20200053093A (ko) * 2018-11-08 2020-05-18 성균관대학교산학협력단 건설현장 이상징후 감지 방법 및 시스템
KR20200095888A (ko) * 2019-02-01 2020-08-11 한국전자통신연구원 무인 선박 시스템의 상황인지 방법 및 장치
KR102155724B1 (ko) * 2020-04-21 2020-09-14 호서대학교 산학협력단 심층신경망을 이용한 선박 내 객체의 위험 검출 방법 및 시스템

Also Published As

Publication number Publication date
KR102596268B1 (ko) 2023-10-30

Similar Documents

Publication Publication Date Title
JP6221158B2 (ja) 自律行動ロボット、及び自律行動ロボットの制御方法
KR101527876B1 (ko) 소나 영상의 실시간 영상처리를 이용한 수중물체의 인식 및 추적방법
KR102530691B1 (ko) 접안 모니터링 장치 및 방법
JP5853489B2 (ja) 目標運動推測システム及び方法
KR102530847B1 (ko) 항만 및 선박 모니터링 방법 및 장치
CN109029465A (zh) 一种无人艇基于毫米波雷达的跟踪和避障系统
JP6258310B2 (ja) 引き波検出装置、レーダ装置、引き波検出方法、及び引き波検出プログラム
Ferreira et al. Forward looking sonar mosaicing for mine countermeasures
Narimani et al. Robotics vision-based system for an underwater pipeline and cable tracker
JP2008203227A (ja) 自動追尾スキャニングソナー
KR101772220B1 (ko) 멀티빔소나와 카메라의 상대위치 추정을 위한 캘리브레이션 방법
KR20230074438A (ko) 선박 및 항만 모니터링 장치 및 방법
JP5021913B2 (ja) 海上における対象物の捜索方法及びシステム並びに対象物の捜索方法を実行する記録媒体
WO2017204076A1 (ja) 信号処理装置及びレーダ装置
KR101542647B1 (ko) 화자 검출을 이용한 오디오 신호 처리 방법 및 장치
KR20230040487A (ko) 대상물 탐지장치가 탑재된 선박
Cardaillac et al. Camera-sonar combination for improved underwater localization and mapping
Stinco et al. Source localization using an acoustic vector sensor hosted on a buoyancy glider
Perry et al. A recurrent neural network for detecting objects in sequences of sector-scan sonar images
KR101595695B1 (ko) 초음파 수중센서를 이용한 고래 탐지 시스템장치
Tulsook et al. A pipeline extraction on forward-looking sonar images using the self-organizing map
Douguet et al. Multimodal perception for obstacle detection for flying boats-Unmanned Surface Vehicle (USV)
Wang et al. Active stereo vision for improving long range hearing using a laser Doppler vibrometer
Poikonen Requirements and challenges of multimedia processing and broadband connectivity in remote and autonomous vessels
Kang et al. Development of USV autonomy for the 2014 maritime RobotX challenge

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant