KR20220145016A - Around-view system for floating objects - Google Patents

Around-view system for floating objects Download PDF

Info

Publication number
KR20220145016A
KR20220145016A KR1020210051601A KR20210051601A KR20220145016A KR 20220145016 A KR20220145016 A KR 20220145016A KR 1020210051601 A KR1020210051601 A KR 1020210051601A KR 20210051601 A KR20210051601 A KR 20210051601A KR 20220145016 A KR20220145016 A KR 20220145016A
Authority
KR
South Korea
Prior art keywords
distance information
information
around
image
neural network
Prior art date
Application number
KR1020210051601A
Other languages
Korean (ko)
Inventor
강대웅
Original Assignee
주식회사 에스씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에스씨 filed Critical 주식회사 에스씨
Priority to KR1020210051601A priority Critical patent/KR20220145016A/en
Publication of KR20220145016A publication Critical patent/KR20220145016A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/349Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Traffic Control Systems (AREA)

Abstract

The present invention relates to an around-view system of a floating object. The around-view system of a floating object according to one embodiment of the present invention is an around-view system of a floating object by using an artificial neural network performed by a computing means, which comprises the following steps of: obtaining a marine image including a navigable area and obstacles by a camera installed in a ship; inputting the marine image to an artificial neural network that performs image segmentation and outputting output data; obtaining second distance information of a second pixel based on a location of the second pixel in the marine image and position information of the camera; and updating the second output value by reflecting final distance information calculated based on the first distance information and the second distance information. The around-view system acquires a surrounding image and information of a floating object and informs an operator.

Description

수상 이동체의 어라운드뷰 시스템{Around-view system for floating objects}Around-view system for floating objects

본 발명은 수상 이동체의 어라운드뷰 시스템에 관한 것으로, 보다 상세하게는 수상 이동체의 운항 및 항만의 접안시 주변 이미지 및 정보를 실시간으로 제공해줄 수 있는 장치 및 방법에 관한 것이다.The present invention relates to an around-view system of a water vehicle, and more particularly, to an apparatus and method capable of providing images and information around the surface in real time during operation of a water vehicle and berthing in a port.

선박의 운항 및 항만 내에서의 접안, 이안에 있어 많은 사고가 발생하고 있으며, 그 사고의 주요 원인은 사람의 운항 부주의로 알려져 있다. 여기서, 운항 부주의는 주로 선박 주변이나 항만 내의 상황을 육안을 통해서 정확하게 모니터링하지 못한다는 점에 의해 발생한다. 현재 다양한 종류의 장애물 센서 등을 이용해 이를 보완하고 있으나 아직까지는 한계점이 존재하는 상황이다. 예를 들어, ECDIS의 경우 GPS의 부정확성, AIS의 업데이트 주기 및 AIS 미등록 이동체 등으로 인한 한계가 존재하고, radar의 경우 비탐색영역의 존재 및 노이즈로 인한 한계가 존재한다. 그 결과 장애물의 정확한 감지를 위하여는 여전히 육안으로 확인하는 과정이 필요하다.Many accidents occur in the operation of ships and berthing and berthing in ports, and it is known that the main cause of the accidents is human negligence. Here, the negligence of navigation is mainly caused by the fact that the situation around the ship or in the port cannot be accurately monitored through the naked eye. Currently, various types of obstacle sensors are used to supplement this problem, but there are still limitations. For example, in the case of ECDIS, there are limitations due to the inaccuracy of GPS, the update cycle of AIS, and non-AIS moving objects, and in the case of radar, there are limitations due to the existence and noise of the non-search area. As a result, in order to accurately detect an obstacle, it is still necessary to visually check the obstacle.

본 발명이 해결하고자 하는 과제는 수상 이동체의 주변 이미지 및 정보를 습득하여 운행자에게 알려주는 것이다.The problem to be solved by the present invention is to acquire the surrounding image and information of the floating body and inform the operator.

본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

상기 과제를 달성하기 위하여, 본 발명의 일 실시예에 의한 수상 이동체의 어라운드뷰 시스템은, 컴퓨팅 수단에 의해 수행되는 인공신경망을 이용한 수상 이동체의 어라운드뷰 시스템에 있어서, 선박에 설치된 카메라에 의해 운항 가능 영역 및 장애물을 포함하는 해상 이미지를 획득하는 단계; 이미지 세그멘테이션을 수행하는 인공신경망에 상기 해상 이미지를 입력하여 출력 데이터를 출력하는 단계; 상기 제2 픽셀의 상기 해상 이미지상에서의 위치 및 상기 카메라의 자세 정보에 기초하여 상기 제2 픽셀의 제2 거리 정보를 획득하는 단계; 및 상기 제1 거리 정보 및 상기 제2 거리 정보에 기초하여 산출된 최종 거리 정보를 반영하여 상기 제2 출력값을 갱신하는 단계;를 포함한다. In order to achieve the above object, the around-view system of a water-moving object according to an embodiment of the present invention is an around-view system of a water-moving object using an artificial neural network performed by a computing means, and can be operated by a camera installed on a ship. acquiring a maritime image including an area and an obstacle; outputting output data by inputting the resolution image to an artificial neural network that performs image segmentation; obtaining second distance information of the second pixel based on a position of the second pixel on the sea image and posture information of the camera; and updating the second output value by reflecting final distance information calculated based on the first distance information and the second distance information.

기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.The details of other embodiments are included in the detailed description and drawings.

본 발명의 수상 이동체의 어라운드뷰 시스템에 따르면 수상 이동체의 주변 이미지 및 정보를 습득하여 운행자에게 알려주어 항만 내에 접안, 이안시 주변 이미지를 제공받게 되므로 날씨 및 주변 환경에 영향을 받지 않고 안전하게 운항 및 접안할 수 있는 효과가 있다. According to the around-view system of the floating body of the present invention, it acquires the surrounding image and information of the floating body and informs the operator to provide the surrounding image when berthing and berthing in the port, so that it is safely operated and berthing without being affected by the weather and the surrounding environment There is an effect that can be done.

본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.

도1 은 실시예에 따른 어라운드뷰 영상 제어장치의 구성을 도시한 블록도이다.
도2 는 본 발명의 일 실시예에 의한 선박의 제어시스템에 포함된 감지수단을 표시한 블록도이다.
1 is a block diagram illustrating a configuration of an apparatus for controlling an around-view image according to an embodiment.
Figure 2 is a block diagram showing the sensing means included in the control system of the ship according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the technical field to which the present invention pertains It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout.

이하, 본 발명의 실시예들에 의하여 이미지를 이용한 선박 주변 감지 방법을 설명하기 위한 도면들을 참고하여 본 발명에 대해 설명하도록 한다.Hereinafter, the present invention will be described with reference to the drawings for explaining a method for detecting a ship's surroundings using an image according to embodiments of the present invention.

어라운드뷰 영상은 선박 주변을 보여주는 영상으로서, 탑뷰(top view) 또는 버드뷰(bird view)라고 명명될 수도 있다. 이러한 어라운드뷰 영상은 서로 다른 방향으로부터 획득된 영상을 바탕으로 생성될 수 있다.The around view   image is an image showing the surroundings of the ship, and may be called a top view or a bird view. Such  around view   images may be generated based on images obtained from different directions.

어라운드뷰 영상 제어장치가 별도의 장치일 때, 어라운드뷰 영상 제어장치의 각 구성요소들 중 적어도 일부는 어라운드뷰 영상 제어장치에 포함되지 않고, 선박 또는 선박에 탑재된 다른 장치에 포함되는 외부 구성요소일 수 있다. 이러한 외부 구성요소들은, 어라운드뷰 영상 제어장치의 인터페이스부를 통해 데이터를 송수신함으로써, 어라운드뷰 영상 제어장치를 구성하는 것으로 이해할 수 있다.When the Around View   image control device is a separate device,   At least some of the respective components of the Around View   video control device are not included in the Around View   Image control device, but external components included in the ship or other devices mounted on the ship can be These external components can be understood as constituting the  around view   image control device by transmitting and receiving data through the interface unit of the  around view   image control device.

도1 은 실시예에 따른 어라운드뷰 영상 제어장치의 구성을 도시한 블록도이다.1 is a block diagram illustrating the configuration of an apparatus for controlling an 'around view' image according to an embodiment.

도 1을 참조하면, 어라운드뷰 영상 제어장치는 센싱부 및 프로세서를 포함할 수 있다. 또한, 실시예에 따른 어라운드뷰 영상 제어장치는, 입력부, 통신부, 인터페이스부, 메모리, 모니터링 부, 디스플레이부, 오디오 출력부 및 전원 공급부 중 적어도 하나 이상을 더 포함할 수 있다. 다만, 도 1에 도시된 구성요소들은 어라운드뷰 영상 제어장치를 구현하는데 있어서 필수적인 것은 아니어서, 실시예에 따른 어라운드뷰 영상 제어장치는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.Referring to FIG. 1 , the  around view   image control apparatus may include a sensing unit and a processor. Also, the apparatus for controlling an 'around view' image according to an embodiment may further include at least one of an input unit, a communication unit, an interface unit, a memory, a monitoring unit, a display unit, an audio output unit, and a power supply unit. However, the components shown in FIG. 1 are not essential for implementing the  around view   image control apparatus, so the  around view   image control apparatus according to the embodiment has more or fewer components than the components listed above. can

각 구성에 대해 상세히 설명하면, 입력부는 사용자의 입력을 감지할 수 있다. 예를 들어, 사용자는, 입력부를 통해 어라운드뷰 영상 제어장치가 제공하는 어라운드뷰 영상에 대한 설정을 입력하거나, 어라운드뷰 영상 제어장치의 전원을 온(on)/오프(off)시키는 실행 등을 입력할 수 있다.When each configuration is described in detail, the input unit may detect a user's input. For example, the user inputs settings for  around view  image provided by the image control device through the input unit, or inputs an execution of turning on/off the power of the  around view   image control device. can do.

이러한 입력부는 사용자의 제스처를 감지하는 제스처 입력부(예를 들어, optical sensor 등), 터치를 감지하는 터치 입력부(예를 들어, 터치 센서(touch sensor), 터치키(touch key), 푸시키(mechanical key) 등) 및 음성 입력을 감지하는 마이크로폰(microphone) 중 적어도 하나 이상을 포함하여, 사용자 입력을 감지할 수 있다.The input unit includes a gesture input unit (eg, an optical sensor, etc.) for sensing a user's gesture, a touch input unit (eg, a touch sensor) for sensing a touch, a touch key, and a mechanical push button. key) and the like) and a microphone for detecting a voice input, and may detect a user input.

통신부는 타 선박, 이동 단말기 및 서버 등과 통신을 수행할 수 있다.The communication unit may communicate with other ships, mobile terminals, servers, and the like.

이 경우, 어라운드뷰 영상 제어장치는, 통신부를 통해 네비게이션 (Navigation) 정보, 타 선박 주행정보 및 교통 정보 중 적어도 하나의 정보를 수신할 수 있다. 또한, 어라운드뷰 영상 제어장치는, 통신부를 통해 해당 어라운드뷰 영상 제어장치가 구비된 자 선박에 대한 정보를 송신할 수 있다.In this case, the  around view   image control device may receive at least one of navigation information, other vessel driving information, and traffic information through the communication unit. In addition, the  around view   image control device may transmit information about the own vessel equipped with the   around view   image control device through the communication unit.

구체적으로, 통신부는 이동 단말기 또는/및 서버로부터 위치 정보, 날씨 정보 및 해상상황 정보 중 적어도 하나의 정보를 수신할 수 있다.Specifically, the communication unit may receive at least one of location information, weather information, and sea condition information from the mobile terminal and/or the server.

통신부는 선박의 실시간 위치를 수신할 수 있다. 구체적으로, 통신부는 GPS(Global Positioning System) 모듈 또는/및 WiFi(Wireless Fidelity) 모듈을 포함하여 선박의 위치를 획득할 수 있다.The communication unit may receive the real-time location of the vessel. Specifically, the communication unit may acquire the position of the vessel including a Global Positioning System (GPS) module and/or a Wireless Fidelity (WiFi) module.

또한, 통신부는, 타 선박으로부터 타 선박의 주행정보를 수신하고 자 선박의 정보를 타 선박에 송신하여, 선박간 주행정보를 서로 공유할 수 있다. 여기서, 서로 공유하는 주행정보는, 선박의 이동방향 정보, 위치 정보 중 적어도 하나 이상의 정보를 포함할 수 있다.In addition, the communication unit may receive the traveling information of the other vessel from the other vessel and transmit the information of the intended vessel to the other vessel to share the traveling information between the vessels with each other. Here, the running information shared with each other may include at least one or more of information on the movement direction of the vessel and information on the location.

이러한 통신부는 타 선박, 이동 단말기 또는 서버와 무선(wireless) 방식으로 데이터를 교환할 수 있다.Such a communication unit may exchange data with another ship, a mobile terminal, or a server in a wireless manner.

자세히, 통신부는 무선 데이터 통신 방식을 이용하여 무선 통신을 수행할 수 있다. 무선 데이터 통신 방식으로는 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등)을 이용할 수 있다.In detail, the communication unit may perform wireless communication using a wireless data communication method. As the wireless data communication method, technical standards or communication methods for mobile communication (eg, Global System for Mobile communication (GSM), Code Division Multi Access (CDMA), Code Division Multi Access 2000 (CDMA2000), EV-DO) (Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), Wideband CDMA (WCDMA), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Long Term Evolution (LTE), Long Term Evolution (LTE-A) Term Evolution-Advanced), etc.) can be used.

또한, 통신부는 무선 인터넷 기술을 이용할 수 있으며, 예를 들어, 무선 인터넷 기술로 WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등을 이용할 수 있다.In addition, the communication unit may use wireless Internet technology, for example, WLAN (Wireless LAN), Wi-Fi (Wireless-Fidelity), Wi-Fi (Wireless Fidelity) Direct, DLNA (Digital Living Network Alliance) as wireless Internet technologies. ), WiBro (Wireless Broadband), WiMAX (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access), HSUPA (High Speed Uplink Packet Access), LTE (Long Term Evolution), LTE-A (Long Term Evolution-) Advanced) can be used.

또한, 통신부는 근거리 통신(Short range communication)을 이용할 수 있으며, 예를 들어, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다.In addition, the communication unit may use short range communication, for example, Bluetooth (Bluetooth™), RFID (Radio Frequency Identification), infrared communication (Infrared Data Association; IrDA), UWB (Ultra Wideband), ZigBee , Near Field Communication (NFC), Wireless-Fidelity (Wi-Fi), Wi-Fi Direct, and at least one of Wireless Universal Serial Bus (USB) technologies may be used to support short-range communication.

또한, 어라운드뷰 영상 제어장치는 근거리 통신 방식을 이용하여 선박 내부의 이동 단말기와 페어링(paring)하고, 이동 단말기의 장거리 무선 통신 모듈을 이용하여 타선박 또는 서버 등과 무선으로 데이터를 교환할 수도 있다.In addition, the   Around View   image control device may pair with a mobile terminal inside a ship using a short-distance communication method, and wirelessly exchange data with other ships or servers using a long-distance wireless communication module of the mobile terminal.

인터페이스부는 선박을 전체적으로 제어하는 ECU(Electronic Control Unit)으로부터 데이터를 수신하거나 프로세서에서 처리 또는 생성된 신호를 외부로 전송하는 등, 어라운드뷰 영상 제어장치의 내 외부 간 인터페이스를 수행할 수 있다.The interface unit may perform an interface between the inside and outside of the video control device, such as receiving data from an Electronic Control Unit (ECU) that controls the entire vessel or transmitting a signal processed or generated by the processor to the outside.

구체적으로, 어라운드뷰 영상 제어장치는 인터페이스부를 통해 선박 주행정보, 네비게이션 정보 및 센싱정보 중 적어도 하나의 정보를 수신할 수 있다.Specifically, the  around view   image control apparatus may receive at least one of vessel driving information, navigation information, and sensing information through the interface unit.

또한, 어라운드뷰 영상 제어장치는 인터페이스부를 통해 어라운드뷰의 실행을 위한 제어 신호나, 어라운드뷰 영상 제어장치에서 생성한 정보 등을 선박의 ECU에 송신할 수 있다.In addition, the  Around View  image control device may transmit a control signal for executing  Around View or information generated by the  Around View  image control device to the ship's ECU through the interface unit.

이를 위해, 인터페이스부는 유선 통신 또는 무선 통신 방식에 의해 선박 내부의 ECU, AVN(Audio Video Navigation) 장치 및 센싱부 중 적어도 하나와 데이터 통신을 수행할 수 있다.To this end, the interface unit may perform data communication with at least one of an ECU, an AVN (Audio Video Navigation) device, and a sensing unit inside the ship through wired communication or wireless communication.

구체적으로, 인터페이스부는 ECU, AVN 장치 또는/및 별도의 네비게이션 장치(미도시)와의 데이터 통신에 의해 네비게이션 정보를 수신할 수 있다.Specifically, the interface unit may receive navigation information through data communication with an ECU, an AVN device, and/or a separate navigation device (not shown).

또한, 인터페이스부는 ECU 또는 센싱부로부터 센싱정보를 수신할 수 있다.Also, the interface unit may receive sensing information from the ECU or the sensing unit.

도2 는 본 발명의 일 실시예에 따른 선박 센서 시스템의 블록도이다.2 is a block diagram of a ship sensor system according to an embodiment of the present invention.

도2 를 참고하면, 선박 운항 시 레이더(radar), 라이다(lidar), 초음파 탐지기와 같은 장애물 감지 센서 및 선박자동식별장치(automatic identification system, AIS)를 이용하는 것이 일반적이다.Referring to FIG. 2 , it is common to use an obstacle detection sensor such as a radar, a lidar, and an ultrasonic detector and an automatic identification system (AIS) when operating a ship.

이 외에도 카메라를 이용하여 장애물을 감지할 수 있다. 도 1를 참고하면, 카메라의 예로는 단안 카메라, 쌍안 카메라, 적외선 카메라 및 TOF 카메라가 있지만 이에 한정되는 것은 아니다.In addition, the camera can be used to detect obstacles. Referring to FIG. 1 , examples of the camera include, but are not limited to, a monocular camera, a binocular camera, an infrared camera, and a TOF camera.

카메라로부터 획득한 이미지를 가지고 장애물을 감지하는 방법 중 하나로 이미지 세그멘테이션을 이용할 수 있다. 이하에서는 이미지 세그멘테이션을 이용하여 주변 환경 감지 단계를 수행하는 것에 대해서 구체적으로 살펴본다.Image segmentation may be used as one of the methods of detecting an obstacle using an image obtained from a camera. Hereinafter, the step of detecting the surrounding environment using image segmentation will be described in detail.

이미지 세그멘테이션은 속성별로 이미지의 영역을 분할하는 것을 의미할 수 있다. 또는, 이미지의 각 픽셀 별로 속성값을 할당하는 과정일 수 있다. 예를 들어, 상기 속성은 물체의 종류가 될 수 있다. 이 경우 이미지 세그멘테이션은 이미지에 포함된 물체를 픽셀 별로 분할하는 것을 의미할 수 있다. 또는, 특정 픽셀이 어떤 물체에 대응되는 픽셀인지 나타내는 것을 의미할 수 있다.Image segmentation may mean segmenting an image region according to attributes. Alternatively, it may be a process of allocating an attribute value to each pixel of an image. For example, the attribute may be the type of object. In this case, image segmentation may mean segmenting an object included in an image for each pixel. Alternatively, it may mean indicating which object the specific pixel corresponds to.

이미지 세그멘테이션은 인공신경망을 이용하여 수행될 수 있다. 하나의 인공신경망을 이용할 수 있고, 복수의 인공신경망을 이용하여 각각의 인공신경망이 이미지 세그멘테이션을 수행하고 이 결과를 조합하여 주변 환경을 감지할 수도 있다. 이미지 세그멘테이션을 위한 인공신경망의 네트워크 구조는 ENet 구조 등 다양한 구조가 적용될 수 있다.Image segmentation may be performed using an artificial neural network. One artificial neural network may be used, and each artificial neural network may perform image segmentation using a plurality of artificial neural networks, and the surrounding environment may be sensed by combining the results. Various structures such as ENet structure can be applied to the network structure of artificial neural network for image segmentation.

본 발명의 일 실시예에 의한 이미지를 이용한 선박 주변 감지 방법은, 컴퓨팅 수단에 의해 수행되는 해상 이미지를 입력받아 해상 이미지에 포함된 객체의 종류 및 거리에 대한 정보를 출력하는 이미지를 이용한 선박 주변 감지 방법에 있어서, 바다 및 장애물을 포함하는 해상 이미지를 획득하는 단계; 상기 해상 이미지에 기초하여 생성된 복수의 라벨링값을 포함하는 라벨링 데이터를 획득하는 단계; 인공신경망이 상기 해상 이미지를 입력받아 복수의 출력값을 포함하는 출력 데이터를 출력하는 단계; 상기 라벨링 데이터 및 상기 출력 데이터를 이용하여 오차값을 산출하는 단계; 및 상기 오차값에 기초하여 상기 인공신경망을 갱신하는 단계;를 포함한다. The method for detecting the perimeter of a ship using an image according to an embodiment of the present invention is to detect the perimeter of a ship using an image that receives a sea image performed by a computing means and outputs information on the type and distance of an object included in the sea image. A method comprising the steps of: acquiring a sea image including a sea and an obstacle; obtaining labeling data including a plurality of labeling values generated based on the maritime image; receiving, by an artificial neural network, the sea image and outputting output data including a plurality of output values; calculating an error value using the labeling data and the output data; and updating the artificial neural network based on the error value.

상기 제2 라벨링값 및 상기 제2 출력값은 장애물의 종류 및 거리에 대한 정보의 조합에 의해 정해지는 복수의 식별값 중에서 선택되고, 상기 복수의 식별값은, 제1 거리 범위, 상기 제1 거리 범위보다 큰 제2 거리 범위 및 상기 제2 거리 범위보다 큰 제3 거리 범위를 포함하는 거리에 대한 정보와 고정 장애물 및 동적 장애물을 포함하는 장애물의 종류에 대한 정보의 조합에 의해 정해진다. The second labeling value and the second output value are selected from a plurality of identification values determined by a combination of information on a type and distance of an obstacle, and the plurality of identification values include a first distance range, the first distance range It is determined by a combination of information about a distance including a larger second distance range and a third distance range larger than the second distance range, and information about types of obstacles including fixed obstacles and dynamic obstacles.

본 발명의 일 실시예에 의한 수상 이동체의 어라운드뷰 시스템은, 컴퓨팅 수단에 의해 수행되는 인공신경망을 이용한 수상 이동체의 어라운드뷰 시스템에 있어서, 선박에 설치된 카메라에 의해 운항 가능 영역 및 장애물을 포함하는 해상 이미지를 획득하는 단계; 이미지 세그멘테이션을 수행하는 인공신경망에 상기 해상 이미지를 입력하여 출력 데이터를 출력하는 단계; 상기 제2 픽셀의 상기 해상 이미지상에서의 위치 및 상기 카메라의 자세 정보에 기초하여 상기 제2 픽셀의 제2 거리 정보를 획득하는 단계; 및 상기 제1 거리 정보 및 상기 제2 거리 정보에 기초하여 산출된 최종 거리 정보를 반영하여 상기 제2 출력값을 갱신하는 단계;를 포함한다. An around-view system of a water-moving object according to an embodiment of the present invention, in the around-view system of a water-moving object using an artificial neural network performed by a computing means, includes an area operable by a camera installed on a ship and an obstacle including an obstacle acquiring an image; outputting output data by inputting the resolution image to an artificial neural network that performs image segmentation; obtaining second distance information of the second pixel based on a position of the second pixel on the sea image and posture information of the camera; and updating the second output value by reflecting final distance information calculated based on the first distance information and the second distance information.

상기 제1 거리 정보는 각각 거리 범위를 갖는 복수의 카테고리 중에서 선택되고 상기 제2 거리 정보는 거리값으로 표현되며, 상기 제2 출력값을 갱신하는 단계는, 상기 제2 거리 정보가 상기 제1 거리 정보의 거리 범위에 포함되는지에 기초하여 에러를 판단하는 단계; 상기 에러 여부에 기초하여 상기 최종 거리 정보를 산출하는 단계; 및 상기 최종 거리 정보를 반영하여 상기 제2 출력값을 갱신하는 단계;를 포함한다. The first distance information is selected from a plurality of categories each having a distance range, the second distance information is expressed as a distance value, and the updating of the second output value includes: the second distance information is the first distance information determining an error based on whether it is included in a distance range of ; calculating the final distance information based on the error; and updating the second output value by reflecting the final distance information.

본 발명에서, 이미지 센서에 의하여 습득된 이미지의 분석은 인공신경망을 이용하여 수행될 수 있다. 인공신경망이란 인간의 신경망 구조를 본떠 만든 알고리즘의 일종으로, 하나 이상의 노드 또는 뉴런(neuron)을 포함하는 하나 이상의 레이어를 포함할 수 있고 각각의 노드는 시냅스(synapse)를 통해 연결될 수 있다. 인공신경망에 입력된 데이터(입력 데이터)는 시냅스를 통해 노드를 거쳐 출력(출력 데이터)될 수 있고, 이를 통해 정보를 획득할 수 있다.In the present invention, the analysis of the image acquired by the image sensor may be performed using an artificial neural network. An artificial neural network is a kind of algorithm modeled after the structure of a human neural network, and may include one or more nodes or one or more layers including neurons, and each node may be connected through a synapse. Data input to the artificial neural network (input data) may be output (output data) through a node through a synapse, and information may be obtained through this.

인공신경망의 종류로는 필터를 이용해 특징을 추출하는 합성곱신경망(convolution neural network, CNN) 및 노드의 출력이 다시 입력으로 피드백되는 구조를 갖는 순환인공신경망(recurrent neural network, RNN)이 있고, 이 외에도 제한된 볼츠만 머신(restricted Boltzmann machine, RBM), 심층신뢰신경망(deep belief network, DBN), 생성대립신경망(generative adversarial network, GAN), 관계형 네트워크(relation networks, RN) 등 다양한 종류가 존재한다.Types of artificial neural networks include a convolutional neural network (CNN) that extracts features using filters, and a recurrent neural network (RNN) that has a structure in which the output of a node is fed back as an input. In addition, there are various types such as restricted Boltzmann machine (RBM), deep belief network (DBN), generative adversarial network (GAN), relational network (RN), etc.

인공신경망을 이용하기 전에 학습시키는 단계가 필요하다. 또는, 인공신경망을 이용하며 학습시킬 수 있다. 이하에서는 인공신경망을 학습시키는 단계를 학습 단계, 이용하는 단계를 추론 단계로 표현하기로 한다.Before using the artificial neural network, it is necessary to train it. Alternatively, it can be trained using an artificial neural network. Hereinafter, the step of learning the artificial neural network will be expressed as a learning step, and the step of using the artificial neural network will be expressed as an inference step.

인공신경망의 학습 방법은 지도 학습(supervised learning), 비지도 학습(unsupervised learning), 강화 학습(reinforcement learning), 모방 학습(imitation learning) 등 다양한 방법이 존재한다. 여기서, 강화 학습은 마코프 결정 과정(Markov decision process)으로 표현될 수 있다. 또는, 강화 학습은 어떤 환경에서 에이전트가 보상이 최대화되도록 행동하는 방법을 의미할 수 있다.As a learning method of an artificial neural network, there are various methods such as supervised learning, unsupervised learning, reinforcement learning, and imitation learning. Here, reinforcement learning may be expressed as a Markov decision process. Alternatively, reinforcement learning may refer to how an agent behaves in an environment to maximize a reward.

선박의 운항을 위하여는 주변 환경의 감지를 통해 장애물 및/또는 운항 가능 영역을 파악하여야 하고 이는 자율 운항의 경우에도 마찬가지이다. 여기서, 장애물은 지형, 건물, 선박, 부표, 사람 등 운항 시 장애가 될 수 있는 모든 물체를 의미한다. 또한, 주변 환경을 감지한다는 것은 장애물을 감지하는 것뿐만 아니라, 그 외에도 선박 주위의 상황에 대한 정보를 획득하는 것을 포함하는 포괄적인 의미이다. 장애물을 감지한다는 것은 장애물의 유무, 종류, 위치 등에 대한 정보를 획득하는 것을 포함한다.In order to operate a vessel, obstacles and/or operable areas must be identified through sensing of the surrounding environment, and this is also the case for autonomous navigation. Here, the obstacle means any object that may become an obstacle during operation, such as terrain, buildings, ships, buoys, and people. In addition, sensing the surrounding environment is a comprehensive meaning that includes not only sensing an obstacle, but also acquiring information about the situation around the vessel. Detecting an obstacle includes acquiring information about the presence, type, location, and the like of the obstacle.

이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 특허청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다. In the above, preferred embodiments of the present invention have been illustrated and described, but the present invention is not limited to the specific embodiments described above, and in the technical field to which the present invention pertains without departing from the gist of the present invention as claimed in the claims. Various modifications may be made by those of ordinary skill in the art, and these modifications should not be individually understood from the technical spirit or perspective of the present invention.

Claims (2)

컴퓨팅 수단에 의해 수행되는 인공신경망을 이용한 수상 이동체의 어라운드뷰 시스템에 있어서,
선박에 설치된 카메라에 의해 운항 가능 영역 및 장애물을 포함하는 해상 이미지를 획득하는 단계;
이미지 세그멘테이션을 수행하는 인공신경망에 상기 해상 이미지를 입력하여 출력 데이터를 출력하는 단계;
상기 제2 픽셀의 상기 해상 이미지상에서의 위치 및 상기 카메라의 자세 정보에 기초하여 상기 제2 픽셀의 제2 거리 정보를 획득하는 단계; 및
상기 제1 거리 정보 및 상기 제2 거리 정보에 기초하여 산출된 최종 거리 정보를 반영하여 상기 제2 출력값을 갱신하는 단계;를 포함하는 수상 이동체의 어라운드뷰 시스템.
In the around-view system of the floating body using an artificial neural network performed by a computing means,
acquiring a sea image including a navigable area and obstacles by a camera installed on a ship;
outputting output data by inputting the resolution image to an artificial neural network that performs image segmentation;
obtaining second distance information of the second pixel based on a position of the second pixel on the sea image and posture information of the camera; and
and updating the second output value by reflecting the final distance information calculated based on the first distance information and the second distance information.
제 1 항에 있어서,
상기 제1 거리 정보는 각각 거리 범위를 갖는 복수의 카테고리 중에서 선택되고 상기 제2 거리 정보는 거리값으로 표현되며,
상기 제2 출력값을 갱신하는 단계는,
상기 제2 거리 정보가 상기 제1 거리 정보의 거리 범위에 포함되는지에 기초하여 에러를 판단하는 단계;
상기 에러 여부에 기초하여 상기 최종 거리 정보를 산출하는 단계; 및
상기 최종 거리 정보를 반영하여 상기 제2 출력값을 갱신하는 단계;를 포함하는 수상 이동체의 어라운드뷰 시스템.
The method of claim 1,
The first distance information is selected from a plurality of categories each having a distance range, and the second distance information is expressed as a distance value,
Updating the second output value includes:
determining an error based on whether the second distance information is included in a distance range of the first distance information;
calculating the final distance information based on the error; and
and updating the second output value by reflecting the final distance information.
KR1020210051601A 2021-04-21 2021-04-21 Around-view system for floating objects KR20220145016A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210051601A KR20220145016A (en) 2021-04-21 2021-04-21 Around-view system for floating objects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210051601A KR20220145016A (en) 2021-04-21 2021-04-21 Around-view system for floating objects

Publications (1)

Publication Number Publication Date
KR20220145016A true KR20220145016A (en) 2022-10-28

Family

ID=83835435

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210051601A KR20220145016A (en) 2021-04-21 2021-04-21 Around-view system for floating objects

Country Status (1)

Country Link
KR (1) KR20220145016A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20240176354A1 (en) * 2022-11-30 2024-05-30 Total Soft Bank Ltd. In-port object occupied space recognition apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20240176354A1 (en) * 2022-11-30 2024-05-30 Total Soft Bank Ltd. In-port object occupied space recognition apparatus

Similar Documents

Publication Publication Date Title
US11016495B2 (en) Method and system for end-to-end learning of control commands for autonomous vehicle
US10558897B2 (en) Context-based digital signal processing
KR102625488B1 (en) Control devices and control methods, programs, and moving objects
CN113442936A (en) Method and apparatus for detecting object and calculating contact time in autonomous driving system
US11931906B2 (en) Mobile robot device and method for providing service to user
US20200364471A1 (en) Electronic device and method for assisting with driving of vehicle
US11964671B2 (en) System and method for improving interaction of a plurality of autonomous vehicles with a driving environment including said vehicles
WO2020226085A1 (en) Information processing device, information processing method, and program
JP2023126642A (en) Information processing device, information processing method, and information processing system
WO2021090897A1 (en) Information processing device, information processing method, and information processing program
US20210146957A1 (en) Apparatus and method for controlling drive of autonomous vehicle
US11640675B2 (en) Methods and systems for interpreting traffic scenes
KR20210057886A (en) Apparatus and method for preventing vehicle collision
KR102607390B1 (en) Checking method for surrounding condition of vehicle
KR20220145016A (en) Around-view system for floating objects
US20220058428A1 (en) Information processing apparatus, information processing method, program, mobile-object control apparatus, and mobile object
KR20240080189A (en) Distance measurement method and distance measurement device using the same
US11899750B2 (en) Quantile neural network
KR20220145017A (en) method of detecting around a ship using an image
US20240071122A1 (en) Object recognition method and time-of-flight object recognition circuitry
WO2021193103A1 (en) Information processing device, information processing method, and program
WO2022004333A1 (en) Information processing device, information processing system, information processing method, and program
US20210110218A1 (en) Environment sensing method and device, control method and device, and vehicle
KR102670260B1 (en) Distance measurement method and distance measurement device using the same
US20230230257A1 (en) Systems and methods for improved three-dimensional data association using information from two-dimensional images