KR20230000568A - Underwater living thing monitoring device and method using Virtual Reality - Google Patents

Underwater living thing monitoring device and method using Virtual Reality Download PDF

Info

Publication number
KR20230000568A
KR20230000568A KR1020210082816A KR20210082816A KR20230000568A KR 20230000568 A KR20230000568 A KR 20230000568A KR 1020210082816 A KR1020210082816 A KR 1020210082816A KR 20210082816 A KR20210082816 A KR 20210082816A KR 20230000568 A KR20230000568 A KR 20230000568A
Authority
KR
South Korea
Prior art keywords
underwater
information
aquatic
image
camera
Prior art date
Application number
KR1020210082816A
Other languages
Korean (ko)
Other versions
KR102541215B1 (en
Inventor
김기주
Original Assignee
동명대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동명대학교산학협력단 filed Critical 동명대학교산학협력단
Priority to KR1020210082816A priority Critical patent/KR102541215B1/en
Publication of KR20230000568A publication Critical patent/KR20230000568A/en
Application granted granted Critical
Publication of KR102541215B1 publication Critical patent/KR102541215B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/22Indexing; Data structures therefor; Storage structures
    • G06F16/2228Indexing structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/71Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/732Query formulation
    • G06F16/7328Query by example, e.g. a complete video frame or video sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/787Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video

Abstract

Disclosed are an underwater living thing monitoring device and method using a virtual reality (VR) image. According to the present invention, the underwater monitoring device using a VR image comprises: a position acquisition unit acquiring identification information and position information of each underwater living thing from a tracking device attached to an underwater robot; a control unit acquiring an underwater image photographed by a rotatably installed camera and a rotation angle of the camera; an analysis unit analyzing the image based on the position information and the control information, and extracting identification information corresponding to an individual shown on the underwater image; a management unit searching for the information on the underwater living thing corresponding to the identification information extracted from an underwater database; and an output unit generating a VR image showing the searched image information on the underwater image, and providing the VR image to a user terminal. Therefore, the accuracy and reliability of analysis can be improved.

Description

VR 영상을 이용한 수중생물 모니터링 장치와 방법{Underwater living thing monitoring device and method using Virtual Reality}Underwater living thing monitoring device and method using Virtual Reality

본 발명은 VR 영상을 이용한 수중생물 모니터링 장치와 방법에 관한 것으로 더욱 자세하게는, VR(Virtual Reality: 가상현실)을 활용하여 개인이 수중 환경을 현장감 있게 관측 가능하도록 하는 VR 영상을 이용한 수중생물 모니터링 장치와 방법에 관한 것이다. 본 성과물은 부산광역시의 대학혁신연구단지조성사업 중 “동명대학교 대학혁신연구단지조성사업”지원으로 수행되었다. The present invention relates to an apparatus and method for monitoring aquatic organisms using VR images, and more particularly, to a device for monitoring aquatic organisms using VR images, which utilizes VR (Virtual Reality) to enable an individual to realistically observe an aquatic environment. and how. This achievement was carried out with the support of “Tongmyong University University Innovation Research Complex Creation Project” among the university innovation research complex development projects of Busan Metropolitan City.

최근 들어 육상 자원의 고갈, 인구의 밀집화 등을 해결하기 위하여 해양에 대한 개발이 가속화되면서 해양 플랜트, 해상 교량, 해저 터널 등의 수중 건축물들이 건설되고 있다. 이에 따라, 수중에 서식하고 있는 수중생물을 환경을 모니터링(monitoring)하기 위한 기술의 수요도 증가하고 있다.Recently, as the development of the ocean is accelerated in order to solve the depletion of land resources, population density, etc., underwater structures such as marine plants, bridges, and undersea tunnels are being built. Accordingly, the demand for technology for monitoring the environment of aquatic organisms living in the water is also increasing.

이러한 수중 모니터링을 위하여, 종래에는 잠수부가 잠수하여 수중생물의 영상을 직접 촬영 및 직접 검사하는 방식이 활용되었다.For such underwater monitoring, a method in which a diver submerged and directly photographed and directly inspected an image of an aquatic organism was conventionally used.

하지만, 이러한 종래의 수중영상을 촬영한 모니터링 방식은 인명 사고의 위험이 따를 뿐 아니라, 잠수부, 기상, 바다 등의 상태에 영향을 받으므로, 영상 취득 시간 및 범위에 한계가 있었다. 또한, 수중 환경 분석 전문가가 현장감이 떨어지는 2차원 영상을 토대로 수중 환경을 분석해야 하므로, 그 분석 결과의 정확성이 떨어질 수 밖에 없는 문제점이 있었다. However, this conventional monitoring method for capturing underwater images not only carries the risk of human accidents, but also has limitations in image acquisition time and range because it is affected by conditions such as divers, weather, and the sea. In addition, since an expert in underwater environment analysis needs to analyze the underwater environment based on a two-dimensional image having a low sense of realism, there is a problem in that the accuracy of the analysis result is inevitably lowered.

더 나아가, 종래의 수중생물 등의 모니터링 방식은 수중 환경 분석 전문가가 현장감이 떨어지는 2차원 영상을 토대로 수중 환경을 분석해야 하므로, 그 분석 결과의 정확성이 떨어질 수 밖에 없는 문제점이 있었다.Furthermore, in the conventional method of monitoring aquatic life, etc., since an aquatic environment analysis expert must analyze the aquatic environment based on a two-dimensional image with a low sense of realism, there is a problem in that the accuracy of the analysis result is inevitably reduced.

따라서, 수중 환경에서의 위치 인식 등에 필요한 정보를 얻기 위하여, 수중의 영상 정보를 활용한 수중 물체의 탐색을 비롯하여, 가상 현실을 이용한 수중생물의 모니터링에 관한 다양한 연구가 수행되어 왔다. Therefore, in order to obtain information necessary for location recognition in an underwater environment, various studies have been conducted on monitoring of aquatic organisms using virtual reality, including searching for underwater objects using underwater image information.

상기 가상현실(VR: Virtual Reality)이란, 원하는 특정한 환경이나 상황을 컴퓨터 등과 같은 정보처리장치로 만들어, 사용자가 마치 실제 주변 상황 및 환경과 상호 작용을 하고 있는 것처럼 느끼도록 만드는 인간과 컴퓨터 사이의 인터페이스를 말한다. 사용자가 가상현실을 통해 실재감을 느끼기 위해서는 시각, 청각, 촉각 등 사용자의 오감을 통해 획득되는 정보를 제공해야 한다. 따라서, 상기 가상현실(VR)을 응용한 모니터링 방법도 점점 부각되어 가고 있다. The virtual reality (VR) is an interface between a human and a computer that creates a desired specific environment or situation with an information processing device such as a computer and makes the user feel as if they are interacting with the actual surrounding situation and environment. says In order for the user to feel a sense of reality through virtual reality, information acquired through the user's five senses, such as sight, hearing, and touch, must be provided. Therefore, a monitoring method applying the virtual reality (VR) is also gradually emerging.

이러한 기능을 갖고 있는 가상현실을 이용하여, 수중 환경으로 인한 직, 간접적인 영향을 최대한 줄이기 위하여 종래 기술보다 현재의 수중생물을 모니터링할수 있는 수중환경 상태를 더욱 정확히 파악하는 것이 가능하고, 분석 데이터를 쉽게 이해하고 결과를 효율적으로 활용할수 있는 감지 시스템 또는 모니터링 시스템 및 방법의 개발이 요구되어 왔다.Using virtual reality with these functions, it is possible to more accurately grasp the state of the aquatic environment that can monitor current aquatic organisms than the prior art in order to minimize direct and indirect effects caused by the aquatic environment, and analyze data. The development of a detection system or monitoring system and method that can be easily understood and efficiently utilized results has been required.

대한민국 특허공개 제2012-0075899호Korean Patent Publication No. 2012-0075899 대한민국 특허공개 제2018-0137916호Korean Patent Publication No. 2018-0137916 대한민국 특허공개 제2020-0009852호Korean Patent Publication No. 2020-0009852

따라서, 본 발명은 카메라 등과 같은 영상 촬영 장치를 이용하여 다수의 수중 영상을 사용자 단말을 통한 영상 정보에 의거하여 VR(가상현실) 영상으로 수중생물을 모니터링 시도하려는 당사자에게 제공하여 줌으로써, 가상현실을 도입하여 수중의 현실감을 더욱 증대시킬 수 있는 VR 영상을 이용한 수중생물의 모니터링 장치와 방법을 제공하는데 그 목적이 있다. Therefore, the present invention uses a video recording device such as a camera to provide a plurality of underwater images to a person who intends to monitor aquatic life with VR (virtual reality) images based on image information through a user terminal, thereby creating virtual reality. An object of the present invention is to provide a device and method for monitoring aquatic organisms using VR images that can further increase the sense of reality underwater by introducing the present invention.

이러한 문제를 해결하기 위하여 본 발명은 VR 영상을 이용한 수중 모니터링 장치에 있어서, 수중로봇에 부착된 추적 장치로부터 수중생물 각각의 식별 정보 및 위치 정보를 획득하는 위치 획득부와 회전 가능하게 설치된 카메라에 의해 촬영된 수중 영상 및 상기 카메라의 회전각에 관한 제어 정보를 획득하는 제어부와 상기 위치 정보 및 상기 제어 정보에 기초한 영상 분석을 통해 상기 수중 영상에 나타난 개체에 대응되는 식별정보를 추출하는 분석부와 수중 데이터베이스로부터 상기 추출된 식별 정보에 대응되는 수중생물에 관한 정보를 검색하는 관리부와 상기 수중 데이터베이스에 내장된 생물종 DB를 탐색하여, 상기 수중생물의 생물종을 특정하는 분석자료를 생성하는 수중생물 정보처리부 및 상기 수중 영상에 상기 검색된 영상 정보를 나타낸 가상현실 영상을 생성하고, 상기 가상현실 영상을 사용자 단말에 제공하는 출력부를 포함하는 것을 특징으로 하는 것이다.In order to solve this problem, the present invention is an underwater monitoring device using VR images, by a location acquisition unit that obtains identification information and location information of each aquatic creature from a tracking device attached to an underwater robot and a rotatably installed camera. A control unit that obtains the captured underwater image and control information on the rotation angle of the camera, and an analysis unit that extracts identification information corresponding to an object appearing in the underwater image through image analysis based on the location information and the control information. A management unit that retrieves information about aquatic organisms corresponding to the extracted identification information from a database, and aquatic organism information that searches a species DB embedded in the aquatic database to generate analysis data specifying the species of the aquatic organisms. It is characterized in that it comprises a processor and an output unit for generating a virtual reality image representing the searched image information in the underwater image and providing the virtual reality image to a user terminal.

또한, 상기 수중 데이터베이스는 수중생물의 종 및 속 정보들이 저장된 생물종 DB, 모니터링하려는 영역에 해당하는 수중의 지도를 제공하는 지도 DB, 특정된 생물종들의 분석 자료가 맵핑된 수중 지도 정보가 저장되는 수중 관측 DB, 외부의 기상 서버로부터 수집한 기상 자료 및 수중 관측 자료들이 저장되는 기상 DB 포함하는 것을 특징으로 하는 것이다.In addition, the underwater database includes a species DB in which species and genus information of aquatic organisms is stored, a map DB providing an underwater map corresponding to an area to be monitored, and underwater map information in which analysis data of specific species is mapped is stored. It is characterized in that it includes an underwater observation DB, weather data collected from an external weather server, and a weather DB in which underwater observation data are stored.

또한, 상기 제어부는 사용자의 조작에 따른 방향으로 상기 카메라가 회전하도록 제어 신호를 상기 카메라에 전송하는 것을 특징으로 하는 것이다.The control unit may transmit a control signal to the camera so that the camera rotates in a direction according to a user's manipulation.

그리고, 상기 관리부는 사용자가 자체적으로 상기 사용자단말로부터 입력받은 상기 수중생물의 정보를 추가 입력하거나 기입력된 상기 수중생물의 정보를 수정하는 것을 특징으로 하는 것을 특징으로 하는 것이다. And, the management unit is characterized in that the user himself additionally inputs the information on the aquatic organisms input from the user terminal or corrects the previously input information on the aquatic organisms.

따라서, 본 발명의 VR 영상을 이용한 수중생물 모니터링 장치와 방법은 카메라 등과 같은 영상 촬영 장치를 이용하여 획득한 수중영상을 VR영상으로 생성시켜서 직접 사용자에게 제공하여 수중생물을 모니터링을 하도록 하여 수중영상에 대한 현장감을 증대시킬 수 있으며, 이에 따라 VR영상을 토대로 수중 환경을 분석할 경우에 있어 분석의 정확성과 그 신뢰성을 높일 수 있는 효과가 있는 것이다. Therefore, the apparatus and method for monitoring aquatic organisms using VR images of the present invention generate VR images obtained by using an image capturing device such as a camera and provide them directly to a user to monitor aquatic organisms, thereby monitoring aquatic organisms. It is possible to increase the sense of realism, and accordingly, in the case of analyzing the underwater environment based on the VR image, there is an effect of increasing the accuracy and reliability of the analysis.

도 1은 본 발명의 실시예에 따른 가상현실을 이용한 수중생물 모니터링 장치의 개략적인 구성도.
도 2는 은 본 발명의 실시예에 따른 가상현실을 이용한 수중생물 모니터링 장치의 블록도.
도 3은 본 발명의 실시예에 따라 원격으로 카메라의 방향을 조작하기 위하여 사용자 단말에 제공되는 인터페이스를 도시한 도면.
도 4는 본 발명의 실시예에 따라 사용자 단말에 제공되는 가상현실 영상을 도시한 도면.
도 5는 수중 데이터베이스와 수중생물 정보처리부와의 관계와 구성요소를 나타내는 블록도.
도 6은 수중 데이터베이스와 수중생물 정보 처리부를 이용하여 수중생물을 분석하는 절차를 나타내는 흐름도.
도 7은 고장진단시스템의 블록도.
도 8은 고장진단시스템의 동작을 도시한 절차 흐름도.
1 is a schematic configuration diagram of an aquatic life monitoring device using virtual reality according to an embodiment of the present invention.
2 is a block diagram of an aquatic life monitoring device using virtual reality according to an embodiment of the present invention.
3 is a diagram illustrating an interface provided to a user terminal to remotely manipulate the direction of a camera according to an embodiment of the present invention.
4 is a diagram illustrating a virtual reality image provided to a user terminal according to an embodiment of the present invention.
5 is a block diagram showing the relationship and components between an aquatic database and an aquatic organism information processing unit;
6 is a flowchart illustrating a procedure for analyzing aquatic organisms using an aquatic database and an aquatic organism information processing unit;
7 is a block diagram of a failure diagnosis system;
8 is a process flow diagram illustrating the operation of the fault diagnosis system;

이하에서는 본 발명의 양호한 실시예를 첨부된 도면을 참조하여 상세히 설명한다. 우선 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시가 되더라도 가능한 한 동일 부호를 가지도록 하고 있음에 유의하여야 한다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. First of all, in adding reference numerals to components of each drawing, it should be noted that the same components have the same numerals as much as possible even if they are displayed on different drawings.

또한, 하기에서 본 발명을 설명함에 있어 관련된 공지기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. In addition, in the following description of the present invention, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description will be omitted.

또한, 본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위하여 사용된 것에 불과하므로, 본 발명을 한정하려는 의도가 아니며 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현도 의미하는 것임을 미리 밝혀두고자 한다. In addition, since the terms used in this application are only used to describe specific embodiments, it is not intended to limit the present invention, and it is clear in advance that a singular expression also means a plurality of expressions unless the context clearly indicates otherwise. want to leave

먼저, 본 명세서에 등장하는 용어인 가상현실(VR)에 대한 설명을 하기로 한다. 상기 가상현실(VR)이란 특수한 장치를 사용하여 인간의 시각, 청각 등 감각을 통하여 컴퓨터의 소프트웨어 프로그램 내부에서 가능한 것을 현실인 것처럼 유사 체험하도록 하는 유저 인터페이스 기술이다. 이와 같이 만들어진 가상 환경이나 상황 등은 사용자의 오감(五感)을 자극하며 실제와 유사한 공간적, 시간적 체험을 하게함으로, 현실과 상상의 경계를 자유롭게 드나들게 한다. 또한, 사용자는 가상현실에 단순한 몰입 뿐만 아니라 실재하는 디바이스를 이용해 조작이나 명령을 가하는 등 가상현실 내에 구현된 것들과의 상호 작용이 가능한 것이다.First, a description of virtual reality (VR), which is a term appearing in this specification, will be given. The virtual reality (VR) is a user interface technology that uses a special device to simulate what is possible inside a software program of a computer through human senses, such as sight and hearing, as if it were reality. The virtual environment or situation created in this way stimulates the user's five senses and provides a spatial and temporal experience similar to the real one, allowing the user to freely move in and out of the boundary between reality and imagination. In addition, the user can not only be immersed in virtual reality, but also interact with things implemented in virtual reality, such as manipulating or giving commands using real devices.

도 1은 본 발명의 실시예에 따른 가상현실을 이용한 수중 모니터링 장치의 개략적인 구성도이고, 도 2는 은 본 발명의 실시예에 따른 가상현실을 이용한 수중 모니터링 장치의 블록도이고, 도 3은 본 발명의 실시예에 따라 원격으로 카메라의 방향을 조작하기 위하여 사용자 단말에 제공되는 인터페이스를 도시한 도면이고, 도 4는 본 발명의 실시예에 따라 사용자 단말에 제공되는 가상현실 영상을 도시한 도면이고, 도 5는 수중 데이터베이스와 수중생물 정보처리부와의 관계와 구성요소를 나타내는 블록도이고, 도 6은 수중 데이터베이스와 수중생물 정보처리부를 이용하여 수중생물을 분석하는 절차를 나타내는 흐름도이고,도 7은 고장진단시스템의 블록도이고, 도 8은 고장진단시스템의 동작을 도시한 절차 흐름도이다. 1 is a schematic configuration diagram of an underwater monitoring device using virtual reality according to an embodiment of the present invention, FIG. 2 is a block diagram of an underwater monitoring device using virtual reality according to an embodiment of the present invention, and FIG. 3 is It is a diagram showing an interface provided to a user terminal to remotely manipulate the direction of a camera according to an embodiment of the present invention, and FIG. 4 is a diagram showing a virtual reality image provided to a user terminal according to an embodiment of the present invention. 5 is a block diagram showing the relationship and components between the aquatic database and the aquatic organism information processing unit, and FIG. 6 is a flowchart illustrating a procedure for analyzing aquatic organisms using the aquatic database and aquatic organism information processing unit, and FIG. 7 is a block diagram of the fault diagnosis system, and FIG. 8 is a flowchart illustrating the operation of the fault diagnosis system.

도 1은 본 발명의 실시예에 따른 가상현실을 이용한 수중생물 모니터링 장치의 개략적인 구성도이다. 1 is a schematic configuration diagram of an aquatic life monitoring device using virtual reality according to an embodiment of the present invention.

도시된 바와 같이, 추적 장치(10) 및 카메라(20)는 수중 내에서 수중 로봇(2)에 부착되며, GPS 위성(도시는 생략)과 통신하는 상기 추적 장치(10)는 좌표가 부착되며, 위치 정보를 수신하는 기능을 가진다. 수중을 촬영하는 카메라(20)는 수중생물에 대한 영상정보 획득을 위한 사진촬영 앱이 탑재될 수 있다. As shown, the tracking device 10 and the camera 20 are attached to the underwater robot 2 underwater, and the tracking device 10 communicating with GPS satellites (not shown) is coordinated, It has a function of receiving location information. The camera 20 for taking pictures of underwater may be equipped with a picture-taking app for obtaining image information on aquatic organisms.

또한, 상기 추적 장치(10)는 수중에서 발견하는 수중 물체를 다른 수중물체와 식별하기 위한 고유의 식별 정보를 저장할 수 있다. In addition, the tracking device 10 may store unique identification information for identifying underwater objects found underwater with other underwater objects.

상기 추적 장치(10)는 위치 획득부(110; 도 2 참조)와 연결되며, 상기 위치 획득부(110)의 요청에 따라 수중생물 각각의 위치정보 및 식별 정보를 위치 획득부(110)로 전송할 수 있다. The tracking device 10 is connected to the location acquisition unit 110 (see FIG. 2), and transmits location information and identification information of each aquatic organism to the location acquisition unit 110 according to the request of the location acquisition unit 110. can

카메라(20)는 일반적으로 사용되는 영상을 획득하는 장치를 의미하며, 수중 내의 수중 내부의 현상이나 상태를 촬영할 수 있도록 하고, 회전 가능하게 설치될 수 있다. 더 나아가, 상기 카메라(20)는 카메라에 국한되지 아니하고 소나 스캐너일수도 있다. 또한, 카메라(20)는 수중을 이동하는 대상물(도시는 생략)에 설치될수도 있으며, 수중 로봇(2)에 부착하는 수중 소형 카메라 형태로 수중 사진 또는 영상을 촬영한다.The camera 20 refers to a device that obtains a generally used image, enables photography of an underwater phenomenon or state in the water, and may be rotatably installed. Furthermore, the camera 20 is not limited to a camera and may be a sonar or a scanner. In addition, the camera 20 may be installed on an object (not shown) that moves underwater, and takes underwater pictures or videos in the form of a small underwater camera attached to the underwater robot 2.

또한, 상기 카메라(20)가 수중 내 특정 방향을 향하고 있을 때, 이 때의 카메라(30)의 회전각에 대한 제어 정보가 카메라(20)에 저장될 수 있다. 상기 카메라(20)는 제어부(120)와 연결된다. In addition, when the camera 20 is facing a specific direction in the water, control information about the rotation angle of the camera 30 at this time may be stored in the camera 20 . The camera 20 is connected to the controller 120.

다시 도 1을 설명하면, 일정한 영역의 수중 공간을 수중로봇(2)에 부착되어 있는 카메라(20)를 통한 영상을 확보하여 이를 제어부(120)로 전송하고, 수중생물 정보처리부(50)를 통하여 상기 영역에 서식하는 수중생물의 정보를 취득하여 제어부(120)에 전달하면, 상기 제어부(120)는 이를 사용자 단말(40)에 전달하여 이를 디스플레이하게 하고, 출력부(150)에 제어신호를 인가한다. 상기 출력부(150)는 상기 수중 영상에 검색된 영상정보를 나타낸 가상현실 영상을 생성하여, 상기 가상현실 영상을 역시 사용자 단말(40)에 전달한다. Referring to FIG. 1 again, an image of a certain area of underwater space through the camera 20 attached to the underwater robot 2 is obtained, transmitted to the controller 120, and through the aquatic creature information processing unit 50. When information on aquatic organisms living in the area is acquired and transmitted to the controller 120, the controller 120 transmits it to the user terminal 40 to display it, and applies a control signal to the output unit 150. do. The output unit 150 generates a virtual reality image representing the image information retrieved from the underwater image, and transmits the virtual reality image to the user terminal 40 as well.

도 2는 은 본 발명의 실시예에 따른 가상현실을 이용한 수중생물 모니터링 장치(100)의 전체적인 블록도이다. 2 is an overall block diagram of an aquatic life monitoring device 100 using virtual reality according to an embodiment of the present invention.

도시된 대로, 본 발명에 의한 가상현실(Virtual Reality) 기반의 수중 모니터링 장치(100)는 위치 획득부(110), 제어부(120), 분석부(130), 관리부(140) 및 출력부(150)를 포함할 수 있다. 또한, 본 발명의 가상현실(VR)을 이용한 수중생물 모니터링 장치(100)는 수중로봇(2)의 추적장치(10)와 카메라(20) 그리고, 수중 데이터베이스(30) 및 사용자 단말(40)과 연동할 수 있다. As shown, the virtual reality-based underwater monitoring device 100 according to the present invention includes a location acquisition unit 110, a control unit 120, an analysis unit 130, a management unit 140, and an output unit 150. ) may be included. In addition, the aquatic life monitoring device 100 using virtual reality (VR) of the present invention includes the tracking device 10 and the camera 20 of the underwater robot 2, the underwater database 30 and the user terminal 40 can link up

수중 데이터베이스(30)는 수중에서 서식하는 수중생물 각각에 대한 정보를 수집 및 저장하는 기능을 수행한다. 구체적으로, 상기 정보는 수중생물의 상태, 수중생물의 종류, 수중생물의 특징 등의 정보를 포함할 수 있다. 도시된 대로, 상기 수중 데이터베이스(30)는 관리부(140)와도 연결된다. The underwater database 30 performs a function of collecting and storing information on each aquatic organism living in the water. Specifically, the information may include information such as the state of aquatic organisms, types of aquatic organisms, and characteristics of aquatic organisms. As shown, the underwater database 30 is also connected to the management unit 140.

사용자 단말(40)은 사용자의 키 조작에 따라 네트워크(미도시)를 경유하여 각종 데이터, 제어신호 등을 송수신할 수 있고, 데이터의 처리 결과를 디스플레이할 수 있는 디바이스를 의미하며 일반 PC, 랩톱(Laptop), 태블릿 PC(Tablet PC), 스마트 폰, 개인 휴대용 정보 단말기(PDA: Personal Digital Assistant) 및 이동통신 단말기 중 어느 하나인데, 이에 한정되지는 않는다. The user terminal 40 refers to a device capable of transmitting and receiving various data, control signals, etc. via a network (not shown) according to a user's key manipulation, and displaying the processing result of data, and is a general PC, laptop ( laptop), tablet PC (Tablet PC), smart phone, personal digital assistant (PDA: Personal Digital Assistant), and any one of mobile communication terminals, but is not limited thereto.

또한, 상기 사용자 단말(40)은 본 발명의 출력부(150)와도 연결되어 출력부(150)로부터 수신한 가상현실(VR) 영상을 디스플레이하는 역할도 한다. In addition, the user terminal 40 is also connected to the output unit 150 of the present invention and also serves to display the virtual reality (VR) image received from the output unit 150.

이하에서는, 본 발명의 가상현실(VR)을 이용한 수중생물 모니터링 장치(100)의 주요 구성에 대한 설명을 하기로 한다. Hereinafter, the main components of the aquatic life monitoring device 100 using virtual reality (VR) of the present invention will be described.

본 발명의 위치 획득부(110)는 수중 내 수중 로봇(2)에 부착된 추적장치(10)와 연동하며, 상기 추적장치(10)로부터 수중의 영상 정보 및 위치 정보를 획득하는 기능을 수행한다. 예를 들어, 수중 내에서 추적장치(10)는 식별번호(예: 'A00010') 및 GPS 위성(도시는 생략)과 통신하여 수신한 좌표 정보를 저장할 수 있다. The location acquisition unit 110 of the present invention works in conjunction with the tracking device 10 attached to the underwater robot 2 in the water, and performs a function of obtaining underwater image information and location information from the tracking device 10. . For example, in the water, the tracking device 10 may store coordinate information received by communicating with an identification number (eg, 'A00010') and a GPS satellite (not shown).

이처럼, 본 발명의 위치 획득부(110)는 수중 로봇(2)에 부착된 추적장치(10)로부터 해당 수중생물들의 상태와 같은 생태 정보와 위치 정보를 수신할 수 있다.As such, the location acquisition unit 110 of the present invention may receive ecological information and location information such as states of corresponding aquatic organisms from the tracking device 10 attached to the underwater robot 2 .

이와 같이, 수중 로봇(2) 등에 부착하여 수중의 상태를 외부로 전달하는 방식으로서, 실시간 외부 모니터링을 할 수 있도록 하는 것이다.As such, it is attached to the underwater robot 2 and the like to transmit the underwater state to the outside, enabling real-time external monitoring.

더 나아가, 본 발명의 제어부(120)는 카메라(20)와 연결, 연동하여 상기 카메라(20)에 의하여 촬영된 수중 영상을 수신할 수 있다. Furthermore, the control unit 120 of the present invention may receive an underwater image captured by the camera 20 by connecting to and interlocking with the camera 20 .

또한, 전술한 바와 같이, 카메라(20)는 수중 내에서 회전 가능하게 설치되며 이때, 카메라(20)의 회전각에 대한 제어 정보를 저장할 수 있는데, 제어부(120)는 카메라(20)로부터 수중 영상 및 상기 카메라(20)의 회전각에 관한 제어 정보를 수신하여 후술할 출력부(150)에 제어신호를 인가한다. In addition, as described above, the camera 20 is installed to be rotatable in the water, and at this time, control information on the rotation angle of the camera 20 may be stored, and the controller 120 controls the underwater image from the camera 20. And it receives control information about the rotation angle of the camera 20 and applies a control signal to the output unit 150 to be described later.

본 발명의 실시예에 따르면, 제어부(120)는 카메라(20)가 임의의 방향을 향하도록 회전 방향을 제어하는 제어신호를 카메라(20)에 전송하여 영상을 사용자 단말(40)로 전송할 수 있다. 또한, 도 3에 나타났듯이 사용자는 사용자 단말(40)에 표시된 영상 화면(미도시) 상에서 상, 하, 좌, 우 중 어느 하나의 방향을 터치하는 등의 방법으로 영상의 이동 방향 및 크기를 조작할 수 있다. According to an embodiment of the present invention, the control unit 120 may transmit a control signal to the camera 20 for controlling the rotation direction so that the camera 20 faces an arbitrary direction, thereby transmitting an image to the user terminal 40. . In addition, as shown in FIG. 3, the user can change the moving direction and size of the image by touching one of the directions of up, down, left, and right on the video screen (not shown) displayed on the user terminal 40. can be manipulated

제어부(120)는 사용자 단말(40)에 의하여 입력된 입력 신호에 기초하여 사용자의 조작에 따른 방향으로 카메라(20)가 회전할 수 있도록 카메라(20)에 제어 신호를 전송할 수 있다. The controller 120 may transmit a control signal to the camera 20 to rotate the camera 20 in a direction according to a user's manipulation based on an input signal input by the user terminal 40 .

또 다른 예에서, 제어부(120)는 카메라(20)가 특정한 방향을 향하도록 카메라(20)의 방향을 제어하는 제어신호를 전송할 수 있다. In another example, the controller 120 may transmit a control signal for controlling the direction of the camera 20 so that the camera 20 faces a specific direction.

전술한 바와 같이, 위치 획득부(110)는 수중 내 다수의 식물 등과 같은 개체의 각각에 대응되는 식별 정보 및 위치 정보를 주기적으로 획득한다. As described above, the location acquisition unit 110 periodically obtains identification information and location information corresponding to each of the objects, such as a plurality of plants in the water.

따라서, 사용자가 사용자 단말(40)을 통해 임의의 수중식물을 선택한 경우 해당 개체의 식별정보와 연관된 위치정보에 기초하여 카메라(20)의 회전각을 제어하는 제어신호를 전송할 수 있다. Therefore, when the user selects a certain underwater plant through the user terminal 40, a control signal for controlling the rotation angle of the camera 20 may be transmitted based on the location information associated with the identification information of the object.

이처럼, 본 발명의 제어부(120)는 사용자 단말(40)에 표시되는 영상을 통한 터치 입력 등 사용자의 조작으로 직접 카메라(20)의 방향을 조절하거나, 수중식물의 특정 개체의 식별 정보 및 이에 연관된 위치 정보에 근거하여 카메라(20)가 특정 개체를 비출 수 있도록 제어하는 제어 신호를 전송할 수 있다. As such, the control unit 120 of the present invention directly adjusts the direction of the camera 20 through a user's manipulation, such as a touch input through an image displayed on the user terminal 40, or the identification information of a specific object of an aquatic plant and related thereto. Based on the location information, a control signal for controlling the camera 20 to illuminate a specific object may be transmitted.

분석부(130)는 영상 분석을 통해 카메라(20)에 의하여 촬영된 수중 영상에 나타난 수중생물 등을 식별, 분석하는 기능을 수행한다. The analysis unit 130 performs a function of identifying and analyzing aquatic organisms appearing in the underwater image captured by the camera 20 through image analysis.

보다 상세하게는, 상기 분석부(130)는 제어부(120)에 의해 획득된 카메라(20)의 회전각에 관한 제어정보를 수신하며, 이러한 제어정보 및 위치 획득부(110)에 의해 획득된 개체의 위치정보에 기초해서 카메라(20)가 향하는 방향에 존재하는 수중생물에 대응하는 식별정보를 추출할 수 있다. More specifically, the analyzer 130 receives control information about the rotation angle of the camera 20 obtained by the control unit 120, and the object obtained by the control information and the location acquisition unit 110. Identification information corresponding to aquatic organisms present in the direction in which the camera 20 is facing may be extracted based on the location information of .

예를 들어, 카메라(20)가 6시 방향을 향하는 경우 6시 방향을 촬영한 영상이 수신된다. 위치 획득부(110)에 의하여 수중 내의 생물 등의 위치를 확인할 수 있기 때문에, 카메라(20)를 기준으로 6시 방향에 위치한 식별 정보를 추출해낼 수 있다. 이와 같은 과정으로, 분석부(130)는 각 수중생물 별 위치 정보 및 카메라(20)의 회전각에 관한 제어정보에 기초하여 카메라(20)에 의해 촬영된 수중 영상에 나타난 개체에 대응되는 식별정보를 추출할 수 있다. 바람직하게는, 상기 분석부(130)는 영상 내 특정 객체를 인식하기 위한 혼합 가우시안 모델, 베이지안 배경학습, 바이브(ViBe) 등 다양한 알고리즘을 수행할 수 있다. For example, when the camera 20 faces the 6 o'clock direction, an image taken in the 6 o'clock direction is received. Since the position of living things in the water can be confirmed by the position acquisition unit 110, identification information located in the 6 o'clock direction with respect to the camera 20 can be extracted. In this process, the analysis unit 130 generates identification information corresponding to an object appearing in the underwater image captured by the camera 20 based on position information for each aquatic creature and control information on the rotation angle of the camera 20. can be extracted. Preferably, the analysis unit 130 may perform various algorithms such as a mixed Gaussian model, Bayesian background learning, and ViBe for recognizing a specific object in an image.

그리고, 관리부(140)는 수중 데이터베이스(30)와 연결되며, 상기 서술한 분석부(130)에 의해 수중식물을 추출하였으면, 상기 추출된 수중식물들의 식별 정보를 이용하여 수중 데이터베이스(30)를 통해 해당하는 수중식물에 대응되는 수중 식물의 정보를 검색하고 이를 수신하는 기능을 수행한다. In addition, the management unit 140 is connected to the underwater database 30, and if the underwater plants are extracted by the above-described analysis unit 130, the underwater plants are identified through the underwater database 30 using the identification information of the extracted underwater plants. It performs a function of searching for and receiving information on aquatic plants corresponding to the corresponding aquatic plants.

상기 수중생물의 정보는 기본 정보를 비롯하여 계통수 정보 등을 포함할 수 있다. 여기서, 전술한 기본 정보는 수중생물의 성별, 상태, 종류, 기타 특징 중 적어도 하나 이상에 대한 정보를 포함할 수 있다. The information on the aquatic organisms may include basic information as well as phylogenetic tree information. Here, the aforementioned basic information may include information on at least one of the sex, state, type, and other characteristics of aquatic organisms.

또한, 수중에 서식하는 미생물의 상태를 촬영하고, 촬영한 미생물의 영상을 사용자 단말(40) 등에 표시하여 실시간으로 미생물의 상태를 관찰할 수도 있다. In addition, the state of microorganisms inhabiting the water may be photographed and the image of the captured microorganisms may be displayed on the user terminal 40 or the like to observe the state of microorganisms in real time.

본 발명의 관리부(140)는 사용자가 자체적으로 사용자 단말(40)로부터 입력받은 수중생물의 정보를 수중 데이터베이스(30)와 연동하여 추가 입력하거나 기 입력된 수중생물의 정보를 수정하도록 구성되는 것이 바람직하다. It is preferable that the management unit 140 of the present invention is configured to allow the user to additionally input information on aquatic organisms input from the user terminal 40 in conjunction with the aquatic database 30 or to correct previously input information on aquatic organisms. Do.

본 발명의 출력부(150)는 카메라(20)에 의해 촬영된 수중영상에 관리부(140)에 의해 검색된 검색 정보를 결합하여 수중영상의 정보를 나타낸 가상현실(VR) 영상을 생성하여 생성된 가상현실 영상을 사용자 단말(40)에 제공하는 기능을 수행한다. The output unit 150 of the present invention combines the search information retrieved by the management unit 140 with the underwater image captured by the camera 20 to generate a virtual reality (VR) image representing the information of the underwater image. It performs a function of providing a real image to the user terminal 40 .

이하에서는 전술한 본 발명의 가상현실을 이용한 수중생물 모니터링 장치(100)의 구성에 근거하여, 동작 과정에 관하여 설명하기로 한다. Hereinafter, based on the configuration of the aquatic life monitoring device 100 using virtual reality of the present invention described above, an operation process will be described.

도 2에 도시된 바와 같이, 수중 내의 수중로봇(2)에는 추적 장치(10)가 부착된다. 이에 따라, 상기 수중로봇(2)에 대한 위치 정보 및 식별 정보가 위치 획득부(110)를 통해 획득될 수 있는 것이다. 상기 위치 획득부(110)는 추적 장치(10)로부터 위치 정보 및 식별 정보를 각각 수신한다. As shown in FIG. 2, a tracking device 10 is attached to the underwater robot 2 in the water. Accordingly, the location information and identification information about the underwater robot 2 can be obtained through the location acquisition unit 110. The location acquisition unit 110 receives location information and identification information from the tracking device 10, respectively.

한편, 카메라(20)는 회전 가능하도록 설치되며, 제어부(120)는 카메라(20)에 의해 촬영된 수중 영상 및 카메라(20)의 회전각에 관한 제어 정보를 수신한다. 만일, 카메라(20)가 임의의 방향을 향한 경우, 카메라(20)가 향하는 방향에 대한 회전각에 대한 제어 정보가 카메라(20)에 저장되며, 제어부(120)는 카메라(20)의 회전각에 관한 제어 정보를 수신한다. Meanwhile, the camera 20 is installed to be rotatable, and the controller 120 receives an underwater image captured by the camera 20 and control information about a rotation angle of the camera 20 . If the camera 20 faces a certain direction, control information about the rotation angle of the camera 20 is stored in the camera 20, and the controller 120 controls the rotation angle of the camera 20. Receive control information about.

이어서, 본 발명의 분석부(130)는 카메라(20)의 회전각, 그리고 상기 카메라(20)에 의해 획득되는 수중 영상의 폭에 근거하여 수중 영상에 나타난 수중로봇(2)을 식별할 수 있다. 이것은 위치 획득부(110)가 추적 장치(10)로부터 위치 정보 및 식별 정보를 수신하여 저장하기 때문에 가능하다. Next, the analysis unit 130 of the present invention can identify the underwater robot 2 shown in the underwater image based on the rotation angle of the camera 20 and the width of the underwater image obtained by the camera 20. . This is possible because the location acquisition unit 110 receives and stores location information and identification information from the tracking device 10 .

그 결과, 상기 분석부(130)는 특정 방향을 향하는 카메라(20)에 의하여 촬영된 수중 영상에 나타난 수중로봇(2)을 수중 내의 다른 물체들로부터 식별해낼 수 있다.As a result, the analysis unit 130 can identify the underwater robot 2 shown in the underwater image taken by the camera 20 facing a specific direction from other objects in the water.

본 발명에서 제어부(120)는 사용자의 조작에 따라 카메라의 회전 방향을 제어하는 제어 신호를 카메라(20)에 전송할 수 있다. In the present invention, the controller 120 may transmit a control signal for controlling the rotation direction of the camera to the camera 20 according to a user's manipulation.

구체적으로 설명하면, 도 3을 보면 사용자는 사용자 단말(40)에 표시된 영상 화면 상에서 좌측(a), 우측(b), 하측(c), 상측(d)에 나타난 이동 버튼을 터치하는 방법으로 수중영상의 이동 방향을 조작할 수 있다. Specifically, referring to FIG. 3 , the user touches the movement buttons displayed on the left (a), right (b), lower (c), and upper (d) sides of the video screen displayed on the user terminal 40. You can manipulate the moving direction of the image.

이 때, 제어부(120)는 사용자 단말(40)에 의하여 입력된 입력 신호에 기초하여 사용자의 조작에 따른 방향으로 카메라(20)가 회전하도록 카메라(20)에 제어 신호를 전송할 수 있다. At this time, the controller 120 may transmit a control signal to the camera 20 so that the camera 20 rotates in the direction according to the user's manipulation based on the input signal input by the user terminal 40 .

이하, 가상현실(VR) 영상을 추출하는 방식에 대한 설명을 한다. Hereinafter, a method for extracting a virtual reality (VR) image will be described.

사용자 단말(40)의 표시창(미도시)을 통하여 화면을 통하여 임의의 수중생물을 선택하여 클릭하면, 해당 수중생물의 계, 종류, 학명, 생물적 특징의 출력창(미도시)이 생성되며, 선택되는 수중생물의 해당 정보가 상세히 표시되는 정보창(도면 부호는 생략)이 자동 생성되는 것이다.When an arbitrary aquatic organism is selected and clicked through the display window (not shown) of the user terminal 40, an output window (not shown) of the system, type, scientific name, and biological characteristics of the aquatic organism is created, An information window (reference numerals are omitted) displaying the corresponding information of the selected aquatic creature in detail is automatically generated.

도 4는 사용자 단말(40)에 제공되는 가상현실 영상을 나태낸 도면이다. 만일, 사용자가 해당 사진(도면부호는 생략)의 식물을 사용자 단말(40)에서 선택한다면, 수중 데이터베이스(30)에 형성된 데이터 저장부(미도시)에는 각각의 수중생물 관련 데이터(400)를 통해 해당 사진의 식물의 분류별 기재가 가능한 메타 데이터(402)를 생성하여, 상기 메타 데이터(402)가 포함된 수중생물에 관련된 학명 등이 자동 생성되는 데이터 테이블(T)이 만들어진다. 따라서, 상기 데이터 테이블(T)은 사용자 단말(40)의 화면에 디스플레이되는 것이다. 4 is a diagram showing a virtual reality image provided to the user terminal 40 . If a user selects a plant of a corresponding photo (reference numerals are omitted) in the user terminal 40, a data storage unit (not shown) formed in the aquatic database 30 includes data related to aquatic organisms 400. Meta data 402 capable of describing plants of the corresponding photo by classification is generated, and a data table T is created in which scientific names related to aquatic organisms including the meta data 402 are automatically generated. Accordingly, the data table T is displayed on the screen of the user terminal 40 .

예로서, 수중생물 관련 데이터(400)의 헤더(header) 부분에 포함시켜 상기 수중생물 관련 데이터(400)가 메타 데이터(402)에 포함되는 공통 항목에 의하여 분류가 가능하도록 할 수 있다.For example, the aquatic life related data 400 may be included in a header portion of the aquatic life related data 400 so that the aquatic life related data 400 can be classified according to a common item included in the meta data 402 .

위와 같은 메타 데이터(402) 내에 포함되는 항목은 이외에도, 서식 지역 정보 등도 포함하여 다양하게 구성될 수 있으며, 이러한 공통 항목을 메타 데이터(402)에 포함시켜 수중생물 관련 데이터(400)의 부가적인 정보로 활용하여 정확하고 가독성이 우수한 정보 검색이 가능하도록 하는 것이다. Items included in the meta data 402 as above may be configured in various ways, including habitat area information, etc., in addition to these common items included in the meta data 402 to provide additional information of the aquatic life-related data 400. It is used to enable accurate and readable information retrieval.

그리고, 분석부(130)는 카메라(20)의 회전각에 관한 제어 정보 및 각 수중생물들의 위치 정보에 근거하여 수중 영상 내의 수중생물에 대응되는 식별 정보를 추출하고, 관리부(140)는 수중 데이터베이스(30)와 후술할 수중생물 정보처리부(50)로부터 추출된 수중생물에 대응되는 정보를 수신한다. In addition, the analysis unit 130 extracts identification information corresponding to the aquatic organisms in the underwater image based on the control information on the rotation angle of the camera 20 and the location information of the respective aquatic organisms, and the management unit 140 extracts identification information corresponding to the aquatic organisms in the underwater database. (30) and information corresponding to the aquatic organisms extracted from the aquatic organism information processing unit 50 to be described later is received.

그리고, 출력부(150)는 수중영상에 수중생물의 정보를 표시하여 출력창에 제공할 수 있다. 또한, 정보창에는 분석부(130)에 의하여 인식된 수중생물의 식별 정보가 표시될 수 있으며, 관리부(140)에 의해 검색된 수중생물의 정보가 표시될 수 있다.Also, the output unit 150 may display information on aquatic organisms in the underwater image and provide the information to the output window. In addition, identification information of aquatic organisms recognized by the analyzer 130 may be displayed on the information window, and information of aquatic organisms searched by the management unit 140 may be displayed.

전술한 바와 같이 본 발명에 의하면, 카메라(20)의 회전각과 수중 로봇(2)에 부착된 GPS 모듈(미도시)로부터 수신한 위치에 기반하여 수중 영상에서 수중 생물을 정확히 식별해 냄과 동시에, 수중 영상에 해당 수중 생물에 대한 상세한 정보를 결합시킨 가상현실(VR) 영상을 사용자에게 제공함으로써, 이러한 가상현실 영상을 통해 영상 내 수중생물들을 서로 식별할 수 있고, 해당 생물에 대한 상세한 정보를 손쉽게 확인할 수 있는 장점이 있는 것이다. As described above, according to the present invention, based on the rotation angle of the camera 20 and the position received from the GPS module (not shown) attached to the underwater robot 2, aquatic organisms are accurately identified in the underwater image, By providing users with virtual reality (VR) images that combine detailed information on the relevant aquatic organisms with underwater images, the aquatic organisms in the images can be identified from each other through these virtual reality images, and detailed information on the relevant organisms can be easily obtained. It has advantages that can be ascertained.

이하에서는, 도 5를 참조하여 수중생물 정보처리부(50)와 수중 데이터베이스(30)를 이용하여 수중생물의 정보를 획득하고, 모니터링을 하는 방식에 대한 설명을 하기로 한다. Hereinafter, referring to FIG. 5 , a description will be given of a method of obtaining information on aquatic organisms and monitoring them using the aquatic organism information processing unit 50 and the aquatic database 30 .

도시된 대로, 상기 수중생물 정보 처리부(50)는 송수신부(51), 영상 정보 수집부(52), 생물종 판단부(53), 지도 맵핑부(54), 기상 연계 분석부(55), DB 관리부(56) 등을 포함할 수 있고, 상기 수중 데이터베이스(30)에는 생물종 DB(31), 지도 DB(32), 수중 관측 DB(33) 및 기상 DB(34)를 형성, 포함할 수 있다. As shown, the aquatic creature information processing unit 50 includes a transceiver 51, an image information collection unit 52, a species determination unit 53, a map mapping unit 54, a weather link analysis unit 55, It may include a DB management unit 56, etc., and the underwater database 30 may form and include a species DB 31, a map DB 32, an underwater observation DB 33, and a weather DB 34. there is.

먼저, 송수신부(51)는 DB 관리부(56)의 제어에 따라 수중 관측 DB(33)로부터 인출되어 제공되는 수중지도 정보, 즉 수중 생물종의 분석 자료가 맵핑된 수중 지도 정보 또는 수중 생물종과 기상 자료, 수중 관측 자료가 연계 분석된 연계 분석 자료가 맵핑된 수중 지도 정보 등을 제어부(120)를 통해 사용자 단말(40)로 전송하는 기능을 갖는다. First, the transceiver 51 transmits underwater map information retrieved and provided from the underwater observation DB 33 under the control of the DB management unit 56, that is, underwater map information mapped with analysis data of aquatic species or aquatic species and It has a function of transmitting weather data and underwater map information mapped with linked analysis data obtained by linked analysis of underwater observation data to the user terminal 40 through the control unit 120 .

그리고, 영상 정보 수집부(52)는 송수신부(51)를 통해 수신되는 수중생물 영상 정보를 수집하여 생물종 판단부(53)로 전달하고, 수중 관측 DB(33)에 저장하는 등의 기능을 제공할 수 있다. 여기에서, 수중생물은 수생생물, 해양식물, 적조 등을 의미할 수 있다. In addition, the image information collection unit 52 collects the aquatic creature image information received through the transceiver 51, transmits it to the species determination unit 53, and stores it in the underwater observation DB 33. can provide Here, the aquatic organisms may mean aquatic organisms, marine plants, red tides, and the like.

다음, 생물종 판단부(53)는 영상 정보 수집부(52)로부터 수중생물 영상 정보가 전달되면 수중 데이터베이스(30) 내의 생물종 DB(31)를 탐색(예컨대, 학명 검색)함으로써, 수중생물의 생물종을 특정하는 분석 자료를 생성하는 등의 기능을 제공할 수 있다. Next, when the aquatic creature image information is transmitted from the image information collection unit 52, the species determination unit 53 searches the species DB 31 in the aquatic database 30 (eg, scientific name search), thereby Functions such as generating analysis data specifying a species may be provided.

이때, 수중생물에 대한 생물종이 특정되지 않을 경우에는 속(genus) 수준에서 결정될 수도 있는데, 이러한 생물종 DB에 기반한 영상 분석은, 예컨대 이 기술 분야에 잘 알려진 영상 분석 알고리즘을 이용하여 수행될 수 있다. At this time, when the species of aquatic organisms is not specified, it may be determined at the genus level. Image analysis based on such a species DB may be performed, for example, using an image analysis algorithm well known in the art. .

이를 위해, 수중 데이터베이스(30) 내의 생물종 DB(31)에는 수중생물들을 포함하는 수중 생태계의 다양한 수중생물들에 대한 종 및 속 정보들이 저장되어 있는 것이다. To this end, the species DB 31 in the aquatic database 30 stores species and genus information about various aquatic organisms in an aquatic ecosystem including aquatic organisms.

그리고, 지도 맵핑부(54)는 특정된 생물종들의 분석 자료를 집계하여 지도 DB(32)로부터 제공되는 수중 지도의 대상 위치에 맵핑시킴으로써, 분석 자료가 맵핑된 수중 지도 정보를 생성하여 모니터링하려는 영역에 해당하는 수중의 지도를 제공할 수 있는 데, 여기에서 생성되는 수중 지도 정보들은 수중 관측 DB(33)에 저장될 수 있다. In addition, the map mapping unit 54 aggregates the analysis data of the specified species and maps them to the target location of the underwater map provided from the map DB 32, thereby generating underwater map information to which the analysis data is mapped to the area to be monitored. An underwater map corresponding to may be provided, and underwater map information generated here may be stored in the underwater observation DB 33.

여기에서, 특정된 생물종들의 분석 자료를 집계하여 수중지도에 맵핑시키는 과정은, 예컨대 기 설정된 일정 주기로 수행될 수 있다. Here, the process of aggregating the analysis data of the specified species and mapping them to the underwater map may be performed, for example, at a predetermined period.

다음에, 기상 연계 분석부(55)는 기상 DB(34)로부터 제공되는 기상 자료, 수중 관측 자료와 생물종 판단부(53)를 통해 특정된 생물종들을 결합하여 연계 분석함으로써 연계 분석 자료를 생성하고, 생성된 연계 분석자료를 수중 관측 DB(33) 및 지도 맵핑부(54)로 전달하는 등의 기능을 제공할 수 있다. Next, the meteorological link analysis unit 55 combines the meteorological data provided from the meteorological DB 34, the underwater observation data, and the biological species specified through the species determination unit 53 for linkage analysis, thereby generating linked analysis data. And, it is possible to provide functions such as transmitting the generated linkage analysis data to the underwater observation DB 33 and the map mapping unit 54.

이를 위해, 수중 데이터베이스(30) 내의 기상 DB(34)에는 네트워크를 통해 외부의 기상 서버(도시 생략)로부터 수집한 기상 자료 및 수중의 관측 자료들이 저장될 수 있다. To this end, weather data collected from an external weather server (not shown) and underwater observation data may be stored in the weather DB 34 in the underwater database 30.

여기에서, 기상 자료로서는, 예를 들어 온도, 습도, 강수량, 동서방향의 바람세기, 남북방향의 바람세기, 대류세기(공기의 위/아래 움직임 세기), 표층온도, 심층온도, 염도, pH, 클로로필(Chlorophyl-a) 등이 포함될 수 있다. Here, as meteorological data, for example, temperature, humidity, precipitation, east-west wind strength, north-south wind strength, convective strength (up/down movement strength of air), surface layer temperature, depth temperature, salinity, pH, Chlorophyl-a and the like may be included.

따라서, 지도 맵핑부(54)는 특정된 생물종들과 기상 자료 및 해양 관측 자료가 연계 분석된 연계 분석 자료를 지도 DB(32)로부터 제공되는 수중 지도상의 대상 위치에 맵핑시킴으로써, 연계 분석 자료가 맵핑된 수중 지도정보를 생성할 수 있다.Therefore, the map mapping unit 54 maps the linkage analysis data obtained by linkage analysis of the specified species, meteorological data, and marine observation data to target locations on the underwater map provided from the map DB 32, so that the linkage analysis data is Mapped underwater map information can be created.

그리고, DB 관리부(56)는 수중 관측 DB(33)로부터 기 설정된 일정 주기로 수중 지도 정보를 인출하여 제어부(120)를 통해 사용자 단말(40)로부터 수중 지도의 전송 요청이 수신될 때, 상기 수중 관측 DB(33)로부터 상기 수중 지도 정보를 인출하여 사용자 단말(40)로 전송하는 등의 기능을 제공할 수 있다.In addition, the DB management unit 56 retrieves underwater map information from the underwater observation DB 33 at predetermined intervals, and when a request for transmission of an underwater map is received from the user terminal 40 through the control unit 120, the underwater observation Functions such as fetching the underwater map information from the DB 33 and transmitting it to the user terminal 40 may be provided.

여기에서, 상기 수중 지도 정보는, 수중생물 종의 분석 자료가 맵핑된 수중 지도 정보이거나 혹은 수중생물 종과 기상 자료가 연계 분석된 연계 분석 자료가 매핑된 수중 지도 정보일 수 있다.Here, the underwater map information may be underwater map information mapped with analysis data of aquatic species or underwater map information mapped with linked analysis data obtained by linkage analysis of aquatic species and meteorological data.

또한, DB 관리부(56)는 외부의 지도 서버(도시 생략)로부터 주기적(기 설정된 일정 주기) 또는 비주기적으로 제공되는 지도 정보를 지도 DB(32)에 저장하거나 혹은 업데이트하고, 외부의 기상 서버로부터 주기적(기 설정된 일정 주기) 또는 비주기적으로 제공되어 수집한 기상 자료들을 기상 DB(34)에 저장하거나 혹은 업데이트하는 등의 기능을 제공할 수 있다.In addition, the DB management unit 56 stores or updates map information provided periodically (preset constant period) or aperiodically from an external map server (not shown) in the map DB 32, and from an external weather server. It may provide a function of storing or updating collected meteorological data in the meteorological DB 34 by being provided periodically (preset constant period) or non-periodically.

이하에서는 도면을 참조하여, 앞서 설명한 수중 데이터베이스(30)와 수중생물 정보 처리부(50)를 이용하여 수중생물 정보를 분석하여 이를 통한 수중생물을 모니터링하는 순서와 절차에 대한 설명을 하기로 한다.Hereinafter, with reference to the drawings, a description will be given of an order and procedure for monitoring aquatic organisms by analyzing aquatic organism information using the aquatic database 30 and aquatic organism information processing unit 50 described above.

도 6을 참조하면, 수중생물 정보 처리부(50)의 영상 정보 수집부(52)에서는 사용자 단말(40)로부터 송신되어 내부 송수신부(51)를 통해 수신되는 수중생물 영상 정보, 예컨대 수중생물의 사진, GPS 좌표, 영상 촬영 시간 등을 포함하는 수중생물 영상 정보를 수집한다(단계 102).Referring to FIG. 6 , in the image information collection unit 52 of the aquatic organism information processing unit 50, aquatic organism image information transmitted from the user terminal 40 and received through the internal transmission/reception unit 51, for example, a picture of aquatic organisms Collects aquatic creature image information including , GPS coordinates, image capture time, etc. (step 102).

그리고, 생물종 판단부(53)에서는 영상 정보 수집부(52)로부터 유해생물 영상 정보가 전달되면, 수중 데이터베이스(30) 내의 생물종 DB(31)를 탐색(예컨대, 학명 검색)함으로써, 수중생물의 생물종을 특정하는 분석 자료를 생성한다(단계 104).Then, in the species determination unit 53, when harmful organism image information is transmitted from the image information collection unit 52, the species DB 31 in the aquatic database 30 is searched (eg, scientific name search), thereby aquatic organisms. Analytical data specifying the species of is generated (step 104).

여기에서, 수중생물에 대한 생물종이 특정되지 않을 경우에는 속(genus) 수준에서 결정될 수도 있다. Here, when the species of aquatic life is not specified, it may be determined at the genus level.

다음에, 지도 맵핑부(54)에서는 특정된 생물종들의 분석 자료를 집계한 후(단계 106), 지도 DB(32)로부터 제공되는 해양 지도상의 대상 위치에 맵핑시킴으로써 분석 자료가 맵핑된 수중 지도 정보를 생성한다(단계 108).Next, the map mapping unit 54 aggregates the analysis data of the specified species (step 106), and then maps them to the target location on the ocean map provided from the map DB 32, thereby mapping the analysis data to the mapped underwater map information. Generates (step 108).

여기에서, 특정된 생물종들의 분석 자료를 집계하여 수중 지도에 맵핑시키는 과정은, 예컨대 기 설정된 일정 주기로 수행될 수 있다.Here, the process of aggregating the analysis data of the specified species and mapping them to the underwater map may be performed at a predetermined period, for example.

그리고, DB 관리부(56)에서는 수중 관측 DB(33)로부터 기 설정된 일정 주기로 분석 자료가 맵핑된 수중 지도 정보를 인출하여 네트워크를 통해 원격지의 수중 관리 서버(미도시)로 전송할 수 있다. 참고로, 상기 수중 관리 서버는 예컨대, 해양수산부, 한국수자원공사 등에 구비되어 수중 생태환경 등을 모니터링 및 관리하는 등의 기능을 제공할 수 있는 서버를 의미하며, 수중생물 종의 분석자료가 맵핑된 수중 지도 정보 또는 수중생물 종과 기상 자료 및 수중 관측 자료가 연계 분석된 연계 분석 자료가 맵핑된 수중 지도 정보 등을 제공받을 수 있다. In addition, the DB management unit 56 may retrieve underwater map information to which analysis data is mapped from the underwater observation DB 33 at a predetermined period and transmit the underwater map information to a remote underwater management server (not shown) through a network. For reference, the aquatic management server refers to a server that is provided, for example, in the Ministry of Oceans and Fisheries, Korea Water Resources Corporation, etc. to provide functions such as monitoring and managing the aquatic ecological environment, and analysis data of aquatic species are mapped. Underwater map information or underwater map information mapped with linked analysis data obtained by linking and analyzing aquatic species, meteorological data, and underwater observation data may be provided.

한편, DB 관리부(56)에서는 송수신부(51)를 통해 사용자 단말(40)로부터 수중 지도의 전송 요청이 수신되는 지의 여부를 모니터링하는 것인데(단계 110), 여기에서의 모니터링 결과 상기 수중 지도의 전송 요청이 수신되면, 수중 관측 DB(33)로부터 분석 자료가 매핑된 수중 지도 정보를 인출하여 송수신부(51) 및 네트워크를 통해 사용자 단말(40)로 전송한다(단계 112).On the other hand, the DB management unit 56 monitors whether or not a transmission request for an underwater map is received from the user terminal 40 through the transmission/reception unit 51 (step 110). As a result of monitoring here, the underwater map is transmitted. When the request is received, the underwater map information to which the analysis data is mapped is retrieved from the underwater observation DB 33 and transmitted to the user terminal 40 through the transceiver 51 and the network (step 112).

이하에서는, 도면을 첨부하여 본 발명에 의한 VR 영상을 이용한 수중생물 모니터링 장치(100)를 사물인터넷(IoT) 등을 이용하여 고장진단 및 유지보수하는 시스템에 대한 설명을 하기로 한다. Hereinafter, a description will be given of a system for diagnosing and maintaining the aquatic life monitoring device 100 using VR images according to the present invention by using the Internet of Things (IoT), etc., with accompanying drawings.

도 7을 보면, 고장진단시스템은 상기 모니터링 장치(100)를 운용할 경우에, 장치의 상태 정보를 수집(데이터 수집)하여 장치를 관리(데이터 가공)하고 이상 상황을 감지, 분석해서, 사전진단(데이터 분석)을 통해 유지와 보수를 최적화한다.Referring to FIG. 7 , when the monitoring device 100 is operated, the failure diagnosis system collects device status information (data collection), manages the device (data processing), detects and analyzes abnormal situations, and performs preliminary diagnosis. Optimize maintenance and repair through (data analysis).

구체적으로는, 시스템은 이러한 유지 보수가 될 경우, 먼저 다수의 IoT 센서(I)에서 장치의 상태를 감지한다. 예를 들어, 수중로봇(2) 및 카메라(20), 사용자 단말(40), 수중생물 정보처리부(50), 제어부(120), 출력부(150) 등의 상태를 감지하여 상태 정보를 제어기(200)를 통해 통합적으로 실시간 전송한다. Specifically, when such maintenance is performed, the system first detects the state of the device in a plurality of IoT sensors (I). For example, by detecting the states of the underwater robot 2, the camera 20, the user terminal 40, the aquatic creature information processing unit 50, the control unit 120, the output unit 150, etc., state information is stored in the controller ( 200) through integrated real-time transmission.

제어기(200)에서 상태 정보를 관리 정보처리장치(300)로 전달해서, 관리 정보처리장치(300)에서 모니터링 장치(100)의 상태를 모니터링 및 데이터를 저장한다.The controller 200 transfers the status information to the management information processing device 300, and the management information processing device 300 monitors the status of the monitoring device 100 and stores the data.

그리고, 상기 관리 정보처리장치(300)에서 상태 별로 예를 들어, 이상상태인 경우에 해당하는 제어동작을 제어기(200)로 수행하여, 제어기(200)에서 이에 따라 작동을 조절한다.In addition, the management information processing device 300 performs a control operation corresponding to an abnormal state for each state, for example, with the controller 200, and the controller 200 adjusts the operation accordingly.

또한, 이 경우, 관리 정보처리장치(300)에서 전술한 관련 정보를 누적해서, 진단과 관련된 모델을 생성하므로, 사전진단을 통해 모니터링 장치(100)를 유지 보수한다.In addition, in this case, since the management information processing device 300 accumulates the aforementioned related information and generates a model related to diagnosis, the monitoring device 100 is maintained through preliminary diagnosis.

도 7에 도시된 바와 같이, 일실시예에 따른 시스템은 다수의 IoT 센서(I)로부터 다양한 상태를 수집하는 다수의 제어기(200-1 ~ 200-n)와, 관리 정보처리장치(300)를 포함한다.As shown in FIG. 7, the system according to an embodiment includes a plurality of controllers 200-1 to 200-n that collect various states from a plurality of IoT sensors I and a management information processing device 300. include

부가적으로, 상기 관리 정보처리장치(300)에서 외부 연계 서비스처와 연결해서 전체적인 서비스를 제공하고, 고장수리처 관리 장치(400-1) 등을 포함한다.Additionally, the management information processing device 300 connects with an external linked service center to provide overall service, and includes a troubleshooting center management device 400-1 and the like.

이 경우에, 도시된 대로 고장진단시스템은 다수의 제어기(200-1 ~ 200-n)와, 관리 정보처리장치(300)에서 상호 간의 연결을 자가망을 통해 수행해서 그룹별로 연동한다. 이때, 자가망은 와이 파이 등의 무선통신망이나 이더넷 등을 사용한다. In this case, as shown, the fault diagnosis system connects the plurality of controllers 200-1 to 200-n and the management information processing device 300 to each other through a self-network and interlocks each group. At this time, the private network uses a wireless communication network such as Wi-Fi or Ethernet.

상기 IoT 센서(I)는 주변환경 요소별로 설치되어서, 수중로봇(2), 카메라(20) 등과 같은 각각의 구성요소로부터 상태 정보를 감지한다.The IoT sensor (I) is installed for each element of the surrounding environment, and detects state information from each component such as the underwater robot 2 and the camera 20.

상기 제어기(200-1 ~ 200-n)는 상기 IoT 센서(I)에 의해 상태정보가 감지될 경우에, 미리 등록된 관리 정보처리장치(300)로 현재 상태정보를 전달한다. 그리고 나서, 상기 제어기(200-1 ~ 200-n)는 상기 관리 정보처리장치(300)의 제어에 의해 장치의 유형별로 상이하게 조절한다.The controllers 200-1 to 200-n deliver current status information to the pre-registered management information processing device 300 when status information is sensed by the IoT sensor I. Then, the controllers 200-1 to 200-n perform different adjustments for each device type under the control of the management information processing device 300.

상기 관리 정보처리장치(300)는 상이한 장치의 동작을 관리자 설정정보를 기준으로 상이한 장치 유형별로 상태에 따라 제어하는 정보를 미리 등록한다. 그래서, 상기 관리 정보처리장치(300)는 다수의 제어기(200-1 ~ 200-n)에서 현재 상태정보가 전달될 경우, 상기 등록된 결과로부터 현재 상태를 판별하여 작동을 제어한다. 그래서, 이를 통해 일실시예에 따른 모니터링 시스템은 작동할 경우에, 상태 정보를 수집하여 데이터 가공해서, 이상 상황을 감지, 분석함으로써, 모니터링장치(100)를 관리한다.The management information processing device 300 pre-registers information for controlling the operation of different devices according to the status of different device types based on manager setting information. Thus, the management information processing device 300 determines the current state from the registered result when the current state information is transmitted from the plurality of controllers 200-1 to 200-n and controls the operation. So, through this, when the monitoring system according to an embodiment operates, the monitoring device 100 is managed by collecting state information, processing data, detecting and analyzing an abnormal situation.

상기 IoT 센서(I)와, 관리 정보처리장치(300)에 대해서 조금 더 상세히 설명하면 아래와 같다.The IoT sensor (I) and the management information processing device 300 will be described in more detail as follows.

먼저, IoT 센서(I)를 설명하면 예를 들어, 온도, 진동 상태를 감지해서, 상태를 확인할 수 있도록 한다. 그리고, 이러한 IoT 센서(I)는 수중로봇(2), 카메라(20), 사용자 단말(40)등의 상태를 감지하기도 함으로써, 여러 작동기능을 모니터링한다. 그래서, 이를 통해 상태와, 수중의 주변환경의 상태를 진단, 분석하여, 다양한 주변환경 별로 맞춤 진단을 수행한다.First, when the IoT sensor (I) is described, the state can be checked by detecting, for example, temperature and vibration state. In addition, the IoT sensor (I) monitors various operating functions by detecting the status of the underwater robot 2, the camera 20, the user terminal 40, and the like. Therefore, through this, the state and the state of the surrounding environment in the water are diagnosed and analyzed, and customized diagnosis is performed for each of the various surrounding environments.

이하, 관리 정보처리장치(300)에 대한 설명을 하면, 상기 관리 정보처리장치(300)는 데이터에 의한 모니터링 장치(100)의 이상 여부를 효율적으로 처리할 수 있도록 하기 위해서, 아래의 전처리 구성으로부터 예를 들어, 장치별로 데이터를 전처리하기도 한다. 구체적으로는, 이러한 전처리는 아래와 같이 이루어진다.Hereinafter, the management information processing device 300 will be described. In order to efficiently process whether or not the monitoring device 100 has an abnormality based on data, the management information processing device 300 from the following preprocessing configuration For example, data may be preprocessed for each device. Specifically, this preprocessing is performed as follows.

a) 먼저 압력, 온도 등을 포함하여 실시간으로 데이터를 수집한다.a) First, collect data in real time, including pressure, temperature, etc.

b) 그리고, 미리 지정된 작동의 시작부터 종료 시점까지 작동 운영 데이터를 추출한다.b) Then, operational operational data is extracted from the start to the end of a pre-specified operation.

c) 그리고 나서, 상이한 설비코드와 예를 들어, 모니터링 장치(100)의 작동시작 및 종료시간별로 수집된 작동 운영 데이터를 등록한다.c) Then, different facility codes and, for example, operation data collected for each operation start and end time of the monitoring device 100 are registered.

d) 다음, 상기 등록된 결과를 기초로 일정범위별로 상이한 설비별로 데이터를 추출한다.d) Next, based on the registered result, data is extracted for each different facility by a certain range.

e) 그래서, 이렇게 추출된 결과를 이용해서 데이터를 작업운영 코드별로(운영코드와, 일시, 압력, 온도 등 포함) 등록한다.e) Therefore, data is registered by operation operation code (including operation code, date, time, pressure, temperature, etc.) using the result extracted in this way.

따라서, 이러한 고장진단시스템은 유지 보수의 모니터링을 할 경우, 각종 데이터를 수집하여 구성요소 별로 작동시작 시간부터 종료 시간까지의 작업 단위로 운영 데이터를 추출하여 데이터를 전처리한다.Therefore, when performing maintenance monitoring, such a failure diagnosis system collects various data, extracts operational data in work units from the operation start time to the end time for each component, and pre-processes the data.

따라서, 이러한 모니터링을 할 경우, 전처리 구성으로부터 데이터에 의한 모니터링 장치(100)의 이상 여부를 효율적으로 처리하고, 이를 통해 유지 보수를 보다 효과적으로 모니터링한다.Therefore, in the case of such monitoring, whether or not the monitoring device 100 is abnormal according to data from the preprocessing configuration is efficiently processed, and through this, maintenance is more effectively monitored.

이하, 상기 전처리 과정에서 수집되는 데이터 구조를 설명한다.Hereinafter, the data structure collected in the pre-processing process will be described.

먼저, 데이터 구조는 전술한 모니터링이 될 경우에, 제어기(200-1 ~ 200-n)로부터 실시간으로 설비별과, 상태별(온도 등)로 데이터를 수집하는 구조이며, 장치의 코드별로 전송되는 데이터를 수집한다.First, the data structure is a structure that collects data from the controllers 200-1 to 200-n in real time by equipment and by status (temperature, etc.) in the case of the above-mentioned monitoring, and is transmitted by code of the device. Collect data.

그리고, 상기 데이터 구조는 장치별로 작업을 실시하는 시작 및 종료시간을 자동 또는 작업자의 입력으로 수집하여, 작업별로 상태정보를 저장하는 운영구조이다.And, the data structure is an operating structure that automatically collects start and end times of performing tasks for each device or as an operator's input, and stores state information for each task.

다음으로, 이를 통해 최종 진단예측모델을 생성할 때, 사용할 최종 추출된 작동 단위별 등으로 조합된 데이터구조이다. 이는 운영코드별 파일로 존재하고 각 파일에는 운행시작 일시분부터 종료까지 데이터를 조합한다.Next, when the final diagnostic prediction model is created through this, it is a data structure combined by the finally extracted operating unit to be used. This exists as a file for each operating code, and in each file, data is combined from the date and time of operation start to the end.

이러한 데이터 분석에 따른 사전진단을 통해 유지 보수도 수행하므로, 최적화한 유지 보수가 이루어지는데, 관리 정보처리장치(300)가 아래의 동작을 수행한다.Since maintenance is also performed through preliminary diagnosis according to data analysis, optimized maintenance is performed, and the management information processing device 300 performs the following operation.

먼저, 상기 관리 정보처리장치(300)는 현재 상태정보가 전달될 경우, 미리 등록된 시계열 진단예측모델로부터 본 발명의 모니터링 장치(100)의 기준 상태속성정보와 현재 상태속성정보를 유형별로 비교한다.First, when the current state information is transmitted, the management information processing device 300 compares the reference state attribute information of the monitoring device 100 of the present invention and the current state attribute information by type from a pre-registered time series diagnostic prediction model. .

상기 비교 결과, 상기 기준 상태속성정보와 현재 상태속성정보의 차이값이 미리 설정된 오차 범위 내에 해당하는 경우에 정상으로 진단하고, 해당하지 않는 경우에는 고장으로 진단하므로, 상기 모티터링 장치(100)의 정상 여부를 알려 준다. 이러한 경우에, 상기 시계열 진단예측모델은 일실시예에 따라 아래와 같이 이루어진다.As a result of the comparison, if the difference between the reference state attribute information and the current state attribute information is within a preset error range, it is diagnosed as normal, and if not, it is diagnosed as a failure. tell you if it's normal In this case, the time series diagnostic prediction model is implemented as follows according to an embodiment.

우선적으로, 상기 시계열 진단예측모델은 모티터링 장치(100)를 고장 여부를 진단할 경우에, 다수의 상이한 구성요소, 주변환경 요소별로 소요시간과, 상태정보를 작동시간대 별로 분류하여 학습하는 모델을 정의한다.First of all, the time series diagnostic prediction model is a model that classifies and learns the time required for each of a number of different components and surrounding environment elements and status information for each operating time period when diagnosing whether the monitoring device 100 is out of order. define.

이때, 상기 학습 모델은 아래와 같다.At this time, the learning model is as follows.

1) 다수의 상이한 구성요소와 주변환경 요소별로 동작과, 주변환경상태 특징을 나타내는 데이터셋을 추출한다.1) A data set representing the operation and environmental state characteristics for each of a number of different components and surrounding environment elements is extracted.

2) 다음, 이렇게 추출된 데이터셋을 다수의 상이한 작동시간대, 주변환경의 정보를 반영하여 속성화한다.2) Next, the dataset extracted in this way is attributed by reflecting information of a plurality of different operating time zones and surrounding environments.

3) 그리고 나서, 이렇게 속성화된 결과를 기초로 해서, 학습 모델별로 지속 특성을 나타내는 기간 동안 동일한 상태를 유지하는 정보에 의해서 소요시간과, 상태정보의 속성을 결정한다.3) Then, on the basis of the attributable result, the required time and the attributes of the state information are determined by information maintaining the same state for a period representing a persistence characteristic for each learning model.

4) 그리고, 이러한 결정된 결과를 정규화한다.4) And normalize these determined results.

5) 그래서, 이러한 정규화된 결과를 기초로 해서 학습 모델별로 소요시간과, 상태속성정보를 설정하여, 다수의 상이한 구성요소, 주변환경 요소별로 소요시간과, 상태의 속성정보를 예측하는 정보를 생성하는 독립(기준 상태속성정보) 및 종속(상태) 변수로 설정한다.5) Therefore, based on these normalized results, the required time and state attribute information are set for each learning model, and information for predicting the required time and state attribute information for each of a number of different components and surrounding environment elements is generated. set as independent (standard state attribute information) and dependent (state) variables.

6) 그리고, 이렇게 설정된 결과를 학습 및 훈련 데이터로 생성한다.6) Then, the result set in this way is created as learning and training data.

7) 그래서, 이를 통해 상기 생성된 데이터로부터 딥러닝 기반의 시계열 진단예측모델을 생성한다.7) Therefore, a time-series diagnostic prediction model based on deep learning is created from the generated data.

추가적으로, 이러한 시계열 진단예측모델에 대해서 더욱 설명하면 아래와 같다.Additionally, the time series diagnostic prediction model will be further described as follows.

먼저, 모니터링을 위한 각종 데이터가 전송될 경우, 데이터에서 통신과 IoT 디바이스, 장치 등의 오류로 인하여 다수 데이터가 미수집될 경우와 온도 등의 이상치가 발생할 경우가 있으며, 해당 데이터 파일을 제거하여야 한다. First, when various data for monitoring are transmitted, there are cases where a large number of data is not collected due to errors in communication, IoT devices, devices, etc., or abnormal values such as temperature occur, and the data file must be removed. .

그래서, 이를 통해 기본 데이터셋 생성 후, 추가적으로 필요한 누적 소요시간 및 상태에 대해서 속성을 추가한다. 또한, 간혹 데이터의 끊김 현상으로 일부 데이터가 미수집 되었을 경우 해당 데이터를 제거한다. 이러한 경우, 일실시예에 따른 시계열 기반의 딥러닝 학습 모델을 사용하려면 일정한 시리얼 입력길이와 단계를 설정하여 시리얼 데이터셋을 생성해야 한다. 그래서, 다음으로 모델별 유효한 속성을 결정하고 정규치를 생성한 후 독립 및 종속 변수를 결정한다. 예를 들어, 소요시간 모델은 누적분, 누적상태가 유효한 종속변수일 수 있고 고장상태를 나타내는 정보 즉, 기준 상태속성정보가 독립변수로 설정될 수 있다. So, after creating the basic dataset through this, additionally add attributes for the cumulative required time and status. In addition, if some data is not collected due to data disconnection, the corresponding data is removed. In this case, in order to use the time series-based deep learning learning model according to an embodiment, a serial data set must be created by setting a certain serial input length and step. So, next, valid properties for each model are determined, normal values are generated, and independent and dependent variables are determined. For example, in the required time model, cumulative amount and cumulative state may be valid dependent variables, and information indicating a failure state, that is, reference state attribute information may be set as an independent variable.

그리고 나서, 학습 모델을 생성하기 위해서는 전체 데이터 중에서 학습과 훈련 데이터를 생성한다. 일반적으로 전체 데이터셋에서 70%를 학습데이터로 30%를 모델 생성후 모델을 시험하기 위해 훈련데이터로 사용한다. 다음으로 학습 모델을 생성한다. 이 단계에서 어떠한 학습모델을 사용할 것인지 결정한다. 예를 들어, 딥러닝 기반에서 필요한 레이어를 구성하여 입력과 출력층을 구성하여 최정 출력 개수를 설정하는 구성을 말한다. 생성된 모델을 평가하고 이 모델을 오차율에 만족하면 새로운 데이터로 모델을 시뮬레이션 한 후, 모델 갱신이 필요하지 않으면 학습 모델을 저장한 후 예측 모델로 사용한다.Then, in order to create a learning model, learning and training data are created from among the entire data. In general, 70% of the entire dataset is used as training data and 30% is used as training data to test the model after creating a model. Next, we create the learning model. At this stage, you decide which learning model to use. For example, it refers to a configuration that sets the maximum number of outputs by configuring an input layer and an output layer by configuring necessary layers based on deep learning. The generated model is evaluated, and if the error rate is satisfied, the model is simulated with new data. If the model update is not required, the learning model is saved and used as a prediction model.

도 8은 고장진단시스템의 동작을 도시한 절차 흐름도이다.8 is a flowchart illustrating the operation of the fault diagnosis system.

도시된 바와 같이, 먼저 다수개의 IoT 센서(I)가 장치와 주변환경 요소별로 설치되어서, 모니터링 장치(100)를 가동할 경우에 각각의 요소로부터 상태 정보를 감지한다.As shown, first, a plurality of IoT sensors (I) are installed for each device and each element of the surrounding environment to detect state information from each element when the monitoring device 100 is operated.

이때, 제어기(200)는 상기 다수의 IoT 센서(I)에 의해 상태정보가 감지될 경우에, 미리 등록된 관리 정보처리장치(300)로 현재 상태정보를 전달한다.At this time, the controller 200 transmits the current status information to the pre-registered management information processing device 300 when status information is sensed by the plurality of IoT sensors I.

다음으로, 상기 관리 정보처리장치(300)의 제어에 의해 작동을 유형별로 상이하게 조절한다.Next, by controlling the management information processing device 300, the operation is differently adjusted for each type.

이러한 경우에, 상기 관리 정보처리장치(300)는 상이한 동작을 관리자 설정정보를 기준으로 상이한 장치에 따라 제어하는 정보를 미리 등록한다. 그래서, 제어기(200)에서 현재 상태정보가 전달될 경우, 상기 등록된 결과로부터 현재 상태를 판별하여 모니터링 장치(100)의 작동을 상이하게 통합제어한다.In this case, the management information processing device 300 pre-registers information for controlling different operations according to different devices based on manager setting information. So, when the current state information is transmitted from the controller 200, the current state is determined from the registered result and the operation of the monitoring device 100 is differently integrated and controlled.

그래서, 이를 통해 본 발명의 모니터링 장치(100)를 운용할 경우에, 상태 정보를 수집하여 데이터 가공해서, 이상 상황을 감지, 분석함으로써, 유지 관리한다. 예를 들어, 갑작스런 압력과, 온도 상승이나, 빠른 동작의 종료, 데이터 미수집 등이 발생된 경우에는 이상현상 알림을 제공하기도 한다.So, when the monitoring device 100 of the present invention is operated through this, state information is collected, data is processed, and an abnormal situation is sensed and analyzed to perform maintenance. For example, when a sudden increase in pressure, temperature, rapid end of operation, or non-collection of data occurs, an abnormality notification may be provided.

또한, 이에 더하여 이렇게 유지 관리될 경우에, 이러한 데이터 분석에 따른 사전 진단을 통해 모니터링 장치(100)의 유지 보수도 수행하므로, 최적화한 유지 보수를 할 수 있도록 한다.In addition, when maintenance is performed in this way, maintenance of the monitoring device 100 is also performed through preliminary diagnosis according to data analysis, so that optimized maintenance can be performed.

이를 위해, 본 고장진단 시스템은 아래의 동작을 수행한다.To this end, the failure diagnosis system performs the following operations.

먼저, 상기 관리 정보처리장치(300)는 현재의 모니터링 장치(100)의 상태정보가 전달될 경우, 미리 등록된 시계열 진단예측모델(전술한 내용 참조)로부터 장치의 기준 상태속성정보와 현재 상태속성정보를 장치 유형별로 비교한다.First, when the status information of the current monitoring device 100 is transmitted, the management information processing device 300 obtains reference state attribute information and current state attribute of the device from a pre-registered time-series diagnostic prediction model (see the above). Compare information by device type.

상기 비교 결과, 상기 기준 상태속성정보와 현재 상태속성정보의 차이값이 미리 설정된 기준 차이값에 해당하는 경우에 정상으로 진단한다.As a result of the comparison, when the difference value between the reference state attribute information and the current state attribute information corresponds to a preset reference difference value, it is diagnosed as normal.

반면에, 상기 비교 결과, 기준 상태속성정보와 현재 상태속성정보의 차이값이 상기 기준 차이값에 해당하지 않는 경우에는 고장으로 진단하므로, 모니터링 장치(100)를 유지 보수한다.On the other hand, as a result of the comparison, if the difference value between the reference state attribute information and the current state attribute information does not correspond to the reference difference value, the monitoring device 100 is maintained because it is diagnosed as a failure.

상기와 같이, 본 발명의 범위는 상기 상세한 설명보다는 첨부된 특허청구범위에 의하여 나타내어지며, 특허청구 범위의 의미 및 범위 그리고 그 등가 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.As described above, the scope of the present invention is indicated by the appended claims rather than the detailed description, and all changes or modifications derived from the meaning and scope of the claims and equivalent concepts thereof are included in the scope of the present invention. should be interpreted as being

2 : 수중로봇
10 : 추적장치 20 : 카메라
30 : 수중 데이터베이스 40 : 사용자 단말
50 : 수중생물 정보처리부 100 : 모니터링 장치
110 : 위치 획득부 120 : 제어부 130 : 분석부 140 : 관리부 150 : 출력부 200 : 제어기
300 : 관리 정보처리장치
400 : 수중생물 관련 데이터 402 : 메타 데이터
2: Underwater Robot
10: tracking device 20: camera
30: underwater database 40: user terminal
50: aquatic life information processing unit 100: monitoring device
Reference Numerals 110: location acquisition unit 120: control unit 130: analysis unit 140: management unit 150: output unit 200: controller
300: management information processing device
400: Data related to aquatic organisms 402: Meta data

Claims (4)

수중을 촬영하는 카메라 및 GPS 위성과 통신히여 위치정보를 수신하는 추적 장치가 각각 형성되어 있는 수중로봇;
상기 추적장치로부터 수중의 수중생물 각각의 식별 정보 및 위치 정보를 전달받는 위치 획득부;
상기 카메라와 연결되어, 상기 카메라의 회전각에 관한 제어 정보를 획득하고, 출력부에 제어신호를 인가하는 제어부;
상기 카메라의 회전각, 상기 카메라에 의하여 획득되는 수중영상의 폭에 근거하여 수중영상에 나타나는 상기 수중로봇을 식별하는 분석부;
상기 분석부에서 추출된 수중식물들의 식별 정보를 이용하여 수중 데이터베이스로부터 해당하는 수중식물에 대응되는 수중식물의 정보를 검색하는 관리부;
상기 수중생물 각각에 대한 정보를 수집 및 저장하는 수중 데이터베이스;
상기 수중 데이터베이스에 형성된 생물종 DB를 탐색하여, 상기 수중생물의 생물종을 특정하는 분석자료를 생성하는 수중생물 정보처리부; 및
상기 수중영상에 상기 관리부에 의해 검색된 검색정보를 결합하여, 수중영상의 정보를 나타낸 가상현실(VR) 영상을 생성하고, 상기 가상현실(VR) 영상을 사용자 단말에 제공하는 출력부를 포함하는 것을 특징으로 하는 VR 영상을 이용한 수중생물 모니터링 장치.
An underwater robot equipped with a camera for taking pictures underwater and a tracking device for receiving location information by communicating with GPS satellites;
a location acquisition unit receiving identification information and location information of each aquatic creature in the water from the tracking device;
a control unit that is connected to the camera, obtains control information about a rotation angle of the camera, and applies a control signal to an output unit;
an analysis unit that identifies the underwater robot appearing in the underwater image based on the rotation angle of the camera and the width of the underwater image acquired by the camera;
a management unit for retrieving information on aquatic plants corresponding to the corresponding aquatic plants from an aquatic database using the identification information of the aquatic plants extracted by the analysis unit;
an underwater database for collecting and storing information on each of the aquatic organisms;
an aquatic organism information processing unit that searches a species DB formed in the aquatic database and generates analysis data specifying the species of the aquatic organisms; and
and an output unit generating a virtual reality (VR) image representing information of the underwater image by combining the search information retrieved by the management unit with the underwater image, and providing the virtual reality (VR) image to a user terminal. A device for monitoring aquatic organisms using VR images.
제1항에 있어서,
상기 수중 데이터베이스는 수중생물의 종 및 속 정보들이 저장된 생물종 DB, 모니터링하려는 영역에 해당하는 수중의 지도를 제공하는 지도 DB, 특정된 생물종들의 분석 자료가 맵핑된 수중 지도 정보가 저장되는 수중 관측 DB, 외부의 기상 서버로부터 수집한 기상 자료들이 저장되는 기상 DB를 포함하는 것을 특징으로 하는 VR 영상을 이용한 수중생물 모니터링 장치.
According to claim 1,
The underwater database includes a species DB in which species and genus information of aquatic organisms is stored, a map DB providing an underwater map corresponding to an area to be monitored, and an underwater observation in which underwater map information in which analysis data of specified species are mapped is stored. A DB, an aquatic life monitoring device using VR images, characterized in that it includes a weather DB in which meteorological data collected from an external meteorological server are stored.
제1항에 있어서,
상기 제어부는 사용자의 조작에 따른 방향으로 상기 카메라가 회전하도록 하고, 상기 사용자 단말에 의해 입력된 입력 신호에 기초하여 사용자의 조작에 따른 방향으로 상기 카메라가 회전할 수 있도록 하기 위한 제어신호를 상기 카메라에 인가시키는 것을 특징으로 하는 VR 영상을 이용한 수중생물 모니터링 장치.
According to claim 1,
The control unit causes the camera to rotate in the direction according to the user's manipulation, and transmits a control signal for rotating the camera in the direction according to the user's manipulation based on an input signal input by the user terminal. An aquatic life monitoring device using VR images, characterized in that applied to.
제1항에 있어서,
상기 관리부는 사용자가 자체적으로 상기 사용자 단말로부터 입력받은 상기 수중생물의 정보를 추가 입력하거나 기입력된 상기 수중생물의 정보를 수정하는 것을 특징으로 하는 것을 특징으로 하는 VR 영상을 이용한 수중생물 모니터링 장치.
According to claim 1,
The aquatic life monitoring device using VR images, characterized in that the management unit allows the user to additionally input the information on the aquatic organisms input from the user terminal or to correct the previously input information on the aquatic organisms.
KR1020210082816A 2021-06-25 2021-06-25 Underwater living thing monitoring device and method using Virtual Reality KR102541215B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210082816A KR102541215B1 (en) 2021-06-25 2021-06-25 Underwater living thing monitoring device and method using Virtual Reality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210082816A KR102541215B1 (en) 2021-06-25 2021-06-25 Underwater living thing monitoring device and method using Virtual Reality

Publications (2)

Publication Number Publication Date
KR20230000568A true KR20230000568A (en) 2023-01-03
KR102541215B1 KR102541215B1 (en) 2023-06-07

Family

ID=84924866

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210082816A KR102541215B1 (en) 2021-06-25 2021-06-25 Underwater living thing monitoring device and method using Virtual Reality

Country Status (1)

Country Link
KR (1) KR102541215B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120075899A (en) 2010-12-29 2012-07-09 전남대학교산학협력단 Method of stitching underwater camera images for underwater monitoring
KR20180027994A (en) * 2017-04-20 2018-03-15 신민준 Method and apparatus for providing livestock information based on the vision of augmented reality
KR20180137916A (en) 2017-06-20 2018-12-28 (주)레드몽키픽처스 Virtual reality image contents providing system and thereof providing method
KR20190130393A (en) * 2018-05-14 2019-11-22 인포보스 주식회사 Method and apparatus for monitering marine environmental disturbance and harmful organisms
KR20200009852A (en) 2018-07-20 2020-01-30 포항공과대학교 산학협력단 Underwater monitoring system and VR image providing method for underwater monitoring
KR102085859B1 (en) * 2018-11-06 2020-03-06 주식회사 볼시스 Optical communication system and method capable of monitoring underwater information in real time

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120075899A (en) 2010-12-29 2012-07-09 전남대학교산학협력단 Method of stitching underwater camera images for underwater monitoring
KR20180027994A (en) * 2017-04-20 2018-03-15 신민준 Method and apparatus for providing livestock information based on the vision of augmented reality
KR20180137916A (en) 2017-06-20 2018-12-28 (주)레드몽키픽처스 Virtual reality image contents providing system and thereof providing method
KR20190130393A (en) * 2018-05-14 2019-11-22 인포보스 주식회사 Method and apparatus for monitering marine environmental disturbance and harmful organisms
KR20200009852A (en) 2018-07-20 2020-01-30 포항공과대학교 산학협력단 Underwater monitoring system and VR image providing method for underwater monitoring
KR102085859B1 (en) * 2018-11-06 2020-03-06 주식회사 볼시스 Optical communication system and method capable of monitoring underwater information in real time

Also Published As

Publication number Publication date
KR102541215B1 (en) 2023-06-07

Similar Documents

Publication Publication Date Title
US20210342669A1 (en) Method, system, and medium for processing satellite orbital information using a generative adversarial network
US11893538B1 (en) Intelligent system and method for assessing structural damage using aerial imagery
CN109544548A (en) Defect inspection method, device, server, equipment and the storage medium of cutlery box
US10775314B2 (en) Systems and method for human-assisted robotic industrial inspection
WO2021066796A1 (en) Modeling human behavior in work environments using neural networks
EP4177803A1 (en) Vegetation management system and vegetation management method
WO2022261381A9 (en) Localization processing service
CN110929565A (en) Risk monitoring method and device based on machine learning, storage medium and electronic equipment
KR102541215B1 (en) Underwater living thing monitoring device and method using Virtual Reality
KR20190130393A (en) Method and apparatus for monitering marine environmental disturbance and harmful organisms
JP6883699B1 (en) Flow estimation system, information processing equipment and programs
CN113570264A (en) Offshore land-source pollutant emission management system
CN113569081A (en) Image recognition method, device, equipment and storage medium
Chen et al. Design and implementation of a 3D undersea camera system
Vignesh et al. Deep Reinforcement Learning Based Weather Monitoring Systemusing Arduino for Smart Environment
WO2023189518A1 (en) Information processing device capable of performing clustering, control method for information processing device, and program
KR102527405B1 (en) Maintenance support system using mixed reality head mounted display
JP7467206B2 (en) Video management support system and video management support method
WO2023189380A1 (en) Work assistance system, mobile terminal, work assistance method, and work assistance program
CN115990327B (en) Intelligent fire control management system based on thing networking
CN117671447B (en) Digital twin and intelligent sensor fusion system for complex scene
CN117830961B (en) Environment-friendly equipment operation and maintenance behavior analysis method and system based on image analysis
KR102517267B1 (en) System and method for inspecting marine bridge
KR102642564B1 (en) Method and system for diagnosing abnormalities in renewable energy generators
US20240119188A1 (en) Automatic generation of an augmented reality assembly, integration, and testing preparation procedure from engineering models

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant