KR20230071407A - 수중환경 영상 서비스 제공 시스템 - Google Patents

수중환경 영상 서비스 제공 시스템 Download PDF

Info

Publication number
KR20230071407A
KR20230071407A KR1020210157574A KR20210157574A KR20230071407A KR 20230071407 A KR20230071407 A KR 20230071407A KR 1020210157574 A KR1020210157574 A KR 1020210157574A KR 20210157574 A KR20210157574 A KR 20210157574A KR 20230071407 A KR20230071407 A KR 20230071407A
Authority
KR
South Korea
Prior art keywords
terminal
data
diver
underwater
point
Prior art date
Application number
KR1020210157574A
Other languages
English (en)
Other versions
KR102611414B1 (ko
Inventor
박철웅
김영환
Original Assignee
주식회사 엠에이치넷
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엠에이치넷 filed Critical 주식회사 엠에이치넷
Priority to KR1020210157574A priority Critical patent/KR102611414B1/ko
Publication of KR20230071407A publication Critical patent/KR20230071407A/ko
Application granted granted Critical
Publication of KR102611414B1 publication Critical patent/KR102611414B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • H04N21/2743Video hosting of uploaded data from client
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/03Cooperating elements; Interaction or communication between different cooperating elements or between cooperating elements and receivers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/45Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
    • G01S19/47Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement the supplementary measurement being an inertial measurement, e.g. tightly coupled inertial
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

수중환경 영상 서비스 제공 시스템이 제공되며, GPS로 위치를 확인하고 영상을 촬영하며, 수중입수가 감지되면 무선통신모듈을 턴오프(Turn Off)시켜 추측항법(Dead Reckoning Navigation)으로 다이버의 위치를 추적하고, 포인트(Point)가 지정된 경우 지정된 포인트를 포인트 데이터로 저장하고 수중출수가 감지되면 무선통신모듈을 턴온(Turn On)시켜 촬영 데이터 및 포인트 데이터를 전송하는 다이버 단말 및 GPS 위치 및 촬영된 영상을 수신하여 중계하는 중계부, 중계를 받는 적어도 하나의 사용자 단말의 댓글 데이터를 수집하고 다이버 단말로 전송하는 전송부, 다이버 단말에서 댓글 데이터를 수신불가한 경우 적어도 하나의 사용자 단말로 수중입수를 안내하는 안내부, 다이버 단말에서 촬영 데이터 및 포인트 데이터를 업로드하는 경우, 포인트 데이터를 기초로 촬영 데이터 내 객체를 인식하는 인식부, 촬영 데이터를 편집하는 편집부, 편집부의 편집된 촬영 데이터를 적어도 하나의 사용자 단말로 전송하는 스트리밍부를 포함하는 영상 서비스 제공 서버를 포함한다.

Description

수중환경 영상 서비스 제공 시스템{SYSTEM FOR PROVIDING UNDERWATER ENVIRONMENT MEDIA SERVICE}
본 발명은 수중환경 영상 서비스 제공 시스템에 관한 것으로, GPS 및 무선통신이 불가한 수중환경에서 다이버의 위치를 추적하고 촬영한 영상을 전송할 수 있는 시스템을 제공한다.
미래학자들은 바다를 무대로 한 해양산업이 융성하는 해양혁명 시대를 예견하고 있으며, 세계 각국에서는 이러한 시대적 흐름에 따라 해양을 이용한 각종 전략사업을 추진하고 있다. 그 중에서도 해양레저산업은 선진국일수록 참여하는 인구층이 두텁고 참여종목도 다양한 것으로 나타나고 있는데, 이는 개인요트를 구입하는 마이요트 시기가 도래하였음을 의미하기도 한다. 한국은 해양레저산업을 발전시킬 수 있는 뛰어난 자연조건, 우수한 산업여건, 잠재력을 보유하고 있음에도 불구하고 현재 산업을 유치하는 단계에 머물고 있다. 해양레저산업 육성을 위한 방안으로 복합적인 해양산업단지와 마리나항을 조성하여 해양레저산업 발전을 위한 인프라를 구축하고, 보트쇼 및 요트대회 같은 행사를 개최하여 국민들의 관심과 수요를 증진하기 위한 정책적 접근을 시도하고 있으나 아직은 미흡한 상황이다. 따라서 해양레저산업에 대한 국민적 관심과 수요 증진을 위한 방법의 일환으로 현재의 소비트렌드인 체험을 바탕으로 한 홍보 및 마케팅 전략을 수립할 필요가 있다.
이때, 수중을 촬영하여 전송하거나 스트리밍하는 방법이 연구 및 개발되었는데, 이와 관련하여 선행기술인 한국공개특허 제2020-0058009호(2020년05월27일 공개) 및 한국공개특허 제2008-0019992호(2008년03월05일 공개)에는, 수중촬영위치를 식별하기 위한 해저위치시스템으로 위치를 파악하고, 수중영상을 획득한 후 난반사를 제거하는 전처리를 수행하며, 영상객체를 분석 및 필터링을 수행하여 고화질의 수중영상을 출력하는 구성과, 실시간으로 수중 환경을 촬영하여 서비스하기 위하여 카메라 모듈에 무선모뎀을 설치하거나 유선으로 지상까지 선로를 설치하고, 수중에서 촬영된 영상을 중계기를 통하여 실시간으로 인터넷, 유무선 방송국 및 휴대폰으로 전송하는 구성이 각각 개시되어 있다.
다만, 전자의 경우 통신모듈이 포함되어 있지 않기 때문에 위치를 파악하거나 촬영을 한다고 할지라도 실시간으로 전송할 수 없고, 후자의 경우 통신모듈을 장착했지만 이를 유선으로 지상까지 선로를 설치해야 한다는 어려움이 존재한다. 최근 고프로와 같은 수중촬영장치를 이용하여 다이버가 촬영한 영상을 소셜미디어나 동영상 플랫폼에 업로드하는 경우가 있으나, 수중통신이 불가하므로 다이버가 고프로를 이용하여 수중에서 촬영한 영상을 다시 편집하는 과정이 요구되고 실시간성을 충족하지 못하기 때문에 구독자나 시청자는 이를 라이브로 볼 수 없다. 또, 다이버의 현재 위치를 정확하게 파악하지 못하기 때문에, 다이버가 어느 지점에 들어갔는지에 대한 기억을 더듬어 대략적인 지도 상에서만 다이빙 포인트 및 이동경로를 편집으로 표시해줄 뿐이다. 이에, 추가적인 인프라의 구축 및 설치 없이 실시간으로 영상을 스트리밍할 수 있으면서도 수중 내 이동경로를 파악하여 안내할 수 있는 플랫폼의 연구 및 개발이 요구된다.
본 발명의 일 실시예는, 다이버가 수중으로 입수한 경우, 다이버 단말에서 이를 감지한 후 무선통신기능을 턴오프시키고 추측항법(Dead Reckoning Navigation)으로 다이버의 위치를 추적하면서 다이버 단말의 입력으로 포인트 데이터를 누적하며, 수중에서 나온 경우 무선통신기능을 턴온시켜 촬영된 영상 데이터 및 포인트 데이터를 업로드하고, 다이버 단말에서 촬영된 영상은 영상 서비스 제공 서버에서 수신한 후 포인트 데이터에 기초하여 객체를 인식하고 촬영 데이터를 편집한 후 사용자 단말로 스트리밍하며, 사용자 단말로부터 전송된 댓글 데이터는 다이버 단말로 전송하여 실시간 소통이 가능하도록 함으로써, 해저 통신망을 구축하거나 별도의 장비를 구비하지 않아도 다이버의 위치 및 포인트를 확인할 수 있으며, 촬영 데이터를 사용자 단말에서 실시간으로 확인할 수 있고 다이버 또한 사용자의 댓글을 실시간으로 확인할 수 있는, 수중환경 영상 서비스 제공 시스템을 제공할 수 있다. 다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예는, GPS로 위치를 확인하고 영상을 촬영하며, 수중입수가 감지되면 무선통신모듈을 턴오프(Turn Off)시켜 추측항법(Dead Reckoning Navigation)으로 다이버의 위치를 추적하고, 포인트(Point)가 지정된 경우 지정된 포인트를 포인트 데이터로 저장하고 수중출수가 감지되면 무선통신모듈을 턴온(Turn On)시켜 촬영 데이터 및 포인트 데이터를 전송하는 다이버 단말 및 GPS 위치 및 촬영된 영상을 수신하여 중계하는 중계부, 중계를 받는 적어도 하나의 사용자 단말의 댓글 데이터를 수집하고 다이버 단말로 전송하는 전송부, 다이버 단말에서 댓글 데이터를 수신불가한 경우 적어도 하나의 사용자 단말로 수중입수를 안내하는 안내부, 다이버 단말에서 촬영 데이터 및 포인트 데이터를 업로드하는 경우, 포인트 데이터를 기초로 촬영 데이터 내 객체를 인식하는 인식부, 촬영 데이터를 편집하는 편집부, 편집부의 편집된 촬영 데이터를 적어도 하나의 사용자 단말로 전송하는 스트리밍부를 포함하는 영상 서비스 제공 서버를 포함한다.
전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 다이버가 수중으로 입수한 경우, 다이버 단말에서 이를 감지한 후 무선통신기능을 턴오프시키고 추측항법(Dead Reckoning Navigation)으로 다이버의 위치를 추적하면서 다이버 단말의 입력으로 포인트 데이터를 누적하며, 수중에서 나온 경우 무선통신기능을 턴온시켜 촬영된 영상 데이터 및 포인트 데이터를 업로드하고, 다이버 단말에서 촬영된 영상은 영상 서비스 제공 서버에서 수신한 후 포인트 데이터에 기초하여 객체를 인식하고 촬영 데이터를 편집한 후 사용자 단말로 스트리밍하며, 사용자 단말로부터 전송된 댓글 데이터는 다이버 단말로 전송하여 실시간 소통이 가능하도록 함으로써, 해저 통신망을 구축하거나 별도의 장비를 구비하지 않아도 다이버의 위치 및 포인트를 확인할 수 있으며, 촬영 데이터를 사용자 단말에서 실시간으로 확인할 수 있고 다이버 또한 사용자의 댓글을 실시간으로 확인할 수 있다.
도 1은 본 발명의 일 실시예에 따른 수중환경 영상 서비스 제공 시스템을 설명하기 위한 도면이다.
도 2는 도 1의 시스템에 포함된 영상 서비스 제공 서버를 설명하기 위한 블록 구성도이다.
도 3은 본 발명의 일 실시예에 따른 수중환경 영상 서비스가 구현된 일 실시예를 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 도 1의 수중환경 영상 서비스 제공 시스템에 포함된 각 구성들 상호 간에 데이터가 송수신되는 과정을 나타낸 도면이다.
도 5는 본 발명의 일 실시예에 따른 수중환경 영상 서비스 제공 방법을 설명하기 위한 동작 흐름도이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
명세서 전체에서 사용되는 정도의 용어 "약", "실질적으로" 등은 언급된 의미에 고유한 제조 및 물질 허용오차가 제시될 때 그 수치에서 또는 그 수치에 근접한 의미로 사용되고, 본 발명의 이해를 돕기 위해 정확하거나 절대적인 수치가 언급된 개시 내용을 비양심적인 침해자가 부당하게 이용하는 것을 방지하기 위해 사용된다. 본 발명의 명세서 전체에서 사용되는 정도의 용어 "~(하는) 단계" 또는 "~의 단계"는 "~ 를 위한 단계"를 의미하지 않는다.
본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다. 한편, '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, '~부'는 어드레싱 할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체 지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.
본 명세서에 있어서 단말, 장치 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말, 장치 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말, 장치 또는 디바이스에서 수행될 수도 있다.
본 명세서에서 있어서, 단말과 매핑(Mapping) 또는 매칭(Matching)으로 기술된 동작이나 기능 중 일부는, 단말의 식별 정보(Identifying Data)인 단말기의 고유번호나 개인의 식별정보를 매핑 또는 매칭한다는 의미로 해석될 수 있다.
이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 수중환경 영상 서비스 제공 시스템을 설명하기 위한 도면이다. 도 1을 참조하면, 수중환경 영상 서비스 제공 시스템(1)은, 적어도 하나의 다이버 단말(100), 영상 서비스 제공 서버(300), 적어도 하나의 사용자 단말(400) 및 편집 단말(500)을 포함할 수 있다. 다만, 이러한 도 1의 수중환경 영상 서비스 제공 시스템(1)은, 본 발명의 일 실시예에 불과하므로, 도 1을 통하여 본 발명이 한정 해석되는 것은 아니다.
이때, 도 1의 각 구성요소들은 일반적으로 네트워크(Network, 200)를 통해 연결된다. 예를 들어, 도 1에 도시된 바와 같이, 적어도 하나의 다이버 단말(100)은 네트워크(200)를 통하여 영상 서비스 제공 서버(300)와 연결될 수 있다. 그리고, 영상 서비스 제공 서버(300)는, 네트워크(200)를 통하여 적어도 하나의 다이버 단말(100), 적어도 하나의 사용자 단말(400), 적어도 하나의 편집 단말(500)과 연결될 수 있다. 또한, 적어도 하나의 사용자 단말(400)은, 네트워크(200)를 통하여 영상 서비스 제공 서버(300)와 연결될 수 있다. 그리고, 적어도 하나의 편집 단말(500)은, 네트워크(200)를 통하여 적어도 하나의 다이버 단말(100), 영상 서비스 제공 서버(300) 및 적어도 하나의 사용자 단말(400)과 연결될 수 있다.
여기서, 네트워크는, 복수의 단말 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크의 일 예에는 근거리 통신망(LAN: Local Area Network), 광역 통신망(WAN: Wide Area Network), 인터넷(WWW: World Wide Web), 유무선 데이터 통신망, 전화망, 유무선 텔레비전 통신망 등을 포함한다. 무선 데이터 통신망의 일례에는 3G, 4G, 5G, 3GPP(3rd Generation Partnership Project), 5GPP(5th Generation Partnership Project), LTE(Long Term Evolution), WIMAX(World Interoperability for Microwave Access), 와이파이(Wi-Fi), 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), RF(Radio Frequency), 블루투스(Bluetooth) 네트워크, NFC(Near-Field Communication) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.
하기에서, 적어도 하나의 라는 용어는 단수 및 복수를 포함하는 용어로 정의되고, 적어도 하나의 라는 용어가 존재하지 않더라도 각 구성요소가 단수 또는 복수로 존재할 수 있고, 단수 또는 복수를 의미할 수 있음은 자명하다 할 것이다. 또한, 각 구성요소가 단수 또는 복수로 구비되는 것은, 실시예에 따라 변경가능하다 할 것이다.
적어도 하나의 다이버 단말(100)은, 수중환경 영상 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하여 수중입수 또는 수중출수를 감지하고, 수중입수가 된 경우에는 무선통신기능을 턴 오프시키면서 추측항법을 시작하여 위치를 파악하며, 수중출수가 된 경우에는 무선통신기능을 턴 온 시켜 촬영 데이터 및 포인트 데이터를 영상 서비스 제공 서버(300)로 업로드하는 단말일 수 있다. 그리고, 다이버 단말(100)은, 포인트를 지정할 수 있는 물리적 버튼 등을 포함할 수 있으며, 물리적 버튼 등이 푸시되거나 선택된 경우 포인트 데이터를 생성하여 촬영 데이터와 동기화시켜 저장하는 단말일 수 있다. 또한, 다이버 단말(100)은, 영상 서비스 제공 서버(300)를 경유하여 사용자 단말(400)의 댓글을 출력하는 단말일 수 있다.
여기서, 적어도 하나의 다이버 단말(100)은, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 다이버 단말(100)은, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 다이버 단말(100)은, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트 패드(Smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.
영상 서비스 제공 서버(300)는, 수중환경 영상 서비스 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 제공하는 서버일 수 있다. 그리고, 영상 서비스 제공 서버(300)는, 다이버 단말(100)에서 업로드한 촬영 데이터 및 포인트 데이터를 사용자 단말(400)로 실시간 스트리밍을 하거나 편집된 촬영 데이터를 중계해주고, 사용자 단말(400)과 다이버 단말(100)에서 입력된 댓글 데이터 또는 채팅 데이터를 양방향으로 송수신하는 서버일 수 있다. 그리고, 영상 서비스 제공 서버(300)는, 사용자 단말(400)의 댓글 데이터가 다이버 단말(100)로 수신되는지의 여부를 파악함으로써 다이버의 수중입수 여부를 파악하고, 사용자 단말(400)로 다이버의 수중입수를 안내하는 서버일 수 있다. 또한, 영상 서비스 제공 서버(300)는, 다이버 단말(100)에서 수중출수로 인하여 촬영 데이터 및 포인트 데이터를 업로드하면, 포인트 데이터가 발생한 프레임 내 포함된 객체를 인식하고 촬영 데이터를 편집하여 사용자 단말(100)로 전송하는 서버일 수 있고 댓글 데이터를 양방향으로 전달하는 서버일 수 있다.
여기서, 영상 서비스 제공 서버(300)는, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다.
적어도 하나의 사용자 단말(400)은, 수중환경 영상 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하는 시청자, 구독자, 팔로워의 단말일 수 있다. 이때, 사용자 단말(400)은, 다이버의 현재 위치, 촬영 데이터, 포인트의 위치, 포인트에서 확인된 객체 등을 영상 서비스 제공 서버(300)로부터 수신하여 한 화면에서 출력하는 단말일 수 있다. 여기서, 사용자 단말(400)은 댓글 데이터나 채팅 데이터를 입력하여 영상 서비스 제공 서버(300)로 전송할 수 있고, 영상 서비스 제공 서버(300)를 경유하여 다이버 단말(100)의 댓글 데이터가 업로드되는 경우 이 또한 수신하여 출력하는 단말일 수 있다.
여기서, 적어도 하나의 사용자 단말(400)은, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 사용자 단말(400)은, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 사용자 단말(400)은, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트 패드(Smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.
적어도 하나의 편집 단말(500)은, 수중환경 영상 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하여 촬영 데이터를 편집하고 편집된 촬영 데이터를 영상 서비스 제공 서버(300)로 업로드하는 영상편집자의 단말일 수 있다. 이때 편집 단말(500)의 편집자는 확인된 객체에 대한 설명을 직접 입력할 수도 있고, 영상 서비스 제공 서버(300) 내 데이터베이스에서 추출한 객체명 및 객체 설명을 실제 영상 내 객체와 비교하여 맞는지의 여부만 확인 및 컨펌하는 전문가일 수도 있다.
여기서, 적어도 하나의 편집 단말(500)은, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 편집 단말(500)은, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 편집 단말(500)은, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트 패드(Smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.
도 2는 도 1의 시스템에 포함된 영상 서비스 제공 서버를 설명하기 위한 블록 구성도이고, 도 3은 본 발명의 일 실시예에 따른 수중환경 영상 서비스가 구현된 일 실시예를 설명하기 위한 도면이다.
도 2를 참조하면, 영상 서비스 제공 서버(300)는, 중계부(310), 전송부(320), 안내부(330), 인식부(340), 편집부(350), 스트리밍부(360), UI부(370), 자동삽입부(380) 및 송수신부(390)를 포함할 수 있다.
본 발명의 일 실시예에 따른 영상 서비스 제공 서버(300)나 연동되어 동작하는 다른 서버(미도시)가 적어도 하나의 다이버 단말(100), 적어도 하나의 사용자 단말(400) 및 적어도 하나의 편집 단말(500)로 수중환경 영상 서비스 애플리케이션, 프로그램, 앱 페이지, 웹 페이지 등을 전송하는 경우, 적어도 하나의 다이버 단말(100), 적어도 하나의 사용자 단말(400) 및 적어도 하나의 편집 단말(500)은, 수중환경 영상 서비스 애플리케이션, 프로그램, 앱 페이지, 웹 페이지 등을 설치하거나 열 수 있다. 또한, 웹 브라우저에서 실행되는 스크립트를 이용하여 서비스 프로그램이 적어도 하나의 다이버 단말(100), 적어도 하나의 사용자 단말(400) 및 적어도 하나의 편집 단말(500)에서 구동될 수도 있다. 여기서, 웹 브라우저는 웹(WWW: World Wide Web) 서비스를 이용할 수 있게 하는 프로그램으로 HTML(Hyper Text Mark-up Language)로 서술된 하이퍼 텍스트를 받아서 보여주는 프로그램을 의미하며, 예를 들어 넷스케이프(Netscape), 익스플로러(Explorer), 크롬(Chrome) 등을 포함한다. 또한, 애플리케이션은 단말 상의 응용 프로그램(Application)을 의미하며, 예를 들어, 모바일 단말(스마트폰)에서 실행되는 앱(App)을 포함한다.
도 2를 참조하면, 중계부(310)는, GPS 위치 및 촬영된 영상을 수신하여 중계할 수 있다. 다이버 단말(100)은, GPS로 위치를 확인하고 영상을 촬영할 수 있다.
전송부(320)는, 중계를 받는 적어도 하나의 사용자 단말(400)의 댓글 데이터를 수집하고 다이버 단말(100)로 전송할 수 있다.
안내부(330)는, 다이버 단말(100)에서 댓글 데이터를 수신불가한 경우 적어도 하나의 사용자 단말(400)로 수중입수를 안내할 수 있다. 다이버 단말(100)은, 수중입수가 감지되면 무선통신모듈을 턴오프(Turn Off)시켜 추측항법(Dead Reckoning Navigation)으로 다이버의 위치를 추적할 수 있다. 다이버 단말(100)은, 수중입수 또는 수중출수를 확인하기 위한 수심센서를 포함할 수 있다. 다이버 단말(100)은, 수중입수 또는 수중출수를 확인하기 위하여 다이버 단말(100) 내 포함된 수중촬영장치 또는 다이버 단말(100)과 연동되는 수중촬영장치로부터 촬영된 촬영 데이터 내 음영지속시간을 모니터링할 수 있다.
다이버 단말(100)은, 수심센서 또는 음영지속시간을 확인하여 수중입수 또는 수중출수를 확인할 수 있고, 이는 무선통신기능을 턴 오프 또는 턴 온하는 트리거로 작용할 수 있다. 물 속으로 들어가게 되면 대기환경과는 다른 영상이 촬영되게 되는데 빛의 직진성 때문에 물체에 빛이 통과하지 못하여 생기는 어두운 부분인 음영이 시작된다. 이 음영의 지속시간을 이용하여 실제 다이버가 잠수를 하여 물 속으로 들어갔는지를 확인하는 것이다. 예를 들어, 수심센서는 물의 압력을 측정하는 방법으로 물 속에 있는지 또는 물 밖에 있는지를 확인하는데 0m에서 증가하기 시작할 때 음영지속시간을 카운트하고, 기 설정된 시간, 예를 들어 X초 만큼 지속되었다고 하면 물 속에 있다고 확인할 수 있다.
다이버 단말(100)은, 추측항법을 이용하기 위하여 자이로 센서를 포함하고, 추측항법으로 다이버의 위치를 추정하기 위한 최초 위치는 다이버 단말(100)에서 획득한 마지막 GPS 위치일 수 있다. 추측항법은 과거 선박이나 항공기, 미사일 등의 항해에 사용되던 방법이다. 현재의 위치 (xn, yn)을 파악하기 위해서 이동방향 θ와 이동거리 d를 측정하고, 기존의 위치(xn-1, yn-1)를 업데이트한다.
Figure pat00001
이동거리와 이동방향을 구하기 위해 자이로스코프와 가속도센서 등 IMU(Inertial Measurement Unit)센서가 사용될 수 있다. 특히 MEMS(Micro Electro Mechanical System) 기반의 센서는 저렴한 가격과 작은 크기로 제공되어 스마트폰이나 웨어러블 디바이스 등에서 다양하게 활용되기 때문에 별도의 컴퓨팅 자원을 구비하거나 결합할 필요가 없다. 이때, MEMS IMU 센서는 무시할 수 없는 오차가 있고 측정된 가속도와 각속도 값을 이동거리와 이동방향으로 직접 변환하기 위해 적분을 수행하는 과정에서 오차가 시간의 제곱에 비례하여 누적될 수 있다. 추측항법은 상대적인 위치변화를 이용하여 현재 위치를 파악하는 방식이기 때문에 긴 시간동안 특별한 보정과정 없이 적용하면 작은 오차도 누적되어 결과적으로 추정하는 위치와 실제위치사이에 큰 차이를 보일 수 있지만, 다이버가 물 밖으로 나오는 경우 GPS로 현재위치를 확인할 수 있고, 수중에 인공의 랜드마크가 존재하는 경우 다이버 단말(100)은 촬영도 함께 수행하기 때문에 자신의 위치를 확인하거나 보정할 수 있는 입력값으로 이용할 수도 있다.
이때, 다이버 단말(100)은, 포인트를 지정하기 위하여 입력을 받는 입력버튼을 포함할 수 있다. 여기서, 다이버 단말(100)은, 입력버튼이 푸시되면 다이버 단말(100)에서 촬영한 촬영 데이터에 포인트 데이터가 메타데이터로 태깅되고, 메타데이터에 입력버튼이 푸시된 시점의 시간 데이터 및 위치 데이터를 기록할 수 있다. 입력버튼은 예를 들어, 다이버 단말(100)이 웨어러블 디바이스인 스마트 와치인 경우 푸시하는 물리적 버튼 등일 수도 있고, 스마트폰인 경우 안드로이드의 경우 양측에 위치한 버튼 또는 iOS의 경우 하단 중앙에 위치한 버튼일 수도 있다. 촬영 데이터를 이루는 적어도 하나의 프레임 중 어느 프레임에서 산호나 고래 등과 같은 것을 발견했다고 하면, 이는 POI(Point of Interest)로 해당 프레임에 태깅되게 된다. 다이버 단말(100)에서는 그 객체가 무엇인지는 파악하지 못하고 어떤 POI가 존재한다고만 해당 프레임에 태깅해주는 것이다. 물론 다이버 단말(100)의 컴퓨팅 성능 및 이를 이용할 프로그램이나 애플리케이션이 존재한다면 다이버 단말(100) 내에서도 객체 인식이 가능할 수도 있다.
인식부(340)는, 다이버 단말(100)에서 촬영 데이터 및 포인트 데이터를 업로드하는 경우, 포인트 데이터를 기초로 촬영 데이터 내 객체를 인식할 수 있다. 다이버 단말(100)은, 포인트(Point)가 지정된 경우 지정된 포인트를 포인트 데이터로 저장하고 수중출수가 감지되면 무선통신모듈을 턴온(Turn On)시켜 촬영 데이터 및 포인트 데이터를 전송할 수 있다. 이때 포인트 데이터를 기초로 한다는 것은 예를 들어 1 시간짜리 촬영 데이터가 존재하는데, 1 분 1 초에 포인트(POI)가 다이버에 의해 지정(버튼 푸시)되었다면 1 분 1 초의 프레임을 찾거나 이를 기준으로 그 앞뒤의 프레임을 찾아 그 내에 있는 객체를 추출 및 인식하는 것을 의미한다. 이때 객체 추출은 적어도 하나의 인공지능 알고리즘을 이용하여 자동으로 추출할 수도 있고 편집자나 기타 전문가가 이를 확인한 후 개체명을 입력하는 방식으로 수동으로 입력받을 수도 있다. 인공지능 알고리즘을 이용할 때에는 수중환경 내 부유물 등에 의해 탁도가 높으면 제대로 확인이 불가능할 수 있으므로 데이터셋을 모으기 위하여, 물리엔진을 이용하여 가상의 수중환경과 POI를 구현하고 이를 통해 취득한 가상의 데이터셋으로 딥러닝 모델을 학습하여 실제 수중환경의 POI를 자동으로 인식 및 검출하는데 이용할 수도 있다.
딥러닝은 예를 들어, 딥러닝 네트워크 AlexNet을 기반으로 이용할 수 있다. AlexNet은 8개의 레이어로 구성되어 있는데, 5개의 Convolution 계층과 3개의 Full-Connected 계층으로 구성되어 있다. 이 중 세 계층을 완전 연결 계층, 소프트맥스 계층, 분류 출력 계층으로 바꾸어 새로운 분류 작업으로 전이학습을 진행할 수 있다. 이때, [이미지-라벨]을 연결하는 라벨링 작업이 시간과 인력이 많이 소요되는데 이를 해결하기 위하여 어노테이션 및 라벨링을 이용할 수 있다. 딥러닝 모델에서 객체 인식의 결과가 정상 또는 비정상으로 출력되는 이미지를 사람이 식별하고 선별하는 대신, 키프레임으로 추출된 이미지 내 어노테이션 및 라벨링(Annotation and Labelling)을 받아 데이터셋을 확보할 수 있다.
이미지 분류를 위한 딥러닝 기술은 미리 정의된 분류 정보를 가지고 있는 대량의 학습 데이터 집합을 사용하여 분류 모델을 학습한다. 학습 데이터 집합은 원본 이미지가 아닌 특징을 추출한 서브 이미지와 그리고 그 특징을 분류하는 태그(Tag) 정보로 구성된다. 이미지 어노테이션 시스템은 학습 데이터 집합을 생성하는 단계에서 사용할 수 있는, 이미지의 특징을 추출한 서브 이미지를 생성하고 이미지 어노테이션을 수행하기 위한 도구이다. 이때, 어노테이션 및 라벨링을 위해서는 다양한 오픈소스(Open Source) 도구를 이용할 수도 있는데 이러한 도구들은 웹 기반으로 구성되어 사용자가 직접 ① 이미지를 업로드하고, ② 이미지로부터 특징을 추출하며, ③ 분류를 위한 태그 정보를 입력함으로써, 이미지 어노테이션을 수행할 수 있다. 이를 통하여 본 발명의 플랫폼에서 대규모 데이터셋을 마련하지 않고도 각 개인 다이버가 자신의 영상 내 객체에 라벨링, 즉 객체명을 붙여놓거나 설명을 붙여놓은 것들을 크라우드 소싱을 이용하여 모을 수 있고 대규모 데이터셋을 만들 수도 있다.
편집부(350)는, 촬영 데이터를 편집할 수 있다. 이때 적어도 하나의 편집 단말(400)은, 다이버 단말(100)로부터 수신된 촬영 데이터 및 포인트 데이터를 이용하여 편집영상을 제작 및 업로드할 수 있다.
스트리밍부(360)는, 편집부(350)의 편집된 촬영 데이터를 적어도 하나의 사용자 단말(400)로 전송할 수 있다. 이때 스트리밍부(360)는, 트래픽 스무딩을 더 진행할 수 있다. 트래픽 스무딩이 진행되기 위한 기본 조건은 인코딩 곡선을 서버 단(End)에서 알고 있다는 점인데, 단일 링크에서는 자기 자신의 인코딩 곡선을 아는 것이 곧 디코딩 곡선까지 아는 것이기 때문에 트래픽 스무딩에서 무리가 없었다. 하지만 멀티링크에서 최적화된 트래픽 스무딩을 진행하기 위해서는 처음 링크에서 데이터를 전송할 때 트랜스코더의 인코딩 곡선을 함께 고려해야하기 때문에 트랜스코딩이 진행되지 않은 상황에서는 곡선 전체를 알 수 없다. 따라서, 멀티 링크에서 트래픽 스무딩을 진행할 때, 안정적인 범위 내에서 기준 딜레이 값들을 조정할 필요가 있는데, 전송을 시작하는데서 디코더에 도착할 때가지의 최대 딜레이(δn)는 업링크와 다운링크에서의 최대 딜레이(δnup, δndown)로 각각 나뉜다.
Figure pat00002
여기서, 업링크와 다운링크에서의 최대 딜레이(δnup, δndown)를 이하 수학식 3과 같이 결정하게 되면, 데이터의 발생된 양이 업링크에 많다면 업링크에 전송된 전송시간을 늘려주고, 발생된 양이 다운링크에 많다면 다운링크에 전송시간을 늘려주어서 데이터양의 수준이 적절하게 나뉘게 된다.
Figure pat00003
Figure pat00004
한편, 멀티 링크의 각각에 대해서는 단일 링크에서의 트래픽 스무딩 방법이 적용되는데, 단일 링크에서의 트래픽 스무딩 과정은 첫째, GOP(Group of Pictures) 내에 있는 프레임들의 크기 만큼 비중을 두어서 데이터가 많이 발생한 프레임에는 전송시간을 많이 주고 데이터가 적게 발생한 프레임에는 전송시간을 적게 주는 과정이다. 이렇게 하면 전체적인 데이터 발생량이 일정해져서 전체 네트워크의 전송 부하를 균일하게 해서 안정성을 높여줄 수 있다. 두 번째는 할당된 프레임별 전송시간마다 실제로 전송할 수 있는 속도를 정하는 과정인데, 이 과정에서 프레임 내 슬라이스 단위로 디코더의 디코딩 언더플로우를 방지하도록 전송률을 설정해야 한다는 제약조건이 필요하다. 이와 같은 과정을 통해 단일 링크에서의 트래픽 스무딩을 이룰 수 있다.
이때, 전송된 영상을 쌓아두지 않고 통신 주기에 맞추어 바로 전송하기 때문에, 화면을 동영상 데이터와 같이 임의의 버퍼링을 이용하여 전송하는 다른 프로그램보다 전송 시간을 단축시킬 수 있다. 다른 프로그램에 비해 끊김 현상이 발생하지만 빠른 전송을 통해 실시간 전송을 구현한다는 목적에 있어서 보다 나은 성과를 볼 수 있다.
UI(User Interface)부(370)는, 사용자 단말(400)로 촬영 데이터 및 포인트 데이터를 전송할 때, 사용자 단말(400)의 화면 중 제 1 영역은 촬영 데이터를 표시하도록 레이아웃 및 프레임을 설정하고, 제 2 영역은 다이버 단말(100)의 위치 및 이동경로를 표시하도록 레이아웃 및 프레임을 설정하며, 제 3 영역은 포인트 데이터가 태깅된 시점의 촬영 데이터 내 인식된 객체를 표시하도록 레이아웃 및 프레임을 설정하며, 제 4 영역은 적어도 하나의 사용자 단말(400) 간 댓글 데이터를 표시하도록 레이아웃 및 프레임을 설정할 수 있다. 이는 도 3b와 같이 구현될 수 있지만 이에 한정되는 것은 아니고 각 위치나 영역의 크기가 변경될 수도 있으며 각 정보나 영상을 출력하는 영역의 디자인이 변경될 수도 있다.
자동삽입부(380)는, 다이버 단말(100)에서 포인트가 지정된 경우 포인트가 지정된 시점을 기준으로 촬영된 촬영 데이터 내 객체를 인공지능 알고리즘으로 자동으로 인식하고, 인식된 객체의 객체명 및 설명 콘텐츠를 기 구축된 데이터베이스에서 추출 또는 검색한 후 편집 단말(400)로 전송하여 편집 화면 내 삽입 여부를 컨펌받을 수 있다. 이때 기 구축된 데이터베이스는 상술한 크라우드 소싱으로 [이미지-태그]가 라벨링된 데이터베이스일 수도 있고 자체적으로 구축한 데이터베이스일 수도 있다.
송수신부(390)는, 다이버 단말(100)의 무선통신기능이 턴온 된 상태에서 적어도 하나의 사용자 단말(400)과 다이버 단말(100) 간 실시간 소통을 위하여 댓글 데이터를 양방향으로 송수신할 수 있다. 다이버 단말(100)은, 수중입수가 감지되면 무선통신기능이 턴오프되어 촬영 데이터를 저장하고, 수중출수의 감지로 무선통신기능이 턴온되면 저장된 촬영 데이터를 영상 서비스 제공 서버(300)로 전송할 수 있다.
이하, 상술한 도 2의 영상 서비스 제공 서버의 구성에 따른 동작 과정을 도 3을 예로 들어 상세히 설명하기로 한다. 다만, 실시예는 본 발명의 다양한 실시예 중 어느 하나일 뿐, 이에 한정되지 않음은 자명하다 할 것이다.
도 3a를 참조하면, ① 다이버 단말(100)에서 무선통신기능이 오프된 상태로 촬영을 하다가 포인트가 지정된 경우 촬영 데이터, 포인트 데이터, 위치 데이터가 생성 및 저장된다. 포인트가 지정되지 않는 경우에는 촬영 데이터 및 위치 데이터만 저장된다. 그리고, ② 다이버 단말(100)에서 수심센서 및 음영지속시간으로 수중출수가 판단된 경우 무선통신기능을 켜고 바로 ③ 영상 서비스 제공 서버(300)로 저장된 데이터(촬영 데이터 및 포인트 데이터)를 전송한다. 그리고 ④ 다시 수중입수 전 마지막으로 취득된 GPS 데이터를 추측항법의 최초 위치로 설정하고 ⑤ 다이버 단말(100)은, 촬영 데이터 및 포인트 데이터를 생성하며 위치 데이터를 저장하게 된다.
이와 같은 도 2 내지 도 3의 수중환경 영상 서비스 제공 방법에 대해서 설명되지 아니한 사항은 앞서 도 1을 통해 수중환경 영상 서비스 제공 방법에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.
도 4는 본 발명의 일 실시예에 따른 도 1의 수중환경 영상 서비스 제공 시스템에 포함된 각 구성들 상호 간에 데이터가 송수신되는 과정을 나타낸 도면이다. 이하, 도 4를 통해 각 구성들 상호간에 데이터가 송수신되는 과정의 일 예를 설명할 것이나, 이와 같은 실시예로 본원이 한정 해석되는 것은 아니며, 앞서 설명한 다양한 실시예들에 따라 도 4에 도시된 데이터가 송수신되는 과정이 변경될 수 있음은 기술분야에 속하는 당업자에게 자명하다.
도 4를 참조하면, 영상 서비스 제공 서버(300)는, 다이버 단말(100)에서 영상을 촬영하고(S4100), 촬영 데이터를 전송하면(S4200), 이를 수신한 후 촬영 데이터를 편집하여(S4300), 편집된 촬영 데이터를 적어도 하나의 사용자 단말(400)로 전송한다(S4310). 그리고, 다이버 단말(100)은 편집된 촬영 데이터를 디스플레이로 출력하게 된다(S4330).
한편, 다이버 단말(100)의 다이버가 육지 또는 배 위에서 촬영을 하면서 수중으로 입수한 경우, 즉, 다이버 단말(100)의 수심센서가 0m를 감지하기 때문에 수심센서를 통하여 수중으로 입수된 것이 확인되면(S4400), 다이버 단말(100)은 무선통신기능을 턴오프함(S4410)으로써 무선통신이 가능하지 않은 수중환경에서 무선통신을 찾거나 전파를 송신하는데 컴퓨팅 자원 및 에너지 자원을 낭비하지 않도록 한다. 수중입수가 확인된 경우 수중입수 전 다이버 단말(100)에서 마지막으로 확인한 GPS 데이터는, 추측항법으로 다이버의 위치를 찾는 최초 위치로 설정되고 다이버 단말(100)은 다이버의 위치를 추적하기 시작한다(S4600). 이때, 영상 서비스 제공 서버(300)는 다이버 단말(100)의 수중입수 여부를 사용자 단말(400)의 댓글 데이터가 다이버 단말(100)로 도달하는지의 여부에 기초하여 판단하고(S4510), 사용자 단말(100)로 다이버가 수중입수 중임을 안내한다(S4530).
GPS 데이터는 수중에서 무력화되기 때문에 물 밖에서 확인한 마지막 GPS를 추측항법을 이용하는 첫 걸음으로 사용한다. 물론 초정밀 GPS로 수중에서도 GPS 확인이 되는 별도의 장비를 추가하는 경우는 예외일 수 있다. 본 발명의 일 실시예는 일반인들이 다수 사용하거나 이미 보유하고 있는 장비를 최대한 이용하므로 추측항법으로 다이버의 위치를 추측하는 방법을 이용한다. 이때, 다이버가 다이버 단말(100)의 다이버가 포인트, 예를 들어 산호섬을 발견했거나 고래를 발견하는 등 흥미를 끌 만한 객체가 카메라에 포착된 장소를 찾았다고 가정하면, 이때 다이버는 다이버 단말(100)의 물리적 버튼 등을 눌러 포인트라고 표시를 하게 된다(S4610).
이에 따라, [촬영 데이터 - 위치 데이터(추측항법) - 포인트 데이터]가 저장되므로, 촬영 데이터의 어느 프레임에서 고래가 발견되었는지를 사람이 일일이 동기화하거나 메타데이터를 태깅하지 않아도 되고, 편집을 할 때 모든 데이터를 보면서 객체를 하나하나 확인하지 않아도 되며, 또 그 포인트의 위치가 어디인지 어림짐작으로 모호하게 표시하지 않아도 된다. 이 과정은 다이버가 물 밖으로 나올 때까지 루프를 돌면서 계속되다가 다이버 단말(100)에서 수중출수를 감지한 경우(S4700), 무선통신기능을 다시 턴 온 시켜서(S4710), 영상 서비스 제공 서버(300)로 촬영 데이터와 포인트 데이터를 전송하게 된다(S4800).
이때, 영상 서비스 제공 서버(300)는, 포인트 데이터에 기초하여 객체를 인식하는데(S4810) 이는 자동으로 인식된 객체를 편집 단말(500)에서 컨펌하거나 오류를 수정하는 정도로 파악할 수도 있고, 편집 단말(500)에서 수동으로 객체를 지정하여 영상 서비스 제공 서버(300)로 전달하는 것도 가능하다(S4810). 그리고 나서, 영상 서비스 제공 서버(300)는, 촬영 데이터를 편집하는데(S4830) 이 과정 역시 편집 단말(500)에서 편집된 촬영 데이터를 업로드받는다는 의미이지 영상 서비스 제공 서버(300)에서 자체적으로 편집을 한다는 의미는 아니다. 이렇게 편집이 완료된 촬영 데이터는 영상 서비스 제공 서버(300)에서 사용자 단말(400)로 실시간 스트리밍 또는 전송되고(S4850), 다이버 단말(100)은 이를 출력하게 된다(S4870). 그리고 댓글 데이터는 다이버가 현재 물 밖으로 나왔으므로 사용자는 다이버에게, 다이버는 사용자에게 양방향으로 전송할 수 있고(S4900), 출수상태가 유지되는 한 양방향 메시지 전송은 가능하게 된다(S4910). 출수상태가 유지되지 않으면 S4410으로 복귀하여 루프를 돌게 된다.
상술한 단계들(S4100~S4910)간의 순서는 예시일 뿐, 이에 한정되지 않는다. 즉, 상술한 단계들(S4100~S4910)간의 순서는 상호 변동될 수 있으며, 이중 일부 단계들은 동시에 실행되거나 삭제될 수도 있다.
이와 같은 도 4의 수중환경 영상 서비스 제공 방법에 대해서 설명되지 아니한 사항은 앞서 도 1 내지 도 3을 통해 수중환경 영상 서비스 제공 방법에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.
도 5는 본 발명의 일 실시예에 따른 수중환경 영상 서비스 제공 방법을 설명하기 위한 동작 흐름도이다. 도 5를 참조하면, 영상 서비스 제공 서버는, GPS 위치 및 촬영된 영상을 수신하여 중계하고(S5100), 중계를 받는 적어도 하나의 사용자 단말의 댓글 데이터를 수집하고 다이버 단말로 전송한다(S5200).
그리고, 영상 서비스 제공 서버는, 다이버 단말에서 댓글 데이터를 수신불가한 경우 적어도 하나의 사용자 단말로 수중입수를 안내하고(S5300), 다이버 단말에서 촬영 데이터 및 포인트 데이터를 업로드하는 경우, 포인트 데이터를 기초로 촬영 데이터 내 객체를 인식한다(S5400).
또, 영상 서비스 제공 서버는, 촬영 데이터를 편집하고(S5500), 편집된 촬영 데이터를 적어도 하나의 사용자 단말로 전송한다(S5600).
도 5를 통해 설명된 일 실시예에 따른 수중환경 영상 서비스 제공 방법은, 컴퓨터에 의해 실행되는 애플리케이션이나 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다.
전술한 본 발명의 일 실시예에 따른 수중환경 영상 서비스 제공 방법은, 단말기에 기본적으로 설치된 애플리케이션(이는 단말기에 기본적으로 탑재된 플랫폼이나 운영체제 등에 포함된 프로그램을 포함할 수 있음)에 의해 실행될 수 있고, 사용자가 애플리케이션 스토어 서버, 애플리케이션 또는 해당 서비스와 관련된 웹 서버 등의 애플리케이션 제공 서버를 통해 마스터 단말기에 직접 설치한 애플리케이션(즉, 프로그램)에 의해 실행될 수도 있다. 이러한 의미에서, 전술한 본 발명의 일 실시예에 따른 수중환경 영상 서비스 제공 방법은 단말기에 기본적으로 설치되거나 사용자에 의해 직접 설치된 애플리케이션(즉, 프로그램)으로 구현되고 단말기에 등의 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (10)

  1. GPS로 위치를 확인하고 영상을 촬영하며, 수중입수가 감지되면 무선통신모듈을 턴오프(Turn Off)시켜 추측항법(Dead Reckoning Navigation)으로 다이버의 위치를 추적하고, 포인트(Point)가 지정된 경우 지정된 포인트를 포인트 데이터로 저장하고 수중출수가 감지되면 상기 무선통신모듈을 턴온(Turn On)시켜 촬영 데이터 및 포인트 데이터를 전송하는 다이버 단말; 및
    상기 GPS 위치 및 촬영된 영상을 수신하여 중계하는 중계부, 중계를 받는 적어도 하나의 사용자 단말의 댓글 데이터를 수집하고 상기 다이버 단말로 전송하는 전송부, 상기 다이버 단말에서 상기 댓글 데이터를 수신불가한 경우 상기 적어도 하나의 사용자 단말로 수중입수를 안내하는 안내부, 상기 다이버 단말에서 촬영 데이터 및 포인트 데이터를 업로드하는 경우, 상기 포인트 데이터를 기초로 촬영 데이터 내 객체를 인식하는 인식부, 상기 촬영 데이터를 편집하는 편집부, 상기 편집부의 편집된 촬영 데이터를 상기 적어도 하나의 사용자 단말로 전송하는 스트리밍부를 포함하는 영상 서비스 제공 서버;
    를 포함하는 수중환경 영상 서비스 제공 시스템.
  2. 제 1 항에 있어서,
    상기 다이버 단말은,
    상기 수중입수 또는 수중출수를 확인하기 위한 수심센서를 포함하는 것을 특징으로 하는 수중환경 영상 서비스 제공 시스템.
  3. 제 1 항에 있어서,
    상기 다이버 단말은,
    상기 수중입수 또는 수중출수를 확인하기 위하여 상기 다이버 단말 내 포함된 수중촬영장치 또는 상기 다이버 단말과 연동되는 수중촬영장치로부터 촬영된 촬영 데이터 내 음영지속시간을 모니터링하는 것을 특징으로 하는 수중환경 영상 서비스 제공 시스템.
  4. 제 1 항에 있어서,
    상기 다이버 단말은,
    상기 추측항법을 이용하기 위하여 자이로 센서를 포함하고, 상기 추측항법으로 다이버의 위치를 추정하기 위한 최초 위치는 상기 다이버 단말에서 획득한 마지막 GPS 위치인 것을 특징으로 하는 수중환경 영상 서비스 제공 시스템.
  5. 제 1 항에 있어서,
    상기 다이버 단말은,
    상기 포인트를 지정하기 위하여 입력을 받는 입력버튼을 포함하고,
    상기 입력버튼이 푸시되면 상기 다이버 단말에서 촬영한 촬영 데이터에 상기 포인트 데이터가 메타데이터로 태깅되고, 상기 메타데이터에 상기 입력버튼이 푸시된 시점의 시간 데이터 및 위치 데이터를 기록하는 것을 특징으로 하는 수중환경 영상 서비스 제공 시스템.
  6. 제 1 항에 있어서,
    상기 영상 서비스 제공 서버는,
    상기 사용자 단말로 상기 촬영 데이터 및 포인트 데이터를 전송할 때, 상기 사용자 단말의 화면 중 제 1 영역은 촬영 데이터를 표시하도록 레이아웃 및 프레임을 설정하고, 제 2 영역은 상기 다이버 단말의 위치 및 이동경로를 표시하도록 레이아웃 및 프레임을 설정하며, 제 3 영역은 상기 포인트 데이터가 태깅된 시점의 촬영 데이터 내 인식된 객체를 표시하도록 레이아웃 및 프레임을 설정하며, 제 4 영역은 상기 적어도 하나의 사용자 단말 간 댓글 데이터를 표시하도록 레이아웃 및 프레임을 설정하는 UI부;
    를 더 포함하는 것을 특징으로 하는 수중환경 영상 서비스 제공 시스템.
  7. 제 1 항에 있어서,
    상기 영상 서비스 제공 서버는,
    상기 다이버 단말에서 포인트가 지정된 경우 상기 포인트가 지정된 시점을 기준으로 촬영된 촬영 데이터 내 객체를 인공지능 알고리즘으로 자동으로 인식하고, 인식된 객체의 객체명 및 설명 콘텐츠를 기 구축된 데이터베이스에서 추출 또는 검색한 후 편집 단말로 전송하여 편집 화면 내 삽입 여부를 컨펌받는 자동삽입부;
    를 더 포함하는 것을 특징으로 하는 수중환경 영상 서비스 제공 시스템.
  8. 제 1 항에 있어서,
    상기 영상 서비스 제공 서버는,
    상기 다이버 단말의 무선통신기능이 턴온된 상태에서 상기 적어도 하나의 사용자 단말과 상기 다이버 단말 간 실시간 소통을 위하여 댓글 데이터를 양방향으로 송수신하는 송수신부;
    를 더 포함하는 것을 특징으로 하는 수중환경 영상 서비스 제공 시스템.
  9. 제 1 항에 있어서,
    상기 다이버 단말은,
    상기 수중입수가 감지되면 무선통신기능이 턴오프되어 촬영 데이터를 저장하고, 상기 수중출수의 감지로 무선통신기능이 턴온되면 저장된 촬영 데이터를 상기 영상 서비스 제공 서버로 전송하는 것을 특징으로 하는 수중환경 영상 서비스 제공 시스템.
  10. 제 1 항에 있어서,
    상기 수중환경 영상 서비스 제공 시스템은,
    상기 다이버 단말로부터 수신된 촬영 데이터 및 포인트 데이터를 이용하여 편집영상을 제작 및 업로드하는 적어도 하나의 편집 단말;
    을 더 포함하는 것을 특징으로 하는 수중환경 영상 서비스 제공 시스템.
KR1020210157574A 2021-11-16 2021-11-16 수중환경 영상 서비스 제공 시스템 KR102611414B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210157574A KR102611414B1 (ko) 2021-11-16 2021-11-16 수중환경 영상 서비스 제공 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210157574A KR102611414B1 (ko) 2021-11-16 2021-11-16 수중환경 영상 서비스 제공 시스템

Publications (2)

Publication Number Publication Date
KR20230071407A true KR20230071407A (ko) 2023-05-23
KR102611414B1 KR102611414B1 (ko) 2023-12-08

Family

ID=86545044

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210157574A KR102611414B1 (ko) 2021-11-16 2021-11-16 수중환경 영상 서비스 제공 시스템

Country Status (1)

Country Link
KR (1) KR102611414B1 (ko)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080019992A (ko) * 2006-08-30 2008-03-05 양돈영 수중 영상서비스 시스템 및 방법
KR101015039B1 (ko) * 2010-05-19 2011-02-21 엘아이지넥스원 주식회사 수중 위치 파악 시스템 및 그 방법
KR101462100B1 (ko) * 2014-07-03 2014-11-17 (주)지오시스템리서치 해저용 위치확인장치 및 이를 이용한 수중 위치확인시스템
KR101957807B1 (ko) * 2018-05-30 2019-03-14 (주) 비투아이 다인칭 시점의 sns 라이브 방송을 위한 오디오 중계 방법 및 시스템
KR20190046226A (ko) * 2017-10-25 2019-05-07 주식회사 다이브메모리 다이빙 로그 데이터를 이용한 수중 촬영 영상 관리 방법 및 시스템
KR20190094133A (ko) * 2019-04-16 2019-08-12 엘지전자 주식회사 객체를 인식하는 인공 지능 장치 및 그 방법
KR20200000083A (ko) * 2018-06-22 2020-01-02 포항공과대학교 산학협력단 잠수정의 수중항법 방법 및 시스템
KR102085859B1 (ko) * 2018-11-06 2020-03-06 주식회사 볼시스 실시간으로 수중 정보의 모니터링이 가능한 광통신 시스템 및 방법
KR20200058009A (ko) * 2018-11-19 2020-05-27 부산대학교 산학협력단 수중영상 분석장치 및 그 방법

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080019992A (ko) * 2006-08-30 2008-03-05 양돈영 수중 영상서비스 시스템 및 방법
KR101015039B1 (ko) * 2010-05-19 2011-02-21 엘아이지넥스원 주식회사 수중 위치 파악 시스템 및 그 방법
KR101462100B1 (ko) * 2014-07-03 2014-11-17 (주)지오시스템리서치 해저용 위치확인장치 및 이를 이용한 수중 위치확인시스템
KR20190046226A (ko) * 2017-10-25 2019-05-07 주식회사 다이브메모리 다이빙 로그 데이터를 이용한 수중 촬영 영상 관리 방법 및 시스템
KR101957807B1 (ko) * 2018-05-30 2019-03-14 (주) 비투아이 다인칭 시점의 sns 라이브 방송을 위한 오디오 중계 방법 및 시스템
KR20200000083A (ko) * 2018-06-22 2020-01-02 포항공과대학교 산학협력단 잠수정의 수중항법 방법 및 시스템
KR102085859B1 (ko) * 2018-11-06 2020-03-06 주식회사 볼시스 실시간으로 수중 정보의 모니터링이 가능한 광통신 시스템 및 방법
KR20200058009A (ko) * 2018-11-19 2020-05-27 부산대학교 산학협력단 수중영상 분석장치 및 그 방법
KR20190094133A (ko) * 2019-04-16 2019-08-12 엘지전자 주식회사 객체를 인식하는 인공 지능 장치 및 그 방법

Also Published As

Publication number Publication date
KR102611414B1 (ko) 2023-12-08

Similar Documents

Publication Publication Date Title
US10664708B2 (en) Image location through large object detection
US10430654B1 (en) Automated detection of environmental measures within an ocean environment using image data
US20190190865A1 (en) Message sharing method for sharing image data reflecting status of each user via chat room and computer program for executing same method
US9305024B2 (en) Computer-vision-assisted location accuracy augmentation
CN104520828B (zh) 自动媒体发布
US20150371114A1 (en) Classifying and annotating images based on user context
US20180103197A1 (en) Automatic Generation of Video Using Location-Based Metadata Generated from Wireless Beacons
CN111340131A (zh) 图像的标注方法、装置、可读介质和电子设备
US20230421725A1 (en) Virtual environment generation for collaborative building assessment
CN104284092A (zh) 拍照方法及智能终端、云端服务器
KR20140038355A (ko) 뷰이미지의 적어도 하나의 피처에 주석을 달기 위한 컴퓨터화 방법 및 장치
WO2012166874A2 (en) Computer-vision-assisted location check-in
CN112815923B (zh) 视觉定位方法和装置
US20150254042A1 (en) Three dimensional navigation among photos
JP6301779B2 (ja) センサ制御装置、センサ制御方法およびセンサ制御プログラム
US9141858B2 (en) Determining GPS coordinates for images
CN104520848A (zh) 按照出席者搜索事件
CN103491631A (zh) 基于二维码和wifi信号的室内定位系统和方法
CN115471662A (zh) 语义分割模型的训练方法、识别方法、装置和存储介质
CN106095830A (zh) 一种基于卷积神经网络的图像地理定位系统及方法
WO2012144124A1 (ja) 撮影画像処理システム、撮影画像処理方法、携帯端末及び情報処理装置
CN106250396B (zh) 一种图像标签自动生成系统及方法
KR102107208B1 (ko) 네트워크를 통한 오프라인 매장 정보 제공 방법 및 이에 사용되는 관리 서버
KR102611414B1 (ko) 수중환경 영상 서비스 제공 시스템
US8896708B2 (en) Systems and methods for determining, storing, and using metadata for video media content

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant