KR102527762B1 - System for survival swimming education using virtual reality - Google Patents

System for survival swimming education using virtual reality Download PDF

Info

Publication number
KR102527762B1
KR102527762B1 KR1020210186482A KR20210186482A KR102527762B1 KR 102527762 B1 KR102527762 B1 KR 102527762B1 KR 1020210186482 A KR1020210186482 A KR 1020210186482A KR 20210186482 A KR20210186482 A KR 20210186482A KR 102527762 B1 KR102527762 B1 KR 102527762B1
Authority
KR
South Korea
Prior art keywords
virtual reality
unit
user
scenario
filter
Prior art date
Application number
KR1020210186482A
Other languages
Korean (ko)
Inventor
김종철
Original Assignee
주식회사 제이씨메디랩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 제이씨메디랩 filed Critical 주식회사 제이씨메디랩
Priority to KR1020210186482A priority Critical patent/KR102527762B1/en
Application granted granted Critical
Publication of KR102527762B1 publication Critical patent/KR102527762B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/003Repetitive work cycles; Sequence of movements
    • G09B19/0038Sports
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • A61B5/0816Measuring devices for examining respiratory frequency
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/6803Head-worn items, e.g. helmets, masks, headphones or goggles
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Pulmonology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Tourism & Hospitality (AREA)
  • Remote Sensing (AREA)
  • Human Computer Interaction (AREA)
  • Economics (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Physiology (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

A system for survival swimming training using virtual reality is disclosed. The system for survival swimming training using virtual reality according to the present invention comprises: a VR device which provides a virtual reality screen; and a breathing control device which is controlled by the VR device. The breathing control device includes: a mask unit which comes in close contact with a user's face; a ventilation unit which is configured for ventilation inside and outside the mask unit; and a valve unit which opens and closes the ventilation unit. The valve unit can be controlled by the VR device.

Description

가상 현실을 이용한 생존 수영 교육 시스템{SYSTEM FOR SURVIVAL SWIMMING EDUCATION USING VIRTUAL REALITY}Survival swimming training system using virtual reality {SYSTEM FOR SURVIVAL SWIMMING EDUCATION USING VIRTUAL REALITY}

본 발명은 가상 현실을 이용한 생존 수영 교육 시스템에 관한 것이다. 보다 상세하게는, 가상 현실을 이용하여 사용자가 물에 들어가지 않고서도 생존 수영을 배울 수 있는 교육 시스템에 대한 것이다.The present invention relates to a survival swimming training system using virtual reality. More specifically, the present invention relates to an education system in which a user can learn survival swimming without entering water by using virtual reality.

VR 헤드셋은 선행 기술으로부터 상이한 형성 방식으로 공지되어 있고, 사용자의 시야에서 인공적으로 생성되는 표현물을 표시하는 역할을 한다. VR 헤드셋은 1개 또는 2개의 디스플레이 유닛으로 구성되고, 이러한 디스플레이 유닛은 평사(stereographic) 표현을 위해 역할한다. 사용자의 시야 내에 배치되는 각각 하나의 렌즈를 이용하여 사용자는 디스플레이 유닛 상에 표현되는 내용을 인지할 수 있다. VR headsets are known from the prior art in a different format and serve to display artificially created representations in the field of view of the user. A VR headset consists of one or two display units, which serve for stereographic presentation. The user can perceive contents displayed on the display unit using each lens disposed within the user's field of view.

이를 위해 VR 헤드셋은 사용자의 머리 위에서 사용자의 눈 앞에 위치결정되거나 고정될 수 있고, 디스플레이 유닛에 의해 표현되는 내용은 작업자의 시야 내에서 가급적 넓은 영역을 커버해야 한다. 이러한 방식의 표현 기계는 특히 디지털 방식으로 생성되는 소위 가상 현실 내용을 표현하기 위해 사용된다. 가상 현실의 표현물은 VR 헤드셋의 정렬 및/또는 위치에 따라 사용자의 머리 움직임에 대해 등속으로 실시간으로 조정될 수 있어서, 표현된 가상 현실은 사용자에 의해 매우 신뢰할만 하게 감지되고 높은 수준의 몰입감(immersion)이 달성된다.To this end, the VR headset may be positioned or fixed in front of the user's eyes above the user's head, and the contents expressed by the display unit should cover as wide an area as possible within the operator's field of view. A presentation machine of this type is used in particular for presenting so-called virtual reality content that is created digitally. The representation of virtual reality can be adjusted in real time with constant speed to the user's head movements according to the alignment and/or position of the VR headset, so that the presented virtual reality is very reliably perceived by the user and has a high degree of immersion. this is achieved

일반적으로, 해양에서 선박 또는 비행기에 의한 사고가 발생하면, 수많은 사상자가 발생하기 때문에, 선박 또는 비행기에 탑승하기 전에 구명조끼를 입고 선박 또는 비행기에서 안전하게 탈출하는 방법을 설명듣는다.In general, when an accident by a ship or airplane occurs in the sea, many casualties occur. Therefore, before boarding a ship or airplane, wear a life jacket and receive an explanation on how to escape safely from the vessel or airplane.

그러나, 선박 또는 비행기에서 조난사고가 발생되면, 구조가 필요한 조난자들은 급박한 사고 상황에서 혼란에 빠지게 되어 사고시 대처사항들을 잊게 되므로, 실제 상황과 비슷한 환경에서 조난사고 발생 시 침착하게 대처할 수 있는 훈련이 필요하다.However, when a distress accident occurs on a ship or airplane, the victims in need of rescue get confused in the imminent accident situation and forget what to do in case of an accident. need.

이와 관련하여 종래에는 이동형 생존수영 체험 장치에 대한 발명을 개시하고 있다. 다만, 이와 같이 별도의 이동형 장치 등으로 수영을 교육하는 경우 시간과 자원과 공간의 심각한 낭비를 초래하는 문제가 있다. 또한, 물 공포증을 가지는 경우 등 실제 물에서는 생존 수영을 배울 수 없는 사람들도 존재한다. In this regard, the invention of a mobile survival swimming experience device has been disclosed. However, there is a problem of causing a serious waste of time, resources, and space when swimming is taught using a separate mobile device. In addition, there are people who cannot learn survival swimming in real water, such as those who have water phobia.

이에, 최근 발전하는 VR 기술을 적용하여 이러한 문제를 해결할 필요가 있다. Accordingly, it is necessary to solve these problems by applying the recently developed VR technology.

KR200492067Y1 (발명의 명칭: 이동형 생존수영 체험장치)KR200492067Y1 (Title of invention: mobile survival swimming experience device)

본 발명의 목적은 가상 현실을 이용하여 사용자가 물에 들어가지 않고서도 생존 수영을 배울 수 있는 교육 시스템을 제공하는 것이다. An object of the present invention is to provide an educational system in which a user can learn survival swimming without entering the water by using virtual reality.

상술한 문제점을 해결하기 위하여, 본 발명은 가상 현실 화면을 제공하기 위한 VR 장치 및 상기 VR 장치에 의하여 제어되는 호흡 조절 장치를 포함하되, 상기 호흡 조절 장치는 사용자의 안면에 밀착하는 마스크부, 상기 마스크부의 내외부의 통기를 위한 통기 유닛 및 상기 통기 유닛을 개폐하는 밸브 유닛을 포함하되, 상기 밸브 유닛은 상기 VR 장치에 의하여 제어될 수 있다. In order to solve the above problems, the present invention includes a VR device for providing a virtual reality screen and a breathing control device controlled by the VR device, wherein the breathing control device includes a mask unit in close contact with the user's face, the A ventilation unit for ventilation of the inside and outside of the mask unit and a valve unit for opening and closing the ventilation unit may be controlled by the VR device.

또한, 상기 VR 장치는 제1 시나리오에 따른 가상 현실 화면을 제공하는 경우 상기 밸브 유닛을 폐쇄 상태로 제어하고, 제2 시나리오에 따른 가상 현실 화면을 제공하는 경우 상기 밸브 유닛을 개방 상태로 제어할 수 있다. In addition, the VR device may control the valve unit in a closed state when providing a virtual reality screen according to a first scenario, and control the valve unit in an open state when providing a virtual reality screen according to a second scenario. there is.

또한, 상기 제1 시나리오는 사용자가 물 속에 빠진 상황에 대한 시나리오이고, 상기 제2 시나리오는 사용자가 물 속에 빠진 이후 얼굴을 물 위로 들어올린 상황에 대한 시나리오일 수 있다. Also, the first scenario may be a scenario in which the user falls into the water, and the second scenario may be a scenario in which the user raises his/her face above the water after falling in the water.

또한, 상기 VR 장치는 기울기 센서를 포함하고, 상기 VR 장치는 상기 기울기 센서로부터 측정된 값이 미리 설정된 범위 내인 경우, 상기 제2 시나리오에 따른 가상 현실 화면을 제공할 수 있다. In addition, the VR device may include a tilt sensor, and the VR device may provide a virtual reality screen according to the second scenario when a value measured by the tilt sensor is within a preset range.

또한, 상기 시스템은, 상기 가상 현실 화면에 대응하는 크기의 볼 풀(ball pool)을 더 포함할 수 있다. In addition, the system may further include a ball pool having a size corresponding to the virtual reality screen.

또한, 상기 마스크부는 내부에 호흡을 측정하는 호흡 센서를 더 포함하고, 상기 VR 장치는 상기 밸브 유닛을 제어하고, 상기 호흡 센서로부터 측정된 호흡 데이터를 수신하는 제어부를 더 포함할 수 있다. In addition, the mask unit further includes a respiration sensor for measuring respiration therein, and the VR device may further include a control unit for controlling the valve unit and receiving respiration data measured from the respiration sensor.

또한, 상기 VR 장치는 상기 사용자의 시선 방향에 따른 외부의 영상 데이터를 생성하기 위한 외부 인식부를 더 포함할 수 있다. In addition, the VR device may further include an external recognition unit for generating external image data according to the user's gaze direction.

본 발명은 사용자가 물에 들어가지 않고서도 생존 수영을 학습할 수 있는 효과를 가진다. The present invention has an effect of enabling the user to learn survival swimming without entering the water.

또한, 본 발명은 사용자의 호흡 상태를 조절하여 실제 물에 들어가 있는 상태와 동일한 상태를 제공할 수 있다. In addition, the present invention can provide the same state as actually entering the water by adjusting the user's breathing state.

또한, 본 발명은 사용자의 호흡 상태를 감지하여 사용자의 긴장 상태를 측정하고 그에 대응하는 적절한 피드백을 제공하여 사용자의 긴장을 완화함으로써 보다 효율적으로 생존 수영 교육을 제공할 수 있는 효과를 가진다. In addition, the present invention detects the user's breathing state, measures the user's tension state, and provides appropriate feedback corresponding thereto to alleviate the user's tension, thereby providing survival swimming training more efficiently.

본 발명에 따라 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 명세서가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Effects obtainable according to the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below. will be.

도 1은 본 발명에 따른 가상 현실을 이용한 생존 수영 교육 시스템을 나타낸 것이다.
도 2는 본 발명에 따른 호흡 조절 장치 및 볼 풀(ball pool)을 나타낸 것이다.
도 3은 본 발명에 따른 VR 장치를 개략적으로 나타낸 것이다.
도 4는 본 발명에 따른 제어부를 개략적으로 나타낸 것이다.
도 5는 본 발명에 따른 이미지 보정 필터의 예시를 나타낸 도면이다.
도 8은 본 발명에 따른 HSV 그래프를 나타낸 것이다.
본 명세서에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는, 첨부 도면은 본 명세서에 대한 실시예를 제공하고, 상세한 설명과 함께 본 명세서의 기술적 특징을 설명한다.
1 shows a survival swimming training system using virtual reality according to the present invention.
2 shows a breathing control device and a ball pool according to the present invention.
3 schematically shows a VR device according to the present invention.
4 schematically shows a control unit according to the present invention.
5 is a diagram showing an example of an image correction filter according to the present invention.
8 shows a HSV graph according to the present invention.
The accompanying drawings, which are included as part of the detailed description to aid understanding of the present specification, provide examples of the present specification and describe technical features of the present specification together with the detailed description.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. Hereinafter, the embodiments disclosed in this specification will be described in detail with reference to the accompanying drawings, but the same or similar elements are given the same reference numerals regardless of reference numerals, and redundant description thereof will be omitted.

또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. In addition, in describing the embodiments disclosed in this specification, if it is determined that a detailed description of a related known technology may obscure the gist of the embodiment disclosed in this specification, the detailed description thereof will be omitted.

또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in this specification, the technical idea disclosed in this specification is not limited by the accompanying drawings, and all changes included in the spirit and technical scope of the present invention , it should be understood to include equivalents or substitutes.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinal numbers, such as first and second, may be used to describe various components, but the components are not limited by the terms. These terms are only used for the purpose of distinguishing one component from another.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.Singular expressions include plural expressions unless the context clearly dictates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this application, terms such as "comprise" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.

이하, 상술한 내용들을 바탕으로 본 명세서의 바람직한 일 실시예에 따른, 가상 현실을 이용한 생존 수영 교육 시스템에 관하여 상세히 설명하면 다음과 같다.Hereinafter, a survival swimming training system using virtual reality according to a preferred embodiment of the present specification will be described in detail based on the above information.

생존 수영이라 함은 물에서 개인의 생명을 지키고, 위기에 대처할 수 있도록 하는 수영법이며, 일반적인 수영과 다르게 기록의 단축을 목적으로 하지 않고, 물 위에서 최소한의 체력으로 최대한 오래 머무는 것에 초점을 맞추는 것이다. Survival swimming is a swimming method that protects an individual's life in the water and helps to cope with a crisis. .

도 1은 본 발명에 따른 가상 현실을 이용한 생존 수영 교육 시스템을 나타낸 것이다. 1 shows a survival swimming training system using virtual reality according to the present invention.

도 1에 따르면, 본 발명에 따른 가상 현실을 이용한 생존 수영 교육 시스템은 호흡 조절 장치(100), VR 장치(200)를 포함할 수 있다. 또한, 본 발명에 따른 시스템은 볼 풀(ball pool, 300)을 더 포함할 수 있다. According to FIG. 1 , the survival swimming training system using virtual reality according to the present invention may include a breathing control device 100 and a VR device 200. In addition, the system according to the present invention may further include a ball pool (300).

호흡 조절 장치(100)는 사용자의 안면에 착용될 수 있다. 호흡 조절 장치(100)는 사용자의 안면에 밀착되고, 사용자의 입과 코를 덮는 형태를 가질 수 있다. 호흡 조절 장치(100)는 VR 장치(200)의 제어에 따라 사용자의 호흡을 조절하기 위한 개폐 수단을 포함할 수 있다. Breath control device 100 may be worn on the user's face. The breathing control device 100 may be in close contact with the user's face and cover the user's mouth and nose. The breathing control device 100 may include an opening/closing means for controlling the user's breathing under the control of the VR device 200 .

VR 장치(200)는 사용자에 착용되어 사용자에게 가상 현실 화면을 제공할 수있는 모든 장치를 의미할 수 있다. VR 장치(200)는 미리 정해진 시나리오별로 가상 현실 화면을 제공할 수 있다. 또한, VR 장치(200)는 외부 서버로부터 수신한 화면 데이터를 구성하여 가상 현실 화면으로 사용자에게 제공할 수 있다. The VR device 200 may refer to any device that can be worn on a user and provide a virtual reality screen to the user. The VR device 200 may provide a virtual reality screen for each predetermined scenario. In addition, the VR device 200 may configure the screen data received from the external server and provide it to the user as a virtual reality screen.

도 2는 본 발명에 따른 호흡 조절 장치 및 볼 풀(ball pool)을 나타낸 것이다. 2 shows a breathing control device and a ball pool according to the present invention.

도 2(a)에 따르면, 본 발명에 따른 호흡 조절 장치(100)는 사용자의 안면에 밀착하는 마스크부(110), 마스크부(110)의 내외부의 통기를 위한 통기 유닛(120) 및 통기 유닛(120)을 개폐하는 밸브 유닛(130)을 포함할 수 있다. 마스크부(110)는 사용자의 안면에 밀착되어 내외부의 공기를 차단할 수 있다. 마스크부(110)는 사용자의 입과 코를 덮는 형태를 가질 수 있다. 마스크부(110)는 조임끈(111)과 연결되어 사용자의 안면에 밀착될 수 있고, 조임끈(111)은 마스크부(110)를 사용자의 안면에 밀착시키고 고정시킬 수 있다. According to FIG. 2 (a), the breathing control device 100 according to the present invention includes a mask unit 110 in close contact with the user's face, a ventilation unit 120 for ventilation of the inside and outside of the mask unit 110, and a ventilation unit It may include a valve unit 130 that opens and closes (120). The mask unit 110 may be in close contact with the user's face to block internal and external air. The mask unit 110 may have a shape that covers the user's mouth and nose. The mask unit 110 may be connected to the drawstring 111 to be in close contact with the user's face, and the drawstring 111 may adhere and fix the mask portion 110 to the user's face.

통기 유닛(120)은 마스크부(110)의 일 측을 관통하도록 형성되며, 마스크부(110)의 내외부를 관통하는 구성일 수 있다. 통기 유닛(120)은 마스크부(110)를 관통하는 관통부와 관통부를 외부로 연결하는 연결관을 포함할 수 있다. The ventilation unit 120 is formed to pass through one side of the mask unit 110 and may pass through the inside and outside of the mask unit 110 . The ventilation unit 120 may include a penetrating portion penetrating the mask unit 110 and a connection pipe connecting the penetrating portion to the outside.

밸브 유닛(130)은 통기 유닛(120)을 개폐하는 구성으로서, 마스크부(110)의 일측을 관통하도록 형성된 통기 유닛(120)의 내부를 개폐하는 밸브 형태의 구성일 수 있다. 밸브 유닛(130)은 관통부에 설치되거나 연결관의 일 부분에 설치될 수 있으며, VR 장치(도 1의 200) 또는 VR 장치(도 1의 200)에 포함된 제어부에 의하여 제어될 수 있다. The valve unit 130 is configured to open and close the ventilation unit 120 and may have a valve shape configured to open and close the inside of the ventilation unit 120 formed to pass through one side of the mask unit 110 . The valve unit 130 may be installed in the penetrating part or in a part of the connecting pipe, and may be controlled by a VR device (200 in FIG. 1) or a control unit included in the VR device (200 in FIG. 1).

도 2(b)에 따르면, 본 발명에 따른 볼 풀(ball pool, 300)은 미리 정해진 면적, 미리 정해진 깊이, 미리 정해진 형태를 가질 수 있다. 볼 풀(300)은 사용자가 물에 뜨거나 가라앉은 상황과 유사한 상황을 제공하기 위함이며, 본 발명에 따른 VR 장치(도 1의 200)는 카메라 모듈(이하, 외부 인식부(210))을 이용하여 볼 풀(300) 또는 볼 풀(300)의 벽면을 인식하여 기준선을 생성하고, 생성된 기준선을 기초로 가상 현실 화면을 제공할 수 있다. 즉, 볼 풀(300)은 가상 현실 화면에 대응하는 크기, 형태 등을 가질 수 있다. According to FIG. 2(b), a ball pool 300 according to the present invention may have a predetermined area, a predetermined depth, and a predetermined shape. The ball pool 300 is intended to provide a situation similar to a situation in which a user floats or sinks in water, and the VR device (200 in FIG. 1) according to the present invention uses a camera module (hereinafter, an external recognition unit 210). It is possible to recognize the ball pool 300 or a wall surface of the ball pool 300 to create a reference line, and provide a virtual reality screen based on the created reference line. That is, the ball pool 300 may have a size and shape corresponding to a virtual reality screen.

도 3은 본 발명에 따른 VR 장치를 개략적으로 나타낸 것이다. 3 schematically shows a VR device according to the present invention.

도 3에 따르면, 본 발명에 따른 VR 장치(200)는 외부를 촬영하는 카메라 모듈인 외부 인식부(210), 사용자의 움직임 등을 감지하기 위한 센싱부(220) 및 VR 장치(200)에 포함된 구성들을 제어할 뿐만 아니라 호흡 조절 장치(도 1의 100)를 제어하기 위한 제어부(230)를 포함할 수 있다. According to FIG. 3, the VR device 200 according to the present invention includes an external recognition unit 210, which is a camera module for capturing the outside, a sensing unit 220 for detecting a user's movement, and the VR device 200. It may include a control unit 230 for controlling the respiration control device (100 in FIG. 1) as well as controlling the configured components.

외부 인식부(210)는 VR 장치(200)를 사용자가 착용하더라도 외부를 인식할 필요가 있는 경우 사용자의 시선 방향에 따라 VR 장치(200)의 외부 상황을 촬영하기 위한 것으로서, VR 장치(200)는 외부 인식부(210)로부터 생성된 영상 데이터를 사용자에게 화면으로 제공할 수 있다. The external recognition unit 210 is for capturing the external situation of the VR device 200 according to the direction of the user's gaze when it is necessary to recognize the outside even when the user wears the VR device 200, and the VR device 200 may provide the image data generated by the external recognition unit 210 to the user as a screen.

센싱부(220)는 가속도 센서를 이용하여 사용자의 움직임을 감지할 수 있을 뿐만 아니라 기울기 센서를 이용하여 사용자의 현재 기울기 상태를 감지할 수 있다. 구체적으로, 사용자가 볼 풀(300)에 누워있는 경우 사용자의 시선 방향과 머리의 기울기를 감지할 수 있다. 즉, 센싱부(220)는 가속도 센서 및/또는 기울기 센서를 포함할 수 있다. The sensing unit 220 may detect the user's movement using an acceleration sensor and also detect the current tilt state of the user using a tilt sensor. Specifically, when the user lies down in the ball pool 300, the direction of the user's gaze and the inclination of the head may be detected. That is, the sensing unit 220 may include an acceleration sensor and/or a tilt sensor.

또한, 센싱부(220)는 마스크부(도 2의 110) 내부에 설치되어 사용자의 호흡을 측정하는 호흡 센서를 더 포함할 수 있다. 호흡 센서는 사용자의 들숨과 날숨의 패턴을 측정하기 위한 것이다. 호흡 센서에서 측정된 데이터는 제어부(230)로 전달될 수 있다. In addition, the sensing unit 220 may further include a respiration sensor installed inside the mask unit (110 in FIG. 2 ) to measure the respiration of the user. The respiration sensor is for measuring a user's inhalation and exhalation pattern. Data measured by the respiration sensor may be transmitted to the controller 230 .

제어부(230)는 외부 인식부(210)로부터 생성된 영상 데이터를 화면 데이터로 구성하여 사용자에게 제공할 수 있다. 또한, 제어부(230)는 센싱부(220)로부터 감지 데이터를 수신하고, 감지 데이터를 기초로 가상 화면 데이터를 제공할 수 있다. 일 예로, 사용자가 왼쪽 방향으로 움직인 것으로 감지되면, 제어부(230)는 사용자의 움직임 방향으로 가상 현실 화면을 변경하여 제공할 수 있으며, 이는 종래의 기술을 그대로 활용할 수 있다. The control unit 230 may configure the image data generated by the external recognition unit 210 as screen data and provide it to the user. Also, the controller 230 may receive sensing data from the sensing unit 220 and provide virtual screen data based on the sensing data. For example, if it is detected that the user moves in the left direction, the controller 230 may change and provide a virtual reality screen in the direction of the user's movement, which can utilize conventional technology as it is.

또한, 제어부(230)는 기울기 센서로부터 감지된 기울기 정보가 미리 설정된 범위 내인 경우에 한하여 호흡 조절 장치(도 1의 100)의 밸브 유닛(도 2의 130)을 제어하여 통기 유닛(120)을 개방할 수 있다. 반대로, 제어부(230)는 기울기 센서로부터 감지된 지울기 정보가 미리 설정된 범위 밖인 경우에 호흡 조절 장치(도 1의 100)의 밸브 유닛(도 2의 130)을 제어하여 통기 유닛(120)을 폐쇄할 수 있다.In addition, the controller 230 controls the valve unit (130 in FIG. 2) of the breathing control device (100 in FIG. 1) to open the ventilation unit 120 only when the tilt information detected by the tilt sensor is within a preset range. can do. Conversely, the control unit 230 controls the valve unit (130 in FIG. 2) of the breathing control device (100 in FIG. 1) to close the ventilation unit 120 when the erase information detected from the tilt sensor is outside the preset range can do.

또한, 제어부(230)는 제1 시나리오에 따른 가상 현실 화면을 제공하는 경우 밸브 유닛(도 2의 130)을 폐쇄 상태로 제어하고, 제2 시나리오에 따른 가상 현실 화면을 제공하는 경우 상기 밸브 유닛(도 2의 130)을 개방 상태로 제어할 수 있다. 이때, 제1 시나리오는 사용자가 물 속에 빠진 상황에 대한 시나리오이고, 제2 시나리오는 사용자가 물 속에 빠진 이후 얼굴을 물 위로 들어올린 상황에 대한 시나리오일 수 있다. In addition, the controller 230 controls the valve unit (130 in FIG. 2 ) in a closed state when providing a virtual reality screen according to the first scenario, and when providing a virtual reality screen according to the second scenario, the valve unit ( 130 of FIG. 2) may be controlled to be in an open state. In this case, the first scenario may be a scenario in which the user falls into the water, and the second scenario may be a scenario in which the user raises his/her face above the water after falling into the water.

일 예로, 사용자가 물 속에 빠진 상황에 대한 제1 시나리오에 따른 가상 현실 화면이 VR 장치(200)를 통하여 사용자에게 제공되면, 제어부(230)는 밸브 유닛(도 2의 130)을 제어하여 호흡 조절 장치(도 1의 100)의 통기 유닛(120)을 폐쇄할 수 있다. 이로써 사용자의 호흡이 조절되어 사용자는 물 속에 빠진 상황과 유사한 느낌을 받을 수 있다. For example, when a virtual reality screen according to the first scenario for a situation in which the user is drowning is provided to the user through the VR device 200, the controller 230 controls the valve unit (130 in FIG. 2 ) to control respiration. The ventilation unit 120 of the device ( 100 in FIG. 1 ) may be closed. As a result, the user's breathing is controlled so that the user can feel similar to a situation in which he or she is drowning.

일 예로, 사용자가 물 속에서 얼굴을 물 밖으로 드러낸 상황에 대한 제2 시나리오에 따른 가상 현실 화면이 VR 장치(200)를 통하여 사용자에게 제공되면, 제어부(230)는 호흡 조절 장치(도 1의 100)의 통기 유닛(120)을 개방하도록 밸브 유닛(도 2의 130)을 제어할 수 있다. 제2 시나리오가 실현되기 위해서는 제1 시나리오에 따른 가상 현실 화면이 제공된 이후, 기울기 센서로부터 미리 정해진 범위의 각도가 측정되어야 한다. For example, when a virtual reality screen according to the second scenario for a situation in which the user exposes his/her face out of the water in the water is provided to the user through the VR device 200, the control unit 230 controls the breathing control device (100 in FIG. 1 ). The valve unit ( 130 in FIG. 2 ) may be controlled to open the ventilation unit 120 of ). In order to realize the second scenario, after the virtual reality screen according to the first scenario is provided, an angle within a predetermined range must be measured from the tilt sensor.

즉, 생존 수영은 물 속에서 힘을 빼고 고개를 뒤로 젖혀 가만히 있으면 얼굴이 물 밖으로 드러나는 것을 이용한 수영 방법으로서, 본 발명에 따른 시스템은 이러한 생존 수영의 자세를 사용자로 하여금 유도하기 위한 것이다. That is, survival swimming is a swimming method using the fact that the face is exposed out of the water when the head is tilted back and relaxed in the water.

제어부(230)는 호흡 센서로부터 사용자의 호흡 패턴 정보를 획득할 수 있다. 제어부(230)는 호흡 패턴 정보를 통하여 사용자의 긴장 상태 여부를 감지할 수 있다. 사용자가 과도한 긴장 상태로 분류되면, 제어부(230)는 밸브 유닛(도 2의 130)을 제어하여 통기 유닛(120)을 개방할 수 있다. Control unit 230 may obtain the user's breathing pattern information from the breathing sensor. The controller 230 may detect whether or not the user is in a state of tension through breathing pattern information. When the user is classified as being in an excessive tension state, the controller 230 may control the valve unit ( 130 of FIG. 2 ) to open the ventilation unit 120 .

특히, 물 공포증을 가지거나 물 속에 들어가는 것에 대한 트라우마를 가진 사용자들의 경우, VR 장치(200)를 사용한다고 하더라도 과도한 긴장 상태에 있을 수 있기 때문에, 사용자에게 과도한 스트레스를 주지 않기 위하여 제어부(230)는 호흡 센서를 이용하여 사용자의 긴장 상태를 감지할 수 있다. In particular, in the case of users who have water phobia or trauma about going into water, even if they use the VR device 200, they may be in a state of excessive tension. A user's state of tension may be detected using a respiration sensor.

도 4는 본 발명에 따른 제어부를 개략적으로 나타낸 것이다. 4 schematically shows a control unit according to the present invention.

도 4에 따르면, 본 발명에 따른 제어부(230)는 프로세서, 메모리 및 통신 모듈을 포함할 수 있다. According to FIG. 4 , the controller 230 according to the present invention may include a processor, a memory and a communication module.

프로세서(231)는 메모리(232)에 저장된 명령어를 실행하여 다른 구성들을 제어할 수 있다. 프로세서(231)는 메모리(232)에 저장된 명령어를 수행할 수 있다. The processor 231 may execute commands stored in the memory 232 to control other components. The processor 231 may execute instructions stored in the memory 232 .

프로세서(231)는, 연산을 수행하고 다른 장치를 제어할 수 있는 구성이다. 주로, 중앙 연산 장치(CPU), 어플리케이션 프로세서(AP), 그래픽스 처리 장치(GPU) 등을 의미할 수 있다. 또한, CPU, AP 또는 GPU는 그 내부에 하나 또는 그 이상의 코어들을 포함할 수 있으며, CPU, AP 또는 GPU는 작동 전압과 클락 신호를 이용하여 작동할 수 있다. 다만, CPU 또는 AP는 직렬 처리에 최적화된 몇 개의 코어로 구성된 반면, GPU는 병렬 처리용으로 설계된 수 천 개의 보다 소형이고 효율적인 코어로 구성될 수 있다.The processor 231 is a component capable of performing calculations and controlling other devices. Mainly, it may mean a central processing unit (CPU), an application processor (AP), a graphics processing unit (GPU), and the like. Also, the CPU, AP, or GPU may include one or more cores therein, and the CPU, AP, or GPU may operate using an operating voltage and a clock signal. However, while a CPU or AP consists of a few cores optimized for serial processing, a GPU may consist of thousands of smaller and more efficient cores designed for parallel processing.

프로세서(231)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(232)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.The processor 231 may provide or process appropriate information or functions to a user by processing signals, data, information, etc. input or output through the components described above or by running an application program stored in the memory 232.

메모리(232)는 제어부(230)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(232)는 제어부(230)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 제어부(230)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 응용 프로그램은, 메모리(232)에 저장되고, 제어부(230)에 설치되어, 프로세서(231)에 의하여 상기 제어부(230)의 동작(또는 기능)을 수행하도록 구동될 수 있다.The memory 232 stores data supporting various functions of the controller 230 . The memory 232 may store a plurality of application programs (applications) driven by the control unit 230, data for operation of the control unit 230, and commands. At least some of these application programs may be downloaded from an external server through wireless communication. In addition, the application program may be stored in the memory 232, installed in the control unit 230, and driven by the processor 231 to perform the operation (or function) of the control unit 230.

메모리(232)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 메모리(232)는 인터넷(internet)상에서 저장 기능을 수행하는 웹 스토리지(web storage)를 포함할 수도 있다.The memory 232 may be a flash memory type, a hard disk type, a solid state disk type, a silicon disk drive type, or a multimedia card micro type. ), card-type memory (eg SD or XD memory, etc.), RAM (random access memory; RAM), SRAM (static random access memory), ROM (read-only memory; ROM), EEPROM (electrically erasable programmable read -only memory), a programmable read-only memory (PROM), a magnetic memory, a magnetic disk, and an optical disk. Also, the memory 232 may include a web storage performing a storage function on the Internet.

통신 모듈(233)은 안테나를 통해 기지국 또는 통신 기능을 포함하는 카메라와 정보의 송수신을 실행한다. 통신 모듈(233)은 변조부, 복조부, 신호 처리부 등을 포함할 수 있다. 또한, 통신 모듈(233)은 유선 통신 기능을 수행할 수 있다. The communication module 233 transmits and receives information with a base station or a camera having a communication function through an antenna. The communication module 233 may include a modulation unit, a demodulation unit, a signal processing unit, and the like. Also, the communication module 233 may perform a wired communication function.

무선 통신은, 통신사들이 기존에 설치해둔 통신 시설과 그 통신 시설의 주파수를 사용하는 무선 통신망을 사용한 통신을 말할 수 있다. 이때, 통신 모듈(233)은 CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access) 등과 같은 다양한 무선 통신 시스템에 사용될 수 있으며, 뿐만 아니라, 통신 모듈(233)은 3GPP(3rd generation partnership project) LTE(long term evolution) 등에도 사용될 수 있다. 또한, 최근 상용화 중인 5G 통신뿐만 아니라, 추후 상용화가 예정되어 있는 6G 등도 사용될 수 있다. 다만, 본 명세서는 이와 같은 무선 통신 방식에 구애됨이 없이 기설치된 통신망을 활용할 수 있다.Wireless communication may refer to communication using a wireless communication network using a communication facility previously installed by telecommunication companies and a frequency of the communication facility. At this time, the communication module 233 is code division multiple access (CDMA), frequency division multiple access (FDMA), time division multiple access (TDMA), orthogonal frequency division multiple access (OFDMA), single carrier frequency division multiple (SC-FDMA) access), and the like, as well as the communication module 233 can also be used for 3rd generation partnership project (3GPP) long term evolution (LTE). In addition, not only 5G communication, which is currently being commercialized, but also 6G, which is scheduled to be commercialized later, can be used. However, the present specification may utilize a pre-installed communication network without being bound by such a wireless communication method.

또한, 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), BLE(Bluetooth Low Energy), 비콘(Beacon), RFID(Radio Frequency Identification), NFC(Near Field Communication), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.In addition, as a short range communication technology, Bluetooth, BLE (Bluetooth Low Energy), Beacon, RFID (Radio Frequency Identification), NFC (Near Field Communication), infrared communication (Infrared Data Association; IrDA) ), UWB (Ultra Wideband), ZigBee, etc. may be used.

도 4에 따르면, 본 발명에 따른 제어부(230)는 비전 인식 모듈(234)을 더 포함할 수 있다. 본 발명에 따른 비전 인식 모듈(234)은 외부 인식부(210)에서 생성된 영상 데이터에서 볼 풀(도 1의 300)의 벽면을 자동으로 인식하기 위한 구성일 수 있다. 비전 인식 모듈(234)은 영상 데이터에서 볼 풀(도 1의 300)의 벽면을 자동으로 인식하고, 인식된 벽면을 기준으로 가상 현실 화면을 제공할 수 있다. 일 예로, VR 장치(200)는 비전 인식 모듈(234)에 의하여 인식된 벽면 내부를 수영장으로 대체하는 가상 현실 화면을 제공할 수 있다. 비전 인식 모듈(234)은 CNN 알고리즘을 통하여 볼 풀(도 1의 300)의 벽면을 자동으로 인식할 수 있다. According to FIG. 4 , the controller 230 according to the present invention may further include a vision recognition module 234 . The vision recognition module 234 according to the present invention may be configured to automatically recognize a wall surface of the ball pool (300 in FIG. 1 ) from image data generated by the external recognition unit 210 . The vision recognition module 234 may automatically recognize a wall of the ball pool (300 in FIG. 1 ) from image data and provide a virtual reality screen based on the recognized wall. For example, the VR device 200 may provide a virtual reality screen that replaces the inside of a wall recognized by the vision recognition module 234 with a swimming pool. The vision recognition module 234 may automatically recognize the wall of the ball pool (300 in FIG. 1) through a CNN algorithm.

도 5는 본 발명에 따른 이미지 보정 필터의 예시를 나타낸 도면이고, 도 8은 본 발명에 따른 HSV 그래프를 나타낸 것이다.5 is a diagram showing an example of an image correction filter according to the present invention, and FIG. 8 shows a HSV graph according to the present invention.

도 7에 따르면, 필터의 종류와 기능이 나타나 있다. 즉, CNN 알고리즘은 복수의 레이어를 사용하는 학습 알고리즘일 수 있다. 또한, CNN 알고리즘은 이미지 분류 정확도를 최대화하는 필터를 자동으로 학습할 수 있으며, 합성곱 계층과 폴링 계층이라고 하는 새로운 층을 풀리 커넥티드 계층 이전에 추가함으로써 원본 이미지에 필터링 기법을 적용한 뒤에 필터링된 이미지에 대해 분류 연산을 수행할 수 있다. CNN 알고리즘은 합성곱 계층 (convolutional layer)과 풀링 계층 (pooling layer)이라고 하는 새로운 층을 fully-connected 계층 이전에 추가함으로써 원본 이미지에 필터링 기법을 적용한 뒤에 필터링된 이미에 대해 분류 연산이 수행되도록 구성될 수 있다. According to Figure 7, the type and function of the filter is shown. That is, the CNN algorithm may be a learning algorithm using a plurality of layers. In addition, the CNN algorithm can automatically learn a filter that maximizes image classification accuracy, and by adding a new layer called a convolutional layer and a polling layer before the fully connected layer, after applying the filtering technique to the original image, the filtered image A classification operation can be performed on . The CNN algorithm is configured to apply a filtering technique to the original image by adding a new layer, called a convolutional layer and a pooling layer, before the fully-connected layer, and then perform a classification operation on the filtered image. can

이때, CNN 알고리즘을 사용한 이미지 필터에 대한 연산식은 아래의 수학식 1과 같다. At this time, the operation expression for the image filter using the CNN algorithm is as shown in Equation 1 below.

[수학식 1][Equation 1]

Figure 112021149551710-pat00001
Figure 112021149551710-pat00001

(단, (step,

Figure 112021149551710-pat00002
: 행렬로 표현된 필터링된 이미지의 i번째 행, j번째 열의 픽셀,
Figure 112021149551710-pat00002
: pixels in the i-th row and j-th column of the filtered image expressed as a matrix,

Figure 112021149551710-pat00003
: 필터,
Figure 112021149551710-pat00003
: filter,

Figure 112021149551710-pat00004
: 이미지,
Figure 112021149551710-pat00004
: image,

Figure 112021149551710-pat00005
: 필터의 높이 (행의 수),
Figure 112021149551710-pat00005
: height of the filter (number of rows),

Figure 112021149551710-pat00006
: 필터의 너비 (열의 수)이다. )
Figure 112021149551710-pat00006
: The width of the filter (number of columns). )

바람직하게는, CNN 알고리즘을 사용한 이미지 필터에 대한 연산식은 아래의 수학식 2와 같다. Preferably, the operation expression for the image filter using the CNN algorithm is as shown in Equation 2 below.

[수학식 2][Equation 2]

Figure 112021149551710-pat00007
Figure 112021149551710-pat00007

(단, (step,

Figure 112021149551710-pat00008
: 행렬로 표현된 필터링된 이미지의 i번째 행, j번째 열의 픽셀,
Figure 112021149551710-pat00008
: pixels in the i-th row and j-th column of the filtered image expressed as a matrix,

Figure 112021149551710-pat00009
: 응용 필터
Figure 112021149551710-pat00009
: Application filter

Figure 112021149551710-pat00010
: 이미지,
Figure 112021149551710-pat00010
: image,

Figure 112021149551710-pat00011
: 응용 필터의 높이 (행의 수),
Figure 112021149551710-pat00011
: height of application filter (number of rows),

Figure 112021149551710-pat00012
: 응용 필터의 너비 (열의 수)이다.)
Figure 112021149551710-pat00012
: The width (number of columns) of the application filter.)

바람직하게는,

Figure 112021149551710-pat00013
는 응용 필터로서 볼 풀(도 1의 300)이 포함된 영상 데이터를 학습하고, 영상 데이터에 포함된 볼 풀(도 1의 300)의 벽면을 인식하기 위하여, 상기 이미지 데이터에 적용되는 필터일 수 있다. 특히, 볼 풀(도 1의 300)의 벽면과 같이 주변과 타겟의 경계면에 대한 인식의 경우 형태 및 색감의 차이를 기초로 분류될 수 있으므로, 형태 및 색감 등을 효과적으로 인지하기 위한 응용 필터가 필요할 수 있다. 이러한 필요성을 충족하기 위하여 응용 필터
Figure 112021149551710-pat00014
는 아래의 수학식 3에 의하여 연산될 수 있다. Preferably,
Figure 112021149551710-pat00013
may be a filter applied to the image data in order to learn image data including a ball pool (300 in FIG. 1) as an application filter and recognize a wall surface of the ball pool (300 in FIG. 1) included in the image data. there is. In particular, in the case of recognition of the interface between the surroundings and the target, such as the wall of a ball pool (300 in FIG. 1), it can be classified based on the difference in shape and color, so an application filter for effectively recognizing shape and color is required. can Application filters to meet these needs
Figure 112021149551710-pat00014
Can be calculated by Equation 3 below.

[수학식 3] [Equation 3]

Figure 112021149551710-pat00015
Figure 112021149551710-pat00015

(단,

Figure 112021149551710-pat00016
: 필터,
Figure 112021149551710-pat00017
: 계수,
Figure 112021149551710-pat00018
: 응용 필터)(step,
Figure 112021149551710-pat00016
: filter,
Figure 112021149551710-pat00017
: Coefficient,
Figure 112021149551710-pat00018
: application filter)

이때, 각

Figure 112021149551710-pat00019
에 따른 필터는 도 5에 따른 엣지 인식 필터(Edge detection), 샤픈 필터(sharpen) 및 박스 블러 필터(Box blur) 중 어느 하나의 행렬일 수 있다. At this time, each
Figure 112021149551710-pat00019
The filter according to may be a matrix of any one of an edge detection filter according to FIG. 5, a sharpen filter, and a box blur filter.

바람직하게,

Figure 112021149551710-pat00020
를 구하는 연산식은 아래의 수학식 4와 같다. 이때,
Figure 112021149551710-pat00021
는 필터의 효율을 높이기 위하여 사용되는 하나의 변수로서 해석될 수 있으며, 그 단위는 무시될 수 있다. Preferably,
Figure 112021149551710-pat00020
The operation expression for obtaining is as shown in Equation 4 below. At this time,
Figure 112021149551710-pat00021
can be interpreted as a variable used to increase the efficiency of the filter, and its unit can be ignored.

[수학식 4][Equation 4]

Figure 112021149551710-pat00022
Figure 112021149551710-pat00022

단, 이미지 촬영에 사용된 외부 인식부(도 3의 210)의 카메라 모듈의 렌즈의 직경(지름)은 mm 단위이고, 렌즈의 f값은 렌즈의 조리개값(F number)이며, HSV평균값은 이미지에 따른 색좌표를 HSV 그래프를 통하여 크기값으로 변환한 값을 평균한 값을 의미할 수 있다. HSV값에 대한 구체적인 내용은 아래와 같다. However, the diameter (diameter) of the lens of the camera module of the external recognition unit (210 in FIG. 3) used for image capture is in mm, the f-value of the lens is the aperture value (F number) of the lens, and the HSV average value is the image It may mean a value obtained by averaging values obtained by converting color coordinates according to HSV into size values through the HSV graph. Details of the HSV value are as follows.

도 6에 따르면, 본 발명에 따른 HSV 그래프는 지각적인 특성이 반영된 색 공간을 의미할 수 있다. H(Hue, 0~360°)는 색조를 의미할 수 있고, S(Saturation, 0~100%)는 채도를 의미할 수 있으며, V(Value, 0~100%)는 명도를 의미할 수 있다. 색조, 채도 및 명도 값을 HSV 값이라고 할 수 있으며, 이는 Adobe illustrator cc 2019 등 그래픽 툴을 이용하여 쉽게 추출될 수 있다.According to FIG. 6 , the HSV graph according to the present invention may mean a color space in which perceptual characteristics are reflected. H (Hue, 0 to 360°) may mean hue, S (Saturation, 0 to 100%) may mean saturation, and V (Value, 0 to 100%) may mean lightness. . Hue, saturation, and lightness values can be referred to as HSV values, which can be easily extracted using graphic tools such as Adobe illustrator cc 2019.

본 발명에 따른 HSV 평균값은 도 6의 HSV 3차원 좌표를 통하여 획득될 수 있다. 즉, 본 발명에 따른 HSV 평균값은 그래픽 툴을 통하여 획득된 HSV 값을 기초로 계산될 수 있다. HSV 3차원 좌표상의 원점좌표를 기준점으로 측정된 HSV 좌표의 거리값은 상술한 HSV 평균값을 구성할 수 있다. 즉, 본 발명에 따른 이미지는 볼 풀(도 1의 300)에 대한 이미지를 포함하고, 이미지의 HSV 색상좌표는 HSV 3차원 좌표 중 일정 영역에서 분포될 수 있다. 따라서, 본 발명에 따른 HSV 평균값은 일정 영역의 색상에 대한 HSV 좌표들의 평균을 이용한 평균 좌표를 기초로 계산된 원점좌표와의 거리값을 의미할 수 있다. The HSV average value according to the present invention can be obtained through the HSV three-dimensional coordinates of FIG. 6 . That is, the average HSV value according to the present invention may be calculated based on the HSV value obtained through a graphic tool. The distance value of the HSV coordinates measured with the origin coordinates on the HSV 3-dimensional coordinates as a reference point may constitute the above-described HSV average value. That is, the image according to the present invention includes an image of a ball pool (300 in FIG. 1), and the HSV color coordinates of the image may be distributed in a certain area among HSV three-dimensional coordinates. Therefore, the HSV average value according to the present invention may mean a distance value from the origin coordinates calculated based on average coordinates using the average of HSV coordinates for colors of a certain region.

[실험예][Experimental example]

본 발명에 따른 영상 데이터에 대하여, 본 발명의 응용 필터 F'를 적용하는 경우에 있어서 이미지 속 볼 풀(도 1의 300)의 벽면 등 경계면에 대한 인식 정확도를 살펴보면 아래와 같다. 아래 표는 해당 기술분야 전문가 10명에게 의뢰하여, 필터 적용 여부 등에 따라 인식 결과의 정확도를 수치로서 나타낸 것이다. Regarding the image data according to the present invention, in the case of applying the application filter F' of the present invention, the recognition accuracy of the boundary surface such as the wall of the ball pool (300 in FIG. 1) in the image is as follows. The table below shows the accuracy of the recognition result as a numerical value, depending on whether a filter is applied or not, commissioned by 10 experts in the relevant technical field.

필터 적용 없음no filter applied 필터

Figure 112021149551710-pat00023
적용filter
Figure 112021149551710-pat00023
apply 필터
Figure 112021149551710-pat00024
적용
filter
Figure 112021149551710-pat00024
apply
평균 정확도 (점수)Average Accuracy (Score) 7575 9090 9797

상기 표 5는 전문가로부터 평가된 정확도에 대한 점수를 각 케이스별로 나타낸 것이다. 본 실험예는 빅데이터를 통하여 미리 학습된 학습 모듈에 대하여, 필터 적용 여부에 따른 정확도를 조사한 것이다. Table 5 shows the scores for accuracy evaluated by experts for each case. In this experimental example, the accuracy of the learning module pre-learned through big data was investigated according to whether or not a filter was applied.

또한, 본 실험예는 120가지 종류의 서로 볼 풀(도 1의 300)을 포함하는 영상 데이터로 실험된 것이며, 인식 결과값에 대하여 영상 데이터에 포함된 볼 풀(도 1의 300)의 벽면에 대한 인식의 정확도를 전문가 10명으로부터 설문 조사한 것이다. In addition, this experimental example was experimented with image data including 120 types of ball pools (300 in FIG. 1), and for the recognition result value, on the wall of the ball pool (300 in FIG. 1) included in the image data. The accuracy of the perception of is surveyed by 10 experts.

표 5에서 확인할 수 있는 것과 같이, 필터 적용 없는 경우, 이미지에 대한 인식에 오류가 발생할 확률이 존재하여 상대적으로 낮은 정확도로 평가되었다. 이에 비하여, 일반 CNN 필터 F를 적용한 경우 다소 정확도가 높았으나, 응용 필터 F'를 적용하는 경우의 정확도가 현저하게 향상되는 것이 확인된다.As can be seen in Table 5, when the filter is not applied, there is a probability of error in image recognition, and the evaluation is relatively low accuracy. In contrast, the accuracy was slightly higher when the general CNN filter F was applied, but it was confirmed that the accuracy was remarkably improved when the applied filter F' was applied.

도 7은 본 발명에 따른 외부 인식부를 개략적으로 나타낸 것이다. 7 schematically shows an external recognition unit according to the present invention.

도 7에 따르면, 본 발명에 따른 외부 인식부(210)는 일종의 카메라 모듈로서, 광 이미지로부터 이미지 데이터를 생성할 수 있다. 외부 인식부(210)는 측벽에 관통홀을 포함하는 하우징, 관통홀에 설치된 렌즈(1321) 및 렌즈(1321)를 구동하는 구동부(1323)를 포함할 수 있다. 관통홀은 렌즈(1321)의 직경에 대응되는 크기로 형성될 수 있다. 렌즈(1321)는 관통홀에 삽입될 수 있다. According to FIG. 7 , the external recognition unit 210 according to the present invention is a kind of camera module and can generate image data from an optical image. The external recognition unit 210 may include a housing including a through hole on a side wall, a lens 1321 installed in the through hole, and a driving unit 1323 that drives the lens 1321 . The through hole may have a size corresponding to the diameter of the lens 1321 . The lens 1321 may be inserted into the through hole.

구동부(1323)는 렌즈(1321)를 전방 또는 후방으로 움직이도록 제어하는 구성일 수 있다. 렌즈(1321)와 구동부(1323)는 종래 알려진 방식으로 연결되고 렌즈(1321)는 종래 알려진 방식으로 구동부(1323)에 의하여 제어될 수 있다. The driving unit 1323 may be configured to control the lens 1321 to move forward or backward. The lens 1321 and the driving unit 1323 are connected in a conventionally known manner, and the lens 1321 may be controlled by the driving unit 1323 in a conventionally known manner.

다양한 영상 이미지를 수득하기 위해서는 렌즈(1321)가 외부 인식부(210)또는 하우징의 외부로 노출될 필요가 있다. In order to obtain various video images, the lens 1321 needs to be exposed to the outside of the external recognition unit 210 or the housing.

특히, 본 발명에 따른 외부 인식부(210)는 외부를 직접 촬영해야 하므로 외부환경에서 내오염성이 강한 렌즈가 필요하다. 따라서, 본 발명은 렌즈를 코팅하는 코팅층을 제안하여, 이러한 문제점을 해결하고자 하였다. In particular, since the external recognition unit 210 according to the present invention needs to directly photograph the outside, a lens with strong contamination resistance in the external environment is required. Accordingly, the present invention proposes a coating layer for coating a lens to solve this problem.

바람직하게 상기 렌즈(1321)는 그 표면에 하기의 화학식 1로 표시되는 화합물, 유기 용매, 무기 입자 및 분산제가 포함되는 코팅조성물로 코팅된 것일 수 있다.Preferably, the surface of the lens 1321 may be coated with a coating composition including a compound represented by Chemical Formula 1 below, an organic solvent, inorganic particles, and a dispersant.

[화학식 1][Formula 1]

Figure 112021149551710-pat00025
Figure 112021149551710-pat00025

여기서,here,

L1은 단일결합, 치환 또는 비치환된 탄소수 6 내지 30의 아릴렌기, 치환 또는 비치환된 탄소수 1 내지 20의 알킬렌기, 치환 또는 비치환된 탄소수 3 내지 20의 시클로알킬렌기, 치환 또는 비치환된 탄소수 2 내지 20의 알케닐렌기, 치환 또는 비치환된 탄소수 3 내지 20의 시클로알케닐렌기 및 치환 또는 비치환된 탄소수 2 내지 20의 알키닐렌기로 이루어진 군에서 선택되며,L 1 is a single bond, a substituted or unsubstituted arylene group having 6 to 30 carbon atoms, a substituted or unsubstituted alkylene group having 1 to 20 carbon atoms, a substituted or unsubstituted cycloalkylene group having 3 to 20 carbon atoms, substituted or unsubstituted is selected from the group consisting of an alkenylene group having 2 to 20 carbon atoms, a substituted or unsubstituted cycloalkenylene group having 3 to 20 carbon atoms, and a substituted or unsubstituted alkynylene group having 2 to 20 carbon atoms,

상기 L1이 치환되는 경우, 수소, 니트로기, 할로겐기, 히드록시기, 탄소수 1 내지 30의 알킬기, 탄소수 1 내지 20개의 시클로알킬기, 탄소수 2 내지 30의 알케닐기, 탄소수 2 내지 24의 알키닐기, 탄소수 7 내지 30의 아르알킬기, 탄소수 6 내지 30의 아릴기 및 탄소수 1 내지 30의 알콕시기로 이루어진 군으로부터 선택된 1종 이상의 치환기로 치환되며, 복수 개의 치환기로 치환되는 경우 이들은 서로 동일하거나 상이하다.When the L 1 is substituted, hydrogen, a nitro group, a halogen group, a hydroxy group, an alkyl group having 1 to 30 carbon atoms, a cycloalkyl group having 1 to 20 carbon atoms, an alkenyl group having 2 to 30 carbon atoms, an alkynyl group having 2 to 24 carbon atoms, and a carbon number It is substituted with one or more substituents selected from the group consisting of an aralkyl group having 7 to 30 carbon atoms, an aryl group having 6 to 30 carbon atoms, and an alkoxy group having 1 to 30 carbon atoms, and when substituted with a plurality of substituents, they are the same as or different from each other.

상기 코팅조성물로 렌즈(1321)가 코팅된 경우 우수한 발수성 및 내오염성을 나타낼 수 있기 때문에 도로 주변에 설치된 렌즈(1321)가 오염 환경에 장기간 노출되더라도, 보다 선명한 이미지 또는 영상을 수집할 수 있다.When the lens 1321 is coated with the coating composition, it can exhibit excellent water repellency and stain resistance, so even if the lens 1321 installed near the road is exposed to a polluted environment for a long time, clearer images or videos can be collected.

상기 무기 입자는 실리카, 알루미나 및 이들의 혼합물로 이루어진 군으로부터 선택될 수 있다. 상기 무기 입자의 평균 직경은 70 내지 100㎛이지만, 상기 예시에 국한되지 않는다. 상기 무기 입자는 렌즈(1321) 표면에 코팅층(1322)으로 형성 후, 물리적인 강도를 향상시키고, 점도를 일정 범위로 유지시켜 성형성을 높일 수 있다. The inorganic particles may be selected from the group consisting of silica, alumina, and mixtures thereof. The average diameter of the inorganic particles is 70 to 100 μm, but is not limited to the above examples. After the inorganic particles are formed as the coating layer 1322 on the surface of the lens 1321, physical strength may be improved and moldability may be increased by maintaining the viscosity within a certain range.

상기 유기 용매는 메틸에틸케톤(MEK), 톨루엔 및 이들의 혼합으로 이루어진 군으로부터 선택되며, 바람직하게는 메틸에틸케톤을 사용할 수 있으나, 상기 예시에 국한되지 않는다. The organic solvent is selected from the group consisting of methyl ethyl ketone (MEK), toluene, and mixtures thereof, and preferably methyl ethyl ketone may be used, but is not limited to the above examples.

상기 분산제로는 폴리에스테르 계열의 분산제를 사용할 수 있고, 구체적으로 2-메톡시프로필 아세테이트 및 1-메톡시-2-프로필 아세테이트의 공중합체로 이루어진 폴리에스테르 계열의 분산안정제로서 TEGO-Disperse 670 (제조사: EVONIK)을 사용할 수 있으나, 상기 예시에 국한되지 않고 통상의 기술자에게 자명한 분산제는 제한 없이 모두 사용 가능하다.As the dispersing agent, a polyester-based dispersing agent may be used, and specifically, TEGO-Disperse 670 (manufacturer : EVONIK) can be used, but it is not limited to the above examples, and all dispersants obvious to those skilled in the art can be used without limitation.

상기 코팅 조성물은 기타 첨가제로 안정화제를 추가로 포함할 수 있고, 상기 안정화제는 자외선 흡수제, 산화방지제 등을 포함할 수 있으나, 상기 예시에 국한되지 않고 제한 없이 사용 가능하다.The coating composition may further include a stabilizer as other additives, and the stabilizer may include a UV absorber, an antioxidant, and the like, but is not limited to the above examples and may be used without limitation.

상기 코팅층(1322)을 형성하기 위한, 코팅 조성물은 보다 구체적으로 상기 화학식 1로 표시되는 화합물, 유기 용매, 무기 입자 및 분산제를 포함할 수 있다.A coating composition for forming the coating layer 1322 may include, more specifically, the compound represented by Chemical Formula 1, an organic solvent, inorganic particles, and a dispersant.

상기 코팅 조성물은 유기용매 100 중량부에 대하여, 상기 화학식 1로 표시되는 화합물 40 내지 60 중량부, 무기 입자 20 내지 40 중량부 및 분산제 5 내지 15 중량부를 포함할 수 있다. 상기 범위에 의하는 경우 각 구성 성분의 상호 작용에 의한 발수 효과가 임계적 의의가 있는 정도의 상승효과가 발현되며, 상기 범위를 벗어나는 경우 상승효과가 급격히 저하되거나 거의 없게 된다.The coating composition may include 40 to 60 parts by weight of the compound represented by Chemical Formula 1, 20 to 40 parts by weight of inorganic particles, and 5 to 15 parts by weight of a dispersant, based on 100 parts by weight of the organic solvent. In the case of the above range, a synergistic effect is expressed to the extent that the water repellency effect due to the interaction of each component is of critical significance, and when it is out of the above range, the synergistic effect is rapidly reduced or almost nonexistent.

보다 바람직하게, 상기 코팅 조성물의 점도는 1500 내지 1800cP이며, 상기 점도가 1500cP 미만인 경우에는 렌즈(1321) 표면에 도포하면, 흘러내려 코팅층(1322)의 형성이 용이하지 않은 문제가 있고, 1800cP를 초과하는 경우에는 균일한 코팅층(1322)의 형성이 용이하지 않은 문제가 있다.More preferably, the viscosity of the coating composition is 1500 to 1800 cP, and when the viscosity is less than 1500 cP, when applied to the surface of the lens 1321, there is a problem that it is not easy to form the coating layer 1322 because it flows down, and the coating composition exceeds 1800 cP. In this case, there is a problem in that it is not easy to form a uniform coating layer 1322.

[제조예 1: 코팅층의 제조][Preparation Example 1: Preparation of coating layer]

1. 코팅 조성물의 제조1. Preparation of coating composition

메틸에틸케톤에 하기 화학식 1로 표시되는 화합물, 무기입자 및 분산제를 혼합하여, 코팅 조성물을 제조하였다:A coating composition was prepared by mixing a compound represented by Formula 1, inorganic particles, and a dispersant in methyl ethyl ketone:

[화학식 1][Formula 1]

Figure 112021149551710-pat00026
Figure 112021149551710-pat00026

여기서, here,

L1은 비치환된 탄소수 5의 알킬렌기이다.L 1 is an unsubstituted alkylene group having 5 carbon atoms.

상기 대전방지 조성물의 보다 구체적인 조성은 하기 표 1과 같다. A more specific composition of the antistatic composition is shown in Table 1 below.

TX1TX1 TX2TX2 TX3TX3 TX4TX4 TX5TX5 유기용매organic solvent 100100 100100 100100 100100 100100 화학식 1로 표시되는 화합물Compound represented by Formula 1 3030 4040 5050 6060 7070 무기입자inorganic particles 1010 2020 3030 4040 5050 분산제dispersant 1One 55 1010 1515 2020

(단위 중량부)(unit weight parts)

2. 코팅층의 제조2. Preparation of coating layer

렌즈(1321)의 일면에 상기 DX1 내지 DX5의 코팅 조성물을 도포 후, 경화시켜 코팅층(1322)을 형성하였다. A coating layer 1322 was formed by applying the coating composition of DX1 to DX5 on one surface of the lens 1321 and then curing the coating composition.

[실험예][Experimental example]

1. 표면 외관에 대한 평가1. Evaluation of surface appearance

코팅 조성물의 점도 차이로 인해, 코팅층(1322)을 제조한 이후, 균일한 표면이 형성되었는지 여부에 대해 관능 평가를 진행하였다. 균일한 코팅층(1322)을 형성하였는지 여부에 대한 평가를 진행하였고, 하기와 같은 기준에 의해 평가를 진행하였다. Due to the difference in viscosity of the coating composition, after the coating layer 1322 was prepared, a sensory evaluation was performed on whether a uniform surface was formed. Evaluation was conducted on whether or not a uniform coating layer 1322 was formed, and the evaluation was conducted according to the following criteria.

○: 균일한 코팅층 형성○: uniform coating layer formation

×: 불균일한 코팅층의 형성×: Formation of non-uniform coating layer

TX1TX1 TX2TX2 TX3TX3 TX4TX4 TX5TX5 관능 평가sensory evaluation ХХ ХХ

코팅층(1322)을 형성할 때, 일정 점도 미만인 경우에는 렌즈(1321)의 표면에서 흐름이 발생하여, 경화 공정 이후, 균일한 코팅층(1322)의 형성이 어려운 경우가 다수 발생하였다. 이에 따라, 생산 수율이 낮아지는 문제가 발생할 수 있다. 또한, 점도가 너무 높은 경우에도, 조성물의 균일 도포가 어려워 균일한 코팅층(1322)의 형성이 불가하였다.When forming the coating layer 1322, if the viscosity is less than a certain amount, flow occurs on the surface of the lens 1321, and it is difficult to form a uniform coating layer 1322 after the curing process in many cases. Accordingly, a problem of lowering the production yield may occur. In addition, even when the viscosity is too high, it is difficult to uniformly apply the composition, and it is impossible to form a uniform coating layer 1322.

2. 발수각의 측정2. Measurement of water repellency angle

상기 렌즈(1321) 표면에 코팅층(1322)을 형성한 이후, 발수각을 측정한 결과는 하기 표 3과 같다. After forming the coating layer 1322 on the surface of the lens 1321, the results of measuring the water repellency angle are shown in Table 3 below.

전진 접촉각 (

Figure 112021149551710-pat00027
Figure 112021149551710-pat00028
)advancing contact angle (
Figure 112021149551710-pat00027
Figure 112021149551710-pat00028
) 정지 접촉각 (
Figure 112021149551710-pat00029
Figure 112021149551710-pat00030
)
static contact angle (
Figure 112021149551710-pat00029
Figure 112021149551710-pat00030
)
후진 접촉각 (
Figure 112021149551710-pat00031
Figure 112021149551710-pat00032
)
receding contact angle (
Figure 112021149551710-pat00031
Figure 112021149551710-pat00032
)
TX1TX1 117.1±2.9117.1±2.9 112.1±4.1112.1±4.1 < 10< 10 TX2TX2 132.4±1.5132.4±1.5 131.5±2.7131.5±2.7 141.7±3.4141.7±3.4 TX3TX3 138.9±3.0138.9±3.0 138.9±2.7138.9±2.7 139.8±3.7139.8±3.7 TX4TX4 136.9±2.0136.9±2.0 135.6±2.6135.6±2.6 140.4±3.4140.4±3.4 TX5TX5 116.9±0.7116.9±0.7 115.4±3.0115.4±3.0 < 10< 10

상기 표 3에 나타낸 바와 같이, TX1 내지 TX5의 코팅 조성물을 이용하여 코팅층(1322)을 형성한 이후, 접촉각을 측정한 결과를 확인하였다. TX1 및 TX5는 후진 접촉각이 10도 미만으로 측정되었다. 즉, 코팅 조성물을 제조하기 위한 최적의 범위를 벗어나게 되는 경우, 물방울이 피닝(Pinning)되는 현상이 발생하는 것을 확인하였다. 반면 TX2 내지 4에서는 피닝 현상이 발생하지 않음을 확인하여 우수한 방수 효과를 나타낼 수 있음을 확인하였다.As shown in Table 3, after the coating layer 1322 was formed using the coating compositions of TX1 to TX5, the result of measuring the contact angle was confirmed. TX1 and TX5 measured receding contact angles less than 10 degrees. That is, it was confirmed that a phenomenon in which water droplets are pinned occurs when the coating composition is out of the optimal range for preparing the coating composition. On the other hand, it was confirmed that the pinning phenomenon did not occur in TX2 to 4, indicating that excellent waterproofing effect could be exhibited.

3. 내오염성 평가3. Fouling resistance evaluation

설비 외부에 상기 실시예에 따른 코팅층(1322)을 형성한 렌즈(1321)를 모형카메라에 부착하고, 4일 간 야회 환경에 노출되도록 하였다. 비교예(Con)로는 코팅층(1322)이 형성되지 않은 동일한 렌즈(1321)를 사용하였으며, 각 실시예에 모형카메라는 동일한 야외 환경의 인접 위치에 부착하였다.A lens 1321 having a coating layer 1322 according to the above embodiment formed outside the facility was attached to a model camera and exposed to an outdoor environment for 4 days. As a comparative example (Con), the same lens 1321 without the coating layer 1322 was used, and in each example, a model camera was attached to an adjacent location in the same outdoor environment.

그 뒤 실험 전후의 렌즈(1321)의 오염 정도를 유관으로 평가하였고, 객관적인 비교를 위하여 코팅층(1322)이 형성되지 않은 비교예와 비교하여 그 결과를 1 내지 10의 지수로 평가하여 하기의 표 4에 나타내었다. 하기의 지수는 그 숫자가 낮을수록 내오염성이 우수한 것이다.After that, the degree of contamination of the lens 1321 before and after the experiment was evaluated, and for objective comparison, the result was compared with the comparative example in which the coating layer 1322 was not formed, and the result was evaluated by an index of 1 to 10, and Table 4 below shown in In the index below, the lower the number, the better the stain resistance.

ConCon TX1TX1 TX2TX2 TX3TX3 TX4TX4 TX5TX5 내오염성stain resistance 1010 77 33 33 33 88

(단위: 지수)상기 표 4를 참조하면, 렌즈(1321)에 코팅층(1322)을 형성하는 경우 외부 환경에 카메라를 설치하면서 렌즈(1321)가 외부로 노출되도록 하여도 높은 내오염성을 오랜 기간 분석하기 용이한 형태로 이미지 데이터를 수집할 수 있다는 점을 알 수 있다. 특히 TX2 내지 TX4에 의하는 경우 코팅층(1322)에 의한 내오염성이 매우 우수하다는 점을 확인할 수 있다.(Unit: index) Referring to Table 4 above, in the case of forming the coating layer 1322 on the lens 1321, even if the lens 1321 is exposed to the outside while installing the camera in the external environment, analysis of high contamination resistance for a long period of time It can be seen that image data can be collected in a form that is easy to do. In particular, in the case of TX2 to TX4, it can be confirmed that the contamination resistance by the coating layer 1322 is very excellent.

전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 모델링하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽힐 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 모델링되는 것도 포함한다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 명세서의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 명세서의 등가적 범위 내에서의 모든 변경은 본 명세서의 범위에 포함된다.The above-described present invention can be modeled as a computer readable code on a medium on which a program is recorded. The computer-readable medium includes all types of recording devices in which data readable by a computer system is stored. Examples of computer-readable media include Hard Disk Drive (HDD), Solid State Disk (SSD), Silicon Disk Drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. , and also includes those modeled in the form of carrier waves (eg, transmission over the Internet). Accordingly, the above detailed description should not be construed as limiting in all respects and should be considered illustrative. The scope of this specification should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of this specification are included in the scope of this specification.

앞에서 설명된 본 발명의 어떤 실시 예들 또는 다른 실시 예들은 서로 배타적이거나 구별되는 것은 아니다. 앞서 설명된 본 발명의 어떤 실시 예들 또는 다른 실시 예들은 각각의 구성 또는 기능이 병용되거나 조합될 수 있다.Any or other embodiments of the present invention described above are not mutually exclusive or distinct. Certain or other embodiments of the present invention described above may be used in combination or combination of respective configurations or functions.

상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The above detailed description should not be construed as limiting in all respects and should be considered illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

100: 호흡 조절 장치
200: VR 장치
300: 볼 풀
100: breathing control device
200: VR device
300: ball pool

Claims (7)

가상 현실 화면을 제공하기 위한 VR 장치; 및
상기 VR 장치에 의하여 제어되는 호흡 조절 장치;를 포함하되,
상기 호흡 조절 장치는,
사용자의 안면에 밀착하는 마스크부;
상기 마스크부의 내외부의 통기를 위한 통기 유닛; 및
상기 통기 유닛을 개폐하는 밸브 유닛;을 포함하되,
상기 밸브 유닛은 상기 VR 장치에 의하여 제어되고
상기 가상 현실 화면에 대응하는 크기의 볼 풀(ball pool);을 포함하고
상기 VR 장치는,
상기 사용자의 시선 방향에 따른 외부의 영상 데이터를 생성하기 위한 외부 인식부; 및 제어부를 포함하며
상기 제어부는 비전 인식 모듈을 더 포함하고
상기 비전 인식 모듈은 외부 인식부에서 생성된 영상 데이터에서 볼 풀의 벽면을 자동으로 인식하며
상기 인식된 벽면을 기준으로 가상 현실 화면을 제공하는 것이고,
상기 비전 인식 모듈은 하기의 [수학식 2]에 따른 이미지 필터가 적용되는 것인
가상 현실을 이용한 생존 수영 교육 시스템.
[수학식 2]
Figure 112022139510489-pat00040

(단,
Figure 112022139510489-pat00041
: 행렬로 표현된 필터링된 이미지의 i번째 행, j번째 열의 픽셀,
Figure 112022139510489-pat00042
: 응용 필터로서 하기의 수학식 3에 의하여 연산됨
Figure 112022139510489-pat00043
: 이미지,
Figure 112022139510489-pat00044
: 응용 필터의 높이 (행의 수),
Figure 112022139510489-pat00045
: 응용 필터의 너비 (열의 수)이다.)
[수학식 3]
Figure 112022139510489-pat00046

(단,
Figure 112022139510489-pat00047
: 필터,
Figure 112022139510489-pat00048
: 계수로서 하기의 수학식 4로 연산됨,
Figure 112022139510489-pat00049
: 응용 필터)
[수학식 4]
Figure 112022139510489-pat00050
a VR device for providing a virtual reality screen; and
A breathing control device controlled by the VR device; including,
The breathing control device,
a mask unit in close contact with the user's face;
a ventilation unit for ventilation of the inside and outside of the mask unit; and
A valve unit configured to open and close the ventilation unit; including,
The valve unit is controlled by the VR device, and
A ball pool having a size corresponding to the virtual reality screen; and
The VR device,
an external recognition unit for generating external image data according to the user's gaze direction; and a control unit
The control unit further includes a vision recognition module,
The vision recognition module automatically recognizes the wall of the ball pool from the image data generated by the external recognition unit,
Providing a virtual reality screen based on the recognized wall surface;
The vision recognition module is to which an image filter according to [Equation 2] is applied
Survival swimming training system using virtual reality.
[Equation 2]
Figure 112022139510489-pat00040

(step,
Figure 112022139510489-pat00041
: pixels in the i-th row and j-th column of the filtered image expressed as a matrix,
Figure 112022139510489-pat00042
: Calculated by Equation 3 below as an application filter
Figure 112022139510489-pat00043
: image,
Figure 112022139510489-pat00044
: height of application filter (number of rows),
Figure 112022139510489-pat00045
: The width (number of columns) of the application filter.)
[Equation 3]
Figure 112022139510489-pat00046

(step,
Figure 112022139510489-pat00047
: filter,
Figure 112022139510489-pat00048
: Calculated by Equation 4 below as a coefficient,
Figure 112022139510489-pat00049
: application filter)
[Equation 4]
Figure 112022139510489-pat00050
제1항에 있어서,
상기 VR 장치는,
제1 시나리오에 따른 가상 현실 화면을 제공하는 경우 상기 밸브 유닛을 폐쇄 상태로 제어하고,
제2 시나리오에 따른 가상 현실 화면을 제공하는 경우 상기 밸브 유닛을 개방 상태로 제어하는 것인,
가상 현실을 이용한 생존 수영 교육 시스템.
According to claim 1,
The VR device,
Controlling the valve unit in a closed state when providing a virtual reality screen according to a first scenario;
Controlling the valve unit in an open state when providing a virtual reality screen according to the second scenario,
Survival swimming training system using virtual reality.
제2항에 있어서,
상기 제1 시나리오는 사용자가 물 속에 빠진 상황에 대한 시나리오이고,
상기 제2 시나리오는 사용자가 물 속에 빠진 이후 얼굴이 물 위로 드러난 상황에 대한 시나리오인 것인,
가상 현실을 이용한 생존 수영 교육 시스템.
According to claim 2,
The first scenario is a scenario in which the user falls into the water,
The second scenario is a scenario for a situation in which the user's face is exposed above the water after falling into the water,
Survival swimming training system using virtual reality.
제2항에 있어서,
상기 VR 장치는 기울기 센서를 포함하고,
상기 VR 장치는 상기 기울기 센서로부터 측정된 값이 미리 설정된 범위 내인 경우, 상기 제2 시나리오에 따른 가상 현실 화면을 제공하는 것인,
가상 현실을 이용한 생존 수영 교육 시스템.
According to claim 2,
The VR device includes a tilt sensor,
The VR device provides a virtual reality screen according to the second scenario when the value measured by the tilt sensor is within a preset range,
Survival swimming training system using virtual reality.
삭제delete 제1항에 있어서,
상기 마스크부는 내부에 호흡을 측정하는 호흡 센서를 더 포함하고,
상기 VR 장치는,
상기 밸브 유닛을 제어하고, 상기 호흡 센서로부터 측정된 호흡 데이터를 수신하는 제어부;를 더 포함하는 것인,
가상 현실을 이용한 생존 수영 교육 시스템.
According to claim 1,
The mask part further comprises a respiration sensor for measuring respiration therein,
The VR device,
A controller for controlling the valve unit and receiving respiratory data measured from the respiration sensor; further comprising,
Survival swimming training system using virtual reality.
삭제delete
KR1020210186482A 2021-12-23 2021-12-23 System for survival swimming education using virtual reality KR102527762B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210186482A KR102527762B1 (en) 2021-12-23 2021-12-23 System for survival swimming education using virtual reality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210186482A KR102527762B1 (en) 2021-12-23 2021-12-23 System for survival swimming education using virtual reality

Publications (1)

Publication Number Publication Date
KR102527762B1 true KR102527762B1 (en) 2023-05-02

Family

ID=86387499

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210186482A KR102527762B1 (en) 2021-12-23 2021-12-23 System for survival swimming education using virtual reality

Country Status (1)

Country Link
KR (1) KR102527762B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101307609B1 (en) * 2012-03-13 2013-09-12 동신대학교산학협력단 Apparatus for educating skin scuba based on realistic contents
KR20180058885A (en) * 2016-11-24 2018-06-04 전자부품연구원 Non-enter SSDS virtual training apparatus and system based on mixed reality
CN109821211A (en) * 2019-03-26 2019-05-31 浙江大学 A kind of swimming teaching system based on virtual reality
CN209803454U (en) * 2018-04-29 2019-12-17 方香玲 Fire drilling simulation equipment based on VR video
KR20200020337A (en) * 2018-08-17 2020-02-26 주식회사 브릿지 A simulation system for Survival Swimming
KR200492067Y1 (en) 2019-12-24 2020-07-30 이춘주 Portable experience apparatus for escaping and swimming

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101307609B1 (en) * 2012-03-13 2013-09-12 동신대학교산학협력단 Apparatus for educating skin scuba based on realistic contents
KR20180058885A (en) * 2016-11-24 2018-06-04 전자부품연구원 Non-enter SSDS virtual training apparatus and system based on mixed reality
CN209803454U (en) * 2018-04-29 2019-12-17 方香玲 Fire drilling simulation equipment based on VR video
KR20200020337A (en) * 2018-08-17 2020-02-26 주식회사 브릿지 A simulation system for Survival Swimming
CN109821211A (en) * 2019-03-26 2019-05-31 浙江大学 A kind of swimming teaching system based on virtual reality
KR200492067Y1 (en) 2019-12-24 2020-07-30 이춘주 Portable experience apparatus for escaping and swimming

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
공개특허공보 제10-2018-0058885호(2018.6.4. 공개) 1부.*
공개특허공보 제10-2020-0020337호(2020.2.26. 공개) 1부.*
중국특허공개공보 109821211(2019.5.31. 공고) 1부.*

Similar Documents

Publication Publication Date Title
CN110989661B (en) Unmanned aerial vehicle accurate landing method and system based on multiple positioning two-dimensional codes
CN110687902B (en) System and method for controller-free user drone interaction
CN106054929B (en) A kind of unmanned plane based on light stream lands bootstrap technique automatically
WO2017170148A1 (en) Flight device, electronic device and program
CN108027652A (en) Information processing equipment, information processing method and program
US20210289141A1 (en) Control method and apparatus for photographing device, and device and storage medium
CN106275410A (en) A kind of wind disturbance resistant unmanned plane
CN108292141A (en) Method and system for target following
US10976809B2 (en) Interaction method for virtual reality
CN107544550A (en) A kind of Autonomous Landing of UAV method of view-based access control model guiding
WO2019006760A1 (en) Gesture recognition method and device, and movable platform
US20150235423A1 (en) Augmented reality system
CN108140105A (en) Head-mounted display with countenance detectability
US11340714B2 (en) Information processing device, information processing method and program
EP2697792A1 (en) Apparatus, systems and methods for providing motion tracking using a personal viewing device
CN111506091A (en) Unmanned aerial vehicle accurate landing control system and method based on dynamic two-dimensional code
US20220137647A1 (en) System and method for operating a movable object based on human body indications
CN103977539A (en) Cervical vertebra rehabilitation and health care training aiding system
CN106227230A (en) A kind of unmanned aerial vehicle (UAV) control method
US20220342428A1 (en) Unmanned aerial vehicles
KR102527762B1 (en) System for survival swimming education using virtual reality
WO2021056139A1 (en) Method and device for acquiring landing position, unmanned aerial vehicle, system, and storage medium
KR102256726B1 (en) Remote control system and method for emergency stopping of equipment
KR102516967B1 (en) Facial recognition thermometer and method for measuring body temperature using the same
KR102612189B1 (en) Bus boarding guide system and method for visually impaired

Legal Events

Date Code Title Description
GRNT Written decision to grant