KR102477067B1 - Augmented reality implementing system using wearable sound device - Google Patents

Augmented reality implementing system using wearable sound device Download PDF

Info

Publication number
KR102477067B1
KR102477067B1 KR1020200136498A KR20200136498A KR102477067B1 KR 102477067 B1 KR102477067 B1 KR 102477067B1 KR 1020200136498 A KR1020200136498 A KR 1020200136498A KR 20200136498 A KR20200136498 A KR 20200136498A KR 102477067 B1 KR102477067 B1 KR 102477067B1
Authority
KR
South Korea
Prior art keywords
augmented reality
wearable sound
sound device
reality implementation
communication unit
Prior art date
Application number
KR1020200136498A
Other languages
Korean (ko)
Other versions
KR20220052493A (en
Inventor
혁 원
이규하
Original Assignee
주식회사 이엠텍
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 이엠텍 filed Critical 주식회사 이엠텍
Priority to KR1020200136498A priority Critical patent/KR102477067B1/en
Priority to PCT/KR2021/014611 priority patent/WO2022086134A1/en
Publication of KR20220052493A publication Critical patent/KR20220052493A/en
Application granted granted Critical
Publication of KR102477067B1 publication Critical patent/KR102477067B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/60ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to nutrition control, e.g. diets
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1091Details not provided for in groups H04R1/1008 - H04R1/1083

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Cardiology (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Acoustics & Sound (AREA)
  • Animal Behavior & Ethology (AREA)
  • Signal Processing (AREA)
  • Biophysics (AREA)
  • Physiology (AREA)
  • Automation & Control Theory (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Nutrition Science (AREA)
  • Computer Graphics (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 증강 현실 구현 시스템에 관한 것으로서, 특히 목이나 어깨에 착용되는 웨어러블 음향 장치와 전기적으로 연결되어 전원 공급이 가능하고 복수의 데이터들의 획득에 의한 건강 관리 기능을 제공하는 웨어러블 음향 장치를 이용한 증강 현실 구현 시스템에 관한 것이다.
본 발명인 웨어러블 음향 장치를 이용한 증강 현실 구현 시스템은 사용자의 얼굴에 착용되며 사용자의 눈을 향하는 적어도 일부분이 투명한 디스플레이부를 구비하여 디스플레이부가 증강 현실 표시를 수행하도록 하는 증강 현실 구현 장치와, 사용자의 목이나 어깨에 안착되며 음향 재생 기능을 수행하는 웨어러블 음향 장치와, 증강 현실 구현 장치와 웨어러블 음향 장치를 전기적으로 연결하는 연결선을 포함하여 구성되며, 웨어러블 음향 장치는 연결선을 통하여 증강 현실 구현 장치에 전원을 공급하는 것이 바람직하다.
The present invention relates to an augmented reality implementation system, and more particularly, augmentation using a wearable sound device that is electrically connected to a wearable sound device worn on the neck or shoulder to supply power and provides a health management function by acquiring a plurality of data. It is about a real-world implementation system.
An augmented reality implementation system using a wearable sound device according to the present invention includes an augmented reality implementation device that is worn on a user's face and has a display unit in which at least a portion facing the user's eyes is transparent so that the display unit performs an augmented reality display, and the user's neck or neck. It is composed of a wearable sound device that is seated on the shoulder and performs a sound reproduction function, and a connection line electrically connecting the augmented reality device and the wearable sound device. The wearable sound device supplies power to the augmented reality device through the connection line. It is desirable to do

Figure R1020200136498
Figure R1020200136498

Description

웨어러블 음향 장치를 이용한 증강 현실 구현 시스템{AUGMENTED REALITY IMPLEMENTING SYSTEM USING WEARABLE SOUND DEVICE}Augmented reality implementation system using wearable sound device {AUGMENTED REALITY IMPLEMENTING SYSTEM USING WEARABLE SOUND DEVICE}

본 발명은 증강 현실 구현 시스템에 관한 것으로서, 특히 목이나 어깨에 착용되는 웨어러블 음향 장치와 전기적으로 연결되어 전원 공급이 가능하고 복수의 데이터들의 획득에 의한 건강 관리 기능을 제공하는 웨어러블 음향 장치를 이용한 증강 현실 구현 시스템에 관한 것이다.The present invention relates to an augmented reality implementation system, and more particularly, augmentation using a wearable sound device that is electrically connected to a wearable sound device worn on the neck or shoulder to supply power and provides a health management function by acquiring a plurality of data. It is about a real-world implementation system.

증강현실은 사용자가 눈으로 보는 현실세계에 가상 물체를 겹쳐 보여주는 기술이다. 현실세계에 실시간으로 부가정보를 갖는 가상세계를 합쳐 하나의 영상으로 보여주므로 혼합현실(mixed reality, MR)이라고도 한다. 현실환경과 가상환경을 융합하는 복합형 가상현실 시스템(hybrid VR system)으로 1990년대 후반부터 미국을 중심으로 연구·개발이 진행되고 있다.Augmented reality is a technology that superimposes virtual objects on the real world that the user sees. It is also called mixed reality (MR) because it combines the real world with the virtual world with additional information in real time and shows it as a single image. It is a hybrid VR system that fuses real and virtual environments. Since the late 1990s, research and development have been conducted mainly in the United States.

현재 증강현실을 구현하는 헤드 마운트형 장치는 안경이나 고글 등과 같이 사용자의 머리, 귀, 코 등에 안착되어 착용되는 형태를 지니고 있다. 이러한 종래의 헤드 마운트형 장치는 사용자의 머리에 착용되므로, 그 중량을 제한되어야 하며, 이러한 제한된 중량으로 인하여 배터리 용량도 제한되어 실제 사용 시간이 상대적으로 짧게 되는 문제가 있었다. Currently, head-mounted devices that implement augmented reality have a form that is worn by being seated on a user's head, ears, nose, etc., such as glasses or goggles. Since such a conventional head-mounted device is worn on the user's head, its weight must be limited, and due to this limited weight, the battery capacity is also limited, resulting in a relatively short actual use time.

대한민국 공개특허 제10-2016-0026557호 '헤드 마운트 디스플레이 장치'Korean Patent Publication No. 10-2016-0026557 'Head mounted display device'

본 발명은 웨어러블 음향 장치와 전기적으로 연결되어 전원 공급 및 복수의 데이터들(예를 들면, 영상, 체온, 심전도 등)의 획득이 가능하도록 하여, 보다 현실감이 향상된 증강 현실과, 다양한 건강 관리 기능을 제공하는 웨어러블 음향 장치를 이용한 증강 현실 구현 시스템을 제공하는 것을 목적으로 한다.The present invention is electrically connected to a wearable sound device to supply power and acquire a plurality of data (eg, image, body temperature, electrocardiogram, etc.), thereby enabling augmented reality with improved realism and various health management functions. An object of the present invention is to provide an augmented reality implementation system using a wearable sound device provided.

본 발명인 웨어러블 음향 장치를 이용한 증강 현실 구현 시스템은 사용자의 얼굴에 착용되며 사용자의 눈을 향하는 적어도 일부분이 투명한 디스플레이부를 구비하여 디스플레이부가 증강 현실 표시를 수행하도록 하는 증강 현실 구현 장치와, 사용자의 목이나 어깨에 안착되며 음향 재생 기능을 수행하는 웨어러블 음향 장치와, 증강 현실 구현 장치와 웨어러블 음향 장치를 전기적으로 연결하는 연결선을 포함하여 구성되며, 웨어러블 음향 장치는 연결선을 통하여 증강 현실 구현 장치에 전원을 공급하는 것이 바람직하다.An augmented reality implementation system using a wearable sound device according to the present invention includes an augmented reality implementation device that is worn on a user's face and has a display unit in which at least a portion facing the user's eyes is transparent so that the display unit performs an augmented reality display, and the user's neck or neck. It is composed of a wearable sound device that is seated on the shoulder and performs a sound reproduction function, and a connection line electrically connecting the augmented reality device and the wearable sound device. The wearable sound device supplies power to the augmented reality device through the connection line. It is desirable to do

또한, 증강 현실 구현 장치는 길 안내 정보를 디스플레이부에 표시하는 것이 바람직하다.Also, the augmented reality implementation device preferably displays road guidance information on a display unit.

또한, 증강 현실 구현 장치는 카메라와 통신부를 구비하며, 카메라에 의한 영상 데이터를 통신부를 통하여 웨어러블 음향 장치로 전송하고, 웨어러블 음향 장치는 통신부와, 인공 지능 기능을 이용하여 사물 인식을 수행하는 사물 인식 모듈을 구비하며, 통신부를 통하여 증강 현실 구현 장치로부터 영상 데이터를 수신하고, 사물 인식 모듈을 통하여 수신된 영상 데이터에 대한 사물을 인식하여 사물 인식 정보를 생성하여 증강 현실 구현 장치로 전송하고, 증강 현실 구현 장치는 사물 인식 정보를 수신하여 수신된 사물 인식 정보가 디스플레이부를 통하여 표시되도록 하는 것이 바람직하다.In addition, the augmented reality implementation device includes a camera and a communication unit, transmits image data by the camera to the wearable sound device through the communication unit, and the wearable sound device uses the communication unit and an artificial intelligence function to perform object recognition. It has a module, receives image data from the augmented reality implementation device through the communication unit, recognizes an object for the received image data through the object recognition module, generates object recognition information, transmits it to the augmented reality implementation device, and transmits the augmented reality device. It is preferable that the implementation device receives the object recognition information and displays the received object recognition information through the display unit.

또한, 증강 현실 구현 장치는 통신부와, 사용자의 피부에 접하거나 근접하는 온도 감지부를 구비하고, 웨어러블 음향 장치는 가스 센서, 레이더 센서, 온도 감지부 중의 적어도 하나 이상과 통신부를 구비하는 것이 바람직하다.Also, the augmented reality implementation device preferably includes a communication unit and a temperature sensing unit that contacts or approaches the user's skin, and the wearable sound device preferably includes at least one of a gas sensor, a radar sensor, and a temperature sensing unit and a communication unit.

또한, 웨어러블 음향 장치는 가스 센서로부터의 감지값을 이용하여 외기 및 사용자의 호기 품질을 판단하거나, 레이더 센서로부터의 반사 신호를 이용하여 심박도를 산정하거나 온도 감지부로부터 외부 온도를 수신하며, 외기 및 호기 품질 또는 심박도 또는 외부 온도 중의 적어도 하나 이상을 건강 관리 기능을 위한 건강 데이터로 저장하며, 웨어러블 음향 장치는 건강 데이터를 통신부를 통하여 증강 현실 구현 장치로 전송하고, 증강 현실 구현 장치는 통신부를 통하여 건강 데이터를 수신하고, 수신된 건강 데이터를 디스플레이부를 통하여 표시하는 것이 바람직하다.In addition, the wearable sound device determines the quality of outdoor air and the user's exhalation using a detected value from a gas sensor, calculates a heart rate using a reflected signal from a radar sensor, or receives an external temperature from a temperature sensor, and stores at least one of exhalation quality, heart rate, or external temperature as health data for a health management function, the wearable sound device transmits the health data to an augmented reality device through a communication unit, and the augmented reality implementation device uses a communication unit It is preferable to receive the health data through the display unit and display the received health data through the display unit.

또한, 증강 현실 구현 장치는 통신부와 카메라를 구비하고, 카메라와 통신부를 구비하며, 카메라에 의한 식물체에 대한 영상 데이터를 통신부를 통하여 웨어러블 음향 장치로 전송하고, 웨어러블 음향 장치는 통신부와, 인공 지능 기능을 이용하여 사물 인식을 수행하는 사물 인식 모듈과, 가스 센서를 구비하며, 통신부를 통하여 증강 현실 구현 장치로부터 영상 데이터를 수신하고, 사물 인식 모듈을 통하여 수신된 영상 데이터에 대한 사물을 인식하여 사물 인식 정보를 생성하고, 사물 인식 정보와, 가스 센서로부터 식물체의 향 ?t유량을 이용하여 식물체의 파이토케미컬 성분을 판단하고, 판단된 파이토케미컬 성분을 통신부를 통하여 증강 현실 구현 장치로 전송하고, 증강 현실 구현 장치는 통신부를 통하여 파이토케미컬 성분을 수신하고, 수신된 파이토케미컬 성분을 디스플레이부를 통하여 표시하는 것이 바람직하다.In addition, the augmented reality implementation device includes a communication unit and a camera, and includes a camera and a communication unit, and transmits image data of a plant by the camera to a wearable sound device through the communication unit, and the wearable sound device has a communication unit and an artificial intelligence function Equipped with an object recognition module for performing object recognition using a gas sensor, receiving image data from an augmented reality implementation device through a communication unit, recognizing an object of the received image data through the object recognition module, and recognizing an object. Generate information, determine the phytochemical component of the plant using the object recognition information and the flow rate of the plant from the gas sensor, transmit the determined phytochemical component to the augmented reality implementation device through the communication unit, augmented reality The implementation device preferably receives the phytochemical component through the communication unit and displays the received phytochemical component through the display unit.

또한, 웨어러블 음향 장치는 판단된 파이토케미컬 성분과 사물 인식 정보를 이용하여 파이토케미컬 성분별 섭취량을 산정하고, 산정된 섭취량과 권장 섭취량을 비교하여 보충되어야 할 파이토케미컬 성분 및 그 보충 섭취량을 산정하여 파이토케미컬 정보에 포함시켜 통신부를 통하여 증강 현실 구현 장치로 전송하고, 증강 현실 구현 장치는 통신부를 통하여 파이토케미컬 정보를 수신하고, 수신된 파이토케미컬 정보를 디스플레이부를 통하여 표시하는 것이 바람직하다. In addition, the wearable sound device calculates the intake amount for each phytochemical component using the determined phytochemical component and object recognition information, compares the calculated intake amount with the recommended intake amount, calculates the phytochemical component to be supplemented and the supplemental intake amount, It is preferable that the chemical information is included in the chemical information and transmitted to the augmented reality implementation device through the communication unit, the augmented reality implementation device receives the phytochemical information through the communication unit, and displays the received phytochemical information through the display unit.

또한, 연결선은 증강 현실 구현 장치와 웨어러블 음향 장치 각각과 탈착 가능한 것이 바람직하다.In addition, it is preferable that the connection line is detachable from each of the augmented reality implementation device and the wearable sound device.

본 발명은 웨어러블 음향 장치와 전기적으로 연결되어 전원 공급이 지속적으로 이루어짐으로써, 증강 현실 구현 장치의 동작 시간을 증가시키며, 복수의 데이터들(예를 들면, 영상, 체온, 심전도 등)의 획득이 가능하도록 하여, 보다 현실감이 향상된 증강 현실과, 다양한 건강 관리 기능을 제공하는 효과가 있다.The present invention is electrically connected to the wearable sound device and continuously supplied with power, thereby increasing the operation time of the augmented reality device and acquiring a plurality of data (e.g., image, body temperature, electrocardiogram, etc.) By doing so, there is an effect of providing augmented reality with improved realism and various health management functions.

도 1은 본 발명에 따른 웨어러블 음향 장치를 이용한 증강 현실 구현 시스템의 간략 사시도이다.
도 2는 도 1의 웨어러블 음향 장치를 이용한 증강 현실 구현 시스템의 제어 구성도이다.
1 is a simplified perspective view of an augmented reality implementation system using a wearable sound device according to the present invention.
FIG. 2 is a control block diagram of an augmented reality implementation system using the wearable sound device of FIG. 1 .

이하에서, 본 발명은 실시예와 도면을 통하여 상세하게 설명된다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 실시 예의 다양한 변경(modification), 균등물(equivalent), 및/또는 대체물(alternative)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.Hereinafter, the present invention will be described in detail through examples and drawings. However, it should be understood that this is not intended to limit the present invention to the specific embodiments, and includes various modifications, equivalents, and/or alternatives of the embodiments of the present invention. In connection with the description of the drawings, like reference numerals may be used for like elements.

본 문서에서, "가진다", "가질 수 있다", "포함한다", 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.In this document, expressions such as "has", "may have", "includes", or "may include" refer to the presence of a corresponding feature (eg, numerical value, function, operation, or component such as a part). , which does not preclude the existence of additional features.

본 문서에서, "A 또는 B", "A 또는/및 B 중 적어도 하나", 또는 "A 또는/및 B 중 하나 또는 그 이상" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B", "A 및 B 중 적어도 하나", 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.In this document, expressions such as "A or B", "at least one of A and/and B", or "one or more of A or/and B" may include all possible combinations of the items listed together. . For example, "A or B", "at least one of A and B", or "at least one of A or B" includes (1) at least one A, (2) at least one B, Or (3) may refer to all cases including at least one A and at least one B.

본 문서에서 사용된 "제1", "제2", "첫째", 또는 "둘째" 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 예를 들면, 제1 사용자 기기와 제2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 문서에 기재된 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 바꾸어 명명될 수 있다.Expressions such as "first", "second", "first", or "second" as used herein may modify various elements, in any order and/or importance, and may refer to one element as another. It is used to distinguish from components, but does not limit the components. For example, a first user device and a second user device may represent different user devices regardless of order or importance. For example, without departing from the scope of rights described in this document, a first element may be called a second element, and similarly, the second element may also be renamed to the first element.

어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.A component (e.g., a first component) is "(operatively or communicatively) coupled with/to" another component (e.g., a second component); When referred to as "connected to", it should be understood that the certain component may be directly connected to the other component or connected through another component (eg, a third component). On the other hand, when an element (eg, a first element) is referred to as being “directly connected” or “directly connected” to another element (eg, a second element), the element and the above It may be understood that other components (eg, a third component) do not exist between the other components.

본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)", "~하는 능력을 가지는(having the capacity to)", "~하도록 설계된(designed to)", "~하도록 변경된(adapted to)", "~하도록 만들어진(made to)", 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성(또는 설정)된"은 하드웨어적으로 "특별히 설계된(specifically designed to)"것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성(또는 설정)된 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.As used in this document, the expression "configured to" means "suitable for", "having the capacity to", depending on the situation. ", "designed to", "adapted to", "made to", or "capable of" can be used interchangeably. The term "configured (or set) to" may not necessarily mean only "specifically designed to" hardware. Instead, in some contexts, the phrase "device configured to" may mean that the device is "capable of" in conjunction with other devices or components. For example, the phrase "a processor configured (or set) to perform A, B, and C" may include a dedicated processor (eg, an embedded processor) to perform those operations, or one or more software programs stored in a memory device that executes By doing so, it may mean a general-purpose processor (eg, CPU or application processor) capable of performing corresponding operations.

본 문서에서 사용된 용어들은 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 다른 실시 예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 문서에 기재된 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 문서에 사용된 용어들 중 일반적인 사전에 정의된 용어들은 관련 기술의 문맥 상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 문서의 실시 예들을 배제하도록 해석될 수 없다.Terms used in this document are only used to describe a specific embodiment, and may not be intended to limit the scope of other embodiments. Singular expressions may include plural expressions unless the context clearly dictates otherwise. Terms used herein, including technical or scientific terms, may have the same meaning as commonly understood by a person of ordinary skill in the technical field described in this document. Among the terms used in this document, the terms defined in general dictionaries may be interpreted as having the same or similar meaning to the meaning in the context of the related art, and unless explicitly defined in this document, in an ideal or excessively formal meaning. not interpreted In some cases, even terms defined in this document cannot be interpreted to exclude the embodiments of this document.

도 1은 본 발명에 따른 웨어러블 음향 장치를 이용한 증강 현실 구현 시스템의 간략 사시도이다.1 is a simplified perspective view of an augmented reality implementation system using a wearable sound device according to the present invention.

증강 현실 구현 시스템은 안경 형태로 사용자의 얼굴에 착용되는 증강 현실 구현 장치(100)와, 사용자의 목이나 어깨에 안착되며 증강 현실 구현 장치(100)와 연결선(310, 320)을 통하여 전기적으로 탈착 가능한 웨어러블 음향 장치(200)와, 증강 현실 구현 장치(100)와 웨어러블 음향 장치(200)는 전기적으로 연결하는 제 1 및 제 2 연결선(310, 320)으로 구성된 연결선(300) 등을 포함하여 구성된다. The augmented reality implementation system is electrically detached from the augmented reality implementation device 100 worn on the user's face in the form of glasses, seated on the user's neck or shoulder, and through the augmented reality implementation device 100 and connection lines 310 and 320. The wearable sound device 200, the augmented reality device 100, and the wearable sound device 200 are configured to include a connection line 300 composed of first and second connection lines 310 and 320 electrically connecting the wearable sound device 200 and the like. do.

증강 현실 구현 장치(100)는 사용자의 눈을 향하며 적어도 일부분이 투명한 제 1 및 제 2 디스플레이부(110a, 110b)로 구성된 디스플레이부(110)와, 디스플레이부(110)의 적어도 일부분을 둘러싸며 사용자의 코에 접촉되는 전면 프레임(120)과, 사용자의 귀나 얼굴 피부에 접촉되며 지지부(120)의 양단 각각에 연결되는 제 1 및 제 2 다리부(130a, 130b)로 구성된 측면 프레임(130)으로 구성되어, 사용자의 머리 또는 얼굴에 착용된다.The augmented reality implementation device 100 includes a display unit 110 composed of first and second display units 110a and 110b, at least partially transparent, facing the user's eyes, and enclosing at least a portion of the display unit 110 to allow the user to A side frame 130 composed of a front frame 120 in contact with the nose of the user and first and second leg parts 130a and 130b connected to both ends of the support part 120 and in contact with the user's ear or facial skin. It is configured and worn on the user's head or face.

전면 프레임(120)과 측면 프레임(130)(제 1 및 제 2 다리부(130a, 130b))는 힌지 결합되어 전면 프레임(120)의 배면으로 측면 프레임(130)이 접힐 수 있다.The front frame 120 and the side frame 130 (first and second leg parts 130a and 130b) are hinged so that the side frame 130 can be folded to the rear surface of the front frame 120.

전면 프레임(120)에는 사용자의 전방(전면 프레임(120)의 전방)을 촬영하기 위한 제 1 및 제 2 카메라(156a, 156b)가 장착된다.The front frame 120 is equipped with first and second cameras 156a and 156b for photographing the front of the user (the front of the front frame 120).

측면 프레임(130)의 내측면(즉, 사용자의 머리나 얼굴 피부를 향하는 면)에는 온도 감지부(150)가 장착된다.The temperature sensor 150 is mounted on the inner surface of the side frame 130 (that is, the surface facing the user's head or facial skin).

웨어러블 음향 장치(200)는 사용자의 목 주위나 어깨에 안착되는 본체부(210)를 구비한다. 본체부(210)는 도시된 바와 같이, 전방에 사용자의 신체(예를 들면, 목 등)가 통과할 수 있는 개방부가 형성된 넥밴드 타입이나, 줄 형태로 사용자의 목이나 어깨에 안착되도록 구현될 수 있다. 본체부(210)는 적어도 일부분이 탄성을 지니도록 될 수 있다. 본체부(210)의 외측면에는 외부로의 음 방출을 위한 다수의 음 방출홀(211)이 구비된다. 본체부(210)의 상측면에는 공기와의 접촉을 위한 개방구(256a)가 형성된다. 또한, 전방을 향하는 본체부(210)에는 제 1 및 제 2 카메라(264a, 264b)와, 후방을 향하는 본체부(210)에는 제 3 카메라(264c)가 장착된다.The wearable sound device 200 includes a main body 210 seated around a user's neck or shoulder. As shown in the figure, the main body part 210 may be a neckband type having an opening through which the user's body (eg, neck, etc.) can pass through, or a strap shape to be seated on the user's neck or shoulder. can At least a portion of the body portion 210 may have elasticity. A plurality of sound emission holes 211 for sound emission to the outside are provided on the outer surface of the body part 210 . An opening 256a for contact with air is formed on the upper surface of the main body 210 . In addition, first and second cameras 264a and 264b are mounted on the body portion 210 facing forward, and a third camera 264c is mounted on the body portion 210 facing backward.

본체부(210)는 개방부를 형성하는 본체부(210)의 양 단부들인 제 1 및 제 2 수용부(212a, 212b)를 각각 구비하고, 제 1 및 제 2 수용부(212a, 212b) 각각은 제 1 및 제 2 이어폰부(220a, 220b)가 각각 수용되거나 안착되는 제 1 및 제 2 홈(214a, 214b) 각각을 구비한다. The body portion 210 includes first and second accommodating portions 212a and 212b, which are both ends of the main body portion 210 that form an opening, and each of the first and second accommodating portions 212a and 212b is Each of the first and second earphone units 220a and 220b has first and second grooves 214a and 214b in which the first and second earphones 220a and 220b are accommodated or seated.

제 1 및 제 2 수용부(212a, 212b) 각각에 삽입 수용(장착)되거나 이탈 분리(미장착)될 수 있는 제 1 및 제 2 이어폰부(220a, 220b) 각각이 본체부(210)(또는 데이터 프로세서(270))와의 전기적 및 물리적 연결을 위한 제 1 및 제 2 연결선(230a, 230b) 각각을 통하여 본체부(210)에 연결된다. Each of the first and second earphone parts 220a and 220b, which can be inserted and accommodated (mounted) or separated (unmounted) in the first and second accommodating parts 212a and 212b, respectively, is connected to the body part 210 (or data It is connected to the main body 210 through first and second connection lines 230a and 230b for electrical and physical connection with the processor 270, respectively.

또한, 본체부(210) 내에는 제 1 및 제 2 연결선(230a, 230b)의 풀림 및 감김을 위한 감김 장치(미도시)가 구비된다. 감김 장치는 외력에 의해서 또는 자동적으로 풀림 및 감김 동작을 수행할 수 있다. 제 1 및 제 2 연결선(230a, 230b) 각각은 제 1 및 제 2 홈(214a, 214b) 내에 형성된 관통홀(미도시)을 통하여 감김 장치에 의해 감기거나 풀리며, 제 1 및 제 2 이어폰부(220, 220b)는 제 1 및 제 2 연결선(230a, 230b)을 통하여 데이터 프로세서(270)에 전기적으로 연결된다. In addition, a winding device (not shown) for unwinding and winding the first and second connection wires 230a and 230b is provided in the main body 210 . The winding device may perform unwinding and winding operations automatically or by an external force. Each of the first and second connection lines 230a and 230b is wound or unwound by a winding device through a through hole (not shown) formed in the first and second grooves 214a and 214b, and the first and second earphone units ( 220 and 220b) are electrically connected to the data processor 270 through first and second connection lines 230a and 230b.

감김 장치가 감김 동작을 수행하고, 제 1 및 제 2 이어폰부(220a, 220b)가 제 1 및 제 2 홈(214a, 214b) 내에 수용 안착된 상태(장착 상태)가 도 1에 도시되며, 제 1 및 제 2 연결선(230a, 230b)이 감김 장치에 의해 본체부(210) 내에 수용된 상태이다. 반면에, 감김 장치가 풀림 동작을 수행하고, 제 1 및 제 2 이어폰부(220a, 220b)가 제 1 및 제 2 홈(214a, 214b) 각각으로부터 이탈 분리된 상태(미장착 상태)이며, 제 1 및 제 2 연결선(230a, 230b)가 본체부(210)의 외부로 연장되어 노출된 상태이다.A state in which the winding device performs a winding operation and the first and second earphone units 220a and 220b are accommodated and seated in the first and second grooves 214a and 214b (mounted state) is shown in FIG. 1, The first and second connection lines 230a and 230b are accommodated in the main body 210 by the winding device. On the other hand, the winding device performs an unwinding operation, and the first and second earphone units 220a and 220b are separated from the first and second grooves 214a and 214b, respectively (unmounted state), and the first and the second connection lines 230a and 230b are exposed and extended to the outside of the main body 210 .

연결선(300)은 일단은 증강 현실 구현 장치(100)에 연결되고 타단은 웨어러블 음향 장치(200)에 각각 연결되는 제 1 및 제 2 연결선(310, 320)을 포함하여 구성된다. 다만, 연결선(300)은 하나의 선으로 구성될 수도 있다. 연결선(300)은 웨어러블 음향 장치(200)로부터 증강 현실 구현 장치(100)로의 전원 공급을 적어도 수행하며, 추가적으로 데이터 통신을 위한 전기적 연결을 제공할 수도 있다. 연결선(300)과 증강 현실 구현 장치(100) 및 웨어러블 음향 장치(200) 간의 연결은 예를 들면 USB 포트 등으로 구현될 수 있으며, 연결선(300)은 증강 현실 구현 장치(100)와 웨어러블 음향 장치(200) 각각과 탈착 가능하다.The connection line 300 includes first and second connection lines 310 and 320 having one end connected to the augmented reality device 100 and the other end connected to the wearable sound device 200, respectively. However, the connection line 300 may also consist of a single line. The connection line 300 at least supplies power from the wearable sound device 200 to the augmented reality device 100, and may additionally provide an electrical connection for data communication. The connection between the connection line 300, the augmented reality implementation device 100, and the wearable sound device 200 may be implemented with, for example, a USB port, and the connection line 300 connects the augmented reality implementation device 100 and the wearable sound device (200) each and detachable.

도 2는 도 1의 웨어러블 음향 장치를 이용한 증강 현실 구현 시스템의 제어 구성도이다.FIG. 2 is a control block diagram of an augmented reality implementation system using the wearable sound device of FIG. 1 .

증강 현실 구현 시스템은 사용자가 얼굴에 착용한 때 디스플레이부(110)를 통하여 증강 현실을 표시하는 증강 현실 구현 장치(100)와, 증강 현실 구현 장치(100)와 전기적으로 연결/분리되며 증강 현실 구현 장치(100)와 전자 통신 장치(400) 각각과 통신을 수행하는 웨어러블 음향 장치(200)와, 웨어러블 음향 장치(200)와 통신을 수행하며 정보 제공 서버(미도시)와 통신을 수행하는 전자 통신 장치(400) 등을 포함하여 구성된다.The augmented reality implementation system is electrically connected/disconnected from the augmented reality implementation device 100 that displays augmented reality through the display unit 110 when worn on the user's face, and the augmented reality implementation device 100, and implements augmented reality. A wearable acoustic device 200 that communicates with each of the device 100 and the electronic communication device 400, and electronic communication that communicates with the wearable acoustic device 200 and communicates with an information providing server (not shown) It is configured to include the device 400 and the like.

증강 현실 구현 장치(100)의 제어 구성은 사용자로부터의 입력(예를 들면, 전원 온/오프 등)을 획득하여 데이터 프로세서(170)에 인가하는 입력부(152)와, 데이터 프로세서(170)의 제어에 의해 디스플레이부(110)에서의 증강 현실 표시 동작을 수행하는 디스플레이 구동부(154)와, 전면 프레임(120)의 전방을 촬영하여 데이터 프로세서(170)에 영상 데이터를 각각 전송하는 제 1 및 제 2 카메라(156a, 156b)를 포함하는 카메라(156)와, 증강 현실 구현 장치(100)의 위치(예를 들면, GPS 감지값 등)를 데이터 프로세서(170)에 인가하는 위치 감지부(158)와, 사용자의 피부에 접촉되거나 근접하여 체온을 감지하여 체온을 데이터 프로세서(170)에 인가하는 온도 감지부(160)와, 웨어러블 음향 장치(200) 및 전자 통신 장치(400) 또는 정보 제공 서버(미도시) 등과 무선 또는 유선 통신을 수행하며 영상 데이터, 사물 인식 데이터 등을 수신하여 데이터 프로세서(170)에 인가하는 통신부(162)와, 접속부(166)를 통하여 웨어러블 음향 장치(200)로부터 공급된 전원이나 자체 내장 배터리의 전원을 전원이 필요한 구성요소(예를 들면, 데이터 프로세서(170), 디스플레이 구동부(154), 카메라(156) 등)에 공급하는 전원부(164), 연결선(300)에 전기적으로 탈착되는 접속부(166)(예를 들면, USB 포트 등) 및 상술된 구성요소들을 제어하여 증강 현실 표시 기능과 건강 관리 기능을 수행하는 데이터 프로세서(170) 등을 포함하여 구성된다. 다만, 입력부(152)와, 위치 감지부(158)와, 온도 감지부(160)와, 통신부(162)와, 전원부(164), 접속부(166) 등은 본 발명이 속하는 기술 분야의 통상의 기술자에게 당연히 인식되는 기술에 해당되어, 그 상세한 설명이 생략된다.The control configuration of the augmented reality implementation device 100 includes an input unit 152 that obtains an input (eg, power on/off, etc.) from a user and applies it to the data processor 170, and controls the data processor 170. The display driver 154 performing the augmented reality display operation on the display unit 110 by the display unit 110, and the first and second images for photographing the front of the front frame 120 and transmitting image data to the data processor 170, respectively. A camera 156 including cameras 156a and 156b, and a location sensor 158 that applies the location (eg, GPS detection value, etc.) of the augmented reality device 100 to the data processor 170, , a temperature sensor 160 that detects body temperature in contact with or close to the user's skin and applies the body temperature to the data processor 170, the wearable sound device 200 and the electronic communication device 400 or an information providing server (not shown) Power supplied from the wearable sound device 200 through the communication unit 162 and the connection unit 166 that perform wireless or wired communication with the like), receive image data, object recognition data, and the like, and apply the received data to the data processor 170 or the power supply unit 164 that supplies the power of the built-in battery to components requiring power (eg, data processor 170, display driver 154, camera 156, etc.), electrically to the connection line 300 It is configured to include a detachable connector 166 (eg, a USB port, etc.) and a data processor 170 that controls the above-described components to perform augmented reality display functions and health management functions. However, the input unit 152, the position sensor 158, the temperature sensor 160, the communication unit 162, the power supply unit 164, the connection unit 166, etc. are common in the art to which the present invention belongs. Corresponds to a technology that is naturally recognized by technicians, and a detailed description thereof is omitted.

증강 현실 구현 장치(100)의 제어 구성은 측면 프레임(130)이나 전면 프레임(120)의 내부나 측면에 장착된다.The control component of the augmented reality device 100 is mounted on the inside or side of the side frame 130 or the front frame 120 .

디스플레이 구동부(154)는 데이터 프로세서(170)로부터의 증강 현실 데이터가 디스플레이부(110)에 시각적으로 증강 현실로 표시되도록 하는 광학 엔진 등을 포함하여 구성된다. 본 실시예에서, 디스플레이부(110)는 투명한 홀로그래픽 도파로(holographic wave-guide)로 구현되며, 디스플레이 구동부(154)는 디스플레이부(110)에 증강 현실 데이터에 대응하는 광원을 입사시키며, 입사된 광원은 디스플레이부(110) 내에서 반사됨으로써 사용자의 시각에 일체화된 증강 현실 구현이 가능하다.The display driver 154 is configured to include an optical engine or the like that visually displays the augmented reality data from the data processor 170 on the display unit 110 as augmented reality. In this embodiment, the display unit 110 is implemented as a transparent holographic wave-guide, and the display driver 154 causes a light source corresponding to augmented reality data to be incident on the display unit 110, and the incident As the light source is reflected within the display unit 110, it is possible to implement augmented reality integrated with the user's vision.

카메라(156)는 영상 촬영과 함께 물체와 증강 현실 구현 장치(100) 간의 거리를 측정하기 위한 TOF(Time Of Flight) 센서를 구비하여, 영상 데이터와 거리 데이터를 데이터 프로세서(170)에 인가한다. 본 실시예에서 영상 데이터와 거리 데이터는 촬영 데이터로 통칭될 수 있다.The camera 156 includes a Time Of Flight (TOF) sensor for capturing an image and measuring a distance between an object and the augmented reality device 100 and applies the image data and the distance data to the data processor 170 . In this embodiment, image data and distance data may be referred to as photographing data.

데이터 프로세서(170)는 증강 현실 표시 기능과 건강 관리 기능을 수행하는 프로세서(예를 들면, CPU, MCU 등)와, 증강 현실 구현 알고리즘, 영상 데이터, 거리 데이터, 증강 현실 데이터, 체온, 길 안내를 위한 지리 정보 등을 저장하는 저장 공간(예를 들면, 메모리 등) 등을 포함하여 구성된다. 데이터 프로세서(170)에 의해 수행되는 기능들은 하기에서 상세하게 기재된다. The data processor 170 is a processor (eg, CPU, MCU, etc.) that performs an augmented reality display function and a health management function, an augmented reality implementation algorithm, image data, distance data, augmented reality data, body temperature, and route guidance. It is configured to include a storage space (eg, a memory, etc.) for storing geographic information and the like. Functions performed by data processor 170 are described in detail below.

다음으로, 웨어러블 음향 장치(200)는 제 1 및 제 2 이어폰부(220a,2 20b)를 포함하는 이어폰부(220)와, 사용자로부터의 입력(예를 들면, 사물 인식 동작, 건강 관리 기능 동작 등)을 획득하여 데이터 프로세서(270)에 인가하는 입력부(242)와, 동작 중인 기능 또는 모드(예를 들면, 음향 표출 모드, 전화 통화 모드, 사물 인식 기능, 건강 관리 기능 등)을 표시하는 표시부(244)와, 외부의 음향을 획득하여 데이터 프로세서(270)에 인가하는 마이크(246)와, 음 방출홀(211)을 통하여 음 방출을 수행하는 스피커(248)와, 증강 현실 구현 장치(100) 및 전자 통신 장치(400) 등과 무선 또는 유선 통신을 수행하는 통신부(250)와, 외부로 신호를 전송하고 전송된 신호의 반사 신호를 수신하여 수신된 반사 신호를 데이터 프로세서(270)에 인가하는 레이더 센서(252)와, 인공 지능(AI) 기능을 활용하여 영상 데이터 내의 사물에 대한 인식을 수행하고, 인식된 사물 인식 정보를 데이터 프로세서(270)에 인가하는 사물 인식 모듈(254)과, 개방구(256a)를 통하여 외부 공기 또는 사용자의 호기에서 휘발성 유기 화합물 또는 식물체의 향 함유량 등을 감지하여 감지된 감지값을 데이터 프로세서(270)에 인가하는 가스 센서(256)(예를 들면, VOC 센서 등)와, 외부 온도를 감지하여 감지된 외부 온도를 데이터 프로세서(270)에 인가하는 온도 감지부(258)와, 웨어러블 음향 장치(200)의 구성요소들에 대한 전원 공급과 연결선(300)을 통한 증강 현실 구현 장치(100)에 대한 전원 공급을 수행하는 전원부(260)와, 연결선(300)에 전기적으로 탈착되는 접속부(262)(예를 들면, USB 포트 등)와, 웨어러블 음향 장치(200)의 전방 및 후방을 촬영하는 제 1 내지 제 3 카메라(264a~264c)를 포함하는 카메라(264) 및 상술된 구성요소들을 제어하여 음향 재생 기능, 전화 통화 기능뿐만 아니라 증강 현실 구현 장치(100)로의 전원 공급 및 데이터(영상 데이터, 사물 인식 정보 등)의 전송 기능과, 건강 관리 기능 등을 수행하는 데이터 프로세서(270) 등을 포함하여 구성된다. 다만, 이어폰부(220)와, 입력부(242)와, 표시부(244)와, 마이크(246)와, 스피커(248)와, 통신부(250)와, 레이더 센서(252)와, 사물 인식 모듈(254)과, 가스 센서(256)와, 온도 감지부(258)와, 접속부(262), 카메라(264) 등은 본 발명이 속하는 기술분야의 통상의 기술자에게 당연히 인식되는 기술에 해당되어, 그 상세한 설명이 생략된다.Next, the wearable sound device 200 uses the earphone unit 220 including the first and second earphone units 220a and 220b, and input from the user (eg, object recognition operation, health management function operation). etc.) obtained and applied to the data processor 270, and a display unit that displays functions or modes (eg, sound expression mode, phone call mode, object recognition function, health management function, etc.) in operation. 244, a microphone 246 that acquires external sound and applies it to the data processor 270, a speaker 248 that emits sound through the sound emission hole 211, and an augmented reality implementation device 100 ) and the electronic communication device 400, and the communication unit 250 that performs wireless or wired communication, transmits a signal to the outside, receives a reflected signal of the transmitted signal, and applies the received reflected signal to the data processor 270 A radar sensor 252 and an object recognition module 254 for recognizing an object in image data using an artificial intelligence (AI) function and applying the recognized object recognition information to the data processor 270; A gas sensor 256 (e.g., a VOC sensor etc.), a temperature sensor 258 that senses the external temperature and applies the detected external temperature to the data processor 270, and power supply and connection lines 300 to the components of the wearable sound device 200 A power supply unit 260 that supplies power to the augmented reality implementation device 100 through a power supply unit 260, a connection unit 262 electrically detachable from the connection line 300 (eg, a USB port, etc.), and a wearable sound device 200 A camera 264 including first to third cameras 264a to 264c for taking pictures of the front and rear of the camera 264 and the above-described components to control a sound reproduction function, a phone call function, as well as an augmented reality implementation device ( 100) and a data processor 270 that performs a function of supplying power and transmitting data (image data, object recognition information, etc.), and a health management function. However, the earphone unit 220, the input unit 242, the display unit 244, the microphone 246, the speaker 248, the communication unit 250, the radar sensor 252, the object recognition module ( 254), the gas sensor 256, the temperature sensor 258, the connector 262, the camera 264, etc. correspond to technologies naturally recognized by those skilled in the art to which the present invention belongs, Detailed descriptions are omitted.

전원부(260)는 연결선(300)이 접속부(262)에 전기적으로 연결되면, 데이터 프로세서(270)에 대해서 독립적으로 접속부(262)를 통하여 전원을 증강 현실 구현 장치(100)로 공급하거나, 데이터 프로세서(270)의 제어에 의해 접속부(262)를 통하여 전원을 증강 현실 구현 장치(100)로 공급한다.When the connection line 300 is electrically connected to the connection unit 262, the power supply unit 260 supplies power to the augmented reality implementation device 100 through the connection unit 262 independently of the data processor 270 or the data processor 270. Power is supplied to the augmented reality implementation device 100 through the connection unit 262 under the control of step 270 .

데이터 프로세서(270)는 음향 재생 기능, 전화 통화 기능뿐만 아니라 증강 현실 구현 장치(100)로의 전원 공급 및 데이터(영상 데이터, 사물 인식 정보 등)의 전송 기능과, 건강 관리 기능 등을 수행하는 프로세서(예를 들면, CPU, MCU 등)와, 영상 데이터, 촬영 데이터(영상 데이터 및 거리 데이터), 사물 인식 정보, 건강 관리 기능을 위한 데이터(외부 온도, 체온, 심박도, 외기 품질, 호기 품질, 향 함유량, 파이토케미컬(phytochemical) 성분 및 성분별 섭취량 등) 등을 저장하는 저장 공간(예를 들면, 메모리 등) 등을 포함하여 구성된다. 데이터 프로세서(270)에 의해 수행되는 기능들은 하기에서 상세하게 기재된다. The data processor 270 is a processor that performs not only a sound reproduction function and a phone call function, but also a power supply to the augmented reality implementation device 100 and a transmission function of data (image data, object recognition information, etc.) and a health management function ( For example, CPU, MCU, etc.), image data, shooting data (image data and distance data), object recognition information, data for health management functions (external temperature, body temperature, heart rate, outdoor air quality, exhalation quality, scent It is configured to include a storage space (eg, memory, etc.) for storing content, phytochemical components, intake amount for each component, etc.). Functions performed by data processor 270 are described in detail below.

전자 통신 장치(400)는 예를 들면, 스마트폰, 테블릿 등과 같은 정보 통신 기기로서, 사용자로부터의 입력을 획득하여 데이터 프로세서(470)에 인가하는 입력부(442)와, 동작 중인 모드나 기타 정보를 표시하는 표시부(444)와, 웨어러블 음향 장치(200) 또는 증강 현실 구현 장치(100) 및 정보 제공 서버와 통신을 수행하는 통신부(460)와, 상술된 구성요소들을 제어하여 건강 관리 기능을 수행하는 데이터 프로세서(470) 등을 포함하여 구성된다. 다만, 전원부(미도시)와, 입력부(442), 표시부(444) 및 통신부(460) 등은 본 발명이 속하는 기술분야의 통상의 기술자에게 당연히 인식되는 기술에 해당되어, 그 상세한 설명이 생략된다.The electronic communication device 400 is, for example, an information communication device such as a smart phone or a tablet, and includes an input unit 442 that obtains an input from a user and applies it to the data processor 470, and an operating mode or other information. A display unit 444 that displays a , a communication unit 460 that communicates with the wearable sound device 200 or the augmented reality device 100 and the information providing server, and controls the above-described components to perform a health management function It is configured to include a data processor 470 and the like. However, since the power supply unit (not shown), the input unit 442, the display unit 444, and the communication unit 460 are naturally recognized by those skilled in the art, detailed descriptions thereof are omitted. .

데이터 프로세서(470)는 사물 인식 기능이나 건강 관리 기능을 수행하는 프로세서(예를 들면, CPU, MCU 등)과 건강 관리 기능을 위한 데이터(외부 온도, 체온, 심박도, 외기 품질, 호기 품질, 향 함유량, 파이토케미컬(phytochemical) 성분별 섭취량 등)(또는 건강 데이터) 등을 저장하는 저장 공간(예를 들면, 메모리 등) 등을 포함하여 구성된다. 데이터 프로세서(470)에 의해 수행되는 기능들은 하기에서 상세하게 기재된다. The data processor 470 is a processor (eg, CPU, MCU, etc.) performing an object recognition function or health management function and data for health management function (external temperature, body temperature, heart rate, outdoor air quality, exhalation quality, fragrance It is configured to include a storage space (eg, memory, etc.) for storing content, intake by phytochemical component, etc.) (or health data). Functions performed by data processor 470 are described in detail below.

먼저, 사물 인식 기능이 적용된 증강 현실 표시 기능에 대해서 설명된다.First, an augmented reality display function to which an object recognition function is applied will be described.

데이터 프로세서(170)는 카메라(156)로부터의 촬영 데이터(영상 데이터 및/또는 거리 데이터)를 통신부(162)를 통하여 웨어러블 음향 장치(200)로 전송한다. The data processor 170 transmits photographing data (image data and/or distance data) from the camera 156 to the wearable sound device 200 through the communication unit 162 .

데이터 프로세서(270)는 통신부(250)를 통하여 수신된 영상 데이터 및/또는 카메라(264)에 의해 생성된 영상 데이터 및/또는 거리 데이터를 사물 인식 모듈(254)로 전송하고, 사물 인식 모듈(254)은 인공 지능 기능을 이용하여 영상 데이터 내의 사물을 인식하여 사물 인식 정보를 생성하여 데이터 프로세서(270)로 인가한다. 또는, 데이터 프로세서(270)는 통신부(250)를 통하여 영상 데이터 및/또는 거리 데이터를 전자 통신 장치(400)로 전송하고, 데이터 프로세서(470)는 통신부(460)를 통하여 영상 데이터를 수신하고, 사물 인식 기능을 수행하는 정보 제공 서버(예를 들면, 구글 어시스턴트 등)에 전송하고, 정보 제공 서버로부터 사물 인식 정보를 수신할 수도 있다.The data processor 270 transmits the image data received through the communication unit 250 and/or the image data and/or distance data generated by the camera 264 to the object recognition module 254, and the object recognition module 254 ) recognizes an object in the image data using an artificial intelligence function, generates object recognition information, and applies the object recognition information to the data processor 270 . Alternatively, the data processor 270 transmits image data and/or distance data to the electronic communication device 400 through the communication unit 250, and the data processor 470 receives the image data through the communication unit 460, The object recognition information may be transmitted to an information providing server (for example, Google Assistant) performing an object recognition function, and object recognition information may be received from the information providing server.

데이터 프로세서(270)는 인가되거나 수신된 사물 인식 정보를 통신부(250)를 통하여 증강 현실 구현 장치(100)로 전송한다. The data processor 270 transmits the applied or received object recognition information to the augmented reality implementation device 100 through the communication unit 250 .

데이터 프로세서(170)는 통신부(162)를 통하여 사물 인식 정보를 수신하고, 수신된 사물 인식 정보를 디스플레이부(110)에 표시된 현실 데이터로 변환하여 디스플레이 구동부(154)에 인가하여 증강 현실 표시 기능을 수행한다. 증강 현실 데이터는 예를 들면, 데이터 프로세서(170)가 길 안내 기능을 수행하기 위해 지도 데이터의 경로 정보, 건강 관리 기능에 대한 데이터를 추가적으로 포함할 수도 있다. 데이터 프로세서(170)는 위치 감지부(158)에 의한 위치 정보와 지도 데이터의 경로 정보를 이용하여 길 안내 표시가 디스플레이부(110)에 표시되도록 한다.The data processor 170 receives object recognition information through the communication unit 162, converts the received object recognition information into real data displayed on the display unit 110, and applies it to the display driver 154 to perform an augmented reality display function. carry out The augmented reality data may additionally include, for example, route information of map data and health management function data so that the data processor 170 may perform a road guidance function. The data processor 170 displays a road guidance display on the display unit 110 using location information from the location sensor 158 and route information of map data.

다음으로, 건강 관리 기능에 대해서 설명된다. 건강 관리 기능은 환경 정보(예를 들면, 외부 온도, 체온, 심박도, 외기 품질, 호기 품질, 향 함유량, 파이토케미컬(phytochemical)의 섭취량 등)를 산정하거나 결정하는 과정을 포함한다. Next, the health management function is explained. The health management function includes a process of calculating or determining environmental information (eg, external temperature, body temperature, heart rate, external air quality, exhaled air quality, fragrance content, intake of phytochemicals, etc.).

외부 온도의 경우, 데이터 프로세서(270)는 온도 감지부(258)로부터 수신된 온도를 외부 온도로 저장하며, 통신부(250)를 통하여 증강 현실 구현 장치(100)로 전송한다. 데이터 프로세서(170)는 수신된 외부 온도를 증강 현실 데이터에 포함시켜 디스플레이 구동부(154)에 인가하여 디스플레이부(110)에 표시하여, 사용자가 외부 온도를 확인할 수 있도록 한다.In the case of the external temperature, the data processor 270 stores the temperature received from the temperature sensor 258 as an external temperature and transmits it to the augmented reality implementation device 100 through the communication unit 250 . The data processor 170 includes the received external temperature in augmented reality data and applies the data to the display driver 154 to display the data on the display 110 so that the user can check the external temperature.

체온의 경우, 데이터 프로세서(170)는 온도 감지부(160)로부터 체온을 수신하고, 수신된 체온을 증강 현실 데이터에 포함시켜 디스플레이 구동부(154)에 인가하여 디스플레이부(110)에 표시하여, 사용자가 사용자의 체온을 확인할 수 있도록 한다. 또한, 데이터 프로세서(170)는 체온을 통신부(162)를 통하여 웨어러블 음향 장치(200)로 전송하고, 데이터 프로세서(270)는 체온을 통신부(250)를 통하여 수신하여 건강 관리 기능에 대한 데이터로서 저장할 수 있다.In the case of body temperature, the data processor 170 receives the body temperature from the temperature sensor 160, includes the received body temperature in augmented reality data, applies it to the display driver 154, displays it on the display unit 110, and displays it on the display unit 110. to check the user's body temperature. In addition, the data processor 170 transmits the body temperature to the wearable sound device 200 through the communication unit 162, and the data processor 270 receives the body temperature through the communication unit 250 and stores it as data for health management functions. can

심박도의 경우, 데이터 프로세서(270)는 레이더 센서(252)로부터의 반사 신호(아날로그 신호)를 디지털 변환하고, 디지털 변환된 반사 신호를 분석하여 사용자의 심박수를 산정하여 저장한다. 데이터 프로세서(270)는 저장된 심박수를 통신부(250)를 통하여 증강 현실 구현 장치(100)로 전송한다. 데이터 프로세서(170)는 수신된 심박수를 증강 현실 데이터에 포함시켜 디스플레이 구동부(154)에 인가하여 디스플레이부(110)에 표시하여, 사용자가 심박수를 확인할 수 있도록 한다.In the case of heart rate, the data processor 270 digitally converts the reflected signal (analog signal) from the radar sensor 252, analyzes the digitally converted reflected signal, calculates and stores the user's heart rate. The data processor 270 transmits the stored heart rate to the augmented reality implementation device 100 through the communication unit 250 . The data processor 170 includes the received heart rate in augmented reality data, applies the data to the display driving unit 154, and displays it on the display unit 110 so that the user can check the heart rate.

외기 품질의 경우, 데이터 프로세서(270)는 가스 센서(256)로부터 감지값을 수신하고, 수신된 감지값과 품질 기준 데이터를 비교하여 외기 품질을 결정한다. 품질 기준 데이터는 감지값에 따른 공기의 품질을 결정할 수 있는 데이터에 해당된다. 데이터 프로세서(270)는 결정된 외기 품질을 통신부(250)를 통하여 증강 현실 구현 장치(100)로 전송한다. 데이터 프로세서(170)는 수신된 외기 품질을 증강 현실 데이터에 포함시켜 디스플레이 구동부(154)에 인가하여 디스플레이부(110)에 표시하여, 사용자가 외기 품질을 확인할 수 있도록 한다.In the case of outdoor air quality, the data processor 270 receives a sensing value from the gas sensor 256 and compares the received sensing value with quality reference data to determine outdoor air quality. The quality reference data corresponds to data capable of determining air quality according to detected values. The data processor 270 transmits the determined outdoor air quality to the augmented reality implementation device 100 through the communication unit 250 . The data processor 170 includes the received outdoor air quality in the augmented reality data and applies the data to the display driver 154 to display the data on the display unit 110 so that the user can check the outdoor air quality.

호기 품질의 경우, 데이터 프로세서(270)는 입력부(242)를 통하여 사용자의 호기(내쉬는 숨)를 결정하거나 판단하기 위한 호기 모드 입력을 획득하고, 스피커(248)를 통하여 사용자에게 개방구(256a)를 향하여 숨을 내쉴 것을 안내한다. 데이터 프로세서(270)는 위의 안내 이후의 일정 시간 동안 가스 센서(256)로부터 수신되는 감지값의 품질을 결정하고, 판단된 품질을 호기 품질로 저장한다. 호기 품질은 예를 들면, 아세톤의 양에 따라 당뇨병의 진단이나, 사용자의 지방이 얼마나 소모되었는지, 알코올 농도 등을 포함할 수 있다. 데이터 프로세서(270)는 결정된 호기 품질을 통신부(250)를 통하여 증강 현실 구현 장치(100)로 전송한다. 데이터 프로세서(170)는 수신된 호기 품질을 증강 현실 데이터에 포함시켜 디스플레이 구동부(154)에 인가하여 디스플레이부(110)에 표시하여, 사용자가 호기 품질을 확인할 수 있도록 한다. 특히, 가스 센서(256)가 본체부(211)에 장착됨으로써, 사용자가 고개를 조금 숙이거나 본체부(211)(가스 센서(256))를 입으로 가까이 위치하게 한 후 숨을 내쉬면 가스 센서(256)가 호기를 용이하게 접촉할 수 있다.In the case of exhalation quality, the data processor 270 determines or obtains an exhalation mode input for determining the user's exhalation (exhalation) through the input unit 242, and sends an opening 256a to the user through the speaker 248. directs the exhalation toward the The data processor 270 determines the quality of the detected value received from the gas sensor 256 for a certain period of time after the above guidance, and stores the determined quality as the breath quality. The exhalation quality may include, for example, diagnosis of diabetes according to the amount of acetone, amount of fat consumed by the user, alcohol concentration, and the like. The data processor 270 transmits the determined exhalation quality to the augmented reality implementation device 100 through the communication unit 250 . The data processor 170 includes the received exhaled breath quality in augmented reality data and applies the result to the display driver 154 to display the exhalation quality on the display unit 110 so that the user can check the exhalation quality. In particular, since the gas sensor 256 is mounted on the body part 211, when the user slightly lowers his or her head or places the body part 211 (gas sensor 256) close to the mouth and exhales, the gas sensor ( 256) can easily contact the exhaled air.

다음으로, 파이토케미컬을 이용한 건강 관리 기능에 대해서 설명된다.Next, health care functions using phytochemicals will be described.

데이터 프로세서(270)는 사용자가 섭취하는 식물체의 파이토케미컬 정보(섭취량 등)를 판단하기 위해, 파이토케미컬 성분에 대응하는 식물체의 색상과, 식물체 향의 함유율을 이용한다. 식물체의 색상을 이용하기 위해, 데이터 프로세서(270)는 증강 현실 구현 장치(100)로부터 수신된 영상 데이터 및/또는 카메라(264)로부터의 영상 데이터를 사물 인식 모듈(254)으로 전송하고, 사물 인식 모듈(254)은 영상 데이터 내의 사물에 대한 사물 인식 정보(예를 들면, 명칭, 색상, 체적 등)를 데이터 프로세서(270)에 인가하고, 데이터 프로세서(270)는 사물 인식 정보를 저장한다. 또한, 식물체 향의 함유율을 이용하기 위해, 데이터 프로세서(270)는 가스 센서(256)로부터 감지값을 획득하여 저장한다.The data processor 270 uses the color of the plant corresponding to the phytochemical component and the content of the scent of the plant to determine phytochemical information (intake amount, etc.) of the plant consumed by the user. In order to use the color of the plant, the data processor 270 transmits the image data received from the augmented reality device 100 and/or the image data from the camera 264 to the object recognition module 254, and object recognition. The module 254 applies object recognition information (eg, name, color, volume, etc.) of an object in the image data to the data processor 270, and the data processor 270 stores the object recognition information. In addition, in order to use the content rate of plant fragrance, the data processor 270 obtains and stores the detected value from the gas sensor 256.

데이터 프로세서(270)는 식물체의 색상과 향의 함유율에 대응하는 파이토케미컬 성분을 결정한다. 파이토케미컬 성분은 예를 들면, 리코펜, 베타카로틴, 클로로필, 안토시아닌, 알리신, 클로로겐산 등 중의 적어도 하나 이상을 포함할 수 있다. 예를 들면, 영상 데이터에 포도가 포함된 경우, 사물 인식 정보는 명칭(포도)과, 색상(보라색)을 포함하고, 데이터 프로세서(270)에 의해 식물체의 파이토케미컬 성분은 안토시아닌으로 판단된다. 데이터 프로세서(270)는 사물 인식 정보와 파이토케미컬 성분의 명칭을 통신부(250)를 통하여 증강 현실 구현 장치(100)로 전송한다. 데이터 프로세서(170)는 통신부(162)를 통하여 사물 인식 정보와 파이토케미컬 성분의 명칭을 수신하여 증강 현실 데이터로 변환하여 디스플레이 구동부(154)에 인가하여, 디스플레이부(110)에 사물 인식 정보와 파이토케미컬 성분의 명칭이 표시되도록 한다.The data processor 270 determines the phytochemical component corresponding to the color and fragrance content of the plant body. The phytochemical component may include, for example, at least one of lycopene, beta-carotene, chlorophyll, anthocyanin, allicin, and chlorogenic acid. For example, if grapes are included in the image data, the object recognition information includes the name (grape) and color (purple), and the data processor 270 determines that the phytochemical component of the plant is anthocyanin. The data processor 270 transmits object recognition information and names of phytochemical components to the augmented reality implementation device 100 through the communication unit 250 . The data processor 170 receives the object recognition information and the name of the phytochemical component through the communication unit 162, converts it into augmented reality data, and applies it to the display driver 154 to display the object recognition information and the phytochemical component to the display unit 110. The name of the chemical component should be indicated.

데이터 프로세서(270)는 위와 같은 사용자가 식물체를 섭취할 때에 위와 같은 파이토케미컬 성분을 판단해야 하기에, 입력부(242)로부터 파이토케미컬을 이용한 건강 관리 기능 동작 입력을 획득한 경우에만 위의 판단 과정을 수행한다. Since the data processor 270 has to determine the above phytochemical components when the user ingests the plant, the above determination process is performed only when the input unit 242 obtains the health management function operation input using the phytochemical. carry out

또한, 데이터 프로세서(270)는 기설정된 단위 기간(예를 들면, 일별 등) 동안에 사용자가 섭취한 파이토케미컬 성분별 섭취량을 산정하여 저장한다. 사물 인식 정보에 포함된 체적과 명칭을 기준으로 하여, 데이터 프로세서(270)는 식물체의 양을 추정할 수 있으며, 이 추정된 양을 섭취량으로서 저장한다. 데이터 프로세서(270)는 파이토케미컬 성분별 섭취량(즉, 파이토케미컬 정보)를 통신부(250)를 통하여 증강 현실 구현 장치(100)로 전송하고, 데이터 프로세서(170)는 현재의 파이토케미컬 성분별 섭취량(즉, 파이토케미컬 정보)를 통신부(162)를 통하여 수신하여 증강 현실 데이터로 변환하여 디스플레이 구동부(154)에 인가하여, 디스플레이부(110)에 표시되도록 한다.In addition, the data processor 270 calculates and stores the intake amount for each phytochemical component consumed by the user during a predetermined unit period (eg, daily, etc.). Based on the volume and name included in the object recognition information, the data processor 270 may estimate the amount of the plant and store the estimated amount as an intake amount. The data processor 270 transmits the intake amount for each phytochemical component (ie, phytochemical information) to the augmented reality implementation device 100 through the communication unit 250, and the data processor 170 transmits the current intake amount for each phytochemical component ( That is, phytochemical information) is received through the communication unit 162, converted into augmented reality data, applied to the display driver 154, and displayed on the display unit 110.

또한, 데이터 프로세서(270)는 파이토케미컬 성분별 권장 섭취량 정보를 저장하고, 권장 섭취량과 현재까지의 파이토케미컬 성분별 섭취량을 비교하여 보충되어야 할 파이토케미컬 성분 및 그 보충 섭취량을 산정하여 파이토케미컬 정보에 포함시켜 통신부(250)를 통하여 증강 현실 구현 장치(100)로 전송하고, 데이터 프로세서(170)는 파이토케미컬 정보를 통신부(162)를 통하여 수신하여 증강 현실 데이터로 변환하여 디스플레이 구동부(154)에 인가하여, 디스플레이부(110)에 표시되도록 한다.In addition, the data processor 270 stores recommended intake amount information for each phytochemical component, compares the recommended intake amount with the current intake amount for each phytochemical component, calculates the phytochemical component to be supplemented and its supplemented intake amount, and calculates the phytochemical information. It is included and transmitted to the augmented reality implementation device 100 through the communication unit 250, and the data processor 170 receives the phytochemical information through the communication unit 162, converts it into augmented reality data, and applies it to the display driver 154. So that it is displayed on the display unit 110.

또한, 데이터 프로세서(270)는 상술된 건강 데이터를 통신부(250)를 통하여 전자 통신 장치(400)로 전송하고, 데이터 프로세서(470)는 통신부(460)를 통하여 건강 데이터를 수신하여 저장하며, 표시부(444)를 통하여 표시할 수도 있다.In addition, the data processor 270 transmits the above-described health data to the electronic communication device 400 through the communication unit 250, and the data processor 470 receives and stores the health data through the communication unit 460, and displays the health data. It can also be displayed through (444).

다양한 실시 예에 따른 장치(예: 프로세서 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는, 예컨대, 프로그램 모듈의 형태로 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 상기 명령어가 프로세서에 의해 실행될 경우, 상기 하나 이상의 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 읽을 수 있는 저장매체는, 예를 들면, 메모리가 될 수 있다.At least a part of a device (eg, a processor or functions thereof) or a method (eg, operations) according to various embodiments may be stored in a computer-readable storage medium in the form of a program module. Can be implemented as stored instructions. When the command is executed by a processor, the one or more processors may perform a function corresponding to the command. A computer-readable storage medium may be, for example, a memory.

컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(magnetic media)(예: 자기테이프), 광기록 매체(optical media)(예: CD-ROM, DVD(Digital Versatile Disc), 자기-광 매체(magnetoopticalmedia)(예: 플롭티컬 디스크(floptical disk)), 하드웨어 장치(예: ROM, RAM, 또는 플래시 메모리 등)등을 포함할 수 있다. 또한, 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 다양한 실시 예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.Computer-readable recording media include hard disks, floppy disks, magnetic media (eg magnetic tape), optical media (eg CD-ROM, DVD (Digital Versatile Disc), magnetic- It may include optical media (e.g., a floptical disk), hardware devices (e.g., ROM, RAM, or flash memory, etc.), etc. In addition, the program instructions may include the same as generated by a compiler. It may include not only machine code but also high-level language code that can be executed by a computer using an interpreter, etc. The above-described hardware device may be configured to operate as one or more software modules to perform operations of various embodiments, The reverse is the same.

다양한 실시 예에 따른 프로세서 또는 프로세서에 의한 기능들은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 다양한 실시 예에 따른 모듈, 프로그램 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.Processors or functions by processors according to various embodiments may include at least one or more of the aforementioned elements, some may be omitted, or additional elements may be further included. Operations performed by modules, program modules, or other components according to various embodiments may be executed in a sequential, parallel, repetitive, or heuristic manner. Also, some actions may be performed in a different order, omitted, or other actions may be added.

이상 설명한 바와 같이, 본 발명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형의 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.As described above, the present invention is not limited to the specific preferred embodiments described above, and anyone having ordinary knowledge in the technical field to which the present invention pertains can do various things without departing from the gist of the present invention claimed in the claims. Of course, variations are possible, and such variations are within the scope of the claims.

100: 증강 현실 구현 장치 200: 웨어러블 음향 장치
300: 연결선 400: 전자 통신 장치
100: augmented reality implementation device 200: wearable sound device
300: connection line 400: electronic communication device

Claims (8)

사용자의 얼굴에 착용되며 사용자의 눈을 향하는 적어도 일부분이 투명한 디스플레이부를 구비하여 디스플레이부가 증강 현실 표시를 수행하도록 하는 증강 현실 구현 장치와;
사용자의 목이나 어깨에 안착되며 음향 재생 기능을 수행하는 웨어러블 음향 장치와;
증강 현실 구현 장치와 웨어러블 음향 장치를 전기적으로 연결하는 연결선을 포함하여 구성되며,
웨어러블 음향 장치는 연결선을 통하여 증강 현실 구현 장치에 전원을 공급하고,
증강 현실 구현 장치는 통신부와 카메라를 구비하고, 카메라와 통신부를 구비하며, 카메라에 의한 식물체에 대한 영상 데이터를 통신부를 통하여 웨어러블 음향 장치로 전송하고,
웨어러블 음향 장치는 통신부와, 인공 지능 기능을 이용하여 사물 인식을 수행하는 사물 인식 모듈과, 가스 센서를 구비하며, 통신부를 통하여 증강 현실 구현 장치로부터 영상 데이터를 수신하고, 사물 인식 모듈을 통하여 수신된 영상 데이터에 대한 사물을 인식하여 사물 인식 정보를 생성하고,
사물 인식 정보와, 가스 센서로부터 식물체의 향 ?t유량을 이용하여 식물의 파이토케미컬 성분을 판단하고, 판단된 파이토케미컬 성분을 통신부를 통하여 증강 현실 구현 장치로 전송하고,
증강 현실 구현 장치는 통신부를 통하여 파이토케미컬 성분을 수신하고, 수신된 파이토케미컬 성분을 디스플레이부를 통하여 표시하는 것을 특징으로 하는 웨어러블 음향 장치를 이용한 증강 현실 구현 시스템.
an augmented reality implementation device that is worn on a user's face and includes a display unit in which at least a portion facing the user's eyes is transparent so that the display unit performs an augmented reality display;
a wearable sound device seated on a user's neck or shoulder and performing a sound reproducing function;
It is configured to include a connection line electrically connecting the augmented reality implementation device and the wearable sound device,
The wearable sound device supplies power to the augmented reality implementation device through a connection line,
The augmented reality implementation device includes a communication unit and a camera, and includes a camera and a communication unit, transmits image data of a plant by the camera to a wearable sound device through the communication unit,
The wearable sound device includes a communication unit, an object recognition module that performs object recognition using an artificial intelligence function, and a gas sensor, receives image data from an augmented reality device through the communication unit, and receives image data through the object recognition module. Recognizing objects in image data to generate object recognition information;
The phytochemical components of the plant are determined using the object recognition information and the flow rate of the scent of the plant from the gas sensor, and the determined phytochemical components are transmitted to the augmented reality implementation device through the communication unit,
An augmented reality implementation system using a wearable sound device, characterized in that the augmented reality implementation device receives a phytochemical component through a communication unit and displays the received phytochemical component through a display unit.
제 1 항에 있어서,
증강 현실 구현 장치는 길 안내 정보를 디스플레이부에 표시하는 것을 특징으로 하는 웨어러블 음향 장치를 이용한 증강 현실 구현 시스템.
According to claim 1,
An augmented reality implementation system using a wearable sound device, characterized in that the augmented reality implementation device displays road guidance information on a display unit.
제 1 항 또는 제 2 항에 있어서,
웨어러블 음향 장치는 생성된 사물 인식 정보를 증강 현실 구현 장치로 전송하고,
증강 현실 구현 장치는 사물 인식 정보를 수신하여 수신된 사물 인식 정보가 디스플레이부를 통하여 표시되도록 하는 것을 특징으로 하는 웨어러블 음향 장치를 이용한 증강 현실 구현 시스템.
According to claim 1 or 2,
The wearable sound device transmits the generated object recognition information to the augmented reality implementation device,
An augmented reality implementation system using a wearable sound device, characterized in that the augmented reality implementation device receives object recognition information and displays the received object recognition information through a display unit.
제 1 항에 있어서,
증강 현실 구현 장치는 사용자의 피부에 접하거나 근접하는 온도 감지부를 구비하고,
웨어러블 음향 장치는 레이더 센서를 구비하는 것을 특징으로 하는 웨어러블 음향 장치를 이용한 증강 현실 구현 시스템.
According to claim 1,
The augmented reality implementation device includes a temperature sensing unit in contact with or close to the user's skin,
An augmented reality implementation system using a wearable sound device, characterized in that the wearable sound device includes a radar sensor.
제 4 항에 있어서,
웨어러블 음향 장치는 가스 센서로부터의 감지값을 이용하여 외기 및 사용자의 호기 품질을 판단하거나, 레이더 센서로부터의 반사 신호를 이용하여 심박도를 산정하거나 온도 감지부로부터 외부 온도를 수신하며, 외기 및 호기 품질 또는 심박도 또는 외부 온도 중의 적어도 하나 이상을 건강 관리 기능을 위한 건강 데이터로 저장하며,
웨어러블 음향 장치는 건강 데이터를 통신부를 통하여 증강 현실 구현 장치로 전송하고,
증강 현실 구현 장치는 통신부를 통하여 건강 데이터를 수신하고, 수신된 건강 데이터를 디스플레이부를 통하여 표시하는 것을 특징으로 하는 웨어러블 음향 장치를 이용한 증강 현실 구현 시스템.
According to claim 4,
The wearable sound device determines the quality of outdoor air and the user's exhalation by using the detected value from the gas sensor, calculates the heart rate using the reflected signal from the radar sensor, or receives the external temperature from the temperature sensor, and At least one of quality or heart rate or external temperature is stored as health data for a health management function;
The wearable sound device transmits health data to an augmented reality device through a communication unit,
An augmented reality implementation system using a wearable sound device, characterized in that the augmented reality implementation device receives health data through a communication unit and displays the received health data through a display unit.
삭제delete 제 1 항에 있어서,
웨어러블 음향 장치는 판단된 파이토케미컬 성분과 사물 인식 정보를 이용하여 파이토케미컬 성분별 섭취량을 산정하고,
산정된 섭취량과 권장 섭취량을 비교하여 보충되어야 할 파이토케미컬 성분 및 그 보충 섭취량을 산정하여 파이토케미컬 정보에 포함시켜 통신부를 통하여 증강 현실 구현 장치로 전송하고,
증강 현실 구현 장치는 통신부를 통하여 파이토케미컬 정보를 수신하고, 수신된 파이토케미컬 정보를 디스플레이부를 통하여 표시하는 것을 특징으로 하는 웨어러블 음향 장치를 이용한 증강 현실 구현 시스템.
According to claim 1,
The wearable sound device calculates the intake amount for each phytochemical component using the determined phytochemical component and object recognition information,
Comparing the calculated intake with the recommended intake, calculating the phytochemical component to be supplemented and its supplement intake, including it in the phytochemical information, and transmitting it to the augmented reality implementation device through the communication unit,
An augmented reality implementation system using a wearable sound device, characterized in that the augmented reality implementation device receives phytochemical information through a communication unit and displays the received phytochemical information through a display unit.
제 1 항에 있어서,
연결선은 증강 현실 구현 장치와 웨어러블 음향 장치 각각과 탈착 가능한 것을 특징으로 하는 웨어러블 음향 장치를 이용한 증강 현실 구현 시스템.
According to claim 1,
An augmented reality implementation system using a wearable sound device, characterized in that the connection line is detachable from each of the augmented reality implementation device and the wearable sound device.
KR1020200136498A 2020-10-21 2020-10-21 Augmented reality implementing system using wearable sound device KR102477067B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200136498A KR102477067B1 (en) 2020-10-21 2020-10-21 Augmented reality implementing system using wearable sound device
PCT/KR2021/014611 WO2022086134A1 (en) 2020-10-21 2021-10-19 Augmented reality implementation system using wearable sound device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200136498A KR102477067B1 (en) 2020-10-21 2020-10-21 Augmented reality implementing system using wearable sound device

Publications (2)

Publication Number Publication Date
KR20220052493A KR20220052493A (en) 2022-04-28
KR102477067B1 true KR102477067B1 (en) 2022-12-14

Family

ID=81290005

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200136498A KR102477067B1 (en) 2020-10-21 2020-10-21 Augmented reality implementing system using wearable sound device

Country Status (2)

Country Link
KR (1) KR102477067B1 (en)
WO (1) WO2022086134A1 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102081797B1 (en) * 2012-12-13 2020-04-14 삼성전자주식회사 Glass apparatus and Method for controlling glass apparatus, Audio apparatus and Method for providing audio signal and Display apparatus
KR102246654B1 (en) * 2014-06-05 2021-05-03 엘지전자 주식회사 Wearable device
KR102230076B1 (en) 2014-09-01 2021-03-19 삼성전자 주식회사 Head-mounted display apparatus
KR20180095148A (en) * 2017-02-16 2018-08-27 가톨릭관동대학교산학협력단 Virtual reality apparatus for curing mental illness enable to monitor the patient in real time
CN108196629A (en) * 2018-02-09 2018-06-22 北京小米移动软件有限公司 Show equipment
KR102647656B1 (en) * 2018-09-04 2024-03-15 삼성전자주식회사 Electronic device displaying additional object on augmented reality image and method for driving the electronic device
KR20190121720A (en) * 2019-10-07 2019-10-28 엘지전자 주식회사 Wearable device and method for providing information in a wearable device

Also Published As

Publication number Publication date
KR20220052493A (en) 2022-04-28
WO2022086134A1 (en) 2022-04-28

Similar Documents

Publication Publication Date Title
US10733992B2 (en) Communication device, communication robot and computer-readable storage medium
JP2021041244A (en) Augmented reality pulse oximetry
US10445917B2 (en) Method for communication via virtual space, non-transitory computer readable medium for storing instructions for executing the method on a computer, and information processing system for executing the method
EP3022671B1 (en) Information processing apparatus, information processing method, and information processing system
CN105393191B (en) Adaptive event identification
JP2024028390A (en) An electronic device that generates an image including a 3D avatar that reflects facial movements using a 3D avatar that corresponds to the face.
US9105210B2 (en) Multi-node poster location
CN109976513B (en) System interface design method
US20140002496A1 (en) Constraint based information inference
US11514269B2 (en) Identification device, robot, identification method, and storage medium
JP2019042500A (en) Electronic equipment for acquiring biological information and method thereof
WO2013173531A1 (en) Synchronizing virtual actor's performances to a speaker's voice
JP7448530B2 (en) Systems and methods for virtual and augmented reality
EP3748416A1 (en) Augmented reality device, augmented reality system and information prompting method therefor
US11263790B2 (en) Method for correcting image processing region corresponding to skin and electronic device
US11782271B2 (en) Augmented reality device and methods of use
KR102477067B1 (en) Augmented reality implementing system using wearable sound device
KR102562817B1 (en) Electronic device for measuring blood pressure and operating method thereof
JP7271909B2 (en) DISPLAY DEVICE AND CONTROL METHOD OF DISPLAY DEVICE
KR100871867B1 (en) Apparatus and method for personal contents providing based on recognition of user condition
CN110801229A (en) Eyesight protection monitoring method, system, equipment and storage medium
US20200250498A1 (en) Information processing apparatus, information processing method, and program
KR20190120988A (en) Electronic apparatus and controlling method thereof
JP6766403B2 (en) Head-mounted display device, head-mounted display device control method, computer program
KR102282643B1 (en) Apparatus and method for extracting vein

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right