KR102578119B1 - Smart glasses operation method interworking to mobile device - Google Patents

Smart glasses operation method interworking to mobile device Download PDF

Info

Publication number
KR102578119B1
KR102578119B1 KR1020190059792A KR20190059792A KR102578119B1 KR 102578119 B1 KR102578119 B1 KR 102578119B1 KR 1020190059792 A KR1020190059792 A KR 1020190059792A KR 20190059792 A KR20190059792 A KR 20190059792A KR 102578119 B1 KR102578119 B1 KR 102578119B1
Authority
KR
South Korea
Prior art keywords
smart glasses
mobile device
mode
mode image
image
Prior art date
Application number
KR1020190059792A
Other languages
Korean (ko)
Other versions
KR20200134401A (en
Inventor
문명일
임진영
Original Assignee
주식회사 메카비전
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 메카비전 filed Critical 주식회사 메카비전
Priority to KR1020190059792A priority Critical patent/KR102578119B1/en
Publication of KR20200134401A publication Critical patent/KR20200134401A/en
Application granted granted Critical
Publication of KR102578119B1 publication Critical patent/KR102578119B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72412User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Abstract

모바일 디바이스와 연동하는 스마트 안경 작동 방법이 개시된다. 스마트 안경의 작동 방법은, 스마트 안경과 연동하기 위한 모바일 디바이스에 설치되는 애플리케이션에서 스마트 안경에 장착된 IMU 센서들로부터 얻은 센싱 정보들과 상기 모바일 디바이스에 장착된 어느 하나 이상의 센서들과의 정보들뿐만 아니라 네트워크 서비스 정보를 수집하고, 모드 설정 단계에서 설정되어진 모드에 기반하는 실시간 데이터를 이미지화하여 상황에 적합한 모드이미지를 생성하여 이를 스마트 안경에 HMD 투사 방식으로 디스플레이하는 방법을 제공함에 따라, 스마트 안경의 사용자가 각각의 상황에 따른 정보를 효율적으로 시각화하여 볼 수 있다.A method of operating smart glasses in conjunction with a mobile device is disclosed. The method of operating smart glasses includes sensing information obtained from IMU sensors mounted on smart glasses and information from one or more sensors mounted on the mobile device in an application installed on a mobile device for linking with smart glasses. In addition, it provides a method of collecting network service information, imaging real-time data based on the mode set in the mode setting stage, creating a mode image suitable for the situation, and displaying it on smart glasses through HMD projection. Users can efficiently visualize and view information according to each situation.

Description

모바일 디바이스와 연동하는 스마트 안경 작동 방법{SMART GLASSES OPERATION METHOD INTERWORKING TO MOBILE DEVICE}How to operate smart glasses that link with mobile devices {SMART GLASSES OPERATION METHOD INTERWORKING TO MOBILE DEVICE}

본 발명은 스마트 안경의 작동 방법에 관한 것으로서, 보다 상세하게는, 모바일 디바이스와 연동하면서 작동 모드에 따른 이미지를 실시간으로 생성하여 보여주는 스마트 안경 작동 방법에 관한 것이다.The present invention relates to a method of operating smart glasses, and more specifically, to a method of operating smart glasses that generates and displays images according to the operation mode in real time while linking with a mobile device.

일반적으로 헤드 마운티드 디스플레이(Head Mounted Display, HMD)는 안경처럼 머리에 착용하고 안구에 근접한 위치에서 가상의 영상을 디스플레이하는 디지털 디바이스를 말한다. 최근 HMD는 단순한 디스플레이 기능을 넘어 증강현실(Augmented Reality) 기술 등과 조합하는 형태로 발전하고 있다. 일례로, HMD는 사용자 눈앞의 화면을 통해 사용자에게 다양한 편의를 제공해 주고, 외부 디지털 디바이스와 통신을 수행하여 해당 콘텐츠를 출력할 뿐만 아니라 외부 디지털 디바이스를 통한 사용자 입력을 수신하거나 해당 외부 디지털 디바이스와 연동한 작업을 수행하기도 한다.In general, a head mounted display (HMD) refers to a digital device that is worn on the head like glasses and displays virtual images in a position close to the eyeball. Recently, HMD has gone beyond simple display functions and is developing into a form of combination with augmented reality technology. For example, the HMD provides various conveniences to the user through the screen in front of the user, communicates with external digital devices, outputs the relevant content, and also receives user input through the external digital device or links with the external digital device. It also performs one task.

HMD는 안경처럼 얼굴에 착용하고 멀티미디어 콘텐츠를 안구에 근접한 형태로 안경 상에 가상의 영상을 디스플레이하는 디지털 디바이스를 말한다.HMD refers to a digital device that is worn on the face like glasses and displays virtual images on the glasses in a form that displays multimedia content close to the eyeball.

이러한 HMD는 단순한 디스플레이 기능을 넘어 증강현실(Augmented Reality, AR) 기술 등과 조합하여 사용자에게 다양한 편의를 제공해 줄 수 있고, 외부 디지털 디바이스와 통신을 수행하여 해당 콘텐츠를 출력할 수 있을 뿐만 아니라 외부 디지털 디바이스를 통한 사용자 입력을 수신하거나 해당 외부 디지털 디바이스와 연동한 작업의 수행도 지원한다. 최근, HMD에 대한 연구 개발이 활발하게 이루어지고 있다.These HMDs go beyond simple display functions and can provide various conveniences to users by combining with Augmented Reality (AR) technology, and can not only output the content by communicating with external digital devices, but also communicate with external digital devices. It also supports receiving user input through or performing tasks linked to the relevant external digital device. Recently, research and development on HMDs has been actively conducted.

그러나 종래의 스마트 안경은 외부 디지털 디바이스와 연동한 작업을 수행할 시에 현 상황에 적합한 사용자의 지리적 위치(위도, 경도, 고도와 같은 좌표계 또는 임의의 물리적 위치와 방향을 의미하는 좌표계), 사용자가 움직이는 방향과 속도, 사용자가 바라보고 있는 방향 및 자세(pose)와 같은 사용자의 상황에 적합한 실시간 이미지 생성하여 영상을 디스플레이하기에는 한계가 있었다.However, when performing a task linked to an external digital device, conventional smart glasses determine the user's geographic location (a coordinate system such as latitude, longitude, altitude, or a coordinate system indicating an arbitrary physical location and direction) appropriate for the current situation. There were limitations in generating and displaying real-time images suitable for the user's situation, such as the direction and speed of movement, the direction the user is looking at, and the user's posture.

상술한 문제점을 개선하기 위한 종래의 기술로서는 대한민국 공개특허공보 10-2014-0145332(2014.12.23.)호에서 차량용 HMD 시스템 및 그 작동 방법이 공지되어 있다.As a conventional technology for improving the above-mentioned problems, a vehicle HMD system and its operating method are known in Korean Patent Publication No. 10-2014-0145332 (December 23, 2014).

그러나 상기 종래의 기술은 차량의 운행 정보와 네비게이션 정보를 제공하는 AVN(audio video navigation)에 연동되는 안경형 투사 HMD를 포함하는 차량용 HMD 시스템 및 그 작동 방법에 관한 것으로서, 사용자가 움직이는 위치 및 방향과 속도, 사용자가 바라보고 있는 방향 및 자세와 같은 사용자의 상황에 적합한 실시간 이미지 생성하여 영상을 디스플레이하는 것이 아닌 단순히 디스플레이 창을 통해 운행 정보 및 네비게이션 정보를 디스플레이하는 안경형 투사 HMD를 포함하는 것에 불과하다.However, the prior art relates to a vehicle HMD system including a glasses-type projection HMD linked to AVN (audio video navigation) that provides vehicle operation information and navigation information, and an operating method thereof, which determines the location, direction, and speed of the user's movement. , Rather than generating and displaying real-time images suitable for the user's situation, such as the user's viewing direction and posture, it simply includes a glasses-type projection HMD that displays driving information and navigation information through a display window.

본 발명은 전술한 종래기술의 문제점을 해결하기 위해 도출된 것으로, 본 발명의 목적은, 모바일 디바이스와 연동하면서 작동 모드에 따른 이미지를 실시간으로 생성하여 보여주는 모바일 디바이스와 연동하는 스마트 안경 작동 방법을 제공하는 것이다.The present invention was derived to solve the problems of the prior art described above, and the purpose of the present invention is to provide a method of operating smart glasses in conjunction with a mobile device that generates and displays images according to the operating mode in real time. It is done.

또한, 본 발명의 다른 목적은 모바일 디바이스에 설치되는 애플리케이션에서 스마트 안경에 장착된 IMU(Inertial Measurement Unit) 센서들로부터 얻은 센싱 정보들과 상기 모바일 디바이스에 장착된 어느 하나 이상의 센서들과의 정보들뿐만 아니라 네트워크 서비스 정보를 수집하고, 모드 설정 단계에서 설정되는 모드에 기반하는 실시간 데이터를 이미지화하여 상황에 적합한 모드이미지를 생성하여 이를 스마트 안경에 HMD 투사 방식으로 디스플레이하는 방법을 제공하는데 있다.In addition, another object of the present invention is to provide sensing information obtained from IMU (Inertial Measurement Unit) sensors mounted on smart glasses in an application installed on a mobile device and information with one or more sensors mounted on the mobile device. Rather, it provides a method of collecting network service information, imaging real-time data based on the mode set in the mode setting step, creating a mode image appropriate for the situation, and displaying it on smart glasses through HMD projection.

상기 기술적 과제를 해결하기 위한 본 발명의 일 측면에 따른 스마트 안경과 연동하기 위한 특정 애플리케이션이 작동하는 모바일 디바이스와 연동하는 스마트 안경의 작동 방법에 있어서, 상기 스마트 안경의 내부에서 작동하는 IMU(Inertial Measurement Unit)를 통해 센싱데이터를 실시간으로 획득하는 IMU 데이터 획득 단계; 상기 센싱데이터를 모바일 디바이스로 전송하는 IMU 데이터 무선 전송 단계; 상기 모바일 디바이스에서 상기 IMU 데이터를 수신하고 모드 설정 단계에서 미리 설정되어진 모드에 기반하여 상기 IMU 데이터로부터 얻은 센싱 정보들과 상기 모바일 디바이스에 장착된 어느 하나 이상의 센서 정보 및 네트워크 서비스 상의 정보를 수집하고 가공하여 상황에 적합한 모드이미지를 생성하는 모드이미지 생성 단계; 상기 모바일 디바이스에서 상기 모드이미지를 압축하고 암호화하여 상기 스마트 안경으로 전송하는 모드이미지 전송 단계; 상기 스마트 안경에서 상기 모드이미지를 수신하고 복호화 및 압축해제하는 모드이미지 수신 단계; 및 상기 스마트 안경에서 상기 모드이미지를 HMD(head mounted display) 투사 방식으로 디스플레이하는 모드이미지 투사 단계를 포함하여 이루어질 수 있다.In a method of operating smart glasses in conjunction with a mobile device running a specific application for linking with smart glasses according to an aspect of the present invention for solving the above technical problem, the Inertial Measurement Unit (IMU) operating inside the smart glasses IMU data acquisition step of acquiring sensing data in real time through Unit); An IMU data wireless transmission step of transmitting the sensing data to a mobile device; Receiving the IMU data from the mobile device, collecting and processing sensing information obtained from the IMU data based on the mode preset in the mode setting step, information on one or more sensors mounted on the mobile device, and information on network services A mode image generation step of generating a mode image suitable for the situation; A mode image transmission step of compressing and encrypting the mode image in the mobile device and transmitting it to the smart glasses; A mode image reception step of receiving, decoding, and decompressing the mode image from the smart glasses; and a mode image projection step of displaying the mode image on the smart glasses using a head mounted display (HMD) projection method.

본 발명의 상기 IMU는 상기 스마트 안경에 내장되는 가속도 센서, 자이로센서, 지자기 센서, 고도를 파악하기 위한 기압 센서(혹은 고도 센서) 중의 어느 하나 이상을 포함할 수 있다.The IMU of the present invention may include one or more of an acceleration sensor, a gyro sensor, a geomagnetic sensor, and a barometric pressure sensor (or altitude sensor) for determining altitude, which are built into the smart glasses.

또한, 본 발명의 상기 모드 설정 단계는 행글라이딩, 싸이클링, 러닝, 스키, 내비게이셔닝, 골프, 별자리 찾기, 웨이트 트레이닝 중의 어느 하나의 상황을 상기 모바일 디바이스의 애플리케이션에 설정할 수 있다.Additionally, in the mode setting step of the present invention, any one of hang gliding, cycling, running, skiing, navigation, golf, constellation finding, and weight training can be set in the application of the mobile device.

또한, 상기 모드 설정 단계의 설정 모드는 상기 모바일 디바이스의 애플리케이션에서 스마트 안경의 동작 상황에 따라 추가로 설정될 수 있다.Additionally, the setting mode in the mode setting step may be additionally set according to the operation situation of the smart glasses in the application of the mobile device.

또한, 본 발명의 상기 모드 설정 단계는 상기 모바일 디바이스의 애플리케이션의 UI에 의하여 직접 설정되거나, 상기 스마트 안경에서 음성인식 수단 또는 제스쳐인식 수단으로 모드 설정 신호를 생성하고 상기 모바일 디바이스에 전송하여 상기 애플리케이션에 설정할 수 있는 것을 특징으로 할 수 있다.In addition, the mode setting step of the present invention is directly set by the UI of the application of the mobile device, or a mode setting signal is generated by a voice recognition means or a gesture recognition means in the smart glasses and transmitted to the mobile device to the application. It may be characterized as being configurable.

전술한 스마트 안경과 연동하기 위한 특정 애플리케이션이 작동하는 모바일 장치와 연동하는 스마트 안경의 작동 방법에 의하여, 각각의 설정되어지는 모드에 따른 모드이미지가 상기 스마트 안경에 투영됨으로서, 상기 스마트 안경의 사용자가 각각의 상황에 따른 정보를 효율적으로 시각화하여 볼 수 있는 효과가 있다.By the method of operating smart glasses in conjunction with a mobile device running a specific application for interworking with the above-mentioned smart glasses, a mode image according to each set mode is projected onto the smart glasses, so that the user of the smart glasses It has the effect of efficiently visualizing and viewing information according to each situation.

또한, 본 발명의 모바일 장치와 연동하는 스마트 안경의 작동 방법에 의하여 사용자는 상황에 적합한 실시간 이미지를 확인함으로서, 기록 향상을 위한 도구로 이용할 수 있으며, 건강상의 위험이나 예측가능한 물리적 위험 예컨대, 행글라이딩 모드에서 이대로 진행하면 곧 추락하여 지면에 충돌할 가능성이 있다는 알람 등에 대한 경고를 제공받을 수 있는 효과가 있다.In addition, the method of operating smart glasses in conjunction with the mobile device of the present invention allows the user to check real-time images appropriate for the situation and use them as a tool to improve records, and to avoid health risks or predictable physical risks, such as hang gliding mode. If you continue like this, you will receive a warning about the possibility of falling and hitting the ground soon.

도 1은 본 발명의 실시예에 따른 모바일 디바이스와 연동하는 스마트 안경의 구성도이다.
도 2는 본 발명의 실시예에 따른 모바일 디바이스와 연동하는 스마트 안경 작동 방법의 흐름도이다.
도 3은 본 발명의 제1실시예에 따른 행글라이딩 모드에서의 스마트 안경의 작동 예시를 보여주는 예시도이다.
도 4는 본 발명의 제2실시예에 따른 싸이클링 모드에서의 스마트 안경의 작동 예시를 보여주는 예시도이다.
도 5는 본 발명의 제3실시예에 따른 러닝 모드에서의 스마트 안경의 작동 예시를 보여주는 예시도이다.
도 6은 본 발명의 제4실시예에 따른 네비게이션 모드에서의 스마트 안경의 작동 예시를 보여주는 예시도이다.
도 7은 본 발명의 제5실시예에 따른 별차리 찾기 모드에서의 스마트 안경의 작동 예시를 보여주는 예시도이다.
도 8은 본 발명의 제6실시예에 따른 골프 모드에서의 스마트 안경의 작동 예시를 보여주는 예시도이다.
1 is a configuration diagram of smart glasses that work with a mobile device according to an embodiment of the present invention.
Figure 2 is a flowchart of a method of operating smart glasses in conjunction with a mobile device according to an embodiment of the present invention.
Figure 3 is an exemplary diagram showing an example of operation of smart glasses in hang gliding mode according to the first embodiment of the present invention.
Figure 4 is an exemplary diagram showing an example of operation of smart glasses in cycling mode according to the second embodiment of the present invention.
Figure 5 is an illustrative diagram showing an example of operation of smart glasses in running mode according to the third embodiment of the present invention.
Figure 6 is an exemplary diagram showing an example of operation of smart glasses in navigation mode according to the fourth embodiment of the present invention.
Figure 7 is an illustrative diagram showing an example of operation of smart glasses in a star-hunting mode according to the fifth embodiment of the present invention.
Figure 8 is an exemplary diagram showing an example of operation of smart glasses in golf mode according to the sixth embodiment of the present invention.

본 발명을 설명함에 있어, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. 용어가 동일하더라도 표시하는 부분이 상이하면 도면 부호가 일치하지 않음을 미리 말해두는 바이다.In describing the present invention, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description will be omitted. Please note in advance that even if the terms are the same, if the displayed parts are different, the drawing symbols will not match.

그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 설정된 용어들로서 이는 실험자 및 측정자와 같은 조작자의 의도 또는 관례에 따라 달라질 수 있으므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.The terms described below are terms set in consideration of the functions in the present invention, and since they may vary depending on the intention or custom of operators such as experimenters and measurers, their definitions should be made based on the content throughout the specification.

본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다.The terms used herein are only used to describe specific embodiments and are not intended to limit the invention. Singular expressions include plural expressions unless the context clearly dictates otherwise.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 나타낸다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 실질적으로 동일한 의미를 나타내는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person of ordinary skill in the technical field to which the present invention pertains. Terms defined in commonly used dictionaries should be interpreted as indicating substantially the same meaning as the meaning they have in the context of the related technology, and unless clearly defined in the present application, they should be interpreted in an ideal or excessively formal sense. It doesn't work.

또한, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Additionally, when a part "includes" a certain component, this means that it may further include other components rather than excluding other components, unless specifically stated to the contrary.

이에 본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.Accordingly, the present invention can be modified in various ways and can have various embodiments, and specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all transformations, equivalents, and substitutes included in the spirit and technical scope of the present invention. In describing the present invention, if it is determined that a detailed description of related known technologies may obscure the gist of the present invention, the detailed description will be omitted.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시 예들을 상세하게 설명하면 다음과 같다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the attached drawings.

도 1은 본 발명의 실시예에 따른 모바일 디바이스와 연동하는 스마트 안경의 구성도이고, 도 2는 본 발명의 실시예에 따른 모바일 디바이스와 연동하는 스마트 안경 작동 방법의 흐름도이다.FIG. 1 is a configuration diagram of smart glasses interoperating with a mobile device according to an embodiment of the present invention, and FIG. 2 is a flowchart of a method of operating smart glasses interoperating with a mobile device according to an embodiment of the present invention.

도 1을 참조하면 본 발명은 스마트 안경(100)과 연동하기 위한 특정 애플리케이션이 작동하는 모바일 디바이스(200)와 연동하는 스마트 안경에 관한 것으로서, 상기 모바일 디바이스(mobile device)란 이동 가능한 컴퓨터 장치로서, 모바일 기기, 휴대용 단말기기, 스마트폰과 같은 휴대 전화, 스마트 워치(Smart watch), 개인 태블릿 장치, 모바일 컴퓨터, PDA/EDA, 개인 내비게이션 장치(PND) 및 노트북 등이 포함될 수 있으나, 이에 한정하지 않으며, 모든 웨어러블 디바이스를 포함할 수 있다.Referring to FIG. 1, the present invention relates to smart glasses that interact with a mobile device 200 running a specific application for interoperating with smart glasses 100, wherein the mobile device is a movable computer device, This may include, but is not limited to, mobile devices, portable terminal devices, mobile phones such as smartphones, smart watches, personal tablet devices, mobile computers, PDAs/EDAs, personal navigation devices (PNDs), and laptops. , can include all wearable devices.

이에 본 발명의 상기 모바일 디바이스(200)는 인터넷을 비롯한 다양한 네트워크망 연동 기능이 가능하고 GPS 센서, 가속 센서, 자이로센서, 중력 센서, 온도/습도 센서, 고도센서, 기압 센서, 심장 박동 센서, 지자기 센서, 이미지 센서 중에서 어느 하나 이상을 탑재하고 있으며, 스마트 안경과 연동하여 상기 센서들의 센싱 데이터를 취합하고 가공할 수 있는 특정 애플리케이션이 설치된 모바일 장치를 의미한다. 이에 상기 애플리케이션은 사용자에 의하여 조작될 수 있는 UI/UX를 포함할 수 있다.Accordingly, the mobile device 200 of the present invention is capable of linking various network networks, including the Internet, and has GPS sensor, acceleration sensor, gyro sensor, gravity sensor, temperature/humidity sensor, altitude sensor, barometric pressure sensor, heart rate sensor, and geomagnetism. It refers to a mobile device that is equipped with one or more of a sensor or an image sensor and has a specific application installed that can collect and process sensing data from the sensors in conjunction with smart glasses. Accordingly, the application may include UI/UX that can be operated by the user.

또한, 본 발명의 상기 스마트 안경(100)은 멀티미디어 콘텐츠를 안구에 근접한 형태로 상기 모바일 디바이스(200)에서 생성된 이미지 데이터를 디스플레이할 수 있는 안경형 투사 HMD를 의미한다.In addition, the smart glasses 100 of the present invention refer to a glasses-type projection HMD that can display image data generated by the mobile device 200 in a form close to the eyeball with multimedia content.

이에 본 발명의 실시예에 따른 상기 스마트 안경(100)은 디스플레이 인터페이스, 상기 디스플레이 인터페이스에 연결되어 통신부, 프로세서부 및 메모리를 포함하는 제어장치, 상기 제어장치에 연결되는 관성 측정 장치(IMU, Inertial Measurement Unit)가 내장되어 구비될 수 있다.Accordingly, the smart glasses 100 according to an embodiment of the present invention include a display interface, a control device connected to the display interface and including a communication unit, a processor unit, and memory, and an inertial measurement unit (IMU) connected to the control device. Unit) may be provided built-in.

상기 통신부는 상기 스마트 안경(100)이 모바일 디바이스(200)와 연동하기 위한 수단을 제공하는 것으로서 무선 방식을 제공함이 일반적이나 유선 방식도 제공될 수 있다. 상기 무선은 블루투스를 포함하나, 이에 한정되지는 않고, 다른 근거리 무선 통신 방식이 사용될 수 있다.The communication unit provides a means for the smart glasses 100 to interact with the mobile device 200, and generally provides a wireless method, but a wired method may also be provided. The wireless includes, but is not limited to, Bluetooth, and other short-range wireless communication methods may be used.

또한, 도 2를 참조하는 본 발명의 스마트 안경 작동 방법은 IMU 데이터 획득 단계(S100), IMU 데이터 무선 전송 단계(S110), 모드이미지 생성 단계(S120), 모드이미지 전송 단계(S130), 모드이미지 수신 단계(S140) 및 모드이미지 투사 단계(S150)를 포함하여 이루어질 수 있다.In addition, the method of operating smart glasses of the present invention referring to FIG. 2 includes an IMU data acquisition step (S100), an IMU data wireless transmission step (S110), a mode image generation step (S120), a mode image transmission step (S130), and a mode image transmission step (S130). It may include a reception step (S140) and a mode image projection step (S150).

본 발명은 스마트 안경과 연동하기 위한 특정 애플리케이션이 작동하는 모바일 디바이스와 연동하는 스마트 안경의 작동 방법에 관한 것으로서, 상기 IMU 데이터 획득 단계(S100)는 상기 스마트 안경의 내부에서 작동하는 IMU를 통해 센싱데이터를 실시간으로 획득하는 단계이다.The present invention relates to a method of operating smart glasses that link with a mobile device running a specific application for linking with smart glasses. The IMU data acquisition step (S100) involves collecting sensing data through an IMU operating inside the smart glasses. This is the step of acquiring in real time.

여기서 상기 IMU는 상기 스마트 안경에 내장되는 가속도 센서, 자이로 센서, 회전 속도센서, 지자기 센서, 고도 센서, 기압 센서 중의 어느 하나 이상을 포함할 수 있다.Here, the IMU may include one or more of an acceleration sensor, a gyro sensor, a rotational speed sensor, a geomagnetic sensor, an altitude sensor, and an atmospheric pressure sensor built into the smart glasses.

상기 IMU 데이터 무선 전송 단계(S110)는 상기 센싱데이터를 모바일 디바이스로 전송하는 IMU 데이터 무선 전송하는 단계이다.The IMU data wireless transmission step (S110) is a wireless IMU data transmission step that transmits the sensing data to a mobile device.

상기 모드이미지 생성 단계(S120)는 상기 모바일 디바이스에서 상기 IMU 데이터를 수신하고 모드 설정 단계(S200)에서 미리 설정되어진 모드에 따라 가공하여 이미지 데이터를 생성하는 단계이다.The mode image generation step (S120) is a step of receiving the IMU data from the mobile device and processing it according to the mode preset in the mode setting step (S200) to generate image data.

상기 모드 설정 단계(S200)는 행글라이딩, 싸이클링, 러닝, 스키, 내비게이셔닝, 골프, 별자리 찾기, 웨이트 트레이닝과 같은 상기 스마트 안경을 착용한 사용자가 하고자하는 상황에 적합한 어느 하나의 상황을 상기 모바일 디바이스의 애플리케이션에 설정하는 단계이다.In the mode setting step (S200), the mobile sets up a situation suitable for the situation desired by the user wearing the smart glasses, such as hang gliding, cycling, running, skiing, navigation, golf, constellation finding, and weight training. This is the step to set up the device application.

이때 상기 모드 설정은 상기 모바일 디바이스의 애플리케이션에서 스마트 안경의 동작 상황에 따라 추가로 설정될 수 있다. 즉 사용자가 하고자하는 상황을 추가적으로 설정할 수 있음으로서 상기 애플리케이션에서 생성되는 모드이미지의 디스플레이 유형을 변경시킬 수 있는 것이다. At this time, the mode setting may be additionally set according to the operation situation of the smart glasses in the application of the mobile device. In other words, the user can additionally set the desired situation and change the display type of the mode image generated by the application.

상기 모드 설정 단계(S200)는 상기 모바일 디바이스의 애플리케이션의 UI에 의하여 직접 설정되거나, 상기 스마트 안경에서 제공되는 음성인식 수단 또는 제스쳐인식 수단을 사용하여 상기 스마트 안경에서 모드 설정 신호를 상기 모바일 디바이스에 전송하여 상기 애플리케이션에 설정할 수 있다.The mode setting step (S200) is set directly by the UI of the application of the mobile device, or transmits a mode setting signal from the smart glasses to the mobile device using voice recognition means or gesture recognition means provided by the smart glasses. You can set it in the application.

이를 위하여 상기 스마트 안경의 제어장치는 손 동작을 영상 처리를 통해 감지하고 이를 토대로 상기 스마트 안경에서 보이는 영상을 제어할 수 있는 수단을 구비할 수 있다.To this end, the control device of the smart glasses may be provided with a means for detecting hand movements through image processing and controlling the images visible from the smart glasses based on this.

또한, 상기 스마트 안경의 제어장치는 사용자의 음성을 식별하고 이를 토대로 상기 스마트 안경에서 보이는 영상을 제어할 수 있는 수단을 구비할 수 있다.Additionally, the control device of the smart glasses may be provided with means for identifying the user's voice and controlling the image displayed by the smart glasses based on this.

예컨대, 상기 제어장치는 손 동작 인식을 위해 입력되는 영상 프레임에서 손을 인식하고 손이 위치한 영상을 감지하거나 손의 움직임 방향을 인식 또는 예측하고, 그에 따라 화면 상에 콘텐츠를 올려놓거나 현재 영상을 이동시키거나, 현재 영상을 다른 영상과 중첩하여 배치할 수 있다. 손의 움직임 예측은 손, 손가락, 또는 이들의 조합을 인식하는 것을 포함할 수 있다. 이러한 제스처 인식은 영상처리와 미리 설정된 제스처 정보에 기초하여 수행될 있다.For example, the control device recognizes a hand in an image frame input for hand motion recognition, detects the image where the hand is located, or recognizes or predicts the direction of hand movement, and places content on the screen or moves the current image accordingly. Alternatively, the current image can be placed overlapping with another image. Hand movement prediction may include recognizing the hand, fingers, or a combination thereof. Such gesture recognition can be performed based on image processing and preset gesture information.

그리고 상기 제어장치는 입력되는 사용자의 음성을 인식하고 음성이 지시하는 명령에 의하여 화면상에 콘텐츠를 올려놓거나 현재 영상을 이동시키거나, 현재 영상을 다른 영상과 중첩하여 배치할 수 있다. 음성인식은 음성처리와 미리 설정된 음성 정보에 기초하여 수행될 있다. In addition, the control device recognizes the user's voice input and can place content on the screen, move the current image, or arrange the current image to overlap with other images by commands given by the voice. Voice recognition can be performed based on voice processing and preset voice information.

그러므로 상기 모드이미지 생성 단계(S120)는 상기 애플리케이션에서 상기 스마트 안경에 장착된 IMU 센서들로부터 얻은 센싱 정보들과 상기 모바일 디바이스에 장착된 어느 하나 이상의 센서들의 정보들과 네트워크 서비스 상의 정보를 수집하고 가공하여 상기 모드 설정 단계(S200)에서 미리 설정되어진 모드에 기반하는 실시간 데이터를 이미지화하여 생성하는 것을 의미한다.Therefore, the mode image generation step (S120) collects and processes sensing information obtained from IMU sensors mounted on the smart glasses in the application, information on one or more sensors mounted on the mobile device, and information on a network service. This means generating an image of real-time data based on the mode preset in the mode setting step (S200).

상기 모드이미지 전송 단계(S130)는 상기 모바일 디바이스에서 상기 모드이미지를 압축하고 암호화하여 상기 스마트 안경으로 스트리밍(Streaming) 방식으로 전송하는 단계이다. 상기 스트리밍(Streaming) 방식에 따라 상기 모드이미지에 대한 인코딩 암호화, 전송 제어 및 QoS(Quality of Service)를 수행하여 데이터 전송에 특정 수준의 성능을 보장할 수 있다.The mode image transmission step (S130) is a step of compressing and encrypting the mode image in the mobile device and transmitting it to the smart glasses in a streaming manner. According to the streaming method, encoding, encryption, transmission control, and QoS (Quality of Service) for the mode image can be performed to ensure a certain level of performance in data transmission.

상기 모드이미지 수신 단계(S140)는 상기 모바일 디바이스에서 전송되는 상기 모드이미지를 상기 스마트 안경에서 수신하고 이를 복호화하고 압축해제하는 단계이다.The mode image reception step (S140) is a step of receiving the mode image transmitted from the mobile device in the smart glasses, decoding and decompressing it.

상기 모드이미지 투사 단계(S150)는 상기 스마트 안경에서 압축해제된 상기 모드이미지를 HMD 투사 방식으로 디스플레이하는 단계이다.The mode image projection step (S150) is a step of displaying the decompressed mode image in the smart glasses by HMD projection.

상술한 본 발명의 특정 애플리케이션이 작동하는 모바일 디바이스와 연동하는 스마트 안경의 작동 방법에 대하여 여러 가지 실시예를 들어 설명하면 다음과 같다.The operation method of smart glasses that link with a mobile device running a specific application of the present invention described above will be described with reference to various embodiments as follows.

도 3은 본 발명의 제1실시예에 따른 행글라이딩 모드에서의 스마트 안경의 작동 예시를 보여주는 예시도이다.Figure 3 is an exemplary diagram showing an example of operation of smart glasses in hang gliding mode according to the first embodiment of the present invention.

도 3을 참조하는 본 발명의 제1실시예에 의하면, 모드 설정 단계(S200)에 따라 상기 모바일 디바이스의 애플리케이션에 행글라이딩 모드가 설정되어진다.According to the first embodiment of the present invention with reference to FIG. 3, the hang gliding mode is set in the application of the mobile device according to the mode setting step (S200).

스마트 안경은 가속도 센서, 회전 속도센서, 자이로 센서 지자기 센서, 고도 센서 혹운 기압 센서에서 측정되는 IMU 데이터를 획득하는 단계(IMU 데이터 획득 단계; S100)를 수행한다.Smart glasses perform a step of acquiring IMU data measured from an acceleration sensor, a rotational speed sensor, a gyro sensor, a geomagnetic sensor, an altitude sensor, and a heavy cloud barometric pressure sensor (IMU data acquisition step; S100).

상기 스마트 안경은 획득된 상기 IMU 데이터 무선 전송 단계(S110)를 통하여 상기 모바일 디바이스에 전송한다.The smart glasses transmit the acquired IMU data to the mobile device through the wireless transmission step (S110).

그리고 상기 모바일 디바이스의 상기 애플리케이션에서 수신한 상기 IMU 센서들로부터 얻은 센싱 정보들과 상기 모바일 디바이스에 장착된 어느 하나 이상의 센서들과의 정보들을 수집하고, 상기 모드 설정 단계(S200)에서 미리 설정되어진 행글라이딩 모드에 기반하는 실시간 데이터를 이미지화하여 생성한다.And, sensing information obtained from the IMU sensors received by the application of the mobile device and information from one or more sensors mounted on the mobile device are collected, and hang gliding preset in the mode setting step (S200) is performed. Real-time data based on the mode is imaged and generated.

이때 상기 IMU의 상기 가속도 센서와 자이로 센서를 통해 스마트 안경의 3차원 방향과 자세를 측정할 수 있다. 가속도 센서와 자이로 센서는 각각 독립된 정보를 주기보다, 상호 보완적으로 연동된 계산 값을 생성하는데 이용된다. 여기서, 자세(pose)라 함은 기술적으로 통상, 방향과 위치를 의미할 수 있다. 즉, 지자기 센서를 통하여 스마트 안경의 절대 방향을 검출할 수 있고, 고도 센서나 기압 센서를 통하여 공기의 압력을 감지하여 스마트 안경이 위치하는 고도를 측정할 수 있다.At this time, the three-dimensional direction and posture of the smart glasses can be measured through the acceleration sensor and gyro sensor of the IMU. Rather than providing independent information, the acceleration sensor and gyro sensor are used to generate calculated values that are linked and complementary to each other. Here, technically, pose can generally mean direction and position. In other words, the absolute direction of the smart glasses can be detected through a geomagnetic sensor, and the altitude at which the smart glasses are located can be measured by detecting air pressure through an altitude sensor or barometric pressure sensor.

또한, 상기 모바일 디바이스의 GPS 센서(GPS Sensor)의 측정 데이터를 반영하여 지리적 위치를 특정할 수 있다.Additionally, the geographical location can be specified by reflecting measurement data from the GPS sensor of the mobile device.

이러한 센싱데이터를 기반으로 하여 상기 애플리케이션에서 사용자의 위치를 동서남북 등의 방향과 속도 및 고도를 파악할 수 있으며, 3D 나침반 기능이 제공될 수 있으며, 현재 위치 및 목표 지점을 안내하며, 속도 또는 고도의 위험 등을 사전 고지할 수 있는 모드이미지를 생성하게 되는 것이다.Based on this sensing data, the application can determine the direction, speed, and altitude of the user's location such as north, south, east, west, etc., and a 3D compass function can be provided, guiding the current location and target point, and detecting the risk of speed or altitude. A mode image that can provide advance notice is created.

추가적으로 모바일 디바이스가 네트워크를 통한 풍향/풍속 등의 기상 서비스를 수신 받아서 반영하게 되면 상기 행글라이딩 모드에서의 모드이미지의 생성이 완성되게 되는 것이다.Additionally, when the mobile device receives and reflects weather services such as wind direction/speed through the network, the creation of the mode image in the hang gliding mode is completed.

행글라이딩 모드에서 최종 생성된 상기 모드이미지는 상기 모드이미지 전송 단계(S130)를 통하여 스마트 안경으로 전송되고, 상기 스마트 안경은 상기 모드이미지 수신 단계(S140)를 통하여 수신하고 이를 복호화하고 압축해제할 수 있다.The mode image finally generated in the hang gliding mode is transmitted to smart glasses through the mode image transmission step (S130), and the smart glasses receive it through the mode image reception step (S140) and can decode and decompress it. .

마지막으로 상기 스마트 안경에서 상기 모드이미지 투사 단계(S150)를 통하여 상기 행글라이딩 모드이미지가 HMD 투사 방식으로 디스플레이될 수 있는 것이다.Lastly, the hang gliding mode image can be displayed through HMD projection through the mode image projection step (S150) on the smart glasses.

이를 통하여 사용자는 행글라이딩 상황에서 더욱 안전하고 정확한 운행을 하도록 도움을 받을 수 있는 효과가 있다.This has the effect of helping users operate more safely and accurately in hang gliding situations.

또한, 도 4는 본 발명의 제2실시예에 따른 싸이클링 모드에서의 스마트 안경의 작동 예시를 보여주는 예시도이다.Additionally, Figure 4 is an illustrative diagram showing an example of operation of smart glasses in cycling mode according to the second embodiment of the present invention.

도 4를 참조하는 본 발명의 제2실시예에 의하면, 모드 설정 단계(S200)에 따라 상기 모바일 디바이스의 애플리케이션에 싸이클링 모드가 설정되고, 이후 본 발명의 IMU 데이터 획득 단계(S100), IMU 데이터 무선 전송 단계(S110), 모드이미지 생성 단계(S120), 모드이미지 전송 단계(S130), 모드이미지 수신 단계(S140) 및 모드이미지 투사 단계(S150)를 통하여 상기 스마트 안경에서 상기 싸이클링 모드이미지가 HMD 투사 방식으로 디스플레이될 수 있는 것이다.According to the second embodiment of the present invention with reference to FIG. 4, the cycling mode is set in the application of the mobile device according to the mode setting step (S200), and then in the IMU data acquisition step (S100) of the present invention, the IMU data wireless The cycling mode image is projected to the HMD in the smart glasses through a transmission step (S110), a mode image generation step (S120), a mode image transmission step (S130), a mode image reception step (S140), and a mode image projection step (S150). It can be displayed in this way.

이때 상기 IMU의 센싱데이터와 상기 모바일 디바이스의 GPS 센서(GPS Sensor)의 측정 데이터를 반영하는 것은 상기 제1실시예에서와 유사할 수 있으나, 본 발명의 싸이클링 모드에서는 추가적으로 상기 모바일 디바이스에 장착되는 심장 박동 센서(Heart beat Sensor)의 센싱데이터를 반영하여 사용자의 심박 상태를 파악하는 데이터를 추가로 상기 모드이미지에 반영할 수 있는 것이다.At this time, reflecting the sensing data of the IMU and the measurement data of the GPS sensor of the mobile device may be similar to the first embodiment, but in the cycling mode of the present invention, a heart mounted on the mobile device is additionally used. By reflecting the sensing data of the heart beat sensor, data identifying the user's heart rate can be additionally reflected in the mode image.

그러므로 상기 싸이클링 모드이미지가 상기 스마트 안경에 투영됨으로서, 상기 스마트 안경의 고도 측정에 따른 언덕 등의 지면에 대한 등판 각도를 파악할 수 있으며, 현재 위치와 속도를 파악하여 남은 거리 및 완주 기록을 예상할 수 있고, 자신의 주력 전략에 따른 스케줄을 세울 수 있다. 이를 통하여 사용자는 사이클링 기록 향상을 위한 도구로 이용할 수 있으며, 심박 상태의 파악에 따라 건강상의 위험을 경고 받을 수 있는 효과가 있다.Therefore, by projecting the cycling mode image onto the smart glasses, the climbing angle with respect to the ground, such as a hill, can be determined according to the altitude measurement of the smart glasses, and the remaining distance and completion record can be predicted by determining the current location and speed. You can set a schedule according to your main strategy. Through this, users can use it as a tool to improve their cycling records, and have the effect of being warned of health risks based on their heart rate status.

도 5는 본 발명의 제3실시예에 따른 러닝 모드에서의 스마트 안경의 작동 예시를 보여주는 예시도로서, 본 발명의 제3실시예에 따른 상기 모바일 디바이스의 애플리케이션에 러닝 모드가 설정되고, 상기 러닝 모드에 따른 모드이미지가 생성되고 상기 스마트 안경에 투사됨으로서, 사용자는 현재 위치와 속도를 파악하여 남은 거리 및 완주 기록을 예상할 수 있고, 자신의 주력 전략에 따른 스케줄을 세울 수 있으며, 자신의 주력 전략에 따라 적정 속도를 제한할 수 있는 효과가 있다. 또한, 상기 러닝 모드에서도 상기 모바일 디바이스 및 웨어러블 디바이스에 장착되는 심장 박동 센서의 센싱데이터를 반영함으로서, 사용자의 심박 상태가 상기 모드이미지에 반영될 수 있다.Figure 5 is an illustrative diagram showing an example of operation of smart glasses in running mode according to the third embodiment of the present invention, in which the running mode is set in the application of the mobile device according to the third embodiment of the present invention, and the running mode is set in the application of the mobile device according to the third embodiment of the present invention. By creating a mode image according to the mode and projecting it on the smart glasses, the user can determine the current location and speed, estimate the remaining distance and completion record, and set a schedule according to his or her main strategy. There is an effect of limiting the appropriate speed depending on the strategy. Additionally, even in the running mode, the user's heart rate state can be reflected in the mode image by reflecting the sensing data of the heart rate sensor mounted on the mobile device and wearable device.

도 6은 본 발명의 제4실시예에 따른 네비게이션 모드에서의 스마트 안경의 작동 예시를 보여주는 예시도이다.Figure 6 is an exemplary diagram showing an example of operation of smart glasses in navigation mode according to the fourth embodiment of the present invention.

본 발명의 제4실시예에 따른 상기 모바일 디바이스의 애플리케이션에 네비게이션 모드가 설정됨으로서, 이후 본 발명의 상기 모드이미지 생성 단계(S120)에서 상기 네비게이션 모드에 따른 모드이미지가 생성되고 모드이미지 투사 단계(S150)를 통하여 상기 스마트 안경에서 상기 네비게이션 모드이미지가 HMD 투사 방식으로 디스플레이될 수 있다. 이를 통하여 사용자는 주행에 따른 속도, 현재 위치, 진행 방향을 상기 스마트 안경을 통하여 안내 받을 수 있으며, 도착 예상 시각과 남은 거리를 파악할 수 있는 것이다.As the navigation mode is set in the application of the mobile device according to the fourth embodiment of the present invention, a mode image according to the navigation mode is generated in the mode image generation step (S120) of the present invention and the mode image projection step (S150) ), the navigation mode image can be displayed in the smart glasses through HMD projection. Through this, the user can receive guidance on driving speed, current location, and direction through the smart glasses, and can determine the expected arrival time and remaining distance.

도 7은 본 발명의 제5실시예에 따른 별차리 찾기 모드에서의 스마트 안경의 작동 예시를 보여주는 예시도이다.Figure 7 is an illustrative diagram showing an example of operation of smart glasses in a star-hunting mode according to the fifth embodiment of the present invention.

도 7을 통한 제5실시예에 따른 별차리 찾기 모드 설정에 따른 모드이미지의 생성 단계를 통하여 상기 모바일 디바이스의 GPS 센서(GPS Sensor)의 측정 데이터로써 사용자의 지리적 위치 정보(위도, 경도)를 반영하고, 스마트 안경의 IMU를 이용하여 사용자가 바라보는 별의 방향(시점)을 파악하고, 추가적으로 모바일 디바이스를 통하여 현재의 날짜 및 시간 그리고 네트워크를 경유한 별자리 정보를 수신하여 반영함으로서, 밤하늘을 쳐다보며 원하는 별자리를 쉽게 찾을 수 있는 별차리 찾기 모드이미지를 생성할 수 있다.The user's geographic location information (latitude, longitude) is reflected as measurement data from the GPS sensor of the mobile device through the creation step of the mode image according to the Byulchari search mode setting according to the fifth embodiment shown in FIG. 7. By using the IMU of smart glasses to determine the direction (viewpoint) of the stars that the user is looking at, and additionally receiving and reflecting the current date and time and constellation information via the network through the mobile device, looking at the night sky You can create a constellation search mode image that allows you to easily find the desired constellation.

또한, 도 8은 본 발명의 제6실시예에 따른 골프 모드에서의 스마트 안경의 작동 예시를 보여주는 예시도로서, 골프 모드 설정에 따른 모드이미지의 생성 단계를 포함하고, 상기 IMU 데이터 무선 전송 단계(S110), 상기 모드이미지 생성 단계(S120), 상기 모드이미지 전송 단계(S130), 상기 모드이미지 수신 단계(S140) 및 상기 모드이미지 투사 단계(S150)를 통하여 스마트 안경의 사용자는 타구 방향과 각도, 풍향/풍속 등을 파악하여 기록 갱신에 도움을 받는 효과가 있는 것이다.In addition, Figure 8 is an illustrative diagram showing an example of operation of smart glasses in golf mode according to the sixth embodiment of the present invention, including a step of generating a mode image according to golf mode settings, and a step of wirelessly transmitting the IMU data ( Through S110), the mode image generation step (S120), the mode image transmission step (S130), the mode image reception step (S140), and the mode image projection step (S150), the user of smart glasses can determine the hitting direction and angle, This has the effect of helping to update records by identifying wind direction/speed, etc.

이때 상기 모드이미지 생성 단계(S120)에서는 모바일 디바이스에서 네트워크를 통한 풍향/풍속 등의 기상 서비스뿐만 아니라, 지도정보 서비스를 반영하여 골프장 지형을 3D 와이어프레임 형태로 지형을 좀 더 실감나게 보여줄 수 있도록 골프 모드이미지를 생성할 수 있다.At this time, in the mode image creation step (S120), the mobile device reflects not only weather services such as wind direction/wind speed through the network, but also map information services, so that the golf course topography can be displayed more realistically in the form of a 3D wireframe. You can create a mode image.

또한, 본 발명의 모드 설정 단계(S200)는 상기 모바일 디바이스의 애플리케이션에서 스마트 안경의 동작 상황에 따라 추가로 설정될 수 있기 때문에 사용자가 하고자하는 상황을 추가적으로 설정함으로서 상기 애플리케이션에서 생성되는 모드이미지의 디스플레이 유형을 변경시킬 수도 있다. In addition, since the mode setting step (S200) of the present invention can be additionally set according to the operation situation of the smart glasses in the application of the mobile device, the mode image generated in the application is displayed by additionally setting the situation desired by the user. You can also change the type.

예를 들어 추가적으로 웨이트 트레이닝 모드로 설정하게 되면 각 운동의 횟수 및 완결 정도를 파악하여 효과적인 트레이닝을 할 수 있도록 할 수 있으며, 따라서 전문적인 개인 트레이너와 함께 트레이닝하는 것과 같은 효과를 얻을 수 있도록 모드이미지를 생성하여 상기 스마트 안경에서 HMD 투사 방식으로 디스플레이할 수도 있음은 자명하다.For example, if you additionally set it to weight training mode, you can determine the number of times and degree of completion of each exercise to enable effective training. Therefore, you can change the mode image to achieve the same effect as training with a professional personal trainer. It is obvious that it can be generated and displayed through HMD projection on the smart glasses.

이상에서 설명한 본 발명의 실시예를 구성하는 모든 구성요소들이 하나로 결합하거나 결합하여 동작하는 것으로 기재되어 있다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램이나 소프트웨어 모듈이 탑재되는 컴퓨팅 장치에 의해 구현될 수 있다. 프로그램이나 소프트웨어 모듈은 도 2의 각 단계를 수행하거나 제어하거나 관리하는 모듈들(IMU 데이터 획득 모듈, IMU 데이터 무선 전송 모듈, 모드이미지 수신 모듈, 모드이미지 투사 모듈, 모드 설정 모듈, 모드이미지 생성 모듈, 모드이미지 전송 모듈)을 포함할 수 있으며, 반도체 메모리, CD 디스크, 플래쉬 메모리 등과 같은 컴퓨터가 읽을 수 있는 기록매체(Computer Readable Media)에 저장될 수 있다. 기록매체는 자기 기록매체, 광기록매체, 캐리어 웨이브 매체 등을 포함할 수 있다.Even though all the components constituting the embodiments of the present invention described above are described as being combined or operated in combination, the present invention is not necessarily limited to these embodiments. That is, as long as it is within the scope of the purpose of the present invention, all of the components may be operated by selectively combining one or more of them. In addition, although all of the components may be implemented as a single independent hardware, some or all of the components may be selectively combined to form a program or program that performs some or all of the combined functions in one or more pieces of hardware. It can be implemented by a computing device on which a software module is mounted. The program or software module includes modules that perform, control, or manage each step in FIG. 2 (IMU data acquisition module, IMU data wireless transmission module, mode image reception module, mode image projection module, mode setting module, mode image generation module, mode image transmission module) and may be stored in computer readable media such as semiconductor memory, CD disk, flash memory, etc. Recording media may include magnetic recording media, optical recording media, carrier wave media, etc.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the present invention has been described above with reference to preferred embodiments, those skilled in the art can make various modifications and changes to the present invention without departing from the spirit and scope of the present invention as set forth in the claims. You will understand.

100: 스마트 안경 200: 모바일 디바이스100: Smart Glasses 200: Mobile Device

Claims (5)

스마트 안경과 연동하기 위한 특정 애플리케이션이 작동하는 모바일 디바이스와 연동하는 스마트 안경의 작동 방법에 있어서,
상기 스마트 안경의 내부에서 작동하는 IMU(Inertial Measurement Unit)를 통해 센싱데이터를 실시간으로 획득하는 IMU 데이터 획득 단계;
상기 센싱데이터를 모바일 디바이스로 전송하는 IMU 데이터 무선 전송 단계;
상기 모바일 디바이스에서 상기 IMU 데이터를 수신하고 모드 설정 단계에서 미리 설정되어진 모드에 기반하여 상기 IMU 데이터로부터 얻은 센싱 정보들과 상기 모바일 디바이스에 장착된 어느 하나 이상의 센서 정보 및 네트워크 서비스 상의 정보를 수집하고 가공하여 상황에 적합한 모드이미지를 생성하는 모드이미지 생성 단계;
상기 모바일 디바이스에서 상기 모드이미지를 압축하고 암호화하여 상기 스마트 안경으로 전송하는 모드이미지 전송 단계;
상기 스마트 안경에서 상기 모드이미지를 수신하고 복호화 및 압축해제하는 모드이미지 수신 단계; 및
상기 스마트 안경에서 상기 모드이미지를 HMD 투사 방식으로 디스플레이하는 모드이미지 투사 단계;를 포함하고,
상기 IMU는 상기 스마트 안경에 내장되는 가속도 센서, 자이로센서, 지자기 센서, 고도 센서, 기압 센서 중의 어느 하나 이상을 포함하고,
상기 모드 설정 단계는 행글라이딩, 싸이클링, 러닝, 스키, 내비게이셔닝, 골프, 별자리 찾기, 웨이트 트레이닝 중의 어느 하나의 상황을 상기 모바일 디바이스의 애플리케이션에 설정하고,
상기 모드 설정 단계의 설정 모드는 상기 모바일 디바이스의 애플리케이션에서 스마트 안경의 동작 상황에 따라 추가로 설정되고,
상기 모드 설정 단계는 상기 모바일 디바이스의 애플리케이션의 UI에 의하여 직접 설정되거나, 상기 스마트 안경에서 음성인식 수단 또는 제스쳐인식 수단으로 모드 설정 신호를 생성하고 상기 모바일 디바이스에 전송하여 상기 애플리케이션에서 설정되고,
상기 스마트 안경의 제어장치는 사용자의 음성을 식별하고 이를 토대로 상기 스마트 안경에서 보이는 영상을 제어할 수 있는 수단을 구비하고,
상기 제어장치는 입력되는 사용자의 음성을 인식하고 음성이 지시하는 명령에 의하여 화면상에 콘텐츠를 올려놓거나 현재 영상을 이동시키거나, 현재 영상을 다른 영상과 중첩하여 배치할 수 있으며, 상기 음성의 인식은 음성처리와 미리 설정된 음성 정보에 기초하여 수행되는 것을 특징으로 하는 모바일 디바이스와 연동하는 스마트 안경 작동 방법.
In the method of operating smart glasses in conjunction with a mobile device running a specific application for linking with smart glasses,
An IMU data acquisition step of acquiring sensing data in real time through an IMU (Inertial Measurement Unit) operating inside the smart glasses;
An IMU data wireless transmission step of transmitting the sensing data to a mobile device;
Receiving the IMU data from the mobile device, collecting and processing sensing information obtained from the IMU data based on the mode preset in the mode setting step, information on one or more sensors mounted on the mobile device, and information on network services A mode image generation step of generating a mode image suitable for the situation;
A mode image transmission step of compressing and encrypting the mode image in the mobile device and transmitting it to the smart glasses;
A mode image reception step of receiving, decoding, and decompressing the mode image from the smart glasses; and
A mode image projection step of displaying the mode image on the smart glasses by HMD projection,
The IMU includes one or more of an acceleration sensor, a gyro sensor, a geomagnetic sensor, an altitude sensor, and an atmospheric pressure sensor built into the smart glasses,
In the mode setting step, one of hang gliding, cycling, running, skiing, navigation, golf, constellation finding, and weight training is set in the application of the mobile device,
The setting mode in the mode setting step is additionally set according to the operation situation of the smart glasses in the application of the mobile device,
The mode setting step is set directly by the UI of the application of the mobile device, or is set in the application by generating a mode setting signal using a voice recognition means or a gesture recognition means in the smart glasses and transmitting it to the mobile device,
The control device of the smart glasses is provided with means for identifying the user's voice and controlling the image displayed by the smart glasses based on this,
The control device recognizes the user's input voice and can place content on the screen, move the current image, or arrange the current image to overlap with another image by commands given by the voice, and recognize the voice. A method of operating smart glasses in conjunction with a mobile device, characterized in that it is performed based on voice processing and preset voice information.
삭제delete 삭제delete 삭제delete 삭제delete
KR1020190059792A 2019-05-22 2019-05-22 Smart glasses operation method interworking to mobile device KR102578119B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190059792A KR102578119B1 (en) 2019-05-22 2019-05-22 Smart glasses operation method interworking to mobile device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190059792A KR102578119B1 (en) 2019-05-22 2019-05-22 Smart glasses operation method interworking to mobile device

Publications (2)

Publication Number Publication Date
KR20200134401A KR20200134401A (en) 2020-12-02
KR102578119B1 true KR102578119B1 (en) 2023-09-14

Family

ID=73792010

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190059792A KR102578119B1 (en) 2019-05-22 2019-05-22 Smart glasses operation method interworking to mobile device

Country Status (1)

Country Link
KR (1) KR102578119B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11356244B2 (en) * 2020-06-05 2022-06-07 Bank Of America Corporation Graphical user interface using continuous authentication and encryption for selective display of data
KR20230169645A (en) 2022-06-09 2023-12-18 한국건설기술연구원 Object recognition-based intelligence glasses system for preventing traffic accidents, and operation method for the same

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150029453A (en) * 2013-09-10 2015-03-18 엘지전자 주식회사 Wearable device and control method for wearable device
KR102354326B1 (en) * 2014-05-23 2022-01-24 삼성전자주식회사 Method and wearable device of setting for notification message receving
KR102260483B1 (en) * 2015-08-25 2021-06-04 한국전자기술연구원 Smart glasses for display a fly guide information

Also Published As

Publication number Publication date
KR20200134401A (en) 2020-12-02

Similar Documents

Publication Publication Date Title
US10304199B2 (en) Techniques for accurate pose estimation
US10169923B2 (en) Wearable display system that displays a workout guide
US8972174B2 (en) Method for providing navigation information, machine-readable storage medium, mobile terminal, and server
WO2019203189A1 (en) Program, information processing device, and information processing method
US11830375B2 (en) Driving analysis and instruction device
CN105388994B (en) Wearable watch and operation method thereof
WO2017141484A1 (en) Congestion estimation method, number of people estimation method, congestion estimation program, number of people estimation program and number of people estimation system
US11710422B2 (en) Driving analysis and instruction device
US11181376B2 (en) Information processing device and information processing method
US9344854B2 (en) Method, storage medium, server, and electronic device for implementing location based service within building
WO2016131279A1 (en) Movement track recording method and user equipment
JPWO2018179644A1 (en) Information processing apparatus, information processing method, and recording medium
WO2016098457A1 (en) Information processing device, information processing method, and program
KR102578119B1 (en) Smart glasses operation method interworking to mobile device
EP3889737A1 (en) Information processing device, information processing method, and program
WO2015119092A1 (en) Augmented reality provision system, recording medium, and augmented reality provision method
US10289206B2 (en) Free-form drawing and health applications
JP7077598B2 (en) Methods, programs, and systems for position-fixing and tracking
CN104166929A (en) Information pushing system and method based on space-time scenes
US10650037B2 (en) Enhancing information in a three-dimensional map
KR20240006669A (en) Dynamic over-rendering with late-warping
CN111344776B (en) Information processing device, information processing method, and program
EP3940584A1 (en) Electronic device for acquiring location information on basis of image, and method for operating same
KR20200004135A (en) Method for providing model house virtual image based on augmented reality
US20240033604A1 (en) Electronic device, method, and computer-readable storage medium for guiding movement of external object

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right