KR20180123285A - Smart helmet checking and controlling remote device and operating method thereof - Google Patents

Smart helmet checking and controlling remote device and operating method thereof Download PDF

Info

Publication number
KR20180123285A
KR20180123285A KR1020170057292A KR20170057292A KR20180123285A KR 20180123285 A KR20180123285 A KR 20180123285A KR 1020170057292 A KR1020170057292 A KR 1020170057292A KR 20170057292 A KR20170057292 A KR 20170057292A KR 20180123285 A KR20180123285 A KR 20180123285A
Authority
KR
South Korea
Prior art keywords
external device
smart helmet
user terminal
text
user
Prior art date
Application number
KR1020170057292A
Other languages
Korean (ko)
Inventor
김창원
이희운
장동윤
Original Assignee
주식회사 이노피아테크
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 이노피아테크 filed Critical 주식회사 이노피아테크
Priority to KR1020170057292A priority Critical patent/KR20180123285A/en
Publication of KR20180123285A publication Critical patent/KR20180123285A/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A42HEADWEAR
    • A42BHATS; HEAD COVERINGS
    • A42B3/00Helmets; Helmet covers ; Other protective head coverings
    • A42B3/04Parts, details or accessories of helmets
    • A42B3/30Mounting radio sets or communication systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • G02B27/021Reading apparatus
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • G02B27/022Viewing apparatus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q2209/00Arrangements in telecontrol or telemetry systems
    • H04Q2209/40Arrangements in telecontrol or telemetry systems using a wireless architecture

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Helmets And Other Head Coverings (AREA)

Abstract

Suggested are a smart helmet capable of checking the condition of a remote device and controlling the same, and an operating method thereof. The smart helmet according to one embodiment includes: a wireless communication module connected to a user terminal by wireless communications; a control module receiving condition information of a remote device at a remote location through the wireless communication module and the user terminal; an image providing unit converting the condition information of the remote external device and outputting an image; and a head up display (HUD) providing the image in front of a user wearing the helmet.

Description

원거리 디바이스의 상태 확인 및 제어 가능한 스마트 헬멧 및 그 동작 방법{SMART HELMET CHECKING AND CONTROLLING REMOTE DEVICE AND OPERATING METHOD THEREOF}TECHNICAL FIELD [0001] The present invention relates to a smart helmet and a control method thereof,

아래의 실시예들은 원거리 디바이스의 상태 확인 및 제어 가능한 스마트 헬멧 및 그 동작 방법에 관한 것이다. 더욱 상세하게는, 주행 중에도 원거리 기기의 상황 정보를 실시간으로 파악하며 음성 제어로 상황 정보에 대한 빠른 대응이 가능한 원거리 디바이스의 상태 확인 및 제어 가능한 스마트 헬멧 및 그 동작 방법에 관한 것이다. The following embodiments relate to a smart helmet capable of checking the status of a remote device and a method of operation thereof. More particularly, the present invention relates to a smart helmet capable of checking the status of a remote device capable of quickly grasping situation information with voice control while grasping the situation information of the remote device in real time while driving, and an operation method thereof.

헤드업 디스플레이(Head-Up Display, HUD)는 차량이나 항공기 주행 중 운전자 정면 즉, 운전자의 주 시야 선을 벗어나지 않는 범위에서 차량 주행정보나 기타 정보를 제공하는 시스템이다. Head-Up Display (HUD) is a system that provides vehicle driving information or other information to the front of the driver, ie, the driver's main visual field, while driving the vehicle or aircraft.

이륜차의 경우 주행 중 운전자가 두 손을 운전대에서 떼어 네비게이션 및 전화 통화를 하는 것은 거의 불가능하다. 그리고 네비게이션을 작동시킨다 하여도 주행 중에 확인하는 것은 사고위험이 있고 정차 중 네비게이션을 확인하더라도 헬멧을 착용한 상태에서 시야가 가려지는 문제점이 있다. 또한, 헬멧을 착용한 경우 전화 통화에도 제약이 크다. In the case of a two-wheeled vehicle, it is almost impossible for a driver to take two hands off the steering wheel and navigate and make telephone calls while driving. Even if the navigation is activated, it is dangerous to check the vehicle while driving. Even if the navigation is checked during stopping, there is a problem that the visibility is blocked while wearing the helmet. Also, when a helmet is worn, there is a large restriction on a telephone call.

한국공개특허 10-2016-0100525호는 이러한 웨어러블 HUD 시스템에 관한 것으로, 헬멧의 페이스 쉴드에 운전에 필요한 정보를 스마트폰과 연동 및 출력하여 주위 상황 인지 및 안전운행이 가능하도록 하는 기술을 기재하고 있다. Korean Patent Laid-Open Publication No. 10-2016-0100525 discloses such a wearable HUD system, which discloses a technique for allowing information necessary for driving the face shield of a helmet to be interlocked with and outputted to a smartphone, thereby enabling the circumstance recognition and safe operation .

실시예들은 원거리 디바이스의 상태 확인 및 제어 가능한 스마트 헬멧 및 그 동작 방법에 관하여 기술하며, 보다 구체적으로 이륜차 등의 주행 중에도 원거리 기기의 상황 정보를 실시간으로 파악하며 음성 제어로 상황 정보에 대한 빠른 대응이 가능한 기술을 제공한다. More particularly, the present invention relates to a smart helmet and a method of operating the same, and more particularly, it is possible to grasp the situation information of a remote device in real time while driving on a two-wheeled vehicle or the like, Provide a possible technology.

실시예들은 오토바이 등 이륜차를 운전하는 사용자가 주행 중에도 홈 디바이스, 오피스 기기, 공장 내 설비 등 원거리 기기에 대한 상황 정보가 착용 스마트 헬멧의 HUD 창에 간단하게 디스플레이 됨으로써 사용자가 확인 및 제어 가능한 스마트 헬멧 및 그 동작 방법을 제공하는데 있다. Embodiments include a smart helmet that can be displayed and displayed on a HUD window of a smart helmet to be worn by a user operating a motorcycle, such as a home device, an office device, And to provide a method of operating the same.

일 실시예에 따른 스마트 헬멧은, 사용자 단말과 무선 통신으로 연결되는 무선 통신 모듈; 상기 무선 통신 모듈을 통해 원거리의 외부 디바이스의 상태 정보를 상기 사용자 단말을 통해 전달 받는 제어 모듈; 상기 외부 디바이스의 상태 정보를 변환하여 영상을 출력하는 영상 제공부; 및 헬멧을 착용하는 사용자의 전방에 상기 영상을 제공하는 HUD(Head Up Display)를 포함하여 이루어질 수 있다. According to one embodiment, a smart helmet includes: a wireless communication module connected with a user terminal by wireless communication; A control module for receiving status information of a remote device at a remote location via the wireless communication module through the user terminal; An image providing unit for converting the status information of the external device and outputting an image; And a head up display (HUD) for providing the image in front of a user wearing the helmet.

상기 외부 디바이스의 상태 정보를 가진 데이터가 상기 사용자 단말로 전달되고, 상기 사용자가 상기 사용자 단말을 통해 자동 전송 여부를 설정함에 따라 상기 데이터가 판독 가능한(readable) 텍스트로 변환되어 상기 무선 통신 모듈을 통해 상기 제어 모듈로 전송되거나 전송 대기되며, 자동 전송이 설정되지 않은 경우 상기 사용자의 요청에 따라 전송 대기 상태의 상기 텍스트가 상기 제어 모듈로 전송될 수 있다. The data having the status information of the external device is transmitted to the user terminal and the data is converted into readable text by setting whether the user automatically transmits the data through the user terminal, If the automatic transmission is not set, the text in the transmission waiting state may be transmitted to the control module according to the request of the user.

여기에서 사용자의 음성 명령을 인식하는 음성 인식 모듈을 더 포함하고, 상기 음성 인식 모듈을 통해 인식된 상기 외부 디바이스의 상태 정보 요청에 대한 상기 음성 명령은 상기 무선 통신 모듈을 통해 상기 사용자 단말로 전달되어, 상기 음성 명령에 따른 상기 사용자 단말에서 수집한 상기 외부 디바이스의 정보를 상기 HUD를 통해 영상으로 상기 사용자에게 제공하도록 할 수 있다. Wherein the voice recognition module recognizes a voice command of a user and the voice command for requesting status information of the external device recognized through the voice recognition module is transmitted to the user terminal through the wireless communication module And provide information of the external device collected by the user terminal according to the voice command to the user through the HUD as an image.

상기 음성 인식 모듈을 통해 인식된 상기 외부 디바이스의 제어에 대한 상기 음성 명령은 상기 무선 통신 모듈을 통해 상기 사용자 단말로 전달되며, 상기 사용자 단말에서 텍스트로 변환 후 제어 명령에 대한 데이터로 변환되어 상기 외부 디바이스를 동작하도록 할 수 있다. The voice command for control of the external device recognized through the voice recognition module is transmitted to the user terminal through the wireless communication module and is converted into data for a control command after being converted into text in the user terminal, The device can be operated.

상기 영상 제공부는, 상기 사용자 단말로부터 전달받은 상기 외부 디바이스에 대한 텍스트를 광학 처리 후 상기 HUD를 통해 영상을 출력하는 피코 프로젝터(Pico Projector)일 수 있다. The image provider may be a pico projector that outputs an image through the HUD after optical processing of a text of the external device received from the user terminal.

다른 실시예에 따른 스마트 헬멧의 동작 방법은, 사용자 단말과 무선 통신으로 연결되어 상기 사용자 단말에 수신 또는 저장된 원거리의 외부 디바이스의 상태 정보를 텍스트로 전달 받는 단계; 전달 받은 상기 텍스트를 광학 처리 후 변환하여 피코 프로젝터(Pico Projector)를 통해 영상을 출력하는 단계; 및 헬멧을 착용하는 사용자의 전방의 HUD(Head Up Display)에 상기 영상을 제공하는 단계를 포함하여 이루어질 수 있다. According to another aspect of the present invention, there is provided a method of operating a smart helmet, the method comprising: receiving status information of a remote external device connected to a user terminal through wireless communication and received or stored in the user terminal; Converting the text received through the optical processing and outputting the converted image through a pico projector; And providing the image to a Head Up Display (HUD) in front of a user wearing the helmet.

스마트 헬멧과 결합되어 제어 단계와 변환 단계를 실행시키기 위하여 컴퓨터 판독가능 매체에 저장된 어플리케이션에 있어서, 상기 제어 단계는, 무선 통신에 의해 원거리의 외부 디바이스로부터 상태 정보에 대한 데이터를 수신하고, 스마트 헬멧으로부터 상기 외부 디바이스에 대한 상태 정보 요청 또는 제어에 대한 음성 명령을 수신하고, 상기 변환 단계는, 상기 외부 디바이스로부터 수신된 상기 데이터를 판독 가능한(readable) 텍스트로 변환하고, 상기 스마트 헬멧의 음성 인식 모듈을 통해 인식된 상기 외부 디바이스의 상태 정보 요청에 대한 음성 명령을 텍스트로 변환하거나 상기 외부 디바이스의 제어에 대한 음성 명령을 텍스트로 변환 후 데이터로 재변환시키며, 상기 제어 단계는, 상기 외부 디바이스로부터 수신 후 변환된 상기 텍스트를 상기 스마트 헬멧으로 전달하여 상기 외부 디바이스의 정보를 상기 스마트 헬멧의 HUD(Head Up Display)를 통해 영상으로 사용자에게 제공하도록 하며, 상기 외부 디바이스의 제어에 대한 음성 명령을 텍스트로 변환 후 데이터로 재변환시켜 상기 외부 디바이스를 제어하도록 하는 것을 특징으로 하는 컴퓨터 판독가능 매체에 저장된 어플리케이션이 제공된다. An application stored in a computer readable medium for execution of a control step and a translation step in combination with a smart helmet, the control step comprising: receiving data on status information from a remote external device by wireless communication; Receiving a voice command for state information request or control for the external device, the converting step converts the data received from the external device into readable text, Converts the voice command for the status information request of the external device recognized through the external device into text or converts the voice command for the control of the external device into text and re-converts the voice command into data, The converted text And sends the information to the smart helmet to provide the information of the external device to the user through the HUD (Head Up Display) of the smart helmet. The voice command for the control of the external device is converted into text, The external device being controlled by the external device, the application being stored in a computer-readable medium.

실시예들에 따르면 오토바이 등 이륜차를 운전하는 사용자가 주행 중에도 홈 디바이스, 오피스 기기, 공장 내 설비 등 원거리 기기에 대한 상황 정보가 착용 스마트 헬멧의 HUD 창에 간단하게 디스플레이 됨으로써 사용자가 확인 및 제어 가능한 스마트 헬멧 및 그 동작 방법을 제공할 수 있다. According to the embodiments, the situation information on the remote device such as home device, office device, and factory equipment is displayed on the HUD window of the worn smart helmet while the user driving the motorcycle is running, A helmet and a method of operation thereof.

도 1은 일 실시예에 따른 원거리 디바이스의 상태 확인 및 제어 가능한 스마트 헬멧의 동작을 설명하기 위한 개략도이다.
도 2는 일 실시예에 따른 스마트 헬멧의 구조를 개략적으로 나타내는 도면이다.
도 3은 일 실시예에 따른 피코 프로젝터를 통한 HUD 영상 출력을 설명하기 위한 도면이다.
도 4는 일 실시예에 따른 헬멧 내 음성 인식 구조를 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 원거리 디바이스의 상태 확인 및 제어 가능한 스마트 헬멧의 동작을 개략적으로 나타내는 도면이다.
도 6은 일 실시예에 따른 원거리 디바이스의 상태 확인 및 제어 가능한 스마트 헬멧의 동작 시스템을 나타내는 블록도이다.
도 7은 일 실시예에 따른 스마트 헬멧의 원거리 디바이스의 상황 정보 확인을 위한 동작 방법을 나타내는 흐름도이다.
도 8은 일 실시예에 따른 스마트 헬멧의 원거리 디바이스의 상황 정보에 대한 제어를 위한 동작 방법을 나타내는 흐름도이다.
도 9는 일 실시예에 따른 주행 중 HUD를 통한 상태 정보를 디스플레이 하는 예를 나타내는 도면이다.
도 10은 일 실시예에 따른 HUD의 상태 정보 디스플레이의 예를 나타내는 도면이다.
FIG. 1 is a schematic diagram for explaining the operation of a smart helmet capable of checking the status of a remote device and a controllable device according to an embodiment of the present invention.
2 is a view schematically showing a structure of a smart helmet according to an embodiment.
3 is a diagram for explaining HUD video output through a pico projector according to an exemplary embodiment.
4 is a diagram for explaining a speech recognition structure in a helmet according to an embodiment.
FIG. 5 is a diagram schematically illustrating the operation of a smart helmet capable of checking the status of a remote device and controlling the device according to an exemplary embodiment of the present invention.
6 is a block diagram illustrating an operation system of a smart helmet capable of checking status and controlling a remote device according to an exemplary embodiment.
7 is a flowchart illustrating an operation method for confirming status information of a remote device of a smart helmet according to an exemplary embodiment of the present invention.
8 is a flowchart illustrating an operation method for controlling status information of a remote device of a smart helmet according to an exemplary embodiment of the present invention.
FIG. 9 is a view illustrating an example of displaying status information through the HUD during a driving according to an embodiment.
10 is a view showing an example of status information display of the HUD according to one embodiment.

이하, 첨부된 도면을 참조하여 실시예들을 설명한다. 그러나, 기술되는 실시예들은 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 이하 설명되는 실시예들에 의하여 한정되는 것은 아니다. 또한, 여러 실시예들은 당해 기술분야에서 평균적인 지식을 가진 자에게 본 발명을 더욱 완전하게 설명하기 위해서 제공되는 것이다. 도면에서 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.Hereinafter, embodiments will be described with reference to the accompanying drawings. However, the embodiments described may be modified in various other forms, and the scope of the present invention is not limited by the embodiments described below. In addition, various embodiments are provided to more fully describe the present invention to those skilled in the art. The shape and size of elements in the drawings may be exaggerated for clarity.

아래의 실시예들은 원거리 디바이스의 상태 확인 및 제어 가능한 스마트 헬멧 및 그 동작 방법에 관한 것으로, 더 구체적으로 오토바이 등 이륜차를 운전하는 사용자가 주행 중에도 홈 디바이스, 오피스 기기, 공장 내 설비 등 원거리 기기에 대한 상황 정보가 착용 스마트 헬멧의 HUD(Head Up Display) 창에 간단하게 디스플레이 되고 사용자가 확인 및 제어 가능하다. More specifically, the present invention relates to a smart helmet capable of checking and controlling the state of a remote device and an operation method thereof, and more particularly, Situation information is simply displayed on the head up display (HUD) of the worn smart helmet and can be checked and controlled by the user.

실시예들은 스마트 기기 등의 사용자 단말과 연동하여 음성 및 영상을 통한 네비게이션 기능을 지원하고, 주행 및 사고 시 영상 녹화와 주행 중의 후방 상황을 실시간으로 확인할 수 있는 전후방 카메라가 탑재된 음성 명령 기반의 레저용 스마트 헬멧 및 그 동작 방법을 제공할 수 있다.
Embodiments relate to a voice command-based leisure device equipped with front and rear cameras capable of realizing video recording during a driving and an accident and rearward conditions during driving in cooperation with a user terminal such as a smart device, supporting a navigation function through voice and video, And a method of operating the smart helmet.

도 1은 일 실시예에 따른 원거리 디바이스의 상태 확인 및 제어 가능한 스마트 헬멧의 동작을 설명하기 위한 개략도이다. FIG. 1 is a schematic diagram for explaining the operation of a smart helmet capable of checking the status of a remote device and a controllable device according to an embodiment of the present invention.

오토바이 등의 이륜차는 주행 중 항상 양손을 사용해야 하므로 보행자나 자동차 운전자가 별도의 디스플레이를 가진 휴대기기를 켜서 확인하는 행위를 하는 것이 불가능하다. 이에 이륜차의 주행 중에도 원거리 기기의 상황 정보를 실시간으로 파악하며 음성 제어로 상황 정보에 대한 빠른 대응이 가능하도록 하고자 한다. 예컨대 운전자가 주행 중 긴급한 화재, 침입, 테러 등에 대한 상황 정보를 실시간으로 전달받아 원격에서의 방호 조치가 가능하다. 여기에서 오토바이 등의 이륜차를 예를 들어 설명하고 있으나, 사륜 오토바이 등 스마트 헬멧을 착용하는 차량 등이나 주행 중 주로 양손 사용을 요구하는 차량을 포함할 수 있다. 아래에서는 스마트 헬멧을 착용하는 차량 등과 일반적인 자동차 등의 구분을 위해 편의상 이륜차로 언급하나 이에 제한되지는 않는다. Motorcycles and other motorcycles must always use both hands while driving, so it is impossible for pedestrians or motorists to turn on and confirm portable devices with separate displays. Therefore, it is necessary to grasp the situation information of the remote equipments in real time during running of the motorcycle and to enable quick response to the situation information through voice control. For example, it is possible for the driver to take remote protection measures by receiving real-time information on emergency fire, intrusion, terror, etc. while driving. Herein, a motorcycle or other motorcycle is described as an example, but it may include a vehicle wearing a smart helmet such as a four-wheeled motorcycle or a vehicle that requires use of both hands while driving. The following is referred to as a motorcycle for the sake of distinguishing a vehicle wearing a smart helmet from a general motor vehicle, but the present invention is not limited thereto.

도 1을 참조하면, 이러한 원거리 디바이스의 상태 확인 및 제어 가능한 스마트 헬멧을 통한 서비스를 제공하기 위해 이륜차 운전자가 사용하는 스마트 헬멧(110), 사용자 단말(120) 및 원격의 피제어 외부 디바이스간의 스마트 모듈간 연동을 통한 상태 확인 및 제어 기술을 구성할 수 있다.Referring to FIG. 1, a smart helmet 110 used by a motorcycle driver, a user terminal 120, and a smart module (not shown) between a remote controlled external device to provide service through a controllable smart helmet, It is possible to configure the status check and control technology through interworking.

여기에서 스마트 헬멧(110)에는 제어 모듈(111)이 내장되어 있고, 초소형 카메라(112), HUD 모듈(113) 및 음성 인식 및 통화 모듈(114)이 내장 또는 장착될 수 있다. 여기에서 스마트 헬멧(110)은 원거리의 외부 디바이스와 연결하기 위해 사용자의 사용자 단말(120)와 무선 통신으로 연결될 수 있다. 더 구체적으로 스마트 헬멧(110)은 사용자 단말(120)의 무선 통신 모듈을 통해 제어 모듈(111)과 연결될 수 있다. Here, the smart helmet 110 includes a control module 111, and the micro camera 112, the HUD module 113, and the voice recognition and communication module 114 can be built in or mounted. Here, the smart helmet 110 may be wirelessly connected to a user terminal 120 of a user for connection to a remote external device. More specifically, the smart helmet 110 may be connected to the control module 111 through the wireless communication module of the user terminal 120. [

여기에서 사용자 단말(120)은 무선 통신 기능 또는 근거리 통신 기능을 탑재한 사용자 장치라면 어느 것이라도 적용될 수 있다. 예를 들면, PC, 노트북, 무선통신 단말, 스마트폰(Smart phone), PMP(Portable Media Player), PDA(Personal Digital Assistant), 태블릿 PC(Tablet PC), 셋톱박스(Set-top box), 스마트 TV, 스마트 워치 등 다양한 장치가 될 수 있다.Here, the user terminal 120 can be applied to any user equipment equipped with a wireless communication function or a local communication function. For example, a personal computer, a notebook computer, a wireless communication terminal, a smart phone, a portable media player (PMP), a personal digital assistant (PDA), a tablet PC, a set- TV, smart watch and so on.

스마트 헬멧(110)은 사용자 단말(120)와 연결됨으로써 다양한 서비스를 제공할 수 있다. 예를 들어 스마트 헬멧(110)은 음성 인식 네비게이션 또는 다자간 대화 서비스, 충격 감지 및 응급 호출 기능, HUD 기반 네이게이션 및 후방 카메라 영상 등 다양한 영상 서비스, 전후방 카메라의 영상 녹화 및 공유 등의 서비스를 사용자에게 제공할 수 있다. The smart helmet 110 may be connected to the user terminal 120 to provide various services. For example, the smart helmet 110 provides various services such as voice recognition navigation or multi-party conversation service, shock detection and emergency call function, HUD-based navigation and rear camera images, and video recording and sharing of front and rear cameras can do.

더욱이 스마트 헬멧(110)은 사용자 단말(120)를 통해 원거리의 외부 디바이스와 연결됨으로써 사물인터넷(Internet of Things, IoT) 서비스 연동 등 외부 디바이스의 상태 정보를 확인하거나 외부 디바이스의 상태를 제어할 수 있다. Furthermore, the smart helmet 110 can be connected to an external device at a remote location via the user terminal 120, thereby checking status information of an external device such as an Internet of Things (IOT) service or controlling the status of an external device .

도 2는 일 실시예에 따른 스마트 헬멧의 구조를 개략적으로 나타내는 도면이다. 2 is a view schematically showing a structure of a smart helmet according to an embodiment.

도 2를 참조하면, 스마트 헬멧(210)은 사용자 단말과 무선 통신으로 연결되는 무선 통신 모듈, 무선 통신 모듈을 통해 원거리의 외부 디바이스의 상태 정보를 사용자 단말을 통해 전달 받는 제어 모듈(211), 외부 디바이스의 상태 정보를 변환하여 영상을 출력하는 영상 제공부(212), 및 헬멧을 착용하는 사용자의 전방에 영상을 제공하는 HUD(Head Up Display)(213)를 포함하여 이루어질 수 있다. 여기에서 스마트 헬멧(210)은 실시예에 따라 사용자의 음성 명령을 인식하는 음성 인식 모듈(214)을 더 포함하여 이루어질 수 있다. Referring to FIG. 2, the smart helmet 210 includes a wireless communication module connected to a user terminal through wireless communication, a control module 211 receiving status information of a remote device via a wireless communication module through a user terminal, An image providing unit 212 for converting the state information of the device and outputting an image, and a head up display (HUD) 213 for providing an image in front of a user wearing the helmet. Here, the smart helmet 210 may further comprise a speech recognition module 214 for recognizing a user's voice command according to an embodiment.

여기에서 스마트 헬멧(210)은 오토바이 등 이륜차를 운전하는 사용자가 주행 중 착용하는 헬멧으로, 사용자가 주행 중에도 홈 디바이스, 오피스 기기, 공장 내 설비 등 원거리 기기에 대한 상황 정보가 착용 스마트 헬멧(210)의 HUD 창에 간단하게 디스플레이 됨으로써 사용자가 확인 및 제어 가능하다. Here, the smart helmet 210 is a helmet which is worn by a user driving a motorcycle, such as a motorcycle, while the user is traveling, and information on a remote device such as a home device, an office device, And can be easily displayed and displayed on the HUD window of the user.

스마트 헬멧(210)의 기본적인 구성은 사용자의 두부에 착용되는 몸체와, 몸체의 전면에 구비되며 정보가 출력되는 HUD(213)와, 몸체의 소정의 위치에 구비되며 정보를 HUD(213)에 조사하기 위한 영상 제공부(212)와, 몸체의 전면에 구비되어 전면을 촬영하기 위한 전방 카메라(215)와, 몸체의 후면에 구비되어 후면을 촬영하기 위한 후방 카메라(216)와, 몸체에 구비되며 전원을 공급하기 위한 전원부를 포함할 수 있다. 그리고 무선 통신 모듈, 제어 모듈(211) 및 음성 인식 모듈(214)을 더 포함하여 이루어질 수 있다. The basic configuration of the smart helmet 210 includes a body worn on the head of the user, a HUD 213 provided on the front of the body for outputting information, A front camera 215 mounted on the front of the body for photographing the front of the body, a rear camera 216 provided on the rear of the body for photographing the rear of the body, And a power supply for supplying power. And may further include a wireless communication module, a control module 211, and a voice recognition module 214.

무선 통신 모듈은 사용자 단말과 무선 통신으로 연결될 수 있다. The wireless communication module may be connected to the user terminal wirelessly.

제어 모듈(211)은 무선 통신 모듈을 통해 원거리의 외부 디바이스의 상태 정보를 사용자 단말을 통해 전달 받을 수 있다.The control module 211 can receive the status information of the remote device at a remote location through the wireless communication module through the user terminal.

영상 제공부(212)는 외부 디바이스의 상태 정보를 변환하여 영상을 출력할 수 있다. 영상 제공부(212)는 사용자 단말로부터 전달받은 외부 디바이스에 대한 텍스트를 광학 처리 후 HUD(213)를 통해 영상을 출력하는 피코 프로젝터(Pico Projector)일 수 있으나, 이에 제한되지는 않는다.The image providing unit 212 may convert the status information of the external device and output an image. The image providing unit 212 may be, but is not limited to, a pico projector that outputs an image through the HUD 213 after optically processing the text of the external device received from the user terminal.

HUD(213)는 헬멧을 착용하는 사용자의 전방에 영상을 제공할 수 있다.The HUD 213 may provide an image in front of the user wearing the helmet.

외부 디바이스의 상태 정보를 가진 데이터가 스마트 기기의 사용자 단말로 전달되고, 사용자가 사용자 단말을 통해 자동 전송 여부를 설정함에 따라 데이터가 판독 가능한(readable) 텍스트로 변환되어 무선 통신 모듈을 통해 제어 모듈(211)로 전송되거나 전송 대기되며, 자동 전송이 설정되지 않은 경우 사용자의 요청에 따라 전송 대기 상태의 텍스트가 제어 모듈(211)로 전송될 수 있다.The data having the status information of the external device is transmitted to the user terminal of the smart device and the data is converted into the readable text as the user sets the automatic transmission through the user terminal, 211, or if the automatic transmission is not set, the text of the transmission waiting state may be transmitted to the control module 211 at the request of the user.

여기에서 사용자의 음성 명령을 인식하는 음성 인식 모듈(214)을 더 포함하여 이루어질 수 있다.Here, the voice recognition module 214 may recognize the voice command of the user.

음성 인식 모듈(214)을 통해 인식된 외부 디바이스의 상태 정보 요청에 대한 음성 명령은 무선 통신 모듈을 통해 사용자 단말로 전달되어, 음성 명령에 따른 사용자 단말에서 수집한 외부 디바이스의 정보를 HUD(213)를 통해 영상으로 사용자에게 제공하도록 할 수 있다. The voice command for requesting the status information of the external device recognized through the voice recognition module 214 is transmitted to the user terminal through the wireless communication module and transmits information of the external device collected by the user terminal according to the voice command to the HUD 213, To the user through the image.

그리고 음성 인식 모듈(214)을 통해 인식된 외부 디바이스의 제어에 대한 음성 명령은 무선 통신 모듈을 통해 사용자 단말로 전달되며, 사용자 단말에서 텍스트로 변환 후 제어 명령에 대한 데이터로 변환되어 외부 디바이스를 동작하도록 할 수 있다. The voice command for the control of the external device recognized through the voice recognition module 214 is transmitted to the user terminal through the wireless communication module and is converted into text data after the conversion from the user terminal to the control command, .

이러한 일 실시예에 따른 스마트 헬멧의 동작 방법은, 아래의 도 7에 도시된 바와 같이, 사용자 단말과 무선 통신으로 연결되어 사용자 단말에 수신 또는 저장된 원거리의 외부 디바이스의 상태 정보를 텍스트로 전달 받는 단계(709), 전달 받은 텍스트를 광학 처리 후 변환하여 피코 프로젝터(Pico Projector)를 통해 영상을 출력하는 단계(710), 및 헬멧을 착용하는 사용자의 전방의 HUD(Head Up Display)에 영상을 제공하는 단계(711)를 포함하여 이루어질 수 있다. The method of operating the smart helmet according to one embodiment of the present invention includes receiving status information of a remote external device connected to a user terminal through a wireless communication and received or stored in a user terminal as text, (709), converting the received text to optical processing, outputting an image through a pico projector (710), and providing a picture to a head up display (HUD) in front of a user wearing the helmet Step 711 may be included.

아래에서 일 실시예에 따른 스마트 헬멧 및 그 동작 방법에 대해 보다 구체적으로 설명하기로 한다. Hereinafter, a smart helmet according to an embodiment and a method of operating the smart helmet will be described in more detail.

도 3은 일 실시예에 따른 피코 프로젝터를 통한 HUD 영상 출력을 설명하기 위한 도면이다. 3 is a diagram for explaining HUD video output through a pico projector according to an exemplary embodiment.

도 3에 도시된 바와 같이, 피코 프로젝터(310)에서 영상이 출력되어 HUD(320)에 영상을 제공할 수 있다. 이때 스마트 헬멧을 착용한 사용자의 전방에 가상 이미지(330)가 생성하게 된다. As shown in FIG. 3, an image is output from the pico projector 310 to provide an image to the HUD 320. At this time, a virtual image 330 is generated in front of the user wearing the smart helmet.

스마트 헬멧은 사용자 단말로부터 전송된 텍스트를 무선 통신 모듈로 수신 받을 수 있다. 그리고 스마트 헬멧은 제어 모듈을 통해 수신된 텍스트를 피코 프로젝터(310)로 전달할 수 있다. 이에, 피코 프로젝터(310)는 전달 받은 텍스트를 광학 처리 후 영상 출력하여 스마트 헬멧의 HUD(320)를 통해 디스플레이 함으로써, 주행 중인 사용자가 HUD 영상 메시지를 확인할 수 있다. The smart helmet can receive the text transmitted from the user terminal to the wireless communication module. The smart helmet may then transmit the received text to the pico projector 310 via the control module. Accordingly, the pico projector 310 displays the transmitted text after optical processing, and displays the text through the HUD 320 of the smart helmet, so that the user who is traveling can check the HUD video message.

도 4는 일 실시예에 따른 헬멧 내 음성 인식 구조를 설명하기 위한 도면이다. 4 is a diagram for explaining a speech recognition structure in a helmet according to an embodiment.

도 4에 도시된 바와 같이, 사용자의 음성 명령을 스마트 헬멧(410)에 구성된 마이크(420)을 통해 인식할 수 있으며, 코덱(430) 및 CPU(440)에 의해 음성 처리될 수 있다. The voice command of the user can be recognized through the microphone 420 configured in the smart helmet 410 and can be voice processed by the codec 430 and the CPU 440 as shown in FIG.

더 구체적으로 음성 인식 모듈을 통해 인식된 외부 디바이스의 상태 정보 요청에 대한 음성 명령은 무선 통신 모듈을 통해 사용자 단말로 전달되어, 음성 명령에 따른 사용자 단말에서 수집한 외부 디바이스의 정보를 HUD를 통해 영상으로 사용자에게 제공하도록 할 수 있다. More specifically, a voice command for requesting status information of an external device recognized by the voice recognition module is transmitted to the user terminal through the wireless communication module, and information of the external device collected by the user terminal according to the voice command is transmitted through the HUD To the user.

그리고 음성 인식 모듈을 통해 인식된 외부 디바이스의 제어에 대한 음성 명령은 무선 통신 모듈을 통해 사용자 단말로 전달되며, 사용자 단말에서 텍스트로 변환 후 제어 명령에 대한 데이터로 변환되어 외부 디바이스를 동작하도록 할 수 있다. The voice command for the control of the external device recognized through the voice recognition module is transmitted to the user terminal through the wireless communication module and is converted into the text for the control command after the conversion from the user terminal to the text, have.

도 5는 일 실시예에 따른 원거리 디바이스의 상태 확인 및 제어 가능한 스마트 헬멧의 동작을 개략적으로 나타내는 도면이다. FIG. 5 is a diagram schematically illustrating the operation of a smart helmet capable of checking the status of a remote device and controlling the device according to an exemplary embodiment of the present invention.

도 5를 참조하면, 센서, IoT 디바이스 등에 의해 화재 발생 감지, 온도 및 습도 감지, 도어의 온/오프 감지, 가전기기 또는 사무기기 등 다양한 디바이스의 온/오프 감지 등이 발생(501)됨에 따라, 가정, 사무실, 공장 등의 외부 디바이스(502)는 상황 정보를 감지하고 이를 전송할 수 있다. Referring to FIG. 5, on / off detection of various devices such as fire detection, temperature and humidity detection, door on / off detection, home appliance, office equipment, etc. is generated 501 by a sensor, an IoT device, An external device 502, such as a home, an office, a factory, etc., can sense the situation information and transmit it.

외부 디바이스(502)는 상태 정보를 와이파이(wifi), LTE 등의 무선 통신을 통해 사용자 단말(503)과 연결되어 상태 정보를 전송할 수 있다. 이후, 사용자 단말(503)은 외부 디바이스(502)로부터 수신한 정보를 스마트 헬멧(504)으로 전송할 수 있다. 이에 따라 사용자는 HUD를 통한 상태 정보를 파악할 수 있으며, 이때 스마트 헬멧(504) 내 HUD를 통해 영상을 출력함으로써 상태 정보를 표시(505)할 수 있다. The external device 502 can transmit status information by being connected to the user terminal 503 through wireless communication such as Wi-Fi, LTE, or the like. Then, the user terminal 503 can transmit the information received from the external device 502 to the smart helmet 504. Accordingly, the user can grasp the status information through the HUD. At this time, the status information can be displayed 505 by outputting the image through the HUD in the smart helmet 504.

한편, 사용자가 스마트 헬멧(504)의 음성 인식 모듈을 통해 음성으로 외부 디바이스(502)의 상태 정보를 사용자 단말(503)을 통해 요청하는 경우, 음성 명령은 블루투스(Bluetooth) 등의 근거리 통신, 와이파이(wifi), LTE 등의 무선 통신을 통해 사용자 단말(503)로 전달될 수 있다. 이후 사용자 단말(503)은 외부 디바이스(502)에 제어 명령을 전달함으로써, 외부 디바이스(502)는 제어 명령을 수신하여 명령을 수행할 수 있다.
On the other hand, when the user requests status information of the external device 502 via the user terminal 503 by voice through the voice recognition module of the smart helmet 504, the voice command may be transmitted via a Bluetooth communication, (WiFi), LTE, or the like to the user terminal 503 via wireless communication. Then, the user terminal 503 transmits a control command to the external device 502, so that the external device 502 can receive the control command and execute the command.

도 6은 일 실시예에 따른 원거리 디바이스의 상태 확인 및 제어 가능한 스마트 헬멧의 동작 시스템을 나타내는 블록도이다. 6 is a block diagram illustrating an operation system of a smart helmet capable of checking status and controlling a remote device according to an exemplary embodiment.

도 6을 참조하면, 원거리 디바이스의 상태 확인 및 제어 가능한 스마트 헬멧의 동작 시스템은 이륜차 운전자가 사용하는 스마트 헬멧(610), 사용자 단말(620) 및 원격의 피제어 외부 디바이스(630)를 포함하며, 스마트 모듈간 연동을 통한 상태 확인 및 제어가 가능하다. 6, the operating system of the smart helmet capable of checking and controlling the state of the remote device includes a smart helmet 610 used by the motorcycle driver, a user terminal 620, and a remote controlled external device 630, Status check and control through interoperation between smart modules is possible.

스마트 헬멧(610)은 제어 모듈(611), 무선 통신 모듈(612), 피코 프로젝터(Pico Projector) 및 HUD(Head Up Display)(613), 그리고 음성 인식 모듈(614)을 포함하여 이루어질 수 있다. The smart helmet 610 may include a control module 611, a wireless communication module 612, a pico projector and a head up display (HUD) 613, and a voice recognition module 614.

제어 모듈(611)은 스마트 헬멧(610)의 내장 기능을 총괄적으로 제어할 수 있다. 그리고 구성 모듈간 중계를 수행할 수 있다. The control module 611 can collectively control the built-in functions of the smart helmet 610. [ And relay between configuration modules can be performed.

무선 통신 모듈(612)은 외부 무선 디바이스와의 통신 기능 제공할 수 있다. The wireless communication module 612 can provide a communication function with an external wireless device.

피코 프로젝터(Pico Projector) 및 HUD(613)는 스마트 헬멧을 착용하는 사용자가 눈앞에서 볼 수 있는 영상을 출력할 수 있다. 이때 스마트 헬멧을 착용하는 사용자의 주행 시야에 방해가 되지 않도록 스마트 헬멧의 일측에 영상을 출력되도록 할 수 있다.The Pico Projector and the HUD 613 can output images that a user wearing a smart helmet can view in front of the user. At this time, the image can be outputted to one side of the smart helmet so as not to interfere with the running sight of the user wearing the smart helmet.

음성 인식 모듈(614)은 스마트 헬멧을 착용하는 사용자의 음성 명령을 입력할 수 있다. The voice recognition module 614 may input a voice command of the user wearing the smart helmet.

사용자 단말(620)은 스마트폰과 같은 고성능 디바이스를 포함할 수 있으며 제어 모듈(621) 및 변환 모듈(622)이 어플리케이션(Application, App) 형태로 설치될 수 있다. The user terminal 620 may include a high performance device such as a smart phone and the control module 621 and the conversion module 622 may be installed in the form of an application or an application.

제어 모듈(621)은 제어 프로그램을 의미할 수 있으며, 외부 디바이스(630)와 스마트 헬멧(610)간 서비스 제어를 총괄할 수 있다. The control module 621 may refer to a control program and may control the service control between the external device 630 and the smart helmet 610.

변환 모듈(622)은 정보 형태를 변환하는 것으로, 음성명령, 텍스트(text), 데이터(제어 명령(command)) 상호간 변환 처리를 수행할 수 있다. The conversion module 622 converts information types and can perform conversion processing between voice commands, texts, and data (control commands).

외부 디바이스(630)는 가정, 사무실, 공장 등의 원거리에서 사용자의 피제어 대상이 되는 외부 디바이스로, 센서나 스위치, IoT 디바이스 등을 총칭할 수 있다. 외부 디바이스(630)는 센서 모듈(631), 무선 통신 모듈(632), 제어 모듈(633) 및 데이터 저장부(634)를 포함하여 이루어질 수 있다. The external device 630 can be collectively referred to as a sensor, a switch, an IoT device, or the like as an external device to be controlled by a user at a remote place in a home, an office, a factory, The external device 630 may include a sensor module 631, a wireless communication module 632, a control module 633, and a data storage unit 634.

센서 모듈(631)은 다양한 센싱 기능을 제공할 수 있다. 예컨대, 센서 모듈(631)은 온도 및 습도, 가스, 도어 열림 감지, 조도 등을 센싱할 수 있다. The sensor module 631 may provide various sensing functions. For example, the sensor module 631 can sense temperature and humidity, gas, door openness, illumination, and the like.

무선 통신 모듈(632)은 외부 무선 디바이스와의 통신 기능을 제공하는 것으로, 예를 들어 외부의 스마트폰 등의 사용자 단말과 통신할 수 있다. The wireless communication module 632 provides a communication function with an external wireless device, and can communicate with a user terminal such as an external smart phone, for example.

제어 모듈(633)은 센싱 데이터 처리, 무선 통신 등 타 모듈에 대한 제어와 중계 총괄을 수행할 수 있다. The control module 633 can perform control over other modules such as sensing data processing, wireless communication, and relay control.

데이터 저장부(634)는 센싱 데이터나 외부로부터 전송되는 제어 명령을 저장할 수 있다. The data storage unit 634 may store sensing data or control commands transmitted from the outside.

이에 따라 오토바이 등 이륜차를 운전하는 사용자가 주행 중에도 홈 디바이스, 오피스 기기, 공장 내 설비 등 원거리 기기에 대한 상황 정보가 착용 스마트 헬멧의 HUD 창에 간단하게 디스플레이 되고 사용자가 확인 및 제어 가능하다. Accordingly, the situation information of a remote device such as a home device, an office device, and a facility in a factory can be easily displayed on a HUD window of a worn smart helmet while a user driving a motorcycle or the like is running, and can be checked and controlled by the user.

한편, 다른 실시예에 따른 사용자 단말에 설치되는 어플리케이션의 파일을 배포하는 파일 배포 시스템은 사용자 단말의 요청에 따라 파일을 전송하는 파일 전송부를 포함할 수 있다. Meanwhile, a file distribution system for distributing a file of an application installed in a user terminal according to another embodiment may include a file transfer unit for transferring a file at the request of the user terminal.

어플리케이션은 무선 통신에 의해 원거리의 외부 디바이스로부터 상태 정보에 대한 데이터를 수신하고, 스마트 헬멧으로부터 외부 디바이스에 대한 상태 정보 요청 또는 제어에 대한 음성 명령을 수신하는 제어 모듈 및 외부 디바이스로부터 수신된 데이터를 판독 가능한(readable) 텍스트로 변환하고, 스마트 헬멧의 음성 인식 모듈을 통해 인식된 외부 디바이스의 상태 정보 요청에 대한 음성 명령을 텍스트로 변환하거나 외부 디바이스의 제어에 대한 음성 명령을 텍스트로 변환 후 데이터로 재변환시키는 변환 모듈을 포함 할 수 있다. The application includes a control module that receives data on state information from a remote external device by wireless communication, receives a voice command for state information request or control from the smart helmet to the external device, and reads data received from the external device Converts the voice command for the state information request of the external device recognized by the voice recognition module of the smart helmet into text, converts the voice command for control of the external device into text, And a conversion module for converting the input data.

제어 모듈은 외부 디바이스로부터 수신 후 변환된 텍스트를 스마트 헬멧으로 전달하여 외부 디바이스의 정보를 스마트 헬멧의 HUD(Head Up Display)를 통해 영상으로 사용자에게 제공하도록 하며, 외부 디바이스의 제어에 대한 음성 명령을 텍스트로 변환 후 데이터로 재변환시켜 외부 디바이스를 제어하도록 할 수 있다. The control module transmits the text converted from the external device to the smart helmet, thereby providing the information of the external device to the user through the HUD (Head Up Display) of the smart helmet, and a voice command for controlling the external device Converted into text, and converted into data, so that the external device can be controlled.

도 7은 일 실시예에 따른 스마트 헬멧의 원거리 디바이스의 상황 정보 확인을 위한 동작 방법을 나타내는 흐름도이다. 7 is a flowchart illustrating an operation method for confirming status information of a remote device of a smart helmet according to an exemplary embodiment of the present invention.

도 7을 참조하면, 외부 디바이스에서 상태 변화 감지 등으로 사용자한테 상황 정보의 통보 시 스마트 헬멧의 동작 방법을 확인할 수 있다. Referring to FIG. 7, the operation method of the smart helmet can be confirmed when the external device reports the status information to the user by detecting the state change.

단계(701)과 단계(702)에서는 외부 디바이스의 센서를 구동하고, 상황 정보를 수집할 수 있다. 여기에서 상황 정보는 일반적인 변화 혹은 특정 조건의 이상 상황 감지를 포함할 수 있다. In steps 701 and 702, a sensor of an external device may be driven and status information may be collected. The context information may include general change or abnormal situation detection of a specific condition.

단계(703)는, 외부의 디바이스에서 수집된 상황 정보를 제어 모듈을 통해 데이터화하여 저장하고 데이터를 무선통신 모듈을 통해 연동된 사용자 단말(스마트폰 등의 스마트 기기)로 전송할 수 있다. In operation 703, the status information collected from the external device is converted into data through the control module and stored, and the data can be transmitted to the user terminal (smart device such as smart phone) linked through the wireless communication module.

이에 따라 단계(704)에서 사용자 단말은 어플리케이션을 통해 전송 데이터를 수신할 수 있다. Accordingly, in step 704, the user terminal can receive the transmission data through the application.

단계(705)에서 사용자 단말은 수신메시지를 저장하고, 어플리케이션을 통해 스마트 헬멧으로 데이터를 전송해야 하는 경우(자동 전송 혹은 사용자 호출 시) 판독 가능한(readable) 텍스트로 전환하고 전송 대기할 수 있다. 이때 사용자가 자동 전송 항목으로 기설정한 경우 자동 전송이 가능하다. 예를 들어 화재발생 감지 시, 실내 온도/습도 특정 수치 이상 혹은 이하인 경우 등 사용자가 어플리케이션을 통해 설정함에 따라 자동 전송될 수 있다. In step 705, the user terminal may store the received message and may switch to readable text and wait for transmission when data is to be transmitted to the smart helmet through the application (automatic transmission or user call). At this time, if the user sets the automatic transmission item, the automatic transmission is possible. For example, when a fire is detected, the room temperature / humidity is more than or less than a certain value, the user can be automatically transferred according to the setting through the application.

여기에서 사용자 단말은 자동 전송이 설정(706)되어 있는 경우 전환된 판독 가능한(readable) 텍스트를 스마트 헬멧으로 자동 전송하고, 자동 전송이 설정되어 있지 않은 경우 나중에 사용자의 요청(707)에 따라 전환된 판독이 용이한 텍스트를 스마트 헬멧으로 전송(708)할 수 있다. Here, the user terminal automatically transmits the converted readable text to the smart helmet if the automatic transmission is set 706, and if the automatic transmission is not set then the user terminal is switched according to the user's request 707 The text that is easy to read can be transmitted 708 to the smart helmet.

자동 전송이 설정되어 있는 경우, 스마트 헬멧으로 텍스트를 자동 전송하는 예를 보다 구체적으로 설명한다. An example of automatic transmission of text using smart helmets when automatic transmission is set up will be described in more detail.

상황 정보 자동 전송 시, 단계(709)에서 스마트 헬멧은 사용자 단말로부터 자동 전송된 텍스트를 무선 통신 모듈로 수신 받을 수 있다. 그리고 단계(710)에서 스마트 헬멧은 제어 모듈을 통해 수신된 텍스트를 피코 프로젝터로 전달할 수 있다. At the time of automatic transmission of the situation information, the smart helmet may receive the text automatically transmitted from the user terminal in step 709 to the wireless communication module. And in step 710 the smart helmet may forward the text received via the control module to the pico projector.

단계(711)에서 스마트 헬멧의 피코 프로젝터는 전달된 텍스트를 광학 처리 후 영상 출력할 수 있다. 그리고 단계(712)에서 스마트 헬멧의 HUD(Head Up Display)는 피코 프로젝터의 출력 영상을 디스플레이 할 수 있다. 이에 따라 단계(713)에서 이륜차를 운전하는 사용자가 HUD 메시지를 확인할 수 있다.In step 711, the pico projector of the smart helmet may optically process the transmitted text and output the image. In step 712, the head up display (HUD) of the smart helmet can display the output image of the pico projector. Accordingly, the user operating the two-wheeled vehicle in step 713 can confirm the HUD message.

한편, 자동 전송이 설정되어 있지 않은 경우, 사용자가 요청함에 따라 스마트 헬멧으로 텍스트를 전송하는 예를 보다 구체적으로 설명한다. On the other hand, if the automatic transmission is not set, an example of transmitting the text to the smart helmet as requested by the user will be described in more detail.

특정 상황 정보를 사용자가 나중에 요청할 경우, 사용자가 원하는 디바이스의 상황 정보를 음성 메시지로 말함에 따라 스마트 헬멧의 마이크를 통해 음성 메시지를 인식할 수 있다. 예를 들어 사용자는 디바이스, 실내 온도, 실내 습도, 보일러, 에어컨, 가습기 등을 음성 메시지로 말할 수 있고, 스마트 헬멧은 이러한 음성 메시지를 인식할 수 있다. When the user requests the specific situation information later, the user can recognize the voice message through the microphone of the smart helmet by speaking the situation information of the desired device with the voice message. For example, the user can speak the device, the room temperature, the room humidity, the boiler, the air conditioner, the humidifier, etc., and the smart helmet can recognize the voice message.

스마트 헬멧은 음성 인식 모듈을 통해 음성 메시지를 사용자 단말의 어플리케이션으로 전송할 수 있다. 이에 따라 사용자 단말은 어플리케이션을 통해 수신 받은 음성 메시지를 텍스트로 변환하고, 요청하는 상황 정보를 식별할 수 있다. 그리고 해당 상황 정보 데이터를 텍스트로 변환하여 스마트 헬멧으로 전송할 수 있다. The smart helmet can transmit a voice message to the application of the user terminal through the voice recognition module. Accordingly, the user terminal can convert the voice message received through the application into text, and identify the requesting context information. Then, the corresponding situation information data can be converted into text and transmitted to the smart helmet.

그런 다음, 앞에서 설명한 바와 동일하게 단계(709)에서 스마트 헬멧은 사용자 단말로부터 호출한 상황 정보 텍스트를 무선 통신 모듈로 수신 받을 수 있다. 그리고 단계(710)에서 스마트 헬멧은 제어 모듈을 통해 수신된 텍스트를 피코 프로젝터로 전달할 수 있다. Then, in the same manner as described above, in step 709, the smart helmet can receive the context information text called from the user terminal by the wireless communication module. And in step 710 the smart helmet may forward the text received via the control module to the pico projector.

단계(711)에서 스마트 헬멧의 피코 프로젝터는 전달된 텍스트를 광학 처리 후 영상 출력할 수 있다. 그리고 단계(712)에서 스마트 헬멧의 HUD(Head Up Display)는 피코 프로젝터의 출력 영상을 디스플레이 할 수 있다. 이에 따라 단계(713)에서 이륜차를 운전하는 사용자가 HUD 메시지를 확인할 수 있다.In step 711, the pico projector of the smart helmet may optically process the transmitted text and output the image. In step 712, the head up display (HUD) of the smart helmet can display the output image of the pico projector. Accordingly, the user operating the two-wheeled vehicle in step 713 can confirm the HUD message.

도 8은 일 실시예에 따른 스마트 헬멧의 원거리 디바이스의 상황 정보에 대한 제어를 위한 동작 방법을 나타내는 흐름도이다. 8 is a flowchart illustrating an operation method for controlling status information of a remote device of a smart helmet according to an exemplary embodiment of the present invention.

도 8을 참조하면, 사용자가 원거리의 외부 디바이스에 대한 제어를 위해 스마트 헬멧의 동작 방법을 확인할 수 있다. Referring to FIG. 8, the user can confirm the operation method of the smart helmet for controlling the remote device at a distance.

단계(801)에서, 스마트 헬멧은 음성 인식 모듈을 통해 사용자의 음성 메시지를 인식할 수 있다. 예를 들어 스마트 헬멧은 사용자가 보안 카메라 켜짐(on)/꺼짐(off), 가스밸브 켜짐(on)/꺼짐(off) 등을 말함에 따라 음성 메시지를 인식할 수 있다. In step 801, the smart helmet can recognize the user's voice message through the voice recognition module. For example, a smart helmet can recognize a voice message as a user speaks a security camera on / off, a gas valve on / off, and the like.

단계(802)에서, 스마트 헬멧은 음성 인식 모듈을 통해 인식된 음성 메시지를 무선 통신 모듈을 거쳐 사용자 단말의 어플리케이션으로 전송할 수 있다.In step 802, the smart helmet may transmit the voice message recognized through the voice recognition module to the application of the user terminal via the wireless communication module.

이에 따라 단계(803)에서 사용자 단말은 스마트 헬멧으로부터 음성 메시지를 수신할 수 있다. 단계(804)에서 사용자 단말은 수신 받은 음성 메시지를 텍스트로 변환(Speech To text)한 후 다시 데이터(제어 명령)로 변환할 수 있다. 그리고 단계(805)에서, 사용자 단말은 무선 통신 모듈을 통해 외부의 디바이스로 변환된 데이터를 전송할 수 있다.Accordingly, in step 803, the user terminal can receive a voice message from the smart helmet. In step 804, the user terminal may convert the received voice message into text (Speech To Text) and then convert it to data (control command). In step 805, the user terminal can transmit the converted data to the external device through the wireless communication module.

단계(806)에서 디바이스는 무선 통신 모듈을 통해 데이터(제어 명령)를 수신 받을 수 있다. 그리고 단계(807)에서 디바이스는 제어 모듈을 거쳐 제어 신호에 따른 디바이스 혹은 디바이스 내 특정 기능을 동작시킬 수 있다.In step 806, the device may receive data (control command) via the wireless communication module. In step 807, the device can operate the device according to the control signal or the specific function in the device via the control module.

도 9는 일 실시예에 따른 주행 중 HUD를 통한 상태 정보를 디스플레이 하는 예를 나타내는 도면이다. FIG. 9 is a view illustrating an example of displaying status information through the HUD during a driving according to an embodiment.

도 9a는 외부 디바이스(930)와 사용자 단말(920)의 어플리케이션과 스마트 헬멧(910)간 상황 정보 통신을 나타낸다. 9A shows context information communication between the application of the external device 930 and the user terminal 920 and the smart helmet 910.

외부 디바이스(930)는 화재 발생, 설비 오작동, 온도, 습도, 보일러, 에어컨, 가습기 등의 상태 정보를 사용자 단말(920)로 전송할 수 있다. 그리고 사용자 단말(920)는 주행 중인 사용자에게 스마트 헬멧(910)을 통해 알릴 수 있다. The external device 930 can transmit status information of a fire, a facility malfunction, temperature, humidity, boiler, air conditioner, humidifier, etc. to the user terminal 920. The user terminal 920 can inform the user who is driving by using the smart helmet 910.

도 9b는 주행 중 외부 디바이스에 대한 상태 정보를 스마트 헬멧(910)의 HUD(911)를 통해 제공할 수 있다. HUD(911)는 스마트 헬멧(910)을 착용하는 사용자가 눈앞에서 볼 수 있는 영상을 출력할 수 있다. 이때 스마트 헬멧(910)을 착용하는 사용자의 주행 시야에 방해가 되지 않도록 스마트 헬멧(910)의 일측에 영상이 출력되도록 할 수 있다.9B may provide status information on the external device during driving through the HUD 911 of the smart helmet 910. [ The HUD 911 can output an image that a user wearing the smart helmet 910 can see in front of him. At this time, the image can be outputted to one side of the smart helmet 910 so as not to interfere with the running sight of the user wearing the smart helmet 910.

도 10은 일 실시예에 따른 HUD의 상태 정보 디스플레이의 예를 나타내는 도면이다. 10 is a view showing an example of status information display of the HUD according to one embodiment.

도 10에 도시된 바와 같이, 주행 중 외부 디바이스에 대한 상태 정보를 스마트 헬멧의 HUD를 통해 영상으로 제공할 수 있다. As shown in FIG. 10, state information on the external device during driving can be provided as an image through the HUD of the smart helmet.

예를 들어 댁내 화재 발생 시 응급 상황 발생을 알리거나, 실내 온도 확인 시 실내 온도를 표시하고, 보일러(난방) 가동 여부의 확인 시 보일러 켜짐 또는 꺼짐을 나타내고, 전구의 전원 확인 시 전구의 전원의 켜짐 또는 꺼짐을 나타낼 수 있다. For example, when a home fire occurs, an emergency situation is notified. When the room temperature is checked, the room temperature is displayed. When the boiler (heating) is checked, the boiler is turned on or off. Or off.

이와 같이, 실시예들에 따르면 오토바이 등 이륜차를 운전하는 사용자가 주행 중에도 홈 디바이스, 오피스 기기, 공장 내 설비 등 원거리 기기에 대한 상황 정보가 착용 스마트 헬멧의 HUD 창에 간단하게 디스플레이 되고 사용자가 확인 및 제어 가능한 원거리 디바이스의 상태 확인 및 제어 가능한 스마트 헬멧 및 그 동작 방법을 제공할 수 있다.
As described above, according to the embodiments, the situation information of the remote device such as home device, office device, and factory equipment can be easily displayed on the HUD window of the worn smart helmet while the user driving the motorcycle, It is possible to provide a smart helmet capable of checking and controlling the status of a controllable remote device and an operation method thereof.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 컨트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, controller, arithmetic logic unit (ALU), digital signal processor, microcomputer, field programmable array (FPA) A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing apparatus may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device As shown in FIG. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (7)

사용자 단말과 무선 통신으로 연결되는 무선 통신 모듈;
상기 무선 통신 모듈을 통해 원거리의 외부 디바이스의 상태 정보를 상기 사용자 단말을 통해 전달 받는 제어 모듈;
상기 외부 디바이스의 상태 정보를 변환하여 영상을 출력하는 영상 제공부; 및
헬멧을 착용하는 사용자의 전방에 상기 영상을 제공하는 HUD(Head Up Display)
를 포함하는 스마트 헬멧.
A wireless communication module connected to the user terminal by wireless communication;
A control module for receiving status information of a remote device at a remote location via the wireless communication module through the user terminal;
An image providing unit for converting the status information of the external device and outputting an image; And
A head up display (HUD) for providing the image in front of a user wearing a helmet,
Smart helmet containing.
제1항에 있어서,
상기 외부 디바이스의 상태 정보를 가진 데이터가 상기 사용자 단말로 전달되고, 상기 사용자가 상기 사용자 단말을 통해 자동 전송 여부를 설정함에 따라 상기 데이터가 판독 가능한(readable) 텍스트로 변환되어 상기 무선 통신 모듈을 통해 상기 제어 모듈로 전송되거나 전송 대기되며, 자동 전송이 설정되지 않은 경우 상기 사용자의 요청에 따라 전송 대기 상태의 상기 텍스트가 상기 제어 모듈로 전송되는 것
을 특징으로 하는 스마트 헬멧.
The method according to claim 1,
The data having the status information of the external device is transmitted to the user terminal and the data is converted into readable text by setting whether the user automatically transmits the data through the user terminal, The text in the transmission waiting state is transmitted to the control module in response to the request of the user when automatic transmission is not set up
Smart helmet featuring.
제1항에 있어서,
사용자의 음성 명령을 인식하는 음성 인식 모듈
을 더 포함하고,
상기 음성 인식 모듈을 통해 인식된 상기 외부 디바이스의 상태 정보 요청에 대한 상기 음성 명령은 상기 무선 통신 모듈을 통해 상기 사용자 단말로 전달되어, 상기 음성 명령에 따른 상기 사용자 단말에서 수집한 상기 외부 디바이스의 정보를 상기 HUD를 통해 영상으로 상기 사용자에게 제공하도록 하는 것
을 특징으로 하는 스마트 헬멧.
The method according to claim 1,
A voice recognition module for recognizing voice commands of a user
Further comprising:
Wherein the voice command for the status information request of the external device recognized through the voice recognition module is transmitted to the user terminal through the wireless communication module and the information of the external device collected by the user terminal according to the voice command To the user through the HUD as an image
Smart helmet featuring.
제3항에 있어서,
상기 음성 인식 모듈을 통해 인식된 상기 외부 디바이스의 제어에 대한 상기 음성 명령은 상기 무선 통신 모듈을 통해 상기 사용자 단말로 전달되며, 상기 사용자 단말에서 텍스트로 변환 후 제어 명령에 대한 데이터로 재변환되어 상기 외부 디바이스를 동작하도록 하는 것
을 특징으로 하는 스마트 헬멧.
The method of claim 3,
The voice command for control of the external device recognized through the voice recognition module is transferred to the user terminal through the wireless communication module and is re-converted into data for a control command after being converted into text in the user terminal, Operating an external device
Smart helmet featuring.
제1항에 있어서,
상기 영상 제공부는,
상기 사용자 단말로부터 전달받은 상기 외부 디바이스에 대한 텍스트를 광학 처리 후 상기 HUD를 통해 영상을 출력하는 피코 프로젝터(Pico Projector)인 것
을 특징으로 하는 스마트 헬멧.
The method according to claim 1,
The image providing unit,
(Pico Projector) for outputting an image through the HUD after optical processing of the text about the external device received from the user terminal
Smart helmet featuring.
사용자 단말과 무선 통신으로 연결되어 상기 사용자 단말에 수신 또는 저장된 원거리의 외부 디바이스의 상태 정보를 텍스트로 전달 받는 단계;
전달 받은 상기 텍스트를 광학 처리 후 변환하여 피코 프로젝터(Pico Projector)를 통해 영상을 출력하는 단계; 및
헬멧을 착용하는 사용자의 전방의 HUD(Head Up Display)에 상기 영상을 제공하는 단계
를 포함하는 스마트 헬멧의 동작 방법.
Receiving state information of a remote external device connected to the user terminal by wireless communication and received or stored in the user terminal in text form;
Converting the text received through the optical processing and outputting the converted image through a pico projector; And
Providing the image to a Head Up Display (HUD) in front of a user wearing a helmet
Wherein the smart helmet comprises:
스마트 헬멧과 결합되어 제어 단계와 변환 단계를 실행시키기 위하여 컴퓨터 판독가능 매체에 저장된 어플리케이션에 있어서,
상기 제어 단계는, 무선 통신에 의해 원거리의 외부 디바이스로부터 상태 정보에 대한 데이터를 수신하고, 스마트 헬멧으로부터 상기 외부 디바이스에 대한 상태 정보 요청 또는 제어에 대한 음성 명령을 수신하고,
상기 변환 단계는, 상기 외부 디바이스로부터 수신된 상기 데이터를 판독 가능한(readable) 텍스트로 변환하고, 상기 스마트 헬멧의 음성 인식 모듈을 통해 인식된 상기 외부 디바이스의 상태 정보 요청에 대한 음성 명령을 텍스트로 변환하거나 상기 외부 디바이스의 제어에 대한 음성 명령을 텍스트로 변환 후 데이터로 재변환시키며,
상기 제어 단계는,
상기 외부 디바이스로부터 수신 후 변환된 상기 텍스트를 상기 스마트 헬멧으로 전달하여 상기 외부 디바이스의 정보를 상기 스마트 헬멧의 HUD(Head Up Display)를 통해 영상으로 사용자에게 제공하도록 하며, 상기 외부 디바이스의 제어에 대한 음성 명령을 텍스트로 변환 후 데이터로 재변환시켜 상기 외부 디바이스를 제어하도록 하는 것
을 특징으로 하는 컴퓨터 판독가능 매체에 저장된 어플리케이션.
In an application stored in a computer readable medium in combination with a smart helmet for executing a control step and a translation step,
Wherein the controlling step comprises: receiving data on state information from a remote external device by wireless communication; receiving a voice command for state information request or control from the smart helmet to the external device;
Wherein the converting step converts the data received from the external device into readable text and converts the voice command for the status information request of the external device recognized through the voice recognition module of the smart helmet into text Converting the voice command for the control of the external device into text and re-converting it into data,
Wherein the control step comprises:
Transmitting the converted text from the external device to the smart helmet to provide information of the external device to the user through the HUD (Head Up Display) of the smart helmet, Converting the voice command into text and re-converting it into data to control the external device
The application being stored on a computer readable medium.
KR1020170057292A 2017-05-08 2017-05-08 Smart helmet checking and controlling remote device and operating method thereof KR20180123285A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170057292A KR20180123285A (en) 2017-05-08 2017-05-08 Smart helmet checking and controlling remote device and operating method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170057292A KR20180123285A (en) 2017-05-08 2017-05-08 Smart helmet checking and controlling remote device and operating method thereof

Publications (1)

Publication Number Publication Date
KR20180123285A true KR20180123285A (en) 2018-11-16

Family

ID=64565159

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170057292A KR20180123285A (en) 2017-05-08 2017-05-08 Smart helmet checking and controlling remote device and operating method thereof

Country Status (1)

Country Link
KR (1) KR20180123285A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230035165A (en) * 2021-09-03 2023-03-13 한국전력공사 Smart safety helmet and operating method thereof

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230035165A (en) * 2021-09-03 2023-03-13 한국전력공사 Smart safety helmet and operating method thereof
KR20230110232A (en) * 2021-09-03 2023-07-21 한국전력공사 Smart safety helmet
KR20230110463A (en) * 2021-09-03 2023-07-24 한국전력공사 Smart safety helmet

Similar Documents

Publication Publication Date Title
JP6383724B2 (en) Headset computer with hands-free emergency response
JP6419262B2 (en) Headset computer (HSC) as an auxiliary display with ASR and HT inputs
US10013976B2 (en) Context sensitive overlays in voice controlled headset computer displays
JP2018191322A (en) Headset computer capable of enabling and disabling features on the basis of real time image analysis
JP6155622B2 (en) Display device, head-mounted display device, display device control method, and head-mounted display device control method
US9830909B2 (en) User configurable speech commands
JP6492451B2 (en) Head-mounted display device, control method therefor, and computer program
US20150220142A1 (en) Head-Tracking Based Technique for Moving On-Screen Objects on Head Mounted Displays (HMD)
US9588910B2 (en) Electronic apparatus and linked operation method
CN105009202A (en) Bifurcated speech recognition
US9799144B2 (en) Head mounted display, and control method for head mounted display
US10198367B2 (en) Information processing device and method for controlling input/output devices via designated functions
WO2014107186A1 (en) Controlled headset computer displays
KR20180123285A (en) Smart helmet checking and controlling remote device and operating method thereof
US10205990B2 (en) Device for sending or receiving video, method for controlling device, and computer program
US9930474B2 (en) Method and system for integrating wearable glasses to vehicle
KR20130063662A (en) Telematics system using eyewear type terminal
JP2010062970A (en) Monocular head-mounted display device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application