KR20170094527A - Electronic display apparatus, method, and computer readable recoding medium - Google Patents

Electronic display apparatus, method, and computer readable recoding medium Download PDF

Info

Publication number
KR20170094527A
KR20170094527A KR1020170099143A KR20170099143A KR20170094527A KR 20170094527 A KR20170094527 A KR 20170094527A KR 1020170099143 A KR1020170099143 A KR 1020170099143A KR 20170099143 A KR20170099143 A KR 20170099143A KR 20170094527 A KR20170094527 A KR 20170094527A
Authority
KR
South Korea
Prior art keywords
data
auditory
auditory data
electronic output
recognition
Prior art date
Application number
KR1020170099143A
Other languages
Korean (ko)
Inventor
김주윤
김지호
박현철
Original Assignee
주식회사 닷
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 닷 filed Critical 주식회사 닷
Priority to KR1020170099143A priority Critical patent/KR20170094527A/en
Publication of KR20170094527A publication Critical patent/KR20170094527A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/08Devices or methods enabling eye-patients to replace direct visual perception by another kind of perception
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F17/289
    • G06F17/30
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Vascular Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Telephone Function (AREA)

Abstract

Disclosed is an electronic output apparatus comprising: a plurality of protrusions; an input control part controlling to sense auditory data; an analysis part analyzing the auditory data to determine a type of the auditory data, and extracting recognition data corresponding to the auditory data in consideration of the type of the auditory data; a processing part generating first output data corresponding to the recognition data; and an output control part controlling the plurality of protrusions to be driven according to the first output data.

Description

전자 출력 장치, 방법 및 컴퓨터 판독 가능한 기록 매체{ELECTRONIC DISPLAY APPARATUS, METHOD, AND COMPUTER READABLE RECODING MEDIUM}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to an electronic output apparatus, a method, and a computer readable recording medium.

본 발명은 전자 출력 장치, 방법 및 컴퓨터 판독 가능한 기록 매체에 관한 것으로, 보다 구체적으로는 감지된 청각 데이터를 분석하여, 상기 청각 데이터로부터 인식된 인식 데이터를 추출 또는 검색하고, 상기 인식 데이터에 대한 출력 데이터를 복수의 돌기들 또는 진동 모터에 의해 출력될 수 있도록 제어하는 전자 출력 장치, 방법 및 컴퓨터 판독 가능한 기록 매체에 관한 것이다. The present invention relates to an electronic output apparatus, a method, and a computer-readable recording medium. More particularly, the present invention relates to an electronic output apparatus, a method, and a computer-readable recording medium that analyze sensed auditory data, extract or search recognition data recognized from the auditory data, To an electronic output device, a method, and a computer-readable recording medium for controlling data to be output by a plurality of projections or a vibration motor.

현재 IT산업의 발달에 힘입어 종래 피쳐폰 위주의 휴대폰이 스마트폰으로 급격히 대체되고 있다.Thanks to the development of the IT industry, smartphone-based mobile phones are rapidly replacing conventional feature phones.

상기 스마트폰은 기본적인 통화 및 문자 기능을 포함하며, 또한 자체적인 OS와 카메라, GPS, 진동센서 등을 포함하고 있어, 응용프로그램에 따라 매우 다양한 기능을 수행할 수 있는 장점이 있다.The smart phone includes basic communication and character functions, and includes an OS, a camera, a GPS, and a vibration sensor. Thus, the smartphone has a variety of functions according to application programs.

또한, 출력장치는 패널, 스피커, 진동기 등을 포함하므로, 영상 신호, 다양한 소리 신호 및 진동 신호를 출력할 수 있으며, 입력 장치는 통상 터치패널로 구현되어 응용프로그램(앱)의 여부에 따라 역시 매우 다양한 형태의 입력을 처리할 수 있다.Since the output device includes a panel, a speaker, and a vibrator, it can output a video signal, various sound signals, and a vibration signal. The input device is usually implemented as a touch panel, Various types of input can be processed.

한편, 시각 장애인이 상기 스마트폰을 이용하는 경우, 스피커 및 진동기를 통한 출력은 인지할 수 있으나, 스피커 및 진동기를 통한 출력은 전달하고자 하는 정확한 텍스트 및 의미를 전달할 수 없다. On the other hand, when the visually impaired uses the smartphone, the output through the speaker and the vibrator can be recognized, but the output through the speaker and the vibrator can not convey the exact text and meaning to be transmitted.

국내 공개특허공보 제2013-0065887호Korean Patent Laid-Open Publication No. 2013-0065887

본 발명의 실시예들은 입력된 청각 데이터와 대응되는 인식 데이터를 검색 또는 추출하고, 상기 인식 데이터와 대응되는 출력 데이터를 복수의 돌기들 및/또는 진동 모터를 통해 출력하도록 제어하는 전자 출력 장치, 방법 및 컴퓨터 판독 가능한 기록 매체를 제공한다. Embodiments of the present invention provide an electronic output device for searching or extracting recognition data corresponding to inputted auditory data and outputting the output data corresponding to the recognition data through a plurality of projections and / And a computer readable recording medium.

본 발명의 실시예들에 따른 전자 출력 장치는 복수의 돌기들; 청각 데이터를 감지하도록 제어하는 입력 제어부; 상기 청각 데이터를 분석하여, 상기 청각 데이터의 종류를 결정하고, 상기 청각 데이터의 종류를 고려하여, 상기 청각 데이터와 대응되는 인식 데이터를 생성하는 분석부; 상기 인식 데이터와 대응되는 제1 출력 데이터를 생성하는 처리부; 상기 제1 출력 데이터에 따라 복수의 돌기들이 구동될 수 있도록 제어하는 출력 제어부;를 포함할 수 있다. An electronic output device according to embodiments of the present invention includes a plurality of protrusions; An input control unit for controlling to sense auditory data; An analysis unit for analyzing the auditory data to determine a type of the auditory data and generating recognition data corresponding to the auditory data in consideration of the type of the auditory data; A processing unit for generating first output data corresponding to the recognition data; And an output controller for controlling the plurality of protrusions to be driven according to the first output data.

상기 분석부는 상기 청각 데이터의 종류가 사람인 경우, 상기 청각 데이터에 포함되는 텍스트 데이터를 인식 데이터로 생성할 수 있다. The analysis unit may generate text data included in the auditory data as recognition data when the type of the auditory data is a person.

상기 분석부는 상기 청각 데이터에 포함되는 텍스트 데이터를 사용자에 의해 입력된 언어로 번역되고, 번역된 텍스트 데이터를 인식 데이터로 생성할 수 있다. The analyzing unit may translate the text data included in the auditory data into a language input by a user, and generate translated text data as recognition data.

상기 분석부는 상기 청각 데이터의 종류가 악기인 경우, 상기 청각 데이터에 포함되는 음악의 제목을 검색하고, 상기 음악의 제목을 상기 인식 데이터로 생성할 수 있다. If the type of the auditory data is a musical instrument, the analyzing unit may search for a title of the music included in the auditory data, and generate the title of the music as the recognition data.

상기 분석부는 상기 청각 데이터의 종류가 무생물이고, 상기 청각 데이터가 천둥 소리를 포함하는 경우, 상기 인식 데이터로서 상기 청각 데이터와 대응되는 날씨 정보를 검색하고, 상기 날씨 정보를 상기 인식 데이터로 생성할 수 있다. The analyzing unit may search the weather information corresponding to the auditory data as the recognition data when the type of the auditory data is inanimate and the sound data include thunder sound and generate the weather information as the recognition data have.

상기 처리부는 상기 청각 데이터에 포함된 비트와 대응되는 제2 출력 데이터를 생성하고, 상기 전자 출력 장치는 진동 모터; 및 상기 제2 출력 데이터와 대응되는 진동이 발생하도록 하는 진동 모터를 제어하는 진동 제어부;를 더 포함할 수 있다. The processing unit generates second output data corresponding to bits included in the auditory data, the electronic output device comprising: a vibration motor; And a vibration control unit for controlling the vibration motor to generate a vibration corresponding to the second output data.

상기 청각 데이터의 종류는 상기 청각 데이터를 발생시킨 주체를 고려하여 설정될 수 있다. The type of the auditory data may be set in consideration of the subject that generates the auditory data.

상기 분석부는 상기 청각 데이터가 사용자에 의해 설정된 알림음과 대응되는 청각 데이터를 포함하는 경우, 상기 알림음과 대응되는 인식 데이터를 상기 청각 데이터의 인식 데이터로 생성할 수 있다. The analysis unit may generate recognition data corresponding to the notification sound as recognition data of the auditory data when the auditory data includes auditory data corresponding to a notification sound set by the user.

본 발명의 실시예들에 따른 복수의 돌기들; 진동 모터;를 포함하는 전자 출력 장치의 전자 출력 방법은 상기 전자 출력 장치가 청각 데이터를 감지하는 단계; 상기 청각 데이터를 분석하여, 상기 청각 데이터의 종류를 결정하고, 상기 청각 데이터의 종류를 고려하여, 상기 청각 데이터와 대응되는 인식 데이터를 생성하는 단계; 상기 인식 데이터와 대응되는 제1 출력 데이터를 생성하는 단계; 상기 제1 출력 데이터에 따라 복수의 돌기들이 구동될 수 있도록 제어하는 단계;를 포함할 수 있다. A plurality of protrusions according to embodiments of the present invention; An electronic output method of an electronic output apparatus including a vibration motor includes the steps of the electronic output apparatus detecting audible data; Analyzing the auditory data, determining a type of the auditory data, and generating recognition data corresponding to the auditory data in consideration of the type of the auditory data; Generating first output data corresponding to the recognition data; And controlling the plurality of protrusions to be driven according to the first output data.

상기 인식 데이터를 추출하는 단계는 상기 청각 데이터의 종류가 사람인 경우, 상기 청각 데이터에 포함되는 텍스트 데이터를 인식 데이터로 생성할 수 있다. The extracting of the recognition data may generate text data included in the auditory data as recognition data when the type of the auditory data is a person.

상기 분석부는 상기 청각 데이터에 포함되는 텍스트 데이터를 사용자에 의해 입력된 언어로 번역되고, 번역된 텍스트 데이터를 인식 데이터로 생성할 수 있다. The analyzing unit may translate the text data included in the auditory data into a language input by a user, and generate translated text data as recognition data.

상기 인식 데이터를 추출하는 단계는 상기 청각 데이터의 종류가 악기인 경우, 상기 청각 데이터에 포함되는 음악의 제목을 검색하고, 상기 음악의 제목을 상기 인식 데이터로 생성할 수 있다. The step of extracting the recognition data may search the title of the music included in the audio data and generate the title of the music as the recognition data if the type of the audio data is a musical instrument.

상기 인식 데이터를 추출하는 단계는 상기 청각 데이터의 종류가 무생물이고, 상기 청각 데이터가 천둥 소리를 포함하는 경우, 상기 인식 데이터로서 상기 청각 데이터와 대응되는 날씨 정보를 검색하고, 상기 날씨 정보를 상기 인식 데이터로 생성할 수 있다. Wherein the extracting of the recognition data comprises: searching for weather information corresponding to the auditory data as the recognition data when the type of the auditory data is inanimate and the auditory data includes a thunder sound; Data can be generated.

본 발명의 실시예들에 따른 전자 출력 방법은 상기 청각 데이터에 포함된 비트와 대응되는 제2 출력 데이터를 생성하는 단계; 및 상기 제2 출력 데이터와 대응되는 진동이 발생하도록 하는 진동 모터를 제어하는 단계;를 더 포함할 수 있다. An electronic output method according to embodiments of the present invention includes: generating second output data corresponding to bits included in the auditory data; And controlling the vibration motor to cause the vibration corresponding to the second output data to occur.

본 발명의 실시예에 따른 컴퓨터 프로그램은 컴퓨터를 이용하여 본 발명의 실시예에 따른 전자 출력 방법 중 어느 하나의 방법을 실행시키기 위하여 매체에 저장될 수 있다. A computer program according to an embodiment of the present invention may be stored in a medium using a computer to execute any one of the electronic output methods according to an embodiment of the present invention.

이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체가 더 제공된다. In addition to this, another method for implementing the present invention, another system, and a computer-readable recording medium for recording a computer program for executing the method are further provided.

전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해 질 것이다.Other aspects, features, and advantages other than those described above will become apparent from the following drawings, claims, and the detailed description of the invention.

본 발명은 입력된 청각 데이터와 대응되는 인식 데이터를 검색 또는 추출하고, 상기 인식 데이터와 대응되는 출력 데이터를 복수의 돌기들 및 진동 모터를 통해 출력하도록 제어할 수 있다. The present invention can control to search or extract recognition data corresponding to inputted auditory data and to output output data corresponding to the recognition data through a plurality of projections and a vibration motor.

도 1은 본 발명의 실시예들에 따른 전자 출력 장치의 구조를 나타내는 블록도이다.
도 2는 제어부의 구조를 나타내는 블록도이다.
도 3은 출력 제어부 및 출력부의 구조를 나타내는 블록도이다.
도 4는 전자 출력 장치의 다양한 외관을 설명하기 위한 도면이다.
도 5 내지 도 6은 본 발명의 실시예들에 따른 전자 출력 방법을 나타내는 흐름도이다.
도 7 내지 도 8은 전자 출력 장치가 사용되는 예를 설명하기 위한 도면이다.
1 is a block diagram showing the structure of an electronic output apparatus according to embodiments of the present invention.
2 is a block diagram showing the structure of the control unit.
3 is a block diagram showing the structure of the output control unit and the output unit.
4 is a view for explaining various aspects of the electronic output device.
5 to 6 are flowcharts illustrating an electronic output method according to embodiments of the present invention.
7 to 8 are views for explaining an example in which an electronic output device is used.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다. BRIEF DESCRIPTION OF THE DRAWINGS The present invention is capable of various modifications and various embodiments, and specific embodiments are illustrated in the drawings and described in detail in the detailed description. The effects and features of the present invention and methods of achieving them will be apparent with reference to the embodiments described in detail below with reference to the drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein.

이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals refer to like or corresponding components throughout the drawings, and a duplicate description thereof will be omitted .

이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. In the following embodiments, the terms first, second, and the like are used for the purpose of distinguishing one element from another element, not the limitative meaning.

이하의 실시예에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는한, 복수의 표현을 포함한다. In the following examples, the singular forms "a", "an" and "the" include plural referents unless the context clearly dictates otherwise.

이하의 실시예에서, 포함하다 또는 가지다 등의 용어는 명세서 상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징을 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다. In the following embodiments, terms such as inclusive or possessed mean that a feature or element described in the specification is present, and does not exclude the possibility that one or more other features or components are added in advance.

어떤 실시예가 달리 구현 가능한 경우에 특정한 공정 순서는 설명되는 순서와 다르게 수행될 수도 있다. 예를 들어, 연속하여 설명되는 두 공정이 실질적으로 동시에 수행될 수도 있고, 설명되는 순서와 반대의 순서로 진행될 수 있다. If certain embodiments are otherwise feasible, the particular process sequence may be performed differently from the sequence described. For example, two processes that are described in succession may be performed substantially concurrently, and may be performed in the reverse order of the order described.

이하의 실시예에서, "회로"는, 예를 들어, 프로그램가능한 회로에 의해 실행되는 인스트럭션을 저장하는 하드와이어드 회로, 프로그램가능한 회로, 상태 머신 회로, 및/또는 펌웨어를 단독으로 또는 임의의 조합으로 포함할 수 있다. 애플리케이션은 호스트 프로세서 또는 다른 프로그램가능한 회로와 같은 프로그램가능한 회로 상에서 실행될 수 있는 코드 또는 인스트럭션으로서 구현될 수 있다. 본원의 임의의 실시예에서 사용되는 바와 같은, 모듈은,회로로서 구현될 수 있다. 회로는 집적 회로 칩과 같은 집적 회로로서 구현될 수 있다.In the following embodiments, the term "circuit" refers to any circuitry, circuitry, and / or circuitry, including, for example, hardwired circuitry, programmable circuitry, state machine circuitry, and / or firmware that stores instructions executed by a programmable circuit, either alone or in any combination . The application may be implemented as code or instructions that may be executed on a programmable circuit, such as a host processor or other programmable circuit. A module, as used in any of the embodiments herein, may be implemented as a circuit. The circuitry may be implemented as an integrated circuit, such as an integrated circuit chip.

이하의 실시예에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부", "…기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.In the following embodiments, when a component is referred to as "comprising ", it means that it can include other components as well, without excluding other components unless specifically stated otherwise. Also, the terms " part, "" module," and " module ", etc. in the specification mean a unit for processing at least one function or operation and may be implemented by hardware or software or a combination of hardware and software have.

도 1은 본 발명의 실시예에 따른 전자 출력 장치(100)을 나타내는 도면이다. 1 is a diagram showing an electronic output apparatus 100 according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시예에 따른 전자 출력 장치(100)은 통신부(110), 제어부(120), 메모리(130), 입력부(140), 출력부(150)를 포함할 수 있다. 1, an electronic output apparatus 100 according to an embodiment of the present invention may include a communication unit 110, a control unit 120, a memory 130, an input unit 140, and an output unit 150 .

본 발명의 실시예에 따른 전자 출력 장치(100)는 주변의 사람, 동물, 사물 등을 통해 발생하는 청각 데이터를 감지하고, 감지된 청각 데이터에 대한 인식 데이터를 추출하고, 상기 인식 데이터와 대응되는 출력 데이터를 복수의 돌기들 또는 진동 모터를 통해 출력하도록 제어한다. 본 발명의 실시예에 따른 전자 출력 장치(100)는 감지된 청각 데이터에 포함된 텍스트 또는 청각 데이터에 포함된 음악과 관련된 정보인 텍스트가 복수의 돌기들을 통해 출력될 수 있도록 제어하거나, 감지된 청각 데이터의 비트에 따라 진동이 발생하도록 제어할 수 있다. The electronic output apparatus 100 according to the embodiment of the present invention detects auditory data generated through nearby persons, animals, objects, etc., extracts recognition data for sensed auditory data, And controls the output data to be outputted through the plurality of projections or the vibration motor. The electronic output apparatus 100 according to the embodiment of the present invention can control the text to be output through a plurality of protrusions or information that is related to music included in the audible data included in the sensed auditory data, It is possible to control the vibration to occur according to the bit of the data.

다른 실시예에서, 본 발명의 실시예에 따른 전자 출력 장치(100)는 사용자의 단말기와 통신하거나, 사용자의 단말기에서 발생한 소리를 감지함으로써, 사용자 단말기에 의해 수신한 문자 메시지 또는 음성 통화에 대한 알림을 발생시킬 수 있다. 이때 발생하는 알림은 문자 메시지의 내용 또는 음성 통화의 발신 번호, 발신자에 대한 정보를 포함할 수 있다. In another embodiment, the electronic output device 100 according to an embodiment of the present invention may communicate with a user's terminal, or may detect a sound generated by a user's terminal, thereby notifying a user of a text message or voice call received by the user terminal Can be generated. The notification generated at this time may include the contents of the text message or the calling number of the voice call and information about the caller.

다른 실시예에서, 본 발명의 실시예에 따른 전자 출력 장치(100)는 주변에서 발생한 청각 데이터에 포함된 의미를 포함하는 인식 데이터를 추출할 수 있다. 예를 들어, 본 발명의 실시예에 따른 전자 출력 장치(100)는 주변에서 발생한 위험 상황, 날씨의 변화, 사고의 위험성 등을 나타내는 청각 데이터가 감지된 경우, 청각 데이터를 분석하여 청각 데이터로부터의 위험 상황, 날씨의 변화, 사고의 위험성 등을 출력 데이터로 출력하도록 제어할 수 있다. In another embodiment, the electronic output apparatus 100 according to the embodiment of the present invention can extract recognition data including a meaning included in the auditory data generated in the surroundings. For example, when the electronic output apparatus 100 according to the embodiment of the present invention detects audible data indicating a dangerous situation, a change in the weather, a risk of an accident, etc. occurring in the vicinity, A risk situation, a change in weather, a risk of an accident, and the like as output data.

다른 실시예에서, 본 발명의 실시예에 따른 전자 출력 장치(100)는 주변에서 발생한 알림 방송과 같은 청각 데이터를 기억하는 기능을 수행할 수 있다. 본 발명의 실시예에 따른 전자 출력 장치(100)는 주변에서 발생한 알림 방송을 포함하는 청각 데이터에 포함된 텍스트를 출력 데이터로 전환하고, 상기 출력 데이터를 저장하고, 사용자의 요청에 따라 다시 제공되도록 하는 기능을 수행할 수 있다. In another embodiment, the electronic output apparatus 100 according to the embodiment of the present invention can perform a function of storing auditory data such as a news broadcast generated in the vicinity. The electronic output apparatus 100 according to an embodiment of the present invention converts text included in auditory data including notification broadcasts generated in the vicinity into output data, stores the output data, Can be performed.

여기서, 전자 출력 장치(100)는 사용자의 퍼스널 컴퓨터일 수도 있고, 또는 사용자의 휴대용 단말일 수도 있으며, 웹 브라우징이 가능한 애플리케이션을 탑재한 단말은 제한 없이 차용될 수 있다. Here, the electronic output apparatus 100 may be a personal computer of a user or a portable terminal of a user, and a terminal equipped with an application capable of web browsing may be borrowed without limitation.

이를 더욱 상세히 설명하면, 전자 출력 장치(100)는 컴퓨터(예를 들면, 데스크톱, 랩톱, 태블릿 등), 미디어 컴퓨팅 플랫폼(예를 들면, 케이블, 위성 셋톱박스, 디지털 비디오 레코더), 핸드헬드 컴퓨팅 디바이스(예를 들면, PDA, 이메일 클라이언트 등), 핸드폰의 임의의 형태, 또는 다른 종류의 컴퓨팅 또는 커뮤니케이션 플랫폼의 임의의 형태를 포함할 수 있으나, 본 발명이 이에 한정되는 것은 아니다. The electronic output device 100 may be a computer (e.g., a desktop, a laptop, a tablet, etc.), a media computing platform (e.g., a cable, a satellite set top box, a digital video recorder), a handheld computing device (E. G., A PDA, an email client, etc.), any form of mobile phone, or any other type of computing or communication platform, but the invention is not so limited.

통신부(110)는 전자 출력 장치(100)와 외부의 서버(검색 서비스 제공 서버, 포털 서비스 제공 서버, 뉴스 제공 서버 등) 간의 통신을 가능하게 하는 하나 이상의 구성 요소를 포함할 수 있다. 통신부(110)는 전자 출력 장치(100)와 사용자의 휴대폰 간의 통신을 가능하게 하는 하나 이상의 구성 요소를 포함할 수 있다. The communication unit 110 may include one or more components that enable communication between the electronic output apparatus 100 and an external server (a search service providing server, a portal service providing server, a news providing server, and the like). The communication unit 110 may include one or more components that enable communication between the electronic output device 100 and the user's cellular phone.

통신부(110)는 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. The communication unit 110 includes a Bluetooth communication unit, a Bluetooth low energy communication unit, a near field communication unit, a WLAN communication unit, a Zigbee communication unit, an IrDA communication unit, a WFD Wi-Fi Direct) communication unit, UWB (ultra wideband) communication unit, Ant + communication unit, and the like.

여기서, 통신부(110)는 다른 네트워크 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있다. Here, the communication unit 110 may be a device including hardware and software necessary for transmitting / receiving a signal such as a control signal or a data signal through a wired / wireless connection with another network device.

제어부(120)는 통신부(110), 메모리(130), 입력부(140), 출력부(150)의 동작을 전반적으로 제어하는 기능을 수행한다. The control unit 120 controls the operation of the communication unit 110, the memory 130, the input unit 140, and the output unit 150 as a whole.

여기서, 제어부(120)는 프로세서(processor)와 같이 데이터를 처리할 수 있는 모든 종류의 장치를 포함할 수 있다. 여기서, '프로세서(processor)'는, 예를 들어 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 이와 같이 하드웨어에 내장된 데이터 처리 장치의 일 예로써, 마이크로프로세서(microprocessor), 중앙처리장치(central processing unit: CPU), 프로세서 코어(processor core), 멀티프로세서(multiprocessor), ASIC(application-specific integrated circuit), FPGA(field programmable gate array) 등의 처리 장치를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.Here, the control unit 120 may include all kinds of devices capable of processing data, such as a processor. Herein, the term " processor " may refer to a data processing apparatus embedded in hardware, for example, having a circuit physically structured to perform a function represented by a code or an instruction contained in the program. As an example of the data processing apparatus built in hardware, a microprocessor, a central processing unit (CPU), a processor core, a multiprocessor, an application-specific integrated circuit (ASIC) circuit, and a field programmable gate array (FPGA), but the scope of the present invention is not limited thereto.

메모리(130)는 제어부(120)의 처리 및 제어를 위한 프로그램을 저장할 수도 있고, 입/출력되는 데이터들(예컨대, 복수의 메뉴, 복수의 메뉴 각각에 대응하는 복수의 제 1 계층 서브 메뉴, 복수의 제 1 계층 서브 메뉴 각각에 대응하는 복수의 제 2 계층 서브 메뉴 등)을 저장할 수도 있다. The memory 130 may store a program for processing and controlling the control unit 120 and may store data to be input / output (e.g., a plurality of menus, a plurality of first hierarchical submenus corresponding to the plurality of menus, And a plurality of second hierarchical submenus corresponding to the first hierarchical submenu of the second hierarchical submenu).

메모리(130)는 청각 데이터의 종류별 샘플 데이터 및 샘플 데이터의 특징 정보를 미리 저장할 수 있다. 메모리(130)는 감지된 청각 데이터의 특징 정보를 소정의 시간, 예를 들어 1주일 동안 저장할 수 있다. 메모리(130)는 청각 데이터가 감지된 이후 소정의 시간이 경과하면, 상기 청각 데이터를 삭제할 수 있다. The memory 130 can previously store the type-specific sample data of the auditory data and the characteristic information of the sample data. The memory 130 may store the feature information of the sensed auditory data for a predetermined time, for example, one week. The memory 130 may delete the audible data after a predetermined time has elapsed since the audible data was sensed.

메모리(130)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 전자 출력 장치(100)는 인터넷(internet)상에서 메모리(130)의 저장 기능을 수행하는 웹 스토리지(web storage) 또는 클라우드 서버를 운영할 수도 있다.The memory 130 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (e.g., SD or XD memory), a RAM (Random Access Memory) SRAM (Static Random Access Memory), ROM (Read Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory) , An optical disc, and the like. Also, the electronic output apparatus 100 may operate a web storage or a cloud server that performs a storage function of the memory 130 on the Internet.

메모리(130)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 예를 들어, UI 모듈, 터치 스크린 모듈, 알림 모듈 등으로 분류될 수 있다. Programs stored in the memory 130 can be classified into a plurality of modules according to their functions, for example, a UI module, a touch screen module, a notification module, and the like.

입력부(140)는 청각 데이터를 위한 입력하는 마이크로폰을 포함할 수 있다. 마이크로폰은, 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크로폰은 외부 디바이스 또는 화자로부터 음향 신호를 수신할 수 있다. 마이크로폰은 외부의 음향 신호를 입력 받는 과정에서 발생 되는 잡음(noise)를 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다. The input unit 140 may include an input microphone for auditory data. The microphone receives an external acoustic signal and processes it as electrical voice data. For example, the microphone may receive acoustic signals from an external device or speaker. The microphone can use various noise cancellation algorithms to remove noise generated in receiving an external acoustic signal.

출력부(150)는 복수의 돌기들(151) 및 진동모터(152)를 포함할 수 있다. 이에 대한 좀더 상세한 설명은 도 4의 설명에서 하겠다. The output unit 150 may include a plurality of protrusions 151 and a vibration motor 152. A more detailed description thereof will be given in the description of FIG.

도 2는 제어부(120)의 구조를 나타내는 블록도이다. 2 is a block diagram showing the structure of the control unit 120. As shown in FIG.

도 2를 참조하면, 제어부(120)는 입력 제어부(121), 분석부(122), 처리부(123), 출력 제어부(124)를 포함할 수 있다. 2, the control unit 120 may include an input control unit 121, an analysis unit 122, a processing unit 123, and an output control unit 124.

입력 제어부(121)는 청각 데이터를 감지하도록 제어하는 기능을 수행한다. 입력 제어부(121)는 외부의 객체로부터 청각 데이터를 센싱하도록 제어한다. 입력 제어부(121)는 주변에서 발생하는 음악, 음성, 소리 등을 감지할 수 있다. The input control unit 121 performs a function of controlling to sense auditory data. The input control unit 121 controls to sense auditory data from an external object. The input control unit 121 can detect music, voice, sounds, and the like generated in the surroundings.

분석부(122)는 상기 청각 데이터를 분석하여, 상기 청각 데이터의 종류를 결정하고, 상기 청각 데이터의 종류를 고려하여, 상기 청각 데이터와 대응되는 인식 데이터를 추출할 수 있다. 분석부(122)는 감지된 청각 데이터에 포함된 노이즈(noise)를 제거하고, 청각 데이터를 주파수 영역으로 변환하고, 변환한 청각 데이터에 포함된 특징 정보를 추출하고, 특징 정보로부터 청각 데이터를 발생시키는 주체, 예를 들어 사람, 동물, 악기, 및 자동차 등을 결정할 수 있다. 분석부(122)는 사람, 동물, 악기 및 자동차 등으로부터 발생한 소리 데이터의 특징 정보를 미리 저장하고, 저장된 특징 정보들과 청각 데이터의 추출된 특징 정보를 비교함으로써, 청각 데이터의 종류를 결정할 수 있다. 여기서, 청각 데이터의 종류는 청각 데이터를 발생시키는 주체에 따라 설정되며, 사람, 동물, 천둥소리, 사이렌 소리, 카톡 울림, 전화벨 소리 등일 수 있다. 사용자는 청각 데이터인 ‘전화벨 소리’를 전자 출력 장치(100)에 미리 녹음하고, 상기 ‘전화벨 소리’의 특징 정보를 추출하고 저장 할 수 있다. 본 발명의 실시예에 따른 전자 출력 장치(100)는 갖가지 청각 데이터를 미리 녹음하고, 녹음된 하나 이상의 청각 데이터의 특징 정보를 추출하고 각 청각 데이터의 발생 주체 정보와 함께 각 청각 데이터의 특징 정보를 매칭시켜 저장시킬 수 있다. The analysis unit 122 may analyze the auditory data, determine the type of the auditory data, and extract the recognition data corresponding to the auditory data, taking into consideration the type of the auditory data. The analyzer 122 removes noise included in the sensed auditory data, converts the auditory data into a frequency domain, extracts the characteristic information included in the converted auditory data, generates auditory data from the characteristic information For example, a person, an animal, an instrument, an automobile, and the like. The analyzer 122 may previously store the feature information of the sound data generated by a person, an animal, a musical instrument, an automobile, etc., and compare the stored feature information with the extracted feature information of the auditory data to determine the type of the auditory data . Here, the type of the auditory data is set according to the subject generating the auditory data, and may be a person, an animal, a thunder sound, a siren sound, a karaoke sound, a telephone sound, and the like. The user can previously record the 'ringing tone', which is the auditory data, in the electronic output apparatus 100, and extract and store the characteristic information of the 'ringing tone'. The electronic output apparatus 100 according to an embodiment of the present invention records various kinds of auditory data in advance, extracts characteristic information of the recorded one or more auditory data, and generates characteristic information of each auditory data together with subject information of each auditory data Can be matched and stored.

분석부(122)는 청각 데이터의 종류를 고려하여, 상기 청각 데이터와 대응되는 인식 데이터를 추출할 수 있다. 여기서, 청각 데이터의 종류는 청각 데이터를 발생시키는 주체에 따라 다르게 설정될 수 있다. The analyzer 122 can extract the recognition data corresponding to the auditory data in consideration of the type of auditory data. Here, the type of auditory data may be set differently depending on the subject that generates auditory data.

만약 청각 데이터의 종류가 사람이라면, 분석부(122)는 상기 청각 데이터와 대응되는 인식 데이터로서, 청각 데이터에 포함된 텍스트 구간을 추출하고, 음성 인식(voice recognition) 기술을 이용하여 청각 데이터에 포함된 텍스트를 획득할 수 있다. 좀더 구체적으로, 사람의 말소리가 감지된 경우, 분석부(122)는 감지된 사람의 말소리와 대응되는 텍스트를 인식 데이터로 생성할 수 있다. 사람의 노랫소리가 감지된 경우 역시, 분석부(122)는 청각 데이터에 포함된 가사와 대응되는 텍스트를 인식 데이터로 생성할 수 있다. 선택적 실시예에서, 분석부(122)는 상기 청각 데이터와 대응되는 텍스트 데이터를 사용자에 의해 입력된 언어로 번역하고, 번역된 텍스트 데이터를 인식 데이터로 생성할 수 있다. If the type of the auditory data is a person, the analysis unit 122 extracts a text section included in the auditory data as recognition data corresponding to the auditory data, and extracts the text section included in the auditory data using voice recognition technology Text can be obtained. More specifically, when a human speech is detected, the analyzing unit 122 may generate the text corresponding to the detected human speech with recognition data. In the case where a person's song is detected, the analyzer 122 may generate text corresponding to the lyrics included in the auditory data as recognition data. In an alternative embodiment, the analyzer 122 may translate the text data corresponding to the auditory data into the language input by the user, and generate the translated text data as recognition data.

특히, 사람의 음성이 감지된 경우, 분석부(122)는 상기 청각 데이터와 대응되는 텍스트를 추출할 뿐 아니라, 상기 청각 데이터를 발생시킨 사람의 감정, 말의 진위 등도 분석할 수 있다. 화난 사람의 음성이 감지된 경우, 분석부(122)는 상기 청각 데이터와 대응하여, ‘화난 사람’, ‘화가남’과 같은 텍스트를 청각 데이터와 대응되는 인식 데이터로 생성할 수 있다. 슬픈 사람의 음성이 감지된 경우, 분석부(122)는 상기 청각 데이터와 대응하여, ‘슬픈 사람’, ‘슬픔’과 같은 텍스트를 청각 데이터와 대응되는 인식 데이터로 생성할 수 있다. 당황한 사람의 음성이 감지된 경우, 분석부(122)는 상기 청각 데이터와 대응하여, ‘당황한 사람’ 등과 같은 텍스트를 청각 데이터와 대응되는 인식 데이터로 생성할 수 있다. In particular, when a human voice is detected, the analyzer 122 not only extracts the text corresponding to the auditory data, but also analyzes the emotion of the person who generated the auditory data, the authenticity of the utterance, and the like. When the voice of an angry person is detected, the analyzing unit 122 may generate texts such as 'angry person' and 'angry person' as recognition data corresponding to auditory data in correspondence with the auditory data. When a sad person's voice is sensed, the analyzer 122 may generate text such as 'sad person' and 'sadness' as recognition data corresponding to the auditory data, in correspondence with the auditory data. When the voice of the perplexed person is sensed, the analyzer 122 may generate text such as 'perplexed person' or the like as recognition data corresponding to the auditory data, in correspondence with the auditory data.

또한, 버스, 지하철 등에서의 ‘다음 정류장 정보’가 감지된 경우, 분석부(122)는 청각 데이터와 대응하여, 감지된 정류장 정보를 인식 데이터로 생성할 수 있다. 예를 들어, ‘낙성대입구역’과 같은 정류장 이름이 감지되면, 감지된 소리는 발생됨과 동시에 사라지는 것을 방지하기 위해서, 분석부(122)는 청각 데이터와 대응하여, ‘낙성대입구역’을 인식 데이터로 생성할 수 있다. In addition, when 'next stop information' in a bus, a subway, or the like is detected, the analyzing unit 122 can generate sensed stop information as recognition data in correspondence with the auditory data. For example, in order to prevent the sensed sound from being generated and disappear when the name of the stop, such as the 'Naxi Daigaku Gap Zone' is detected, the analysis unit 122 stores the ' Can be generated.

만약 청각 데이터의 종류가 효과음 또는 알림음인 경우, 분석부(122)는 상기 청각 데이터에 포함된 효과음의 의미를 상기 청각 데이터와 대응되는 인식 데이터로서 추출할 수 있다. 예를 들어, 소방차의 사이렌 소리가 감지된 경우, 분석부(122)는 ‘소방차’, ‘불’,‘소방차가 지나간다’등의 텍스트를 인식 데이터로서 생성할 수 있다. 날씨의 변화와 관련된 ‘천둥소리’가 감지된 경우, 분석부(122)는 청각 데이터에 포함된 효과음의 의미인 ‘비’ 또는 ‘비가 내림’ 등의 텍스트를 인식 데이터로 생성할 수 있다. 사람의 비병 소리가 감지된 경우, 분석부(122)는 ‘위험’, ‘비명’ 등과 같은 텍스트를 인식 데이터로 생성할 수 있다. If the type of the auditory data is an effect sound or a notification sound, the analyzer 122 may extract the meaning of the sound effect included in the auditory data as recognition data corresponding to the auditory data. For example, when a siren sound of a fire engine is detected, the analysis unit 122 may generate text such as 'fire engine', 'fire', 'fire truck is passing', and the like as recognition data. When the 'thunder sound' associated with a change in the weather is detected, the analyzer 122 may generate text such as 'rain' or 'rain down', which is the meaning of the sound effect included in the auditory data, as recognition data. When a non-vocal sound of a person is detected, the analyzer 122 may generate text such as 'danger', 'scream', etc. as recognition data.

또한 분석부(122)는 사용자에 의해 알림음으로 설정된 청각 데이터가 감지된 경우, 상기 알림음에 대한 인식 데이터를 상기 청각 데이터의 인식 데이터로 설정할 수 있다. 예를 들어, 사용자가 문자 알림음을 ‘문자 수신’과 대응시켜 저장한 경우, 분석부(122)는 상기 문자 알림음과 일치하는 청각 데이터를 감지하게 되면, ‘문자 수신’을 인식 데이터로 설정할 수 있다. 사용자가 통화 알림음을 ‘전화 수신’과 대응시켜 저장한 경우, 분석부(122)는 상기 통화 알림음과 일치하는 청각 데이터를 감지하게 되면 ‘전화 수신’을 인식 데이터로 설정할 수 있다. The analysis unit 122 may set recognition data for the notification sound as recognition data of the auditory data when auditory data set as a notification sound is sensed by a user. For example, when the user stores the character alert sound in association with 'character receive', the analyzer 122 sets 'character receive' as recognition data when detecting the auditory data corresponding to the character alert sound . When the user stores the call alert sound in correspondence with 'call reception', the analyzer 122 may set 'call reception' as recognition data when it senses auditory data that matches the call alert sound.

다른 실시예에서, 분석부(122)는 음악인 청각 데이터가 감지된 경우, 청각 데이터에 포함된 비트를 추출하고, 청각 데이터에 포함된 비트에 따라 진동 데이터를 생성할 수 있다. In another embodiment, the analysis unit 122 may extract the bits included in the auditory data and generate the vibration data according to the bits included in the auditory data, when the auditory data, which is music, is sensed.

분석부(122)는 감지된 청각 데이터의 종류가 악기, 연주인 경우, 청각 데이터의 특징 정보를 추출하고, 상기 특징 정보를 고려하여, 상기 악기에 의해 생성된 청각 데이터의 제목을 검색할 수 있다. 분석부(122)는 감지된 청각 데이터의 제목을 획득하기 위해서, 외부의 검색 서비스 제공 서버(미도시)로 접속할 수 있다. The analysis unit 122 may extract the feature information of the auditory data and search for the title of the auditory data generated by the musical instrument in consideration of the feature information if the type of the sensed auditory data is musical instrument or performance. The analyzer 122 can access an external search service providing server (not shown) to acquire the title of the sensed auditory data.

선택적 실시예에서, 분석부(122)는 청각 데이터와 대응되는 인식 데이터를 생성하고, 상기 인식 데이터에 대한 상세 정보를 검색할 수 있다. 분석부(122)는 청각 데이터와 대응되는 인식 데이터인 ‘비’, ‘소방차’, ‘낙성대입구역’ 등을 생성하고, 상기 인식 데이터를 포털 서버, 검색 서버 등에 전송함으로써, 상기 인식 데이터에 대한 뉴스 등의 상세 정보를 검색할 수 있다. In an alternative embodiment, the analyzer 122 may generate recognition data corresponding to the auditory data and may retrieve detailed information about the recognition data. The analysis unit 122 generates recognition data corresponding to the auditory data such as 'rain', 'fire truck', 'nagyeongdae entrance zone', and transmits the recognition data to a portal server, a search server, News, and the like.

처리부(123)는 상기 청각 데이터와 대응하는 인식 데이터와 대응되는 제1 출력 데이터를 생성할 수 있다. 여기서, 제1 출력 데이터는 인식 데이터에 포함되는 하나 이상의 텍스트를 나타내는 데이터로서, 텍스트를 표현하는 점자 데이터를 포함할 수 있다. The processing unit 123 may generate first output data corresponding to the recognition data corresponding to the auditory data. Here, the first output data may include braille data expressing text as data representing one or more text included in recognition data.

처리부(123)는 청각 데이터를 통해 획득된 인식 데이터가 복수의 돌기들 및/또는 진동 모터를 통해 전달될 수 있도록 제1 출력 데이터를 생성할 수 있다. 처리부(123)는 청각 데이터를 통해 획득된 인식 데이터의 텍스트가 각각 6개의 돌기들을 포함하는 하나의 셋트의 돌기를 통해 표시될 수 있도록 제1 출력 데이터를 생성할 수 있다. The processing unit 123 may generate the first output data so that the recognition data obtained through the auditory data can be transmitted through the plurality of projections and / or the vibration motor. The processing unit 123 can generate the first output data so that the text of the recognition data obtained through the auditory data can be displayed through one set of projections each including six projections.

제1 출력 데이터는 인식 데이터의 각 텍스트에 따라 제1 내지 제6 돌기의 높이, 돌출 여부, 돌출 시간, 돌출 주기 등을 제어하는 데이터를 말할 수 있다. 본 발명의 실시예에 따른 전자 출력 장치(100)는 6의 배수의 개수만큼의 돌기를 포함할 수 있고, 처리부(123)에 의해 생성된 제1 출력 데이터는 하나 이상의 돌기의 셋트의 높이, 돌출 여부, 돌출 시간, 돌출 주기 등을 제어하는 데이터 일 수 있다. The first output data may refer to data for controlling height, protrusion, protrusion time, protrusion period, etc. of the first through sixth protrusions according to each text of the recognition data. The electronic output apparatus 100 according to an embodiment of the present invention may include as many protrusions as the number of multiples of six and the first output data generated by the processing section 123 may include a height of a set of one or more protrusions, The protrusion time, the protrusion period, and the like.

처리부(123)는 인식 데이터의 비트에 따라 진동 모터의 진동 시간, 진동 세기, 진동 주파수 등을 제어하는 제2 출력 데이터를 생성할 수 있다. 제2 출력 데이터는 청각 데이터의 비트에 따라 진동이 발생하고, 청각 데이터의 주파수, 세기 등에 따라 진동 모터의 진동 시간, 진동 세기, 진동 주파수 등을 제어하도록 할 수 있다. The processing unit 123 may generate second output data for controlling the vibration time, vibration intensity, vibration frequency, etc. of the vibration motor according to the bit of the recognition data. The second output data generates vibration according to the bit of the auditory data, and can control the vibration time, vibration intensity, vibration frequency, etc. of the vibration motor according to the frequency, intensity, and the like of the auditory data.

예를 들어, 비트와 가사를 포함하는 청각 데이터를 감지한 경우, 처리부(123)는 청각 데이터의 가사에 따라 텍스트가 표현되도록 제어하는 제1 출력 데이터 및 청각 데이터의 비트에 따라 진동이 발생하도록 제어하는 제2 출력 데이터를 생성할 수 있다. For example, when detecting auditory data including bits and lyrics, the processing unit 123 controls the first output data to control the text to be represented according to the lyrics of the auditory data, The second output data can be generated.

이를 통해, 본 발명의 실시예들에 따른 전자 출력 장치(100)는 감지된 청각 데이터와 관련된 정보, 위험, 상황, 환경 등을 사용자에게 전달할 수 있다. Accordingly, the electronic output apparatus 100 according to the embodiments of the present invention can transmit information, danger, situation, environment, and the like related to the sensed auditory data to the user.

사람의 비명 소리가 감지된 경우, 본 발명의 실시예들에 따른 전자 출력 장치(100)는 주변에서 비명 소리가 났다는 사실을 돌기들을 통해 표현될 수 있도록 한다. 말 소리가 감지된 경우, 본 발명의 실시예들에 따른 전자 출력 장치(100)는 말 소리에 포함된 텍스트가 돌기들을 통해 표현될 수 있도록 한다. 음악 소리가 감지된 경우, 본 발명의 실시예들에 따른 전자 출력 장치(100)는 음악에 포함된 비트에 따른 진동이 발생 할 수 있도록 할 수도 있다. When a screaming sound of a person is detected, the electronic output device 100 according to the embodiments of the present invention allows the fact that the screaming has occurred in the vicinity through the protrusions. When the speech sounds are detected, the electronic output apparatus 100 according to the embodiments of the present invention allows the text included in the speech sounds to be expressed through the projections. When the music sound is detected, the electronic output apparatus 100 according to the embodiments of the present invention may cause the vibration according to the bits included in the music to occur.

출력 제어부(124)는 상기 출력 데이터에 따라 복수의 돌기들 및/또는 진동 모터가 구동될 수 있도록 제어하는 기능을 수행한다. The output controller 124 controls the plurality of projections and / or the vibration motor to be driven according to the output data.

본 발명의 실시예들에 따른 전자 출력 장치(100)는 사용자에 의해 설정된 중요 데이터와 대응되는 청각 데이터를 감시, 모니터링 하는 중요 데이터 처리부(125)를 더 포함할 수 있다. The electronic output apparatus 100 according to the embodiments of the present invention may further include a critical data processing unit 125 for monitoring and monitoring auditory data corresponding to important data set by the user.

중요 데이터 처리부(125)는 사용자가 잊지 않고 감시해야 하는 청각 데이터를 감시 또는 모니터링하는 기능을 수행한다. 중요 데이터 처리부(125)는 사용자에 의해 미리 저장된 중요 데이터와 대응되는 청각 데이터가 감지되는지 여부를 감시 또는 모니터링(monitoring)할 수 있다. 중요 데이터 처리부(125)는 사용자에 의해 중요 데이터인 텍스트 또는 소리, 사운드, 음성 등이 저장될 수 있도록 제어한다. 중요 데이터 처리부(125)는 사용자에 의해 가까운 사이의 사람의 이름, 목소리 자체를 저장하고, 저장된 이름과 대응되는 청각 데이터가 감지되거나, 사람의 목소리와 대응되는 청각 데이터가 감지되는지 여부를 감시할 수 있다. 중요 데이터 처리부(125)는 사용자에 의해 목적지 역을 저장하고, 상기 목적지 역과 대응되는 청각 데이터가 감지되는지 여부를 감시할 수 있다. 이를 통해, 본 발명의 실시예들에 따른 전자 출력 장치(100)는 대중 교통 수단을 이용하여 이동하기 전에 목적지를 중요 데이터로 설정할 수 있고, 목적지에 다다른 경우, 사용자가 잊지 않고 하차할 수 있도록 도와줄 수 있다. The important data processing unit 125 performs a function of monitoring or monitoring auditory data that the user should forget to monitor. The important data processing unit 125 may monitor or monitor whether or not the auditory data corresponding to the important data stored in advance by the user is sensed. The important data processing unit 125 controls the user to store important data such as text, sound, sound, and voice. The important data processing unit 125 stores the name of the person and the voice itself which are close to each other by the user and can monitor whether or not the hearing data corresponding to the stored name is detected or the auditory data corresponding to the voice of the person is detected have. The important data processing unit 125 may store the destination region by the user and monitor whether or not the auditory data corresponding to the destination region is detected. Accordingly, the electronic output apparatus 100 according to the embodiments of the present invention can set the destination as important data before moving using the public transportation means, and when the destination is different from the destination, I can help you.

도 3은 출력 제어부(124) 및 출력부(150)의 구조 및 동작을 설명하기 위한 도면이다. 3 is a diagram for explaining the structure and operation of the output control unit 124 and the output unit 150. As shown in FIG.

도 3에 도시된 바와 같이, 출력 제어부(124)는 돌기 제어부(1241), 및 진동 제어부(1242)를 포함하고, 출력부(150)는 제1 돌기(151a), 제2 돌기(151b), 제3 돌기(151c), 제4 돌기(151d), 제5 돌기(151e), 제6 돌기(151f) 및 진동 모터(152)를 포함할 수 있다. 3, the output control unit 124 includes a protrusion control unit 1241 and a vibration control unit 1242. The output unit 150 includes a first protrusion 151a, a second protrusion 151b, And may include a third projection 151c, a fourth projection 151d, a fifth projection 151e, a sixth projection 151f, and a vibration motor 152.

돌기 제어부(1241)은 처리부(123)에 의해 생성된 제1 출력 데이터에 따라 돌기들(151)이 구동될 수 있도록 제어한다. The protrusion control unit 1241 controls the protrusions 151 to be driven according to the first output data generated by the processing unit 123. [

여기서 복수개의 돌기들(151)은 예를 들어, 가로 2열 세로 3행으로 구성될 수 있다. 도 3에서는 설명의 편의를 위해서, 6개의 돌기들을 포함하는 경우를 도시하였으나, 6개의 배수 만큼의 돌기들(12개, 18개, 24 개 등)을 포함할 수 있다. 진동 제어부(1242)는 처리부(123)에 의해 생성된 제2 출력 데이터에 따라 진동이 발생할 수 있도록 진동 모터(152)를 제어한다. 복수개의 돌기(151)은 돌기 제어부(1241)과 전기적으로 연결되어 있고, 돌기 제어부(1241)은 처리부(123)로부터 제1 출력 데이터를 수신 받아 선택된 하나 이상의 돌기(151)를 직선 운동시킬 수 있다. 여기선 선택된 돌기는 선택되지 않은 돌기 보다 더 상승되는 위치로 직선 이동될 수 있다.Here, the plurality of protrusions 151 may be, for example, two rows long and three rows long. In FIG. 3, six protrusions are shown for the sake of convenience. However, the protrusions may include six protrusions (12, 18, 24, etc.). The vibration control unit 1242 controls the vibration motor 152 to generate vibration according to the second output data generated by the processing unit 123. [ The plurality of protrusions 151 are electrically connected to the protrusion control unit 1241 and the protrusion control unit 1241 may receive the first output data from the processing unit 123 and linearly move the selected one or more protrusions 151 . Here, the selected protrusion can be moved linearly to a position that is higher than the unselected protrusion.

진동 모터(152)는 진동 신호를 출력할 수 있다. 예를 들어, 진동 모터(152)는 제2 출력 데이터에 대응하는 진동 신호를 출력할 수 있다. The vibration motor 152 can output a vibration signal. For example, the vibration motor 152 may output a vibration signal corresponding to the second output data.

도 4은 본 발명의 일 실시 예에 따른 전자 출력 장치의 외관을 개략적으로 설명하기 위하여 도시한 도면이다.4 is a schematic view for explaining an appearance of an electronic output device according to an embodiment of the present invention.

도 4a를 참조하면, 돌기들(151) 및 진동모터(152)를 포함하는 독립적인 전자 출력 장치(100)의 외관을 도시하고 있으며, 시계줄을 포함하는 스마트 시계 형식으로 구현되어 있다. 스마트 시계로 구현된 전자 출력 장치(100) 내부에는 처리부(123) 및 출력 제어부(124)가 구비되어 있다. 이러한 전자 출력 장치(100)는 돌기(151)의 직선운동에 의해 제1 출력 데이터를 표시하는 브레일 디스플레이 기기 일 수 있다. 도 10a에 도시된 전자 출력 장치(100)는 사용자가 손으로 직접 돌기(151)를 접촉하여 청각 데이터와 대응되는 출력 데이터를 인식할 수 있다.Referring to FIG. 4A, the external appearance of the independent electronic output device 100 including the protrusions 151 and the vibration motor 152 is shown in a smart clock format including a wristband. A processing unit 123 and an output control unit 124 are provided in the electronic output device 100 implemented as a smart clock. The electronic output device 100 may be a braille display device that displays first output data by linear movement of the projection 151. [ The electronic output apparatus 100 shown in FIG. 10A can recognize the output data corresponding to the auditory data by touching the protrusion 151 directly by the user.

도 4b를 참조하면, 스마트 폰과 연동되는 스마트 시계로써의 사용자 단말기와 돌기들(151) 및 진동모터(152)를 포함하는 전자 출력 장치(100)가 결합된 외관을 도시하고 있다. 도 4b의 경우 스마트 시계의 상부는 유기 발광 디스플레이 유닛, 무기 발광 디스플레이 유닛 또는 액정 디스플레이 유닛 중 하나로 구현되어 있고, 스마트 시계의 하부는 전자 출력 장치(100)의 돌기(151)가 구현될 수 있음을 도시하고 있다. 도 4b에 도시된 전자 출력 장치(100)와 결합된 스마트 시계로써의 사용자 단말기의 경우 사용자가 스마트 시계를 착용한 신체의 일부분이 돌기(151)의 직선운동을 감지하여 청각 데이터와 대응되는 출력 데이터를 인식할 수 있다.Referring to FIG. 4B, there is shown an external view of a user terminal as a smart watch interlocked with a smartphone, and an electronic output device 100 including the protrusions 151 and the vibration motor 152. 4B, the upper part of the smart watch is implemented as one of the organic light emitting display unit, the inorganic light emitting display unit or the liquid crystal display unit, and the lower part of the smart clock can be implemented as the projection 151 of the electronic output device 100 Respectively. In the case of the user terminal as the smart watch combined with the electronic output device 100 shown in FIG. 4B, a portion of the user wearing the smart watch senses the linear motion of the protrusion 151 and outputs output data corresponding to the auditory data Can be recognized.

도 4c를 참조하면, 스마트 폰과 연동되는 스마트 시계로써의 사용자 단말기와 돌기들(151) 및 진동모터(152)를 포함하는 전자 출력 장치(100)가 결합된 외관을 도시하고 있다. 도 4c의 경우 스마트 시계의 상부에 디스플레이 유닛과 전자 출력 장치(100)의 돌기(151)가 구현될 수 있음을 도시하고 있다. 도 4c에 도시된 전자 출력 장치(100)와 결합된 스마트 시계로써의 사용자 단말기(T1)의 경우 사용자가 손으로 직접 돌기(151)를 접촉하여 청각 데이터와 대응되는 출력 데이터를 인식할 수 있다. Referring to FIG. 4C, there is shown an external view of a user terminal as a smart watch interlocked with a smart phone, and an electronic output device 100 including the projections 151 and the vibration motor 152. 4C shows that the display unit and the projection 151 of the electronic output apparatus 100 can be implemented on the upper part of the smart clock. In the case of the user terminal T1 as the smart watch combined with the electronic output apparatus 100 shown in FIG. 4C, the user can directly touch the protrusion 151 by hand to recognize output data corresponding to the auditory data.

도 4d를 참조하면, 스마트 폰으로써의 사용자 단말기와 돌기들(151) 및 진동모터(152)를 포함하는 전자 출력 장치(100)가 결합된 외관을 도시하고 있다. Referring to FIG. 4D, a user terminal as a smartphone and an electronic output device 100 including the protrusions 151 and the vibration motor 152 are shown.

도 5 내지 도 6는 본 발명의 실시예들에 따른 전자 출력 방법을 나타내는 흐름도이다. 5 to 6 are flowcharts illustrating an electronic output method according to embodiments of the present invention.

도 5를 참조하면, 본 발명의 실시예들에 따른 전자 출력 방법은 청각 데이터를 감지하는 단계(S110), 인식 데이터를 추출하는 단계(S120), 출력 데이터를 생성하는 단계(S130), 돌기들 및 진동 모터를 구동하는 단계(S140)를 포함할 수 있다. Referring to FIG. 5, an electronic output method according to embodiments of the present invention includes a step S110 of sensing auditory data, a step S120 of extracting recognition data, a step S130 of generating output data, And driving the vibration motor (S140).

S110에서는 전자 출력 장치(100)는 청각 데이터를 감지하도록 제어하는 기능을 수행한다. 전자 출력 장치(100)는 외부의 객체로부터 청각 데이터를 센싱하도록 제어한다. 전자 출력 장치(100)는 주변에서 발생하는 음악, 음성, 소리 등을 감지할 수 있다. In step S110, the electronic output apparatus 100 performs a function of controlling the audible data to be sensed. The electronic output apparatus 100 controls to sense auditory data from an external object. The electronic output apparatus 100 can detect music, sound, sound, and the like generated in the surroundings.

S120에서는 전자 출력 장치(100)는 상기 청각 데이터를 분석하여, 상기 청각 데이터의 종류를 결정하고, 상기 청각 데이터의 종류를 고려하여, 상기 청각 데이터와 대응되는 인식 데이터를 추출할 수 있다. 전자 출력 장치(100)는 감지된 청각 데이터에 포함된 노이즈(noise)를 제거하고, 청각 데이터를 주파수 영역으로 변환하고, 변환한 청각 데이터에 포함된 특징 정보를 추출하고, 특징 정보로부터 청각 데이터를 발생시키는 주체, 예를 들어 사람, 동물, 악기, 및 자동차 등을 결정할 수 있다. 전자 출력 장치(100)는 사람, 동물, 악기 및 자동차 등으로부터 발생한 소리 데이터의 특징 정보를 미리 저장하고, 저장된 특징 정보들과 청각 데이터의 추출된 특징 정보를 비교함으로써, 청각 데이터의 종류를 결정할 수 있다. 여기서, 청각 데이터의 종류는 청각 데이터를 발생시키는 주체에 따라 설정되며, 사람, 동물, 천둥소리, 사이렌 소리, 카톡 울림, 전화벨 소리 등일 수 있다. 전자 출력 장치(100)는 청각 데이터의 종류를 고려하여, 상기 청각 데이터와 대응되는 인식 데이터를 추출할 수 있다. 만약 청각 데이터의 종류가 사람이라면, 전자 출력 장치(100)는 상기 청각 데이터와 대응되는 인식 데이터로서, 청각 데이터에 포함된 텍스트 구간을 추출하고, 음성 인식(voice recognition) 기술을 이용하여 청각 데이터에 포함된 텍스트를 획득할 수 있다. 좀더 구체적으로, 사람의 말소리가 감지된 경우, 전자 출력 장치(100)는 감지된 사람의 말소리와 대응되는 텍스트를 인식 데이터로 생성할 수 있다. 사람의 노랫소리가 감지된 경우 역시, 전자 출력 장치(100)는 청각 데이터에 포함된 가사와 대응되는 텍스트를 인식 데이터로 생성할 수 있다. 특히, 사람의 음성이 감지된 경우, 전자 출력 장치(100)는 상기 청각 데이터와 대응되는 텍스트를 추출할 뿐 아니라, 상기 청각 데이터를 발생시킨 사람의 감정, 말의 진위 등도 분석할 수 있다. 화난 사람의 음성이 감지된 경우, 전자 출력 장치(100)는 상기 청각 데이터와 대응하여, ‘화난 사람’, ‘화가남’과 같은 텍스트를 청각 데이터와 대응되는 인식 데이터로 생성할 수 있다. 슬픈 사람의 음성이 감지된 경우, 전자 출력 장치(100)는 상기 청각 데이터와 대응하여, ‘슬픈 사람’, ‘슬픔’과 같은 텍스트를 청각 데이터와 대응되는 인식 데이터로 생성할 수 있다. 당황한 사람의 음성이 감지된 경우, 전자 출력 장치(100)는 상기 청각 데이터와 대응하여, ‘당황한 사람’ 등과 같은 텍스트를 청각 데이터와 대응되는 인식 데이터로 생성할 수 있다. In S120, the electronic output apparatus 100 may analyze the auditory data, determine the type of the auditory data, and extract recognition data corresponding to the auditory data, taking into consideration the type of the auditory data. The electronic output apparatus 100 removes noise included in the sensed auditory data, converts the auditory data into a frequency domain, extracts the characteristic information included in the converted auditory data, and extracts auditory data from the characteristic information For example, a person, an animal, a musical instrument, and an automobile. The electronic output apparatus 100 may store feature information of sound data generated by a person, an animal, a musical instrument, an automobile, etc., and compare the stored feature information with extracted feature information of the auditory data to determine the type of auditory data have. Here, the type of the auditory data is set according to the subject generating the auditory data, and may be a person, an animal, a thunder sound, a siren sound, a karaoke sound, a telephone sound, and the like. The electronic output apparatus 100 can extract the recognition data corresponding to the auditory data in consideration of the type of auditory data. If the type of the auditory data is a person, the electronic output apparatus 100 extracts a text section included in the auditory data as recognition data corresponding to the auditory data, and extracts a text section included in the auditory data You can get embedded text. More specifically, when a human speech is sensed, the electronic output apparatus 100 can generate text corresponding to the sensed person's speech as recognition data. In the case where a person's melody is detected, the electronic output device 100 can generate text corresponding to the melody included in the auditory data as recognition data. In particular, when a human voice is sensed, the electronic output device 100 not only extracts the text corresponding to the auditory data, but also analyzes the emotion and the authenticity of the person who generated the auditory data. When the voice of the angry person is detected, the electronic output device 100 can generate text such as 'angry person' and 'angry person' as recognition data corresponding to the auditory data in correspondence with the auditory data. When a sad person's voice is sensed, the electronic output device 100 may generate text such as 'sad person' or 'sadness' as recognition data corresponding to the auditory data, in correspondence with the auditory data. When the voice of the perplexed person is sensed, the electronic output apparatus 100 can generate text such as 'perplexed person' or the like as recognition data corresponding to the auditory data in correspondence with the auditory data.

또한, 버스, 지하철 등에서의 다음 정류장 정보이 감지된 경우, 전자 출력 장치(100)는 청각 데이터와 대응하여, 감지된 정류장 정보를 인식 데이터로 생성할 수 있다. 예를 들어, ‘낙성대입구역’과 같은 정류장 이름이 감지되면, 감지된 소리는 발생됨과 동시에 사라지는 것을 방지하기 위해서, 전자 출력 장치(100)는 청각 데이터와 대응하여, ‘낙성대입구역’을 인식 데이터로 생성할 수 있다. When the next stop information in the bus, subway, or the like is sensed, the electronic output device 100 can generate the sensed stop information as recognition data in association with the auditory data. For example, in order to prevent a sensed sound from being generated and disappear when the name of a stop, such as the 'Naxi-Dae-dae Entering Zone' is sensed, the electronic output device 100 recognizes the ' Data can be generated.

만약 청각 데이터의 종류가 효과음 또는 알림음이라면, 전자 출력 장치(100)는 상기 청각 데이터에 포함된 효과음의 의미를 상기 청각 데이터와 대응되는 인식 데이터로서 추출할 수 있다. 예를 들어, 소방차의 사이렌 소리가 감지된 경우, 전자 출력 장치(100)는 ‘소방차’, ‘불’,‘소방차가 지나간다’등의 텍스트를 인식 데이터로서 생성할 수 있다. 천둥소리가 감지된 경우, 전자 출력 장치(100)는 청각 데이터에 포함된 효과음의 의미인 ‘비’ 또는 ‘비가 내림’ 등의 텍스트를 인식 데이터로 생성할 수 있다. 사람의 비병 소리가 감지된 경우, 전자 출력 장치(100)는 ‘위험’, ‘비명’ 등과 같은 텍스트를 인식 데이터로 생성할 수 있다. 다른 실시예에서, 전자 출력 장치(100)는 감지된 청각 데이터의 종류가 음악인 경우, 청각 데이터에 포함된 비트를 추출하고, 청각 데이터에 포함된 비트에 따라 진동 데이터를 생성할 수 있다. 전자 출력 장치(100)는 감지된 청각 데이터의 종류가 음악인 경우, 청각 데이터의 특징 정보를 추출하고, 상기 특징 정보를 고려하여, 음악의 제목을 검색할 수 있다. 전자 출력 장치(100)는 감지된 청각 데이터의 제목을 획득하기 위해서, 외부의 검색 서비스 제공 서버(미도시)로 접속할 수 있다. 선택적 실시예에서, 전자 출력 장치(100)는 청각 데이터와 대응되는 인식 데이터를 생성하고, 상기 인식 데이터에 대한 상세 정보를 검색할 수 있다. 전자 출력 장치(100)는 청각 데이터와 대응되는 인식 데이터인 ‘비’, ‘소방차’, ‘낙성대입구역’ 등을 생성하고, 상기 인식 데이터를 포털 서버, 검색 서버 등에 전송함으로써, 상기 인식 데이터에 대한 뉴스 등의 상세 정보를 검색할 수 있다.If the type of the auditory data is an effect sound or a notification sound, the electronic output apparatus 100 can extract the meaning of the sound effect included in the auditory data as recognition data corresponding to the auditory data. For example, when a siren sound of a fire truck is detected, the electronic output apparatus 100 can generate text such as 'fire engine', 'fire', 'fire engine passes', and the like as recognition data. When a thunder sound is detected, the electronic output apparatus 100 can generate text such as 'rain' or 'rain down', which is a meaning of sound effects included in the auditory data, as recognition data. When a non-vocal sound of a person is detected, the electronic output apparatus 100 can generate text such as 'danger', 'scream', or the like as recognition data. In another embodiment, when the type of sensed auditory data is music, the electronic output apparatus 100 may extract the bits included in the auditory data and generate the vibration data according to the bits included in the auditory data. When the type of audible data sensed by the electronic output apparatus 100 is music, the electronic output apparatus 100 can extract the feature information of the auditory data and search for the title of the music in consideration of the feature information. The electronic output apparatus 100 can be connected to an external search service providing server (not shown) to obtain the title of the sensed auditory data. In an alternative embodiment, the electronic output device 100 may generate recognition data corresponding to auditory data and may retrieve detailed information about the recognition data. The electronic output apparatus 100 generates recognition data corresponding to the auditory data such as 'rain', 'fire truck', 'nunseongdae entrance zone' and the like, and transmits the recognition data to a portal server, a search server, The user can search detailed information such as news about the user.

S130에서는 전자 출력 장치(100)는 상기 청각 데이터와 대응하는 인식 데이터와 대응되는 제1 출력 데이터를 생성할 수 있다. 여기서, 제1 출력 데이터는 인식 데이터에 포함되는 하나 이상의 텍스트를 나타내는 데이터로서, 텍스트를 표현하는 점자 데이터를 포함할 수 있다. In step S130, the electronic output apparatus 100 can generate first output data corresponding to recognition data corresponding to the auditory data. Here, the first output data may include braille data expressing text as data representing one or more text included in recognition data.

전자 출력 장치(100)는 청각 데이터를 통해 획득된 인식 데이터가 복수의 돌기들 및/또는 진동 모터를 통해 전달될 수 있도록 제1 출력 데이터를 생성할 수 있다. 전자 출력 장치(100)는 청각 데이터를 통해 획득된 인식 데이터의 텍스트가 각각 6개의 돌기들을 포함하는 하나의 셋트의 돌기를 통해 표시될 수 있도록 제1 출력 데이터를 생성할 수 있다. 전자 출력 장치(100)는 인식 데이터의 비트에 따라 진동 모터의 진동 시간, 진동 세기, 진동 주파수 등을 제어하는 제2 출력 데이터를 생성할 수 있다. 제2 출력 데이터는 청각 데이터의 비트에 따라 진동이 발생하고, 청각 데이터의 주파수, 세기 등에 따라 진동 모터의 진동 시간, 진동 세기, 진동 주파수 등을 제어하도록 할 수 있다. 예를 들어, 비트와 가사를 포함하는 청각 데이터를 감지한 경우, 전자 출력 장치(100)는 청각 데이터의 가사에 따라 텍스트가 표현되도록 제어하는 제1 출력 데이터 및 청각 데이터의 비트에 따라 진동이 발생하도록 제어하는 제2 출력 데이터를 생성할 수 있다. The electronic output apparatus 100 can generate the first output data so that the recognition data obtained through the auditory data can be transmitted through the plurality of projections and / or the vibration motor. The electronic output apparatus 100 can generate the first output data so that the text of the recognition data obtained through the auditory data can be displayed through one set of projections each including six projections. The electronic output apparatus 100 may generate second output data for controlling the vibration time, vibration intensity, vibration frequency, etc. of the vibration motor according to the bit of the recognition data. The second output data generates vibration according to the bit of the auditory data, and can control the vibration time, vibration intensity, vibration frequency, etc. of the vibration motor according to the frequency, intensity, and the like of the auditory data. For example, when detecting auditory data including bits and lyrics, the electronic output apparatus 100 generates first output data for controlling the text to be displayed in accordance with the lyrics of the auditory data, So that the second output data can be generated.

S140에서는 전자 출력 장치(100)는 상기 제1 출력 데이터에 따라 복수의 돌기들을 구동하거나, 제2 출력 데이터에 따라 진동 모터를 구동한다. In step S140, the electronic output apparatus 100 drives the plurality of projections according to the first output data or drives the vibration motor according to the second output data.

도 6을 참조하면, 본 발명의 실시예들에 따른 전자 출력 방법은 중요 데이터 입력 단계(S210), 청각 데이터 감지 단계(S220), 인식 데이터 추출 단계(S230), 판단 단계(S240), 구동 단계(S250)를 포함할 수 있다. Referring to FIG. 6, an electronic output method according to embodiments of the present invention includes an input step S210, an auditory data sensing step S220, a recognition data extraction step S230, a determination step S240, (S250).

S210에서는 전자 출력 장치(100)는 사용자에 의해 중요 데이터 및 중요 데이터에 대한 출력 데이터를 입력받도록 제어한다. 여기서, 중요 데이터는 텍스트 또는 청각 데이터를 말하며, 사용자가 모니터링하고자 하는 텍스트 또는 목소리 일 수 있다. 예를 들어, 전자 출력 장치(100)는 사용자에 의해 ‘목적지 역’, ‘사람 이름’ 등과 같은 중요 데이터를 입력 받도록 제어하고, 각 중요 데이터가 감지되는 경우, 중요 데이터에 대한 출력 데이터를 입력 받도록 제어한다. 여기서, 중요 데이터에 대한 출력 데이터는 진동 모터를 통해 출력 되거나, 복수의 돌기들을 통해 출력되어야 하는 데이터를 말하며, 중요 데이터 자체와 일치하는 데이터일 수 있으나, 이에 한정되지 않고 사용자에 의해 입력될 수 있다. In S210, the electronic output apparatus 100 controls the user to receive output data for important data and important data. Here, the important data refers to text or auditory data, and may be a text or a voice to be monitored by the user. For example, the electronic output apparatus 100 controls the user to receive input of important data such as 'destination station', 'person name', etc., and receives output data for important data when each important data is detected . Here, the output data for the important data refers to data that is output through the vibration motor or output through the plurality of projections, and may be data matching the important data itself, but is not limited thereto and can be input by the user .

S220에서는 전자 출력 장치(100)는 입력부(140)를 통해, 청각 데이터를 감지한다. In S220, the electronic output apparatus 100 senses auditory data through the input unit 140. [

S230에서는 전자 출력 장치(100)는 상기 청각 데이터와 대응되는 인식 데이터를 추출한다. S230의 동작은 S220의 동작과 동일하므로, 상세한 설명을 생략한다. In S230, the electronic output apparatus 100 extracts recognition data corresponding to the auditory data. Since the operation of S230 is the same as that of S220, detailed description is omitted.

S240에서는 전자 출력 장치(100)는 상기 인식 데이터 또는 상기 청각 데이터와 중요 데이터가 일치하는지 여부를 판단한다. 중요 데이터가 텍스트인 경우, 전자 출력 장치(100)는 상기 중요 데이터와 상기 인식 데이터가 일치하는지 여부를 판단한다. 중요 데이터가 청각 데이터인 경우, 전자 출력 장치(100)는 상기 청각 데이터의 특징 정보 및 상기 중요 데이터의 특징 정보가 일치하는지 여부를 판단한다. In S240, the electronic output apparatus 100 determines whether or not the recognition data or the auditory data matches the important data. When the important data is text, the electronic output apparatus 100 determines whether or not the important data and the recognition data coincide with each other. When the important data is auditory data, the electronic output apparatus 100 determines whether the characteristic information of the auditory data and the characteristic information of the important data coincide with each other.

S250에서는 판단 결과, 일치하는 경우, 전자 출력 장치(100)는 상기 중요 데이터에 대한 표시 데이터에 따라 복수의 돌기들 또는 진동 모터를 구동한다. If it is determined in step S250 that the values match, the electronic output apparatus 100 drives the plurality of protrusions or the vibration motor in accordance with the display data for the important data.

본 발명의 실시예들에 따른 전자 출력 장치(100)는 사용자가 중요한 정보를 포함하는 청각 데이터를 인지하지 못하고 지나치는 상황이 발생하지 않도록 중요한 정보와 대응되는 청각 데이터를 다시 알려줄 수 있다. The electronic output apparatus 100 according to the embodiments of the present invention can notify the user of hearing data including important information and inform the auditory data corresponding to important information so that a situation does not occur.

도 7 및 도 8은 전자 출력 장치(100)의 사용 예를 설명하기 위한 도면이다. Figs. 7 and 8 are diagrams for explaining an example of use of the electronic output apparatus 100. Fig.

도 7에 도시된 바와 같이, 전자 출력 장치(100)는 주변에서 발생할 수 있는 새 소리, 비 소리, 자동차 소리와 대응되는 청각 데이터를 감지할 수 있다. As shown in FIG. 7, the electronic output apparatus 100 can detect new sounds, non-sounds, and audible data corresponding to automobile sounds that may occur in the surroundings.

감지된 새 소리에 따라 전자 출력 장치(100)는 새 소리의 비트에 따른 출력 데이터를 생성하고, 상기 출력 데이터에 따라 진동이 발생될 수 있도록 제어한다. According to the detected new sound, the electronic output apparatus 100 generates output data according to a new sound bit, and controls the generation of vibration according to the output data.

감지된 비 소리에 따라 전자 출력 장치(100)는 ‘비’를 인식 데이터로 추출하고, 상기 인식 데이터와 대응되는 출력 데이터를 생성하고, 상기 출력 데이터인 ‘비’에 따라 복수의 돌기들이 구동될 수 있도록 제어한다. 전자 출력 장치(100)는 ‘비’와 관련된 뉴스를 검색하여, 뉴스의 내용을 출력 데이터로 생성하고, 상기 출력 데이터에 따라 복수의 돌기들이 구동될 수 있도록 제어한다. The electronic output apparatus 100 extracts 'rain' as recognition data according to the sensed rain sound, generates output data corresponding to the recognition data, and drives a plurality of protrusions according to the 'rain' as the output data . The electronic output apparatus 100 searches for news related to 'rain', generates the contents of the news as output data, and controls the plurality of protrusions to be driven according to the output data.

감지된 자동차 소리에 따라 전자 출력 장치(100)는 자동차의 이동, 정지 등의 움직임과 대응되는 출력 데이터를 생성하고, 상기 출력 데이터에 따라 복수의 돌기들이 구동될 수 있도록 제어한다. The electronic output apparatus 100 generates output data corresponding to motions such as movement and stop of the automobile according to the detected automobile sound and controls the plurality of protrusions to be driven according to the output data.

도 8에 도시된 바와 같이, 지하철에 탑승한 사용자가 전자 출력 장치(100)을 착용한 경우, 사용자는 전자 출력 장치(100)를 통해 안내 방송, 도착역 등과 같은 청각 데이터를 감지하고, 상기 청각 데이터와 대응되는 출력 데이터를 생성하고, 상기 출력 데이터에 따라 복수의 돌기들이 구동될 수 있도록 제어한다. As shown in FIG. 8, when the user wearing the subway accesses the electronic output apparatus 100, the user senses auditory data such as announcement broadcast, arrival station, etc. through the electronic output apparatus 100, And controls the plurality of projections to be driven according to the output data.

이상 설명된 본 발명에 따른 실시예는 컴퓨터 상에서 다양한 구성요소를 통하여 실행될 수 있는 컴퓨터 프로그램의 형태로 구현될 수 있으며, 이와 같은 컴퓨터 프로그램은 컴퓨터로 판독 가능한 매체에 기록될 수 있다. 이때, 매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다. The embodiments of the present invention described above can be embodied in the form of a computer program that can be executed on various components on a computer, and the computer program can be recorded on a computer-readable medium. At this time, the medium may be a magnetic medium such as a hard disk, a floppy disk and a magnetic tape, an optical recording medium such as CD-ROM and DVD, a magneto-optical medium such as a floptical disk, , A RAM, a flash memory, and the like, which are specifically configured to store and execute program instructions.

한편, 상기 컴퓨터 프로그램은 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 프로그램의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함될 수 있다.Meanwhile, the computer program may be specifically designed and configured for the present invention or may be known and used by those skilled in the computer software field. Examples of computer programs may include machine language code such as those produced by a compiler, as well as high-level language code that may be executed by a computer using an interpreter or the like.

본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.The specific acts described in the present invention are, by way of example, not intended to limit the scope of the invention in any way. For brevity of description, descriptions of conventional electronic configurations, control systems, software, and other functional aspects of such systems may be omitted. Also, the connections or connecting members of the lines between the components shown in the figures are illustrative of functional connections and / or physical or circuit connections, which may be replaced or additionally provided by a variety of functional connections, physical Connection, or circuit connections. Also, unless explicitly mentioned, such as " essential ", " importantly ", etc., it may not be a necessary component for application of the present invention.

본 발명의 명세서(특히 특허청구범위에서)에서 “상기”의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 본 발명에서 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 적용한 발명을 포함하는 것으로서(이에 반하는 기재가 없다면), 발명의 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 본 발명에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 본 발명이 한정되는 것은 아니다. 본 발명에서 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 본 발명을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 본 발명의 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.The use of the terms " above " and similar indication words in the specification of the present invention (particularly in the claims) may refer to both singular and plural. In addition, in the present invention, when a range is described, it includes the invention to which the individual values belonging to the above range are applied (unless there is contradiction thereto), and each individual value constituting the above range is described in the detailed description of the invention The same. Finally, the steps may be performed in any suitable order, unless explicitly stated or contrary to the description of the steps constituting the method according to the invention. The present invention is not necessarily limited to the order of description of the above steps. The use of all examples or exemplary language (e.g., etc.) in this invention is for the purpose of describing the present invention only in detail and is not to be limited by the scope of the claims, It is not. It will also be appreciated by those skilled in the art that various modifications, combinations, and alterations may be made depending on design criteria and factors within the scope of the appended claims or equivalents thereof.

Claims (1)

복수의 돌기들;
청각 데이터를 감지하도록 제어하는 입력 제어부;
상기 청각 데이터를 분석하여, 상기 청각 데이터의 종류를 결정하고, 상기 청각 데이터의 종류를 고려하여, 상기 청각 데이터와 대응되는 인식 데이터를 생성하는 분석부;
상기 인식 데이터와 대응되는 제1 출력 데이터를 생성하는 처리부;
상기 제1 출력 데이터에 따라 복수의 돌기들이 구동될 수 있도록 제어하는 출력 제어부;를 포함하는 전자 출력 장치.
A plurality of protrusions;
An input control unit for controlling to sense auditory data;
An analysis unit for analyzing the auditory data to determine a type of the auditory data and generating recognition data corresponding to the auditory data in consideration of the type of the auditory data;
A processing unit for generating first output data corresponding to the recognition data;
And an output controller for controlling the plurality of projections to be driven according to the first output data.
KR1020170099143A 2017-08-04 2017-08-04 Electronic display apparatus, method, and computer readable recoding medium KR20170094527A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170099143A KR20170094527A (en) 2017-08-04 2017-08-04 Electronic display apparatus, method, and computer readable recoding medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170099143A KR20170094527A (en) 2017-08-04 2017-08-04 Electronic display apparatus, method, and computer readable recoding medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020150154769A Division KR101768692B1 (en) 2015-11-04 2015-11-04 Electronic display apparatus, method, and computer readable recoding medium

Publications (1)

Publication Number Publication Date
KR20170094527A true KR20170094527A (en) 2017-08-18

Family

ID=59753314

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170099143A KR20170094527A (en) 2017-08-04 2017-08-04 Electronic display apparatus, method, and computer readable recoding medium

Country Status (1)

Country Link
KR (1) KR20170094527A (en)

Similar Documents

Publication Publication Date Title
US11687319B2 (en) Speech recognition method and apparatus with activation word based on operating environment of the apparatus
KR102103057B1 (en) Voice trigger for a digital assistant
US10074364B1 (en) Sound profile generation based on speech recognition results exceeding a threshold
JP7160967B2 (en) Keyphrase detection with audio watermark
US20160150338A1 (en) Sound event detecting apparatus and operation method thereof
KR102228455B1 (en) Device and sever for providing a subject of conversation and method for providing the same
US20210210086A1 (en) Method for processing voice signals of multiple speakers, and electronic device according thereto
EP2688014A1 (en) Method and Apparatus for Recommending Texts
US20190180747A1 (en) Voice recognition apparatus and operation method thereof
JP2017509009A (en) Track music in an audio stream
CN110827825A (en) Punctuation prediction method, system, terminal and storage medium for speech recognition text
US10452351B2 (en) Information processing device and information processing method
US11830501B2 (en) Electronic device and operation method for performing speech recognition
KR101774236B1 (en) Apparatus and method for context-awareness of user
US20130332166A1 (en) Processing apparatus, processing system, and output method
KR20200005476A (en) Retroactive sound identification system
US11455178B2 (en) Method for providing routine to determine a state of an electronic device and electronic device supporting same
CN113225624A (en) Time-consuming determination method and device for voice recognition
US20200143807A1 (en) Electronic device and operation method thereof
KR101768692B1 (en) Electronic display apparatus, method, and computer readable recoding medium
KR20200040562A (en) System for processing user utterance and operating method thereof
KR20170094527A (en) Electronic display apparatus, method, and computer readable recoding medium
KR20170081418A (en) Image display apparatus and method for displaying image
KR101899021B1 (en) Method for providing filtered outside sound and voice transmitting service through earbud
JP6216560B2 (en) Communication terminal, program

Legal Events

Date Code Title Description
A107 Divisional application of patent