KR20170094527A - Electronic display apparatus, method, and computer readable recoding medium - Google Patents
Electronic display apparatus, method, and computer readable recoding medium Download PDFInfo
- Publication number
- KR20170094527A KR20170094527A KR1020170099143A KR20170099143A KR20170094527A KR 20170094527 A KR20170094527 A KR 20170094527A KR 1020170099143 A KR1020170099143 A KR 1020170099143A KR 20170099143 A KR20170099143 A KR 20170099143A KR 20170094527 A KR20170094527 A KR 20170094527A
- Authority
- KR
- South Korea
- Prior art keywords
- data
- auditory
- auditory data
- electronic output
- recognition
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F9/00—Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
- A61F9/08—Devices or methods enabling eye-patients to replace direct visual perception by another kind of perception
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
-
- G06F17/289—
-
- G06F17/30—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Veterinary Medicine (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Vascular Medicine (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Telephone Function (AREA)
Abstract
Description
본 발명은 전자 출력 장치, 방법 및 컴퓨터 판독 가능한 기록 매체에 관한 것으로, 보다 구체적으로는 감지된 청각 데이터를 분석하여, 상기 청각 데이터로부터 인식된 인식 데이터를 추출 또는 검색하고, 상기 인식 데이터에 대한 출력 데이터를 복수의 돌기들 또는 진동 모터에 의해 출력될 수 있도록 제어하는 전자 출력 장치, 방법 및 컴퓨터 판독 가능한 기록 매체에 관한 것이다. The present invention relates to an electronic output apparatus, a method, and a computer-readable recording medium. More particularly, the present invention relates to an electronic output apparatus, a method, and a computer-readable recording medium that analyze sensed auditory data, extract or search recognition data recognized from the auditory data, To an electronic output device, a method, and a computer-readable recording medium for controlling data to be output by a plurality of projections or a vibration motor.
현재 IT산업의 발달에 힘입어 종래 피쳐폰 위주의 휴대폰이 스마트폰으로 급격히 대체되고 있다.Thanks to the development of the IT industry, smartphone-based mobile phones are rapidly replacing conventional feature phones.
상기 스마트폰은 기본적인 통화 및 문자 기능을 포함하며, 또한 자체적인 OS와 카메라, GPS, 진동센서 등을 포함하고 있어, 응용프로그램에 따라 매우 다양한 기능을 수행할 수 있는 장점이 있다.The smart phone includes basic communication and character functions, and includes an OS, a camera, a GPS, and a vibration sensor. Thus, the smartphone has a variety of functions according to application programs.
또한, 출력장치는 패널, 스피커, 진동기 등을 포함하므로, 영상 신호, 다양한 소리 신호 및 진동 신호를 출력할 수 있으며, 입력 장치는 통상 터치패널로 구현되어 응용프로그램(앱)의 여부에 따라 역시 매우 다양한 형태의 입력을 처리할 수 있다.Since the output device includes a panel, a speaker, and a vibrator, it can output a video signal, various sound signals, and a vibration signal. The input device is usually implemented as a touch panel, Various types of input can be processed.
한편, 시각 장애인이 상기 스마트폰을 이용하는 경우, 스피커 및 진동기를 통한 출력은 인지할 수 있으나, 스피커 및 진동기를 통한 출력은 전달하고자 하는 정확한 텍스트 및 의미를 전달할 수 없다. On the other hand, when the visually impaired uses the smartphone, the output through the speaker and the vibrator can be recognized, but the output through the speaker and the vibrator can not convey the exact text and meaning to be transmitted.
본 발명의 실시예들은 입력된 청각 데이터와 대응되는 인식 데이터를 검색 또는 추출하고, 상기 인식 데이터와 대응되는 출력 데이터를 복수의 돌기들 및/또는 진동 모터를 통해 출력하도록 제어하는 전자 출력 장치, 방법 및 컴퓨터 판독 가능한 기록 매체를 제공한다. Embodiments of the present invention provide an electronic output device for searching or extracting recognition data corresponding to inputted auditory data and outputting the output data corresponding to the recognition data through a plurality of projections and / And a computer readable recording medium.
본 발명의 실시예들에 따른 전자 출력 장치는 복수의 돌기들; 청각 데이터를 감지하도록 제어하는 입력 제어부; 상기 청각 데이터를 분석하여, 상기 청각 데이터의 종류를 결정하고, 상기 청각 데이터의 종류를 고려하여, 상기 청각 데이터와 대응되는 인식 데이터를 생성하는 분석부; 상기 인식 데이터와 대응되는 제1 출력 데이터를 생성하는 처리부; 상기 제1 출력 데이터에 따라 복수의 돌기들이 구동될 수 있도록 제어하는 출력 제어부;를 포함할 수 있다. An electronic output device according to embodiments of the present invention includes a plurality of protrusions; An input control unit for controlling to sense auditory data; An analysis unit for analyzing the auditory data to determine a type of the auditory data and generating recognition data corresponding to the auditory data in consideration of the type of the auditory data; A processing unit for generating first output data corresponding to the recognition data; And an output controller for controlling the plurality of protrusions to be driven according to the first output data.
상기 분석부는 상기 청각 데이터의 종류가 사람인 경우, 상기 청각 데이터에 포함되는 텍스트 데이터를 인식 데이터로 생성할 수 있다. The analysis unit may generate text data included in the auditory data as recognition data when the type of the auditory data is a person.
상기 분석부는 상기 청각 데이터에 포함되는 텍스트 데이터를 사용자에 의해 입력된 언어로 번역되고, 번역된 텍스트 데이터를 인식 데이터로 생성할 수 있다. The analyzing unit may translate the text data included in the auditory data into a language input by a user, and generate translated text data as recognition data.
상기 분석부는 상기 청각 데이터의 종류가 악기인 경우, 상기 청각 데이터에 포함되는 음악의 제목을 검색하고, 상기 음악의 제목을 상기 인식 데이터로 생성할 수 있다. If the type of the auditory data is a musical instrument, the analyzing unit may search for a title of the music included in the auditory data, and generate the title of the music as the recognition data.
상기 분석부는 상기 청각 데이터의 종류가 무생물이고, 상기 청각 데이터가 천둥 소리를 포함하는 경우, 상기 인식 데이터로서 상기 청각 데이터와 대응되는 날씨 정보를 검색하고, 상기 날씨 정보를 상기 인식 데이터로 생성할 수 있다. The analyzing unit may search the weather information corresponding to the auditory data as the recognition data when the type of the auditory data is inanimate and the sound data include thunder sound and generate the weather information as the recognition data have.
상기 처리부는 상기 청각 데이터에 포함된 비트와 대응되는 제2 출력 데이터를 생성하고, 상기 전자 출력 장치는 진동 모터; 및 상기 제2 출력 데이터와 대응되는 진동이 발생하도록 하는 진동 모터를 제어하는 진동 제어부;를 더 포함할 수 있다. The processing unit generates second output data corresponding to bits included in the auditory data, the electronic output device comprising: a vibration motor; And a vibration control unit for controlling the vibration motor to generate a vibration corresponding to the second output data.
상기 청각 데이터의 종류는 상기 청각 데이터를 발생시킨 주체를 고려하여 설정될 수 있다. The type of the auditory data may be set in consideration of the subject that generates the auditory data.
상기 분석부는 상기 청각 데이터가 사용자에 의해 설정된 알림음과 대응되는 청각 데이터를 포함하는 경우, 상기 알림음과 대응되는 인식 데이터를 상기 청각 데이터의 인식 데이터로 생성할 수 있다. The analysis unit may generate recognition data corresponding to the notification sound as recognition data of the auditory data when the auditory data includes auditory data corresponding to a notification sound set by the user.
본 발명의 실시예들에 따른 복수의 돌기들; 진동 모터;를 포함하는 전자 출력 장치의 전자 출력 방법은 상기 전자 출력 장치가 청각 데이터를 감지하는 단계; 상기 청각 데이터를 분석하여, 상기 청각 데이터의 종류를 결정하고, 상기 청각 데이터의 종류를 고려하여, 상기 청각 데이터와 대응되는 인식 데이터를 생성하는 단계; 상기 인식 데이터와 대응되는 제1 출력 데이터를 생성하는 단계; 상기 제1 출력 데이터에 따라 복수의 돌기들이 구동될 수 있도록 제어하는 단계;를 포함할 수 있다. A plurality of protrusions according to embodiments of the present invention; An electronic output method of an electronic output apparatus including a vibration motor includes the steps of the electronic output apparatus detecting audible data; Analyzing the auditory data, determining a type of the auditory data, and generating recognition data corresponding to the auditory data in consideration of the type of the auditory data; Generating first output data corresponding to the recognition data; And controlling the plurality of protrusions to be driven according to the first output data.
상기 인식 데이터를 추출하는 단계는 상기 청각 데이터의 종류가 사람인 경우, 상기 청각 데이터에 포함되는 텍스트 데이터를 인식 데이터로 생성할 수 있다. The extracting of the recognition data may generate text data included in the auditory data as recognition data when the type of the auditory data is a person.
상기 분석부는 상기 청각 데이터에 포함되는 텍스트 데이터를 사용자에 의해 입력된 언어로 번역되고, 번역된 텍스트 데이터를 인식 데이터로 생성할 수 있다. The analyzing unit may translate the text data included in the auditory data into a language input by a user, and generate translated text data as recognition data.
상기 인식 데이터를 추출하는 단계는 상기 청각 데이터의 종류가 악기인 경우, 상기 청각 데이터에 포함되는 음악의 제목을 검색하고, 상기 음악의 제목을 상기 인식 데이터로 생성할 수 있다. The step of extracting the recognition data may search the title of the music included in the audio data and generate the title of the music as the recognition data if the type of the audio data is a musical instrument.
상기 인식 데이터를 추출하는 단계는 상기 청각 데이터의 종류가 무생물이고, 상기 청각 데이터가 천둥 소리를 포함하는 경우, 상기 인식 데이터로서 상기 청각 데이터와 대응되는 날씨 정보를 검색하고, 상기 날씨 정보를 상기 인식 데이터로 생성할 수 있다. Wherein the extracting of the recognition data comprises: searching for weather information corresponding to the auditory data as the recognition data when the type of the auditory data is inanimate and the auditory data includes a thunder sound; Data can be generated.
본 발명의 실시예들에 따른 전자 출력 방법은 상기 청각 데이터에 포함된 비트와 대응되는 제2 출력 데이터를 생성하는 단계; 및 상기 제2 출력 데이터와 대응되는 진동이 발생하도록 하는 진동 모터를 제어하는 단계;를 더 포함할 수 있다. An electronic output method according to embodiments of the present invention includes: generating second output data corresponding to bits included in the auditory data; And controlling the vibration motor to cause the vibration corresponding to the second output data to occur.
본 발명의 실시예에 따른 컴퓨터 프로그램은 컴퓨터를 이용하여 본 발명의 실시예에 따른 전자 출력 방법 중 어느 하나의 방법을 실행시키기 위하여 매체에 저장될 수 있다. A computer program according to an embodiment of the present invention may be stored in a medium using a computer to execute any one of the electronic output methods according to an embodiment of the present invention.
이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체가 더 제공된다. In addition to this, another method for implementing the present invention, another system, and a computer-readable recording medium for recording a computer program for executing the method are further provided.
전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해 질 것이다.Other aspects, features, and advantages other than those described above will become apparent from the following drawings, claims, and the detailed description of the invention.
본 발명은 입력된 청각 데이터와 대응되는 인식 데이터를 검색 또는 추출하고, 상기 인식 데이터와 대응되는 출력 데이터를 복수의 돌기들 및 진동 모터를 통해 출력하도록 제어할 수 있다. The present invention can control to search or extract recognition data corresponding to inputted auditory data and to output output data corresponding to the recognition data through a plurality of projections and a vibration motor.
도 1은 본 발명의 실시예들에 따른 전자 출력 장치의 구조를 나타내는 블록도이다.
도 2는 제어부의 구조를 나타내는 블록도이다.
도 3은 출력 제어부 및 출력부의 구조를 나타내는 블록도이다.
도 4는 전자 출력 장치의 다양한 외관을 설명하기 위한 도면이다.
도 5 내지 도 6은 본 발명의 실시예들에 따른 전자 출력 방법을 나타내는 흐름도이다.
도 7 내지 도 8은 전자 출력 장치가 사용되는 예를 설명하기 위한 도면이다. 1 is a block diagram showing the structure of an electronic output apparatus according to embodiments of the present invention.
2 is a block diagram showing the structure of the control unit.
3 is a block diagram showing the structure of the output control unit and the output unit.
4 is a view for explaining various aspects of the electronic output device.
5 to 6 are flowcharts illustrating an electronic output method according to embodiments of the present invention.
7 to 8 are views for explaining an example in which an electronic output device is used.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다. BRIEF DESCRIPTION OF THE DRAWINGS The present invention is capable of various modifications and various embodiments, and specific embodiments are illustrated in the drawings and described in detail in the detailed description. The effects and features of the present invention and methods of achieving them will be apparent with reference to the embodiments described in detail below with reference to the drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein.
이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals refer to like or corresponding components throughout the drawings, and a duplicate description thereof will be omitted .
이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. In the following embodiments, the terms first, second, and the like are used for the purpose of distinguishing one element from another element, not the limitative meaning.
이하의 실시예에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는한, 복수의 표현을 포함한다. In the following examples, the singular forms "a", "an" and "the" include plural referents unless the context clearly dictates otherwise.
이하의 실시예에서, 포함하다 또는 가지다 등의 용어는 명세서 상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징을 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다. In the following embodiments, terms such as inclusive or possessed mean that a feature or element described in the specification is present, and does not exclude the possibility that one or more other features or components are added in advance.
어떤 실시예가 달리 구현 가능한 경우에 특정한 공정 순서는 설명되는 순서와 다르게 수행될 수도 있다. 예를 들어, 연속하여 설명되는 두 공정이 실질적으로 동시에 수행될 수도 있고, 설명되는 순서와 반대의 순서로 진행될 수 있다. If certain embodiments are otherwise feasible, the particular process sequence may be performed differently from the sequence described. For example, two processes that are described in succession may be performed substantially concurrently, and may be performed in the reverse order of the order described.
이하의 실시예에서, "회로"는, 예를 들어, 프로그램가능한 회로에 의해 실행되는 인스트럭션을 저장하는 하드와이어드 회로, 프로그램가능한 회로, 상태 머신 회로, 및/또는 펌웨어를 단독으로 또는 임의의 조합으로 포함할 수 있다. 애플리케이션은 호스트 프로세서 또는 다른 프로그램가능한 회로와 같은 프로그램가능한 회로 상에서 실행될 수 있는 코드 또는 인스트럭션으로서 구현될 수 있다. 본원의 임의의 실시예에서 사용되는 바와 같은, 모듈은,회로로서 구현될 수 있다. 회로는 집적 회로 칩과 같은 집적 회로로서 구현될 수 있다.In the following embodiments, the term "circuit" refers to any circuitry, circuitry, and / or circuitry, including, for example, hardwired circuitry, programmable circuitry, state machine circuitry, and / or firmware that stores instructions executed by a programmable circuit, either alone or in any combination . The application may be implemented as code or instructions that may be executed on a programmable circuit, such as a host processor or other programmable circuit. A module, as used in any of the embodiments herein, may be implemented as a circuit. The circuitry may be implemented as an integrated circuit, such as an integrated circuit chip.
이하의 실시예에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부", "…기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.In the following embodiments, when a component is referred to as "comprising ", it means that it can include other components as well, without excluding other components unless specifically stated otherwise. Also, the terms " part, "" module," and " module ", etc. in the specification mean a unit for processing at least one function or operation and may be implemented by hardware or software or a combination of hardware and software have.
도 1은 본 발명의 실시예에 따른 전자 출력 장치(100)을 나타내는 도면이다. 1 is a diagram showing an
도 1을 참조하면, 본 발명의 실시예에 따른 전자 출력 장치(100)은 통신부(110), 제어부(120), 메모리(130), 입력부(140), 출력부(150)를 포함할 수 있다. 1, an
본 발명의 실시예에 따른 전자 출력 장치(100)는 주변의 사람, 동물, 사물 등을 통해 발생하는 청각 데이터를 감지하고, 감지된 청각 데이터에 대한 인식 데이터를 추출하고, 상기 인식 데이터와 대응되는 출력 데이터를 복수의 돌기들 또는 진동 모터를 통해 출력하도록 제어한다. 본 발명의 실시예에 따른 전자 출력 장치(100)는 감지된 청각 데이터에 포함된 텍스트 또는 청각 데이터에 포함된 음악과 관련된 정보인 텍스트가 복수의 돌기들을 통해 출력될 수 있도록 제어하거나, 감지된 청각 데이터의 비트에 따라 진동이 발생하도록 제어할 수 있다. The
다른 실시예에서, 본 발명의 실시예에 따른 전자 출력 장치(100)는 사용자의 단말기와 통신하거나, 사용자의 단말기에서 발생한 소리를 감지함으로써, 사용자 단말기에 의해 수신한 문자 메시지 또는 음성 통화에 대한 알림을 발생시킬 수 있다. 이때 발생하는 알림은 문자 메시지의 내용 또는 음성 통화의 발신 번호, 발신자에 대한 정보를 포함할 수 있다. In another embodiment, the
다른 실시예에서, 본 발명의 실시예에 따른 전자 출력 장치(100)는 주변에서 발생한 청각 데이터에 포함된 의미를 포함하는 인식 데이터를 추출할 수 있다. 예를 들어, 본 발명의 실시예에 따른 전자 출력 장치(100)는 주변에서 발생한 위험 상황, 날씨의 변화, 사고의 위험성 등을 나타내는 청각 데이터가 감지된 경우, 청각 데이터를 분석하여 청각 데이터로부터의 위험 상황, 날씨의 변화, 사고의 위험성 등을 출력 데이터로 출력하도록 제어할 수 있다. In another embodiment, the
다른 실시예에서, 본 발명의 실시예에 따른 전자 출력 장치(100)는 주변에서 발생한 알림 방송과 같은 청각 데이터를 기억하는 기능을 수행할 수 있다. 본 발명의 실시예에 따른 전자 출력 장치(100)는 주변에서 발생한 알림 방송을 포함하는 청각 데이터에 포함된 텍스트를 출력 데이터로 전환하고, 상기 출력 데이터를 저장하고, 사용자의 요청에 따라 다시 제공되도록 하는 기능을 수행할 수 있다. In another embodiment, the
여기서, 전자 출력 장치(100)는 사용자의 퍼스널 컴퓨터일 수도 있고, 또는 사용자의 휴대용 단말일 수도 있으며, 웹 브라우징이 가능한 애플리케이션을 탑재한 단말은 제한 없이 차용될 수 있다. Here, the
이를 더욱 상세히 설명하면, 전자 출력 장치(100)는 컴퓨터(예를 들면, 데스크톱, 랩톱, 태블릿 등), 미디어 컴퓨팅 플랫폼(예를 들면, 케이블, 위성 셋톱박스, 디지털 비디오 레코더), 핸드헬드 컴퓨팅 디바이스(예를 들면, PDA, 이메일 클라이언트 등), 핸드폰의 임의의 형태, 또는 다른 종류의 컴퓨팅 또는 커뮤니케이션 플랫폼의 임의의 형태를 포함할 수 있으나, 본 발명이 이에 한정되는 것은 아니다. The
통신부(110)는 전자 출력 장치(100)와 외부의 서버(검색 서비스 제공 서버, 포털 서비스 제공 서버, 뉴스 제공 서버 등) 간의 통신을 가능하게 하는 하나 이상의 구성 요소를 포함할 수 있다. 통신부(110)는 전자 출력 장치(100)와 사용자의 휴대폰 간의 통신을 가능하게 하는 하나 이상의 구성 요소를 포함할 수 있다. The
통신부(110)는 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. The
여기서, 통신부(110)는 다른 네트워크 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있다. Here, the
제어부(120)는 통신부(110), 메모리(130), 입력부(140), 출력부(150)의 동작을 전반적으로 제어하는 기능을 수행한다. The
여기서, 제어부(120)는 프로세서(processor)와 같이 데이터를 처리할 수 있는 모든 종류의 장치를 포함할 수 있다. 여기서, '프로세서(processor)'는, 예를 들어 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 이와 같이 하드웨어에 내장된 데이터 처리 장치의 일 예로써, 마이크로프로세서(microprocessor), 중앙처리장치(central processing unit: CPU), 프로세서 코어(processor core), 멀티프로세서(multiprocessor), ASIC(application-specific integrated circuit), FPGA(field programmable gate array) 등의 처리 장치를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.Here, the
메모리(130)는 제어부(120)의 처리 및 제어를 위한 프로그램을 저장할 수도 있고, 입/출력되는 데이터들(예컨대, 복수의 메뉴, 복수의 메뉴 각각에 대응하는 복수의 제 1 계층 서브 메뉴, 복수의 제 1 계층 서브 메뉴 각각에 대응하는 복수의 제 2 계층 서브 메뉴 등)을 저장할 수도 있다. The
메모리(130)는 청각 데이터의 종류별 샘플 데이터 및 샘플 데이터의 특징 정보를 미리 저장할 수 있다. 메모리(130)는 감지된 청각 데이터의 특징 정보를 소정의 시간, 예를 들어 1주일 동안 저장할 수 있다. 메모리(130)는 청각 데이터가 감지된 이후 소정의 시간이 경과하면, 상기 청각 데이터를 삭제할 수 있다. The
메모리(130)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 전자 출력 장치(100)는 인터넷(internet)상에서 메모리(130)의 저장 기능을 수행하는 웹 스토리지(web storage) 또는 클라우드 서버를 운영할 수도 있다.The
메모리(130)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 예를 들어, UI 모듈, 터치 스크린 모듈, 알림 모듈 등으로 분류될 수 있다. Programs stored in the
입력부(140)는 청각 데이터를 위한 입력하는 마이크로폰을 포함할 수 있다. 마이크로폰은, 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크로폰은 외부 디바이스 또는 화자로부터 음향 신호를 수신할 수 있다. 마이크로폰은 외부의 음향 신호를 입력 받는 과정에서 발생 되는 잡음(noise)를 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다. The
출력부(150)는 복수의 돌기들(151) 및 진동모터(152)를 포함할 수 있다. 이에 대한 좀더 상세한 설명은 도 4의 설명에서 하겠다. The
도 2는 제어부(120)의 구조를 나타내는 블록도이다. 2 is a block diagram showing the structure of the
도 2를 참조하면, 제어부(120)는 입력 제어부(121), 분석부(122), 처리부(123), 출력 제어부(124)를 포함할 수 있다. 2, the
입력 제어부(121)는 청각 데이터를 감지하도록 제어하는 기능을 수행한다. 입력 제어부(121)는 외부의 객체로부터 청각 데이터를 센싱하도록 제어한다. 입력 제어부(121)는 주변에서 발생하는 음악, 음성, 소리 등을 감지할 수 있다. The
분석부(122)는 상기 청각 데이터를 분석하여, 상기 청각 데이터의 종류를 결정하고, 상기 청각 데이터의 종류를 고려하여, 상기 청각 데이터와 대응되는 인식 데이터를 추출할 수 있다. 분석부(122)는 감지된 청각 데이터에 포함된 노이즈(noise)를 제거하고, 청각 데이터를 주파수 영역으로 변환하고, 변환한 청각 데이터에 포함된 특징 정보를 추출하고, 특징 정보로부터 청각 데이터를 발생시키는 주체, 예를 들어 사람, 동물, 악기, 및 자동차 등을 결정할 수 있다. 분석부(122)는 사람, 동물, 악기 및 자동차 등으로부터 발생한 소리 데이터의 특징 정보를 미리 저장하고, 저장된 특징 정보들과 청각 데이터의 추출된 특징 정보를 비교함으로써, 청각 데이터의 종류를 결정할 수 있다. 여기서, 청각 데이터의 종류는 청각 데이터를 발생시키는 주체에 따라 설정되며, 사람, 동물, 천둥소리, 사이렌 소리, 카톡 울림, 전화벨 소리 등일 수 있다. 사용자는 청각 데이터인 ‘전화벨 소리’를 전자 출력 장치(100)에 미리 녹음하고, 상기 ‘전화벨 소리’의 특징 정보를 추출하고 저장 할 수 있다. 본 발명의 실시예에 따른 전자 출력 장치(100)는 갖가지 청각 데이터를 미리 녹음하고, 녹음된 하나 이상의 청각 데이터의 특징 정보를 추출하고 각 청각 데이터의 발생 주체 정보와 함께 각 청각 데이터의 특징 정보를 매칭시켜 저장시킬 수 있다. The
분석부(122)는 청각 데이터의 종류를 고려하여, 상기 청각 데이터와 대응되는 인식 데이터를 추출할 수 있다. 여기서, 청각 데이터의 종류는 청각 데이터를 발생시키는 주체에 따라 다르게 설정될 수 있다. The
만약 청각 데이터의 종류가 사람이라면, 분석부(122)는 상기 청각 데이터와 대응되는 인식 데이터로서, 청각 데이터에 포함된 텍스트 구간을 추출하고, 음성 인식(voice recognition) 기술을 이용하여 청각 데이터에 포함된 텍스트를 획득할 수 있다. 좀더 구체적으로, 사람의 말소리가 감지된 경우, 분석부(122)는 감지된 사람의 말소리와 대응되는 텍스트를 인식 데이터로 생성할 수 있다. 사람의 노랫소리가 감지된 경우 역시, 분석부(122)는 청각 데이터에 포함된 가사와 대응되는 텍스트를 인식 데이터로 생성할 수 있다. 선택적 실시예에서, 분석부(122)는 상기 청각 데이터와 대응되는 텍스트 데이터를 사용자에 의해 입력된 언어로 번역하고, 번역된 텍스트 데이터를 인식 데이터로 생성할 수 있다. If the type of the auditory data is a person, the
특히, 사람의 음성이 감지된 경우, 분석부(122)는 상기 청각 데이터와 대응되는 텍스트를 추출할 뿐 아니라, 상기 청각 데이터를 발생시킨 사람의 감정, 말의 진위 등도 분석할 수 있다. 화난 사람의 음성이 감지된 경우, 분석부(122)는 상기 청각 데이터와 대응하여, ‘화난 사람’, ‘화가남’과 같은 텍스트를 청각 데이터와 대응되는 인식 데이터로 생성할 수 있다. 슬픈 사람의 음성이 감지된 경우, 분석부(122)는 상기 청각 데이터와 대응하여, ‘슬픈 사람’, ‘슬픔’과 같은 텍스트를 청각 데이터와 대응되는 인식 데이터로 생성할 수 있다. 당황한 사람의 음성이 감지된 경우, 분석부(122)는 상기 청각 데이터와 대응하여, ‘당황한 사람’ 등과 같은 텍스트를 청각 데이터와 대응되는 인식 데이터로 생성할 수 있다. In particular, when a human voice is detected, the
또한, 버스, 지하철 등에서의 ‘다음 정류장 정보’가 감지된 경우, 분석부(122)는 청각 데이터와 대응하여, 감지된 정류장 정보를 인식 데이터로 생성할 수 있다. 예를 들어, ‘낙성대입구역’과 같은 정류장 이름이 감지되면, 감지된 소리는 발생됨과 동시에 사라지는 것을 방지하기 위해서, 분석부(122)는 청각 데이터와 대응하여, ‘낙성대입구역’을 인식 데이터로 생성할 수 있다. In addition, when 'next stop information' in a bus, a subway, or the like is detected, the analyzing
만약 청각 데이터의 종류가 효과음 또는 알림음인 경우, 분석부(122)는 상기 청각 데이터에 포함된 효과음의 의미를 상기 청각 데이터와 대응되는 인식 데이터로서 추출할 수 있다. 예를 들어, 소방차의 사이렌 소리가 감지된 경우, 분석부(122)는 ‘소방차’, ‘불’,‘소방차가 지나간다’등의 텍스트를 인식 데이터로서 생성할 수 있다. 날씨의 변화와 관련된 ‘천둥소리’가 감지된 경우, 분석부(122)는 청각 데이터에 포함된 효과음의 의미인 ‘비’ 또는 ‘비가 내림’ 등의 텍스트를 인식 데이터로 생성할 수 있다. 사람의 비병 소리가 감지된 경우, 분석부(122)는 ‘위험’, ‘비명’ 등과 같은 텍스트를 인식 데이터로 생성할 수 있다. If the type of the auditory data is an effect sound or a notification sound, the
또한 분석부(122)는 사용자에 의해 알림음으로 설정된 청각 데이터가 감지된 경우, 상기 알림음에 대한 인식 데이터를 상기 청각 데이터의 인식 데이터로 설정할 수 있다. 예를 들어, 사용자가 문자 알림음을 ‘문자 수신’과 대응시켜 저장한 경우, 분석부(122)는 상기 문자 알림음과 일치하는 청각 데이터를 감지하게 되면, ‘문자 수신’을 인식 데이터로 설정할 수 있다. 사용자가 통화 알림음을 ‘전화 수신’과 대응시켜 저장한 경우, 분석부(122)는 상기 통화 알림음과 일치하는 청각 데이터를 감지하게 되면 ‘전화 수신’을 인식 데이터로 설정할 수 있다. The
다른 실시예에서, 분석부(122)는 음악인 청각 데이터가 감지된 경우, 청각 데이터에 포함된 비트를 추출하고, 청각 데이터에 포함된 비트에 따라 진동 데이터를 생성할 수 있다. In another embodiment, the
분석부(122)는 감지된 청각 데이터의 종류가 악기, 연주인 경우, 청각 데이터의 특징 정보를 추출하고, 상기 특징 정보를 고려하여, 상기 악기에 의해 생성된 청각 데이터의 제목을 검색할 수 있다. 분석부(122)는 감지된 청각 데이터의 제목을 획득하기 위해서, 외부의 검색 서비스 제공 서버(미도시)로 접속할 수 있다. The
선택적 실시예에서, 분석부(122)는 청각 데이터와 대응되는 인식 데이터를 생성하고, 상기 인식 데이터에 대한 상세 정보를 검색할 수 있다. 분석부(122)는 청각 데이터와 대응되는 인식 데이터인 ‘비’, ‘소방차’, ‘낙성대입구역’ 등을 생성하고, 상기 인식 데이터를 포털 서버, 검색 서버 등에 전송함으로써, 상기 인식 데이터에 대한 뉴스 등의 상세 정보를 검색할 수 있다. In an alternative embodiment, the
처리부(123)는 상기 청각 데이터와 대응하는 인식 데이터와 대응되는 제1 출력 데이터를 생성할 수 있다. 여기서, 제1 출력 데이터는 인식 데이터에 포함되는 하나 이상의 텍스트를 나타내는 데이터로서, 텍스트를 표현하는 점자 데이터를 포함할 수 있다. The
처리부(123)는 청각 데이터를 통해 획득된 인식 데이터가 복수의 돌기들 및/또는 진동 모터를 통해 전달될 수 있도록 제1 출력 데이터를 생성할 수 있다. 처리부(123)는 청각 데이터를 통해 획득된 인식 데이터의 텍스트가 각각 6개의 돌기들을 포함하는 하나의 셋트의 돌기를 통해 표시될 수 있도록 제1 출력 데이터를 생성할 수 있다. The
제1 출력 데이터는 인식 데이터의 각 텍스트에 따라 제1 내지 제6 돌기의 높이, 돌출 여부, 돌출 시간, 돌출 주기 등을 제어하는 데이터를 말할 수 있다. 본 발명의 실시예에 따른 전자 출력 장치(100)는 6의 배수의 개수만큼의 돌기를 포함할 수 있고, 처리부(123)에 의해 생성된 제1 출력 데이터는 하나 이상의 돌기의 셋트의 높이, 돌출 여부, 돌출 시간, 돌출 주기 등을 제어하는 데이터 일 수 있다. The first output data may refer to data for controlling height, protrusion, protrusion time, protrusion period, etc. of the first through sixth protrusions according to each text of the recognition data. The
처리부(123)는 인식 데이터의 비트에 따라 진동 모터의 진동 시간, 진동 세기, 진동 주파수 등을 제어하는 제2 출력 데이터를 생성할 수 있다. 제2 출력 데이터는 청각 데이터의 비트에 따라 진동이 발생하고, 청각 데이터의 주파수, 세기 등에 따라 진동 모터의 진동 시간, 진동 세기, 진동 주파수 등을 제어하도록 할 수 있다. The
예를 들어, 비트와 가사를 포함하는 청각 데이터를 감지한 경우, 처리부(123)는 청각 데이터의 가사에 따라 텍스트가 표현되도록 제어하는 제1 출력 데이터 및 청각 데이터의 비트에 따라 진동이 발생하도록 제어하는 제2 출력 데이터를 생성할 수 있다. For example, when detecting auditory data including bits and lyrics, the
이를 통해, 본 발명의 실시예들에 따른 전자 출력 장치(100)는 감지된 청각 데이터와 관련된 정보, 위험, 상황, 환경 등을 사용자에게 전달할 수 있다. Accordingly, the
사람의 비명 소리가 감지된 경우, 본 발명의 실시예들에 따른 전자 출력 장치(100)는 주변에서 비명 소리가 났다는 사실을 돌기들을 통해 표현될 수 있도록 한다. 말 소리가 감지된 경우, 본 발명의 실시예들에 따른 전자 출력 장치(100)는 말 소리에 포함된 텍스트가 돌기들을 통해 표현될 수 있도록 한다. 음악 소리가 감지된 경우, 본 발명의 실시예들에 따른 전자 출력 장치(100)는 음악에 포함된 비트에 따른 진동이 발생 할 수 있도록 할 수도 있다. When a screaming sound of a person is detected, the
출력 제어부(124)는 상기 출력 데이터에 따라 복수의 돌기들 및/또는 진동 모터가 구동될 수 있도록 제어하는 기능을 수행한다. The
본 발명의 실시예들에 따른 전자 출력 장치(100)는 사용자에 의해 설정된 중요 데이터와 대응되는 청각 데이터를 감시, 모니터링 하는 중요 데이터 처리부(125)를 더 포함할 수 있다. The
중요 데이터 처리부(125)는 사용자가 잊지 않고 감시해야 하는 청각 데이터를 감시 또는 모니터링하는 기능을 수행한다. 중요 데이터 처리부(125)는 사용자에 의해 미리 저장된 중요 데이터와 대응되는 청각 데이터가 감지되는지 여부를 감시 또는 모니터링(monitoring)할 수 있다. 중요 데이터 처리부(125)는 사용자에 의해 중요 데이터인 텍스트 또는 소리, 사운드, 음성 등이 저장될 수 있도록 제어한다. 중요 데이터 처리부(125)는 사용자에 의해 가까운 사이의 사람의 이름, 목소리 자체를 저장하고, 저장된 이름과 대응되는 청각 데이터가 감지되거나, 사람의 목소리와 대응되는 청각 데이터가 감지되는지 여부를 감시할 수 있다. 중요 데이터 처리부(125)는 사용자에 의해 목적지 역을 저장하고, 상기 목적지 역과 대응되는 청각 데이터가 감지되는지 여부를 감시할 수 있다. 이를 통해, 본 발명의 실시예들에 따른 전자 출력 장치(100)는 대중 교통 수단을 이용하여 이동하기 전에 목적지를 중요 데이터로 설정할 수 있고, 목적지에 다다른 경우, 사용자가 잊지 않고 하차할 수 있도록 도와줄 수 있다. The important
도 3은 출력 제어부(124) 및 출력부(150)의 구조 및 동작을 설명하기 위한 도면이다. 3 is a diagram for explaining the structure and operation of the
도 3에 도시된 바와 같이, 출력 제어부(124)는 돌기 제어부(1241), 및 진동 제어부(1242)를 포함하고, 출력부(150)는 제1 돌기(151a), 제2 돌기(151b), 제3 돌기(151c), 제4 돌기(151d), 제5 돌기(151e), 제6 돌기(151f) 및 진동 모터(152)를 포함할 수 있다. 3, the
돌기 제어부(1241)은 처리부(123)에 의해 생성된 제1 출력 데이터에 따라 돌기들(151)이 구동될 수 있도록 제어한다. The
여기서 복수개의 돌기들(151)은 예를 들어, 가로 2열 세로 3행으로 구성될 수 있다. 도 3에서는 설명의 편의를 위해서, 6개의 돌기들을 포함하는 경우를 도시하였으나, 6개의 배수 만큼의 돌기들(12개, 18개, 24 개 등)을 포함할 수 있다. 진동 제어부(1242)는 처리부(123)에 의해 생성된 제2 출력 데이터에 따라 진동이 발생할 수 있도록 진동 모터(152)를 제어한다. 복수개의 돌기(151)은 돌기 제어부(1241)과 전기적으로 연결되어 있고, 돌기 제어부(1241)은 처리부(123)로부터 제1 출력 데이터를 수신 받아 선택된 하나 이상의 돌기(151)를 직선 운동시킬 수 있다. 여기선 선택된 돌기는 선택되지 않은 돌기 보다 더 상승되는 위치로 직선 이동될 수 있다.Here, the plurality of
진동 모터(152)는 진동 신호를 출력할 수 있다. 예를 들어, 진동 모터(152)는 제2 출력 데이터에 대응하는 진동 신호를 출력할 수 있다. The
도 4은 본 발명의 일 실시 예에 따른 전자 출력 장치의 외관을 개략적으로 설명하기 위하여 도시한 도면이다.4 is a schematic view for explaining an appearance of an electronic output device according to an embodiment of the present invention.
도 4a를 참조하면, 돌기들(151) 및 진동모터(152)를 포함하는 독립적인 전자 출력 장치(100)의 외관을 도시하고 있으며, 시계줄을 포함하는 스마트 시계 형식으로 구현되어 있다. 스마트 시계로 구현된 전자 출력 장치(100) 내부에는 처리부(123) 및 출력 제어부(124)가 구비되어 있다. 이러한 전자 출력 장치(100)는 돌기(151)의 직선운동에 의해 제1 출력 데이터를 표시하는 브레일 디스플레이 기기 일 수 있다. 도 10a에 도시된 전자 출력 장치(100)는 사용자가 손으로 직접 돌기(151)를 접촉하여 청각 데이터와 대응되는 출력 데이터를 인식할 수 있다.Referring to FIG. 4A, the external appearance of the independent
도 4b를 참조하면, 스마트 폰과 연동되는 스마트 시계로써의 사용자 단말기와 돌기들(151) 및 진동모터(152)를 포함하는 전자 출력 장치(100)가 결합된 외관을 도시하고 있다. 도 4b의 경우 스마트 시계의 상부는 유기 발광 디스플레이 유닛, 무기 발광 디스플레이 유닛 또는 액정 디스플레이 유닛 중 하나로 구현되어 있고, 스마트 시계의 하부는 전자 출력 장치(100)의 돌기(151)가 구현될 수 있음을 도시하고 있다. 도 4b에 도시된 전자 출력 장치(100)와 결합된 스마트 시계로써의 사용자 단말기의 경우 사용자가 스마트 시계를 착용한 신체의 일부분이 돌기(151)의 직선운동을 감지하여 청각 데이터와 대응되는 출력 데이터를 인식할 수 있다.Referring to FIG. 4B, there is shown an external view of a user terminal as a smart watch interlocked with a smartphone, and an
도 4c를 참조하면, 스마트 폰과 연동되는 스마트 시계로써의 사용자 단말기와 돌기들(151) 및 진동모터(152)를 포함하는 전자 출력 장치(100)가 결합된 외관을 도시하고 있다. 도 4c의 경우 스마트 시계의 상부에 디스플레이 유닛과 전자 출력 장치(100)의 돌기(151)가 구현될 수 있음을 도시하고 있다. 도 4c에 도시된 전자 출력 장치(100)와 결합된 스마트 시계로써의 사용자 단말기(T1)의 경우 사용자가 손으로 직접 돌기(151)를 접촉하여 청각 데이터와 대응되는 출력 데이터를 인식할 수 있다. Referring to FIG. 4C, there is shown an external view of a user terminal as a smart watch interlocked with a smart phone, and an
도 4d를 참조하면, 스마트 폰으로써의 사용자 단말기와 돌기들(151) 및 진동모터(152)를 포함하는 전자 출력 장치(100)가 결합된 외관을 도시하고 있다. Referring to FIG. 4D, a user terminal as a smartphone and an
도 5 내지 도 6는 본 발명의 실시예들에 따른 전자 출력 방법을 나타내는 흐름도이다. 5 to 6 are flowcharts illustrating an electronic output method according to embodiments of the present invention.
도 5를 참조하면, 본 발명의 실시예들에 따른 전자 출력 방법은 청각 데이터를 감지하는 단계(S110), 인식 데이터를 추출하는 단계(S120), 출력 데이터를 생성하는 단계(S130), 돌기들 및 진동 모터를 구동하는 단계(S140)를 포함할 수 있다. Referring to FIG. 5, an electronic output method according to embodiments of the present invention includes a step S110 of sensing auditory data, a step S120 of extracting recognition data, a step S130 of generating output data, And driving the vibration motor (S140).
S110에서는 전자 출력 장치(100)는 청각 데이터를 감지하도록 제어하는 기능을 수행한다. 전자 출력 장치(100)는 외부의 객체로부터 청각 데이터를 센싱하도록 제어한다. 전자 출력 장치(100)는 주변에서 발생하는 음악, 음성, 소리 등을 감지할 수 있다. In step S110, the
S120에서는 전자 출력 장치(100)는 상기 청각 데이터를 분석하여, 상기 청각 데이터의 종류를 결정하고, 상기 청각 데이터의 종류를 고려하여, 상기 청각 데이터와 대응되는 인식 데이터를 추출할 수 있다. 전자 출력 장치(100)는 감지된 청각 데이터에 포함된 노이즈(noise)를 제거하고, 청각 데이터를 주파수 영역으로 변환하고, 변환한 청각 데이터에 포함된 특징 정보를 추출하고, 특징 정보로부터 청각 데이터를 발생시키는 주체, 예를 들어 사람, 동물, 악기, 및 자동차 등을 결정할 수 있다. 전자 출력 장치(100)는 사람, 동물, 악기 및 자동차 등으로부터 발생한 소리 데이터의 특징 정보를 미리 저장하고, 저장된 특징 정보들과 청각 데이터의 추출된 특징 정보를 비교함으로써, 청각 데이터의 종류를 결정할 수 있다. 여기서, 청각 데이터의 종류는 청각 데이터를 발생시키는 주체에 따라 설정되며, 사람, 동물, 천둥소리, 사이렌 소리, 카톡 울림, 전화벨 소리 등일 수 있다. 전자 출력 장치(100)는 청각 데이터의 종류를 고려하여, 상기 청각 데이터와 대응되는 인식 데이터를 추출할 수 있다. 만약 청각 데이터의 종류가 사람이라면, 전자 출력 장치(100)는 상기 청각 데이터와 대응되는 인식 데이터로서, 청각 데이터에 포함된 텍스트 구간을 추출하고, 음성 인식(voice recognition) 기술을 이용하여 청각 데이터에 포함된 텍스트를 획득할 수 있다. 좀더 구체적으로, 사람의 말소리가 감지된 경우, 전자 출력 장치(100)는 감지된 사람의 말소리와 대응되는 텍스트를 인식 데이터로 생성할 수 있다. 사람의 노랫소리가 감지된 경우 역시, 전자 출력 장치(100)는 청각 데이터에 포함된 가사와 대응되는 텍스트를 인식 데이터로 생성할 수 있다. 특히, 사람의 음성이 감지된 경우, 전자 출력 장치(100)는 상기 청각 데이터와 대응되는 텍스트를 추출할 뿐 아니라, 상기 청각 데이터를 발생시킨 사람의 감정, 말의 진위 등도 분석할 수 있다. 화난 사람의 음성이 감지된 경우, 전자 출력 장치(100)는 상기 청각 데이터와 대응하여, ‘화난 사람’, ‘화가남’과 같은 텍스트를 청각 데이터와 대응되는 인식 데이터로 생성할 수 있다. 슬픈 사람의 음성이 감지된 경우, 전자 출력 장치(100)는 상기 청각 데이터와 대응하여, ‘슬픈 사람’, ‘슬픔’과 같은 텍스트를 청각 데이터와 대응되는 인식 데이터로 생성할 수 있다. 당황한 사람의 음성이 감지된 경우, 전자 출력 장치(100)는 상기 청각 데이터와 대응하여, ‘당황한 사람’ 등과 같은 텍스트를 청각 데이터와 대응되는 인식 데이터로 생성할 수 있다. In S120, the
또한, 버스, 지하철 등에서의 다음 정류장 정보이 감지된 경우, 전자 출력 장치(100)는 청각 데이터와 대응하여, 감지된 정류장 정보를 인식 데이터로 생성할 수 있다. 예를 들어, ‘낙성대입구역’과 같은 정류장 이름이 감지되면, 감지된 소리는 발생됨과 동시에 사라지는 것을 방지하기 위해서, 전자 출력 장치(100)는 청각 데이터와 대응하여, ‘낙성대입구역’을 인식 데이터로 생성할 수 있다. When the next stop information in the bus, subway, or the like is sensed, the
만약 청각 데이터의 종류가 효과음 또는 알림음이라면, 전자 출력 장치(100)는 상기 청각 데이터에 포함된 효과음의 의미를 상기 청각 데이터와 대응되는 인식 데이터로서 추출할 수 있다. 예를 들어, 소방차의 사이렌 소리가 감지된 경우, 전자 출력 장치(100)는 ‘소방차’, ‘불’,‘소방차가 지나간다’등의 텍스트를 인식 데이터로서 생성할 수 있다. 천둥소리가 감지된 경우, 전자 출력 장치(100)는 청각 데이터에 포함된 효과음의 의미인 ‘비’ 또는 ‘비가 내림’ 등의 텍스트를 인식 데이터로 생성할 수 있다. 사람의 비병 소리가 감지된 경우, 전자 출력 장치(100)는 ‘위험’, ‘비명’ 등과 같은 텍스트를 인식 데이터로 생성할 수 있다. 다른 실시예에서, 전자 출력 장치(100)는 감지된 청각 데이터의 종류가 음악인 경우, 청각 데이터에 포함된 비트를 추출하고, 청각 데이터에 포함된 비트에 따라 진동 데이터를 생성할 수 있다. 전자 출력 장치(100)는 감지된 청각 데이터의 종류가 음악인 경우, 청각 데이터의 특징 정보를 추출하고, 상기 특징 정보를 고려하여, 음악의 제목을 검색할 수 있다. 전자 출력 장치(100)는 감지된 청각 데이터의 제목을 획득하기 위해서, 외부의 검색 서비스 제공 서버(미도시)로 접속할 수 있다. 선택적 실시예에서, 전자 출력 장치(100)는 청각 데이터와 대응되는 인식 데이터를 생성하고, 상기 인식 데이터에 대한 상세 정보를 검색할 수 있다. 전자 출력 장치(100)는 청각 데이터와 대응되는 인식 데이터인 ‘비’, ‘소방차’, ‘낙성대입구역’ 등을 생성하고, 상기 인식 데이터를 포털 서버, 검색 서버 등에 전송함으로써, 상기 인식 데이터에 대한 뉴스 등의 상세 정보를 검색할 수 있다.If the type of the auditory data is an effect sound or a notification sound, the
S130에서는 전자 출력 장치(100)는 상기 청각 데이터와 대응하는 인식 데이터와 대응되는 제1 출력 데이터를 생성할 수 있다. 여기서, 제1 출력 데이터는 인식 데이터에 포함되는 하나 이상의 텍스트를 나타내는 데이터로서, 텍스트를 표현하는 점자 데이터를 포함할 수 있다. In step S130, the
전자 출력 장치(100)는 청각 데이터를 통해 획득된 인식 데이터가 복수의 돌기들 및/또는 진동 모터를 통해 전달될 수 있도록 제1 출력 데이터를 생성할 수 있다. 전자 출력 장치(100)는 청각 데이터를 통해 획득된 인식 데이터의 텍스트가 각각 6개의 돌기들을 포함하는 하나의 셋트의 돌기를 통해 표시될 수 있도록 제1 출력 데이터를 생성할 수 있다. 전자 출력 장치(100)는 인식 데이터의 비트에 따라 진동 모터의 진동 시간, 진동 세기, 진동 주파수 등을 제어하는 제2 출력 데이터를 생성할 수 있다. 제2 출력 데이터는 청각 데이터의 비트에 따라 진동이 발생하고, 청각 데이터의 주파수, 세기 등에 따라 진동 모터의 진동 시간, 진동 세기, 진동 주파수 등을 제어하도록 할 수 있다. 예를 들어, 비트와 가사를 포함하는 청각 데이터를 감지한 경우, 전자 출력 장치(100)는 청각 데이터의 가사에 따라 텍스트가 표현되도록 제어하는 제1 출력 데이터 및 청각 데이터의 비트에 따라 진동이 발생하도록 제어하는 제2 출력 데이터를 생성할 수 있다. The
S140에서는 전자 출력 장치(100)는 상기 제1 출력 데이터에 따라 복수의 돌기들을 구동하거나, 제2 출력 데이터에 따라 진동 모터를 구동한다. In step S140, the
도 6을 참조하면, 본 발명의 실시예들에 따른 전자 출력 방법은 중요 데이터 입력 단계(S210), 청각 데이터 감지 단계(S220), 인식 데이터 추출 단계(S230), 판단 단계(S240), 구동 단계(S250)를 포함할 수 있다. Referring to FIG. 6, an electronic output method according to embodiments of the present invention includes an input step S210, an auditory data sensing step S220, a recognition data extraction step S230, a determination step S240, (S250).
S210에서는 전자 출력 장치(100)는 사용자에 의해 중요 데이터 및 중요 데이터에 대한 출력 데이터를 입력받도록 제어한다. 여기서, 중요 데이터는 텍스트 또는 청각 데이터를 말하며, 사용자가 모니터링하고자 하는 텍스트 또는 목소리 일 수 있다. 예를 들어, 전자 출력 장치(100)는 사용자에 의해 ‘목적지 역’, ‘사람 이름’ 등과 같은 중요 데이터를 입력 받도록 제어하고, 각 중요 데이터가 감지되는 경우, 중요 데이터에 대한 출력 데이터를 입력 받도록 제어한다. 여기서, 중요 데이터에 대한 출력 데이터는 진동 모터를 통해 출력 되거나, 복수의 돌기들을 통해 출력되어야 하는 데이터를 말하며, 중요 데이터 자체와 일치하는 데이터일 수 있으나, 이에 한정되지 않고 사용자에 의해 입력될 수 있다. In S210, the
S220에서는 전자 출력 장치(100)는 입력부(140)를 통해, 청각 데이터를 감지한다. In S220, the
S230에서는 전자 출력 장치(100)는 상기 청각 데이터와 대응되는 인식 데이터를 추출한다. S230의 동작은 S220의 동작과 동일하므로, 상세한 설명을 생략한다. In S230, the
S240에서는 전자 출력 장치(100)는 상기 인식 데이터 또는 상기 청각 데이터와 중요 데이터가 일치하는지 여부를 판단한다. 중요 데이터가 텍스트인 경우, 전자 출력 장치(100)는 상기 중요 데이터와 상기 인식 데이터가 일치하는지 여부를 판단한다. 중요 데이터가 청각 데이터인 경우, 전자 출력 장치(100)는 상기 청각 데이터의 특징 정보 및 상기 중요 데이터의 특징 정보가 일치하는지 여부를 판단한다. In S240, the
S250에서는 판단 결과, 일치하는 경우, 전자 출력 장치(100)는 상기 중요 데이터에 대한 표시 데이터에 따라 복수의 돌기들 또는 진동 모터를 구동한다. If it is determined in step S250 that the values match, the
본 발명의 실시예들에 따른 전자 출력 장치(100)는 사용자가 중요한 정보를 포함하는 청각 데이터를 인지하지 못하고 지나치는 상황이 발생하지 않도록 중요한 정보와 대응되는 청각 데이터를 다시 알려줄 수 있다. The
도 7 및 도 8은 전자 출력 장치(100)의 사용 예를 설명하기 위한 도면이다. Figs. 7 and 8 are diagrams for explaining an example of use of the
도 7에 도시된 바와 같이, 전자 출력 장치(100)는 주변에서 발생할 수 있는 새 소리, 비 소리, 자동차 소리와 대응되는 청각 데이터를 감지할 수 있다. As shown in FIG. 7, the
감지된 새 소리에 따라 전자 출력 장치(100)는 새 소리의 비트에 따른 출력 데이터를 생성하고, 상기 출력 데이터에 따라 진동이 발생될 수 있도록 제어한다. According to the detected new sound, the
감지된 비 소리에 따라 전자 출력 장치(100)는 ‘비’를 인식 데이터로 추출하고, 상기 인식 데이터와 대응되는 출력 데이터를 생성하고, 상기 출력 데이터인 ‘비’에 따라 복수의 돌기들이 구동될 수 있도록 제어한다. 전자 출력 장치(100)는 ‘비’와 관련된 뉴스를 검색하여, 뉴스의 내용을 출력 데이터로 생성하고, 상기 출력 데이터에 따라 복수의 돌기들이 구동될 수 있도록 제어한다. The
감지된 자동차 소리에 따라 전자 출력 장치(100)는 자동차의 이동, 정지 등의 움직임과 대응되는 출력 데이터를 생성하고, 상기 출력 데이터에 따라 복수의 돌기들이 구동될 수 있도록 제어한다. The
도 8에 도시된 바와 같이, 지하철에 탑승한 사용자가 전자 출력 장치(100)을 착용한 경우, 사용자는 전자 출력 장치(100)를 통해 안내 방송, 도착역 등과 같은 청각 데이터를 감지하고, 상기 청각 데이터와 대응되는 출력 데이터를 생성하고, 상기 출력 데이터에 따라 복수의 돌기들이 구동될 수 있도록 제어한다. As shown in FIG. 8, when the user wearing the subway accesses the
이상 설명된 본 발명에 따른 실시예는 컴퓨터 상에서 다양한 구성요소를 통하여 실행될 수 있는 컴퓨터 프로그램의 형태로 구현될 수 있으며, 이와 같은 컴퓨터 프로그램은 컴퓨터로 판독 가능한 매체에 기록될 수 있다. 이때, 매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다. The embodiments of the present invention described above can be embodied in the form of a computer program that can be executed on various components on a computer, and the computer program can be recorded on a computer-readable medium. At this time, the medium may be a magnetic medium such as a hard disk, a floppy disk and a magnetic tape, an optical recording medium such as CD-ROM and DVD, a magneto-optical medium such as a floptical disk, , A RAM, a flash memory, and the like, which are specifically configured to store and execute program instructions.
한편, 상기 컴퓨터 프로그램은 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 프로그램의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함될 수 있다.Meanwhile, the computer program may be specifically designed and configured for the present invention or may be known and used by those skilled in the computer software field. Examples of computer programs may include machine language code such as those produced by a compiler, as well as high-level language code that may be executed by a computer using an interpreter or the like.
본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.The specific acts described in the present invention are, by way of example, not intended to limit the scope of the invention in any way. For brevity of description, descriptions of conventional electronic configurations, control systems, software, and other functional aspects of such systems may be omitted. Also, the connections or connecting members of the lines between the components shown in the figures are illustrative of functional connections and / or physical or circuit connections, which may be replaced or additionally provided by a variety of functional connections, physical Connection, or circuit connections. Also, unless explicitly mentioned, such as " essential ", " importantly ", etc., it may not be a necessary component for application of the present invention.
본 발명의 명세서(특히 특허청구범위에서)에서 “상기”의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 본 발명에서 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 적용한 발명을 포함하는 것으로서(이에 반하는 기재가 없다면), 발명의 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 본 발명에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 본 발명이 한정되는 것은 아니다. 본 발명에서 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 본 발명을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 본 발명의 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.The use of the terms " above " and similar indication words in the specification of the present invention (particularly in the claims) may refer to both singular and plural. In addition, in the present invention, when a range is described, it includes the invention to which the individual values belonging to the above range are applied (unless there is contradiction thereto), and each individual value constituting the above range is described in the detailed description of the invention The same. Finally, the steps may be performed in any suitable order, unless explicitly stated or contrary to the description of the steps constituting the method according to the invention. The present invention is not necessarily limited to the order of description of the above steps. The use of all examples or exemplary language (e.g., etc.) in this invention is for the purpose of describing the present invention only in detail and is not to be limited by the scope of the claims, It is not. It will also be appreciated by those skilled in the art that various modifications, combinations, and alterations may be made depending on design criteria and factors within the scope of the appended claims or equivalents thereof.
Claims (1)
청각 데이터를 감지하도록 제어하는 입력 제어부;
상기 청각 데이터를 분석하여, 상기 청각 데이터의 종류를 결정하고, 상기 청각 데이터의 종류를 고려하여, 상기 청각 데이터와 대응되는 인식 데이터를 생성하는 분석부;
상기 인식 데이터와 대응되는 제1 출력 데이터를 생성하는 처리부;
상기 제1 출력 데이터에 따라 복수의 돌기들이 구동될 수 있도록 제어하는 출력 제어부;를 포함하는 전자 출력 장치. A plurality of protrusions;
An input control unit for controlling to sense auditory data;
An analysis unit for analyzing the auditory data to determine a type of the auditory data and generating recognition data corresponding to the auditory data in consideration of the type of the auditory data;
A processing unit for generating first output data corresponding to the recognition data;
And an output controller for controlling the plurality of projections to be driven according to the first output data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170099143A KR20170094527A (en) | 2017-08-04 | 2017-08-04 | Electronic display apparatus, method, and computer readable recoding medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170099143A KR20170094527A (en) | 2017-08-04 | 2017-08-04 | Electronic display apparatus, method, and computer readable recoding medium |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150154769A Division KR101768692B1 (en) | 2015-11-04 | 2015-11-04 | Electronic display apparatus, method, and computer readable recoding medium |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20170094527A true KR20170094527A (en) | 2017-08-18 |
Family
ID=59753314
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170099143A KR20170094527A (en) | 2017-08-04 | 2017-08-04 | Electronic display apparatus, method, and computer readable recoding medium |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20170094527A (en) |
-
2017
- 2017-08-04 KR KR1020170099143A patent/KR20170094527A/en active Application Filing
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11687319B2 (en) | Speech recognition method and apparatus with activation word based on operating environment of the apparatus | |
KR102103057B1 (en) | Voice trigger for a digital assistant | |
US10074364B1 (en) | Sound profile generation based on speech recognition results exceeding a threshold | |
JP7160967B2 (en) | Keyphrase detection with audio watermark | |
US20160150338A1 (en) | Sound event detecting apparatus and operation method thereof | |
KR102228455B1 (en) | Device and sever for providing a subject of conversation and method for providing the same | |
US20210210086A1 (en) | Method for processing voice signals of multiple speakers, and electronic device according thereto | |
EP2688014A1 (en) | Method and Apparatus for Recommending Texts | |
US20190180747A1 (en) | Voice recognition apparatus and operation method thereof | |
JP2017509009A (en) | Track music in an audio stream | |
CN110827825A (en) | Punctuation prediction method, system, terminal and storage medium for speech recognition text | |
US10452351B2 (en) | Information processing device and information processing method | |
US11830501B2 (en) | Electronic device and operation method for performing speech recognition | |
KR101774236B1 (en) | Apparatus and method for context-awareness of user | |
US20130332166A1 (en) | Processing apparatus, processing system, and output method | |
KR20200005476A (en) | Retroactive sound identification system | |
US11455178B2 (en) | Method for providing routine to determine a state of an electronic device and electronic device supporting same | |
CN113225624A (en) | Time-consuming determination method and device for voice recognition | |
US20200143807A1 (en) | Electronic device and operation method thereof | |
KR101768692B1 (en) | Electronic display apparatus, method, and computer readable recoding medium | |
KR20200040562A (en) | System for processing user utterance and operating method thereof | |
KR20170094527A (en) | Electronic display apparatus, method, and computer readable recoding medium | |
KR20170081418A (en) | Image display apparatus and method for displaying image | |
KR101899021B1 (en) | Method for providing filtered outside sound and voice transmitting service through earbud | |
JP6216560B2 (en) | Communication terminal, program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent |