KR20190026518A - Method for operating voice recognition apparatus - Google Patents
Method for operating voice recognition apparatus Download PDFInfo
- Publication number
- KR20190026518A KR20190026518A KR1020170113546A KR20170113546A KR20190026518A KR 20190026518 A KR20190026518 A KR 20190026518A KR 1020170113546 A KR1020170113546 A KR 1020170113546A KR 20170113546 A KR20170113546 A KR 20170113546A KR 20190026518 A KR20190026518 A KR 20190026518A
- Authority
- KR
- South Korea
- Prior art keywords
- voice
- user
- speech recognition
- server
- data
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 70
- 230000004044 response Effects 0.000 claims abstract description 36
- 238000013507 mapping Methods 0.000 claims description 4
- 238000004891 communication Methods 0.000 description 67
- 238000003058 natural language processing Methods 0.000 description 36
- 230000006870 function Effects 0.000 description 30
- 230000008569 process Effects 0.000 description 27
- 150000003071 polychlorinated biphenyls Chemical class 0.000 description 26
- 238000012545 processing Methods 0.000 description 23
- 238000013528 artificial neural network Methods 0.000 description 16
- 238000006243 chemical reaction Methods 0.000 description 16
- 238000005516 engineering process Methods 0.000 description 16
- YKKYCYQDUUXNLN-UHFFFAOYSA-N 2,4-dichloro-1-(2-chlorophenyl)benzene Chemical compound ClC1=CC(Cl)=CC=C1C1=CC=CC=C1Cl YKKYCYQDUUXNLN-UHFFFAOYSA-N 0.000 description 15
- QHZSDTDMQZPUKC-UHFFFAOYSA-N 3,5-dichlorobiphenyl Chemical compound ClC1=CC(Cl)=CC(C=2C=CC=CC=2)=C1 QHZSDTDMQZPUKC-UHFFFAOYSA-N 0.000 description 11
- 238000013135 deep learning Methods 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 8
- 238000013527 convolutional neural network Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 238000005406 washing Methods 0.000 description 8
- DCMURXAZTZQAFB-UHFFFAOYSA-N 1,4-dichloro-2-(2-chlorophenyl)benzene Chemical compound ClC1=CC=C(Cl)C(C=2C(=CC=CC=2)Cl)=C1 DCMURXAZTZQAFB-UHFFFAOYSA-N 0.000 description 7
- 239000000284 extract Substances 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 6
- 230000005236 sound signal Effects 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 5
- 230000001965 increasing effect Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000005192 partition Methods 0.000 description 5
- 229920003002 synthetic resin Polymers 0.000 description 5
- 239000000057 synthetic resin Substances 0.000 description 5
- 239000000463 material Substances 0.000 description 4
- 230000000306 recurrent effect Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 238000003780 insertion Methods 0.000 description 3
- 230000037431 insertion Effects 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 239000000853 adhesive Substances 0.000 description 2
- 230000001070 adhesive effect Effects 0.000 description 2
- 239000006227 byproduct Substances 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 239000000243 solution Substances 0.000 description 2
- 239000000758 substrate Substances 0.000 description 2
- 101100172132 Mus musculus Eif3a gene Proteins 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- NIXOWILDQLNWCW-UHFFFAOYSA-N acrylic acid group Chemical group C(C=C)(=O)O NIXOWILDQLNWCW-UHFFFAOYSA-N 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000001154 acute effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000003925 brain function Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010411 cooking Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000001746 injection moulding Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000007769 metal material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 239000004745 nonwoven fabric Substances 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 239000011148 porous material Substances 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Signal Processing (AREA)
- General Health & Medical Sciences (AREA)
- Selective Calling Equipment (AREA)
Abstract
Description
본 발명은 음성 인식 장치 및 그 동작 방법에 관한 것으로, 더욱 상세하게는 사용자 맞춤형 음성 안내를 제공할 수 있는 음성 인식 장치 및 그 동작 방법에 관한 것이다.BACKGROUND OF THE
음성 인식 장치는, 음성 인식 기능을 수행하기 위한 장치이다. The speech recognition apparatus is a device for performing a speech recognition function.
한편, 가정이나 사무실 등의 소정 공간에서 사용되는 공기조화기, 세탁기, 청소기 등 홈 어플라이언스(Home appliance)들은 각각 사용자의 조작에 따라 고유의 기능과 동작을 수행하였다. On the other hand, home appliances such as an air conditioner, a washing machine, a vacuum cleaner, and the like used in a predetermined space such as a home or an office perform unique functions and operations according to user's operations.
한편, 홈 어플라이언스의 동작을 위해서, 사용자는, 홈 어플라이언스 본체에 구비된 버튼 등을 직접 조작하거나, 매번 본체로 이동하여 입력하여야 하는 불편함을 피해 리모콘 등의 원격제어장치를 사용할 수 있다. On the other hand, for the operation of the home appliance, the user can use a remote control device such as a remote controller to avoid the inconvenience of directly operating a button or the like provided in the home appliance body or inputting it to the main body every time.
하지만, 리모콘을 사용하는 경우에도, 사용자가 기능별로 조작키를 선택하여 입력해야 하므로, 그 사용이 불편하고, 실내가 어두울 경우 리모콘 및 조작키를 식별하기 위한 별도의 조명이 필요하게 되는 문제점이 있었다. However, even when a remote controller is used, the user has to select and input an operation key for each function, which is inconvenient to use, and when the room is dark, separate illumination for identifying the remote controller and the operation key is required .
따라서, 음성인식 기술을 이용하여 홈 어플라이언스를 제어하는 방안에 대한 연구가 증가하고 있다. Therefore, there is an increasing research on a method of controlling a home appliance using speech recognition technology.
종래 기술 1(공개특허공보 10-1999-00069703호)은 공기조화기용 리모콘이 음성 입력부 및 신호 처리부를 구비하여 음성 인식에 따른 조작 신호를 생성, 전송한다. Prior Art 1 (Laid-Open Patent Publication No. 10-1999-00069703) discloses a remote controller for an air conditioner having an audio input unit and a signal processing unit to generate and transmit an operation signal according to voice recognition.
종래 기술 2(공개특허공보 10-2006-0015092호)는 입력되는 음성신호를 디지털 신호 및 텍스트로 변환 후, 데이터베이스 내 일치하는 제어 명령 존재 여부 확인하고, 일치하는 제어명령이 있으면 공기조화기 내 각 장치를 제어하며, 일치하는 제어명령이 없으면 키워드를 추출하여 연계된 제어명령에 따라 공기조화기 내 각 장치를 제어한다. In the conventional art 2 (Japanese Unexamined Patent Publication (Kokai) No. 10-2006-0015092), an input voice signal is converted into a digital signal and text, and it is checked whether there is a control command in the database. And if there is no matching control command, extracts the keyword and controls each device in the air conditioner according to the associated control command.
하지만, 리모콘 및 공기조화기 등 개별 장치가 구비할 수 있는 시스템 자원에는 한계가 있다. 특히 단순한 몇 가지 단어만 인식하는 것이 아니라 자연어를 인식하기 위해서는 높은 연산량이 요구되어 개별 장치에 장착되는 임베디드 모듈로는 구현이 어렵다. However, there is a limit to the system resources that individual devices such as remote controllers and air conditioners can have. Especially, it is difficult to realize embedded modules that are installed in individual devices because it requires a high computation amount to recognize natural words rather than only a few words.
따라서, 종래 기술 1과 종래 기술 2의 음성 인식 기술은, 전 세계 사용자들의 다양한 자연어 음성 명령을 인식하고 처리하는데 한계가 있었다.
Therefore, the speech recognition technology of the
그러므로, 개별 장치의 시스템 자원의 제약 없이 자연어를 인식하고 처리할 수 있고, 홈 어플라이언스를 편리하게 제어할 수 있는 방안이 요구된다.Therefore, there is a need for a method that can recognize and process natural language without restriction of the system resources of the individual devices, and can conveniently control the home appliance.
또한, 사용자의 음성 입력 또는 특정 이벤트에 대응하여 음성으로 안내 메시지를 제공함으로써, 기기 사용에 서툰 사용자가 편리하게 다양한 기능 및 서비스를 이용하는데 도움을 줄 수 있는 방안이 요구된다.In addition, it is required to provide a guidance message by voice in correspondence with a voice input of a user or a specific event, thereby helping a poor user to conveniently use various functions and services.
본 발명의 목적은, 사용자 맞춤형 음성 안내를 제공할 수 있는 음성 인식 장치 및 그 동작 방법을 제공함에 있다.It is an object of the present invention to provide a speech recognition apparatus and a method of operating the same that can provide a user-customized voice guidance.
본 발명의 목적은, 사용자를 식별하고, 식별된 사용자의 음색과 유사한 음성 안내를 제공할 수 있는 음성 인식 장치 및 그 동작 방법을 제공함에 있다.It is an object of the present invention to provide a speech recognition apparatus and a method of operating the same that can identify a user and provide voice guidance similar to the tone of the identified user.
본 발명의 목적은, 서버 시스템과의 통신에 의해 자연어 음성 인식을 수행할 수 있는 음성 인식 장치 및 그 동작 방법을 제공함에 있다.An object of the present invention is to provide a speech recognition apparatus capable of performing speech recognition in natural language by communication with a server system and an operation method thereof.
본 발명의 목적은, 비숙련 사용자들도 편리하게 다양한 기능 및 서비스를 이용할 수 있어 사용자의 이용 편의성을 증대할 수 있는 음성 인식 장치 및 그 동작 방법을 제공함에 있다.It is an object of the present invention to provide a speech recognition apparatus and a method of operating the same that can enhance convenience for users because non-skilled users can conveniently use various functions and services.
상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따른 음성 인식 장치의 동작 방법은, 마이크를 통하여 사용자의 음성 입력 신호를 수신하는 단계, 음성 입력 신호 대응하는 음성 데이터를 음성 인식 서버 시스템으로 전송하는 단계, 음성 입력 신호의 주파수 및 세기에 기초하여 사용자를 식별하는 단계, 음성 인식 서버 시스템으로부터 음성 입력 신호에 기초한 응답 신호를 수신하는 단계, 및, 수신한 응답 신호에 대응하는 음성 안내 메시지를 출력하는 단계를 포함하고, 음성 안내 메시지 출력 단계는, 식별된 사용자에 대응하여 데이터베이스에 저장된 음색 데이터에 기초하는 음성으로 음성 안내 메시지를 출력함으로써, 사용자 맞춤형 음성 안내를 제공할 수 있다.According to another aspect of the present invention, there is provided a method of operating a speech recognition apparatus, comprising: receiving a user's speech input signal through a microphone; transmitting speech data corresponding to the speech input signal to a speech recognition server system; Identifying a user based on the frequency and intensity of the speech input signal; receiving a response signal based on the speech input signal from the speech recognition server system; and outputting a speech announcement message corresponding to the received response signal And the voice guidance message output step may output a voice guidance message with a voice based on the voice data stored in the database in correspondence with the identified user, thereby providing a user-customized voice guidance.
상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따른 음성 인식 장치의 동작 방법은, 마이크를 통하여 사용자의 음성 입력 신호를 수신하는 단계, 음성 입력 신호의 주파수 및 세기에 기초하여 사용자를 식별하는 단계, 및, 식별된 사용자에 대응하여 데이터베이스에 저장된 음색 데이터에 기초하는 음성 안내 메시지를 출력하는 단계를 포함함으로써, 식별된 사용자의 음색과 유사한 음성 안내를 제공할 수 있다.According to another aspect of the present invention, there is provided a method of operating a speech recognition device, comprising: receiving a user's speech input signal through a microphone; identifying a user based on the frequency and intensity of the speech input signal; And outputting a voice guidance message based on the voice data stored in the database in correspondence with the identified user, thereby providing voice guidance similar to the voice of the identified user.
본 발명의 실시예들 중 적어도 하나에 의하면, 사용자 맞춤형 음성 안내를 제공할 수 있어, 사용자의 편의성 및 감성 품질을 증대할 수 있다.According to at least one embodiment of the present invention, it is possible to provide a user-customized voice guidance, thereby enhancing the user's convenience and emotional quality.
또한, 본 발명의 실시예들 중 적어도 하나에 의하면, 사용자를 식별하고, 식별된 사용자의 음색과 유사한 음성 안내를 제공할 수 있다.Further, according to at least one of the embodiments of the present invention, it is possible to identify the user and provide voice guidance similar to the tone of the identified user.
또한, 본 발명의 실시예들 중 적어도 하나에 의하면, 서버 시스템과의 통신에 의해 효율적으로 자연어 음성 인식을 수행할 수 있다.Further, according to at least one of the embodiments of the present invention, natural language speech recognition can be efficiently performed by communication with the server system.
또한, 본 발명의 실시예들 중 적어도 하나에 의하면, 비숙련 사용자들도 편리하게 다양한 기능 및 서비스를 이용할 수 있어 사용자의 이용 편의성을 증대할 수 있다.Also, according to at least one of the embodiments of the present invention, non-skilled users can conveniently utilize various functions and services, thereby increasing convenience for the user.
또한, 본 발명의 실시예들 중 적어도 하나에 의하면, 제품별, 개인별로 수집되는 데이터를 이용하여 음성 인식 성능을 향상할 수 있다.In addition, according to at least one of the embodiments of the present invention, speech recognition performance can be improved by using data collected by product and individual.
한편, 그 외의 다양한 효과는 후술될 본 발명의 실시예에 따른 상세한 설명에서 직접적 또는 암시적으로 개시될 것이다.Meanwhile, various other effects will be directly or implicitly disclosed in the detailed description according to the embodiment of the present invention to be described later.
도 1은 본 발명의 일 실시예에 따른 홈 네트워크 시스템을 도시한 것이다.
도 2는 본 발명의 다른 실시예에 따른 홈 네트워크 시스템을 도시한 것이다.
도 3은 본 발명의 일 실시예에 따른 음성 인식 장치를 도시한 사시도이다.
도 4는 음성 인식 장치의 정면도(a)와, (a)에 표시된 A1-A1을 따라 취한 단면도(b)이다.
도 5는 도 4의 일부분을 확대하여 도시한 것이다.
도 6a은 음성 인식 장치의 우측면도이다.
도 6b는 도 6a에 표시된 각 부분에서 취한 그릴의 단면도들이다.
도 7은 음성 인식 장치를 구성하는 주요부들 간의 제어관계를 도시한 블록도이다.
도 8은 커버의 분해 사시도이다.
도 9는 윈도우가 제거된 커버를 도시한 것이다.
도 10은 음성입력 PCB가 윈도우 서포트에 결합되기 전 상태의 분해도이다.
도 11은 음성입력 PCB가 윈도우 서포트에 결합된 상태의 단면도이다.
도 12는 본 발명의 일 실시예에 따른 음성 인식 서버 시스템 및 음성 인식 장치를 포함하는 스마트 홈 시스템을 간략히 도시한 도면이다.
도 13a는 본 발명의 일 실시예에 따른 음성 인식 서버 시스템의 일예이다.
도 13b는 본 발명의 일 실시예에 따른 음성 인식 서버 시스템의 일예이다.
도 14는 본 발명의 일 실시예에 따른 음성 인식 장치의 내부 블록도의 일예를 도시한 도면이다.
도 15는 본 발명의 일 실시예에 따른 음성 인식 장치의 동작 방법을 도시한 순서도이다.
도 16은 본 발명의 일 실시예에 따른 음성 인식 장치의 동작 방법을 도시한 순서도이다.
도 17은 본 발명의 일 실시예에 따른 음성 인식 장치의 동작 방법을 도시한 순서도이다.
도 18은 본 발명의 일 실시예에 따른 음성 인식 장치의 동작 방법을 도시한 순서도이다.
도 19는 일 실시예에 따른 음성 인식 장치의 동작 방법에 관한 설명에 참조되는 도면이다.1 illustrates a home network system according to an embodiment of the present invention.
2 illustrates a home network system according to another embodiment of the present invention.
3 is a perspective view illustrating a speech recognition apparatus according to an embodiment of the present invention.
4 is a front view (a) of the speech recognition apparatus and a sectional view (b) taken along line A1-A1 shown in (a).
5 is an enlarged view of a portion of FIG.
6A is a right side view of the voice recognition device.
Fig. 6B is a cross-sectional view of the grill taken at each part shown in Fig. 6A.
7 is a block diagram showing the control relationship between the main parts constituting the speech recognition apparatus.
8 is an exploded perspective view of the cover.
Fig. 9 shows a cover in which a window is removed.
10 is an exploded view of the state before the voice input PCB is coupled to the window support.
11 is a sectional view of the state in which the voice input PCB is coupled to the window support.
12 is a view schematically illustrating a smart home system including a voice recognition server system and a voice recognition apparatus according to an embodiment of the present invention.
13A is an example of a speech recognition server system according to an embodiment of the present invention.
13B is an example of a speech recognition server system according to an embodiment of the present invention.
FIG. 14 is a block diagram of an internal block diagram of a speech recognition apparatus according to an embodiment of the present invention. Referring to FIG.
15 is a flowchart illustrating an operation method of a speech recognition apparatus according to an embodiment of the present invention.
16 is a flowchart illustrating an operation method of a speech recognition apparatus according to an embodiment of the present invention.
17 is a flowchart illustrating an operation method of a speech recognition apparatus according to an embodiment of the present invention.
18 is a flowchart illustrating an operation method of a speech recognition apparatus according to an embodiment of the present invention.
FIG. 19 is a diagram for explaining an operation method of a speech recognition apparatus according to an embodiment.
이하에서는 첨부한 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. 그러나 본 발명이 이러한 실시예에 한정되는 것은 아니며 다양한 형태로 변형될 수 있음은 물론이다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, it is needless to say that the present invention is not limited to these embodiments and can be modified into various forms.
도면에서는 본 발명을 명확하고 간략하게 설명하기 위하여 설명과 관계없는 부분의 도시를 생략하였으며, 명세서 전체를 통하여 동일 또는 극히 유사한 부분에 대해서는 동일한 도면 참조부호를 사용한다. In the drawings, the same reference numerals are used for the same or similar parts throughout the specification.
한편, 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 단순히 본 명세서 작성의 용이함만이 고려되어 부여되는 것으로서, 그 자체로 특별히 중요한 의미 또는 역할을 부여하는 것은 아니다. 따라서, "모듈" 및 "부"는 서로 혼용되어 사용될 수도 있다. The suffix " module " and " part " for components used in the following description are given merely for convenience of description and do not give special significance or role in themselves. Thus, " module " and " part " may be used interchangeably.
도 1은 본 발명의 일 실시예에 따른 네트워크 시스템을 도시한 것이다. 1 illustrates a network system according to an embodiment of the present invention.
네트워크 시스템은, 가정이나 사무실 등의 일정한 공간 내에서 상호 통신함으로써 네트워크를 구축하는 기기들의 집합체이다. 이러한 네트워크 시스템의 일 실시예로써, 도 1은 가정 내에 구축된 홈 네트워크 시스템을 도시하고 있다. A network system is a collection of devices that establish a network by mutual communication within a certain space such as a home or an office. As an example of such a network system, FIG. 1 shows a home network system built in a home.
이하, 장치(1)는 음향 출력 기능을 갖춘 통신 네트워크용 음성 인식 장치(Hub, 1)를 예로 드나, 반드시 이에 한정되어야 하는 것은 아니다. 관점에 따라서는 장치(1)를 음향출력장치라고 칭할 수도 있음을 명시한다.
Hereinafter, the
도 1을 참조하면, 본 발명의 일 실시예에 따른 네트워크 시스템은 액세서리(accessary, 2, 3a, 3b), 게이트웨이(gateway, 4), 액세스 포인트(Access Point, 7) 및 음성 인식 장치(1) 또는 음향출력장치를 포함할 수 있다.
1, a network system according to an exemplary embodiment of the present invention includes an
액세서리(2, 3a, 3b), 게이트웨이(4), 액세스 포인트(7) 및/또는 음성 인식 장치(1)는 정해진 통신규약(protocol)에 따라 상호 통신이 가능하고, 이러한 통신은 와이파이(Wi-Fi), 이더넷(Ethernet), 직비(Zigbee), 지-웨이브(Z-wave), 블루투스(Bluetooth) 등의 기술을 기반으로 이루어질 수 있다.
The
와이파이(Wi-fi)는 본래 와이파이 얼라이언스(Wi-Fi Alliance)의 상표명이나, 무선통신 기술로써 통용되고 있는 용어로써, 무선 랜(WLAN) 규격(IEEE 802.11)에서 정한 제반 규정에 따라 장치들 간의 무선랜 연결과, 장치 간 연결(와이파이 P2P), 들 간의 무선랜 연결과, PAN/LAN/WAN 구성 등을 지원하는 일련의 기술을 뜻한다. 이하, "와이파이 모듈"은 와이파이 기술을 기반으로 무선 통신을 하는 기기로 정의한다. Wi-fi is a trademark of the Wi-Fi Alliance. It is a term commonly used as a wireless communication technology. It is a term used for wireless communication between devices in accordance with the general rules defined by the WLAN standard (IEEE 802.11) Refers to a set of technologies that support LAN connectivity, device-to-device connectivity (Wi-Fi P2P), wireless LAN connectivity, and PAN / LAN / WAN configurations. Hereinafter, " Wi-Fi module " is defined as a wireless communication device based on Wi-Fi technology.
이더넷(Ethernet)은, 국제전자공학협회(IEEE)의 802.3 표준에 따른 네트워킹 기술로서, 근거리 통신망(LAN) 하드웨어, 프로토콜, 케이블의 가장 대표적인 표준이다. 이더넷은 데이터 전송을 위해 주로 CSMA/CD(carrier sense multiple access with collision detection) 방식을 사용한다. 이하, "이더넷 모듈"은 이더넷 기술을 기반으로 통신을 하는 기기로 정의한다. Ethernet is a networking technology according to the IEEE 802.3 standard, and is the most representative standard for local area network (LAN) hardware, protocols, and cables. Ethernet uses mainly CSMA / CD (Carrier Sense Multiple Access with Collision Detection) for data transmission. Hereinafter, " Ethernet module " is defined as a device that performs communication based on Ethernet technology.
직비(Zigbee)는 소형, 저전력 디지털 라디오를 이용해 개인 통신망을 구성하여 통신하기 위한 무선 네트워크 기술로써, IEEE 802.15에서 정한 규정에 따른 통신 방식이다. 작은 크기로 전력 소모량이 적고 값이 싸 홈 네트워크 등 유비쿼터스 구축 솔루션으로 각광받고 있으며 지능형 홈 네트워크, 빌딩 등의 근거리 통신 시장과 산업용 기기 자동화, 물류, 휴먼 인터페이스, 텔레매틱스, 환경 모니터링, 군사 등에 활용된다. Zigbee is a wireless network technology for configuring and communicating a private communication network using a small, low-power digital radio. It is a communication method according to the regulations defined in IEEE 802.15. It is small size, low power consumption, low cost, and it is widely used as a ubiquitous building solution such as home network. It is used in the near field communication market of intelligent home network, building, industrial automation, logistics, human interface, telematics, environmental monitoring and military.
직비 프로토콜은 물리 계층, 미디어 액세스 제어(MAC) 계층, 네트워크 계층, 그리고 어플리케이션 계층으로 이루어져 있다. 직비의 물리 계층과 MAC 계층은 IEEE 802.15.4 표준에 정의되어 있다. The mobility protocol consists of a physical layer, a media access control (MAC) layer, a network layer, and an application layer. The physical layer and the MAC layer are defined in the IEEE 802.15.4 standard.
직비 네트워크 계층은 트리 구조와 메쉬 구조를 위한 라우팅과 어드레싱를 지원하고 있으며, 어플리케이션 프로파일로는 ZigBee Home Automation Public Profile과 ZigBee Smart Energy Profile이 대표적으로 사용된다. 또 새로운 직비 사양인 RF4CE는 가전의 원격 제어를 위한 솔루션과 스타 토폴로지를 위한 간단한 네트워크 스택을 정의하고 있는데, RF4CE는 2.4GHz의 주파수 대역을 사용하고 AES-128을 이용한 보안을 제공한다. ZigBee Home Network Public Profile and ZigBee Smart Energy Profile are used as the application profiles. The RF4CE, a new off-the-shelf specification, defines a simple network stack for star topology and a solution for remote control of appliances. RF4CE uses 2.4GHz frequency band and provides security using AES-128.
직비는 낮은 수준의 전송 속도로도 충분하면서 긴 베터리 수명과 보안성을 요구하는 분야에서 주로 사용되며, 주기적 또는 간헐적인 데이터 전송이나 센서 및 입력 장치 등의 단순 신호 전달을 위한 데이터 전송에 적합하다. 응용 분야에는 무선 조명 스위치, 가내 전력량계, 교통 관리 시스템, 그 밖에 근거리 저속 통신을 필요로 하는 개인 및 산업용 장치 등이 있다. 직비는 블루투스나 와이파이 같은 다른 WPAN 기술에 비해 상대적으로 더 단순하고 저렴하다는 장점이 있다. 이하, "직비 모듈"은 직비 기술을 기반으로 무선 통신을 실시하는 기기로 정의한다. Low power transmission rate is sufficient for long battery life and security, and it is suitable for periodic or intermittent data transmission or data transmission for simple signal transmission such as sensors and input devices. Applications include wireless lighting switches, household watt-hour meters, traffic management systems, and other personal and industrial devices that require near-field low-speed communication. The advantage is that it is relatively simple and inexpensive compared to other WPAN technologies such as Bluetooth and Wi-Fi. Hereinafter, the " occupancy module " is defined as a device that performs wireless communication based on the occupancy technology.
지웨이브(Z-wave)는 가정 자동화와 센서 네트워크와 같은 저전력과 저대역폭을 요구하는 장치를 위해 설계된 무선 전송 방식으로써, 무선 네트워크에서 하나 이상의 노드들과 제어 유니트 사이에서 신뢰성 있는 통신을 제공하는 것을 주 목적으로 한다. 지웨이브는 물리 계층, 미디어 액세스 제어(MAC) 계층, 전송 계층, 라우팅 계층, 그리고 어플리케이션 계층으로 구성되어 있으며, 900MHz 대역(유럽: 869MHz, 미국: 908MHz)과 2.4GHz 대역을 사용하면서 9.6kbps, 40kbps, 그리고 200kbps의 속도를 제공한다. 이하, "지웨이브 모듈"은 지웨이브 기술을 기반으로 무선 통신을 실시하는 기기로 정의한다. Z-wave is a wireless transmission scheme designed for devices requiring low power and low bandwidth, such as home automation and sensor networks, to provide reliable communication between one or more nodes and control units in a wireless network. Main purpose. JiWave is composed of physical layer, media access control (MAC) layer, transport layer, routing layer and application layer. It uses 9.6kbps and 40kbps (900MHz band, Europe: 869MHz, USA: 908MHz) , And a speed of 200kbps. Hereinafter, " geo-wave module " is defined as a device that performs wireless communication based on geo-wave technology.
액세서리(2)는 사용자가 원하는 임의의 위치에 설치가 가능하며, 온도 센서, 습도 센서, 진동 센서, 근접 센서, 적외선(IR: Infrared) 센서 등의 각종 센서를 구비할 수 있다. 이들 센서들에 의해 획득된 정보는 네트워크를 통해 음성 인식 장치(1)로 전송될 수 있으며, 역으로, 음성 인식 장치(1)로부터 상기 센서들의 제어를 위한 신호가 액세서리(2)로 전송되는 것도 가능하다.
The
또한, 액세서리(2)는 주변에 위치한 가전기기의 원격제어가 가능하도록 구성될 수 있다. 예를 들어, 액세서리(2)는 네트워크를 통해 전송된 제어 신호에 따라 적외선 신호를 발신하는 발신 장치를 포함할 수 있다.
Also, the
한편, 적외선 센서는 적외선을 조사하는 발신부와, 상기 발신부로부터 조사된 적외선이 물체에 맞고 반사된 경우에 이를 수신하는 수신부를 포함할 수 있다. On the other hand, the infrared sensor may include a transmitter for irradiating infrared rays and a receiver for receiving infrared rays irradiated from the transmitter when the infrared rays hit the object and are reflected.
액세스 포인트(Access Point, 7)는 무선장비를 네트워크에 연결할 수 있도록 중계하는 장치로써, 홈 네트워크를 인터넷과 연결한다. 가전기기(5)와, 음성 인식 장치(1), 액세서리(3b) 등은 액세스 포인트(7)와 유선(예를 들어, 이더넷) 또는 무선(예를 들어, 와이파이)으로 연결될 수 있다.
The
게이트웨이(4)는 프로토콜이 다른 네트워크들이 서로 정보를 주고 받을 수 있도록, 이들 네트워크들을 서로 연결하는 장치이다. 예를 들어, 액세서리(2, 3b)로부터 수신된 직비(또는, 지웨이브) 방식의 신호를 와이파이 방식의 신호로 변환함으로써, 액세서리(2, 3b)와 액세스 포인트(7)를 중계할 수 있다.
The
한편, 홈 네트워크 시스템은 액세스 포인트(7)를 통해 인터넷과 접속이 가능하며, 이를 통해 인터넷을 통해 서비스를 제공하는 서버(8)와 접속될 수 있다. 서버(또는, 클라우드(cloud), 8)는 액세서리(2, 3a, 3b) 및/또는 음성 인식 장치(1)를 제조하는 제조자, 판매하는 판매자 또는 상기 제조자 또는 판매자와 계약된 서비스 제공자에 의해 관리될 수 있다. 서버(8)는 소프트웨어와 데이터를 저장하며, 상기 데이터는 홈네트워크로부터 받은 것일 수 있다. 음성 인식 장치(1)로부터 요청이 있을 시, 서버(8)는 저장된 소프트웨어나 데이터를 인터넷을 통해 홈 네트워크로 전송할 수 있다.
On the other hand, the home network system can be connected to the Internet through the
서버(8)는 인터넷에 접속된 PC(personal computer), 스마트 폰(smart phone) 등의 이동 단말기(mobile terminal)와도 정보를 주고 받을 수 있다. 음성 인식 장치(1)나 액세서리(2, 3a, 3b)로부터 전송된 정보는 서버(8)에 저장될 수 있으며, 이러한 정보들은 서버(8)와 접속된 이동 단말기(6)로 전송될 수 있다. 또한, 이동 단말기(6)로부터 전송된 정보 역시 서버(8)를 경유하여 음성 인식 장치(1)나 액세서리(2, 3a, 3b)로 전송될 수 있으며, 따라서, 이동 단말기(6)를 통해 음성 인식 장치(1)나 악세서리(2, 3a, 3b)를 제어하는 것도 가능하다.
The
이동 단말기(6)의 일종으로써, 최근에 널리 이용되고 있는 스마트폰(smart phone)은 그래픽 기반의 편리한 UI를 제공하기 때문에, 상기 UI를 통해 액세서리(2, 3a, 3b)를 제어하거나, 액세서리(2, 3a, 3b)로부터 수신한 정보를 가공하여 표시하는 것이 가능하다. 또한, 스마트폰에 탑재된 어플리케이션(application)을 업데이트함으로써, 액세서리(2, 3a, 3b)를 통해 구현 가능한 기능을 확장 또는 변경할 수도 있다. 그러나, 이동 단말기(6)를 활용하지 않고, 음성 인식 장치(1) 만으로도 액세서리(2, 3a, 3b)를 제어하거나, 액세서리(2, 3a, 3b)로부터 수신한 정보를 가공하여 표시하는 것도 가능하다.
As a kind of
게이트웨이(4)와 액세스 포인트(7)를 매개로, 음성 인식 장치(1)와 액세서리(2, 3a, 3b) 상호 간의 통신이 이루어질 수 있으며, 구체적으로, 액세서리(2, 3b)로부터 출력된 신호(또는, 정보)가 게이트웨이(4)와 액세스 포인트(7)를 차례로 경유하여 음성 인식 장치(1)로 전송되며, 반대로, 음성 인식 장치(1)로부터 출력된 정보는 액세스 포인트(7)와 게이트웨이(4)를 차례로 경유하여 액세서리(2, 3b)로 전송될 수 있다. 실시예에 따라, 액세서리(2, 3a, 3b)와 음성 인식 장치(1) 간의 통신은, 네트워크가 인터넷과 단절된 경우에도 가능하다.
The communication between the
이상에서 설명한 액세서리들(2, 3a, 3b) 이외에도, 실시예에 따라 다양한 종류의 액세서리가 제공될 수 있다. 예를 들어, 액세서리는 공기의 질을 감지하는 공기질 센서, 스마트 플러그, CT센서, nest 온도조절기, 수면센서 등을 포함하여 구성될 수 있다.
In addition to the
액세서리는 가전기기(5)에 부착될 수 있다. 예를 들어, 진동센서를 구비한 액세서리를 세탁기에 부착하여, 세탁기 작동 중에 발생하는 진동을 감지할 수 있으며, 감지된 진동에 따라 상기 진동센서로부터 출력된 신호가 네트워크로 전송될 수 있다. The accessory may be attached to the home appliance (5). For example, an accessory having a vibration sensor may be attached to a washing machine to detect vibrations generated during operation of the washing machine, and a signal output from the vibration sensor may be transmitted to the network according to the sensed vibration.
이에 한하지 않고, 액세서리는 가전기기(5) 이외의 장소에 부착될 수도 있다. 예를 들어, 주거 내 도어의 개폐를 감지하고자 하는 경우, 동작 감지 센서(예를 들어, 적외선 센서)를 구비한 액세서리를 벽면에 부착하여, 상기 도어의 개폐 동작을 감지할 수 있다. 장기간 상기 주거 내 도어의 개폐 동작이 감지되지 않은 경우에는, 거주인에게 변고가 발생되었을 가능성이 있는 바, 이러한 사정이 기 설정된 이동 단말기(6)로 통보될 수 있다.
However, the accessory may be attached to a place other than the
더 나아가, 상기 동작 감지 센서를 구비한 액세서리를 이용하여, 냉장고 도어의 개폐 동작을 감지하고, 장기간 상기 냉장고 도어의 개폐 동작이 감지되지 않은 경우에는, 거주인에게 변고가 발생되었을 가능성이 있는 바, 이러한 사정이 기 설정된 이동 단말기(6)로 통보될 수 있다.
Further, when the opening / closing operation of the refrigerator door is detected by using the accessory having the motion detection sensor and the opening / closing operation of the refrigerator door is not detected for a long time, there is a possibility that the inhabitant is changed. This situation can be notified to the predetermined
이와 같은 여러 실시예들에서, 액세서리로부터 네트워크를 통해 전송된 신호는 이동 단말기(6)에 의해 수신될 수 있으며, 이동 단말기(6)에 탑재된 어플리케이션이 수신된 신호를 분석하여, 가전기기(5)의 작동 상태(예를 들어, 세탁기의 언밸런스 발생)나 도어의 개폐 정보를 파악할 수 있으며, 이러한 정보 또는 정보를 가공하여 도출된 결과(예를 들어, 세탁기의 비정상 동작을 알리는 경고, 또는, 장기간 도어가 개폐되지 않았는 바, 거주자의 신상을 확인할 것을 요구하는 알림 등)가 이동 단말기(6)의 디스플레이나 스피커를 통해 표시될 수 있다.
In such embodiments, a signal transmitted over the network from the accessory may be received by the
한편, 음성 인식 장치(1)는 마이크(미도시)를 포함할 수 있고, 상기 탑재된 음성 인식 프로그램에 따라 상기 마이크를 통해 입력된 음성으로부터 명령을 추출하고, 그에 따른 제어를 수행할 수 있다.
On the other hand, the
도 2는 본 발명의 다른 실시예에 따른 홈 네트워크 시스템을 도시한 것이다. 2 illustrates a home network system according to another embodiment of the present invention.
본 발명의 다른 실시예 따른 홈 네트워크 시스템은, 전술한 실시예와 비교할 시, 게이트웨이(4)가 구비되지 않으며, 게이트웨이(4)가 수행하던 기능을 음성 인식 장치(1)가 겸한다는 점에 있어서 차이가 있고, 그 이외의 특징들은 전술한 실시예의 경우와 실질적으로 동일하다.
The home network system according to another embodiment of the present invention is different from the above embodiment in that the
액세서리(2, 3b)는 게이트웨이(4, 도 1 참조.)를 공유하지 않고, 음성 인식 장치(1)와 직접 통신이 가능하다. 바람직하게는, 액세서리(2, 3b)와 음성 인식 장치(1)는 직비 방식을 통해 통신하며, 이 경우, 액세서리(2, 3b)와 음성 인식 장치(1)에는 각각 직비 모듈이 구비될 수 있다.
The
도 3은 본 발명의 일 실시예에 따른 음성 인식 장치를 도시한 사시도이다. 도 4는 음성 인식 장치의 정면도(a)와, (a)에 표시된 A1-A1을 따라 취한 단면도(b)이다. 도 5는 도 4의 일부분을 확대하여 도시한 것이다. 도 6a은 음성 인식 장치의 우측면도이다. 도 6b는 도 6a에 표시된 각 부분에서 취한 그릴의 단면도들이다. 도 7은 음성 인식 장치를 구성하는 주요부들 간의 제어관계를 도시한 블록도이다. 도 8은 커버의 분해 사시도이다. 도 9는 윈도우가 제거된 커버를 도시한 것이다. 도 10은 음성입력 PCB가 윈도우 서포트에 결합되기 전 상태의 분해도이다. 도 11은 음성입력 PCB가 윈도우 서포트에 결합된 상태의 단면도이다. 3 is a perspective view illustrating a speech recognition apparatus according to an embodiment of the present invention. 4 is a front view (a) of the speech recognition apparatus and a sectional view (b) taken along line A1-A1 shown in (a). 5 is an enlarged view of a portion of FIG. 6A is a right side view of the voice recognition device. Fig. 6B is a cross-sectional view of the grill taken at each part shown in Fig. 6A. 7 is a block diagram showing the control relationship between the main parts constituting the speech recognition apparatus. 8 is an exploded perspective view of the cover. Fig. 9 shows a cover in which a window is removed. 10 is an exploded view of the state before the voice input PCB is coupled to the window support. 11 is a sectional view of the state in which the voice input PCB is coupled to the window support.
도 3 내지 도 11을 참조하면, 본 발명의 일 실시예에 따른 음성 인식 장치(1)는 커버(10), 본체(40), 그릴(20) 및 베이스(30)를 포함할 수 있다. 본체(40)는 하측에 위치한 베이스(30)에 의해 지지되고, 본체(40)의 상부에는 커버(10)가 결합될 수 있다.
3 to 11, a
본체(40)는 그릴(20) 내에 배치된다. 본체(40) 전부가 완전히 그릴(20) 내에 배치되어야 하는 것은 아니며, 실시예에서와 같이, 본체(40)는 일부분이 그릴(20)의 상단을 통해 돌출될 수 있다. 그릴(20)은 다수개의 통공(20h)이 형성되고, 상하로 긴 원통형으로 이루어지며, 본체(40)를 둘러싼다.
The body (40) is disposed in the grill (20). Not all of the
통공(20h)을 통해 그릴(20) 내측으로 먼지가 들어가지 않도록, 그릴(20)의 내측면에는 다공성의 필터(미도시)가 부착될 수 있다. 상기 필터는 메쉬 또는 부직포 등의 미세한 소공을 갖는 재질로 이루어질 수 있다. 상기 필터는 양면 테이프 등의 접착 부재에 의해 그릴(20)의 내측면에 부착될 수 있다. 상기 필터는 그릴(20) 내에 배치된 스피커(43, 44), 본체 케이스 등의 구성이 통공(20h)을 통해 외부에서 보여지지 않도록 은폐하는 역할도 겸한다.
A porous filter (not shown) may be attached to the inner surface of the
한편, 도 3에서는 그릴(20)의 일부분에는 통공(20h)이 형성되고, 다른 부분에는 생략되어 있으나, 이는 어디까지나 도면이 복잡해지는 것을 피하기 위해 생략된 것이며, 통공(20h)은 그릴(20)의 대부분의 영역에 형성되어, 후술하는 스피커(43, 44)로부터 출력된 소리가, 통공(20h)들을 통해 전, 후, 좌, 우, 사방으로 고르게 퍼져 나갈 수 있다.
3, the through
커버(10)는 윈도우(11), 윈도우 서포트(12), 디스플레이(13), 디스플레이 PCB(Printed Circuit Board, 14) 및 커버 하우징(15)을 포함할 수 있다. 윈도우(11), 윈도우 서포트(12), 디스플레이(13) 및 디스플레이 PCB(14)는 커버 하우징(15) 내에 배치될 수 있다.
The
도 4 내지 도 5를 참조하면, 커버 하우징(15)은 재질은 합성수지이고, 본체(40)의 상부에 결합되며, 상면에는 개구부(15h)가 형성된다. 커버 하우징(15)은 원통형으로 이루어져, 상단이 개구부(15h)를 한정하는 측벽(151)과, 측벽(151)의 내측면에서 연장되어, 측벽(151) 내부를 상, 하로 구획하는 구획판(152)을 포함할 수 있다. 디스플레이 PCB(14), 디스플레이(13), 윈도우 서포트(12) 및 윈도우(11)는 구획판(152)의 상측에 배치된다.
4 to 5, the
측벽(151)의 하단(151a)은, 바람직하게는, 그릴(20)의 상단과 접하나, 공차로 인한 미세한 유격이 양자 사이에 존재할 수 있다. 위에서 내려 다 볼 때, 측벽(151)의 하단(151a)은 그릴(20) 상단과 적어도 일부가 중첩되어 있다. 측벽(151)의 외측면과 그릴(20)의 외측면 사이에는 틈새가 존재하기는 하나, 상기 틈새를 제외하고는, 측벽(151)의 외측면과 그릴(20)의 외측면은 전체적으로 하나의 연속된 외형을 이룬다.
The
상단 유지부(153)는 측벽(151)의 하단(151a)으로부터 하측으로 연장되어, 그릴(20)과 결합된다. 이와 같은, 상단 유지부(153)와 그릴(20)의 결합은, 볼트 등의 별도의 체결부재를 이용한 것이 아니라, 상단 유지부(153)가 그릴(20)의 상단의 개구부 내로 삽입되는(또는, 끼워지는) 방식이며, 바람직하게는, 그릴(20)이나 상단 유지부(153) 자체가 갖는 탄성/복원력을 이용한 억지 끼움 방식이다.
The upper
상단 유지부(153)는 측벽(151)의 하단부보다 더 내측에 위치하며(즉, 커버 하우징(15)의 외측면이 측벽(151)의 하단(151a)에서 함몰되어 상단 유지부(153)의 외측면을 이룸.), 따라서, 측벽(151)의 하단에는, 측벽(151)의 외측면으로부터 상단 유지부(153)로 연장되어, 그릴(20)의 상단을 대향하는 면이 형성된다.
The upper
커버 하우징(15)은 측벽(151)의 내측면으로부터 돌기(154)가 돌출될 수 있고, 본체(40)의 전면부에는 돌기(154)와 결합되는 돌기 삽입 홈(418)이 형성될 수 있다. 커버 하우징(15)과 본체(40)를 조립하는 과정에서 돌기(154)가 본체(40)의 외면을 따라 이동하다가, 돌기 삽입 홈(418)에 이르면, 합성수지재로 이루어진 커버 하우징(15) 자체의 탄력성에 의해, 돌기 삽입 홈(418)내로 삽입된다.
The
상단 유지부(153)의 외측면이 그릴(20)의 내측면과 접함으로써, 그릴(20) 상단의 형태가 유지된다. 특히, 그릴(20)이 금속재로 이루어진 경우, 그릴(20)은 상단 유지부(153)의 형상에 대응하여 변형이 이루어지기 때문에, 그릴(20)의 상단이 상단 유지부(153)와 대응하는 형태로 유지될 수 있다.
The top surface of the upper
한편, 상단 유지부(153)가 측벽(151)의 하단(151a)을 따라 타원형으로 연장되는 경우, 금속 판재를 말아서 단면의 형태가 정원형인 원통형의 그릴(20)을 형성한 후, 그릴(20)의 상단을 상단 유지부(153)에 끼우면, 그릴(20)의 형태 역시 상단 유지부(153)의 형상과 대응하여 타원형으로 변형되고, 이렇게 변형이 이루어진 상태로 유지될 수 있다.
On the other hand, when the upper
실시예에서와 같이, 반지름이 r인 정원형의 윈도우(11)가 소정의 수평면에 대해 소정의 각도(도 6a에 θ1으로 표시된 것으로, 예각임. 이하, "제1 각도"라고도 명명함.)로 기울어지고, 윈도우(11)의 상면에 대한 법선 벡터(Vs)를 수평면에 정사영하여 얻은 벡터 Vh가 정전방을 향하는 경우에, 윈도우(11)를 수평면에 정사영한 형태는, 전후 방향으로 rcosθ1의 단반경을 갖고, 좌우 방향으로 r의 장반경을 갖는 타원이 된다. 따라서, 음성 인식 장치(1) 외형의 일체감을 위해서는 그릴(20)의 단면 역시 상기 타원과 대응하는 형태(즉, 단반경과 장반경의 비가 cosθ1: 1이 되는 형태)로 이루어지는 것이 바람직하고, 상단 유지부(153)를 상기 타원과 대응하는 형태로 형성함으로써, 그릴(20)의 단면의 형태를 상기 타원과 대응하는 형상으로 유지시킬 수 있는 것이다. 여기서, "대응하는 형태"라 함은 양 도형들의 형태가 서로 완전히 일치하는 경우뿐만 아니라, 양 도형이 서로 닮은 꼴인 경우(예를 들어, 단반경 대 장반경의 비가 양 도형이 같은 경우)도 포함하며, 이하, 같은 의미로 정의한다.
As in the embodiment, a garden-
여기서, 수평면에 대해 윈도우(11)가 기울어진 각도 θ1은 일반적인 사용환경에서 사용자의 시선을 고려하여 정해진 것으로써, 음성 인식 장치(1)가 주방의 조리대나 식탁 등의 대략 높이 1m 정도의 거치대에 거치된 경우에, 음성 인식 장치(1)의 전방에 위치한 일반적인 성인의 시선이 윈도우(11)의 상면과 90도 근접한 각도를 이룰 수 있도록 정해지며, 바람직하게는, 대략 20도이나, 반드시 이에 한정되어야 하는 것은 아니다.
Here, the angle? 1 at which the
한편, 디스플레이 패널(131)은 표시된 화면이 전방의 상측을 향하도록 수평에 대해 소정 각도로 기울어지게 배치될 수 있고, 바람직하게는, 윈도우(11)와 같은 각도(θ1)로 기울어져 있다. 후술하는 윈도우 지지판(121) 역시 디스플레이 패널(131) (또는, 윈도우(11))과 같은 각도로 기울어져 있다.
On the other hand, the
보다 상세하게, 도 6a 내지 도 6b을 참조하면, 커버 하우징(15)의 측벽(151)의 상단은 외경 L1인 정원형으로 이루어지고, 측벽(151)의 하단(151f)의 외경은, 수평면에 대해 각도 θ2(θ2<θ1. 이하, θ2를 "제2 각도"라고도 명명함.)로 기울어져, 좌우 방향으로는 La의 직경을 갖고, 전후방향으로 Lb의 직경을 갖는 형태이다. 여기서, 측벽(151)의 외측면은 수직선에 소정의 각도(θ3)로 기울어져 있기 때문에, 도 6b의 단면 S1을 수평면에 정사영한 형태와, 단면 S2를 수평면에 정사영한 형태가 정확하게 일치하지는 않으나, θ3이 그 값이 충분이 작다면(바람직하게는, 5도 이하), La는 L1과 근사한 값을 갖는 바, 이하, La=L1라고 가정한다. 더 나아가, θ1과 θ2의 차이가 충분히 작다면(바람직하게는, 5도 이하), Lb 역시 L1과 근사한 값을 갖는 바, 이하, Lb=L1라고 가정한다.
6A and 6B, the upper end of the
여기서, θ3는 측벽(151)의 외측면이 수직선과 이루는 각도를 표시한 것으로써, 측벽(151)의 외측면 전 구간에서 일정한 값을 가질 수도 있으나, 측벽(151)의 둘레를 따라 그 값이 가변되는 것도 가능하다.
The angle θ3 is an angle formed by the outer surface of the
한편, 도 6b의 단면 S3과 S4를 참조하면, 그릴(20)은 외경이 타원형(L1>L2)으로써, 좌우 방향으로 L1의 장직경과, 전후 방향으로 L2의 단직경을 갖는다. 여기서, 위에서 가정한 바와 같이, La=L1, Lb=L1라고 할 때, L2는 L1cosθ1이 된다. 즉, 수평면에 정사영한 그릴(20)의 외형은 전후 방향의 직경(L2)이 좌우방향의 직격(L1)보다 짧은 형태의 타원이 된다. 윈도우(11)가 기울어져 배치되었음에도, 음성 인식 장치(1)를 위에서 내려다 볼 시, 그 외형이 전체적으로 타원형이 되어 일체감을 이룬다.
6B, the
측벽(151)은 그릴(20)의 상측에 위치하기 때문에, 음성 인식 장치(1)의 외관을 이루나, 상단 유지부(153)는 그릴(20)의 내측으로 완전히 삽입되어, 그릴(20)에 의해 가려짐으로써, 음성 인식 장치(1)의 외관상 보이지 않는다.
The upper
측벽(151)의 하단으로부터 위치 설정 돌기(미도시)가 돌출될 수 있고, 그릴(20)의 상단에는 그릴(20)이 정위치된 상태에서 위치 설정 돌기가 삽입되는 위치 설정 홈이 형성될 수 있다.
A positioning protrusion (not shown) may protrude from a lower end of the
윈도우(11)는 커버 하우징(15)의 개구부(15h) 내에 배치될 수 있다. 윈도우(11)는 일정한 두께의 투명판을 가공한 것으로써, 측면(또는, 외주면)이 상면 및 하면과 직교한다.
The
커버 하우징(15)의 내측면은, 커버 하우징(15)의 상단으로부터 하측으로 연장된 일정 부분(151b)이, 윈도우(11)의 상면이 향하는 방향(즉, 도 6a에서 법선 벡터 Vs이 향하는 방향)과 평행하다. 측벽(151)의 상단부 내측면(151a)은 개구부(15h)를 한정하는 면인 바, 이하, 측벽(151)의 상단부 내측면(151b)을 개구부 한정면이라고 한다. 개구부 한정면(151b)은 개구부(15h)의 둘레부터 연장된 원통형으로 이루어지고, 개구부 한정면(151b)에 의해 둘러싸인 내측에 윈도우(11)가 배치된다. 바람직하게는, 윈도우(11)의 상면이 커버 하우징(15)의 상단과 같은 평면(또는, 개구부(15h)가 속하는 평면)에 속함으로써, 음성 인식 장치(1)의 상면이 하나의 평면으로 이루어진 것 같은 일체감이 조성된다.
The inner surface of the
개구부 한정면(151b)은 어느 위치에서나 벡터 Vs와 평행한 면으로 이루어진다. 즉, 벡터 Vs와 평행한 임의의 평면으로 커버 하우징(15)을 절단하더라도, 그 단면 상에서 개구부 한정면(151b)은 벡터 Vs와 평행하다.
The opening-defining
개구부 한정면(151b)과 윈도우(11)의 측면이 평행하기 때문에, 윈도우(11)의 중심과 개구부 한정면(151b)의 중심을 벡터 Vs을 따라 정렬시키면, 윈도우(11)의 측면의 전 구간이 개구부 한정면(151b)과 일정한 간격(g)을 유지할 수 있는 효과가 있다. 이는 음성 인식 장치(1)를 위에서 내려다 보았을 시, 윈도우(11)와 커버 하우징(15)의 상단 사이에 일정한 간격(g)이 유지되는 것으로써, 제품의 완성도가 높아 보이는 것이기도 하다. 간격(g)은, 컨택 스위치(미도시)를 동작시키기 위해 윈도우(11)가 가압될 시, 윈도우(11)의 측면이 개구부 한정면(151b)과 간섭되지 않도록 하는 조건하에서 최소로 설정되는 것이 바람직하다. 컨택 스위치는 기판에 형성된 회로와 전기적으로 연결되어 사용자의 버튼 조작을 수신할 수 있다.
When the center of the
커버 하우징(15)을 임의의 수직한 평면으로 절단한 경우, 그 절단면 상에서, 측벽(151)의 외측면은 법선 벡터(Vs)와 평행하거나, 하측으로 갈수록 법선 벡터(Vs)로부터 점점 멀어지는 형태를 이룰 수 있다. 커버 하우징(15)을 사출 성형할 시, 측벽(151)을 형성하는 제1 금형으로부터 커버 하우징(15)은 연직 하방으로 취출된다. 따라서, 상기 제1 금형으로부터 커버 하우징(15)이 잘 빠질 수 있기 위해서는 측벽(151)의 외측면이 위와 같은 형태가 되어야 하는 것이다.
When the
이에 반해, 커버 하우징(15)의 상면에 개구부(15h)를 형성하기 위해서는 개구부(15h)내로 삽입되는 코어를 갖는 별도의 제2 금형이 필요하다. 상기 제1 금형이 제거된 상태에서, 상기 제2 금형을 이동시킴으로써, 커버 하우징(15)을 상기 제2 금형으로부터 분리할 수 있는데, 이때, 상기 제2 금형의 이동은 법선 벡터(Vs)와 동일한 방향으로 이루어진다.
On the other hand, in order to form the
도 5와 도 8을 참조하면, 디스플레이 PCB(14)는 구획판(152)의 상면에 배치되어, 디스플레이(13)를 하측에서 지지한다. 디스플레이 PCB(14)는 디스플레이(13)와 전기적으로 연결되는 회로를 포함하여 구성되며, 디스플레이(13)는 커넥터(132)를 통해 상기 회로와 연결되어 있다. 디스플레이 PCB(14)의 상면에는, 디스플레이(13)를 기준으로 전, 후, 좌, 우로 4개의 컨택 스위치가 배치될 수 있다.
5 and 8, the
디스플레이 PCB(14)에는 NFC 모듈(50d, 도 7 참조.)이 배치될 수 있다. NFC 모듈(50d)은 NFC 통신을 가능하게 하는 것으로써, 제2 기판 암(146)에 형성된 NFC 장착부(146a)에 배치될 수 있다. NFC(Near Field Communication)는 무선태그(RFID) 기술 중 하나로 13.56MHz의 주파수 대역을 사용하는 비접촉식 통신 기술이다. 통신거리가 짧기 때문에 상대적으로 보안이 우수하고 가격이 저렴해 주목받는 차세대 근거리 통신 기술이다. 데이터 읽기와 쓰기 기능을 모두 사용할 수 있기 때문에 기존에 RFID 사용을 위해 필요했던 동글(리더)이 필요하지 않다. 블루투스 등 기존의 근거리 통신 기술과 비슷하지만 블루투스처럼 기기 간 설정을 하지 않아도 되는 이점이 있다.
The
디스플레이(13)는 전기 신호를 입력 받아 화상을 표시하는 장치로써, 디스플레이 PCB(14)의 회로에 접속되어 있으며, 상기 회로를 통해 입력된 제어 신호에 따라 화상을 표시한다. 디스플레이(13)는 디스플레이 패널(131)과, 디스플레이 패널(131)을 디스플레이 PCB(14)의 회로와 연결하는 커넥터(132)를 포함할 수 있다 (도 8 참조.). 디스플레이 패널(131)은 접착부재에 의해 디스플레이 PCB(14)의 상면에 부착될 수 있다.
The
디스플레이 PCB(14)는 후술하는 메인 PCB(미도시)와 소정의 케이블을 통해 회로 연결되어 있으며, 따라서, 디스플레이(13)를 제어하기 위한 제어부는 디스플레이 PCB(14)나 메인 PCB 중 어느 곳에 실장되어도 무방하다.
The
디스플레이 패널(131)의 화면에는 각종 정보들이 표시될 수 있다. 제어부(240)는 메모리(250)에 저장된 프로그램에 따라 디스플레이 패널(131)의 구동뿐만 아니라, 음성 인식 장치(1)를 구성하는 전장품에 대한 작동 전반을 제어할 수 있다. 디스플레이 패널(131)을 통해 사용자 인터페이스(UI: User Interface)가 표시될 수 있으며, 이러한 인터페이스는 상기 프로그램이 실행됨으로써 구현된다.
Various information can be displayed on the screen of the
상기 인터페이스는 스피커(43, 44)의 재생 정보를 표시할 수 있다. 예를 들어, 음악의 재생/정지/선곡 메뉴와, 재생 상태, 곡명, 가수/음반 정보, 가사, 볼륨 등의 각종 정보가 표시될 수 있다.
The interface may display playback information of the
음성 인식 장치(1)에 통신 모듈(50)이 구비된 경우, 상기 인터페이스는 통신 모듈(50)을 통해 주고 받은 정보를 표시할 수 있다. 예를 들어, 상기 인터페이스는 통신 모듈(50)과 통신하는 액세서리(2, 3a, 3b)들을 제어하기 위한 메뉴를 표시하거나, 액세서리(2, 3a, 3b)들로부터 전송된 정보를 바탕으로 가공된 정보를 표시할 수 있다. 구체적으로, 상기 인터페이스를 통해, 통신 모듈(50)의 네트워크 연결상태, 액세서리(2)에 구비된 센서에 의해 감지된 온도, 습도, 밝기 등의 정보가 표시될 수 있다. 뿐만 아니라, 상기 인터페이스를 통해, 스피커(43, 44)의 출력을 제어하는 메뉴가 표시될 수도 있으며, 예를 들어, 스피커(43, 44)를 통해 출력할 노래나 앨범을 선택하는 메뉴, 상기 앨범이나 노래와 관련된 정보(예를 들어, 노래 제목, 앨범 명, 가수), 출력되고 있는 볼륨의 크기 등이 표시될 수 있다.
When the
통신 모듈(50)은, 다양한 방식의 통신 모듈을 구비할 수 있다. 예를 들어, 통신 모듈(50)은, 와이파이 모듈(50a), 블루투스 모듈(50b), 직비 모듈(50c), NFC 모듈(50d) 등을 구비할 수 있다.
The
한편, 상기 인터페이스에 표시된 메뉴들에 대한 조작은, 조작부(181)를 통해 가능한다.
On the other hand, operations on the menus displayed on the interface are possible through the
한편, 조작부(181)는, 컨택 스위치를 구비할 수 있다. 각각의 컨택 스위치의 출력 신호가 어떻게 처리되는지는 메모리(250)에 기 저장된 프로그램에 의해 정해진다. 예를 들어, 제1, 2 컨택 스위치들(181a, 181b)의 동작 신호에 따라, 상기 인터페이스 상에서 좌우로 표시된 메뉴들이 선택될 수 있으며, 제3, 4 컨택 스위치들(181c, 181d)의 동작 신호에 따라 상기 인터페이스 상에서 상하로 표시된 메뉴들이 선택될 수 있다.
On the other hand, the
사용자는 스마트폰, 노트북 등의 외부 기기를 이용하여, 블루투스 모듈(50b)과 통신할 수 있으며, 이를 통해 음악, 이미지 등의 각종 데이터가 메모리(250)에 저장될 수 있다. 특히, 제어부(240)는 메모리(250)에 저장된 음악이 출력되도록, 스피커(43, 44)를 제어할 수 있고, 음악의 선곡, 재생, 정지 등의 각종 기능이 컨택 스위치를 통해 구현될 수 있다.
The user can communicate with the
도 8, 도 9를 참조하면, 디스플레이(13)의 상측에는 대략 원형의 윈도우 서포트(12)가 배치될 수 있다. 윈도우 서포트(12)는 합성수지재의 사출물로써, 바람직하게는 하나의 부품으로 형성된다. 윈도우 서포트(12)에는 개구부가 형성되며, 개구부를 통해 디스플레이(13)의 화면이 노출된다.
Referring to FIGS. 8 and 9, a substantially
윈도우 서포트(12)는 중심부에 개구부(12h)가 형성되고, 상면에 윈도우(11)가 배치되는 윈도우 지지판(121)과, 윈도우 지지판(121)으로부터 하방으로 돌출된 조작 돌기들과, 윈도우 지지판(121)으로부터 하방으로 돌출되는 다수개의 지지보스(122a, 122b, 122c, 122d)를 포함할 수 있다.
The
지지보스들(122a, 122b, 122c, 122d)은 하측으로 수직하게 연장될 수 있다. 윈도우(11)와 마찬가지로, 윈도우 지지판(121)도 수평면에 대해 제1 각도(θ1)로 기울어지게 배치될 수 있고, 이 경우, 지지보스들(122a, 122b, 122c, 122d)은 윈도우 지지판(121)과 직교하지 않으며, 바람직하게는 윈도우 지지판(121)과 θ1의 여각(90-θ1)을 이룬다.
The
이하, 윈도우 지지판(121)의 각 부분을, 도 9에 도시된 바와 같이, 개구부(12h)를 중심으로 후방에 위치하는 제1 영역(SE1), 전방에 위치하는 제2 영역(SE2), 좌측에 위치하는 제3 영역(SE3) 및 우측에 위치하는 제4 영역(SE4)으로 구분한다.
9, each portion of the
지지보스들(122a, 122b, 122c, 122d)은 제1 영역(SE1)과 제2 영역(SE2)에 각각 적어도 하나씩이 형성될 수 있다. 윈도우 지지판(121)이 흔들리지 않고, 안정적으로 지지될 수 있도록, 4개의 지지보스(122a, 122b, 122c, 122d)가 형성될 수 있고, 이들 중, 제1 지지보스(122a)와 제2 지지보스(122b)는 제1 영역(SE1)에 위치하고, 제3 지지보스(122c)와 제4 지지보스(122d)는 제2 영역(SE2)에 형성될 수 있다.
At least one of the
한편, 윈도우(11)는 원형의 투명한 판으로써, 디스플레이(13)의 화면을 투과시키며, 재질은 바람직하게는 아크릴이다. 사용자는 윈도우(11)를 통해 디스플레이(13)에 표시된 화면을 볼 수 있다. 윈도우(11)는 전 영역이 투명할 필요는 없다. 음성 인식 장치(1)의 외관상 윈도우 서포트(12)는 보이지 않고, 윈도우 서포트(12)의 개구부(12h)를 통해 노출되는 디스플레이 패널(131)의 화면만이 보일 수 있다. 대략 개구부(12h)와 대응하는 위치의 소정 영역(11b)만 투명하고, 그 이외의 영역(11a)은 은폐되도록 불투명 또는 반투명하게 착색되거나, 필름 등이 부착될 수 있다 (도 3 참조.).
On the other hand, the
윈도우(11)는 양면 테이프 등을 이용하여 윈도우 서포트(12)의 윈도우 지지판(121)의 상면에 접착될 수 있다. 윈도우(11)는 합성수지 재질의 특성상, 일정한 한도 내에서 압력이 작용하였을 시, 탄력적으로 휘어질 수 있다. 이러한 휘어짐은 컨택 스위치의 동작이 보다 원활하게 이루어지도록 한다. 그러나, 윈도우(11)의 휘어짐은 탄력적인 것이기 때문에, 누르는 압력이 제거되었을 시에는 원형태로 복원됨은 물론이다.
The
도 3 내지 도 5를 참조하면, 본체(40)는 하측에 배치된 베이스(30)에 의해 지지되고, 상단부는 커버 하우징(15)과 결합될 수 있다. 본체(40)는 내측으로 캐비티(49)를 형성하는 스피커 케이스와, 캐비티(49) 내에 배치되는 적어도 하나의 스피커(43, 44)를 포함할 수 있다. 실시예에서는 스피커 케이스 내에 2 개의 스피커(43, 44)가 상하로 배치되고, 상측에 배치되는 스피커(43)는 고음 대역을 출력하는 트위터(tweeter)이고, 하측에 배치되는 스피커(44)는 저음 대역을 출력하는 우퍼(woofer)이다.
3 to 5, the
도 3 내지 도 11을 참조하면, 커버(10)에는 음성입력 PCB(17, 18)가 설치된다. 음성입력 PCB(17, 18)에는 사용자의 음성이 입력된다. 음성입력 PCB(17, 18)는 본체(40)에 배치된 음성인식 PCB(40a)와 회로 연결된다. 음성입력 PCB(17, 18)는 하네스 케이블(17b, 18b)을 통해 음성인식 PCB(40a)와 연결될 수 있다. 음성입력 PCB(17, 18)는 상기 입력된 사용자의 음성을 음성인식 PCB(40a)가 인식할 수 있는 음파신호로 변환하고, 음성인식 PCB(40a)는 음성입력 PCB(17, 18)로부터 입력되는 음파신호를 분석하여 사용자의 음성을 인식할 수 있다.
Referring to FIGS. 3 to 11,
음성입력 PCB(17, 18)는 윈도우 서포트(12)에 설치된다. 음성입력 PCB(17,18)는 다수개가 구비될 수 있고, 상기 다수개의 음성입력 PCB(17,18)는 윈도우 서포트(12)에 형성된 개구부에 대해 대칭(symmetry)으로 배치될 수 있다. 본 실시예에서 음성입력 PCB(17, 18)는 2개로 구비되어, 제1 음성입력 PCB(17) 및 제2 음성입력 PCB(18)를 포함한다.
The
제1 음성입력 PCB(17, 18)는 윈도우 서포트(12)에 형성된 개구부를 기준으로 전방에 위치하는 제1 음성입력 PCB(17)와, 개구부를 기준으로 후방에 위치하는 제2 음성입력 PCB(18)를 포함한다. 제1 음성입력 PCB(17)는 윈도우 지지판(121)의 제2 영역(SE2)에 배치되고, 제2 음성입력 PCB(18)는 윈도우 지지판(121)의 제1 영역(SE1)에 배치된다.
The first
제1 음성입력 PCB(17)는 윈도우 지지판(121)의 센터를 기준으로 우측으로 치우쳐서 배치되고, 제2 음성입력 PCB(18)는 윈도우 지지판(121)의 센터를 기준으로 좌측으로 치우쳐서 배치된다.
The first
한편, 본체(40)의 좌, 우측 중 어느 한쪽에는 직비 모듈(50c)이 구비될 수 있다.
On the other hand, one of the left and right sides of the
한편, 윈도우 서포트(12)에는 윈도우(11)와 대향하는 상면에 음성입력 PCB(17, 18)가 수용되는 PCB 수용홈(12a, 12b)이 형성된다. 음성입력 PCB(17, 18)는 PCB 수용홈(12a, 12b)에 수용된 상태일 때, PCB 수용홈(12a, 12b)의 외측으로 돌출되지 않는다. 즉, PCB 수용홈(12a, 12b)은 윈도우 서포트(12)의 상면에 음성입력 PCB(17, 18)의 상하두께와 대응하는 깊이로 함입되어 형성된다. 음성입력 PCB(17, 18)가 PCB 수용홈(12a, 12b)에 수용된 상태이면, 음성입력 PCB(17, 18)의 상면은 윈도우 서포트(12)의 상면과 일치한다.
On the other hand, in the
PCB 수용홈(12a, 12b)은 제1 음성입력 PCB(17)가 수용되는 제1 PCB 수용홈(12a)과, 제2 음성입력 PCB(18)가 수용되는 제2 음성음력 PCB 삽입부(12b)를 포함한다. 제1 PCB 수용홈(12a)은 윈도우 서포트(12)에 형성된 개구부(12h)를 기준으로 전방에 배치되고, 제2 PCB 수용홈(12b)은 개구부(12h)를 기준으로 후방에 배치된다. 제1 PCB 수용홈(12a)은 윈도우 지지판(121)의 제2 영역(SE2)에 형성되고, 제2 PCB 수용홈(12b)은 윈도우 지지판(121)의 제1 영역(SE1)에 형성된다.
The
제1 PCB 수용홈(12a)은 윈도우 지지판(121)의 센터를 기준으로 우측으로 치우쳐서 형성되고, 제2 PCB 수용홈(12b)은 윈도우 지지판(121)의 센터를 기준으로 좌측으로 치우쳐서 형성된다.
The first
윈도우 서포트(12)는 PCB 수용홈(12a, 12b)의 바닥으로부터 돌출된 위치설정 돌기(12c, 12d)를 더 포함한다. 음성입력 PCB(17, 18)에는 위치설정 돌기(12c, 12d)가 삽입되는 위치설정 홀(17a, 18a)이 형성된다. 위치설정 돌기(12c, 12d)는 사각형상의 PCB 수용홈(12a, 12b)의 모서리에 하나가 형성되고, 위치설정 홀(17a, 18a)은 사각형상의 음성입력 PCB(17, 18)의 모서리에 하나가 형성된다. 작업자는 음성입력 PCB(17, 18)를 PCB 수용홈(12a, 12b)에 수용할 시, 위치설정 홀(17a, 18a)을 위치설정 돌기(12c, 12d)에 끼워서, 음성입력 PCB(17, 18)를 PCB 수용홈(12a, 12b)의 정확한 위치에 수용시킬 수 있다.
The
위치설정 돌기(12c, 12d)는 제1 PCB 수용홈(12a)이 바닥에서 상측으로 돌출 형성되는 제1 위치설정 돌기(12c)와, 제2 PCB 수용홈(12b)이 바닥에서 상측으로 돌출 형성되는 제2 위치설정 돌기(12d)를 포함한다. 그리고, 위치설정 홀(17a, 18a)은 제1 음성입력 PCB(17)에 형성되어 제1 위치설정 돌기(12c)가 삽입되는 제1 위치설정 홀(17a)과, 제2 음성입력 PCB(18)에 형성되어 제2 위치설정 돌기(12d)가 삽입되는 제2 위치설정 홀(18a)을 포함한다.
The
PCB 수용홈(12a, 12b)의 바닥에는 개구부(12e, 12f)가 형성된다. 개구부(12e, 12f)는 음성입력 PCB(17, 18)를 음성인식 PCB(40a)와 연결할 시, 하네스 케이블(17b, 18b)이 관통하는 홀의 기능을 한다. 개구부(12e, 12f)는 제1 PCB 수용홈(12a)의 바닥에 형성되는 제1 개구부(12e)와, 제2 PCB 수용홈(12b)의 바닥에 형성되는 제2 개구부(12f)을 포함한다.
개구부(12e, 12f)는 제1 영역(SE1) 및 제2 영역(SE2)에 각각 형성된 슬릿(121a, 121b)의 적어도 일부를 구성한다. 제1 PCB 수용홈(12a)는 제2 영역(SE2)에 형성된 제2 슬릿(121b) 중 우측으로 치우친 위치에 배치되어, 제2 영역(SE2)에 형성된 제3 지지보스(122c) 및 제4 지지보스(122d) 사이에서 제4 지지보스(122d)의 바로 옆에 형성된다. 그리고, 제2 PCB 수용홈(12b)는 제1 영역(SE1)에 형성된 제1 슬릿(121a) 중 좌측으로 치우친 위치에 배치되어, 제1 영역(SE1)에 형성된 제1 지지보스(122a) 및 제2 지지보스(122b) 사이에서 제1 지지보스(122a)의 바로 옆에 형성된다. 따라서, 사용자가 윈도우(11)를 가압할 시 윈도우 지지판(121)이 쉽게 탄성 변형되면서 컨택 스위치를 쉽게 작동시킬 수 있다.
The
개구부(12e, 12f)는 슬릿(121a, 121b)에 비해 전후방향의 폭이 넓게 형성된다. 음성입력 PCB(17, 18)는 하네스 케이블(17b, 18b)을 통해 음성인식 PCB(40a)와 연결되는 바, 하네스 케이블(17b, 18b)의 하단에는 음성인식 PCB(40a)와 연결되는 커넥터(17c, 18c)가 결합된다. 이 커넥터(17c, 18c)는 개구부(12e, 12f)를 통과하여 윈도우 서포트(12)의 아래로 빠져나가야 하므로, 슬릿(121a, 121b)보다 전후방향의 폭이 넓게 형성되는 것이 바람직하다.
The
하네스 케이블(17b, 18b)은 제1 음성입력 PCB(17) 및 음성인식 PCB(40a)를 연결하는 제1 하네스 케이블(17b)과, 제2 음성입력 PCB(18) 및 음성인식 PCB(40a)를 연결하는 제2 하네스 케이블(18b)를 포함한다. 그리고, 커넥터(17c, 18c)는 제1 하네스 케이블(17b)의 하단에 결합되어 음성인식 PCB(40a)와 연결되는 제1 커넥터(17c)와, 제2 하네스 케이블(18b)의 하단에 결합되어 음성인식 PCB(40a)와 연결되는 제2 커넥터(18c)를 포함한다.
The
윈도우(11)에는 윈도우(11)의 상측에서 윈도우(11)의 하측으로 사용자의 음성이 통과하는 음성 통과홀(11c, 11d)이 형성된다. 음성 통과홀(11c, 11d)은 윈도우(11)의 센터를 기준으로 전방 영역에 형성되는 제1 음성 통과홀(11c)과, 윈도우(11)의 센터를 기준으로 후방 영역에 형성되는 제2 음성 통과홀(11d)을 포함한다. 제1 음성 통과홀(11c)은 제1 음성입력 PCB(17)로 음성을 안내하고, 제2 음성 통과홀(11d)은 제2 음성입력 PCB(18)로 음성을 안내한다.
The voice passage holes 11c and 11d through which the user's voice passes are formed in the
실시예에 따라서는, 비대칭 구조에 따라 외관 디자인이 저감될 우려가 있다. 본 실시예의 윈도우(11)는 윈도우(11)의 센터를 기준으로 전방에서 좌우방향으로 제1 음성 통과홀(11c)의 옆에 2개의 제1 데코 홀(11e)이 형성되고, 윈도우(11)의 센터를 기준으로 후방에서 좌우방향으로 제2 음성 통과홀(11d)의 옆에 2개의 제2 데코 홀(11f)이 형성된다.
Depending on the embodiment, there is a fear that the appearance design may be reduced depending on the asymmetric structure. In the
윈도우(11)는 센터부가 투명 영역(11b)으로 형성되고, 투명 영역(11b) 이외의 영역은 불투명 영역(11a)으로 형성된다.
In the
음성입력 PCB(17, 18)에 사용자의 음성이 쉽게 입력될 수 있도록 하기 위해, 음성 통과홀(11c, 11d)은 음성입력 PCB(17, 18)와 대응되는 위치에 형성되는 것이 바람직하다. 음성입력 PCB(17, 18)에는 음성 통과홀(11c, 11d)과 대응되는 위치에 음성 통과홀(11c, 11d)을 통과한 음성이 입력되는 음성 입력홀(17d, 18d)이 형성된다. 음성입력 PCB(17, 18)에는 음성 입력홀(17d, 18d)이 형성된 하면에 마이크(미도시)가 설치됨이 바람직하다. 상기 마이크는 음성 입력홀(17d, 18d)로 입력된 음성을 증폭하여 음성입력 PCB(17, 18)의 음파변환회로로 입력하는 기능을 한다. 즉, 윈도우(11)의 외부에서 음성 통과홀(11c, 11d)을 통과한 사용자의 음성은 음성입력 PCB(17, 18)에 형성된 음성 입력홀(17d, 18d)로 입력된 후, 상기 마이크에서 증폭되어 음성입력 PCB(17, 18)의 음파변환회로로 입력되어 음성인식 PCB(40a)가 읽을 수 있는 음파신호로 변환된다.
It is preferable that the voice passage holes 11c and 11d are formed at positions corresponding to the
윈도우(11) 및 윈도우 서포트(12) 사이에는 개스킷(17e, 18e)이 설치된다. 개스킷(17e, 18e)은 음성 통과홀(11c, 11d)을 통과한 음성이, 음성입력 PCB(17, 18)의 음성 입력홀(17d, 18d)로 들어가지 않고, 윈도우(11) 및 윈도우 서포트(12) 사이의 틈새로 누설되는 것을 방지한다. 이를 위해, 개스킷(17e, 18e)은 상면이 윈도우(11)의 저면에 밀착되고, 하면은 음성입력 PCB(17, 18)의 상면에 밀착된다. 그리고, 개스킷(17e, 18e)에는 음성 통과홀(11c, 11d) 및 음성 입력홀(17d, 18d)을 연통시키는 연통홀(17f, 18f)이 형성된다. 따라서, 음성 통과홀(11c, 11d)을 통과한 음성은 전부가 연통홀(17f, 18f)을 통해 음성 입력홀(17d, 18d)로 입력되기 때문에, 음성인식을 정확하게 할 수 있게 된다.
Between the
한편, 윈도우(11), 윈도우 서포트(12) 및 구획판(152)은 전방이 높이가 낮고 후방이 높이가 높게 기울어져서 배치되기 때문에, 커버(10)가 본체(40)의 상부에 결합된 상태일 때, 본체(40)의 상측면 중 수평면으로 형성된 후방부와, 구획판(152) 사이에는 음성인식 PCB(40a)가 설치될 수 있는 공간(S, 도 5 참조.)이 확보된다.
Since the
도 9를 참조하면, 커버 하우징(15)의 상단 유지부(153)의 전면부에는 좌, 우 양쪽으로 한 쌍의 체결보스(153c, 153d)가 후방으로 함몰 형성될 수 있고, 후면부의 좌, 우 양쪽에는 한 쌍의 체결보스(미도시, 153b)가 전방으로 함몰 형성될 수 있다.
9, a pair of
도 3 내지 도 9를 참조하면, 커버 하우징(15)의 측벽(151)에는 볼륨 버튼(16)이 설치될 수 있다. 볼륨 버튼(16)은 돔(161)과 탄성 패드(미도시)를 포함할 수 있다. 돔(161)은 재질은 합성수지이며, 일면에 홈이 형성되고, 볼륨증가조작부(161a) 또는 볼륨감소조작부(161b)를 포함할 수 있다.
3 to 9, a
도 12는 본 발명의 일 실시예에 따른 음성 인식 서버 시스템 및 음성 인식 장치를 포함하는 스마트 홈 시스템을 간략히 도시한 도면이다. 12 is a view schematically illustrating a smart home system including a voice recognition server system and a voice recognition apparatus according to an embodiment of the present invention.
도 12를 참조하면, 본 발명의 일 실시예에 따른 스마트 홈 시스템(10)은, 통신 모듈(미도시)을 구비하여 다른 기기와 통신하거나 네트워크에 접속할 수 있는 음성 인식 장치(1)와 음성 인식 및 가전 제어를 위한 복수의 서버를 포함하는 음성 인식 서버 시스템(1100)을 포함하여 구성될 수 있다.
12, a
한편, 음성 인식 장치(1)는, 음성 인식이 가능한 장치이다.
On the other hand, the
또한, 본 발명의 일 실시예에 따른 스마트 홈 시스템(10)은, 스마트 폰(smart phone), 태블릿(Tablet) PC 등 이동 단말기(미도시)를 포함할 수 있다.
In addition, the
음성 인식 장치(1)는 내부에 통신 모듈을 구비하여 스마트 홈 시스템(10) 내/외부의 전자기기들과 통신할 수 있다.
The
본 발명의 일 실시예에 따른 스마트 홈 시스템(10)은 액세스 포인트(access point: AP) 장치(7)를 더 포함할 수 있고, 음성 인식 장치(1)는 액세스 포인트 장치(7)를 통하여 무선 인터넷 네트워크에 접속하여 다른 기기들과 통신할 수 있다.
The
액세스 포인트 장치(7)는 스마트 홈 시스템(10) 내의 전자 기기들에, 소정 통신 방식에 의한 무선 채널을 할당하고, 해당 채널을 통해, 무선 데이터 통신을 수행할 수 있다.
The
여기서, 소정 통신 방식은, 와이파이(Wi-Fi) 통신 방식일 수 있다. 이에 대응하여, 음성 인식 장치(1)가 구비하는 통신 모듈은 와이파이 통신 모듈일 수 있으나, 본 발명은 통신 방식에 한정되지 않는다.
Here, the predetermined communication method may be a Wi-Fi communication method. Correspondingly, the communication module included in the
또는, 음성 인식 장치(1)는 다른 종류의 통신 모듈을 구비하거나 복수의 통신 모듈을 구비할 수 있다. 예를 들어, 음성 인식 장치(1)는 NFC 모듈, 지그비(zigbee) 통신 모듈, 블루투스(Bluetooth™) 통신 모듈 등을 포함할 수 있다.
Alternatively, the
음성 인식 장치(1)는 와이파이(wi-fi) 통신 모듈 등을 통해 음성 인식 서버 시스템(1100)에 포함되는 서버 또는 외부의 소정 서버, 사용자의 이동 단말기 등과 연결 가능하고, 원격 모니터링, 원격 제어 등 스마트 기능을 지원할 수 있다.
The
사용자는 이동 단말기를 통하여 스마트 홈 시스템(10) 내의 음성 인식 장치(1)에 관한 정보를 확인하거나 음성 인식 장치(1)를 제어할 수 있다.
The user can confirm the information on the
한편, 사용자가 가정 내에서 음성 인식 장치(1)를 제어하거나 소정 정보를 확인하고자 하는 경우에도 이동 단말기를 반드시 이용해야 하는 것은 불편할 수 있다.
On the other hand, it may be inconvenient for the user to use the mobile terminal even when the user wants to control the
예를 들어, 사용자가 이동 단말기의 현재 위치를 모르거나 다른 장소에 있는 경우에 다른 방식으로 음성 인식 장치(1)를 제어할 수 있는 수단이 있는 것이 더 효율적이다.
For example, it is more efficient to have a means of controlling the
본 발명의 일 실시예에 따른 음성 인식 장치(1)는 사용자의 음성 입력을 수신할 수 있고, 음성 인식 서버 시스템(1100)은 사용자의 음성 입력을 인식, 분석하여 음성 인식 장치(1)를 제어할 수 있다.
The
이에 따라, 사용자는 이동 단말기, 원격제어장치를 조작하지 않고서도 음성 인식 장치(1)를 제어할 수 있다.
Accordingly, the user can control the
한편, 상기 음성 인식 서버 시스템(1100)에 포함되는 서버들 중 적어도 일부는 음성 인식 장치의 제조 회사, 판매 회사가 운영하는 서버이거나 제조 회사 또는 판매 회사가 서비스를 위탁한 회사가 운영하는 서버일 수 있다.
At least some of the servers included in the voice
도 13a는 본 발명의 일 실시예에 따른 음성 인식 서버 시스템의 일예이다. 13A is an example of a speech recognition server system according to an embodiment of the present invention.
도 13a를 참조하면, 본 발명의 일 실시예에 따른 음성 인식 서버 시스템은, 음성 인식 장치(1)로부터 음성 데이터를 수신하고, 수신한 음성 데이터를 분석하여 음성 명령을 판별하는 음성 서버(1110)를 포함할 수 있다.
13A, a speech recognition server system according to an embodiment of the present invention includes a
음성 서버(1110)는, 음성 인식 장치(1)로부터 음성 데이터를 수신하고, 상기 수신한 음성 데이터를 텍스트(text) 데이터로 변환하며, 텍스트 데이터를 분석하여 음성 명령을 판별할 수 있다.
The
또한, 음성 서버(1110)는, 판별한 음성 명령에 대응하는 신호를 소정 서버로 송신할 수 있다.
Further, the
예를 들어, 본 발명의 일 실시예에 따른 음성 인식 서버 시스템은 상기 음성 서버(1110)로부터 상기 판별한 음성 명령에 대응하는 신호를 수신하고, 상기 판별한 음성 명령에 대응하는 요청 신호를 생성하는 연계 서비스 서버(1120)와 상기 연계 서비스 서버(1120)로부터 수신되는 요청 신호에 기초하는 제어 신호를 상기 음성 인식 장치(1)로 송신하는 가전 제어 서버(1130)를 포함할 수 있다.
For example, the speech recognition server system according to an embodiment of the present invention receives a signal corresponding to the identified voice command from the
상기 음성 인식 장치(1)는 사용자가 발화한 음성 명령 입력을 수신하여 수신한 음성 명령 입력에 기초한 음성 데이터를 상기 음성 서버(1110)로 송신할 수 있다.
The
상기 음성 서버(1110)는, 음성 인식 장치(1)로부터 음성 데이터를 수신하고, 수신한 음성 데이터를 텍스트(text) 데이터로 변환하는 자동 음성 인식(Automatic Speech Recognition: ASR) 서버(1111), 상기 자동 음성 인식 서버(1111)로부터 상기 텍스트 데이터를 수신하고, 수신한 텍스트 데이터를 분석하여 음성 명령을 판별하며, 상기 판별한 음성 명령에 기초하는 응답 신호를 상기 음성 인식 장치(1)로 송신하는 자연어 처리(Natural Language Processing: NLP) 서버(1112), 및, 상기 음성 인식 장치(1)로부터 상기 응답 신호에 대응하는 텍스트를 포함하는 신호를 수신하고, 수신한 신호에 포함되는 텍스트를 음성 데이터로 변환하여 상기 음성 인식 장치(1)로 송신하는 텍스트 음성 변환(Text to Speech: TTS) 서버(1113)를 포함할 수 있다.
The
상기 자동 음성 인식 서버(1111)는 음성 인식 장치(1)로부터 수신한 음성 데이터에 대하여 음성 인식을 수행하여 텍스트 데이터를 생성하여 상기 자연어 처리 서버(1112)로 송신할 수 있다.
The automatic
상기 자연어 처리 서버(1112)는 상기 자동 음성 인식 서버(1111)로부터 수신한 텍스트 데이터를 자연어 처리 알고리즘에 따라 분석하여 음성 명령을 판별할 수 있다.
The natural
상기 자연어 처리 서버(1112)는 자연어 처리 알고리즘에 따라 사람이 일상적으로 사용하고 있는 언어인 자연어를 처리할 수 있고, 사용자의 의도(intent)를 분석할 수 있다. 상기 자연어 처리 서버(1112)는 상기 자동 음성 인식 서버(1111)로부터 수신한 텍스트 데이터에 대하여 자연어 처리를 수행하여 사용자의 의도에 부합하는 음성 명령을 판별할 수 있다.
The natural
이에 따라, 상기 자연어 처리 서버(1112)는 사용자가 일상적인 사용 언어로 음성 명령을 입력하더라도 사용자의 의도에 부합하는 음성 명령을 판별할 수 있다.
Accordingly, the natural
상기 자연어 처리 서버(1112)는 자연어 처리 결과에 대응하는 신호, 즉, 판별한 음성 명령에 대응하는 신호를 상기 연계 서비스 서버(1120)로 송신할 수 있다.
The natural
상기 연계 서비스 서버(1120)는, 상기 자연어 처리 서버(1112)로부터 상기 판별한 음성 명령에 대응하는 신호를 수신할 수 있다.
The
상기 연계 서비스 서버(1120)는 판별한 음성 명령이 음성 인식 장치(1)에 관한 것이면, 상기 가전 제어 서버(1130)와 통신하여 대응하는 동작을 수행할 수 있다.
The
또는, 상기 연계 서비스 서버(1120)는 판별한 음성 명령이 음성 인식 장치(1)에 관한 것이 아니면, 외부의 외부 서비스(1121)와 통신하여 대응하는 동작을 수행할 수 있다.
Alternatively, if the determined voice command is not related to the
예를 들어, 상기 연계 서비스 서버(1120)는 판별한 음성 명령이 날씨, 주식, 뉴스 등의 정보를 요청하는 명령이면, 요청된 정보에 대응하는 서비스를 제공하는 서버로 해당 정보를 요청하고 수신할 수 있다.
For example, if the determined voice command is a command for requesting information such as weather, stock, news, etc., the
또한, 상기 연계 서비스 서버(1120)는 수신한 정보를 음성 서버(1110)로 송신할 수 있고, 상기 자연어 처리 서버(1112)는 수신한 정보를 음성 인식 장치(1)로 전달할 수 있다.
The
상기 연계 서비스 서버(1120)는 판별한 음성 명령이 음성 인식 장치(1)에 관한 것이면, 상기 판별한 음성 명령에 대응하는 요청 신호를 생성하여 상기 가전 제어 서버(1130)로 송신할 수 있다.
The
상기 가전 제어 서버(1130)는, 상기 연계 서비스 서버(1120)로부터 수신되는 요청 신호에 기초하는 제어 신호를 상기 음성 인식 장치(1)로 송신할 수 있다.
The home
예를 들어, 음성 인식 장치(1)의 음악 재생 요청이 수신되면, 상기 가전 제어 서버(1130)는 상기 음성 인식 장치(1)로 음악 재생을 위한 제어 신호를 송신할 수 있다.
For example, when the music reproduction request of the
한편, 음성 인식 장치(1)는 상기 가전 제어 서버(1130)로부터 수신한 제어 신호에 따라 대응하는 동작을 수행할 수 있다.
On the other hand, the
또한, 음성 인식 장치(1)는 요청받은 동작을 수행한 후 동작을 수행하였음을 알리는 신호를 상기 가전 제어 서버(1130)로 송신할 수 있다.
Also, the
또한, 상기 가전 제어 서버(1130)는, 상기 음성 인식 장치(1)로부터 상기 제어 신호에 대한 응답 신호를 수신하고, 상기 응답 신호에 대응하는 처리 결과 정보를 상기 연계 서비스 서버(1120)로 송신할 수 있다.
The home
상기 음성 서버(1110)는, 상기 처리 결과 정보를 포함하는 응답 신호를 상기 음성 인식 장치(1)로 송신할 수 있다.
The
또한, 상기 음성 서버(1110)는, 상기 음성 인식 장치(1)로부터 상기 처리 결과 정보에 대응하는 출력 문구 텍스트를 포함하는 신호를 수신하고, 상기 수신한 출력 문구 텍스트를 음성 데이터로 변환하여 상기 음성 인식 장치(1)로 전송할 수 있다.
The
이 경우에, 상기 자연어 처리 서버(1112)가 상기 음성 인식 장치(1)로 송신하는 상기 판별한 음성 명령에 기초하는 응답 신호는, 상기 처리 결과 정보를 포함할 수 있다.
In this case, the response signal based on the voice command determined by the natural
한편, 음성 인식 장치(1)는 상기 자연어 처리 서버(1112)로부터 상기 판별한 음성 명령에 기초하는 응답 신호를 수신할 수 있다. 여기서, 응답 신호를 상기 판별한 음성 명령에 대응하는 응답의 텍스트 데이터를 포함할 수 있다.
On the other hand, the
예를 들어, 사용자가 음악 재생을 요청하는 음성 명령을 입력한 경우에, 상기 응답 신호는 음악을 재생하였음을 나타내는 텍스트 데이터를 포함할 수 있다. For example, when the user inputs a voice command for requesting music reproduction, the response signal may include text data indicating that the music has been reproduced.
한편, 음성 인식 장치(1)는 수신한 응답 신호에 대응하는 텍스트를 포함하는 신호를 상기 텍스트 음성 변환 서버(1113)로 송신할 수 있다. 여기서, 상기 응답 신호에 대응하는 텍스트를 포함하는 신호는 상기 처리 결과 정보에 대응하는 출력 문구 텍스트를 포함할 수 있다.
On the other hand, the
한편, 상기 텍스트 음성 변환 서버(1113)는 수신한 신호에 포함되는 텍스트를 음성 데이터로 변환하여 상기 음성 인식 장치(1)로 송신할 수 있다. 여기서 변환된 음성 데이터는 음원 파일을 포함할 수 있다.
On the other hand, the text-to-
상기 음성 인식 장치(1)는 스피커를 통하여 수신한 음성 데이터에 기초한 음성 안내 메시지를 출력할 수 있다.
The
한편, 상기 연계 서비스 서버(1120)는, 상기 판별한 음성 명령에 대응하는 신호에 기초하여 상기 음성 인식 장치(1)의 상태 정보를 상기 가전 제어 서버(1130)로 요청하고, 상기 가전 제어 서버(1130)는, 상기 음성 인식 장치(1)의 상태 정보를 상기 연계 서비스 서버(1120)로 송신할 수 있다. 상기 가전 제어 서버(1130)는, 상기 음성 인식 장치(1)의 상태 정보가 확보되어 있는 상태가 아닌 경우에는, 상기 음성 인식 장치(1)로 상태 정보를 요청하여 수신할 수 있다.
On the other hand, the
한편, 상기 연계 서비스 서버(1120)는, 상기 음성 인식 장치(1)의 상태 정보에 기초하여 상기 판별한 음성 명령의 지원이 가능한 경우에, 상기 가전 제어 서버(1130)로 상기 판별한 음성 명령에 대응하는 요청 신호를 송신할 수 있다.
On the other hand, when it is possible to support the determined voice command based on the state information of the
또는, 상기 연계 서비스 서버(1120)는, 상기 음성 인식 장치(1)의 상태 정보에 기초하여 상기 판별한 음성 명령의 지원이 불가능한 경우에, 상기 자연어 처리 서버(1112)로 현재 상태에서 지원되지 않는 기능임을 알리는 신호를 송신할 수 있다.
Alternatively, when it is impossible to support the determined voice command based on the status information of the
이 경우에도, 음성 인식 장치(1)는 상기 텍스트 음성 변환 서버(1113)로 음성 데이터를 요청, 수신하여, 현재 상태에서 지원되지 않는 기능임을 알리는 음성 안내 메시지를 출력할 수 있다.
In this case, the
실시예에 따라서는, 상기 음성 서버(1110)가, 상기 판별한 음성 명령의 지원 가능 유무를 판별할 수 있다. 예를 들어, 사용자의 음성 명령의 의도를 분석한 상기 자연어 처리 서버(1112)가, 상기 판별한 음성 명령의 지원 가능 유무를 판별할 수 있다.
According to an embodiment, the
이 경우에, 상기 판별한 음성 명령이 지원 불가능한 명령을 포함하고 있는 경우, 상기 자연어 처리 서버(1112)가 송신하는 상기 판별한 음성 명령에 기초하는 응답 신호는 상기 판별한 음성 명령이 상기 음성 인식 장치(1)가 지원하지 않는 기능임을 알리는 신호일 수 있다.
In this case, when the determined voice command includes an instruction that can not be supported, the response signal based on the determined voice command transmitted by the natural
본 발명의 일 실시예에 따른 음성 서버(1110) 및 이를 포함하는 음성 인식 서버 시스템(1100)은, 자연어 음성처리를 위해 여러 역할을 하는 서버를 유기적으로 연결하여 이용할 수 있다.
The
음성 인식 장치(1)는 음성 명령의 수신 및 전처리, 서버 전송까지의 동작을 수행하고, 음성 서버(1110)는, 음성/텍스트 변환, 의도분석, 명령 식별 등 자연어 처리 과정을 수행할 수 있다.
The
음성 서버(1110)가 자연어 처리를 수행함으로써, 음성 인식 장치 내부 임베디드 모듈의 CPU, 메모리 등의 부담을 감소시킬 수 있다.
By performing the natural language processing by the
한편, 연계 서비스 서버(1120)는 외부 서비스 및 가전 제어 서버(1130)와 통신하여 사용자의 음성 명령에 기초한 동작을 수행할 수 있다.
Meanwhile, the
한편, 음성 인식 장치(1)는 음성 서버(1110)로부터 음원 파일을 포함하는 음성 데이터를 수신하여, 음성 안내 메시지를 오디오로 출력함으로써, 청각적 피드백으로 사용자의 음성 입력에 화답할 수 있다.
On the other hand, the
음성 인식 장치(1)는 음성 서버(1110)로부터 음성 파일을 스트리밍으로 전달 받아 사용자에게 음성 안내 메시지를 재생, 출력할 수 있다. 이에 따라 음성 인식 장치(1)는 다양한 음원 파일을 저장하고 있을 필요가 없다.
The
한편, 연계 서비스 서버(1120)를 통하여 다른 서버와 충돌하지 않으면서도 다양한 외부 서비스들과의 연계가 가능하다. 또한, 외부 서비스 연동 서버를 통해 의도분석 시 외부 정보를 반영하여 의도분석 성공률을 높일 수 있다.
Meanwhile, it is possible to link with various external services without colliding with other servers through the linked
본 발명의 일 실시예에 따른 음성 인식 서버 시스템(1100)은, 복수의 서버를 통해, 호환성 및 연결성을 확보하고, 최종 제어 명령은 가전 제어 서버(1130)를 활용함으로써, 음성 인식 과정과 가전 제어 서버(1130)를 통해 와이파이 통신을 이용한 가전 제어 사이의 충돌 및 이동 단말기를 통한 가전 제어와 음성 인식 장치(1)를 통한 음성 입력에 의한 가전 제어 간 충돌을 막을 수 있다.
The voice
본 발명의 일 실시예에 따른 음성 인식 서버 시스템(1100)은, 서버 간 유기적인 연결을 통해 어느 한 서버에 의존하여 특정서버에 부하가 몰리는 것을 줄일 수 있고, 각각의 서버 별 역할이 달라, 특정 서버에서 문제가 생길 경우 동일한 역할을 하는 타 서버와의 연계를 통해 쉽게 대응이 가능하다.
The speech
또한, 복수의 서버들을 독립적으로 수시로 업데이트할 수 있어, 성능 개선에 유리하다. In addition, a plurality of servers can be independently updated from time to time, which is advantageous for performance improvement.
도 13b는 본 발명의 일 실시예에 따른 음성 인식 서버 시스템의 일예이다. 13B is an example of a speech recognition server system according to an embodiment of the present invention.
도 13b에서 예시된 음성 인식 서버 시스템은, 도 13a에서 예시된 음성 인식 서버 시스템이 음성 안내 메시지 출력을 위한 음성 데이터가 음성 인식 장치(1)로 전송되는 과정을 개선하여 음성 제어 응답 시간을 향상한 것이다.
The voice recognition server system illustrated in FIG. 13B improves the process of transmitting voice data for voice announcement message output to the
따라서, 도 13a와 도 13b에서 예시된 음성 인식 서버 시스템은 상기 차이점 이외의 동작은 실질적으로 동일하게 수행할 수 있고, 이하에서는 동일한 부분에 대해서는 간략히 기술한다. Therefore, the speech recognition server system illustrated in FIGS. 13A and 13B can perform substantially the same operations other than the above-described differences, and the same portions will be briefly described below.
도 13b를 참조하면, 본 발명의 일 실시예에 따른 음성 인식 서버 시스템은, 음성 인식 장치(1)로부터 음성 데이터를 수신하고, 수신한 음성 데이터를 분석하여 음성 명령을 판별하는 음성 서버(1110)를 포함할 수 있다.
13B, a speech recognition server system according to an embodiment of the present invention includes a
또한, 본 발명의 일 실시예에 따른 음성 인식 서버 시스템은, 상기 음성 서버(1110)로부터 상기 판별한 음성 명령에 대응하는 신호를 수신하고, 상기 판별한 음성 명령에 대응하는 요청 신호를 생성하는 연계 서비스 서버(1120)와 상기 연계 서비스 서버(1120)로부터 수신되는 요청 신호에 기초하는 제어 신호를 상기 음성 인식 장치(1)로 송신하는 가전 제어 서버(1130)를 더 포함할 수 있다.
In addition, the voice recognition server system according to an embodiment of the present invention may include a
도 13b에서 예시된 음성 인식 서버 시스템은, 음성 인식 장치(1)의 요청 없이도, 상기 음성 서버(1110)가 상기 음성 명령에 기초하는 처리 결과 정보를 포함하는 음성 데이터를 상기 음성 인식 장치(1)로 송신할 수 있다.
The speech recognition server system illustrated in FIG. 13B is a system in which the
상기 음성 서버(1110)는, 음성 인식 장치(1)로부터 음성 데이터를 수신하고, 수신한 음성 데이터를 텍스트(text) 데이터로 변환하는 자동 음성 인식 서버(1111), 상기 자동 음성 인식 서버(1111)로부터 상기 텍스트 데이터를 수신하고, 수신한 텍스트 데이터를 분석하여 음성 명령을 판별하는 자연어 처리 서버(1112), 및, 상기 음성 명령에 기초하는 응답 신호를 음성 데이터로 변환하여 상기 음성 인식 장치(1)로 송신하는 텍스트 음성 변환 서버(1113)를 포함할 수 있다.
The
본 실시예에서도, 상기 가전 제어 서버(1130)는, 상기 음성 인식 장치(1)로부터 상기 제어 신호에 대한 응답 신호를 수신하고, 상기 응답 신호에 대응하는 처리 결과 정보를 상기 연계 서비스 서버(1120)로 송신할 수 있다.
Also in this embodiment, the household
상기 연계 서비스 서버(1120)는 음성 서버(1110), 더욱 상세하게는 자연어 처리 서버(1112)로 상기 처리 결과 정보를 전달할 수 있다.
The linked
이 경우에, 상기 텍스트 음성 변환 서버(1113)가 상기 음성 인식 장치(1)로 송신하는 음성 데이터는, 상기 처리 결과 정보를 포함할 수 있다.
In this case, the speech data transmitted from the text-to-
또한, 상기 연계 서비스 서버(1120)는, 상기 판별한 음성 명령에 대응하는 신호에 기초하여 상기 음성 인식 장치(1)의 상태 정보를 상기 가전 제어 서버로 요청하고, 상기 가전 제어 서버는, 상기 음성 인식 장치(1)의 상태 정보를 상기 연계 서비스 서버(1120)로 송신할 수 있다.
The
또한, 상기 연계 서비스 서버(1120)는, 상기 음성 인식 장치(1)의 상태 정보에 기초하여 상기 판별한 음성 명령의 지원이 가능한 경우에, 상기 가전 제어 서버(1130)로 상기 판별한 음성 명령에 대응하는 요청 신호를 송신할 수 있다.
When the determined voice command can be supported on the basis of the state information of the
또는, 상기 연계 서비스 서버(1120)는, 상기 음성 인식 장치(1)의 상태 정보에 기초하여 상기 판별한 음성 명령의 지원이 불가능한 경우에, 상기 음성 서버(1110)로 현재 상태에서 지원되지 않는 기능임을 알리는 신호를 송신할 수 있다.
Alternatively, when it is impossible to support the determined voice command based on the status information of the
예를 들어, 상기 연계 서비스 서버(1120)는 상기 자연어 처리 서버(1112)로 현재 상태에서 지원되지 않는 기능임을 알리는 신호를 송신할 수 있다.
For example, the
또한, 상기 자연어 처리 서버(1112)는 상기 텍스트 음성 변환 서버(1113)로 현재 상태에서 지원되지 않는 기능임을 알리는 신호를 전달하고, 상기 텍스트 음성 변환 서버(1113)는 대응하는 음성 데이터를 생성하여 음성 인식 장치(1)로 송신할 수 있다.
In addition, the natural
음성 인식 장치(1)는 상기 텍스트 음성 변환 서버(1113)로부터 음성 데이터를 수신하여, 현재 상태에서 지원되지 않는 기능임을 알리는 음성 안내 메시지를 출력할 수 있다.
The
실시예에 따라서는, 상기 음성 서버(1110)가, 상기 판별한 음성 명령의 지원 가능 유무를 판별할 수 있다. 예를 들어, 사용자의 음성 명령의 의도를 분석한 상기 자연어 처리 서버(1112)가, 상기 판별한 음성 명령의 지원 가능 유무를 판별할 수 있다.
According to an embodiment, the
이 경우에, 상기 판별한 음성 명령이 지원 불가능한 명령을 포함하고 있는 경우, 상기 자연어 처리 서버(1112)가 송신하는 상기 판별한 음성 명령에 기초하는 응답 신호는 상기 판별한 음성 명령이 상기 음성 인식 장치(1)가 지원하지 않는 기능임을 알리는 신호일 수 있다.
In this case, when the determined voice command includes an instruction that can not be supported, the response signal based on the determined voice command transmitted by the natural
음성 인식 장치(1)가 동작한 후 제일 마지막으로 음성 안내를 위한 텍스트 음성 변환 서버(1113)에 해당 동작에 대한 안내 멘트를 요청할 경우 동작과 안내 멘트 사이에 시간 차가 발생할 수 있다.
When a speech announcement about the corresponding operation is requested to the text-to-
하지만, 본 발명의 일 실시예에 따르면, 의도분석이 완료되어 동작 요청이 자연어 처리 서버(1112)에서 송신될 때, 이와 동시에 텍스트 음성 변환 서버(1113)로 정보를 제공해줄 수 있다.
However, according to the embodiment of the present invention, when the intention analysis is completed and the operation request is transmitted from the natural
또한, 가전 제어 서버(1130)에서 음성 인식 장치(1)에 제어 명령을 내리는 시점에 준하여 텍스트 음성 변환 서버(1113)에서 음성 인식 장치(1)로 안내멘트를 제공할 수 있다.
In addition, the text-to-
이에 따라, 음성 인식 장치(1) 동작과 동시 또는 바로 후 안내멘트가 발화될 수 있다.
Accordingly, the announcement can be made at the same time or immediately after the operation of the
본 실시예에 따르면, 자연어 처리 서버(1112)와 텍스트 음성 변환 서버(1113)를 바로 연결함으로써, 가전 제어 서버(1130)를 통한 제어명령과 안내멘트 사이의 시간차를 최소화할 수 있다.
According to the present embodiment, by directly connecting the natural
한편, 도 13a와 도 13b에서는 음성 인식 장치(1)로 허브 기능을 수행하는 음성 인식 장치를 예시하여 설명하였지만, 본 발명은 이에 한정되지 않는다. 예를 들어, 음성 인식 장치(1)는, 공기조화기 외에 로봇청소기, 냉장고, 세탁기, 조리기기, TV, 이동 단말기(스마트 폰, 웨어러블 기기), 차량, 조명 장치, 온도 조절 장치 등에 채용될 수 있다.
13A and 13B, the speech recognition apparatus performing the hub function by
한편, 본 발명의 일 측에 따르면, 도 13a와 도 13b과 달리, 음성 인식 및 처리를 위한 자동 음성 인식 서버(1111), 자연어 처리 서버(1112), 텍스트 음성 변환 서버(1113)는 하나의 통합 서버로 구성될 수 있다.
13A and 13B, the automatic
또한, 실시예에 따라서는, 연계 서비스 서버(1120)와 가전 제어 서버(1130)는 하나의 통합 서버로 구성될 수 있다.
In addition, according to an embodiment, the
본 발명에 따르면, 음성 입력에 따라 음성 인식 장치가 동작함으로써, 사용자가 리모콘 등 원격제어장치, 이동 단말기 등을 조작할 필요가 없어, 사용자 편의성을 증대시킬 수 있다. According to the present invention, since the voice recognition device operates according to the voice input, the user does not need to operate the remote control device such as the remote controller, the mobile terminal, and the like, and the user convenience can be increased.
또한, 도 13a와 도 13b를 참조하여 설명한 것과 같이, 본 발명은 복수의 서버를 이용하여, 사용자의 자연어 음성 명령을 인식하고, 대응하는 제어 동작을 수행함으로써, 음성 인식 장치, 각 서버의 시스템 자원에 제한되지 않고 효율적으로 자연어를 인식, 처리할 수 있다. 13A and 13B, the present invention recognizes a user's natural language voice command using a plurality of servers and performs a corresponding control operation, thereby enabling a voice recognition apparatus, a system resource of each server It is possible to efficiently recognize and process natural language.
도 14는 본 발명의 일 실시예에 따른 음성 인식 장치의 내부 블록도의 일예를 도시한 도면이다. FIG. 14 is a block diagram of an internal block diagram of a speech recognition apparatus according to an embodiment of the present invention. Referring to FIG.
도 14를 참조하면, 본 발명의 일 실시예에 따른 음성 인식 장치(1)는, 사용자의 음성 명령을 수신하는 오디오 입력부(220), 각종 데이터를 저장하는 메모리(250), 다른 전자기기와 무선 통신하는 통신 모듈(50), 소정 정보를 영상으로 표시하거나 오디오로 출력하는 출력부(290), 및, 전반적인 동작을 제어하는 제어부(240)를 포함할 수 있다.
14, a
오디오 입력부(220)는, 외부의 오디오 신호, 사용자 음성 명령을 입력받을 수 있다. 이를 위해, 오디오 입력부(220)는, 하나 이상의 마이크(MIC)를 구비할 수 있다. 또한, 사용자의 음성 명령을 더 정확히 수신하기 위하여 오디오 입력부(220)는 복수의 마이크(221, 222)를 구비할 수 있다. 복수의 마이크(221, 222)는, 서로 다른 위치에 이격되어 배치될 수 있고, 외부의 오디오 신호를 획득하여 전기적인 신호로 처리할 수 있다.
The
도 14 등에서는 오디오 입력부(220)가 제1 마이크(221)와 제2 마이크(222)의 2개의 마이크를 구비하는 예를 도시하였으나, 본 발명은 이에 한정되지 않는다.
14 illustrates an example in which the
오디오 입력부(220)는 아날로그 소리를 디지털 데이터로 변환하는 처리부를 포함하거나 처리부에 연결되어 사용자 입력 음성 명령을 제어부(240) 또는 소정 서버에서 인식할 수 있도록 데이터화할 수 있다.
The
한편, 오디오 입력부(220)는 사용자의 음성 명령을 입력받는 과정에서 발생하는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 사용될 수 있다.
Meanwhile, the
또한, 오디오 입력부(220)는 각 마이크(221, 222)에서 수신되는 오디오 신호에서 노이즈를 제거하는 필터, 필터에서 출력되는 신호를 증폭하여 출력하는 증폭기 등 오디오 신호 처리를 위한 구성들을 포함할 수 있다.
The
메모리(250)는 음성 인식 장치(1)의 동작에 필요한 각종 정보들을 기록하는 것으로, 휘발성 또는 비휘발성 기록 매체를 포함할 수 있다. 기록 매체는 마이크로 프로세서(micro processor)에 의해 읽힐 수 있는 데이터를 저장한 것으로, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등을 포함할 수 있다.
The
한편, 메모리(250)에는 음성 인식을 위한 데이터가 저장될 수 있고, 제어부(240)는 오디오 입력부(220)를 통하여 수신되는 사용자의 음성 입력 신호를 처리하고 음성 인식 과정을 수행할 수 있다.
Meanwhile, the
한편, 간단한 음성 인식은 음성 인식 장치(1)가 수행하고, 자연어 처리 등 고차원의 음성 인식은 음성 인식 서버 시스템(1100)에서 수행될 수 있다.
Meanwhile, a simple speech recognition may be performed by the
예를 들어, 기설정된 호출어를 포함하는 웨이크 업(wake up) 음성 신호가 수신되는 경우에, 음성 인식 장치(1)는 음성 명령어를 수신하기 위한 상태로 전환될 수 있다. 이 경우에, 음성 인식 장치(1)는 호출어 음성 입력 여부까지의 음성 인식 과정만 수행하고, 이후의 사용자 음성 입력에 대한 음성 인식은 음성 인식 서버 시스템(1100)을 통하여 수행할 수 있다.
For example, when a wake up voice signal including a preset caller is received, the
음성 인식 장치(1)의 시스템 자원에는 한계가 있으므로, 복잡한 자연어 인식 및 처리는 음성 인식 서버 시스템(1100)을 통하여 수행될 수 있다.
Since the system resources of the
상기 메모리(250)에는 제한적인 데이터가 저장될 수 있다. 예를 들어, 상기 메모리(250)에는 기설정된 호출어를 포함하는 웨이크 업(wake up) 음성 신호를 인식하기 위한 데이터가 저장될 수 있다. 이 경우에, 상기 제어부(240)는 상기 오디오 입력부(220)를 통하여 수신되는 사용자의 음성 입력 신호로부터 기설정된 호출어를 포함하는 웨이크 업(wake up) 음성 신호를 인식할 수 있다.
Limited data may be stored in the
한편, 상기 호출어는 제조사에 의해 설정될 수 있다. 예를 들어, "LG 허브"가 호출어로 설정될 수 있다. On the other hand, the caller can be set by the manufacturer. For example, the " LG Hub " can be set to an alias.
또한, 상기 호출어는 사용자에 의해 설정 변경이 가능하다. The caller can be changed by the user.
상기 제어부(240)는, 웨이크 업(wake up) 음성 신호의 인식 이후에 입력되는 사용자의 음성 명령을, 통신 모듈(50)을 통하여, 음성 인식 서버 시스템(1100)에 송신하도록 제어할 수 있다.
The
통신 모듈(50)은, 다른 전자기기와, 무선 통신을 수행하여, 각종 신호를 주고 받을 수 있다. 예를 들어, 통신 모듈(50)은 스마트 홈 시스템(10) 내/외부의 전자기기들과 통신할 수 있다.
The
또한, 통신 모듈(50)은 액세스 포인트 장치(7)와 통신하고, 액세스 포인트 장치(7)를 통하여 무선 인터넷 네트워크에 접속하여 다른 기기들과 통신할 수 있다.
In addition, the
또한, 제어부(240)는 통신 모듈(50)을 통해 음성 인식 장치(1)의 상태 정보, 사용자의 음성 명령 등을 음성 인식 서버 시스템(1100) 등으로 전송할 수 있다.
The
한편, 상기 통신 모듈(50)을 통하여 제어 신호가 수신되면, 제어부(240)는 수신되는 제어 신호에 따라 동작하도록 음성 인식 장치(1)를 제어할 수 있다.
Meanwhile, when a control signal is received through the
출력부(290)는 사용자의 명령 입력에 대응하는 정보, 사용자의 명령 입력에 대응하는 처리 결과, 동작모드, 동작상태, 에러상태 등을 영상으로 표시하는 디스플레이(13)를 포함할 수 있다.
The
실시예에 따라서는, 상기 디스플레이(13)는 터치패드와 상호 레이어 구조를 이루어 터치스크린으로 구성될 수 있다. 이 경우에, 상기 디스플레이(13)는 출력 장치 이외에 사용자의 터치에 의한 정보의 입력이 가능한 입력 장치로도 사용될 수 있다.
According to an embodiment, the
또한, 출력부(290)는 오디오 신호를 출력하는 오디오 출력부(291)를 더 포함할 수 있다. 오디오 출력부(291)는 제어부(240)의 제어에 따라 경고음, 동작모드, 동작상태, 에러상태 등의 알림 메시지, 사용자의 명령 입력에 대응하는 정보, 사용자의 명령 입력에 대응하는 처리 결과 등을 오디오로 출력할 수 있다. 오디오 출력부(291)는, 제어부(240)로부터의 전기 신호를 오디오 신호로 변환하여 출력할 수 있다. 이를 위해, 스피커 등을 구비할 수 있다.
The
한편, 음성 인식 장치(1)는 사용자 입력을 위한 조작부(181), 음성 인식 장치(1) 주변 소정 범위를 촬영할 수 있는 카메라(210)를 더 포함할 수 있다.
The
조작부(181)는, 복수의 조작 버튼을 구비하여, 입력되는 버튼에 대응하는 신호를 제어부(240)로 전달할 수 있다.
The
카메라(210)는 음성 인식 장치(1) 주변, 외부 환경 등을 촬영하는 것으로, 이러한 카메라는 촬영 효율을 위해 각 부위별로 여러 개가 설치될 수도 있다.
The
예를 들어, 카메라(210)는 적어도 하나의 광학렌즈와, 광학렌즈를 통과한 광에 의해 상이 맺히는 다수개의 광다이오드(photodiode, 예를 들어, pixel)를 포함하여 구성된 이미지센서(예를 들어, CMOS image sensor)와, 광다이오드들로부터 출력된 신호를 바탕으로 영상을 구성하는 디지털 신호 처리기(DSP: Digital Signal Processor)를 포함할 수 있다. 디지털 신호 처리기는 정지영상은 물론이고, 정지영상으로 구성된 프레임들로 이루어진 동영상을 생성하는 것도 가능하다.
For example, the
한편, 상기 카메라(210)가 촬영하여 획득된 영상은 메모리(250)에 저장될 수 있다.Meanwhile, the image captured by the
도 15는 본 발명의 일 실시예에 따른 음성 인식 장치의 동작 방법을 도시한 순서도이다.15 is a flowchart illustrating an operation method of a speech recognition apparatus according to an embodiment of the present invention.
도 15를 참조하면, 음성 인식 장치(1)는, 사용자 입력에 의해, 음성 인식 기능을 활성화할 수 있다(S1510). 사용자 입력에 따라 음성 인식 장치(1)의 제어부(240)는, 마이크(221, 222)를 활성화할 수 있다. Referring to Fig. 15, the
예를 들어, 컨택 스위치들(181a, 181b, 181c, 181d) 중 하나를 작동시키면 음성 인식 기능이 활성화될 수 있다.For example, when one of the contact switches 181a, 181b, 181c, and 181d is activated, the voice recognition function can be activated.
또는, 음성 인식 장치(1)는 음성 인식 기능 활성화에 대한 설정에 따라서 자동으로 음성 인식 기능을 활성화할 수 있다. Alternatively, the
예를 들어, 전원이 켜지면, 음성 인식 장치(1)는 자동으로 마이크(221, 222)를 활성화하고, 음성 인식 기능을 활성화할 수 있다.For example, when the power is turned on, the
본 발명의 일 실시예에 따른 음성 인식 장치(1)는, 음성 인식 과정 및 홈 어플라이언스 제어 과정 중에 발생할 수 있는 다양한 상황들을 고려한 사용자 경험(User Experience, UX)을 제공할 수 있다.The
제어부(240)는 디스플레이(13)를 제어하여 음성 인식 과정 및 홈 어플라이언스 제어 과정의 각 단계에 대응하여 시각적 정보를 제공할 수 있다.The
또한, 제어부(240)는 오디오 출력부(291)를 제어하여 음성 인식 과정 및 홈 어플라이언스 제어 과정의 각 단계에 대응하여 청각적 정보를 제공할 수 있다.In addition, the
디스플레이(13)는 음성 인식 장치(1)의 운전 모드, 현재 상태, 설정 항목들을 여러 가지 시각적 이미지로 표시할 수 있다. 디스플레이(13)는 음성 인식 장치(1)의 운전 모드, 현재 상태, 설정 항목들을 문자, 숫자, 기호로 표시할 수 있고, 아이콘과 같은 그래픽 이미지로 표시할 수 있다. The
또한, 디스플레이(13)는 음성 입력의 처리 과정 별로 대응하는 정보를 표시할 수 있다.Also, the
도 15를 참조하면, 음성 인식 기능이 활성화되면, 상기 디스플레이(13)는, 마이크 아이콘을 점등하여 표시하고, 제어부(240)는 기설정된 호출어를 포함하는 웨이크 업(wake up) 음성 신호의 입력을 위한 웨이크업 신호 대기 모드로 진입하도록 제어할 수 있다(S1515).Referring to FIG. 15, when the voice recognition function is activated, the
한편, 음성 인식 기능이 비활성화되면 상기 마이크 아이콘의 표시가 종료될 수 있다.On the other hand, if the voice recognition function is disabled, the display of the microphone icon may be terminated.
또한, 오디오 출력부(291)는 호출어를 포함하는 발화를 안내하는 음성 안내 메시지를 출력할 수 있다. 예를 들어, 호출어가 "LG 허브"으로 설정되어 있다면, 오디오 출력부(291)는 "LG 허브라고 말하면 음성 인식 기능을 사용할 수 있습니다"와 같은 음성 안내 메시지를 음성 출력할 수 있다.In addition, the
한편, 음성 인식 장치(1)의 마이크(221, 222)가 활성화된 상태에서, 사용자로부터 음성 입력이 수신되는 경우, 마이크(221, 222)는, 입력 음성을 수신하고, 이를 제어부(240)로 전달할 수 있다.On the other hand, when a voice input is received from the user while the
한편, 마이크(221, 222)를 통해 기설정된 호출어를 포함하는 웨이크 업(wake up) 음성 신호가 수신되는 경우에(S1520), 음성 인식 장치(1)는 음성 명령어를 수신하기 위한 명령어 대기 모드로 전환될 수 있다(S1525). 마이크(221, 222)를 통해 기설정된 호출어를 포함하는 웨이크 업(wake up) 음성 신호가 수신되는 경우에(S1520), 제어부(240)는 명령어 대기 모드로 진입하도록 제어할 수 있다(S1525). On the other hand, when a wake-up voice signal including a predetermined call word is received through the
음성 인식 장치(1)가 항상 자연어 명령어를 대기하게 되면, 음성인식 기능에서 소비하는 전력과 CPU 점유율 및 음성 인식 서버 시스템의 서버 부하에 부담이 된다.If the
따라서, 음성 인식 장치(1)는 명령어 대기 상태에서 들어오는 음성 신호에 대해서만 서버로 전송할 수 있다.Therefore, the
또한, 음성 인식 장치(1)는 명령어를 대기하는 시간에 조건을 주고 시간 내 명령 입력시 명령어 완료 시점까지는 소리를 받아서 서버로 전달할 수 있다.In addition, the
본 발명의 일측에 따르면, 음성 인식 장치(1)는 호출어 음성 입력 여부까지의 음성 인식 과정만 수행하고, 이후의 사용자 음성 입력에 대한 음성 인식은 음성 인식 서버 시스템(1100)을 통하여 수행할 수 있다. According to one aspect of the present invention, the
또는, 호출어 음성 입력 여부의 판단은 음성 인식 장치(1)와 음성 인식 서버 시스템(1100)에서 이중으로 수행될 수 있다. Alternatively, the determination as to whether or not the caller voice is input may be performed in duplicate in the
한편, 상기 호출어는 제조사에 의해 설정될 수 있고, 음성 인식 장치 별로 다른 호출어가 설정될 수 있다. 예를 들어, "LG 허브"로 설정될 수 있다. 또한, 상기 호출어는 사용자에 의해 설정 변경이 가능하다. Meanwhile, the caller may be set by a manufacturer, and another caller may be set for each voice recognition device. For example, it can be set to "LG Hub". The caller can be changed by the user.
한편, 상기 제어부(240)는, 웨이크 업(wake up) 음성 신호의 인식 이후에 입력되는 사용자의 음성 명령을, 통신 모듈(50)을 통하여, 음성 인식 서버 시스템(1100)에 송신하도록 제어할 수 있다(S1530). Meanwhile, the
한편, 사용자의 음성 명령을 무기한으로 기다리는 것은 시스템 자원이 낭비되고, 명령어를 입력하지 않는 사용자의 의도에도 부합하지 않으므로 명령어 대기 모드에서는 소정 경과 시간 동안에 입력되는 음성 명령만 처리하도록 설정될 수 있다(S1527).On the other hand, waiting indefinitely for a user's voice command is wasteful of system resources and does not match the intention of a user who does not input a command. Therefore, in the command standby mode, only voice commands input during a predetermined elapsed time can be set to be processed ).
이 경우에, 상기 제어부(240)는, 상기 기설정된 경과 시간 이내에 수신된 음성 명령을 포함하는 음성 데이터를 음성 서버(1110)로 전송하도록 제어할 수 있다(S1530). In this case, the
한편, 상기 기설정된 경과 시간 이내에 상기 음성 명령이 수신되지 않으면(S1527), 상기 제어부(240)는, 다시 상기 웨이크업 신호 대기 모드로 전환하도록 제어할 수 있다.On the other hand, if the voice command is not received within the preset elapsed time (S1527), the
실시예에 따라서는, 제1 시간 이내에 상기 통신 모듈(50)이 상기 음성 서버(1110)로부터 상기 음성 명령에 기초한 응답 신호를 수신하지 못하면, 상기 오디오 출력부(291)는 기다려달라는 음성 안내 메시지를 출력할 수 있다. 이 경우에, 상기 제1 시간 이후 제2 시간 이내에도 상기 통신 모듈(50)이 상기 음성 명령에 기초한 응답 신호를 수신하지 못하면, 상기 오디오 출력부(291)는 음성 명령의 재입력을 요청하는 음성 안내 메시지를 출력할 수 있다.According to an embodiment, if the
상기 제어부(240)는, 상기 제2 시간 이내에도 상기 통신 모듈(50)이 상기 음성 명령에 기초한 응답 신호를 수신하지 못하면, 상기 명령어 대기 모드로 전환하도록 제어할 수 있다.If the
본 발명의 일 실시예에 따른 음성 인식 장치(1)는, 출력부(290)의 동작 뿐만 아니라, 다른 방식으로도 사용자에게 소정 정보를 제공할 수 있다.The
예를 들어, 본 발명의 일 실시예에 따른 음성 인식 장치(1)는 기설정된 경과 시간 이내에 음성 명령이 수신되면, 명령어를 수신하였음을 사용자에게 알리기 위하여, 명령어 수신에 대응하는 피드백 동작을 수행할 수 있다.For example, when a voice command is received within a preset elapsed time, the
실시예에 따라서는, 상기 기설정된 경과 시간 이내에 상기 음성 명령이 수신되면(S1527), 음성 인식 장치(1)가 명령어를 수신하였음을 사용자에게 알리기 위하여, 제어부(240)는 명령어 수신에 대응하는 피드백 동작을 수행하도록 제어할 수 있다.According to an embodiment of the present invention, when the voice command is received within the preset elapsed time (S1527), the
이 경우에, 상기 제어부(240)의 제어에 따라, 기설정된 동작을 수행할 수 있다. 예를 들어, 소정 사운드를 출력할 수 있다. In this case, the
또한, 사용자가 음성 인식 장치(1)에 음성 명령을 입력할 때에는 대부분의 경우가 음성 인식 장치(1)를 동작시키려는 의도이므로, 선제적으로 소정 사운드를 출력하고, 이후에 판별된 음성 명령에 대응하여 동작함으로써 사용자의 음성 명령에 더 빠르게 대응할 수 있다.Further, when the user inputs a voice command to the
한편, 음성 서버(1110) 및 이를 포함하는 음성 인식 서버 시스템(1100)은 도 12 내지 도 14를 참조하여 설명한 것과 같이 음성 인식 장치(1)로부터 수신되는 음성 명령을 포함하는 음성 데이터를 인식하고 처리할 수 있다.12 to 14, the
이에 따라, 통신 모듈(50)이 가전 제어 서버(1130)로부터 상기 음성 명령에 기초한 제어 신호를 수신하면(S1540), 제어부(240)는 수신한 제어 신호에 대응하여 동작하도록 음성 인식 장치(1)를 제어할 수 있다(S1545).Accordingly, when the
또한, 통신 모듈(50)이 상기 음성 서버(1110)로부터 상기 음성 명령에 기초한 응답 신호를 수신하면(S1550), 제어부(240)는 수신한 응답 신호에 대응하는 음성 안내 메시지를 출력하도록 오디오 출력부(291)를 제어할 수 있다(S1570).When the
실시예에 따라서는, 상기 응답 신호가 음성 데이터를 포함하지 않는 경우(S1560), 제어부(240)는 상기 음성 서버(1110)로 음성 데이터를 요청하여(S1565), 상기 음성 서버(1110)로부터 요청한 음성 데이터를 수신하도록 제어할 수 있다.The
한편, 음성 인식 결과에 따라서, 상기 통신 모듈(50)을 통하여 상기 음성 서버(1110)로부터 음성 인식 실패에 대응하는 신호를 수신할 수 있다. 이 경우에, 제어부(240)는 음성 명령의 재입력을 요청하는 음성 안내 메시지를 출력하도록 오디오 출력부(291)를 제어하고, 다시 상기 명령어 대기 모드로 전환하도록 제어할 수 있다.On the other hand, according to the result of speech recognition, a signal corresponding to the speech recognition failure can be received from the
또한, 판별된 음성 명령의 지원 가능 여부 판별에 따라서, 상기 통신 모듈(50)을 통하여 상기 음성 서버(1110)로부터 상기 음성 명령이 지원되지 않는 기능에 관한 것임을 알리는 신호를 수신할 수 있다(S1535). 이 경우에, 제어부(240)는 상기 음성 명령이 지원되지 않는 기능에 관한 것임을 알리는 음성 안내 메시지를 출력하도록 오디오 출력부(291)를 제어할 수 있다(S1537).In accordance with the discrimination of supportability of the discriminated voice command, a signal indicating that the voice command is not supported from the
이 경우에, 제어부(240)는 웨이크업 신호 대기 모드로 전환하도록 제어할 수 있다.In this case, the
또는, 제어부(240)는 다시 상기 명령어 대기 모드로 전환하도록 제어할 수 있다.Alternatively, the
본 발명에 따르면 각 상황에 맞는 시각적 정보 및/또는 음성 안내 메시지를 제공함으로써, 음성 제어 명령 시 어느 단계에서 어떤 문제로 정상제어 되지 않는지 정확하게 파악할 수 있다는 장점이 있다. 또한, 제품을 제어할 수 있는 명령어의 자유도가 높아 사용성이 개선된다.According to the present invention, visual information and / or voice guidance messages suitable for each situation are provided, so that it is possible to accurately grasp at which stage a voice control command is not normally controlled. In addition, the degree of freedom of commands for controlling the product is high, and usability is improved.
도 16은 본 발명의 일 실시예에 따른 음성 인식 장치의 동작 방법을 도시한 순서도이다.16 is a flowchart illustrating an operation method of a speech recognition apparatus according to an embodiment of the present invention.
도 16을 참조하면, 음성 인식 장치(1)는 마이크(221, 222)를 통하여 사용자의 음성 입력 신호를 수신할 수 있다(S1610).Referring to FIG. 16, the
이 경우에, 수신되는 음성 입력 신호는, 음성 인식 장치(1)의 음성 처리를 위하여 기설정된 호출어를 포함하거나, 호출어 인식 후의 명령어 대기 모드에서 입력되는 사용자의 음성 명령을 포함할 수 있다.In this case, the received voice input signal may include a predetermined voice call for voice processing of the
오디오 입력부(220)는, 아날로그 음성을 디지털 데이터로 변환하는 처리부를 포함하거나 처리부에 연결되어 사용자 입력 음성을 제어부(240) 및 음성 인식 서버 시스템(1110)에서 인식할 수 있도록 데이터화 할 수 있다.The
한편, 오디오 입력부(220)는 마이크(221, 222)에서 수신되는 오디오 신호에서 노이즈를 제거하는 필터, 필터에서 출력되는 신호를 증폭하여 출력하는 증폭기 등 오디오 신호 처리를 위한 구성들을 포함할 수 있다. Meanwhile, the
음성 인식 장치(1)의 통신 모듈(50)은 상기 음성 입력 신호 대응하는 음성 데이터를 음성 인식 서버 시스템(1110)으로 전송할 수 있다.The
한편, 음성 인식 장치(1)는, 음성 데이터의 전송(S1620)과 별개로, 상기 음성 입력 신호의 주파수 및 세기에 기초하여 사용자를 식별할 수 있다(S1630).On the other hand, the
사람의 음성은 성별 및 연령별로 주파수(frequency)가 달라질 수 있다. 또한, 개인별로 음성의 주파수 및 세기가 다를 수 있다.The voice of a person can be varied in frequency by sex and age. Also, the frequency and intensity of voice may be different for each individual.
예를 들어, 남성의 경우, 20대가 되면서 음성의 기본 주파수가 10대보다 낮아져 40대까지 안정된 상태가 유지될 수 있다. 여성의 경우, 10대에서 30대까지 연령 증가에 따라 기본 주파수의 점진적 감소를 보이다가 50대 이후 두드러진 감소를 나타낼 수 있다. 또한, 생애 2년 이하의 유아는 300~500Hz의 높은 기본 주파수를 가지며, 3세부터 14세 이하의 유아, 어린이는 250~300Hz의 기본 주파수를 가질 수 있다.For example, in the case of men, the basic frequency of voice becomes lower than 10 in 20s, and the stable state can be maintained until 40s. In the case of females, a gradual decrease in the fundamental frequency is shown with increasing age from the teenage to the thirties, but it can be markedly decreased after the fifties. Infants under two years of age have a high fundamental frequency of 300 to 500 Hz. Infants and children from 3 to 14 years of age can have a fundamental frequency of 250 to 300 Hz.
따라서, 음성 인식 장치(1)는, 사용자 음성으로부터 주파수, 세기 정보를 추출하여, 사용자 인식 및 사용자의 음색 데이터로 이용할 수 있다.Therefore, the
이를 위해, 음성 인식 장치(1)는, 사전에 사용자의 음성 신호를 수집하여, 수집된 음성 신호의 주파수 및 세기를 분석하여, 사용자의 음색을 판별하고, 사용자 별로 음성 신호 및 분석 데이터를 메모리(250)에 저장할 수 있다.To this end, the
즉, 본 발명의 일 실시예에 따른 음성 인식 장치(1)에는, 수집되는 음성 신호에 기초하는 사용자별 음색 데이터베이스가 구축될 수 있다.That is, in the
상기 데이터베이스에는 상기 음성 데이터에 포함되는 자연어 음원 파일들이 저장될 수 있다.The database may store natural language sound files included in the voice data.
또한, 상기 데이터베이스에는 음성 데이터들을 하나 이상의 구분인자에 따라 분류하여 저장될 수 있다.In addition, the database may store voice data classified according to one or more classification factors.
예를 들어, 상기 데이터베이스에는 사용자 개인별로 음성 데이터를 분류하여 저장할 수 있고, 또한, 음성 신호의 주파수 및 세기 분석에 기초하여 분석된 음색 데이터가 저장될 수 있다.For example, the database may classify and store voice data for individual users, and the analyzed voice data may be stored based on frequency and intensity analysis of the voice signal.
상기 음색 데이터는, 상기 식별된 사용자의 음성의 주파수 및 세기 데이터를 포함할 수 있다.The tone color data may include frequency and intensity data of the identified user's voice.
또한, 상기 음색 데이터는, 상기 식별된 사용자의 음성의 음도(pitch), 진동 변화율(jitter), 파형 규칙성(shimmer) 데이터 중 적어도 하나를 더 포함할 수 있다.In addition, the tone color data may further include at least one of pitch, vibration rate, and shimmer data of the voice of the identified user.
음성 인식 장치(1)는 수신하는 음성 입력 신호에 대하여 딥러닝(Deep Learning) 등 머신 러닝(machine learning)을 수행할 수 있고, 메모리(250)는, 머신 러닝에 사용되는 데이터, 결과 데이터 등을 저장할 수 있다.The
머신 러닝(Machine Learning)의 일종인 딥러닝(Deep Learning) 기술은 데이터를 기반으로 다단계로 깊은 수준까지 내려가 학습하는 것이다.Deep Learning, a type of machine learning, is a multi-level, deep learning process based on data.
딥러닝(Deep learning)은 단계를 높여갈수록 복수의 데이터들로부터 핵심적인 데이터를 추출하는 머신 러닝(Machine Learning) 알고리즘의 집합을 나타낼 수 있다. Deep learning can represent a set of machine learning algorithms that extract key data from multiple sets of data as they step up.
딥러닝 구조는 인공신경망(ANN)를 포함할 수 있으며, 예를 들어 딥러닝 구조는 CNN(Convolutional Neural Network), RNN(Recurrent Neural Network), DBN(Deep Belief Network) 등 심층신경망(DNN)으로 구성될 수 있다.The deep learning structure may include an artificial neural network (ANN). For example, the deep learning structure may include a deep neural network (DNN) such as CNN (Convolutional Neural Network), RNN (Recurrent Neural Network), DBN .
본 발명에 따른 딥러닝 구조는 공지된 다양한 구조를 이용할 수 있다. 예를 들어, 본 발명에 따른 딥러닝 구조는 CNN(Convolutional Neural Network), RNN(Recurrent Neural Network), DBN(Deep Belief Network) 등일 수 있다.The deep running structure according to the present invention can utilize various known structures. For example, the deep learning structure according to the present invention may be a Convolutional Neural Network (CNN), a Recurrent Neural Network (RNN), a Deep Belief Network (DBN), or the like.
RNN(Recurrent Neural Network)은, 자연어 처리 등에 많이 이용되고 있으며, 시간의 흐름에 따라 변하는 시계열 데이터(Time-series data) 처리에 효과적인 구조로 매 순간마다 레이어를 쌓아올려 인공신경망 구조를 구성할 수 있다.Recurrent Neural Network (RNN) is widely used in natural language processing, etc., and it is possible to construct an artificial neural network structure by stacking layers every moment with an effective structure for time-series data processing that varies with time .
DBN(Deep Belief Network)은 딥러닝 기법인 RBM(Restricted Boltzman Machine)을 다층으로 쌓아 구성되는 딥러닝 구조이다. RBM(Restricted Boltzman Machine) 학습을 반복하여, 일정 수의 레이어가 되면 해당 개수의 레이어를 가지는 DBN(Deep Belief Network)를 구성할 수 있다. Deep Belief Network (DBN) is a deep-run structure consisting of multiple layers of deep-running RBM (Restricted Boltzman Machine). The Restricted Boltzman Machine (RBM) learning is repeated, and a DBN (Deep Belief Network) having a corresponding number of layers can be constituted by a certain number of layers.
CNN(Convolutional Neural Network)은 사람이 물체를 인식할 때 물체의 기본적인 특징들을 추출한 다음 뇌 속에서 복잡한 계산을 거쳐 그 결과를 기반으로 물체를 인식한다는 가정을 기반으로 만들어진 사람의 뇌 기능을 모사한 모델이다. CNN (Convolutional Neural Network) is a model that simulates a person's brain function based on the assumption that when a person recognizes an object, it extracts the basic features of the object, then undergoes complicated calculations in the brain and recognizes the object based on the result to be.
한편, 인공신경망의 학습은 주어진 입력에 대하여 원하는 출력이 나오도록 노드간 연결선의 웨이트(weight)를 조정(필요한 경우 바이어스(bias) 값도 조정)함으로써 이루어질 수 있다. 또한, 인공신경망은 학습에 의해 웨이트(weight) 값을 지속적으로 업데이트시킬 수 있다. 또한, 인공신경망의 학습에는 역전파(Back Propagation) 등의 방법이 사용될 수 있다.On the other hand, the artificial neural network learning can be done by adjusting the weight of the inter-node interconnections (adjusting the bias value if necessary) so that the desired output is obtained for a given input. Also, the artificial neural network can continuously update the weight value by learning. Back propagation can be used for artificial neural network learning.
한편, 음성 인식 장치(1)에는 인공신경망(Artificial Neural Network)이 탑재될 수 있고, .수신되는 음성 입력 신호를 입력 데이터로 하는 머신 러닝(machine learning) 기반의 사용자 인식 및 사용자의 음색 인식을 수행할 수 있다. On the other hand, an artificial neural network may be installed in the
제어부(240)는 인공신경망, 예를 들어, CNN(Convolutional Neural Network), RNN(Recurrent Neural Network), DBN(Deep Belief Network) 등 심층신경망(Deep Neural Network: DNN)을 포함될 수 있고, 심층신경망을 학습할 수 있다.The
상기 인공신경망의 머신 러닝 방법으로는 자율학습(unsupervised learning)과 지도학습(supervised learning)이 모두 사용될 수 있다.As the machine learning method of the artificial neural network, both unsupervised learning and supervised learning can be used.
상기 제어부(240)는 설정에 따라 학습 후 음색 인식 인공신경망 구조를 업데이트시키도록 제어할 수 있다.The
한편, 음성 인식 장치(1)는 사용자가 발화한 음성 입력 신호를 수신하여 수신한 음성 입력 신호에 기초한 음성 데이터를 음성 서버(1110)로 송신할 수 있고, 음성 서버(1110)는 음성 인식 장치(1)로부터 음성 데이터를 수신할 수 있다(S1620).On the other hand, the
한편, 음성 인식 서버 시스템(1110)은 수신한 음성 데이터를 분석하여 사용자의 음성 입력을 인식할 수 있다.Meanwhile, the voice
음성 인식 서버 시스템(1110)의 음성 서버(1110)는, 상기 음성 데이터를 텍스트(text) 데이터로 변환할 수 있다. 이러한 음성 데이터의 텍스트 데이터 변환은 자동 음성 인식 서버(1111)에서 수행될 수 있다.The
이후, 상기 음성 서버(1110)는 상기 텍스트 데이터를 분석하여 상기 음성 데이터에 포함된 사용자 명령을 인식할 수 있다. 상기 음성 서버(1110)의 자연어 처리 서버(1112)는 자연어 처리 알고리즘을 제1 텍스트 데이터에 대한 자연어 처리를 수행하여 사용자의 의도에 부합하는 사용자 명령을 판별할 수 있다.The
음성 인식 서버 시스템(1110)은, 음성 인식 장치(1)로 상기 음성 입력 신호에 기초한 응답 신호를 전송할 수 있다. 이에 따라, 음성 인식 장치(1)는 상기 음성 인식 서버 시스템(1110)으로부터 상기 음성 입력 신호에 기초한 응답 신호를 수신할 수 있다(S1640).The voice
한편, 상기 응답 신호는 상기 음성 입력 신호에 대한 음성 인식 결과에 대응하는 텍스트 데이터를 포함할 수 있고, 제어부(240)는, 상기 텍스트 데이터를 상기 식별된 사용자에 대응하여 데이터베이스에 저장된 음색 데이터에 매핑(mapping)할 수 있다.The response signal may include text data corresponding to the speech recognition result of the speech input signal, and the
음성 인식 장치(1)는 오디오 출력부(291)를 통하여 상기 수신한 응답 신호에 대응하는 음성 안내 메시지를 출력할 수 있다(S1650).The
제어부(240)는, 상기 식별된 사용자에 대응하여 데이터베이스에 저장된 음색 데이터에 기초하는 음성으로 상기 음성 안내 메시지를 출력하도록 제어할 수 있다.The
현재 많은 음성 인식 장치들은 기계식 모노(mono) 톤으로 음성 인식 장치(1)는 텍스트 음성 변환(Text to Speech: TTS)된 음성 안내 메시지를 출력하고 있다.Currently, many speech recognition devices are in a mechanical mono tone, and the
이에 따라, 사용자는 기계음에 거부감을 느낄 수 있고, 대화하고 있다는 느낌을 받기 어려웠다.As a result, the user can feel a sense of rejection in the machine sound, and it is difficult to feel that the user is conversing.
하지만, 음성 인식 장치(1)는 마이크(221, 222)를 통하여 입력된 사용자의 음색을 고음&저음(주파수) 및 세기 분석하고, 분석된 데이터를 재가공할 수 있다.However, the
음성 인식 장치(1)는 화자인식 기술을 이용하여 발화자의 데이터베이스로 음성 주파수(저,고주파)와 세기 정보를 STT(Speech To Text) 데이터 등 기저장된 데이터와 매핑할 수 있다. The
실시예에 따라서는 매핑 데이터는 딥 러닝 실행과 빅 데이터(big data)를 저장할 수 있는 음성 인식 서버 시스템(1110)으로 전달될 수 있다. 이 경우에, 음성 인식 장치(1)는 음성 인식 서버 시스템(1110)으로부터 사용자의 음색 데이터를 수신하거나, 사용자의 음색 데이터가 적용된 음원 파일을 수신할 수 있고, 이에 기초한 음성 안내 메시지를 출력할 수 있다.Depending on the embodiment, the mapping data may be passed to the speech
본 발명의 일 실시예에 다른 음성 인식 장치(1)는, 기저장된 음색 데이터를 적용하여, 딱딱한 기계음을 넘어서 사용자의 말투, 음색과 유사한 음성 안내 메시지를 출력할 수 있다.The
즉, 본 발명은 화자의 음성 데이터를 음성 인식, 사용자 인식에만 사용하지 않고, 출력으로도 재활용함으로써, 사용자에게 익숙한 맞춤형 음성 안내를 제공할 수 있다.In other words, the present invention can provide customized voice guidance familiar to the user by reusing speech data of the speaker not only for voice recognition but also for user recognition.
또한, 사용자가 음성인식 기능을 많이 쓸수록 데이터가 많이 축적되고 축적된 데이터로 음성 인식 장치(1) 또는 음성 인식 서버 시스템(1100)은 딥 러닝을 이용하여 성능을 지속적으로 개선할 수 있다.Further, as the user uses the voice recognition function more frequently, the
본 발명의 일 실시예에 따른 음성 인식 장치(1)는, 다른 주파수 음역대를 출력하는 2이상의 스피커(43, 44)를 구비할 수 있다.The
예를 들어, 상측에 배치되는 스피커(43)는 고음 대역을 출력하는 트위터(tweeter)이고, 하측에 배치되는 스피커(44)는 저음 대역을 출력하는 우퍼(woofer)일 수 있다.For example, the
제어부(240)는, 상기 음색 데이터에 기초하여, 출력 음성을 고음 대역과 저음 대역으로 구분하여 아날로그 인코딩하고, 음성 인식 장치(1)가 구비하는 고음 대역 스피커(43)를 통하여 고음 대역 음성을 출력하며, 저음 대역 스피커(44)를 통하여 저음 대역 음성을 출력하도록 제어할 수 있다.Based on the tone color data, the
따라서, 본 발명의 일 실시예에 따른 음성 인식 장치(1)는, 딥러닝과 빅데이터 기반으로 축적된 사용자의 음색 데이터(주파수 및 세기)를 이용하여, 다시 2개의 스피커(43, 44)를 통해 최대한 사용자의 음색(억양 및 어조)과 가까운 TTS 음을 만들어 내 제공할 수 있다.Therefore, the
또한, 본 발명의 일 실시예에 따른 음성 인식 장치(1)는, 사용자의 지방 사투리를 반영하거나, 다른 사용자와 차별화된 사용자 개인의 TTS 음성 데이터를 제공할 수 있다. In addition, the
이에 따라 사용자는 자신만의 TTS 음성 데이터를 가지거나 공유할 수 있다. 도한, 사용자의 음색이 반영된 데이터는 다른 기기 또는 다른 사람에게 보내져 활용될 수도 있다.Accordingly, the user can own or share his own TTS voice data. Also, the data reflecting the tone of the user may be sent to another device or other person for utilization.
도 17은 본 발명의 일 실시예에 따른 음성 인식 장치의 동작 방법을 도시한 순서도이다.17 is a flowchart illustrating an operation method of a speech recognition apparatus according to an embodiment of the present invention.
도 17을 참조하면, 음성 인식 장치(1)는 마이크(221, 222)를 통하여 사용자의 음성 입력 신호를 수신할 수 있다(S1710).Referring to FIG. 17, the
이 경우에, 수신되는 음성 입력 신호는, 음성 인식 장치(1)의 음성 처리를 위하여 기설정된 호출어를 포함하거나, 호출어 인식 후의 명령어 대기 모드에서 입력되는 사용자의 음성 명령을 포함할 수 있다.In this case, the received voice input signal may include a predetermined voice call for voice processing of the
또는, 수신되는 음성 입력 신호는, 사용자의 음성 명령과 무관하게 생활 중에 발화한 사용자의 음성을 포함할 수 있다.Alternatively, the received voice input signal may include voice of a user who has uttered a voice in the course of life, regardless of the voice command of the user.
오디오 입력부(220)는 마이크(221, 222)를 통하여 사용자의 음성을 입력받아, 입력된 음성을 데이터화할 수 있다.The
제어부(240)는, 화자 인식 기술에 따라 음성 데이터에서 주파수와 세기 데이터를 추출하여 화자를 구분할 수 있다(S1720).The
음성 인식 장치(1)는 상기 음성 입력 신호의 주파수 및 세기에 기초하여 사용자를 식별할 수 있고(S1720), 상기 식별된 사용자에 대응하여 데이터베이스에 저장된 음색 데이터에 기초하는 음성 안내 메시지를 출력할 수 있다(S1730).The
예를 들어, 사용자가 집에 귀가하여 말하는 음성이 수신되면, 음성 인식 장치(1)는 사용자의 음색을 반영한 친근한 음성으로 인사말을 발화할 수 있다.For example, when the user receives a voice saying home speech, the
또한, 음성 인식 장치(1)는 음악 재생, 공기조화기 등의 제어를 추천 안내할 수도 있다.Further, the
본 실시예에서도, 제어부(240)는, 상기 음색 데이터에 기초하여, 출력 음성을 고음 대역과 저음 대역으로 구분하여 아날로그 인코딩하고, 음성 인식 장치(1)가 구비하는 고음 대역 스피커(43)를 통하여 고음 대역 음성을 출력하며, 저음 대역 스피커(44)를 통하여 저음 대역 음성을 출력하도록 제어할 수 있다.In this embodiment, the
상기 음색 데이터는, 상기 식별된 사용자의 음성의 주파수 및 세기 데이터를 포함할 수 있다.The tone color data may include frequency and intensity data of the identified user's voice.
실시예에 따라서는, 음성 인식 장치(1)는 자체적으로 음성 인식 과정을 수행할 수도 있다.In some embodiments, the
이 경우에, 제어부(240)는, 상기 음성 입력 신호에 포함된 음성 명령을 판별할 수 있고, 상기 판별된 음성 명령에 대응하는 텍스트 데이터를 상기 식별된 사용자에 대응하여 메모리(250) 또는 음성 인식 서버 시스템(1100)의 데이터베이스에 저장된 음색 데이터에 매핑(mapping)한 후에, 사용자의 음색이 적용된 음성 안내 메시지를 발화하도록 제어할 수 있다.In this case, the
제어부(240)는, 음성 데이터와 데이터베이스에 저장된 음색 데이터에 매핑(mapping)하고, 음성 응답 시 필요한 문자에 대한 음을 데이터베이스에서 가져와, 가져온 데이터에서 고음, 저음에 대하여 아날로그(ANALOG) 인코딩을 수행할 수 있다.The
제어부(240)는, 고음은 트위터 스피커(43)를 통해 재생하고, 저음은 우퍼 스피커(44)를 통하여 재생하도록 제어함으로써, REAL TTS 음성 서비스 제공이 가능하다.The
도 18은 본 발명의 일 실시예에 따른 음성 인식 장치의 동작 방법을 도시한 순서도이다. 도 18은 음성 인식과 병행 및 독립적으로 사용자 음성을 수집하여 데이터베이스화하는 과정을 포함한다.18 is a flowchart illustrating an operation method of a speech recognition apparatus according to an embodiment of the present invention. FIG. 18 includes a process of collecting user's voice in parallel with and independent of speech recognition and databaseing.
도 18을 참조하면, 사용자의 설정 또는 동의에 의해, 음성 인식 장치(1)는 음성 수집 모드로 진입할 수 있다(S1810). 여기서, 음성 수집 모드는 음성 데이터를 수집하여 텍스트 데이터화하거나, 수집된 음성의 주파수, 세기 등을 분석한 텍스트 데이터를 생성하므로, STT(Speech To Text) 데이터 수집 모드 또는 Only STT DATA 수집 모드로도 명명될 수 있다.Referring to FIG. 18, the
이러한, 음성 수집 모드는 음성 인식 과정과 별개로 수행될 수 있고, 이에 따라 빠른 음성 데이터베이스 구축이 가능하다.Such a voice acquisition mode can be performed separately from the voice recognition process, and thus a fast voice database can be constructed.
한편, 음성 인식 과정과 독립적으로 음성을 수집하기 위해, 마이크(221, 222)는 음성 인식 과정과 무관하게 활성화될 수 있다(S1815).Meanwhile, in order to collect voice independently of the voice recognition process, the
즉, 음성 입력으로 음성 인식 장치(1)를 호출하거나, 소정 버튼을 조작하지 않아도, 마이크(221, 222)는 음성인식 대기 상태(mic always on 상태)로 동작할 수 있다.That is, the
음성 인식 장치(1)는 항상 켜진 마이크(221, 222)를 이용하여 음성 데이터를 수집할 수 있다. 이에 따라, 음성 인식 장치(1)는 설치된 공간에서 가족 구성원의 모든 대화를 듣고 수집할 수 있다.The
한편, 음성 인식 장치(1)는 수집된 음성에 대하여 화자 인식 기술 소프트웨어 처리를 수행하고(S1820), 사람의 목소리를 구분하여(S1825), 데이터베이스에 저장할 수 있다(S1840).On the other hand, the
이 경우에, 음성 인식 장치(1)는 사용자의 음성의 주파수 및 세기 데이터와 기존에 수집, 분석된 STT 데이터를 매핑하여(S1830), 데이터베이스에 저장할 수 있다(S1840).In this case, the
한편, 데이터베이스에는 사용자가 자주 말한 데이터만 저장되거나, 사용자가 사용한 어휘의 빈도수에 기초하여 가중치를 적용한 데이터가 저장될 수 있다.On the other hand, in the database, only data frequently referred to by the user can be stored, or the weighted data can be stored based on the frequency of the vocabulary used by the user.
또한, 데이터베이스에는 빈도수가 높은 단어 위주로 외부 망에서 해당 단어와 관련된 데이터를 수신하여 추가적으로 저장할 수도 있다.Also, the database may receive additional data related to the word in the external network based on the word having a high frequency.
특히, 사용자가 음성 인식 기능 시 사용한 단어가 평상 시 빈번하게 사용한 단어로 데이터베이스에 많은 정보가 저장이 되어 있다면, 사용자에게 특화된 음성 안내를 제공하고, 사용자 기호가 반영된 음성 안내 서비스를 제공할 수 있다.Particularly, if a word used in a voice recognition function by a user is a frequently used word in a database and a lot of information is stored in the database, it is possible to provide a voice guidance specialized for the user and provide a voice guidance service reflecting the user's preference.
예를 들어, 데이터베이스에 스포츠에 대한 음성이 많았다면 음성 인식 장치(1)는 스포츠에 특화된 음성 인식 장치(1)로 발전할 수 있다.For example, if the database contains a lot of voice for sports, the
예를 들어, 사용자가 '야구' 관련 단어를 많이 발화하면, 사용자가 자주 언급한 '야구' 관련 데이터를 음성 인식 서버 시스템(1100), 기타 서버로부터 수신할 수 있고(S1850), 추가로 확보된 데이터를 이용하여, 사용자에게 '야구'와 관련된 상세 정보를 제공할 수 있다(S1860).For example, when a user utteres a lot of words related to 'baseball', the baseball-related data frequently referred to by the user can be received from the voice
이 경우에, 제어부(240)는, 제공할 정보에 대한 음성을 고음은 트위터 스피커(43), 저음은 우퍼 스피커(44)로 인코딩하고(S1870), 출력하도록 제어함으로써, REAL TTS 음성 서비스 제공이 가능하다(S1880).In this case, the
한편, 음성 인식 장치(1) 또는 음성 인식 서버 시스템(1100)은 동작하지 않는 시간을 딥러닝(Deep learning)을 수행하는 시간으로 사용하여, 끊임없이 성능을 개선할 수 있다.On the other hand, the
도 19는 일 실시예에 따른 음성 인식 장치의 동작 방법에 관한 설명에 참조되는 도면이다.FIG. 19 is a diagram for explaining an operation method of a speech recognition apparatus according to an embodiment.
본 발명의 실시예에 따른 데이터베이스는, 음성 인식 장치(1) 또는 음성 인식 서버 시스템(1100)의 저장매체에 저장될 수 있다.The database according to the embodiment of the present invention may be stored in the storage medium of the
도 19를 참조하면, 데이터베이스에는 음성 인식 장치(1)가 배치되어 사용되는 생활 공간의 구성원들로부터 수집된 데이터가 저장될 수 있다. 예를 들어, 데이터베이스에는 가족 구성원 A, B, C, D의 데이터가 저장될 수 있다.Referring to FIG. 19, data collected from the members of the living space in which the
음성 인식 장치(1) 또는 기타 전자기기는 데이터베이스에 저장된 사람 A, B, C, D 중 필요한 사람의 데이터를 불러와 이용할 수 있다.The
예를 들어, 음성 인식 장치(1)는 수신되는 음성에 대해 화자 인식하여, 현재 A와 C가 소정 공간에 있음을 인지할 수 있다.For example, the
이 경우에, 음성 인식 장치(1)는 A와 C에 대한 데이터를 데이터베이스에서 불러올 수 있다.In this case, the
이후, 사람 C가 "오늘 날씨 알려줘"라는 음성 명령을 입력하면, 음성 인식 장치(1)는 자체적으로 자연어 음성 인식 과정을 수행하거나 음성 인식 서버 시스템(1100)으로 음성 데이터를 전송하고, 그에 대한 음성 인식 결과를 수신할 수 있다.Thereafter, when the person C inputs a voice command " Tell me the weather today ", the
음성 명령에 대한 인식 또는 인식 결과의 수신 후에, 음성 인식 장치(1)는 음성 인식 결과에 대응하여, 사람 C의 음성과 어투와 유사한 음색이 적용된 음성 안내 메시지를 출력할 수 있다.After receiving the recognition or recognition result of the voice command, the
본 실시예에서, 음성 인식 장치(1)는 사람 C의 음성과 어투와 유사한 음색으로 오늘의 날씨를 안내할 수 있다.In the present embodiment, the
또한, 공기조화기, 세탁기, 냉장고, 이동단말기 등 기타 전자기기도 데이터베이스를 이용할 수 있다. Also, a database can be used for other electronic devices such as an air conditioner, a washing machine, a refrigerator, and a mobile terminal.
예를 들어, 냉장고는, 수신되는 음성에 대해 화자 인식하여, 현재 B와 D가 소정 공간에 있음을 인지할 수 있다.For example, the refrigerator can recognize the speaker as to the received voice, and recognize that the present B and D are present in the predetermined space.
이 경우에, 냉장고는 B와 D에 대한 데이터를 데이터베이스에서 불러올 수 있다.In this case, the refrigerator can retrieve data for B and D from the database.
이후, 사람 B가 "오늘 일정 알려줘"라는 음성 명령을 입력하면, 냉장고는 자체적으로 자연어 음성 인식 과정을 수행하거나 음성 인식 서버 시스템(1100)으로 음성 데이터를 전송하고, 그에 대한 음성 인식 결과를 수신할 수 있다.Thereafter, when the person B inputs a voice command " Tell me a schedule today ", the refrigerator itself performs a natural speech recognition process or transmits voice data to the voice
음성 명령에 대한 인식 또는 인식 결과의 수신 후에, 냉장고는 음성 인식 결과에 대응하여, 사람 B의 음성과 어투와 유사한 음색이 적용된 음성 안내 메시지를 출력할 수 있다.After receiving the recognition or recognition result of the voice command, the refrigerator can output the voice guidance message to which the voice of the person B and the tone similar to the tone are applied, corresponding to the voice recognition result.
본 실시예에서, 냉장고는 사람 B의 음성과 어투와 유사한 음색으로 오늘의 일정을 안내할 수 있다.In this embodiment, the refrigerator can guide today's schedule with a tone similar to that of human B's tone.
본 발명의 실시예들 중 적어도 하나에 의하면, 사용자 맞춤형 음성 안내를 제공할 수 있어, 사용자의 편의성 및 감성 품질을 증대할 수 있다.According to at least one embodiment of the present invention, it is possible to provide a user-customized voice guidance, thereby enhancing the user's convenience and emotional quality.
또한, 본 발명의 실시예들 중 적어도 하나에 의하면, 사용자를 식별하고, 식별된 사용자의 음색과 유사한 음성 안내를 제공할 수 있다.Further, according to at least one of the embodiments of the present invention, it is possible to identify the user and provide voice guidance similar to the tone of the identified user.
또한, 본 발명의 실시예들 중 적어도 하나에 의하면, 서버 시스템과의 통신에 의해 효율적으로 자연어 음성 인식을 수행할 수 있다.Further, according to at least one of the embodiments of the present invention, natural language speech recognition can be efficiently performed by communication with the server system.
또한, 본 발명의 실시예들 중 적어도 하나에 의하면, 비숙련 사용자들도 편리하게 다양한 기능 및 서비스를 이용할 수 있어 사용자의 이용 편의성을 증대할 수 있다.Also, according to at least one of the embodiments of the present invention, non-skilled users can conveniently utilize various functions and services, thereby increasing convenience for the user.
또한, 본 발명의 실시예들 중 적어도 하나에 의하면, 제품별, 개인별로 수집되는 데이터를 이용하여 음성 인식 성능을 향상할 수 있다.In addition, according to at least one of the embodiments of the present invention, speech recognition performance can be improved by using data collected by product and individual.
본 발명에 따른 음성 서버, 음성 인식 서버 시스템 및 음성 인식 장치는 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The voice server, the voice recognition server system, and the voice recognition apparatus according to the present invention are not limited to the configuration and method of the embodiments described above, but the embodiments may be modified in various ways, All or a part of the above-described elements may be selectively combined.
한편, 본 발명의 실시예에 따른 음성 인식 방법, 음성 서버, 음성 인식 서버 시스템 및 음성 인식 장치의 동작 방법은, 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.Meanwhile, the speech recognition method, the voice server, the speech recognition server system, and the method of operating the speech recognition apparatus according to the embodiments of the present invention can be implemented as a code that can be read by a processor on a processor-readable recording medium. The processor-readable recording medium includes all kinds of recording apparatuses in which data that can be read by the processor is stored. Examples of the recording medium that can be read by the processor include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and may also be implemented in the form of a carrier wave such as transmission over the Internet . In addition, the processor-readable recording medium may be distributed over network-connected computer systems so that code readable by the processor in a distributed fashion can be stored and executed.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It should be understood that various modifications may be made by those skilled in the art without departing from the spirit and scope of the present invention.
음성 인식 장치: 1
음성 인식 서버 시스템: 1100
음성 서버: 1110
ASR 서버: 1111
NLP 서버: 1112
TTS 서버: 1113
연계 서비스 서버: 1120
가전 제어 서버: 1130
Speech Recognition Device: 1
Voice recognition server system: 1100
Voice server: 1110
ASR server: 1111
NLP server: 1112
TTS server: 1113
Linked service server: 1120
Home appliance control server: 1130
Claims (11)
상기 음성 입력 신호 대응하는 음성 데이터를 음성 인식 서버 시스템으로 전송하는 단계;
상기 음성 입력 신호의 주파수 및 세기에 기초하여 사용자를 식별하는 단계;
상기 음성 인식 서버 시스템으로부터 상기 음성 입력 신호에 기초한 응답 신호를 수신하는 단계; 및,
상기 수신한 응답 신호에 대응하는 음성 안내 메시지를 출력하는 단계;를 포함하고,
상기 음성 안내 메시지 출력 단계는, 상기 식별된 사용자에 대응하여 데이터베이스에 저장된 음색 데이터에 기초하는 음성으로 상기 음성 안내 메시지를 출력하는 것을 특징으로 하는 음성 인식 장치의 동작 방법.Receiving a voice input signal of a user through a microphone;
Transmitting voice data corresponding to the voice input signal to a voice recognition server system;
Identifying a user based on frequency and intensity of the speech input signal;
Receiving a response signal based on the speech input signal from the speech recognition server system; And
And outputting a voice guidance message corresponding to the received response signal,
Wherein the voice guidance message output step outputs the voice guidance message with voice based on the tone color data stored in the database corresponding to the identified user.
상기 음성 안내 메시지 출력 단계는,
상기 음색 데이터에 기초하여, 출력 음성을 고음 대역과 저음 대역으로 구분하여 아날로그 인코딩하고, 음성 인식 장치가 구비하는 고음 대역 스피커를 통하여 고음 대역 음성을 출력하며, 저음 대역 스피커를 통하여 저음 대역 음성을 출력하는 것을 특징으로 하는 음성 인식 장치의 동작 방법.The method according to claim 1,
The voice announcement message output step may include:
The output voice is divided into a high-frequency band and a low-frequency band and is analog-encoded based on the tone data, a high-frequency band sound is output through a high-frequency band speaker provided in the speech recognition device, and a low- Wherein the speech recognition apparatus comprises:
상기 음색 데이터는, 상기 식별된 사용자의 음성의 주파수 및 세기 데이터를 포함하는 것을 특징으로 하는 음성 인식 장치의 동작 방법.The method according to claim 1,
Wherein the tone color data includes frequency and intensity data of the identified user's voice.
상기 음색 데이터는, 음도(pitch), 진동 변화율(jitter), 파형 규칙성(shimmer) 데이터 중 적어도 하나를 더 포함하는 것을 특징으로 하는 음성 인식 장치의 동작 방법.The method of claim 3,
Wherein the tone color data further includes at least one of a pitch, a jitter, and shimmer data.
상기 응답 신호는 상기 음성 입력 신호에 대한 음성 인식 결과에 대응하는 텍스트 데이터를 포함하는 것을 특징으로 하는 음성 인식 장치의 동작 방법.The method according to claim 1,
Wherein the response signal includes text data corresponding to a speech recognition result for the speech input signal.
상기 텍스트 데이터를 상기 식별된 사용자에 대응하여 데이터베이스에 저장된 음색 데이터에 매핑(mapping)하는 단계;를 더 포함하는 음성 인식 장치의 동작 방법.6. The method of claim 5,
Mapping the text data to tone color data stored in a database corresponding to the identified user. ≪ RTI ID = 0.0 > 31. < / RTI >
상기 음성 입력 신호의 주파수 및 세기에 기초하여 사용자를 식별하는 단계; 및,
상기 식별된 사용자에 대응하여 데이터베이스에 저장된 음색 데이터에 기초하는 음성 안내 메시지를 출력하는 단계;를 포함하는 음성 인식 장치의 동작 방법.Receiving a voice input signal of a user through a microphone;
Identifying a user based on frequency and intensity of the speech input signal; And
And outputting a voice guidance message based on the tone color data stored in the database in correspondence with the identified user.
상기 음성 안내 메시지 출력 단계는,
상기 음색 데이터에 기초하여, 출력 음성을 고음 대역과 저음 대역으로 구분하여 아날로그 인코딩하고, 음성 인식 장치가 구비하는 고음 대역 스피커를 통하여 고음 대역 음성을 출력하며, 저음 대역 스피커를 통하여 저음 대역 음성을 출력하는 것을 특징으로 하는 음성 인식 장치의 동작 방법.8. The method of claim 7,
The voice announcement message output step may include:
The output voice is divided into a high-frequency band and a low-frequency band and is analog-encoded based on the tone data, a high-frequency band sound is output through a high-frequency band speaker provided in the speech recognition device, and a low- Wherein the speech recognition apparatus comprises:
상기 음색 데이터는, 상기 식별된 사용자의 음성의 주파수 및 세기 데이터를 포함하는 것을 특징으로 하는 음성 인식 장치의 동작 방법.8. The method of claim 7,
Wherein the tone color data includes frequency and intensity data of the identified user's voice.
상기 음성 입력 신호에 포함된 음성 명령을 판별하는 단계;를 더 포함하는 음성 인식 장치의 동작 방법.8. The method of claim 7,
And discriminating a voice command included in the voice input signal.
상기 판별된 음성 명령에 대응하는 텍스트 데이터를 상기 식별된 사용자에 대응하여 데이터베이스에 저장된 음색 데이터에 매핑(mapping)하는 단계;를 더 포함하는 음성 인식 장치의 동작 방법.
11. The method of claim 10,
And mapping text data corresponding to the identified voice command to tone color data stored in a database corresponding to the identified user.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170113546A KR20190026518A (en) | 2017-09-05 | 2017-09-05 | Method for operating voice recognition apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170113546A KR20190026518A (en) | 2017-09-05 | 2017-09-05 | Method for operating voice recognition apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20190026518A true KR20190026518A (en) | 2019-03-13 |
Family
ID=65762052
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170113546A KR20190026518A (en) | 2017-09-05 | 2017-09-05 | Method for operating voice recognition apparatus |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20190026518A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111475023A (en) * | 2020-04-07 | 2020-07-31 | 四川虹美智能科技有限公司 | Refrigerator control method and device based on speech emotion recognition |
WO2020251074A1 (en) * | 2019-06-12 | 2020-12-17 | 엘지전자 주식회사 | Artificial intelligence robot for providing voice recognition function and operation method thereof |
KR20210000802A (en) | 2019-06-25 | 2021-01-06 | 희성전자 주식회사 | Artificial intelligence voice recognition processing method and system |
CN112270930A (en) * | 2020-10-22 | 2021-01-26 | 江苏峰鑫网络科技有限公司 | Method for voice recognition conversion |
KR102214667B1 (en) * | 2020-01-30 | 2021-02-10 | 주식회사 이엠텍 | Wireless earbud device for wireless controlling |
KR102258531B1 (en) | 2020-11-23 | 2021-06-01 | (주)펜타유니버스 | Analysis unit for integrated recognition for multiple input recognition system |
US11056096B2 (en) | 2019-07-31 | 2021-07-06 | Lg Electronics Inc. | Artificial intelligence (AI)-based voice sampling apparatus and method for providing speech style in heterogeneous label |
KR102302029B1 (en) | 2020-11-23 | 2021-09-15 | (주)펜타유니버스 | System for recogniting multiple input based on artificial intelligent |
-
2017
- 2017-09-05 KR KR1020170113546A patent/KR20190026518A/en not_active Application Discontinuation
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020251074A1 (en) * | 2019-06-12 | 2020-12-17 | 엘지전자 주식회사 | Artificial intelligence robot for providing voice recognition function and operation method thereof |
US11810575B2 (en) | 2019-06-12 | 2023-11-07 | Lg Electronics Inc. | Artificial intelligence robot for providing voice recognition function and method of operating the same |
KR20210000802A (en) | 2019-06-25 | 2021-01-06 | 희성전자 주식회사 | Artificial intelligence voice recognition processing method and system |
US11056096B2 (en) | 2019-07-31 | 2021-07-06 | Lg Electronics Inc. | Artificial intelligence (AI)-based voice sampling apparatus and method for providing speech style in heterogeneous label |
KR102214667B1 (en) * | 2020-01-30 | 2021-02-10 | 주식회사 이엠텍 | Wireless earbud device for wireless controlling |
CN111475023A (en) * | 2020-04-07 | 2020-07-31 | 四川虹美智能科技有限公司 | Refrigerator control method and device based on speech emotion recognition |
CN112270930A (en) * | 2020-10-22 | 2021-01-26 | 江苏峰鑫网络科技有限公司 | Method for voice recognition conversion |
KR102258531B1 (en) | 2020-11-23 | 2021-06-01 | (주)펜타유니버스 | Analysis unit for integrated recognition for multiple input recognition system |
KR102302029B1 (en) | 2020-11-23 | 2021-09-15 | (주)펜타유니버스 | System for recogniting multiple input based on artificial intelligent |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11183173B2 (en) | Artificial intelligence voice recognition apparatus and voice recognition system | |
US10692499B2 (en) | Artificial intelligence voice recognition apparatus and voice recognition method | |
KR20190026518A (en) | Method for operating voice recognition apparatus | |
EP3392879B1 (en) | Voice recognition apparatus and voice recognition method | |
JP7225301B2 (en) | Multi-user personalization in voice interface devices | |
US10803863B2 (en) | Artificial intelligence voice recognition apparatus | |
CN108267963B (en) | Design of compact home assistant with combined acoustic waveguide and heat sink | |
KR102395013B1 (en) | Method for operating artificial intelligence home appliance and voice recognition server system | |
KR20190043519A (en) | Voice recognition module | |
CN106990812A (en) | USB connector and terminal device | |
KR102407645B1 (en) | Apparatus for outputting sound and hub for communication network | |
CN111630413B (en) | Confidence-based application-specific user interaction | |
KR102003819B1 (en) | Artificial intelligence hub | |
KR20190050761A (en) | Voice recognition apparatus | |
CN111048081A (en) | Control method, control device, electronic equipment and control system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
AMND | Amendment | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
E601 | Decision to refuse application | ||
E801 | Decision on dismissal of amendment |