KR20030047153A - The New User Interface System and Method Using Voice Recognition for Electronic Devices that were controlled by Remote Controller or Keypad - Google Patents

The New User Interface System and Method Using Voice Recognition for Electronic Devices that were controlled by Remote Controller or Keypad Download PDF

Info

Publication number
KR20030047153A
KR20030047153A KR1020010077564A KR20010077564A KR20030047153A KR 20030047153 A KR20030047153 A KR 20030047153A KR 1020010077564 A KR1020010077564 A KR 1020010077564A KR 20010077564 A KR20010077564 A KR 20010077564A KR 20030047153 A KR20030047153 A KR 20030047153A
Authority
KR
South Korea
Prior art keywords
voice
electronic device
command
function
user
Prior art date
Application number
KR1020010077564A
Other languages
Korean (ko)
Inventor
임소영
Original Assignee
임소영
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 임소영 filed Critical 임소영
Priority to KR1020010077564A priority Critical patent/KR20030047153A/en
Publication of KR20030047153A publication Critical patent/KR20030047153A/en

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Abstract

PURPOSE: A new user interface system and method of an electronic system employing voice recognition are provided to allow a user to control the interface system and method rapidly and conveniently. CONSTITUTION: A user interface system includes a voice transmitter(10), a memory(21), a voice recognition engine(22), a microcomputer(23), and a CPU(30) of an electronic system. The voice transmitter receives a voice command of a user to convert the voice command into an electric signal. The memory stores reference voice data previously learnt. The voice recognition engine compares the voice signal received from the voice transmitter with the reference voice data to recognize a user's command and transmits the recognized result. The microcomputer delivers a single command code allocated to each of functions of the electronic system to the electronic system according to the recognized result of the voice recognition engine. The CPU executes a function corresponding to the voice command.

Description

음성인식을 적용한 전자 기기의 신방식 유저 인터페이스 시스템 및 방법{The New User Interface System and Method Using Voice Recognition for Electronic Devices that were controlled by Remote Controller or Keypad}The New User Interface System and Method Using Voice Recognition for Electronic Devices that were controlled by Remote Controller or Keypad}

본 발명은 사용자 인터페이스 시스템에 관한 것으로서, 보다 상세하게는 전자기기의 제어에 있어 트리 구조로 구성되어 다단계로 처리되는 기능들을 단일 명령어로 한번에 처리할 수 있도록 하는 새로운 사용자 인터페이스 방법 및 그러한 방법을 사용한 인터페이스 시스템에 관한 것이다.The present invention relates to a user interface system, and more particularly, to a new user interface method and an interface using the method, which are configured in a tree structure in order to control electronic devices so that functions processed in multiple stages can be processed at once with a single command. It's about the system.

텔레비젼을 포함한 AV 시스템, 디스플레이 기기 등의 전자기기가 개발된 이래 이들 기기와 사용자간의 매개체로는 원격 조종 장치인 리모콘(Remote Controller)이 주도적으로 활용되었고, 그밖에 전자기기쪽 전면부에 키패널 등을 구비하여 기본적인 기능을 직접 조작으로 실행하게끔 구성되어 있다.Since the development of electronic devices such as AV systems including televisions and display devices, the remote controller (Remote Controller), which is a remote control device, has been dominantly used as a mediator between these devices and users. It is configured to execute basic functions by direct operation.

하지만, 디지털 전자기기의 기능이 점차 증가하고 고도화됨에 따라 지원해 주어야 하는 기능 대비 입력 버튼수 제한, IR Key값(수)의 제한, 소형화 추세 등 리모콘 자체의 한계로 전원, 볼륨조절, 채널변경, 숫자 등 특정 기능 외에는 원터치로 수행되는 기능은 지극히 제한될 수밖에 없는 실정이며, 그래픽 유저 인터페이스(Graphic User Interface)를 통해 "메뉴" 등의 구조로 구성하여 다단계 방식으로 실행되도록 설계되어 있다. 결국 유저 인터페이스라는 분야가 리모콘 조작과 관련하여 오직 GUI에만 국한되어 발전해 왔다는 말이며, 신기능 추가시 트리 구조로 구성되어 다단계로 실행되는 방식을 결코 탈피할 수 없는 실정이다.However, as the functions of digital electronic devices are gradually increased and advanced, power, volume control, channel change, and numbers are limited by the limitations of the remote control itself, such as the limit of the number of input buttons, the limit of the number of IR keys, and the miniaturization trend. In addition to the specific functions such as the one-touch function is extremely limited, and is designed to be executed in a multi-step manner by configuring the structure such as "menu" through a graphical user interface (Graphic User Interface). In other words, the field of user interface has been developed to be limited to the GUI only with respect to remote control operation, and it is impossible to escape the method of executing a multi-level system consisting of a tree structure when adding a new function.

도 1은 종래 다단계로 실행되는 텔레비전 동작의 일 실시 예이다.1 is an embodiment of a television operation performed in a conventional multi-step.

사용자가 TV 시청 도중 화면의 밝기를 조절하고자 하는 경우, 리모콘상에는 직접 화면의 밝기를 조절할 수 있는 입력버튼이 없으므로 우선 리모콘의 "메뉴" 버튼을 누르면 일정시간 후(약 1초 경과) TV 화면상에 도 1a와 같이 여러 메뉴가 표시되며, 일반적으로 텔레비전에 있어 "화면" 메뉴는 최상단에 위치하므로 주메뉴의 이동없이 방향키로 우측의 부메뉴로 이동(약 1초 경과) 후 도 1b의 기 설정된 값을 갖는 부 메뉴들('표준', '자연' 또는 부드럽게') 중 하나를 선택하면 밝기조절이 종료되지만, 그외 임의로 조절하고자 하는 경우 '사용자 조정'으로 이동, 선택(약 3초 경과) 후 도 1c와 같이 표시된 세부 항목들 중 "밝기" 항목으로 이동, 선택 (약 3초 경과)하면 도 1d와 같이 밝기조절바(Bar)가 표시되어 좌, 우 방향키로 화면을 조절할 수 있다. 여기서 한, 두 단계 조절을 위해 선택했을 리는 없으니 적어도 3~5번의 조절(3~5초 정도 경과) 후 사용자가 원하는 밝기로 설정되는데, 결국 "화면밝기" 조절을 위해 약 10여 초의 시간이 소요된다.If the user wants to adjust the brightness of the screen while watching TV, there is no input button on the remote to directly adjust the brightness of the screen. As shown in FIG. 1A, various menus are displayed, and in general, since a "screen" menu is located at the top of a television, the preset value of FIG. If you select one of the sub menus ('Normal', 'Natural' or Soft), the brightness is terminated, but if you want to adjust it arbitrarily, go to 'Custom' and select it (after about 3 seconds). Moving to and selecting the "Brightness" item among the detailed items displayed as 1c (about 3 seconds have elapsed), the brightness bar is displayed as shown in FIG. 1d so that the screen can be adjusted with the left and right arrow keys. Since it is not possible to select one or two levels of adjustment here, at least 3 ~ 5 adjustments (3 ~ 5 seconds have elapsed) are set to the user's desired brightness. It takes

이처럼 다단계로 실행되는 기능은 도 2와 같이 디지털 텔레비젼의 경우에도 빈번히 나타난다. 수십에서 수백에 달하는 디지털 방송에 있어 프로그램을 채널별로 일일이 검색하는 불편을 덜기 위해 카테고리별("영화", "뉴스", "스포츠", "교육" 및 "드라마" 등)로 채널을 구분하여 사용자들이 원하는 채널을 좀더 용이하게 선택하도록 하는 방법이 이용되는데, 이 경우도 다단계로 실행된다.Such multi-step functions are frequently shown in the case of digital television as shown in FIG. In the tens to hundreds of digital broadcasts, users can be classified by category ("movie", "news", "sports", "education", "drama", etc.) to reduce the inconvenience of searching for programs by channel. A method is used to make it easier to select a desired channel, which is also performed in multiple stages.

따라서 사용자 편리성과 효율성 측면에서 리모콘 조작과 GUI의 조합으로 이루어진 현재의 유저 인터페이스를 탈피해야 하는 필요성을 절실히 느끼게 되었다.Therefore, in terms of user convenience and efficiency, there is an urgent need to escape the current user interface consisting of a combination of remote control and GUI.

일반적으로 기기의 기능이 많아지면 이를 모두 수용하기 위해 트리구조의 맵(map)을 형성하게 된다. 즉, 보다 많은 단계들로 구성되어 사용이 번거로와지고 조작시간 증가로 각 기기별 유용한 기능들이 소비자로부터 외면받는 결과를 초래한다.In general, as the functions of a device increase, a tree structure map is formed to accommodate all of them. In other words, it is composed of more steps, and the use is cumbersome, and the increase of operation time results in useful functions of each device being ignored by the consumer.

이러한 불편함은 특히 입력키 수 및 크기의 제한을 갖는 리모콘을 기기와 사람간의 유일한 의사소통 수단으로 상정한 것에서 비롯된 것으로서, 상술한 문제점을 감안한 본원 발명의 목적은 여러 단계를 거쳐 실행되는 종래의 유저 인터페이스 방식을 개선하여 사용자가 빠르고 편리하게 제어할 수 있는 인터페이스 방법 및 그러한 방법을 사용하는 인터페이스 시스템을 제공함에 있다.This inconvenience comes from the assumption that the remote control having a limitation on the number and size of input keys is the only means of communication between the device and a person. The present invention provides an interface method that can be quickly and conveniently controlled by a user by improving an interface method, and an interface system using the method.

도 1은 종래 텔레비전에서 다단계로 실행되는 기능의 예를 보여주는 도면.1 shows an example of a function executed in multiple stages in a conventional television.

도 2는 종래 디지털 텔레비전에서 채널 또는 프로그램 정보 검색이 다단계로 실행되는 예를 보여주는 도면.2 is a diagram showing an example in which channel or program information retrieval is executed in multiple stages in a conventional digital television;

도 3은 본원 발명에 따른 사용자 인터페이스 시스템의 구성을 나타낸 도면.3 is a view showing the configuration of a user interface system according to the present invention.

도 4는 본원 발명에 따른 기능 수행 과정을 설명하기 위한 순서도.4 is a flowchart illustrating a process of performing a function according to the present invention.

도 5는 본원 발명에 따른 기존 전자기기에 대응하는 리모콘의 각 기능에 따른 제어 경로별로 구성된 기능별 순차적 코드조합의 예를 보여주는 도면.5 is a view showing an example of a sequential code combination for each function configured for each control path according to each function of a remote controller corresponding to an existing electronic device according to the present invention.

도 6은 본원 발명의 기능별 단일명령코드 조합의 예를 보여주는 도면.Figure 6 is a view showing an example of a functional single command code combination of the present invention.

도 7, 8은 본원 발명의 기능별 그룹화된 단일명령코드 조합의 예를 보여주는 도면.7 and 8 show examples of a grouping of single command codes grouped by function of the present invention.

* 도면의 주요부분에 대한 부호의 설명* Explanation of symbols for main parts of the drawings

1 : 사용자 인터페이스 시스템 10 : 음성 전달부1: user interface system 10: voice transmission unit

20 : 음성 인식부 21: 메모리20: voice recognition unit 21: memory

22 : 음성인식 엔진 23: 마이컴22: voice recognition engine 23: micom

30: 전자기기내 중앙처리 장치 40 : 마이크로폰30: central processing unit in the electronic device 40: microphone

위와 같은 목적을 달성하기 위한 본 발명의 사용자 인터페이스 시스템은 음성을 수신하여 전기신호로 변환 후 음성 데이터의 손실이나 노이즈를 최소화하여 전달하는 음성전달부, 음성전달부로부터 수신한 음성신호를 인식하고 인식결과에 따라 본 발명에 의한 데이터값을 출력하는 음성인식부, 음성인식부로부터 데이터를 수신하여 기능을 수행하도록 처리하는 전자기기내 중앙처리장치로 구성된다.In order to achieve the above object, the user interface system of the present invention recognizes and recognizes a voice signal received from a voice transmission unit and a voice transmission unit that receive and convert a voice signal into an electrical signal and then minimize and transfer voice data. According to the results, the voice recognition unit outputs the data value according to the present invention, and the central processing unit in the electronic device for processing to receive data from the voice recognition unit to perform a function.

본 발명의 사용자 인터페이스 방법은 사용자의 음성을 수신하여 전기적 신호로 변환·전송하는 단계, 전기적 음성신호를 기 학습된 기준 음성데이터와 비교·검색하여 인식하는 단계, 인식된 결과에 대응하는 코드값을 송출하는 단계, 수신한 제어코드값에 따라 기능을 수행하는 단계로 이루어진다.The user interface method of the present invention includes the steps of receiving and converting a user's voice into an electrical signal, comparing and searching the electrical voice signal with previously learned reference voice data, and recognizing a code value corresponding to the recognized result. The transmitting step comprises the step of performing a function according to the received control code value.

이하 첨부한 도면을 참조하여 본원 발명의 바람직한 실시예를 상세히 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 3은 본 발명에 따른 사용자 인터페이스 시스템(1) 구성도이다.3 is a configuration diagram of a user interface system 1 according to the present invention.

음성전달부(10)는 사용자의 음성을 수신한 후 이를 전기적 신호로 변환하여 음성신호의 손실이나 잡음을 최소화하여 RF통신, 적외선통신, 블루투스 또는 무선랜 등의 유, 무선통신 기술을 통해 후술되는 음성인식부로 전송한다. 이러한 음성전달부(10)의 음성전달 방식은 상술된 기술들에 한정되지 않으며, 유, 무선으로 전달할 수 있는 모든 기술이 사용될 수 있다. 즉, 휴대폰 및 헤드셋을 이용하여 원거리에서 음성을 전달할 수도 있으며, 마이크로폰(40)을 장착하여 근거리에서 음성명령을 내려 전자기기를 제어하도록 할 수도 있다.The voice transmission unit 10 receives the user's voice and converts it into an electrical signal to minimize the loss or noise of the voice signal, which will be described later through wired and wireless communication technologies such as RF communication, infrared communication, Bluetooth, or WLAN. Transmit to voice recognition unit. The voice transmission method of the voice transmission unit 10 is not limited to the above-described technologies, and any technology capable of transmitting by wire or wireless may be used. That is, the mobile phone and the headset may be used to transmit voice at a long distance, and the microphone 40 may be mounted to control the electronic device by giving a voice command at a short distance.

음성인식부(20)는 음성전달부(10)로부터 수신한 음성신호를 인식하여 그 인식결과에 따라 본 발명에 따른 기 설정된 데이터를 출력한다. 이러한 음성인식부(20)는 전자기기와 분리된 외장형으로 구현되거나 전자기기내에 내장되어 구현될 수 있는데, 각 경우에 따라 그 구성 및 출력 데이터값이 달라진다. 즉, 외장형의 경우, 음성인식부(20)는 기 학습된 기준 음성데이터를 저장하는 메모리(21), 음성전달부(10)로부터 수신한 전기적 음성신호를 메모리(21)의 기준 음성 데이터와 비교, 인식하여 인식결과(ID)를 출력하는 음성인식엔진(22) 및 전원 공급시 음성인식부(20)를 초기화하고 음성인식엔진(22)의 인식결과를 수신하여 후술되는 본 발명에 따른 방법으로 각 기능별로 기 설정된 데이터를 송출하는 마이컴(23)으로 구성되며, 전자기기내의 중앙처리장치(30)는 음성인식부(20)의 마이컴(23)으로부터 수신한 데이터에 따라 전자기기의 기능이 수행되도록 처리한다. 내장형의 경우, 메모리(21) 및 음성인식엔진(22)의 기능은 외장형과 동일하나, 전자기기내의 중앙처리장치(30)에서 마이컴(23)의 기능을 흡수하여 수행하는 차이가 있다. 즉, 중앙처리장치(30)에서 음성인식엔진(22)을 포함한 전자기기의 시스템 초기화를 행하고, 음성인식엔진(22)으로부터 인식결과를 바로 수신하여 수신된 인식결과에 대응하는 기능이 실행되도록 처리한다. 본 발명의 중앙처리장치(30)의 기능은 후술되는 각 실시예에 따라 다르게 구성되어 동작할 수 있다. 이러한 본원 발명의 각 실시예는 상세하게 후술된다.The voice recognition unit 20 recognizes the voice signal received from the voice transmission unit 10 and outputs preset data according to the present invention according to the recognition result. The voice recognition unit 20 may be implemented as an external type separated from the electronic device or embedded in the electronic device, and its configuration and output data value vary according to each case. That is, in the case of the external type, the voice recognition unit 20 compares the electric voice signal received from the memory 21 and the voice transfer unit 10 to store the pre-learned reference voice data with the reference voice data of the memory 21. In the method according to the present invention described below, the voice recognition engine 22 which recognizes and outputs a recognition result ID and the voice recognition unit 20 when power is supplied and receive the recognition result of the voice recognition engine 22 are received. The microcomputer 23 transmits preset data for each function, and the central processing unit 30 in the electronic device performs the function of the electronic device according to the data received from the microcomputer 23 of the voice recognition unit 20. Process as much as possible. In the case of the built-in type, the functions of the memory 21 and the voice recognition engine 22 are the same as those of the external type, except that the function of the microcomputer 23 is absorbed and performed by the central processing unit 30 in the electronic device. That is, the central processing unit 30 performs system initialization of the electronic device including the voice recognition engine 22, immediately receives a recognition result from the voice recognition engine 22, and executes a function corresponding to the received recognition result. do. The function of the central processing unit 30 of the present invention may be configured and operate differently according to each embodiment described later. Each embodiment of this invention is described below in detail.

메모리(21)에 저장되는 기준 음성데이터는 특정 사용자의 음성을 학습(화자종속형)하여 저장되거나, 불특정 다수의 음성을 학습(화자독립형)하여 저장될 수 있다. 기능별 명령어는 하나의 기능에 대해 보편적으로 알려진 1개 이상의 직관적 명령어를 구축하여 사용자 편의성을 도모할 수 있다. 예를 들어 기기를 켜거나 끌 때 "전원"이란 용어 외에 "켜", "꺼", "켜짐", "꺼짐" 등의 명령어를 구축해 놓는다. 인식에 있어 음성인식 기술 자체는 종래에 사용되는 음성인식 기술을 사용하므로 이에 대한 설명은 생략한다.The reference voice data stored in the memory 21 may be stored by learning a voice of a specific user (speaker dependent) or by learning (speaker independent) a plurality of unspecified voices. Function-specific commands can facilitate user convenience by constructing one or more intuitive commands that are commonly known for a single function. For example, when turning the device on or off, in addition to the term "power", build commands such as "on", "off", "on", and "off". In recognition, the speech recognition technology itself uses a conventional speech recognition technology, and thus description thereof will be omitted.

도 4는 본 발명에 따른 사용자 인터페이스 시스템(1)을 이용하여 다단계로 이루어지는 기능들을 일단계로 처리하는 과정을 설명하기 위한 순서도이다.4 is a flowchart illustrating a process of processing functions made in multiple steps in one step using the user interface system 1 according to the present invention.

우선 사용자가 음성전달부(10)에 음성 명령을 내린다(단계 401).First, the user gives a voice command to the voice transmitting unit 10 (step 401).

음성전달부(10)는 수신한 음성을 전기적 신호로 변환 후 이를 RF통신, 적외선통신, 블루투스, 무선랜 등의 유, 무선통신기술을 이용하여 음성인식엔진(22)으로 전송한다(단계 402).The voice transmitting unit 10 converts the received voice into an electrical signal and transmits the received voice to the voice recognition engine 22 using a wired or wireless communication technology such as RF communication, infrared communication, Bluetooth, or wireless LAN (step 402). .

음성인식 엔진(22)은 수신한 음성신호를 기 학습되어 메모리(21)에 저장된 기준 음성데이터와 비교하여 인식(단계 403)한 후 인식결과를 마이컴(23)으로 전달하고 마이컴(23)은 인식결과를 수신하여 해당 기능에 대한 일련의 코드값을 송출하며, 전자기기내 중앙처리장치(30)는 마이컴(23)으로부터 수신한 코드값에 따라 해당 기능을 수행하도록 처리한다(단계 404). 이후, 추가 명령 입력이 필요한지를 판단(단계 405)하여 후속 명령이 필요하면 대기(단계 406)하여 입력을 받아 기능을 실행(단계 407)하고, 후속명령이 필요없거나 일정시간 동안 입력이 없으면 해당 기능을 종료한다. 일례로 "밝기" 명령의 경우 "밝기조절바"가 화면에 표시되면 밝기 조절값을 추가로 입력받아야 최종적으로 기능이 완료되므로 다음 명령을 대기하여 사용자가 증감을 명령하면 이를 인식하여 화면의 밝기를 조절 후 종료하게 된다.The speech recognition engine 22 compares the received speech signal with the reference speech data stored in the memory 21 and recognizes it (step 403), and then transfers the recognition result to the microcomputer 23, and the microcomputer 23 recognizes it. Upon receiving the result, a series of code values for the corresponding function are transmitted, and the central processing unit 30 in the electronic device processes to perform the corresponding function according to the code value received from the microcomputer 23 (step 404). Subsequently, it is determined whether additional command input is required (step 405), and if a subsequent command is required, it waits (step 406) to receive the input and executes the function (step 407). To exit. For example, in the case of the "Brightness" command, when the "Brightness control bar" is displayed on the screen, the user needs to input additional brightness adjustment value to complete the function. Therefore, the user waits for the next command and recognizes when the user increases or decreases the brightness of the screen. After adjustment, it is finished.

상기 내용은 음성인식부(20)가 외장형일 때의 기능처리 과정이며, 음성인식 부(20)가 기기에 내장되는 경우에는 단계 404 내지 407에 있어서 음성인식부(20)의 마이컴(23)이 코드값을 송출하는 과정 없이 전자기기내 중앙처리장치(30)에서 음성인식엔진(22)으로부터 인식결과를 바로 수신하여 해당 기능을 실행하는 차이가 있다.The above is a function processing process when the voice recognition unit 20 is an external type, and when the voice recognition unit 20 is embedded in the device, the microcomputer 23 of the voice recognition unit 20 in steps 404 to 407 is executed. There is a difference in executing the function by directly receiving the recognition result from the voice recognition engine 22 in the central processing unit 30 in the electronic device without transmitting the code value.

이때 본원발명의 특징은 종래 다단계로 이루어진 전자기기의 기능을 한번에 수행하도록 하기 위한 음성인식부(20)의 마이컴(23)에서 송출하는 제어코드 처리방법 및 전자기기별 대응방법에 있으므로, 이하 실시예에서는 단계 404 내지 407에서의 제어코드 처리 방법의 차이와 이에 따른 전자기기내 중앙처리장치(30)의 대응방법에 대해서만 설명한다.At this time, the characteristics of the present invention is a control code processing method and a corresponding method for each electronic device transmitted by the microcomputer 23 of the voice recognition unit 20 to perform the function of the electronic device consisting of a conventional multi-step, the following embodiments In the following, only the difference between the control code processing method in steps 404 to 407 and the corresponding method of the central processing unit 30 in the electronic device will be described.

제 1실시예First embodiment

제 1실시예는 종래 전자기기의 중앙처리장치(30)의 하드웨어 또는 소프트웨어의 변형없이 다단계로 수행되는 전자기기의 기능을 음성명령 하나로 수행되도록 하는 방법 및 그 방법을 구현하기 위한 시스템에 대한 것으로 도 4의 단계 404 내지 407에서 음성인식부(20)의 마이컴(23)이 기존 전자기기에 대응하는 리모콘의 각 기능별 제어 경로에 따라 전자기기의 중앙처리장치(30)에서 반응할 수 있는 속도로 각 기능별 적어도 하나 이상의 코드값을 순차적으로 송출하며, 전자기기의 중앙처리장치(30)에서 수신한 제어 코드값에 따라 순차적으로 기능을 수행하도록 처리하는 방법이다. 본 음성인식 사용자 인터페이스 방법은 음성명령과 리모콘의 수동 조작을 병행하여 쓸 수 있는 잇점도 있다. 도 5는 "밝기" 명령을 수행하기 위한 기존 리모콘의 제어경로에 따른 코드값을 순차적으로 송출하는 제어코드 구성("메뉴", "오른쪽", "아래", "아래", "아래", "선택", "아래", "아래", "선택")의 실시예를 보여준다. 이러한 제어코드들은 각 전자기기의 제조회사 및 모델별로 서로 다른 경로와 코드값 구성을 가질 수 있다.The first embodiment relates to a method for performing a function of an electronic device which is performed in a multi-step without changing hardware or software of a central processing unit 30 of a conventional electronic device, and a system for implementing the method. In steps 404 to 407 of 4, the microcomputer 23 of the voice recognition unit 20 may react at the speed at which the central processing unit 30 of the electronic device reacts according to the control path for each function of the remote controller corresponding to the existing electronic device. At least one code value for each function is sequentially transmitted, and a method is performed to sequentially perform functions according to the control code value received by the central processing unit 30 of the electronic device. This voice recognition user interface method has the advantage of being able to use both voice commands and manual operation of the remote control. 5 is a control code configuration ("menu", "right", "down", "down", "down", "sequentially transmits code values according to the control path of the existing remote controller for performing the" brightness "command) Select "," down "," down "," select "). These control codes may have different paths and code value configurations for each manufacturer and model of each electronic device.

제 2실시예Second embodiment

제 2실시예는 전자기기의 각 기능과 마이컴(23)의 출력 코드값이 일대일로 대응되도록 지정해 주는 것으로서, 상기 코드값과 전자기기의 기능이 일대일로 대응되도록 전자기기의 중앙처리장치(30)가 소프트웨어적으로 구현되어 음성 명령시 해당 기능이 한번에 수행 또는 표시되도록 처리하는 특징을 갖는다.The second embodiment specifies that each function of the electronic device and the output code value of the microcomputer 23 correspond one-to-one, and the central processing unit 30 of the electronic device such that the code value and the function of the electronic device correspond one-to-one. Is implemented in software so that a corresponding function can be performed or displayed at a time during a voice command.

본 실시예에서 마이컴(23)은 음성인식엔진(22)으로부터 인식결과를 받아 인식 결과에 따라 도 6에서와 같이 전자기기의 각 기능별로 할당된 단일코드를 전자기기의 중앙처리장치(30)로 송출한다. 이러한 단일명령코드 체계는 전자기기가 수행하는 모든 기능을 동일한 레벨로 중요도 및 사용빈도에 따라 배치하고 각 기능별로 기존 리모콘 코드값이 아닌 새로운 코드값을 부여한 것이다. 이때 중앙처리장치(30)는 마이컴(23)에서 송출한 음성명령에 대응하는 단일명령코드를 수신하여 음성명령시 해당기능을 수행하도록 처리한다.In this embodiment, the microcomputer 23 receives the recognition result from the voice recognition engine 22 and transmits a single code assigned to each function of the electronic device to the central processing unit 30 of the electronic device according to the recognition result as shown in FIG. 6. Send it out. In this single command code system, all functions performed by the electronic device are arranged at the same level according to the importance and frequency of use, and each function is given a new code value instead of the existing remote control code value. At this time, the central processing unit 30 receives a single command code corresponding to the voice command sent from the microcomputer 23 to process the corresponding function in the voice command.

본 방식의 장점은 진정한 유저 인터페이스 시스템을 제공할 수 있다는 것이다. 예를 들어 "밝기" 조절의 경우 제 1실시예와 같은 방법은 추가 버튼 조작없이 "메뉴" 화면이 떠서 화면 이동을 순차적으로 거쳐 마지막에 "밝기조절바"가 뜬 후 "밝기"의 증감을 표현하여 실행하나, 본 실시예와 같은 방식은 "밝기조절"을 발음하면 바로 "밝기조절바"가 화면에 떠서 밝기 증감을 표현하여 밝기를 조절할 수 있을 뿐 아니라, 특정 숫자치 발음과 함께 "밝게" 또는 "어둡게" 등으로 명령을 내려 한번에 밝기 조절을 실행하는 등 다양한 응용이 가능하다. 또한 기존 기능의 조합으로 새로운 기능 및 코스의 생성이 가능하다. 일례로, 세탁기의 경우 기존 세탁 기능을 조합하여 하나의 기능 또는 세탁코스를 생성해낼 수 있고, 김치 냉장고의 경우 기존 기능의 조합으로 새로운 김치 보관 방법 등을 생성할 수도 있다.The advantage of this approach is that it can provide a true user interface system. For example, in the case of the adjustment of "brightness", the same method as in the first embodiment shows the increase and decrease of the "brightness" after the "menu" screen floats sequentially and the "brightness adjustment bar" appears at the end after the "menu" screen floats without additional button manipulation. In the same manner as in the present embodiment, when the "brightness control" is pronounced, the "brightness control bar" immediately floats on the screen to express the increase and decrease of brightness, and the "brightness" with a specific numerical value pronunciation. You can also use the command to "darken" to perform brightness adjustments at once. You can also create new features and courses by combining existing features. For example, a washing machine may generate a single function or a washing course by combining existing washing functions, and in the case of a kimchi refrigerator, a new kimchi storage method may be generated using a combination of existing functions.

제 3실시예Third embodiment

본 실시예는 도 7과 같이 마이컴(23)에서 음성인식엔진(22)으로부터 수신한 인식결과에 해당하는 전자기기의 기능별로 기 설정된 코드계층 기준에 따라 계층별로 분류된 그룹화된 단일명령코드를 전자기기의 중앙처리장치(30)로 송출하는 방법이다. 이러한 그룹화된 단일명령 코드 체계는 전자기기의 각 기능들을 기 설정된 기준(예컨대 화면조절 기능, 음량조절 기능 등)에 따라 분류한 상위코드계층(제 1클래스) 및 이러한 상위코드계층에 속하는 전자기기의 각 기능들에 따라 구분된 하위코드계층(제 2클래스)으로 구성된다.According to the present embodiment, as shown in FIG. 7, a single command code classified into layers is classified according to a code layer criterion preset for each function of an electronic device corresponding to a recognition result received from the voice recognition engine 22 in the microcomputer 23. It is a method of sending to the central processing unit 30 of the equipment. The grouped single command code system includes the upper code layer (first class) classifying each function of the electronic device according to preset criteria (e.g., screen control function, volume control function, etc.) and the electronic device belonging to the higher code layer. It consists of subcode layers (second class) separated according to each function.

본 실시예의 그룹화된 단일명령코드는 도 8과 같이 그 계층을 확장하여 사용할 수도 있는데, 홈오토메이션 시스템의 경우 더욱 효과적이다.The grouped single command codes of the present embodiment may be used by extending the hierarchy as shown in FIG. 8, which is more effective in a home automation system.

전자기기의 중앙처리장치(30)는 제 2실시예와 같이 마이컴(23)으로부터 수신한 그룹화된 단일명령코드와 전자기기의 기능이 일대일로 대응되도록 소프트웨어적으로 구현되어 음성명령시 해당기능이 바로 수행 또는 표시되도록 처리한다. 본 실시예는 제 2실시예와 같이 전자기기 조작시간의 단축과 여러 가지 다양한 응용이 가능한 특성을 갖는다.The central processing unit 30 of the electronic device is implemented in software such that the grouped single command code received from the microcomputer 23 and the functions of the electronic device correspond to the one-to-one correspondence as in the second embodiment, so that the corresponding function is immediately performed during the voice command. Process to be executed or displayed. As in the second embodiment, the present embodiment has the characteristics of shortening the electronic device operation time and various various applications.

한편 음성인식부(20)가 전자기기에 내장될 경우에는 전자기기의 중앙처리장치(30)에서 음성인식엔진(22)으로부터 인식결과를 직접 받아 해당 기능을 실행하도록 처리하는데, 이 경우도 음성 명령과 전자기기의 기능이 바로 대응되도록 전자기기의 중앙처리장치(30)를 소프트웨어적으로 구현해 주어야 한다.On the other hand, when the voice recognition unit 20 is embedded in the electronic device, the central processing unit 30 of the electronic device receives the recognition result directly from the voice recognition engine 22 and processes to execute the corresponding function. The central processing unit 30 of the electronic device should be implemented in software so that the functions of the electronic device and the electronic device correspond to each other.

전자기기에서 신기능이 추가되어 음성인식부(20) 또는 전자기기내 중앙처리장치(30)의 프로그램이 변경되는 경우에는 인터넷 등의 통신을 통해 자동으로 프로그램을 다운받아 서비스를 유지·보수하도록 한다.When a new function is added in the electronic device and the program of the voice recognition unit 20 or the central processing unit 30 in the electronic device is changed, the program is automatically downloaded and maintained through communication such as the Internet.

상술된 인터페이스 시스템(1)을 전자기기에 적용함으로써 본원 발명은 각 전자기기의 수정 없이 바로 적용하거나 또는 유저 인터페이스와 관련된 중앙처리장치(30)의 처리방법의 일부만 수정하여 종래 리모콘으로 제어하는 모든 전자기기에 호환하여 사용할 수 있다.By applying the above-described interface system (1) to the electronic device, the present invention can be applied directly without modification of each electronic device or by modifying only a part of the processing method of the central processing unit 30 associated with the user interface, all electronics controlled by the conventional remote controller. Compatible with the device.

본원 발명의 인터페이스 시스템은 동일한 음성전달부(10)를 이용하여 여러 전자기기를 제어할 수 있다.The interface system of the present invention can control several electronic devices by using the same voice transmitter 10.

상술된 실시예는 텔레비젼의 어느 한 메뉴설정 과정에 대해 설명하였으나, 이는 본 발명의 범위를 한정하는 것이 아니며, 본 발명이 속하는 기술 분야에서 본 발명에 기술된 범위 내에서 다른 다양한 변경이 가능함은 당연하다.While the above-described embodiment has described a menu setting process of a television, it does not limit the scope of the present invention, and it is natural that various other changes are possible within the scope described in the present invention. Do.

상술한 바와 같이, 음성인식 기술을 이용하여 다단계로 실행되는 기능들을 단일 명령어로 한번에 실행하도록 설계함으로써 기기제어 및 기능실행에 소요되는 시간을 줄이고 사용상의 편리함을 가져오는 효과가 있다.As described above, it is possible to reduce the time required for device control and function execution and bring convenience in use by designing to execute functions executed in multiple steps using a single command at a time using a single command.

Claims (6)

다단계로 실행되는 전자기기의 기능을 단일 음성명령으로 실행하기 위한 사용자 인터페이스 시스템에 있어서,In the user interface system for executing the functions of the electronic device to be executed in a single voice command, 사용자의 음성명령을 수신하여 이를 전기 신호로 변환·전송하는 음성 전달부;A voice transmission unit which receives a user's voice command and converts the same into an electrical signal; 기 학습된 기준 음성데이터를 저장한 메모리;A memory storing previously learned reference voice data; 상기 음성 전달부로부터 수신한 음성신호를 상기 기준 음성데이터와 비교·검색하여 사용자의 명령을 인식하고 인식결과를 전달하는 음성인식 엔진;A speech recognition engine that recognizes a user's command by comparing and searching the speech signal received from the speech transmitting unit with the reference speech data and delivers a recognition result; 상기 전자기기에 대응하는 리모콘의 각 기능별 제어 경로에 따라 상기 음성인식 엔진의 인식결과에 해당하는 적어도 하나의 코드값을 상기 전자기기의 중앙처리장치에서 대응할 수 있는 속도로 순차적으로 송출하는 마이컴; 및A microcomputer sequentially transmitting at least one code value corresponding to a recognition result of the voice recognition engine according to a control path for each function of the remote controller corresponding to the electronic device at a speed that can be corresponding to the central processing unit of the electronic device; And 상기 마이컴으로부터 수신한 코드값에 따라 기능을 처리하는 상기 전자기기의 중앙처리장치를 포함하는 사용자 인터페이스 시스템.And a central processing unit of the electronic device to process a function according to a code value received from the microcomputer. 다단계로 실행되는 전자기기의 기능을 단일 음성명령으로 실행하기 위한 사용자 인터페이스 시스템에 있어서,In the user interface system for executing the functions of the electronic device to be executed in a single voice command, 사용자의 음성명령을 수신하여 이를 전기 신호로 변환·전송하는 음성 전달부;A voice transmission unit which receives a user's voice command and converts the same into an electrical signal; 기 학습된 기준 음성데이터를 저장한 메모리;A memory storing previously learned reference voice data; 상기 음성 전달부로부터 수신한 음성신호를 상기 기준 음성데이터와 비교·검색하여 사용자의 명령을 인식하고 인식결과를 전달하는 음성인식 엔진;A speech recognition engine that recognizes a user's command by comparing and searching the speech signal received from the speech transmitting unit with the reference speech data and delivers a recognition result; 상기 음성인식 엔진의 인식결과에 따라 상기 전자기기의 각 기능별로 할당된 단일명령코드를 상기 전자기기로 송출하는 마이컴; 및A microcomputer for transmitting a single command code allocated to each function of the electronic device to the electronic device according to a recognition result of the voice recognition engine; And 상기 단일명령코드와 상기 전자기기의 기능이 일대일로 대응되도록 구성되어 상기 음성명령에 해당하는 기능을 수행하도록 처리하는 상기 전자기기의 중앙처리장치를 포함하는 사용자 인터페이스 시스템.And a central processing unit of the electronic device configured to perform one-to-one correspondence between the single command code and the function of the electronic device to perform a function corresponding to the voice command. 다단계로 실행되는 전자기기의 기능을 단일 음성명령으로 실행하기 위한 사용자 인터페이스 시스템에 있어서,In the user interface system for executing the functions of the electronic device to be executed in a single voice command, 사용자의 음성명령을 수신하여 이를 전기 신호로 변환·전송하는 음성 전달부;A voice transmission unit which receives a user's voice command and converts the same into an electrical signal; 기 학습된 기준 음성데이터를 저장한 메모리;A memory storing previously learned reference voice data; 상기 음성 전달부로부터 수신한 음성신호를 상기 기준 음성데이터와 비교·검색하여 사용자의 명령을 인식하고 인식결과를 전달하는 음성인식 엔진; 및A speech recognition engine that recognizes a user's command by comparing and searching the speech signal received from the speech transmitting unit with the reference speech data and delivers a recognition result; And 상기 음성인식 엔진의 인식결과와 상기 전자기기의 각 기능이 대응되도록 구성되어 상기 음성명령에 해당하는 기능을 수행하도록 처리하는 상기 전자기기의 중앙처리장치를 포함하는 사용자 인터페이스 시스템.And a central processing unit of the electronic device configured to correspond to the recognition result of the voice recognition engine and each function of the electronic device to perform a function corresponding to the voice command. 다단계로 실행되는 전자기기의 기능을 단일 음성명령으로 실행하기 위한 사용자 인터페이스 방법에 있어서,In the user interface method for executing the function of the electronic device to be executed in a single voice command, 1) 사용자의 음성명령을 수신하여 전기적 신호로 변환·전송하는 단계;1) receiving a voice command of the user and converting the signal to an electrical signal; 2) 상기 전기적 음성신호를 기 학습된 기준 데이터와 비교하여 인식하는 단계;2) comparing the electrical voice signal with previously learned reference data and recognizing it; 3) 상기 음성인식 결과에 해당하는 상기 전자기기의 각 기능별 리모콘의 제어 경로에 따라 상기 전자기기에서 대응할 수 있는 속도로 코드값을 순차적으로 송출하는 단계; 및3) sequentially transmitting code values at a speed corresponding to the electronic device according to a control path of a remote controller for each function of the electronic device corresponding to the voice recognition result; And 4) 단계 3)의 상기 코드값을 수신하여 상기 전자기기의 기능을 수행하는 단계로 이루어지는 사용자 인터페이스 방법.4) receiving the code value of step 3) and performing a function of the electronic device. 다단계로 실행되는 전자기기의 기능을 단일 음성명령으로 실행하기 위한 사용자 인터페이스 방법에 있어서In the user interface method for executing the functions of the multi-level electronic device in a single voice command 1) 사용자의 음성명령을 수신하여 전기적 신호로 변환·전송하는 단계;1) receiving a voice command of the user and converting the signal to an electrical signal; 2) 상기 전기적 음성신호를 기 학습된 기준 데이터와 비교하여 인식하는 단계;2) comparing the electrical voice signal with previously learned reference data and recognizing it; 3) 상기 인식결과에 따라 상기 전자기기의 각 기능별로 할당된 단일명령코드를 송출하는 단계; 및3) transmitting a single command code allocated to each function of the electronic device according to the recognition result; And 4) 상기 단일명령코드를 수신하여 상기 음성명령에 해당하는 기능을 수행하는 단계로 이루어지는 사용자 인터페이스 방법.4) receiving the single command code and performing a function corresponding to the voice command. 다단계로 실행되는 전자기기의 기능을 단일 음성명령으로 실행하기 위한 사용자 인터페이스 방법에 있어서In the user interface method for executing the functions of the multi-level electronic device in a single voice command 1) 사용자의 음성명령을 수신하여 전기적 신호로 변환·전송하는 단계;1) receiving a voice command of the user and converting the signal to an electrical signal; 2) 상기 전기적 음성신호를 기 학습된 기준 데이터와 비교하여 인식하는 단계;2) comparing the electrical voice signal with previously learned reference data and recognizing it; 3) 상기 인식결과에 해당하는 상기 전자기기의 각 기능별로 그룹화된 단일명령코드를 출력하는 단계; 및3) outputting a single command code grouped for each function of the electronic device corresponding to the recognition result; And 4) 상기 그룹화된 단일명령코드를 수신하여 상기 음성명령에 해당하는 기능을 수행하는 단계로 이루어지며,4) receiving the grouped single command code and performing a function corresponding to the voice command, 상기 그룹화된 단일명령코드는The grouped single command code is 상기 전자기기의 각 기능들을 기 설정된 기준에 따라 분류한 상위 코드 계층; 및An upper code layer classifying each function of the electronic device according to a preset criterion; And 상기 상위 코드 계층에 속하는 각 기기별 기능에 따라 적어도 하나 이상의 하위 코드 계층들로 이루어진 분류 체계를 갖는 사용자 인터페이스 방법.And a classification scheme consisting of at least one lower code layer according to each device-specific function belonging to the higher code layer.
KR1020010077564A 2001-12-08 2001-12-08 The New User Interface System and Method Using Voice Recognition for Electronic Devices that were controlled by Remote Controller or Keypad KR20030047153A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020010077564A KR20030047153A (en) 2001-12-08 2001-12-08 The New User Interface System and Method Using Voice Recognition for Electronic Devices that were controlled by Remote Controller or Keypad

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020010077564A KR20030047153A (en) 2001-12-08 2001-12-08 The New User Interface System and Method Using Voice Recognition for Electronic Devices that were controlled by Remote Controller or Keypad

Publications (1)

Publication Number Publication Date
KR20030047153A true KR20030047153A (en) 2003-06-18

Family

ID=29573795

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020010077564A KR20030047153A (en) 2001-12-08 2001-12-08 The New User Interface System and Method Using Voice Recognition for Electronic Devices that were controlled by Remote Controller or Keypad

Country Status (1)

Country Link
KR (1) KR20030047153A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100769156B1 (en) * 2007-04-20 2007-10-22 주식회사 서비전자 Home network system and control method thereof
WO2022265448A1 (en) * 2021-06-17 2022-12-22 삼성전자 주식회사 Electronic apparatus for searching for application screen and method for operating same

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05268676A (en) * 1992-03-23 1993-10-15 Nec Ic Microcomput Syst Ltd Remote control transmitter
JPH06161496A (en) * 1992-08-27 1994-06-07 Gold Star Electron Co Ltd Voice recognition system for recognition of remote- controlled instruction word of electric household appliance
US5479490A (en) * 1989-07-31 1995-12-26 Kabushiki Kaisha Toshiba Voice responsive remote-controllable system
KR19990032575A (en) * 1997-10-18 1999-05-15 전주범 Function Control Method of Television Using Audio Signal
KR19990081246A (en) * 1998-04-28 1999-11-15 윤종용 Home automation device control method with voice recognition
KR20030034443A (en) * 2001-10-23 2003-05-09 삼성전자주식회사 Apparatus and method for controlling a user interface having a voice recognition function

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5479490A (en) * 1989-07-31 1995-12-26 Kabushiki Kaisha Toshiba Voice responsive remote-controllable system
JPH05268676A (en) * 1992-03-23 1993-10-15 Nec Ic Microcomput Syst Ltd Remote control transmitter
JPH06161496A (en) * 1992-08-27 1994-06-07 Gold Star Electron Co Ltd Voice recognition system for recognition of remote- controlled instruction word of electric household appliance
KR19990032575A (en) * 1997-10-18 1999-05-15 전주범 Function Control Method of Television Using Audio Signal
KR19990081246A (en) * 1998-04-28 1999-11-15 윤종용 Home automation device control method with voice recognition
KR20030034443A (en) * 2001-10-23 2003-05-09 삼성전자주식회사 Apparatus and method for controlling a user interface having a voice recognition function

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100769156B1 (en) * 2007-04-20 2007-10-22 주식회사 서비전자 Home network system and control method thereof
WO2022265448A1 (en) * 2021-06-17 2022-12-22 삼성전자 주식회사 Electronic apparatus for searching for application screen and method for operating same

Similar Documents

Publication Publication Date Title
US8026789B2 (en) State-based remote control system
US8797149B2 (en) State-based control systems and methods
US8942694B2 (en) Digital device control system using smart phone
US7307573B2 (en) Remote control system and information process system
US5990803A (en) Multifunctional remote controller and control method for multiple appliances using the same
EP2148308A2 (en) User interface for a remote control application
US20140267933A1 (en) Electronic Device with Embedded Macro-Command Functionality
KR20020043635A (en) A voice controlled remote control with downloadable set of voice commands
WO2001073720A1 (en) Remote control interface for converting radio remote control signals into infrared remote control signals
EP2279504A1 (en) Remote control system and method
US20070129106A1 (en) Remote Control System Capable of Controlling an Electronic Device at Different Modes and Method Thereof
KR20060112531A (en) Display apparatus and method for offering functions of integrated remote control
EP1307875B1 (en) System for controlling an apparatus with speech commands
US20100082351A1 (en) Universal remote controller and control code setup method thereof
KR20080042203A (en) Apparatus and method for key mapping in bluetooth device
KR20030047153A (en) The New User Interface System and Method Using Voice Recognition for Electronic Devices that were controlled by Remote Controller or Keypad
CN106603946B (en) Television remote control method, device and system
KR20040082819A (en) Universal remote controller with batch processing and operating method for the same
KR100713279B1 (en) Method and apparatus for sending data multi of an image display device
KR20050028328A (en) Control interface method of electric home application by using mobile phone
JP2001166791A (en) Voice recognition remote control system device
CN202721747U (en) System for realizing television channel changing and television
TWI690788B (en) Situation Mode Editing System
CN106937144A (en) A kind of set-top box remote controller based on mobile terminal realizes apparatus and method
KR20030034443A (en) Apparatus and method for controlling a user interface having a voice recognition function

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
J201 Request for trial against refusal decision
AMND Amendment
B601 Maintenance of original decision after re-examination before a trial
J301 Trial decision

Free format text: TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20040812

Effective date: 20051028