KR102359964B1 - 음성인식 마우스를 이용한 사용자단말 제어 방법 - Google Patents

음성인식 마우스를 이용한 사용자단말 제어 방법 Download PDF

Info

Publication number
KR102359964B1
KR102359964B1 KR1020200105465A KR20200105465A KR102359964B1 KR 102359964 B1 KR102359964 B1 KR 102359964B1 KR 1020200105465 A KR1020200105465 A KR 1020200105465A KR 20200105465 A KR20200105465 A KR 20200105465A KR 102359964 B1 KR102359964 B1 KR 102359964B1
Authority
KR
South Korea
Prior art keywords
voice
mode
user terminal
voice recognition
mouse
Prior art date
Application number
KR1020200105465A
Other languages
English (en)
Inventor
박근형
서창백
박용수
Original Assignee
(주)아큐플라이에이아이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)아큐플라이에이아이 filed Critical (주)아큐플라이에이아이
Priority to KR1020200105465A priority Critical patent/KR102359964B1/ko
Application granted granted Critical
Publication of KR102359964B1 publication Critical patent/KR102359964B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03543Mice or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명의 일 양상에 따른 음성인식 마우스를 이용한 사용자단말 제어 방법은, 사용자단말의 활성화된 애플리케이션을 감지하는 감지단계와 음성인식 마우스를 통해 입력된 입력신호를 인식하는 인식단계와 감지단계의 감지 결과 및 인식단계에서 인식된 입력신호에 따라 제1 모드, 제2 모드 또는 제3 모드 중 적어도 어느 하나를 선택하는 선택단계 및 선택단계에서 선택된 모드를 통해 감지단계에서 감지된 애플리케이션을 제어하는 제어단계를 포함하며, 인식단계는 음성인식 마우스에 할당된 특정 버튼으로부터 조작신호가 발생된 채로 기 설정된 시간 이상 유지된 경우에 한하여, 음성인식 마우스를 통해 수음된 음성을 입력신호로 인식하는 단계인 것을 특징으로 한다.

Description

음성인식 마우스를 이용한 사용자단말 제어 방법{METHOD OF CONTROLLING USER TERMINAL BY USING VOICE RECOGNITION MOUSE}
본 발명은 음성인식 마우스를 이용한 사용자단말 제어 방법에 관한 것이다.
음성인식 기술은 키보드 등과 같은 기존의 입력 수단에 비해 사용자의 빠른 요청 및 사용의 편의를 제공할 수 있는 기술이나, 인식률이 떨어짐에 따라 사용이 제한적이었다.
최근 인공지능 기술의 등장으로 자연어의 처리 등과 같은 언어인식 기술이 발달됨에 따라 음성인식 기술 또한 함께 발달되고 있으며, 특히, 업무 효율을 향상시키기 위해 음성인식을 컴퓨터의 제어에 이용하고자 하는 다양한 방안이 모색되어 왔다. 이러한 음성인식을 이용한 컴퓨터의 제어 기술은, 대한민국공개특허공보 제2002-0030156호(출원일: 2000.10.16., 공개일:2002.04.24., 이하, ‘종래기술’이라 함.)에 개시된 바 있다.
하지만 종래기술에서는 사용자의 음성을 입력 받는 수단과 음성 입력을 조작하기 위한 마우스 등의 입력수단이 별도로 마련되어 있어야함에 따라, 음성명령에 대한 사용자의 이용 접근이 어려우며, 음성입력 수단의 배치에 따라 정확한 음성명령제어가 어려운 문제점이 있었다.
본 발명은 상술한 문제점을 해결하기 위해, 사용자의 직관적인 음성명령 이용이 가능한 사용자단말 제어 기술을 제공하는 것을 목적으로 한다.
본 발명의 바람직한 실시예에 따른 음성인식 마우스를 이용한 사용자단말 제어 방법은, 사용자단말의 활성화된 애플리케이션을 감지하는 감지단계; 음성인식 마우스를 통해 입력된 입력신호를 인식하는 인식단계; 상기 감지단계의 감지 결과 및 상기 인식단계에서 인식된 입력신호에 따라 제1 모드, 제2 모드 또는 제3 모드 중 적어도 어느 하나를 선택하는 선택단계; 및 상기 선택단계에서 선택된 모드를 통해 상기 감지단계에서 감지된 애플리케이션을 제어하는 제어단계;를 포함하며, 상기 인식단계는 상기 음성인식 마우스에 할당된 특정 버튼으로부터 조작신호가 발생된 채로 기 설정된 시간 이상 유지된 경우에 한하여, 상기 음성인식 마우스를 통해 수음된 음성을 입력신호로 인식하는 단계인 것을 특징으로 한다.
여기서, 상기 선택단계는 상기 인식단계에서 상기 음성인식 마우스를 통해 수음된 음성을 입력신호로 인식한 경우에 한하여, 애플리케이션의 명령제어를 수행하는 제1 모드 또는 애플리케이션에 텍스트의 입력을 수행하는 제2 모드 중 적어도 어느 하나의 모드를 선택하는 단계인 것을 특징으로 한다.
이때, 상기 선택단계는, 각 애플리케이션에 대하여 애플리케이션의 명령어와 적어도 하나 이상의 텍스트가 매칭 저장된 데이터테이블 형태의 제어정보에서, 상기 인식단계에서 수음된 음성에 대응하는 텍스트가 존재하는 경우에 한하여, 제1 모드를 선택하는 단계인 것을 특징으로 한다.
그리고, 상기 제어단계는 상기 선택단계에서 제1 모드가 선택되면, 상기 음성인식 마우스로부터 수음된 음성에서 형태소를 구분하여, 제어정보 내에서 해당 형태소와 대응되는 텍스트를 검색하여 매칭된 명령어를 추출하며, 추출된 명령어를 통해 상기 감지단계에서 감지된 애플리케이션의 제어를 수행하는 단계인 것을 특징으로 한다.
한편, 상기 선택단계는 상기 제어정보에서 상기 인식단계에서 수음된 음성에 대응되는 텍스트가 존재하지 않은 경우에 한하여 제2 모드를 준비하는 단계인 것을 특징으로 한다.
여기서, 상기 제어단계는 상기 선택단계에서 제2 모드가 선택되면, 상기 음성인식 마우스를 통해 수음된 음성을 문자로 변환하여 해당 애플리케이션에 입력시키는 단계인 것을 특징으로 한다.
이때, 상기 제어단계는 상기 선택단계에서 제2 모드가 선택되면, 상기 음성인식 마우스를 통해 수음된 음성을 미리 설정된 언어의 문자로 번역하여 해당 애플리케이션에 번역된 문자를 입력시키는 단계인 것을 특징으로 한다.
또한, 상기 선택단계는 상기 인식단계에서 상기 음성인식 마우스로부터 발생된 상기 조작신호의 유지 시간이 기 설정된 시간 미만인 경우에 한하여, 애플리케이션에 출력된 텍스트의 번역을 수행하는 제3 모드를 선택하는 단계인 것을 특징으로 한다.
덧붙여, 상기 제어단계는 상기 선택단계에서 제3 모드가 선택되면, 상기 감지단계에서 감지된 애플리케이션 상에서 상기 음성인식 마우스의 조작을 통해 선택된 텍스트를 미리 설정된 언어로 번역하고, 별도의 팝업창을 통해 번역 결과를 출력시키는 단계인 것을 특징으로 한다.
본 발명의 바람직한 실시예에 따른 음성인식 마우스를 이용한 사용자단말 제어 방법은, 활성화된 애플리케이션의 종류, 사용자의 음성 입력 여부 및 입력된 음성에 대응되는 명령 존재 여부에 따라 사용자단말을 제어함으로써, 사용자에게 정확한 사용자단말의 제어를 지원할 수 있는 효과가 있다.
또한, 본 발명의 바람직한 실시예에 따른 음성인식 마우스를 이용한 사용자단말 제어 방법은, 음성인식이 가능한 마우스의 동작과 음성입력 기능을 통해 사용자에게 사용자단말 제어를 지원함으로써, 사용자단말에 별도의 음성 입력 수단을 연결할 필요가 없고, 일반 마우스의 조작과 유사한 방식으로 작동됨에 따라, 제어 지원 이용 측면에서 사용자의 접근이 용이한 효과가 있다.
도 1은 본 발명의 바람직한 실시예에 따른 음성인식 마우스를 이용한 사용자단말 제어 방법을 단계적으로 도시한 것이다.
도 2는 본 발명의 바람직한 실시예에 따른 음성인식 마우스를 이용한 사용자단말 제어 방법에서 감지단계, 인식단계 및 선택단계를 도시한 순서도이다.
도 3 내지 도 6은 본 발명의 바람직한 실시예에 따른 음성인식 마우스를 이용한 사용자단말 제어 방법에서 각각 제1 모드, 제2 모드 및 제 3모드를 통한 사용자단말의 제어 예를 시각화하여 나타낸 것이다.
이하, 첨부한 도면을 참조하여 본 발명의 음성인식 마우스를 이용한 사용자단말 제어 방법에 바람직한 실시 예를 상세히 설명한다.
각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다. 또한 본 발명의 실시 예들에 대해서 특정한 구조적 내지 기능적 설명들은 단지 본 발명에 따른 실시 예를 설명하기 위한 목적으로 예시된 것으로, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는 것이 바람직하다.
도 1은 본 발명의 바람직한 실시예에 따른 음성인식 마우스를 이용한 사용자단말 제어 방법을 단계적으로 도시한 것이다. 도 1을 참조하여 설명하면, 음성인식 마우스를 이용한 사용자단말 제어 방법은 감지단계(S100), 인식단계(S200), 선택단계(S300) 및 제어단계(S400)를 포함할 수 있다.
본 발명의 바람직한 실시예에 따른 음성인식 마우스를 이용한 사용자단말 제어 방법에 대한 각 단계를 설명하기에 앞서, 본 발명의 바람직한 실시예에 따른 음성인식 마우스(100)는 PC 등의 사용자단말(T)에 입력수단으로 이용되는 통상의 마우스에, 마우스의 내부에 설치되어 음성을 입력받는 마이크(미도시)와 해당 마이크(미도시)의 구동을 조작하는 음성입력 버튼(110)이 포함된 형태로 마련될 수 있다. 따라서, 본 발명의 바람직한 실시예에 따른 음성인식 마우스를 이용한 사용자단말 제어 방법은 사용자가 사용자단말(T)에 연결된 음성인식 마우스(100)의 음성입력 버튼(110)을 조작하는 경우, 조작시점 및 방식에 따라 사용자단말(T)을 제어하는 것을 의미한다. 또한, 본 발명의 바람직한 실시예에 따른 음성인식 마우스를 이용한 사용자단말 제어 방법은 음성인식 마우스(100)과 연동되고, 후술할 방법을 포함하여 사용자단말(T)에서 구동되는 소프트웨어 형태로 이룩될 수 있다.
도 2는 본 발명의 바람직한 실시예에 따른 음성인식 마우스를 이용한 사용자단말 제어 방법에서 감지단계, 인식단계 및 선택단계를 도시한 순서도이다. 도 1 내지 도 2를 참조하여 설명하자면, 감지단계(S100)는 사용자단말(T)의 활성화된 애플리케이션을 감지하는 단계이다.
인식단계(S200)는 음성인식 마우스(100)를 통해 입력된 입력신호를 인식하는 단계이다. 여기서, 인식단계(S200)는 음성인식 마우스(100)에 할당된 음성입력 버튼(110)으로부터 조작신호가 발생된 채로 기 설정된 시간 이상 유지된 경우에 한하여, 음성인식 마우스(100)를 통해 수음된 음성을 입력신호로 인식하는 단계이다. 예를 들면, 사용자가 음성인식 마우스(100)의 음성입력 버튼(110)을 누른(Press) 채로 2초 이상 지속시킨 경우에만 마이크를 통해 입력된 음성을 입력신호로 인식할 수 있다. 좀 더 상세하게는, 음성입력 버튼(110)이 설정된 시간 이상 눌러진 채로 지속되면 마이크 입력이 활성화되고, 이후, 음성입력 버튼(110)이 릴리즈(Release) 되기 이전까지 입력된 음성을 입력신호로 생성하게 된다. 인식단계(S200)에서 사용자의 음성으로 입력신호가 생성되면, 후술될 선택단계(S300)에서는 제1 모드 또는 제2 모드 중 어느 하나를 선택할 수 있게 된다.
이때, 생성된 입력신호는 임시적(Temporary)으로 생성되는 신호이며, 이후의 입력신호 생성 이전까지만 유지되는 신호이다. 경우에 따라서, 인식단계(S200)에서 사용자의 음성에 해당하는 입력신호가 생성되면 사용자에게 해당 입력신호를 저장할 것인지를 묻는 질의를 팝업(Pop-up)창을 출력시키고, 사용자의 선택에 따라 해당 입력신호를 저장할 수도 있다. 이때, 입력신호는 WAV, MP3 등의 음성데이터 형식으로 저장될 수 있다.
한편, 인식단계(S200)에서 사용자가 음성입력 버튼(110)을 누른 뒤 미리 설정된 시간 이내에 릴리즈시킨 경우, 사용자가 음성입력 버튼(110)을 눌렀다는 사실(Press)만을 인식하여, 음성입력 버튼(110)에 조작이 발생하였음에 대한 입력신호를 생성할 수도 있다. 사용자의 음성이 포함되지 않은 입력신호가 생성되면, 후술될 선택단계(S300)에서는 제3 모드를 선택할 수 있게 된다.
도 2를 참조하여 설명하자면, 선택단계(S300)는 감지단계(S100)에서 감지된 활성화된 애플리키에션의 종류와 인식단계(S200)에서 인식된 입력신호에 따라 제1 모드, 제2 모드 또는 제3 모드 중 적어도 어느 하나를 선택하는 단계이다. 여기서, 선택단계(S300)에서는 인식단계(S200)에서 음성인식 마우스(100)를 통해 수음된 음성을 입력신호로 인식한 경우에 한하여, 애플리케이션의 명령제어를 수행하는 제1 모드 또는 애플리케이션에 텍스트의 입력을 수행하는 제2 모드 중 적어도 어느 하나의 모드를 선택할 수 있다.
제어단계(S400)는 선택단계(S400)에서 선택된 모드를 통해 감지단계(S100)에서 감지된 애플리케이션을 제어하는 단계이다.
도 3 내지 도 6은 본 발명의 바람직한 실시예에 따른 음성인식 마우스를 이용한 사용자단말 제어 방법에서 각각 제1 모드, 제2 모드 및 제 3모드를 통한 사용자단말의 제어 예를 시각화하여 나타낸 것이다. 도 3을 참조하여 설명하자면, 선택단계(S300)는 각 애플리케이션에 대하여 애플리케이션의 명령어가 적어도 하나 이상의 텍스트와 매칭되어 데이터테이블(D) 형태로 저장된 제어정보(C)에서 인식단계(S200)에서 인식된 입력신호가 사용자의 음성에 관한 것이고, 해당 음성에 대응하는 텍스트가 존재하는 경우에 한하여, 제1 모드를 선택하는 단계이다. 도 3에서 확인할 수 있듯, 제어정보(C)에는 각 애플리케이션 별로 데이터테이블(D)이 존재하고, 데이터테이블 내에는 해당 애플리케이션의 명령어와 적어도 하나 이상의 텍스트가 매칭 저장된다. 이렇듯, 선택단계(S300)에서는 인식단계(S200)에서 인식된 입력신호가 사용자의 음성일 경우, STT(Speech-to-Text)기반으로 사용자가 음성인식 마우스(100)를 통해 입력한 음성(입력신호)을 텍스트로 변환하고, 감지단계(S100)에서 감지된 활성화된 애플리케이션에 해당하는 데이터테이블(D)에서 변환된 텍스트(음성)와 대응되는 텍스트를 검색하게 된다. 이때, 선택단계(S300)에서는 해당 데이터테이블(D)에서 사용자의 음성에 대응하는 텍스트가 존재하면 제1 모드를 선택하고, 존재하지 않는다면, 제2 모드를 선택하게 된다. 한편, 인식단계(S200)에서 음성인식 마우스(100)로부터 발생된 조작신호의 유지 시간이 기 설정된 시간 미만인 경우에 한하여, 애플리케이션에 출력된 텍스트의 번역을 수행하는 제3 모드를 선택하게 된다.
선택단계(S300)에서 제1 모드가 선택되면, 제어단계(S400)에서는 음성인식 마우스(100)를 통해 입력된 사용자의 음성에 대응하는 애플리케이션의 명령을 수행하게 된다. 도 3에서와 같이, 사용자가 음성인식 마우스(100)의 음성입력 버튼(110)을 클릭한 상태로, “검색”이란 음성을 입력하면, 활성화된 애플리케이션의 데이터테이블(D)에서 “검색”에 대응하는 텍스트가 존재하는지를 검색한다. 만약, “검색”에 대응하는 텍스트가 존재하는 경우(=제1 모드), 제어단계(S400)에서는 “검색”에 대응되는 텍스트와 매칭된 명령어(Search_{})를 추출하여 애플리케이션을 제어하게 된다.
선택단계(S300)에서 제2 모드가 선택되면, 제어단계(S400)에서는 음성인식 마우스(100)를 통해 입력된 사용자의 음성을 사용자가 키보드 등의 입력 수단을 통해 타이핑한 것과 같이 텍스트로 변환하여 해당 애플리케이션에 입력시키게 된다. 도 4에서와 같이, 사용자가 음성인식 마우스(100)의 음성입력 버튼(110)을 클릭한 상태로, “가나다라”란 음성을 입력하면, 선택단계(S300)에서는 활성화된 애플리케이션의 데이터테이블(D)에서 “가나다라”에 대응되는 텍스트가 존재하는지 확인하게 된다. 만약, “가나다라”에 대응되는 텍스트가 존재하는지 않는 경우(=제2 모드), 제어단계(S400)에서는 해당 애플리케이션에 “가나다라”라고 글자를 타이핑하게 된다. 본 예시에서는 비교적 간략한 단어만을 입력하는 것으로 설명하고 있으나, 사용자가 음성인식 마우스(100)의 음성입력 버튼(110)을 클릭한 상태에서 입력한 음성에 따라 단어의 길이는 예시에 비해 더욱 길어질 수도 있다.
한편, 제어단계(S400)가 제2 모드를 통해 애플리케이션을 제어할 때, 애플리케이션에 입력될 언어를 사용자가 사전에 지정한 언어로 번역하여 입력시킬 수도 있다. 도 5를 참조하여 설명하자면, 사용자가 애플리케이션에 입력될 언어를 한글(한국어)로 지정한 상태에서, 음성인식 마우스(100)를 통해 “Tree”란 음성을 입력하게 되면, 선택단계(S300)에서는 STT기반으로 “Tree”라는 텍스트를 생성하여 해당 애플리케이션의 데이터테이블(D)에서 “Tree”에 대응되는 텍스트가 존재하는지 확인하게 된다. 만약, “Tree”에 대응되는 텍스트가 존재하는지 않는 경우(=제2 모드), 제어단계(S400)에서는 사용자단말(T)의 통신망을 통해 번역 엔진(구글, 네이버 등)에 연결되어“Tree”의 한국어 뜻을 검색하게 된다. 이후, 번역 엔진으로부터, 수신된 “나무”라는 결과 값을 해당 애플리케이션에 입력시킬 수 있게 된다.
선택단계(S300)에서 제3 모드가 선택되면, 제어단계(S400)에서는 감지단계(S100)에서 감지된 애플리케이션 상에서 음성인식 마우스(100)의 조작을 통해 선택된 텍스트를 미리 설정된 언어로 번역하게 된다. 도 6을 참조하여 예를 들어 설명하자면, 사용자가 음성인식 마우스(100)의 클릭 또는 드래그 등의 선택 동작으로 애플리케이션 상에 출력된 텍스트인 “Pine tree”를 선택한 뒤, 음성입력 버튼(110)을 누른(Press) 뒤 2초미만 시간 내에 릴리즈(Release)하여 입력신호를 발생(제3 모드)시킨 경우, 제어단계(S400)에서는 사용자단말(T)의 통신망을 통해 번역 엔진(구글, 네이버 등)에 연결되어 사용자가 선택한 텍스트의 뜻을 검색하게 된다. 이후, 번역 엔진으로부터, 수신된 “소나무”라는 결과 값을 별도의 팝업(Pop-up)창에 출력시킬 수 있다.
즉, 본 발명의 바람직한 실시예에 따른 음성인식 마우스를 이용한 사용자단말 제어 방법은, 음성인식이 가능한 마우스의 동작과 음성입력 기능을 통해 사용자에게 사용자단말 제어를 지원함으로써, 사용자단말에 별도의 음성 입력 수단을 연결할 필요가 없고, 일반 마우스의 조작과 유사한 방식으로 작동됨에 따라, 제어 지원 이용 측면에서 사용자의 접근이 용이한 효과가 있다.
또한, 본 발명의 바람직한 실시예에 따른 음성인식 마우스를 이용한 사용자단말 제어 방법은, 활성화된 애플리케이션의 종류, 사용자의 음성 입력 여부 및 입력된 음성에 대응되는 명령 존재 여부에 따라 사용자단말을 제어함으로써, 사용자에게 정확한 사용자단말의 제어를 지원할 수 있는 효과가 있다.
상기한 본 발명의 실시예는 예시의 목적을 위해 개시된 것이고, 본 발명에 대해 통상의 지식을 가진 당업자라면 본 발명의 사상과 범위 안에서 다양한 수정, 변경, 부가가 가능할 것이며, 이러한 수정, 변경 및 부가는 하기의 특허청구범위에 속하는 것으로 보아야 할 것이다.
100: 음성인식 마우스
110: 음성입력 버튼
T: 사용자단말
C: 제어정보
D: 데이터테이블

Claims (10)

  1. 애플리케이션의 설치 및 구동을 지원하는 사용자단말에 입력수단으로서 연결된 음성인식 마우스를 통해 상기 사용자단말을 제어하는 제어 방법에 있어서,
    사용자단말의 활성화된 애플리케이션을 감지하는 감지단계;
    음성인식 마우스를 통해 입력된 입력신호를 인식하는 인식단계;
    상기 감지단계의 감지 결과 및 상기 인식단계에서 인식된 입력신호에 따라 제1 모드, 제2 모드 또는 제3 모드 중 적어도 어느 하나를 선택하는 선택단계; 및
    상기 선택단계에서 선택된 모드를 통해 상기 감지단계에서 감지된 애플리케이션을 제어하는 제어단계;를 포함하며,
    상기 인식단계는 상기 음성인식 마우스에 구비된 마이크에 의한 음성 입력을 활성화 시키는 음성입력 버튼이 기 설정된 시간 이상동안 눌려진 상태로 유지된 이후에 릴리즈 된 경우에 한하여, 상기 음성입력 버튼이 기 설정된 시간 이상동안 눌려진 상태에서 릴리즈되기 이전까지 상기 음성인식 마우스의 마이크를 통해 수음된 음성을 입력신호로 인식하고,
    상기 인식단계는 상기 음성인식 마우스의 음성입력 버튼이 눌려진 상태로 유지된 시간이 기 설정된 시간 미만인 경우에 한하여, 기 설정된 시간 미만동안 발생된 상기 음성입력 버튼의 조작을 입력신호로 인식하며,
    상기 선택단계는 상기 인식단계에서 인식된 입력신호가 상기 음성인식 마우스의 마이크를 통해 수음된 음성인 경우에 한하여, 상기 감지단계에서 감지된 애플리케이션의 명령제어를 수행하는 제1 모드 또는 해당 애플리케이션에 텍스트의 입력을 수행하는 제2 모드 중 적어도 어느 하나의 모드를 선택하는 단계이며,
    상기 선택단계는 상기 인식단계에서 인식된 입력신호가 기 설정된 시간 미만동안 발생된 상기 음성입력 버튼의 조작에 의해 발생된 경우에 한하여, 음성입력버튼 조작, 상기 감지단계에서 감지된 애플리케이션에 출력된 텍스트의 번역을 수행하는 제3 모드를 선택하는 단계인 것을 특징으로 하는
    음성인식 마우스를 이용한 사용자단말 제어 방법.
  2. 삭제
  3. 제1항에 있어서,
    상기 선택단계는, 각 애플리케이션에 대하여 애플리케이션의 명령어와 적어도 하나 이상의 텍스트가 매칭 저장된 데이터테이블 형태의 제어정보에서, 상기 인식단계에서 수음된 음성에 대응하는 텍스트가 존재하는 경우에 한하여, 제1 모드를 선택하는 단계인 것을 특징으로 하는
    음성인식 마우스를 이용한 사용자단말 제어 방법.
  4. 제3항에 있어서,
    상기 제어단계는 상기 선택단계에서 제1 모드가 선택되면, 상기 음성인식 마우스로부터 수음된 음성에서 형태소를 구분하여, 제어정보 내에서 해당 형태소와 대응되는 텍스트를 검색하여 매칭된 명령어를 추출하며, 추출된 명령어를 통해 상기 감지단계에서 감지된 애플리케이션의 제어를 수행하는 단계인 것을 특징으로 하는
    음성인식 마우스를 이용한 사용자단말 제어 방법.
  5. 제3항에 있어서,
    상기 선택단계는 상기 제어정보에서 상기 인식단계에서 수음된 음성에 대응되는 텍스트가 존재하지 않은 경우에 한하여 제2 모드를 준비하는 단계인 것을 특징으로 하는
    음성인식 마우스를 이용한 사용자단말 제어 방법.
  6. 제5항에 있어서,
    상기 제어단계는 상기 선택단계에서 제2 모드가 선택되면, 상기 음성인식 마우스를 통해 수음된 음성을 문자로 변환하여 해당 애플리케이션에 입력시키는 단계인 것을 특징으로 하는
    음성인식 마우스를 이용한 사용자단말 제어 방법.
  7. 제6항에 있어서,
    상기 제어단계는 상기 선택단계에서 제2 모드가 선택되면, 상기 음성인식 마우스를 통해 수음된 음성을 미리 설정된 언어의 문자로 번역하여 해당 애플리케이션에 번역된 문자를 입력시키는 단계인 것을 특징으로 하는
    음성인식 마우스를 이용한 사용자단말 제어 방법.
  8. 삭제
  9. 제1항에 있어서,
    상기 제어단계는 상기 선택단계에서 제3 모드가 선택되면, 상기 감지단계에서 감지된 애플리케이션 상에서 상기 음성인식 마우스의 조작을 통해 선택된 텍스트를 미리 설정된 언어로 번역하고, 별도의 팝업창을 통해 번역 결과를 출력시키는 단계인 것을 특징으로 하는
    음성인식 마우스를 이용한 사용자단말 제어 방법.
  10. 삭제
KR1020200105465A 2020-08-21 2020-08-21 음성인식 마우스를 이용한 사용자단말 제어 방법 KR102359964B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200105465A KR102359964B1 (ko) 2020-08-21 2020-08-21 음성인식 마우스를 이용한 사용자단말 제어 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200105465A KR102359964B1 (ko) 2020-08-21 2020-08-21 음성인식 마우스를 이용한 사용자단말 제어 방법

Publications (1)

Publication Number Publication Date
KR102359964B1 true KR102359964B1 (ko) 2022-02-09

Family

ID=80265881

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200105465A KR102359964B1 (ko) 2020-08-21 2020-08-21 음성인식 마우스를 이용한 사용자단말 제어 방법

Country Status (1)

Country Link
KR (1) KR102359964B1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020034776A (ko) * 2000-11-03 2002-05-09 하오 밍 여 웹을 통하여 단어를 번역하는 방법
KR20130007329A (ko) * 2011-07-01 2013-01-18 이현옥 클라우드 다국어 멀티 매뉴 사용자 인터페이스 서비스.
KR20180131155A (ko) * 2017-05-31 2018-12-10 네이버랩스 주식회사 번역 장치, 번역 방법 및 번역 컴퓨터 프로그램
KR20200016767A (ko) * 2018-08-07 2020-02-17 홍준원 음성인식과 자동검색 마우스

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020034776A (ko) * 2000-11-03 2002-05-09 하오 밍 여 웹을 통하여 단어를 번역하는 방법
KR20130007329A (ko) * 2011-07-01 2013-01-18 이현옥 클라우드 다국어 멀티 매뉴 사용자 인터페이스 서비스.
KR20180131155A (ko) * 2017-05-31 2018-12-10 네이버랩스 주식회사 번역 장치, 번역 방법 및 번역 컴퓨터 프로그램
KR20200016767A (ko) * 2018-08-07 2020-02-17 홍준원 음성인식과 자동검색 마우스

Similar Documents

Publication Publication Date Title
EP1076288B1 (en) Method and system for multi-client access to a dialog system
EP1672539B1 (en) Semantic canvas
US8620667B2 (en) Flexible speech-activated command and control
US9083798B2 (en) Enabling voice selection of user preferences
EP1650744A1 (en) Invalid command detection in speech recognition
US20040172258A1 (en) Techniques for disambiguating speech input using multimodal interfaces
US9454964B2 (en) Interfacing device and method for supporting speech dialogue service
US6499015B2 (en) Voice interaction method for a computer graphical user interface
US7567904B2 (en) Mobile listing system
JP2006048628A (ja) マルチモーダル入力方法
GB2357364A (en) Dialog management in a conversational computer system
JP2004310748A (ja) ユーザ入力に基づくデータの提示
US5761641A (en) Method and system for creating voice commands for inserting previously entered information
US20110288859A1 (en) Language context sensitive command system and method
WO2004107315A2 (en) Architecture for a speech input method editor for handheld portable devices
JP3476007B2 (ja) 認識単語登録方法、音声認識方法、音声認識装置、認識単語登録のためのソフトウエア・プロダクトを格納した記憶媒体、音声認識のためのソフトウエア・プロダクトを格納した記憶媒体
US8381104B2 (en) Systems and methods for providing context recognition
EP2682931B1 (en) Method and apparatus for recording and playing user voice in mobile terminal
WO2020037921A1 (zh) 表情图片提示方法、装置、计算机设备及存储介质
KR20080083290A (ko) 디지털 파일의 컬렉션에서 디지털 파일을 액세스하기 위한방법 및 장치
WO2019160152A1 (ja) 対話管理サーバ、対話管理方法、及びプログラム
KR102359964B1 (ko) 음성인식 마우스를 이용한 사용자단말 제어 방법
KR20010015934A (ko) 음성인식을 이용한 응용프로그램의 메뉴 실행방법
US20060149545A1 (en) Method and apparatus of speech template selection for speech recognition
JPH10133848A (ja) パーソナルコンピュータおよびコマンド制御方法

Legal Events

Date Code Title Description
GRNT Written decision to grant