KR20140094744A - 휴대 단말의 음성 인식 결과 편집 방법 및 그 장치 - Google Patents

휴대 단말의 음성 인식 결과 편집 방법 및 그 장치 Download PDF

Info

Publication number
KR20140094744A
KR20140094744A KR1020130006850A KR20130006850A KR20140094744A KR 20140094744 A KR20140094744 A KR 20140094744A KR 1020130006850 A KR1020130006850 A KR 1020130006850A KR 20130006850 A KR20130006850 A KR 20130006850A KR 20140094744 A KR20140094744 A KR 20140094744A
Authority
KR
South Korea
Prior art keywords
vocabulary
editing
touch
portable terminal
recognition result
Prior art date
Application number
KR1020130006850A
Other languages
English (en)
Inventor
신종훈
김창현
양성일
서영애
황금하
권오욱
나승훈
노윤형
이기영
정상근
최승권
김운
박은진
김영길
박상규
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020130006850A priority Critical patent/KR20140094744A/ko
Priority to US13/872,382 priority patent/US20140207453A1/en
Publication of KR20140094744A publication Critical patent/KR20140094744A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/227Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명에 따른 휴대 단말의 음성 인식 결과 편집 방법은, 음성 인식 결과를 텍스트로 변환하여 터치 패널에 표시하는 과정과, 상기 터치 패널에서의 터치 인터페이스를 인식하는 과정과, 상기 인식된 터치 인터페이스의 실행 의미를 분석하는 과정과, 상기 분석된 실행 의미에 따라 상기 텍스트의 내용을 편집하는 과정을 포함할 수 있다.

Description

휴대 단말의 음성 인식 결과 편집 방법 및 그 장치{METHOD AND APPARATUS FOR POST-EDITING VOICE RECOGNITION RESULTS IN PORTABLE DEVICE}
본 발명은 음성 인식 결과를 편집하는 기법에 관한 것으로, 더욱 상세하게는 마이크를 통해 입력되어 터치 패널을 통해 텍스트로 변환 표시되는 텍스트를 터치 인터페이스를 이용하여 편집하는데 적합한 휴대 단말의 음성 인식 결과 편집 방법 및 그 장치에 관한 것이다.
본 발명의 배경이 되는 종래 기술은 사용자가 화면을 직접 터치하여 기계와 상호 작용하는 터치 기반의 휴대용 기기(휴대 단말)와, 사용자가 마이크 장치를 통해 발화한 음성을 텍스트로 변환하는 음성 인식 시스템을 기반으로 한다.
즉, 사용자는 터치 기반의 휴대용 기기를 활용하여, 자신이 원하는 결과를 얻기 위해 음성을 휴대용 기기로 전달하게 되고, 휴대용 기기가 입력 받은 음성을 인식하여 그 최종 형태인 문자열(텍스트)을 화면에 출력함으로써 사용자가 원하는 행동을 할 수 있게 한다.
종래의 방식에서는 해당 휴대용 기기가 출력하는 최종 출력물(텍스트)에 대해 일반적인 터치 기반의 휴대용 기기가 제공하는 일반적인 인터페이스를 통하여 출력물을 직접 수정해야 한다.
기존 인터페이스는 최종 출력물을 수정하는 방법에 있어 단문 메시지(SMS)나 메모를 수정하는 방식을 사용하게 되기 때문에, 음성 인식 결과물이 가지는 특정한 오류 특성을 반복적으로 수정하는데 있어 많은 불편함을 초래되는 문제가 있으며. 이러한 불편함은 화면의 터치를 통해 수정하고자 하는 위치를 직접 지정하고, 주어진 공통 입력 수단을 사용하여 음성 인식 결과물을 수정할 수 있게 하는 터치 기반의 휴대용 기기에서 일반적으로 나타나고 있는 현상이다.
예컨대, 음성 인식 결과물의 특정한 오류 특성으로는, 띄어쓰기 오류, 사용자가 의도하지 않은 어휘가 잘못 추가된 경우, 사용자가 의도한 어휘가 인식되지 않은 경우, 언어 모델 기반의 음성 인식 시스템의 경우 어휘의 순서가 사용자의 의도와 다르게 출력된 경우를 들 수 있다.
특히, 언어 모델(Language Model)을 기반으로 하는 음성 인식 시스템의 경우 인식상의 오류를 포함, 내장된 언어 모델의 데이터 부족 등으로 인해 사용자가 원하는 의도를 정확하게 반영하지 못하는 결과를 나타낼 수 있다.
대한민국 공개특허 제2006-0057921호(공개일 : 2006. 05. 29.)
본 발명은, 음성 인식 시스템의 결과물(텍스트)을 터치 기반의 휴대 단말에서 사용자가 손쉽게 편집(수정)하는 인터페이스를 제공하고, 음성 인식 시스템에서 공통적으로 발생할 수 있는 특정한 오류 특성을 감안한 편집 인터페이스를 통해 적은 횟수의 터치와 행동으로 원하는 결과물을 얻을 수 있는 새로운 기법을 제공하고자 한다.
본 발명은, 일 관점에 따라, 음성 인식 결과를 텍스트로 변환하여 터치 패널에 표시하는 과정과, 상기 터치 패널에서의 터치 인터페이스를 인식하는 과정과, 상기 인식된 터치 인터페이스의 실행 의미를 분석하는 과정과, 상기 분석된 실행 의미에 따라 상기 텍스트의 내용을 편집하는 과정을 포함하는 휴대 단말의 음성 인식 결과 편집 방법을 제공한다.
본 발명의 상기 텍스트의 편집은, 어휘 병합, 어휘 분리, 신규 어휘 추가, 지정 어휘 제거, 어휘 순서 변경, 어휘 내용 대치 또는 수정 중 어느 하나일 수 있다.
본 발명의 상기 어휘 병합은 병합하고자 하는 두 어휘를 서로 다른 손가락으로 터치한 후 하나의 터치를 다른 하나의 터치로 드래그하는 인터페이스를 통해 실행될 수 있으며, 상기 두 어휘의 표시 영역은 병합 실행의 인식을 위한 시각 인식 정보를 포함할 수 있다.
본 발명의 상기 어휘 병합은 병합하고자 하는 두 어휘를 서로 다른 손가락으로 터치하여 서로 드래그하는 인터페이스를 통해 실행될 수 있으며, 상기 두 어휘의 표시 영역은 병합 실행의 인식을 위한 시각 인식 정보를 포함할 수 있다.
본 발명의 상기 어휘 분리는 분리하고자 하는 대상 어휘를 손가락으로 터치하고, 다른 손가락으로 분리할 방향을 터치하며, 두 손가락을 해당 방향으로 드래그하는 인터페이스를 통해 실행될 수 있으며, 상기 대상 어휘의 표시 영역은 분리 실행의 인식을 위한 시각 인식 정보를 포함할 수 있다.
본 발명의 상기 신규 어휘 추가는, 상기 터치 패널 내 기 설정된 어휘 추가 영역의 손가락 터치를 통해 단어의 삽입 위치를 지정하는 과정과, 상기 삽입 위치가 지정될 때 단어 입력을 위한 스크린 자판을 상기 터치 패널 내 소정 영역에 표시하는 과정과, 상기 스크린 자판을 통해 입력되는 신규 단어를 상기 삽입 위치에 추가하는 과정을 통해 실행될 수 있다.
본 발명의 상기 삽입 위치의 표시 영역은, 신규 어휘 추가 실행의 인식을 위한 시각 인식 정보를 포함할 수 있다.
본 발명의 상기 지정 어휘 제거는 제거하고자 하는 대상 어휘를 손가락으로 터치 지정하고, 상기 손가락을 상기 터치 패널의 상단 또는 하단으로 드래그하는 인터페이스를 통해 실행될 수 있으며, 터치 지정된 대상 어휘의 표시 영역은 제거 실행의 인식을 위한 시각 인식 정보를 포함할 수 있다.
본 발명의 상기 어휘 순서 변경은 순서 변경하고자 하는 대상 어휘를 손가락으로 터치 지정한 후, 원하는 변경 위치의 방향으로 드래그하는 인터페이스를 통해 실행될 수 있으며, 터치 지정된 대상 어휘는 상기 드래그의 방향으로 함께 이동할 수 있다.
본 발명의 상기 어휘 내용 대치 또는 수정은, 두 번 터치 또는 상대적으로 긴 손가락 터치를 통해 대상 어휘를 지정하는 과정과, 상기 대상 어휘가 지정될 때 대치 또는 수정을 위한 스크린 자판을 상기 터치 패널 내 소정 영역에 표시하는 과정과, 상기 스크린 자판을 통한 입력에 따라 상기 대상 어휘를 대치 또는 수정하는 과정을 통해 실행될 수 있으며, 상기 대상 어휘의 표시 영역은 대치 또는 수정 실행의 인식을 위한 시각 인식 정보를 포함할 수 있다.
본 발명은, 다른 관점에 따라, 마이크를 통해 입력되는 음성을 인식하여 텍스트로 변환하는 텍스트 생성 블록과, 변환된 텍스트를 휴대 단말의 터치 패널에 표시하는 표시 실행 블록과, 상기 터치 패널에서의 터치 인터페이스를 인식하고, 인식된 터치 인터페이스의 실행 의미를 분석하는 입력 분석 블록과, 분석된 실행 의미에 따라 상기 터치 패널에 표시 중인 텍스트의 내용을 편집하는 텍스트 편집 블록을 포함하는 휴대 단말의 음성 인식 결과 편집 장치를 제공한다.
본 발명의 상기 텍스트 편집 블록은, 병합하고자 하는 두 어휘를 두 손가락으로 각각 터치하여 드래그하는 인터페이스에 따라 상기 두 어휘를 병합시키는 어휘 병합 처리기와, 분리하고자 하는 대상 어휘를 손가락으로 터치하고, 다른 손가락으로 분리할 방향을 터치하며, 두 손가락을 해당 방향으로 드래그하는 인터페이스에 따라 대상 어휘를 분리시키는 어휘 분리 처리기와, 상기 터치 패널 내 기 설정된 어휘 추가 영역이 터치하여 단어의 삽입 위치가 지정될 때 단어 입력을 위한 스크린 자판을 상기 터치 패널 내 소정 영역에 표시하고, 상기 스크린 자판을 통해 입력되는 신규 단어를 상기 삽입 위치에 추가하는 신규 어휘 추가 처리기와, 제거하고자 하는 대상 어휘를 손가락으로 터치 지정하고, 손가락을 상기 터치 패널의 상단 또는 하단으로 드래그하는 인터페이스에 따라 대상 어휘를 제거하는 지정 어휘 제거 처리기와, 순서 변경하고자 하는 대상 어휘를 손가락으로 터치 지정한 후 원하는 변경 위치의 방향으로 드래그하는 인터페이스에 따라 대상 어휘를 상기 변경 위치로 표시 변경하는 어휘 순서 변경 처리기와, 두 번 터치 또는 상대적으로 긴 손가락 터치를 통해 대상 어휘가 지정될 때 대치 또는 수정을 위한 스크린 자판을 상기 터치 패널 내 소정 영역에 표시하고, 상기 스크린 자판을 통한 입력에 따라 대상 어휘를 대치 또는 수정하는 어휘 내용 대치 또는 수정 처리기를 포함할 수 있다.
본 발명의 상기 표시 실행 블록은 편집 실행의 인식을 위한 시각 인식 정보를 편집 중인 대상 어휘 또는 그 주변 영역에 표시할 수 있으며, 상기 시각 인식 정보는 상기 대상 어휘 또는 그 주변 영역의 색상 변경, 기호 표시, 심볼 표시 중 어느 하나일 수 있다.
본 발명에 따르면, 휴대 단말에서의 음성 인식 결과물(텍스트)을 사용자가 원하는 의도에 맞게끔 손쉽게 편집할 수 있는데, 그 편집 절차는 일반적인 음성 인식 시스템의 결과물에서 흔히 나타나는 특정한 오류 형태에 대한 대응 방법을 기준으로 함으로써, 사용자에 의한 화면의 터치나 키 조작 횟수를 현저히 줄감하면서도 반복적인 수정이 필요한 경우 이를 손쉽게 원하는 형태로 바꿀 수 있는 효과가 있다.
또한, 본 발명은 자동 통역 앱으로 구축되어 휴대 단말에 설치된 음성 인식 결과 편집 장치를 이용하는 간소화된 사용자 인터페이스를 통해 음성 인식 결과물(텍스트)을 사용자가 원하는 바를 포함하는 문장으로 완성할 수 있도록 함으로써 음성 번역 품질의 향상을 도포할 수 있다.
도 1은 본 발명의 실시 예에 따른 휴대 단말의 음성 인식 결과 편집 장치에 대한 블록구성도,
도 2는 본 발명의 실시 예에 따라 휴대 단말에서의 음성 인식 결과를 편집하는 주요 과정을 도시한 순서도,
도 3a 및 3b는 본 발명에 따라 어휘를 병합시키는 과정을 설명하기 위한 어휘 병합 화면 예시도,
도 4a 및 4b는 본 발명에 따라 어휘를 분리시키는 과정을 설명하기 위한 어휘 분리 화면 예시도,
도 5a 및 5b는 본 발명에 따라 신규 어휘를 추가하는 과정을 설명하기 위한 어휘 추가 화면 예시도,
도 6a 및 6b는 본 발명에 따라 지정 어휘를 제거하는 과정을 설명하기 위한 어휘 제거 화면 예시도,
도 7a 및 7b는 본 발명에 따라 어휘 순서를 변경하는 과정을 설명하기 위한 어휘 순서 변경 화면 예시도,
도 8a 및 8b는 본 발명에 따라 어휘 내용을 대치 또는 수정하는 과정을 설명하기 위한 어휘 내용 대치 또는 수정 화면 예시도.
먼저, 본 발명의 장점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되는 실시 예들을 참조하면 명확해질 것이다. 여기에서, 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 발명의 범주를 명확하게 이해할 수 있도록 하기 위해 예시적으로 제공되는 것이므로, 본 발명의 기술적 범위는 청구항들에 의해 정의되어야 할 것이다.
아울러, 아래의 본 발명을 설명함에 있어서 공지 기능 또는 구성 등에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들인 것으로, 이는 사용자, 운용자 등의 의도 또는 관례 등에 따라 달라질 수 있음은 물론이다. 그러므로, 그 정의는 본 명세서의 전반에 걸쳐 기술되는 기술사상을 토대로 이루어져야 할 것이다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시 예에 대하여 상세하게 설명한다.
도 1은 본 발명의 실시 예에 따른 휴대 단말의 음성 인식 결과 편집 장치에 대한 블록구성도로서, 텍스트 생성 블록(102), 표시 실행 블록(104), 입력 분석 블록(106) 및 텍스트 편집 블록(108) 등을 포함할 수 있으며, 텍스트 편집 블록(108)은 어휘 병합 처리기(1081), 어휘 분리 처리기(1082), 신규 어휘 추가 처리기(1083), 지정 어휘 제거 처리기(1084), 어휘 순서 변경 처리기(1085) 및 어휘 내용 대치 또는 수정 처리기(1086) 등을 포함할 수 있다.
여기에서, 본 발명의 음성 인식 결과 편집 장치는 자동 통역 앱(application)으로 제작되어 휴대 단말(또는 이동 단말)에 삭제 가능하게 설치(로딩)될 수 있는데, 이라한 휴대 단말은, 예컨대 휴대폰, 스마트폰, 스마트패드, 노트패드, 태블릿 PC 등을 의미할 수 있다.
도 1을 참조하면, 텍스트 생성 블록(102)은 도시 생략된 휴대 단말의 마이크를 통해 입력되는 음성을 인식하여 텍스트(음성 인식 결과)로 변환하고, 이 변환된 음성 인식 결과를 표시 실행 블록(104)으로 전달하는 등의 기능을 제공할 수 있다.
그리고, 표시 실행 블록(104)은, 예컨대 데이터 드라이버, 스캔 드라이버 등을 포함하는 것으로, 텍스트 생성 블록(102)으로부터 전달되는 텍스트가 도시 생략된 터치 패널(또는 터치스크린)에 표시(디스플레이)되도록 하는 등의 기능을 제공할 수 있다.
다음에, 입력 분석 블록(106)은 사용자 조작(예컨대, 손가락 터치 등)에 따라 도시 생략된 터치 패널로부터 입력되는 터치 인터페이스를 인식하고, 이 인식된 터치 인터페이스의 실행 의미를 분석하는 등의 기능을 제공할 수 있는데, 여기에서 분석의 결과로서 얻어지는 실행 의미로서는, 예컨대 음성 인식 결과(텍스트)에 대한 어휘 병합, 어휘 분리, 신규 어휘 추가, 지정 어휘 제거, 어휘 순서 변경, 어휘 내용 대치(substitution) 또는 수정 등이 있을 수 있다.
즉, 입력 분석 블록(106)은 터치 인터페이스가 어휘 병합의 실행 의미로 분석될 때 그에 상응하는 어휘 병합 지령을 발생하여 어휘 병합 처리기(1081)로 전달하는데, 일예로서 병합하고자 하는 두 어휘 중 하나의 어휘를 먼저 손가락으로 터치하고 왼쪽 또는 오른쪽의 다른 손가락으로 다른 하나의 어휘를 터치한 후 하나의 터치를 다른 하나의 터치로 드래그(일방 드래그)하거나 혹은 두 터치가 한 곳으로 모아지도록 동시에 그래그(쌍방 드래그)하는 인터페이스가 입력될 때 이를 어휘 병합의 실행 의미로 분석하여 관련 터치 인터페이스 신호들을 어휘 병합 처리기(1081)로 전달한다.
이에 응답하여, 분석된 실행 의미에 따라 터치 패널에 표시 중인 텍스트의 내용을 편집하는 텍스트 편집 블록(108) 내 어휘 병합 처리기(1081)는 병합하고자 하는 두 어휘를 두 손가락으로 각각 터치하여 드래그(일반 드래그 또는 쌍방 드래그)하는 인터페이스 신호의 입력에 따라 두 어휘를 병합시키는 제어를 실행하며, 그 결과 표시 실행 블록(104)에서는 두 손가락에 의해 터치 지정된 두 어휘의 병합 표시를 실행시키는데, 이것은 음성 인식 결과(텍스트)에 띄어쓰기 오류가 있는 문장이 나타난 경우에 사용자가 대처하기 위한 편집 방법이다.
여기에서, 표시 실행 블록(104)은 병합 표시 실행의 사용자 인식을 위한 시각 인식 정보를 편집 중인 대상 어휘 또는 그 주변 영역에 표시할 수 있는데, 이러한 시각 인식 정보는, 예컨대 대상 어휘 또는 그 주변 영역의 색상 변경, 기호 표시, 심볼 표시 중 어느 하나가 될 수 있다.
또한, 입력 분석 블록(106)은 터치 인터페이스가 어휘 분리의 실행 의미로 분석될 때 그에 상응하는 어휘 분리 지령을 발생하여 어휘 분리 처리기(1082)로 전달하는데, 일예로서 분리하고자 하는 대상 어휘를 손가락으로 터치하고 다른 손가락으로 분리할 방향(왼쪽 또는 오른쪽)을 터치한 후 두 손가락을 해당 방향으로 드래그하는 인터페이스가 입력될 때 이를 어휘 분리의 실행 의미로 분석하여 관련 터치 인터페이스 신호들을 어휘 분리 처리기(1082)로 전달한다.
이에 응답하여, 어휘 분리 처리기(1082)는 분리하고자 하는 대상 어휘와 분리할 방향을 두 손가락으로 각각 터치하여 분리 방향으로 드래그하는 인터페이스 신호의 입력에 따라 대상 어휘를 분리시키는 제어를 실행하며, 그 결과 표시 실행 블록(104)에서는 손가락에 의해 터치 지정된 대상 어휘의 분리 표시를 실행시키는데, 이것은 음성 인식 결과(텍스트)에 띄어쓰기 오류가 있는 문장이 나타난 경우에 사용자가 대처하기 위한 편집 방법이다.
여기에서, 표시 실행 블록(104)은 분리 표시 실행의 사용자 인식을 위한 시각 인식 정보를 편집 중인 대상 어휘 또는 그 주변 영역에 표시할 수 있는데, 이러한 시각 인식 정보는, 예컨대 대상 어휘 또는 그 주변 영역의 색상 변경, 기호 표시, 심볼 표시 중 어느 하나가 될 수 있다.
또한, 입력 분석 블록(106)은 터치 인터페이스가 신규 어휘 추가의 실행 의미로 분석될 때 그에 상응하는 신규 어휘 추가 지령을 발생하여 신규 어휘 추가 처리기(1083)로 전달하는데, 일예로서 터치 패널 내 기 설정된 어휘 추가 영역이 터치하여 단어의 삽입 위치가 지정될 때 이를 신규 어휘 추가의 실행 의미로 분석하여 관련 터치 인터페이스 신호들을 신규 어휘 추가 처리기(1083)로 전달한다.
이에 응답하여, 신규 어휘 추가 처리기(1083)는 입력 분석 블록(106)으로부터 신규 어휘 추가의 실행 의미가 전달될 때 표시 실행 블록(104)으로 스크린 자판의 표시(디스플레이)를 지령하고, 이 지령에 따라 표시 실행 블록(104)에서는 스크린 자판을 터치 패널에 표시하며, 스크린 자판을 통해 입력되는 신규 단어를 삽입 위치에 추가 표시하는데, 이것은 음성 인식 결과(텍스트)에 사용자가 의도한 어휘가 반영되지 못했을 경우에 사용자가 대처하기 위한 편집 방법이다.
여기에서, 표시 실행 블록(104)은 신규 어휘 추가 실행의 사용자 인식을 위한 시각 인식 정보를 편집 중인 삽입 위치 또는 그 주변 영역에 표시할 수 있는데, 이러한 시각 인식 정보는, 예컨대 삽입 위치 또는 그 주변 영역의 색상 변경, 기호 표시, 심볼 표시 중 어느 하나가 될 수 있다.
한편, 신규 어휘 추가를 위한 터치 인터페이스가 발생될 때, 신규 어휘 추가 처리기(1083)로부터의 제어 지령에 따라 표시 실행 블록(104)이 서로 다른 어휘 배열들을 갖는 다수의 후보 문장들을 포함하는 후보 제시 창을 터치 패널에 제공(표시)함으로써, 사용자가 후보 제시 창 내 다수의 후보 문장들 중의 어느 하나를 선택하는 방식으로 신규 어휘 추가를 수행하도록 설정될 수 있는데, 이것은 사용자들에게 보다 신속한 신규 어휘 추가를 제공하게 될 것이다. 이때, 사용자가 터치 패널의 다른 영역을 터치할 경우 후보 제시 창을 없애고 수정(신규 어휘 추가)을 실행할 수 있는 기본 화면으로 복귀될 수 있다.
또한, 입력 분석 블록(106)은 터치 인터페이스가 어휘 제거의 실행 의미로 분석될 때 그에 상응하는 어휘 제거 지령을 발생하여 지정 어휘 제거 처리기(1084)로 전달하는데, 일예로서 제거하고자 하는 대상 어휘를 손가락으로 터치 지정한 후 손가락을 터치 패널의 상단 또는 하단으로 고속 드래그하는 인터페이스가 입력될 때 이를 어휘 제거의 실행 의미로 분석하여 관련 터치 인터페이스 신호들을 지정 어휘 제거 처리기(1084)로 전달한다.
이에 응답하여, 지정 어휘 제거 처리기(1084)는 대상 어휘를 손가락으로 터치하여 터치 패널의 상단 또는 하단 방향으로 고속 드래그하는 인터페이스 신호의 입력에 따라 대상 어휘를 제거하는 제어를 실행하며, 그 결과 표시 실행 블록(104)에서는 손가락에 의해 터치 지정된 대상 어휘의 제거(삭제)를 실행시키는데, 이것은 음성 인식 결과(텍스트)에 사용자가 원하는 의도와 상관없는 어휘가 문장이 나타난 경우에 사용자가 대처하기 위한 편집 방법이다.
여기에서, 표시 실행 블록(104)은 어휘 제거 실행의 사용자 인식을 위한 시각 인식 정보를 편집 중인 대상 어휘 또는 그 주변 영역에 표시할 수 있는데, 이러한 시각 인식 정보는, 예컨대 대상 어휘 또는 그 주변 영역의 색상 변경, 기호 표시, 심볼 표시 중 어느 하나가 될 수 있다.
또한, 입력 분석 블록(106)은 터치 인터페이스가 어휘 순서 변경의 실행 의미로 분석될 때 그에 상응하는 어휘 순서 변경 지령을 발생하여 어휘 순서 변경 처리기(1085)로 전달하는데, 일예로서 순서를 변경하고자 하는 대상 어휘를 손가락으로 터치 지정한 후 원하는 변경 위치의 방향(왼쪽, 오른쪽)으로 고속 드래그하는 인터페이스가 입력될 때 이를 어휘 순서 변경의 실행 의미로 분석하여 관련 터치 인터페이스 신호들을 어휘 순서 변경 처리기(1085)로 전달한다.
이에 응답하여, 어휘 순서 변경 처리기(1085)는 대상 어휘를 손가락으로 터치하여 변경 위치의 방향으로 고속 드래그하는 인터페이스 신호의 입력에 따라 대상 어휘의 순서(위치)를 변경하는 제어를 실행하며, 그 결과 표시 실행 블록(104)에서는 손가락에 의해 터치 지정된 대상 어휘의 위치 변경(순서 변경)을 실행시키는데, 이것은 음성 인식 결과(텍스트)에 어휘의 순서가 사용자가 의도하지 않은 형태로 나타난 경우에 사용자가 대처하기 위한 편집 방법이다. 여기에서, 터치 지정된 대상 어휘는 손가락 터치의 드래그의 방향으로 함께 이동하도록 설정될 수 있다.
여기에서, 표시 실행 블록(104)은 어휘 순서 변경 실행의 사용자 인식을 위한 시각 인식 정보를 편집 중인 대상 어휘 또는 그 주변 영역에 표시할 수 있는데, 이러한 시각 인식 정보는, 예컨대 대상 어휘 또는 그 주변 영역의 색상 변경, 기호 표시, 심볼 표시 중 어느 하나가 될 수 있다.
한편, 어휘 순서 변경을 위한 터치 인터페이스가 발생될 때, 어휘 순서 변경 처리기(1085)로부터의 제어 지령에 따라 표시 실행 블록(104)이 서로 다른 어휘 배열들을 갖는 다수의 후보 문장들을 포함하는 후보 제시 창을 터치 패널에 제공(표시)함으로써, 사용자가 후보 제시 창 내 다수의 후보 문장들 중의 어느 하나를 선택하는 방식으로 어휘 순서를 변경하도록 설정될 수 있는데, 이것은 사용자들에게 보다 신속한 어휘 순서 변경을 제공하게 될 것이다. 이때, 사용자가 터치 패널의 다른 영역을 터치할 경우 후보 제시 창을 없애고 수정(어휘 순서 변경)을 실행할 수 있는 기본 화면으로 복귀될 수 있다.
또한, 입력 분석 블록(106)은 터치 인터페이스가 어휘 내용 대치 또는 수정의 실행 의미로 분석될 때 그에 상응하는 어휘 내용 대치 또는 수정 지령을 발생하여 어휘 내용 대치 및 수정 처리기(1086)로 전달하는데, 일예로서 두 번 터치 또는 상대적으로 긴 손가락 터치를 통해 대상 어휘가 지정될 때 이를 어휘 내용 대치 또는 수정의 실행 의미로 분석하여 관련 터치 인터페이스 신호들을 어휘 내용 대치 또는 수정 처리기(1086)로 전달한다.
이에 응답하여, 신규 어휘 추가 처리기(1083)는 입력 분석 블록(106)으로부터 어휘 내용 대치 또는 수정의 실행 의미가 전달될 때 표시 실행 블록(104)으로 스크린 자판의 표시(디스플레이)를 지령하고, 이 지령에 따라 표시 실행 블록(104)에서는 스크린 자판을 터치 패널에 표시하며, 스크린 자판을 통한 입력에 따라 대상 어휘를 대치 또는 수정하는데, 이것은 음성 인식 결과(텍스트)에 오타나 혹은 잘못된 인식으로 인한 오류가 문장에 나타난 경우에 사용자가 대처하기 위한 편집 방법이다.
여기에서, 표시 실행 블록(104)은 어휘 내용 대치 또는 수정 실행의 사용자 인식을 위한 시각 인식 정보를 편집 중인 대상 어휘 또는 그 주변 영역에 표시할 수 있는데, 이러한 시각 인식 정보는, 예컨대 대상 어휘 또는 그 주변 영역의 색상 변경, 기호 표시, 심볼 표시 중 어느 하나가 될 수 있다.
한편, 어휘 내용 대치 또는 수정을 위한 터치 인터페이스가 발생될 때, 어휘 내용 대치 또는 수정 처리기(1086)로부터의 제어 지령에 따라 표시 실행 블록(104)이 서로 다른 어휘 배열들을 갖는 다수의 후보 문장들을 포함하는 후보 제시 창을 터치 패널에 제공(표시)함으로써, 사용자가 후보 제시 창 내 다수의 후보 문장들 중의 어느 하나를 선택하는 방식으로 어휘 내용 대치 또는 수정을 수행하도록 설정될 수 있는데, 이것은 사용자들에게 보다 신속한 어휘 내용의 대치 또는 수정을 제공하게 될 것이다. 이때, 사용자가 터치 패널의 다른 영역을 터치할 경우 후보 제시 창을 없애고 수정(어휘 내용 대치 또는 수정)을 실행할 수 있는 기본 화면으로 복귀될 수 있다.
다음에, 상술한 바와 같은 구성을 갖는 본 발명의 음성 인식 결과 편집 장치를 이용하여 휴대 단말의 사용자들에게 음성 인식 결과에 대한 편집 서비스를 제공하는 일련의 과정들에 대하여 상세하게 설명한다.
도 2는 본 발명의 실시 예에 따라 휴대 단말에서의 음성 인식 결과를 편집하는 주요 과정을 도시한 순서도이다.
도 2를 참조하면, 텍스트 생성 블록(102)에서는 휴대 단말의 마이크를 통해 입력되는 음성을 인식하여 텍스트(음성 인식 결과)로 변환하고, 이 변환된 음성 인식 결과를 표시 실행 블록(104)으로 전달함으로써, 터치 패널(또는 터치스크린)을 통해 음성 인식 결과에 대한 텍스트를 표시(디스플레이)한다(단계 202).
이어서, 입력 분석 블록(106)에서는 사용자에 의해 터치 조작이 수행될 대 그에 따른 터치 인터페이스를 인식하고(단계 204), 이 인식된 터치 인터페이스의 실행 의미를 분석하는데(단계 206), 여기에서 분석의 결과로서 얻어지는 실행 의미는, 예컨대 음성 인식 결과(텍스트)에 대한 어휘 병합, 어휘 분리, 신규 어휘 추가, 지정 어휘 제거, 어휘 순서 변경, 어휘 내용 대치(substitution) 또는 수정 중 어느 하나가 될 수 있다.
즉, 단계(208)에서는 입력되는 터치 인터페이스가 어휘 병합을 위한 터치인지의 여부를 체크하는데, 여기에서의 체크 결과 어휘 병합을 위한 터치인 것으로 판단(분석)될 때, 예컨대 병합하고자 하는 두 어휘 중 하나의 어휘를 먼저 손가락으로 터치하고 왼쪽 또는 오른쪽의 다른 손가락으로 다른 하나의 어휘를 터치한 후 하나의 터치를 다른 하나의 터치로 드래그(일방 드래그)하거나 혹은 두 터치가 한 곳으로 모아지도록 동시에 그래그(쌍방 드래그)하는 어휘 병합 인터페이스일 때, 그에 상응하여 어휘 병합 처리기(1081)가 두 어휘를 병합시키는 제어를 실행함으로써, 표시 실행 블록(104)에서는 두 손가락에 의해 터치 지정된 두 어휘의 병합 표시를 실행시킨다(단계 210).
여기에서, 표시 실행 블록(104)은 병합 표시 실행의 사용자 인식을 위한 시각 인식 정보를 편집 중인 대상 어휘 또는 그 주변 영역에 표시할 수 있고, 이러한 시각 인식 정보는, 예컨대 대상 어휘 또는 그 주변 영역의 색상 변경, 기호 표시, 심볼 표시 중 어느 하나가 될 수 있으며, 사용자는 두 손가락을 화면으로부터 터치 해제함으로써 어휘 병합 작업을 완료할 수 있다.
도 3a 및 3b는 본 발명에 따라 어휘를 병합시키는 과정을 설명하기 위한 어휘 병합 화면 예시도로서, 본 발명에 따라 두 손가락의 터치를 통한 어휘 병합 인터페이스를 통해 띄어쓰기 오류가 발생한 대상 어휘가 병합되는 것을 보여준다.
다음에, 단계(212)에서는 입력되는 터치 인터페이스가 어휘 분리를 위한 터치인지의 여부를 체크하는데, 여기에서의 체크 결과 어휘 분리를 위한 터치인 것으로 판단(분석)될 때, 즉 분리하고자 하는 대상 어휘를 손가락으로 터치하고 다른 손가락으로 분리할 방향(왼쪽 또는 오른쪽)을 터치한 후 두 손가락을 해당 방향으로 드래그하는 어휘 분리 인터페이스일 때, 그에 상응하여 어휘 분리 처리기(1082)가 대상 어휘를 분리시키는 제어를 실행함으로써, 표시 실행 블록(104)에서는 손가락에 의해 터치 지정된 대상 어휘의 분리 표시를 실행시킨다(단계 214).
여기에서, 표시 실행 블록(104)은 분리 표시 실행의 사용자 인식을 위한 시각 인식 정보를 편집 중인 대상 어휘 또는 그 주변 영역에 표시할 수 있고, 이러한 시각 인식 정보는, 예컨대 대상 어휘 또는 그 주변 영역의 색상 변경, 기호 표시, 심볼 표시 중 어느 하나가 될 수 있으며, 사용자는 손가락을 화면으로부터 터치 해제함으로써 어휘 분리 작업을 완료할 수 있다.
도 4a 및 4b는 본 발명에 따라 어휘를 분리시키는 과정을 설명하기 위한 어휘 분리 화면 예시도로서, 본 발명에 따라 손가락의 터치를 통한 어휘 분리 인터페이스를 통해 띄어쓰기 오류가 발생한 대상 어휘가 분리되는 것을 보여준다.
다시, 단계(216)에서는 입력되는 터치 인터페이스가 신규 어휘 추가를 위한 터치인지의 여부를 체크하는데, 여기에서의 체크 결과 신규 어휘 추가를 위한 터치인 것으로 판단(분석)될 때, 즉 터치 패널 내 기 설정된 어휘 추가 영역이 터치하여 단어의 삽입 위치가 지정되고, 스크린 자판이 터치 패널에 표시되어 사용자의 터치 조작에 따라 어휘 추가를 위한 단어가 입력될 때, 그에 상응하여 신규 어휘 추가 처리기(1083)가 신규 단어를 추가하는 제어를 실행함으로써, 표시 실행 블록(104)에서는 스크린 자판을 통해 입력되는 신규 단어를 삽입 위치에 추가 표시하는 작업을 실행시킨다(단계 218).
여기에서, 표시 실행 블록(104)은 신규 어휘 추가 실행의 사용자 인식을 위한 시각 인식 정보를 편집 중인 삽입 위치 또는 그 주변 영역에 표시할 수 있고, 이러한 시각 인식 정보는, 예컨대 삽입 위치 또는 그 주변 영역의 색상 변경, 기호 표시, 심볼 표시 중 어느 하나가 될 수 있다.
이때, 표시 실행 블록(104)에서는, 신규 어휘 추가 처리기(1083)로부터의 제어 지령에 따라, 서로 다른 어휘 배열들을 갖는 다수의 후보 문장들을 포함하는 후보 제시 창을 터치 패널에 제공(표시)할 수 있으며, 사용자는 후보 제시 창 내 다수의 후보 문장들 중의 어느 하나를 선택하는 방식으로 신규 어휘에 대한 추가 작업을 수행할 수 있다. 여기에서, 사용자는 터치 패널의 다른 영역 터치를 통해 후보 제시 창을 없애고 수정(신규 어휘 추가)을 실행할 수 있는 기본 화면으로 복귀시킬 수 있다.
도 5a 및 5b는 본 발명에 따라 신규 어휘를 추가하는 과정을 설명하기 위한 신규 어휘 추가 화면 예시도로서, 본 발명에 따라 손가락의 터치 및 스크린 자판을 통한 신규 어휘 추가 인터페이스를 통해 사용자가 의도하는 신규 단어가 문장에 추가되는 것을 보여준다.
다시, 단계(220)에서는 입력되는 터치 인터페이스가 지정 어휘 제거를 위한 터치인지의 여부를 체크하는데, 여기에서의 체크 결과 지정 어휘 제거를 위한 터치인 것으로 판단(분석)될 때, 즉 제거하고자 하는 대상 어휘를 손가락으로 터치 지정한 후 손가락을 터치 패널의 상단 또는 하단으로 고속 드래그하는 어휘 제거 인터페이스일 때, 그에 상응하여 지정 어휘 제거 처리기(1084)가 대상 어휘를 제거하는 제어를 실행함으로써, 표시 실행 블록(104)에서는 손가락에 의해 터치 지정된 대상 어휘의 제거(표시 삭제)를 실행시킨다(단계 222).
여기에서, 표시 실행 블록(104)은 제거 실행의 사용자 인식을 위한 시각 인식 정보를 편집 중인 대상 어휘 또는 그 주변 영역에 표시할 수 있고, 이러한 시각 인식 정보는, 예컨대 대상 어휘 또는 그 주변 영역의 색상 변경, 기호 표시, 심볼 표시 중 어느 하나가 될 수 있으며, 사용자는 손가락을 화면으로부터 터치 해제함으로써 지정 어휘 제거 작업을 완료할 수 있다.
도 6a 및 6b는 본 발명에 따라 어휘를 제거하는 과정을 설명하기 위한 지정 어휘 제거 화면 예시도로서, 본 발명에 따라 손가락의 터치를 통한 어휘 제거 인터페이스를 통해 사용자가 원하는 의도와 상관없는 대상 어휘가 문장에서 제거되는 것을 보여준다.
다시, 단계(224)에서는 입력되는 터치 인터페이스가 어휘 순서 변경을 위한 터치인지의 여부를 체크하는데, 여기에서의 체크 결과 어휘 순서 변경을 위한 터치인 것으로 판단(분석)될 때, 즉 순서를 변경하고자 하는 대상 어휘를 손가락으로 터치 지정한 후 원하는 변경 위치의 방향(왼쪽, 오른쪽)으로 고속 드래그하는 어휘 순서 변경 인터페이스일 때, 그에 상응하여 어휘 순서 변경 처리기(1085)가 대상 어휘의 위치를 변경하는 제어를 실행함으로써, 표시 실행 블록(104)에서는 손가락에 의해 터치 지정된 대상 어휘의 위치 변경(순서 변경)을 실행시킨다(단계 226).
여기에서, 표시 실행 블록(104)은 어휘 순서 변경 실행의 사용자 인식을 위한 시각 인식 정보를 편집 중인 대상 어휘 또는 그 주변 영역에 표시할 수 있고, 이러한 시각 인식 정보는, 예컨대 대상 어휘 또는 그 주변 영역의 색상 변경, 기호 표시, 심볼 표시 중 어느 하나가 될 수 있으며, 사용자는 손가락을 화면으로부터 터치 해제함으로써 어휘 순서 변경 작업을 완료할 수 있다.
이때, 표시 실행 블록(104)에서는, 어휘 순서 변경 처리기(1085)로부터의 제어 지령에 따라, 서로 다른 어휘 배열들을 갖는 다수의 후보 문장들을 포함하는 후보 제시 창(도 7b의 상단 부분)을 터치 패널에 제공(표시)할 수 있으며, 사용자는 후보 제시 창 내 다수의 후보 문장들 중의 어느 하나를 선택하는 방식으로 어휘 순서에 대한 변경 작업을 수행할 수 있다. 여기에서, 사용자는 터치 패널의 다른 영역 터치를 통해 후보 제시 창을 없애고 수정(어휘 순서 변경)을 실행할 수 있는 기본 화면으로 복귀시킬 수 있다.
도 7a 및 7b는 본 발명에 따라 어휘 순서를 변경하는 과정을 설명하기 위한 어휘 순서 변경 화면 예시도로서, 본 발명에 따라 손가락의 터치를 통한 어휘 순서 변경 인터페이스를 통해 사용자가 의도하지 않은 형태로 어휘가 기술된 문장의 어휘 순서를 변경하는 것을 보여준다.
다시, 단계(228)에서는 입력되는 터치 인터페이스가 어휘 내용 대치 또는 수정을 위한 터치인지의 여부를 체크하는데, 여기에서의 체크 결과 어휘 내용의 대치 또는 수정을 위한 터치인 것으로 판단(분석)될 때, 즉 두 번 터치 또는 상대적으로 긴 손가락 터치를 통해 대상 어휘가 지정되고, 스크린 자판이 터치 패널에 표시되어 사용자의 터치 조작에 따라 어휘 내용의 대치 또는 수정을 위한 인터페이스가 입력될 때, 그에 상응하여 어휘 내용 대치 또는 수정 처리기(1086)가 어휘 내용의 대치 또는 수정에 대한 제어를 실행함으로써, 표시 실행 블록(104)에서는 스크린 자판을 통한 입력에 따라 대상 어휘를 대치 또는 수정하는 작업을 실행시킨다(단계 230).
여기에서, 표시 실행 블록(104)은 어휘 내용 대치 또는 수정 실행의 사용자 인식을 위한 시각 인식 정보를 편집 중인 대상 어휘 또는 그 주변 영역에 표시할 수 있고, 이러한 시각 인식 정보는, 예컨대 대상 어휘 또는 그 주변 영역의 색상 변경, 기호 표시, 심볼 표시 중 어느 하나가 될 수 있다.
이때, 표시 실행 블록(104)에서는, 어휘 내용 대치 또는 수정 처리기(1086)로부터의 제어 지령에 따라, 서로 다른 어휘 배열들을 갖는 다수의 후보 문장들을 포함하는 후보 제시 창(도 8b의 상단 부분)을 터치 패널에 제공(표시)할 수 있으며, 사용자는 후보 제시 창 내 다수의 후보 문장들 중의 어느 하나를 선택하는 방식으로 어휘 내용의 대치 또는 수정 작업을 수행할 수 있다. 여기에서, 사용자는 터치 패널의 다른 영역 터치를 통해 후보 제시 창을 없애고 수정(어휘 내용 대치 또는 수정)을 실행할 수 있는 기본 화면으로 복귀시킬 수 있다.
도 8a 및 8b는 본 발명에 따라 어휘 내용을 대치 또는 수정하는 과정을 설명하기 위한 어휘 내용 대치 또는 수정 화면 예시도로서, 본 발명에 따라 손가락의 터치 및 스크린 자판을 통한 어휘 내용 대치 또는 수정 인터페이스를 통해 오타나 혹은 잘못된 인식으로 인한 오류가 대치 또는 수정되는 것을 보여준다.
이상의 설명은 본 발명의 기술사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경 등이 가능함을 쉽게 알 수 있을 것이다. 즉, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것으로서, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다.
따라서, 본 발명의 보호 범위는 후술되는 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
102 : 텍스트 생성 블록 104 : 표시 실행 블록
106 : 입력 분석 블록 108 : 택스트 편집 블록
1081 : 어휘 병합 처리기 1082 : 어휘 분리 처리기
1083 : 신규 어휘 추가 처리기 1084 : 지정 어휘 제거 처리기
1085 : 어휘 순서 변경 처리기 1086 : 어휘 내용 대치 또는 수정 처리기

Claims (20)

  1. 음성 인식 결과를 텍스트로 변환하여 터치 패널에 표시하는 과정과,
    상기 터치 패널에서의 터치 인터페이스를 인식하는 과정과,
    상기 인식된 터치 인터페이스의 실행 의미를 분석하는 과정과,
    상기 분석된 실행 의미에 따라 상기 텍스트의 내용을 편집하는 과정
    을 포함하는 휴대 단말의 음성 인식 결과 편집 방법.
  2. 제 1 항에 있어서,
    상기 텍스트의 편집은,
    어휘 병합, 어휘 분리, 신규 어휘 추가, 지정 어휘 제거, 어휘 순서 변경, 어휘 내용 대치 또는 수정 중 어느 하나인
    휴대 단말의 음성 인식 결과 편집 방법.
  3. 제 2 항에 있어서,
    상기 어휘 병합은,
    병합하고자 하는 두 어휘를 서로 다른 손가락으로 터치한 후 하나의 터치를 다른 하나의 터치로 드래그하는 인터페이스를 통해 실행되는
    휴대 단말의 음성 인식 결과 편집 방법.
  4. 제 3 항에 있어서,
    상기 두 어휘의 표시 영역은,
    병합 실행의 인식을 위한 시각 인식 정보를 포함하는
    휴대 단말의 음성 인식 결과 편집 방법.
  5. 제 2 항에 있어서,
    상기 어휘 병합은,
    병합하고자 하는 두 어휘를 서로 다른 손가락으로 터치하여 서로 드래그하는 인터페이스를 통해 실행되는
    휴대 단말의 음성 인식 결과 편집 방법.
  6. 제 5 항에 있어서,
    상기 두 어휘의 표시 영역은,
    병합 실행의 인식을 위한 시각 인식 정보를 포함하는
    휴대 단말의 음성 인식 결과 편집 방법.
  7. 제 2 항에 있어서,
    상기 어휘 분리는,
    분리하고자 하는 대상 어휘를 손가락으로 터치하고, 다른 손가락으로 분리할 방향을 터치하며, 두 손가락을 해당 방향으로 드래그하는 인터페이스를 통해 실행되는
    휴대 단말의 음성 인식 결과 편집 방법.
  8. 제 7 항에 있어서,
    상기 대상 어휘의 표시 영역은,
    분리 실행의 인식을 위한 시각 인식 정보를 포함하는
    휴대 단말의 음성 인식 결과 편집 방법.
  9. 제 2 항에 있어서,
    상기 신규 어휘 추가는,
    상기 터치 패널 내 기 설정된 어휘 추가 영역의 손가락 터치를 통해 단어의 삽입 위치를 지정하는 과정과,
    상기 삽입 위치가 지정될 때 단어 입력을 위한 스크린 자판을 상기 터치 패널 내 소정 영역에 표시하는 과정과,
    상기 스크린 자판을 통해 입력되는 신규 단어를 상기 삽입 위치에 추가하는 과정
    을 통해 실행되는
    휴대 단말의 음성 인식 결과 편집 방법.
  10. 제 9 항에 있어서,
    상기 삽입 위치의 표시 영역은,
    신규 어휘 추가 실행의 인식을 위한 시각 인식 정보를 포함하는
    휴대 단말의 음성 인식 결과 편집 방법.
  11. 제 2 항에 있어서,
    상기 지정 어휘 제거는,
    제거하고자 하는 대상 어휘를 손가락으로 터치 지정하고, 상기 손가락을 상기 터치 패널의 상단 또는 하단으로 드래그하는 인터페이스를 통해 실행되는
    휴대 단말의 음성 인식 결과 편집 방법.
  12. 제 11 항에 있어서,
    터치 지정된 대상 어휘의 표시 영역은,
    제거 실행의 인식을 위한 시각 인식 정보를 포함하는
    휴대 단말의 음성 인식 결과 편집 방법.
  13. 제 2 항에 있어서,
    상기 어휘 순서 변경은,
    순서 변경하고자 하는 대상 어휘를 손가락으로 터치 지정한 후, 원하는 변경 위치의 방향으로 드래그하는 인터페이스를 통해 실행되는
    휴대 단말의 음성 인식 결과 편집 방법.
  14. 제 13 항에 있어서,
    터치 지정된 대상 어휘는,
    상기 드래그의 방향으로 함께 이동하는
    휴대 단말의 음성 인식 결과 편집 방법.
  15. 제 2 항에 있어서,
    상기 어휘 내용 대치 또는 수정은,
    두 번 터치 또는 상대적으로 긴 손가락 터치를 통해 대상 어휘를 지정하는 과정과,
    상기 대상 어휘가 지정될 때 대치 또는 수정을 위한 스크린 자판을 상기 터치 패널 내 소정 영역에 표시하는 과정과,
    상기 스크린 자판을 통한 입력에 따라 상기 대상 어휘를 대치 또는 수정하는 과정
    을 통해 실행되는
    휴대 단말의 음성 인식 결과 편집 방법.
  16. 제 15 항에 있어서,
    상기 대상 어휘의 표시 영역은,
    대치 또는 수정 실행의 인식을 위한 시각 인식 정보를 포함하는
    휴대 단말의 음성 인식 결과 편집 방법.
  17. 마이크를 통해 입력되는 음성을 인식하여 텍스트로 변환하는 텍스트 생성 블록과,
    변환된 텍스트를 휴대 단말의 터치 패널에 표시하는 표시 실행 블록과,
    상기 터치 패널에서의 터치 인터페이스를 인식하고, 인식된 터치 인터페이스의 실행 의미를 분석하는 입력 분석 블록과,
    분석된 실행 의미에 따라 상기 터치 패널에 표시 중인 텍스트의 내용을 편집하는 텍스트 편집 블록
    을 포함하는 휴대 단말의 음성 인식 결과 편집 장치.
  18. 제 17 항에 있어서,
    상기 텍스트 편집 블록은,
    병합하고자 하는 두 어휘를 두 손가락으로 각각 터치하여 드래그하는 인터페이스에 따라 상기 두 어휘를 병합시키는 어휘 병합 처리기와,
    분리하고자 하는 대상 어휘를 손가락으로 터치하고, 다른 손가락으로 분리할 방향을 터치하며, 두 손가락을 해당 방향으로 드래그하는 인터페이스에 따라 대상 어휘를 분리시키는 어휘 분리 처리기와,
    상기 터치 패널 내 기 설정된 어휘 추가 영역이 터치하여 단어의 삽입 위치가 지정될 때 단어 입력을 위한 스크린 자판을 상기 터치 패널 내 소정 영역에 표시하고, 상기 스크린 자판을 통해 입력되는 신규 단어를 상기 삽입 위치에 추가하는 신규 어휘 추가 처리기와,
    제거하고자 하는 대상 어휘를 손가락으로 터치 지정하고, 손가락을 상기 터치 패널의 상단 또는 하단으로 드래그하는 인터페이스에 따라 대상 어휘를 제거하는 지정 어휘 제거 처리기와,
    순서 변경하고자 하는 대상 어휘를 손가락으로 터치 지정한 후 원하는 변경 위치의 방향으로 드래그하는 인터페이스에 따라 대상 어휘를 상기 변경 위치로 표시 변경하는 어휘 순서 변경 처리기와,
    두 번 터치 또는 상대적으로 긴 손가락 터치를 통해 대상 어휘가 지정될 때 대치 또는 수정을 위한 스크린 자판을 상기 터치 패널 내 소정 영역에 표시하고, 상기 스크린 자판을 통한 입력에 따라 대상 어휘를 대치 또는 수정하는 어휘 내용 대치 또는 수정 처리기
    를 포함하는 휴대 단말의 음성 인식 결과 편집 장치.
  19. 제 17 항에 있어서,
    상기 표시 실행 블록은,
    편집 실행의 인식을 위한 시각 인식 정보를 편집 중인 대상 어휘 또는 그 주변 영역에 표시하는
    휴대 단말의 음성 인식 결과 편집 장치.
  20. 제 19 항에 있어서,
    상기 시각 인식 정보는,
    상기 대상 어휘 또는 그 주변 영역의 색상 변경, 기호 표시, 심볼 표시 중 어느 하나인
    휴대 단말의 음성 인식 결과 편집 장치.
KR1020130006850A 2013-01-22 2013-01-22 휴대 단말의 음성 인식 결과 편집 방법 및 그 장치 KR20140094744A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020130006850A KR20140094744A (ko) 2013-01-22 2013-01-22 휴대 단말의 음성 인식 결과 편집 방법 및 그 장치
US13/872,382 US20140207453A1 (en) 2013-01-22 2013-04-29 Method and apparatus for editing voice recognition results in portable device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130006850A KR20140094744A (ko) 2013-01-22 2013-01-22 휴대 단말의 음성 인식 결과 편집 방법 및 그 장치

Publications (1)

Publication Number Publication Date
KR20140094744A true KR20140094744A (ko) 2014-07-31

Family

ID=51208390

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130006850A KR20140094744A (ko) 2013-01-22 2013-01-22 휴대 단말의 음성 인식 결과 편집 방법 및 그 장치

Country Status (2)

Country Link
US (1) US20140207453A1 (ko)
KR (1) KR20140094744A (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016117854A1 (ko) * 2015-01-22 2016-07-28 삼성전자 주식회사 음성 신호를 기초로 한 텍스트 편집 장치 및 텍스트 편집 방법
KR20160090743A (ko) * 2015-01-22 2016-08-01 삼성전자주식회사 음성 신호를 기초로 한 텍스트 편집 장치 및 텍스트 편집 방법
CN111914563A (zh) * 2019-04-23 2020-11-10 广东小天才科技有限公司 一种结合语音的意图识别方法及装置
CN115344181A (zh) * 2022-05-04 2022-11-15 杭州格沃智能科技有限公司 一种人机交互系统及其实现方法和应用
KR102568930B1 (ko) * 2022-10-27 2023-08-22 주식회사 액션파워 Stt 결과에 기초하여 새로운 음성을 생성하는 방법

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9448991B2 (en) * 2014-03-18 2016-09-20 Bayerische Motoren Werke Aktiengesellschaft Method for providing context-based correction of voice recognition results
KR101652446B1 (ko) * 2014-09-16 2016-08-30 엘지전자 주식회사 이동 단말기 및 그 제어 방법
CN106919307B (zh) * 2017-03-09 2018-12-04 维沃移动通信有限公司 一种文本复制方法及移动终端
CN107146616B (zh) * 2017-06-13 2020-05-08 Oppo广东移动通信有限公司 设备控制方法及相关产品
US10620911B2 (en) * 2017-10-25 2020-04-14 International Business Machines Corporation Machine learning to identify a user interface trace
CN109933687B (zh) * 2019-03-13 2022-05-31 联想(北京)有限公司 信息处理方法、装置及电子设备
CN111897916B (zh) * 2020-07-24 2024-03-19 惠州Tcl移动通信有限公司 语音指令识别方法、装置、终端设备及存储介质
US11983211B2 (en) 2022-05-31 2024-05-14 Honeywell International Inc. System and method for merging and splitting of messages with user input in air traffic communication (ATC) transcription

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5953541A (en) * 1997-01-24 1999-09-14 Tegic Communications, Inc. Disambiguating system for disambiguating ambiguous input sequences by displaying objects associated with the generated input sequences in the order of decreasing frequency of use
US6646573B1 (en) * 1998-12-04 2003-11-11 America Online, Inc. Reduced keyboard text input system for the Japanese language
US7145554B2 (en) * 2000-07-21 2006-12-05 Speedscript Ltd. Method for a high-speed writing system and high -speed writing device
JP2002101178A (ja) * 2000-09-21 2002-04-05 Sony Corp 携帯通信端末および画面表示方法
US7220125B1 (en) * 2003-09-11 2007-05-22 Marianne Michele Blansett Multi modal speech cueing system
DE10357475A1 (de) * 2003-12-09 2005-07-07 Siemens Ag Kommunikationsvorrichtung und Verfahren zum Eingeben und Vorhersagen von Text
JP2010518529A (ja) * 2007-02-13 2010-05-27 ユイ・ジン・オ 文字入力装置
US8949266B2 (en) * 2007-03-07 2015-02-03 Vlingo Corporation Multiple web-based content category searching in mobile search application
KR20090025610A (ko) * 2007-09-06 2009-03-11 삼성전자주식회사 터치 스크린을 이용한 한글 입력 처리 방법 및 한글 입력장치
US20120149477A1 (en) * 2009-08-23 2012-06-14 Taeun Park Information input system and method using extension key
CN102714674A (zh) * 2010-01-04 2012-10-03 三星电子株式会社 使用触摸屏的韩文输入方法和设备及包括键输入设备的便携式终端
CN103262004B (zh) * 2010-12-10 2016-03-16 三星电子株式会社 使用触摸屏的韩语字符输入设备和方法
US8948892B2 (en) * 2011-03-23 2015-02-03 Audible, Inc. Managing playback of synchronized content
WO2012161223A1 (ja) * 2011-05-25 2012-11-29 Necカシオモバイルコミュニケーションズ株式会社 入力装置、入力方法およびプログラム
US20130091467A1 (en) * 2011-10-07 2013-04-11 Barnesandnoble.Com Llc System and method for navigating menu options
JP6087949B2 (ja) * 2011-12-12 2017-03-01 グーグル インコーポレイテッド タッチコンピューティングデバイスを使用して、複数の文字で構成される複合子音または複合母音を入力して別の言語に翻字するための技法
US8930813B2 (en) * 2012-04-03 2015-01-06 Orlando McMaster Dynamic text entry/input system
US9098196B2 (en) * 2012-06-11 2015-08-04 Lenovo (Singapore) Pte. Ltd. Touch system inadvertent input elimination
US20140039871A1 (en) * 2012-08-02 2014-02-06 Richard Henry Dana Crawford Synchronous Texts
US9256366B2 (en) * 2012-08-14 2016-02-09 Google Technology Holdings LLC Systems and methods for touch-based two-stage text input
US8914751B2 (en) * 2012-10-16 2014-12-16 Google Inc. Character deletion during keyboard gesture

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016117854A1 (ko) * 2015-01-22 2016-07-28 삼성전자 주식회사 음성 신호를 기초로 한 텍스트 편집 장치 및 텍스트 편집 방법
KR20160090743A (ko) * 2015-01-22 2016-08-01 삼성전자주식회사 음성 신호를 기초로 한 텍스트 편집 장치 및 텍스트 편집 방법
CN111914563A (zh) * 2019-04-23 2020-11-10 广东小天才科技有限公司 一种结合语音的意图识别方法及装置
CN115344181A (zh) * 2022-05-04 2022-11-15 杭州格沃智能科技有限公司 一种人机交互系统及其实现方法和应用
KR102568930B1 (ko) * 2022-10-27 2023-08-22 주식회사 액션파워 Stt 결과에 기초하여 새로운 음성을 생성하는 방법

Also Published As

Publication number Publication date
US20140207453A1 (en) 2014-07-24

Similar Documents

Publication Publication Date Title
KR20140094744A (ko) 휴대 단말의 음성 인식 결과 편집 방법 및 그 장치
US20180129897A1 (en) Handwriting-based predictive population of partial virtual keyboards
CN106687889B (zh) 显示器便捷式文本输入和编辑
KR102381801B1 (ko) 핸드라이팅 입력을 가이드하는 시스템 및 방법
JP2019220237A (ja) 文字入力インターフェース提供方法及び装置
US7719521B2 (en) Navigational interface providing auxiliary character support for mobile and wearable computers
KR101474854B1 (ko) 음성인식을 통해 컨트롤 객체를 선택하기 위한 장치 및 방법
US8701050B1 (en) Gesture completion path display for gesture-based keyboards
JP6192104B2 (ja) テキスト編集装置及びプログラム
JP2018515817A (ja) 視線追跡と音声認識とを組み合わせることにより制御を改善する方法
CN103369122A (zh) 语音输入方法及系统
JP2004152217A (ja) タッチパネル付き表示装置
JP6991486B2 (ja) 文字列に文字を挿入するための方法およびシステム
US20140297276A1 (en) Editing apparatus, editing method, and computer program product
WO2014041607A1 (ja) 情報処理装置、情報処理方法およびプログラム
US11209976B2 (en) System and method for editing input management
KR20150083173A (ko) 휴대 단말의 텍스트 편집 장치 및 그 방법
CN107977155A (zh) 一种手写识别方法、装置、设备和存储介质
JP2012088969A (ja) 入力表示装置、入力表示方法、コンピュータプログラム及び記録媒体
US20160092104A1 (en) Methods, systems and devices for interacting with a computing device
WO2015156011A1 (ja) 情報処理装置、情報処理方法およびプログラム
US20160292140A1 (en) Associative input method and terminal
KR20090121167A (ko) 범위 지정을 이용한 사용자 인터페이스 방법
KR20130065965A (ko) 가상 키보드의 외관을 적응적으로 변경하는 방법 및 장치
Herbig et al. Improving the multi-modal post-editing (MMPE) CAT environment based on professional translators’ feedback

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination