KR102114368B1 - 사용자 영상을 기반으로 하는 정보 입력 장치, 방법, 시스템 및 컴퓨터 판독 가능한 저장 매체 - Google Patents

사용자 영상을 기반으로 하는 정보 입력 장치, 방법, 시스템 및 컴퓨터 판독 가능한 저장 매체 Download PDF

Info

Publication number
KR102114368B1
KR102114368B1 KR1020180058183A KR20180058183A KR102114368B1 KR 102114368 B1 KR102114368 B1 KR 102114368B1 KR 1020180058183 A KR1020180058183 A KR 1020180058183A KR 20180058183 A KR20180058183 A KR 20180058183A KR 102114368 B1 KR102114368 B1 KR 102114368B1
Authority
KR
South Korea
Prior art keywords
information
image
mouth shape
time point
text information
Prior art date
Application number
KR1020180058183A
Other languages
English (en)
Other versions
KR20190133361A (ko
Inventor
이재석
Original Assignee
카페24 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 카페24 주식회사 filed Critical 카페24 주식회사
Priority to KR1020180058183A priority Critical patent/KR102114368B1/ko
Publication of KR20190133361A publication Critical patent/KR20190133361A/ko
Application granted granted Critical
Publication of KR102114368B1 publication Critical patent/KR102114368B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06K9/00281
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/24Speech recognition using non-acoustical features
    • G10L15/25Speech recognition using non-acoustical features using position of the lips, movement of the lips or face analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

사용자 영상을 기반으로 하는 정보 입력 방법이 제공된다. 방법은, 특정 사용자에 대한 입 모양 영상 정보 및 상기 입 모양 영상 정보에 대응하는 텍스트 정보를 각각 포함하는 복수의 훈련 데이터 세트들을 생성하는 단계, 상기 훈련 데이터 세트들을 기반으로, 입력된 입 모양 영상 정보에 대응하는 텍스트 정보를 출력하는 영상 인식 모델을 생성하는 단계와, 상기 영상 인식 모델을 기반으로 상기 특정 사용자에 대한 입력 영상에 대응하는 입력 텍스트 정보를 결정하는 단계를 포함한다. 따라서, 보다 향상된 정확도를 가지고 특정 사용자의 입 모양을 인식하여 정보를 입력할 수 있다.

Description

사용자 영상을 기반으로 하는 정보 입력 장치, 방법, 시스템 및 컴퓨터 판독 가능한 저장 매체 {AN APPARATUS FOR DATA INPUT BASED ON USER VIDEO, SYSTEM AND METHOD THEREOF, COMPUTER READABLE STORAGE MEDIUM}
본 발명은 정보 입력에 관한 것으로서, 보다 구체적으로는 사용자의 영상을 이용하여 정보를 입력하기 위한 장치, 방법 및 시스템과 컴퓨터 판독 가능한 저장 매체에 관한 것이다.
정보 통신 기술의 발달과 함께 다양한 컴퓨팅 디바이스가 활용되고 있으며, 종래의 키보드나 마우스 이외에도 다양한 정보 입력 수단에 대한 수요가 증가하고 있다. 특히, 예를 들어 스마트 폰이나 태블릿 PC 와 같은 모바일 디바이스는 정보의 입력을 위해 터치 스크린 상에 표시된 자판을 터치하는 방식이 주로 사용되고 있으나 사용자에 따라 이와 같은 입력에 불편함을 느낄 수 있으며, 특히 모빌리티의 측면에서 사용자 손의 자유도를 증가시키기 위해 음성 인식을 수행함으로써 정보를 입력하고 모바일 디바이스의 기능을 제어하는 방안이 활발하게 개발되고 있다. 그러나, 상기와 같은 음성 인식은 주변의 소음 존재 여부에 따라 그 정확도가 현저하게 저하될 수 있는 문제점이 있고, 사용자의 음성을 발생시키기 곤란한 환경에서 사용할 수 없는 문제점이 있다.
한국 공개특허공보 제 2001-0012024 호 ("다단계 음성인식을 이용한 음성인식 포탈서비스 시스템 및 그 방법", 주식회사 케이티)
음성 인식은 주변의 소음 존재 여부에 따라 그 정확도가 현저하게 저하될 수 있는 문제점이 있고, 사용자의 음성을 발생시키기 곤란한 환경에서 사용할 수 없는 문제점이 있다.
음성 인식을 대체하기 위한 수단으로서, 사용자의 입 모양을 인식하여 정보를 입력하는 방법이 고려될 수 있다. 그러나, 복수 사용자의 입 모양은 각각 상이하여 입 모양 인식의 정확도를 향상시키기 위한 방안이 요구된다.
전술한 문제점을 해결하기 위한 본 발명의 목적은 특정 사용자에 대한 입 모양 영상 정보와 그에 대응하는 텍스트 정보를 포함하는 훈련 데이터들을 기반으로 영상 인식 모델을 생성하는 것에 의해, 보다 향상된 정확도를 가지고 특정 사용자의 입 모양을 인식하여 정보를 입력할 수 있는 정보 입력 방법을 제공하는 것이다.
전술한 문제점을 해결하기 위한 본 발명의 다른 목적은 특정 사용자에 대한 입 모양 영상 정보와 그에 대응하는 텍스트 정보를 포함하는 훈련 데이터들을 기반으로 영상 인식 모델을 생성하는 것에 의해, 보다 향상된 정확도를 가지고 특정 사용자의 입 모양을 인식하여 정보를 입력할 수 있는 정보 입력 장치를 제공하는 것이다.
다만, 본 발명의 해결하고자 하는 과제는 이에 한정되는 것이 아니며, 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위에서 다양하게 확장될 수 있을 것이다.
전술한 목적을 달성하기 위한 본 발명의 일 실시예에 따른 사용자 영상을 기반으로 하는 정보 입력 방법은, 특정 사용자에 대한 입 모양 영상 정보 및 상기 입 모양 영상 정보에 대응하는 텍스트 정보를 각각 포함하는 복수의 훈련 데이터 세트들을 생성하는 단계; 상기 훈련 데이터 세트들을 기반으로, 입력된 입 모양 영상 정보에 대응하는 텍스트 정보를 출력하는 영상 인식 모델을 생성하는 단계; 및 상기 영상 인식 모델을 기반으로 상기 특정 사용자에 대한 입력 영상에 대응하는 입력 텍스트 정보를 결정하는 단계를 포함할 수 있다.
일 측면에 따르면, 상기 입력 텍스트 정보를 결정하는 단계는, 영상 입력부에 의해 취득된 상기 특정 사용자에 대한 입력 영상을 수신하는 단계; 및 상기 영상 인식 모델을 기반으로, 상기 입력 영상에 포함된 입 모양 영상 정보에 대응하는 텍스트 정보를 상기 입력 텍스트 정보로서 결정하는 단계를 포함할 수 있다.
일 측면에 따르면, 상기 훈련 데이터 세트들은, i) 상기 특정 사용자의 영상 통화 데이터에 포함된 입 모양 영상 정보 및 ii) 상기 입 모양 영상 정보에 대응하는 음성에 대한 음성 인식 결과인 음성 인식 텍스트 정보를 포함할 수 있다.
일 측면에 따르면, 상기 훈련 데이터 세트들을 생성하는 단계는, 상기 특정 사용자의 영상 통화 데이터 - 상기 영상 통화 데이터는 통화 영상 및 통화 음성을 포함 - 를 획득하는 단계; 시간 정보를 기반으로 상기 통화 영상의 적어도 일부인 제 1 입 모양 영상 정보와 상기 통화 음성의 적어도 일부인 제 1 음성 정보를 대응시키는 단계; 음성 인식 모델을 기반으로 상기 제 1 음성 정보에 대응하는 텍스트 정보인 제 1 음성 인식 텍스트 정보를 획득하는 단계; 및 기 제 1 입 모양 영상 정보와 상기 제 1 음성 인식 텍스트 정보를 제 1 훈련 데이터 세트로서 저장하는 단계를 포함할 수 있다.
일 측면에 따르면, 상기 제 1 입 모양 영상 정보 및 상기 제 1 음성 정보의 시간 길이는 미리 결정된 시간 길이로서 결정될 수 있다.
일 측면에 따르면, 상기 제 1 입 모양 영상 정보 및 상기 제 1 음성 정보는 제 1 시점으로부터 제 2 시점까지의 시간 길이를 가지고, 상기 제 1 시점은 상기 통화 음성이 미리 결정된 임계 크기 이하인 시점을 나타내고, 상기 제 2 시점은 상기 제 1 시점에 후속하는, 상기 통화 음성이 미리 결정된 임계 크기 이하인 시점을 나타낼 수 있다.
일 측면에 따르면, 상기 제 1 입 모양 영상 정보 및 상기 제 1 음성 정보는 제 1 시점으로부터 제 2 시점까지의 시간 길이를 가지고, 상기 제 1 시점은 상기 통화 영상에 포함된 상기 특정 사용자의 입 모양 영상 정보가 미리 결정된 제 1 트리거링 입 모양 정보와 일치하는 시점을 나타내고, 기 제 2 시점은 상기 제 1 시점에 후속하는, 상기 특정 사용자의 입 모양 영상 정보가 미리 결정된 제 1 트리거링 입 모양 정보와 일치하는 시점을 나타낼 수 있다.
일 측면에 따르면, 상기 제 1 입 모양 영상 정보 및 상기 제 1 음성 정보는 제 1 시점으로부터 제 2 시점까지의 시간 길이를 가지고, 상기 제 1 시점은 상기 통화 영상에 포함된 상기 특정 사용자의 입 모양 영상 정보가 미리 결정된 제 1 트리거링 입 모양 정보와 일치하는 시점을 나타내고, 상기 제 2 시점은 상기 통화 영상에 포함된 상기 특정 사용자의 입 모양 영상 정보가 미리 결정된 제 2 트리거링 입 모양 정보와 일치하는 시점을 나타낼 수 있다.
일 측면에 따르면, 상기 훈련 데이터 세트들은, i) 예시 텍스트 정보 및 ii) 상기 특정 사용자가 상기 예시 텍스트 정보를 읽은 입 모양 영상 정보를 포함할 수 있다.
일 측면에 따르면, 상기 훈련 데이터 세트들을 생성하는 단계는, 예시 텍스트 정보를 디스플레이하는 단계; 상기 특정 사용자가 상기 예시 텍스트 정보를 읽는 동안의 상기 특정 사용자에 대한 영상인 읽기 영상을 획득하는 단계; 및 기 읽기 영상에 포함된 제 2 입 모양 영상 정보 및 상기 예시 텍스트 정보를 제 2 훈련 데이터 세트로서 저장하는 단계를 포함할 수 있다.
일 측면에 따르면, 상기 훈련 데이터 세트들을 생성하는 단계는, 복수의 예시 텍스트 정보들을 디스플레이하는 단계; 상기 특정 사용자가 상기 예시 텍스트 정보들을 음독하는 동안 상기 특정 사용자에 대한 영상인 읽기 영상 및 상기 특정 사용자에 대한 음성인 읽기 음성을 획득하는 단계; 시간 정보를 기반으로 상기 읽기 영상의 적어도 일부인 제 3 입 모양 영상 정보와 상기 읽기 음성의 적어도 일부인 제 3 음성 정보를 대응시키는 단계; 음성 인식 모델을 기반으로 상기 제 3 음성 정보에 대응하는 텍스트 정보인 제 3 음성 인식 텍스트 정보를 획득하는 단계; 기 제 3 음성 인식 테스트 정보와 상기 복수의 예시 텍스트 정보들 중 어느 하나인 제 3 예시 텍스트 정보와 동일하다는 결정에 응답하여, 상기 제 3 입 모양 영상 정보와 상기 제 3 예시 텍스트 정보를 제 3 훈련 데이터 세트로서 저장하는 단계를 포함할 수 있다.
전술한 문제점을 해결하기 위한 본 발명의 다른 실시예에 따른 사용자 영상을 기반으로 하는 정보 입력 장치는, 영상 정보를 획득하는 영상 입력부; 음성 정보를 획득하는 음성 입력부; 영상 정보, 음성 정보 및 텍스트 정보를 저장하는 메모리; 및 프로세서를 포함하고, 상기 프로세서는, 특정 사용자에 대한 입 모양 영상 정보 및 상기 입 모양 영상 정보에 대응하는 텍스트 정보를 각각 포함하는 복수의 훈련 데이터 세트들을 생성하고, 상기 훈련 데이터 세트들을 기반으로, 입력된 입 모양 영상 정보에 대응하는 텍스트 정보를 출력하는 영상 인식 모델을 생성하고; 그리고 상기 영상 인식 모델을 기반으로 상기 특정 사용자에 대한 입력 영상에 대응하는 입력 텍스트 정보를 결정하도록 구성될 수 있다.
일 측면에 따르면, 상기 입력 텍스트 정보를 결정하는 것은, 상기 프로세서가, 상기 영상 입력부에 의해 취득된 상기 특정 사용자에 대한 입력 영상을 수신하고; 그리고 상기 영상 인식 모델을 기반으로, 상기 입력 영상에 포함된 입 모양 영상 정보에 대응하는 텍스트 정보를 상기 입력 텍스트 정보로서 결정하는 것을 포함할 수 있다.
일 측면에 따르면, 상기 훈련 데이터 세트들은, i) 상기 특정 사용자의 영상 통화 데이터에 포함된 입 모양 영상 정보 및 ii) 상기 입 모양 영상 정보에 대응하는 음성에 대한 음성 인식 결과인 음성 인식 텍스트 정보를 포함할 수 있다.
일 측면에 따르면, 상기 훈련 데이터 세트들을 생성하는 것은, 상기 프로세서가, 상기 특정 사용자의 영상 통화 데이터 - 상기 영상 통화 데이터는 통화 영상 및 통화 음성을 포함 - 를 획득하고; 시간 정보를 기반으로 상기 통화 영상의 적어도 일부인 제 1 입 모양 영상 정보와 상기 통화 음성의 적어도 일부인 제 1 음성 정보를 대응시키고; 음성 인식 모델을 기반으로 상기 제 1 음성 정보에 대응하는 텍스트 정보인 제 1 음성 인식 텍스트 정보를 획득하고; 그리고 상기 제 1 입 모양 영상 정보와 상기 제 1 음성 인식 텍스트 정보를 제 1 훈련 데이터 세트로서 상기 저장부에 저장하는 것을 포함할 수 있다.
일 측면에 따르면, 상기 제 1 입 모양 영상 정보 및 상기 제 1 음성 정보의 시간 길이는 미리 결정된 시간 길이를 가질 수 있다.
일 측면에 따르면, 상기 제 1 입 모양 영상 정보 및 상기 제 1 음성 정보는 제 1 시점으로부터 제 2 시점까지의 시간 길이를 가지고, 상기 제 1 시점은 상기 통화 음성이 미리 결정된 임계 크기 이하인 시점을 나타내고, 상기 제 2 시점은 상기 제 1 시점에 후속하는, 상기 통화 음성이 미리 결정된 임계 크기 이하인 시점을 나타낼 수 있다.
일 측면에 따르면, 상기 제 1 입 모양 영상 정보 및 상기 제 1 음성 정보는 제 1 시점으로부터 제 2 시점까지의 시간 길이를 가지고, 상기 제 1 시점은 상기 통화 영상에 포함된 상기 특정 사용자의 입 모양 영상 정보가 미리 결정된 제 1 트리거링 입 모양 정보와 일치하는 시점을 나타내고, 상기 제 2 시점은 상기 제 1 시점에 후속하는, 상기 특정 사용자의 입 모양 영상 정보가 미리 결정된 제 1 트리거링 입 모양 정보와 일치하는 시점을 나타낼 수 있다.
일 측면에 따르면, 상기 제 1 입 모양 영상 정보 및 상기 제 1 음성 정보는 제 1 시점으로부터 제 2 시점까지의 시간 길이를 가지고, 상기 제 1 시점은 상기 통화 영상에 포함된 상기 특정 사용자의 입 모양 영상 정보가 미리 결정된 제 1 트리거링 입 모양 정보와 일치하는 시점을 나타내고, 상기 제 2 시점은 상기 통화 영상에 포함된 상기 특정 사용자의 입 모양 영상 정보가 미리 결정된 제 2 트리거링 입 모양 정보와 일치하는 시점을 나타낼 수 있다.
일 측면에 따르면, 상기 훈련 데이터 세트들은, i) 예시 텍스트 정보 및 ii) 상기 특정 사용자가 상기 예시 텍스트 정보를 읽은 입 모양 영상 정보를 포함할 수 있다.
일 측면에 따르면, 상기 훈련 데이터 세트들을 생성하는 것은, 상기 프로세서가, 상기 사용자 영상을 기반으로 하는 정보 입력 장치에 포함된 표시부에 예시 텍스트 정보를 디스플레이하고; 상기 영상 입력부를 이용하여, 상기 특정 사용자가 상기 예시 텍스트 정보를 읽는 동안의 상기 특정 사용자에 대한 영상인 읽기 영상을 획득하고; 그리고 상기 읽기 영상에 포함된 제 2 입 모양 영상 정보 및 상기 예시 텍스트 정보를 제 2 훈련 데이터 세트로서 상기 저장부에 저장하는 것을 포함할 수 있다.
일 측면에 따르면, 상기 훈련 데이터 세트들을 생성하는 것은, 상기 프로세서가, 상기 사용자 영상을 기반으로 하는 정보 입력 장치에 포함된 표시부에 복수의 예시 텍스트 정보들을 디스플레이하고; 상기 영상 입력부 및 음성 입력부를 이용하여, 상기 특정 사용자가 상기 예시 텍스트 정보들을 음독하는 동안 상기 특정 사용자에 대한 영상인 읽기 영상 및 상기 특정 사용자에 대한 음성인 읽기 음성을 획득하고; 시간 정보를 기반으로 상기 읽기 영상의 적어도 일부인 제 3 입 모양 영상 정보와 상기 읽기 음성의 적어도 일부인 제 3 음성 정보를 대응시키고; 음성 인식 모델을 기반으로 상기 제 3 음성 정보에 대응하는 텍스트 정보인 제 3 음성 인식 텍스트 정보를 획득하고; 상기 제 3 음성 인식 테스트 정보와 상기 복수의 예시 텍스트 정보들 중 어느 하나인 제 3 예시 텍스트 정보를 대응시키고; 그리고 상기 제 3 음성 인식 테스트 정보와 상기 복수의 예시 텍스트 정보들 중 어느 하나인 제 3 예시 텍스트 정보와 동일하다는 결정에 응답하여, 상기 제 3 입 모양 영상 정보와 상기 제 3 예시 텍스트 정보를 제 3 훈련 데이터 세트로서 상기 저장부에 저장하는 것를 포함할 수 있다.
전술한 문제점을 해결하기 위한 본 발명의 다른 실시예에 따른 사용자 영상을 기반으로 하는 정보 입력 시스템은, 특정 사용자에 대한 입 모양 영상 정보 및 상기 입 모양 영상 정보에 대응하는 텍스트 정보를 각각 포함하는 복수의 훈련 데이터 세트들을 획득하고, 상기 훈련 데이터 세트들을 기반으로, 입력된 입 모양 영상 정보에 대응하는 텍스트 정보를 출력하는 영상 인식 모델을 생성하도록 구성된, 서버; 및 상기 특정 사용자에 대한 영상 정보 및 음성 정보 중 적어도 하나를 취득하도록 구성되고, 상기 영상 인식 모델을 기반으로 상기 특정 사용자에 대한 입력 영상에 대응하는 입력 텍스트 정보를 결정하도록 구성된, 단말기를 포함할 수 있다.
전술한 문제점을 해결하기 위한 본 발명의 다른 실시예에 따른 컴퓨터 판독 가능한 저장 매체는, 프로세서에 의해 실행 가능한 명령어들을 포함하고, 상기 명령어들은 상기 프로세서에 의해 실행되었을 때, 특정 사용자에 대한 입 모양 영상 정보 및 상기 입 모양 영상 정보에 대응하는 텍스트 정보를 각각 포함하는 복수의 훈련 데이터 세트들을 생성하고; 상기 훈련 데이터 세트들을 기반으로, 입력된 입 모양 영상 정보에 대응하는 텍스트 정보를 출력하는 영상 인식 모델을 생성하고; 그리고 상기 영상 인식 모델을 기반으로 상기 특정 사용자에 대한 입력 영상에 대응하는 입력 텍스트 정보를 결정하도록 구성될 수 있다.
개시된 기술은 다음의 효과를 가질 수 있다. 다만, 특정 실시예가 다음의 효과를 전부 포함하여야 한다거나 다음의 효과만을 포함하여야 한다는 의미는 아니므로, 개시된 기술의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.
전술한 본 발명의 일 실시예에 따른 사용자 영상을 기반으로 하는 정보 입력 방법 및 장치에 따르면, 특정 사용자에 대한 입 모양 영상 정보와 그에 대응하는 텍스트 정보를 포함하는 훈련 데이터들을 기반으로 영상 인식 모델을 생성하는 것에 의해, 보다 향상된 정확도를 가지고 특정 사용자의 입 모양을 인식하여 정보를 입력할 수 있다.
또한, 사용자의 입 모양을 인식하여 정보를 입력하도록 하는 것에 의해, 사용자 주변에 소음이 존재하는 환경이나, 사용자 음성의 발현이 불가능한 조용한 환경에서도 간편하게 정보를 입력하고 이를 기반으로 모바일 디바이스의 기능을 제어할 수 있는 장점이 있다.
도 1 은 본 발명의 일 실시예에 따른 사용자 영상을 기반으로 하는 정보 입력 장치의 구성을 나타내는 블록도이다.
도 2 는 도 1 의 프로세서 상에서 구현되는 인식 모델의 예시도이다.
도 3 은 도 2 의 영상 인식 모델 및 음성 인식 모델의 개념도이다.
도 4 는 도 2 의 메모리에 저장되는 정보의 예시도이다.
도 5 는 본 발명의 일 실시예에 따른 사용자 영상을 기반으로 하는 정보 입력 시스템의 개념도이다.
도 6 은 영상 통화 데이터를 기반으로 하는 훈련 데이터 세트 생성의 개념도이다.
도 7 은 본 발명의 일 실시예에 따른 사용자 영상을 기반으로 하는 정보 입력 방법의 흐름도이다.
도 8 은 도 7 의 입력 테스트 정보 결정 단계의 상세 흐름도이다.
도 9 는 영상 통화 데이터를 기반으로 하는 훈련 데이터 세트 생성의 상세 흐름도이다.
도 10 은 사전 설정에 따른 세그먼트의 시간 길이 설정 방법의 예시도이다.
도 11 은 음성의 임계 크기에 따른 세그먼트의 시간 길이 설정 방법의 예시도이다.
도 12 는 트리거링 입 모양에 따른 세그먼트의 시간 길이 설정 방법의 예시도이다.
도 13 은 예시 텍스트 정보 기반 훈련 데이터 세트 생성의 제 1 실시예에 대한 개념도이다.
도 14 는 예시 텍스트 정보 기반 훈련 데이터 세트 생성의 제 2 실시예에 대한 개념도이다.
도 15 는 예시 텍스트 정보 기반 훈련 데이터 세트 생성의 제 1 실시예의 흐름도이다.
도 16 은 예시 텍스트 정보 기반 훈련 데이터 세트 생성의 제 2 실시예의 흐름도이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다.
그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.
사용자 영상을 기반으로 하는 정보 입력
앞서 살핀 바와 같이, 음성 인식은 주변의 소음 존재 여부에 따라 그 정확도가 현저하게 저하될 수 있는 문제점이 있고, 사용자의 음성을 발생시키기 곤란한 환경에서 사용할 수 없는 문제점이 있다. 음성 인식을 대체하기 위한 수단으로서, 사용자의 입 모양을 인식하여 정보를 입력하는 방법이 고려될 수 있으나, 사람에 따라 입모양이 상이하므로 음성 인식에 비해 인식의 정확도를 향상시키기 위한 방안이 요구된다. 본 발명의 일 실시예에 따른 사용자 영상을 기반으로 하는 정보 입력은, 전술한 문제점을 해결하기 위한 것으로서, 특정 사용자에게 특화된 입 모양 인식 모델을 생성하는 것에 의해 입 모양 인식의 정확도를 향상시킬 수 있다. 보다 구체적으로, 본 발명의 일 실시예에 따른 사용자 영상을 기반으로 하는 정보 입력은, 특정 사용자에 대한 입 모양 영상 정보와 그에 대응하는 텍스트 정보를 포함하는 복수의 훈련 데이터들을 일정량 이상 획득하고, 획득된 특정 사용자에 대한 훈련 데이터 세트들을 기반으로 영상 인식 모델을 생성하는 것에 의해, 보다 향상된 정확도를 가지고 특정 사용자의 입 모양을 인식하여 정보를 입력할 수 있다.
도 1 은 본 발명의 일 실시예에 따른 사용자 영상을 기반으로 하는 정보 입력 장치의 구성을 나타내는 블록도이고, 도 7 은 본 발명의 일 실시예에 따른 사용자 영상을 기반으로 하는 정보 입력 방법의 흐름도이며, 도 8 은 도 7 의 입력 테스트 정보 결정 단계의 상세 흐름도이다. 이하, 도 1, 도 7 및 도 8 을 참조하여, 본 발명의 일 실시예에 따른 사용자 영상을 기반으로 하는 정보 입력 방법 및 장치에 대해서 보다 구체적으로 설명한다.
먼저, 도 1 에 도시된 바와 같이, 본 발명의 일 실시예에 따른 사용자 영상을 기반으로 하는 정보 입력 장치 (100) 는 영상 입력부 (110), 음성 입력부 (120), 프로세서 (130), 표시부 (140), 메모리 (150) 및 통신부 (160) 를 포함할 수 있다.
영상 입력부 (110) 는 사용자 영상을 기반으로 하는 정보 입력 장치 (100) 의 사용자에 대한 영상 정보를 획득할 수 있도록 구성되며, 예를 들어 카메라 장치일 수 있다. 음성 입력부 (120) 는 사용자 영상을 기반으로 하는 정보 입력 장치 (100) 의 사용자에 대한 음성 정보를 획득할 수 있도록 구성되며, 예를 들어 마이크 장치일 수 있다.
프로세서 (130) 는 본 발명의 일 실시예에 따른 사용자 영상을 기반으로 하는 정보 입력 절차를 위한 데이터 처리를 수행하도록 구성될 수 있다. 도 2 는 도 1 의 프로세서 상에서 구현되는 인식 모델의 예시도이고, 도 3 은 도 2 의 영상 인식 모델 및 음성 인식 모델의 개념도이다. 도 2 에 도시된 바와 같이, 본 발명의 일 실시예에 따른 사용자 영상을 기반으로 하는 정보 입력 장치 (100) 의 프로세서 (130) 는 영상 인식부 (131) 및 음성 인식부 (132) 를 포함할 수 있다. 상기 영상 인식부 (131) 및 음성 인식부 (132) 는 단일 프로세서 내에서 논리적 모듈로서 존재할 수 있으며, 또는 각각 별개의 프로세서 상에서 논리적 모듈로서 존재하거나, 하드웨어적으로 구현된 영상 인식 모듈 또는 음성 인식 모듈로서 포함될 수도 있다.
한편, 영상 인식부 (132) 상에서 영상 인식 모델 (132) 이 실행될 수 있다. 도 3 에 도시된 바와 같이, 영상 인식 모델 (132) 는 특정 사용자에 대한 입 모양 영상 정보를 입력하면 입력된 입 모양 영상 정보에 대응되는 텍스트 정보를 출력하는 논리적 모델일 수 있다. 일 측면에 따르면, 영상 인식 모델 (132) 은 특정 사용자에 대한 입 모양 영상 정보와 이에 대응하는 텍스트 정보를 각각 포함하는 복수의 훈련 데이터 세트들을 기반으로 인공 신경망 (Artificial Neural Network, ANN) 을 학습시켜 생성된 모델일 수도 있다. 또한, 일 측면에 따르면, 영상 인식 모델 (132) 은 도 2 에 도시된 바와 같이 입 위치 식별 모델 (133) 및 입 모양 식별 모델 (134) 을 포함할 수 있다. 예를 들어, 입 위치 식별 모델 (133) 은 입력된 영상 데이터 내에서 사용자의 입이 위치하는 영역을 추출하도록 구성될 수 있고, 입 모양 식별 모델 (134) 은 상기 입 위치 식별 모델 (133) 에 의해 출력된 입이 위치하는 영역에 대한 영상 정보를 기반으로 대응하는 텍스트 정보를 출력하도록 구성될 수 있다. 일 측면에 따르면 입 위치 식별 모델 (133) 은 공지된 인공지능 알고리즘 모델이 사용될 수도 있고, 본 발명의 일 실시예에 따라 특정 사용자에 대한 영상과 입 모양 영역을 훈련 데이터 세트로서 인공지능 모델을 훈련시킨 결과일 수도 있다.
다시 도 2 를 참조하면, 음성 인식부 (135) 상에서 음성 인식 모델 (136) 이 실행될 수 있다. 도 3 에 도시된 바와 같이, 음성 인식 모델 (136) 은 특정 사용자에 대한 음성 정보를 입력하면 입력된 음성 정보에 대응되는 텍스트 정보를 출력하는 논리적 모델일 수 있다. 일 측면에 따르면, 음성 인식 모델 (132) 은 음성 정보와 이에 대응하는 텍스트 정보를 각각 포함하는 복수의 훈련 데이터 세트들을 기반으로 인공 신경망을 학습시켜 생성된 모델일 수 있다. 또는, 음성 인식 모델 (132) 는 음성 정보를 텍스트로 변환하는 공지의 음성 인식 모델들 중 어느 하나를 선택하여 적용할 수 있다.
도 4 는 도 2 의 메모리 (150) 에 저장되는 정보의 예시도이다. 도 4 를 참조하면, 본 발명의 일 실시예에 따른 사용자 영상을 기반으로 하는 정보 입력 장치 (100) 에 포함된 메모리 (150) 에는, 예를 들어 복수의 훈련 데이터 세트들 (410), 특정 사용자에 대한 영상 통화 데이터 (420) 및 예시 텍스트 정보 (430) 중 적어도 하나가 저장될 수 있다. 훈련 데이터 세트들 (420) 은 영상 인식 모델 (132) 을 학습시키기 위해 사용될 수 있으며, 본 명세서에서 이후 구체적으로 설명하는 바와 같이, 예를 들어 영상 통화 데이터 (420) 에 대한 데이터 처리 또는 예시 텍스트 정보 (430) 를 이용한 데이터 획득 및 처리 절차에 의해 획득될 수 있다.
다시 도 2 를 참조하면, 표시부 (140) 는 사용자 영상을 기반으로 하는 정보 입력 장치에 포함되어 영상 및 텍스트 정보 중 적어도 하나를 표시하도록 구성될 수 있으며, 통신부 (160) 는 사용자 영상을 기반으로 하는 정보 입력 장치 (100) 가 외부 디바이스와 데이터 송수신을 수행하도록 구성될 수 있다. 통신부 (160) 는 예를 들어 셀룰러 네트워크 접속을 위한 원거리 무선 통신 모듈, 서버와의 통신을 위한 원거리 무선 통신 모듈, 주변 디바이스와의 근거리 통신을 위한 무선 통신 모듈 및 유선 통신 모듈 중 적어도 하나를 포함할 수 있다.
본 발명의 일 실시예에 따른 사용자 영상을 기반으로 하는 정보 입력 장치 (100) 는 예를 들어 스마트 폰이나 태블릿 PC 와 같은 모바일 디바이스에 포함되거나, 모바일 디바이스 그 자체로서 구현될 수도 있다.
도 7 에 도시된 바와 같이, 본 발명의 일 실시예에 따른 사용자 영상을 기반으로 하는 정보 입력 방법은, 먼저 특정 사용자에 대한 입 모양 영상 정보 및 상기 입 모양 영상 정보에 대응하는 텍스트 정보를 각각 포함하는 복수의 훈련 데이터 세트들을 생성할 수 있다 (단계 710). 앞서 설명한 바와 같이, 입 모양은 복수의 사용자 별로 상이하고, 동일한 단어를 발음하는 경우에도 개인의 발음 특성이나 습관이 따라 상이한 입 모양이 발현될 수도 있다. 따라서, 특정 사용자에 대한 구별없이 복수의 사용자들에 대한 입 모양 데이터를 기반으로 영상 인식 모델을 학습시킬 경우 입 모양 인식에 따른 텍스트 변환의 정확도가 감소될 수밖에 없다.
따라서, 본 발명의 일 실시예에 따르면, 입 모양 분석을 수행하고자 하는 특정 사용자에 대해서, 이러한 특정 사용자의 입 모양 영상을 포함하는 입 모영 영상 정보 및 이에 대응하는 문자열을 나타내는 텍스트 정보를 각각 포함하는 복수의 훈련 데이터들을 생성하고 이를 기반으로 영상 인식 모델을 훈련시키는 것에 의해 입 모양 인식의 정확도를 향상시킬 수 있다. 도 4 를 참조하면, 생성된 복수의 훈련 데이터 세트 (410) 들은 메모리 (150) 에 저장될 수 있으며, 복수의 훈련 데이터 세트 (410) 들은 제 1 훈련 데이터 세트 (410-1) 내지 제 n 훈련 데이터 세트 (410-n) 를 포함할 수 있고, 제 1 훈련 데이터 세트 (410-1) 는 제 1 입 모양 영상 정보 (411-1) 및 이에 대응하는 문자열을 포함하는 제 1 텍스트 정보 (412-1) 를 포함할 수 있으며, 제 n 훈련 데이터 세트 (410-n) 는 제 n 입 모양 영상 정보 (411-n) 및 이에 대응하는 문자열을 포함하는 제 n 텍스트 정보 (412-n) 를 포함할 수 있다. 일 실시예에 따르면, 입 모양 영상 정보는 사용자 영상을 기반으로 하는 정보 입력 장치 (100) 의 영상 입력부 (110) 를 통해 획득된 영상 데이터에 포함될 수 있다.
다시 도 7 을 참조하면, 앞서 생성된 훈련 데이터 세트들을 기반으로, 입력된 입 모양 영상 정보에 대응하는 텍스트 정보를 출력할 수 있는 영상 인식 모델을 생성할 수 있다. 도 3 을 참조하여 전술한 바와 같이, 영상 인식 모델 (132) 는 특정 사용자의 입 모양 영상 정보를 입력하는 것에 응답하여 이에 대응하는 문자열을 포함하는 텍스트 정보를 출력하는 소프트웨어 모듈일 수 있으며, 복수의 훈련 데이터 세트들을 이용하여 인공 신경망을 학습시키는 것에 의해 생성될 수 있다.
훈련 데이터 세트의 생성 및 그에 따른 영상 인식 모델의 학습이 완료되면, 특정 사용자의 현재 입력 영상을 기반으로 입 모양 인식을 수행할 수 있게 된다. 도 7 에 도시된 바와 같이, 영상 인식 모델을 기반으로 특정 사용자에 대한 입력 영상에 대응하는 입력 텍스트 정보를 결정 (단계 730) 하는 것에 의해 특정 사용자에 대한 입모양 인식을 이용한 텍스트 정보 입력이 가능하게 된다. 도 8 에 보다 상세히 도시된 바와 같이, 입력 텍스트 정보를 결정 (단계 730) 하는 것은, 예를 들어 사용자 영상을 기반으로 하는 정보 입력 장치 (100) 에 포함된 영상 입력부 (110) 에 의해 취득된 특정 사용자에 대한 입력 영상을 수신하고 (단계 731), 앞서 생성된 영상 인식 모델을 기반으로, 수신된 입력 영상에 포함된 입 모양 영상 정보에 대응하는 텍스트 정보를 입력 텍스트 정보로서 결정 (단계 733) 하는 것을 포함할 수 있다. 일 측면에 따르면, 사용자 영상을 기반으로 하는 정보 입력 장치 (100) 에 포함된 프로세서 (130) 상에서 구동되는 영상 인식 모델 (132) 이 사용될 수 있고, 입 위치 식별 모델 (133) 을 통해 입력 영상에서 입 모양을 포함하는 영상을 추출하고, 이를 입 모양 식별 모델 (134) 로 입력하는 것에 의해 대응되는 텍스트 정보를 출력하도록 구성될 수 있다.
본 발명의 일 실시예에 따른 사용자 영상을 기반으로 하는 정보 입력 장치 (100) 에 따르면, 앞서 설명한 바와 같은 훈련 데이터 세트의 생성 (단계 710), 영상 인식 모델의 생성 (단계720) 및 입력 영상에 대응하는 입력 텍스트 정보 결정 (730) 은 프로세서 (130) 에 의해 수행될 수 있다. 한편, 도 5 는 본 발명의 일 실시예에 따른 사용자 영상을 기반으로 하는 정보 입력 시스템의 개념도이다. 도 5 에 도시된 바와 같이, 예를 들어 단말기 (100) 및 단말기 (100) 와 네트워크를 통해 통신 가능한 서버 (200) 와 같이, 복수의 엔티티에 의해 구성되는 사용자 영상을 기반으로 하는 정보 입력 시스템에서는, 앞서 설명한 바와 같은 훈련 데이터 세트의 생성 (단계 710), 영상 인식 모델의 생성 (단계720) 및 입력 영상에 대응하는 입력 텍스트 정보 결정 (730) 은 단말기 (100), 또는 단말기에 포함된 프로세서 (130) 및 서버 (200) 에 의해 함께 수행될 수 있다. 예를 들어, 단말기 (100) 는 영상 입력부 (110) 및 음성 입력부 (120) 를 구비하여 특정 사용자에 대한 영상 정보 및/또는 음성 정보를 획득할 수 있도록 구성되고, 통신부 (160) 를 이용하여 서버 (200) 로 상기 영상 정보 및/또는 음성 정보 그 자체를 송신하거나, 상기 영상 정보 및/또는 음성 정보를 기반으로 데이터 처리된 복수의 훈련 데이터 세트들을 송신하도록 구성될 수도 있다. 서버 (200) 는 특정 사용자에 대한 입 모양 영상 정보 및 입 모양 영상 정보에 대응하는 텍스트 정보를 각각 포함하는 복수의 훈련 데이터 세트들을 획득하고, 훈련 데이터 세트들을 기반으로, 입력된 입 모양 영상 정보에 대응하는 텍스트 정보를 출력하는 영상 인식 모델을 생성하도록 구성될 수 있다. 생성된 영상 인식 모델은 서버 (200) 및 단말기 (100) 의 메모리 (150) 중 적어도 하나에 저장될 수 있다. 특정 사용자에 대한 입 모양 인식을 수행함에 있어서, 단말기 (100) 는 입력된 특정 사용자의 영상 정보를 서버 (200) 로 송신하여 서버 (200) 에 저장된 영상 인식 모델을 기반으로 대응되는 텍스트 정보를 획득한 뒤 수신하거나, 단말기 (100) 의 메모리 (150) 에 저장된 영상 인식 모델을 기반으로 대응되는 텍스트 정보를 획득할 수 있다. 단말기 (100) 의 측면에서 본 발명의 일 실시예에 따른 훈련 데이터 세트의 생성 (단계 710), 영상 인식 모델의 생성 (단계 720) 및 입력 텍스트 정보의 결정 (단계 730) 의 단계들은, 상기 단계들을 단말기 (100) 의 프로세서 (130) 가 직접 수행하는 것 뿐만 아니라, 상기 단계들을 수행하기 위해 서버 (200) 와 같은 외부 디바이스로 관련 데이터들을 송신 및/또는 수신하는 것을 포함하는 것으로 이해되어야 할 것이다.
나아가, 서버 (200) 와 같은 컴퓨팅 디바이스의 측면에서, 예를 들어 스마트 폰 이나 태블릿 PC 와 같은 모바일 디바이스로부터 훈련 데이터 세트 및/또는 훈련 데이터 세트의 생성을 위한 영상 및 음성 자료를 수신하여 훈련 데이터 세트를 획득하고, 이를 기반으로 입력 입 모양 데이터에 대응하는 텍스트 정보를 출력하는 영상 인식 모델을 생성하는
영상 통화 데이터 기반 훈련 데이터 세트 생성
앞서 살핀 바와 같이, 특정 사용자에 대한 입 모양 인식의 정확도 향상을 위해서는 상기 특정 사용자에 대한 훈련 데이터 세트들을 기반으로 영상 인식 모델을 생성하는 것이 필요하다. 다만, 특정 사용자의 입 모양 영상 정보 및 이에 대응하는 텍스트 정보를 포함하는 훈련 데이트 세트들을 영상 인식 모델의 훈련이 가능하도록 충분히 확보할 수 있는 방안이 고려되어야 한다.
도 6 은 영상 통화 데이터를 기반으로 하는 훈련 데이터 세트 생성의 개념도이다. 도 6 에 도시된 바와 같이, 본 발명의 일 실시예에 따른 사용자 영상을 기반으로 하는 정보 입력 장치 (100) 는 특정 사용자에 의해 사용되는 모바일 디바이스일 수 있으며, 영상 입력부 (610), 음성 입력부 (620) 및 표시부 (640) 를 포함할 수 있다. 이러한 모바일 디바이스의 특정 사용자는 임의의 다른 인물과 영상 통화를 수행할 수 있으며, 영상 통화 수행시 상대방의 영상이 표시부 (640) 의 상대방 영역 (643) 에 표시되고, 상기 모바일 디바이스의 영상 입력부 (110) 를 통해 획득된 특정 사용자의 영상은 모바일 디바이스의 본인 영역 (641) 에 표시될 수 있다. 음성 입력부 (620) 를 통해 특정 사용자의 영상 통화 도중의 음성 정보가 획득될 수 있고, 특정 사용자의 영상 정보 및 음성 정보가 통신부를 통해 상대방 사용자의 디바이스로 전송될 수 있다.
이처럼, 특정 사용자가 모바일 디바이스를 기반으로 영상 통화를 수행하면, 특정 사용자가 발화하는 동안의 입 모양 영상 정보와 이에 대응되는 음성 정보가 자연스럽게 획득될 수 있다. 따라서, 모바일 디바이스는 화상 통화 시에 모바일 디바이스의 특정 사용자에 대한 영상과 음성에 대한 정보를 상대방 디바이스로 전송함과 함께, 이를 영상 통화 데이터로서 저장할 수 있다. 일 측면에 따르면, 사용자 영상을 기반으로 하는 정보 입력 장치 (100) 의 메모리 (150) 에 상기 영상 통화 데이터 (420) 가 저장될 수 있으며, 영상 통화 데이터 (420) 는 사용자의 입 모양 정보를 포함하는 영상 데이터인 통화 영상 데이터 (421) 및 사용자의 음성에 대한 정보를 포함하는 통화 음성 데이터 (423) 를 포함할 수 있다.
본 발명의 일 실시예에 따르면, 상기 영상 통화 데이터 (420) 를 기반으로 영상 인식 모델의 생성을 위한 훈련 데이터 세트들을 생성할 수 있으며, 이와 같은 훈련 데이터 세트들은, i) 특정 사용자의 영상 통화 데이터에 포함된 입 모양 영상 정보 및 ii) 입 모양 영상 정보에 대응하는 음성에 대한 음성 인식 결과인 음성 인식 텍스트 정보를 포함할 수 있다. 즉, 영상 통화 데이터에 포함된 사용자에 대한 영상 정보와 음성 정보는 각각 시간 정보를 포함할 수 있으므로, 시간 정보를 기반으로 영상 정보와 음성 정보를 대응시킬 수 있으며, 음성 정보를 소정의 음성 인식 모델을 기반으로 텍스트 정보로 변환할 수 있으므로, 결국 특정 사용자에 대한 영상 정보 (또는 영상 정보에 포함된 입 모양 영상 정보) 와 상기 텍스트 정보를 서로 대응시키는 것이 가능하다. 따라서 서로 대응되는 입 모양 영상 정보와 텍스트 정보를 획득할 수 있고, 이를 하나의 훈련 데이터 세트로서 저장할 수 있다.
영상 통화는 사용자의 필요에 의해 수행되는 것으로서 자연스러운 데이터의 수집이 가능한 장점이 있으며, 영상 통화는 상대방 및 본인의 목소리를 인지하기 위해 주변 소음이 적은 환경에서 주로 행해지므로, 영상 통화 데이터에 포함된 음성 정보는 높은 정확도를 가지고 음성 인식을 수행하는 것이 가능하여 정확한 텍스트 정보를 획득할 수 있다. 따라서 높은 정확도를 가지는 특정 사용자에 대한 훈련 데이터 세트의 생성이 가능한 장점이 있다.
도 9 는 영상 통화 데이터를 기반으로 하는 훈련 데이터 세트 생성의 상세 흐름도이다. 도 9 에 도시된 바와 같이, 본 발명의 일 실시예에 따른 영상 통화 데이터 기반의 훈련 데이터 세트 생성 절차에 따르면, 먼저 모바일 디바이스를 사용하는 특정 사용자의 영상 통화 데이터 - 영상 통화 데이터는 통화 영상 및 통화 음성을 포함 - 를 획득할 수 있다 (단계 711). 앞서 살핀 바와 같이 모바일 디바이스는 영상 입력부 및 음성 입력부를 구비하는 바, 영상 통화 동안의 특정 사용자에 대한 통화 영상과 통화 음성을 획득할 수 있고, 예를 들어 메모리 (150) 에 통화 영상 데이터 (421) 및 통화 음성 데이터 (423) 를 포함하는 영상 통화 데이터 (420) 로서 저장할 수 있다.
이어서, 시간 정보를 기반으로 통화 영상의 적어도 일부인 제 1 입 모양 영상 정보와 통화 음성의 적어도 일부인 제 1 음성 정보를 대응시킬 수 있다 (단계 713). 획득된 통화 영상 및 통화 음성은 소정의 시간 길이를 가지는 세그먼트로서 구분되어 처리될 수 있다. 예를 들어, 제 1 입 모양 영상 정보는 통화 영상을 구성하는 복수의 세그먼트들 중 어느 하나일 수 있고, 제 1 음성 정보는 통화 음성을 구성하는 복수의 세그먼트들 중 어느 하나일 수 있다. 일 측면에 따르면, 제 1 입 모양 영상 정보는 통화 영상에서 입 위치를 검출하여 추출된 영상이 사용될 수도 있다. 통화 영상 및 통화 음성은 획득 당시의 시간 정보를 포함할 수 있으므로, 복수의 세그먼트로 분할되어도 이러한 시간 정보를 기반으로 입 모양 영상 정보와 음성 정보의 대응이 가능하다. 일 측면에 따르면, 제 1 입 모양 영상 정보는 통화 영상에 포함된 하나의 프레임일 수 있고, 다른 측면에 따르면 제 1 입 모양 영상 정보는 복수의 프레임을 포함할 수도 있다.
한편, 통화 영상 데이터 및/또는 통화 음성 데이터를 복수의 세그먼트로 분할하기 위한 기준을 설정할 수 있다. 도 10 은 사전 설정에 따른 세그먼트의 시간 길이 설정 방법의 예시도이다. 도 10 에 도시된 바와 같이, 영상 통화 데이터에 포함된 통화 음성 및 통화 영상은 각각 시간 정보를 가지고 시계열적으로 존재할 수 있다. 일 측면에 따르면, 훈련 데이터의 생성을 위해 사용될 수 있는 통화 음성의 복수의 세그먼트들 중 어느 하나일 수 있는 제 1 입 모양 영상 정보와, 통화 영상의 복수의 세그먼트들 중 어느 하나일 수 있는 제 1 음성 정보의 시간 길이는 미리 결정된 시간 길이 (t) 로서 결정될 수 있다. 따라서, 도 10 에 도시된 바와 같이 모든 음성 세그먼트들 (10a-1, 10a-2, 10a-3, 10a-4, 10a-5, 10a-6, 10a-7, 10a-8) 은 전부 동일한 시간 길이를 가지도록 설정되고, 각각 제 1 음성 정보 내지 제 8 음성 정보로서 지정될 수 있다. 또한, 모든 영상 세그먼트들 (10b-1, 10b-2, 10b-3, 10b-4, 10b-5, 10b-6, 10b-7, 10b-8) 역시 전부 동일한 시간 길이를 가지도록 설정되고, 각각 제 1 입 모양 영상 정보 내지 제 8 입 모양 영상 정보로서 지정될 수 있다.
도 11 은 음성의 임계 크기에 따른 세그먼트의 시간 길이 설정 방법의 예시도이다. 도 11 에 도시된 바와 같이, 본 발명의 일 실시예에 따르면 제 1 입 모양 영상 정보 및 제 1 음성 정보는 제 1 시점 (예를 들어, t1) 부터 제 2 시점 (예를 들어, t2) 까지의 시간 길이를 가지도록 설정될 수 있고, 제 1 시점 (예를 들어, t1) 은 통화 음성이 미리 결정된 임계 크기 이하인 시점을 나타내고, 제 2 시점 (예를 들어, t2) 은 제 1 시점 (예를 들어, t1) 에 후속하는, 통화 음성이 미리 결정된 임계 크기 이하인 시점을 나타낼 수 있다. 즉, 통화 음성 및 통화 음성의 세그먼트 분할점은, 통화 음성의 크기가 미리 설정해둔 임계 크기보다 작은 지점이 되도록 할 수 있다. 따라서, 연속되는 시점들 (t1, t2, t3, t4, t5, t6) 에 대해서, 음성 세그먼트들 (11a-1, 11a-2, 11a-1, 11a-4, 11a-5) 은 각각 상이한 시간 길이를 가지고, 복수의 영상 세그먼트들 (11b-1, 11b-2, 11b-3, 11b-4, 11b-5) 역시 각각 상이한 크기를 가지도록 결정될 수 있다.
한편, 도 11 에 도시되지는 않았으나, 일 측면에 따르면, 세그먼트 분할점은, 통화 음성의 크기가 미리 설정해 둔 임계 크기보다 작은 크기를 만족하는 시간 길이가 미리 설정해둔 시간 이상 지속되는 지점이 되도록 설정할 수 있다. 이 때, 세그먼트는 통화 음성의 크기가 미리 설정해 둔 임계 크기보다 작은 크기를 미리 설정해 둔 시간 이상 지속하는 구간을 제외하고 추출될 수 있다.
도 12 는 트리거링 입 모양에 따른 세그먼트의 시간 길이 설정 방법의 예시도이다. 도 12 에 도시된 바와 같이, 본 발명의 일 실시예에 따르면 제 1 입 모양 영상 정보 및 제 1 음성 정보는 제 1 시점 (예를 들어, t1) 부터 제 2 시점 (예를 들어, t2) 까지의 시간 길이를 가지도록 설정될 수 있고, 제 1 시점 (예를 들어, t1) 은 통화 영상에 포함된 특정 사용자의 입 모양 영상 정보 (121-1) 가 미리 결정된 제 1 트리거링 입 모양 정보와 일치하는 시점을 나타내고, 제 2 시점 (예를 들어, t2) 은 통화 영상에 포함된 특정 사용자의 입 모양 영상 정보 (122-1) 가 미리 결정된 제 2 트리거링 입 모양 정보와 일치하는 시점을 나타낼 수 있다. 여기서, 제 1 입 모양 영상 정보 (12b-1) 는 입 모양 영상 정보 (121-1) 내지 입 모양 영상 정보 (122-1) 의 영상 정보를 포함하도록 설정될 수 있다. 즉, 통화 음성 및 통화 영상의 세그먼트로의 분할점은 입 모양이 특정한 제 1 의 모양인 제 1 트리거링 입 모양일 때 세그먼트가 시작되고, 입 모양이 특정한 제 2 의 모양인 제 2 트리거링 입 모양일 때 세그먼트가 종료되도록 설정될 수 있다. 따라서, 연속되는 시점들 (t1, t2, t3, t4, t5) 에 대해서, 음성 세그먼트들 (12a-1, 12a-2, 12a-1, 12a-4) 은 각각 상이한 시간 길이를 가지고, 복수의 영상 세그먼트들 (12b-1, 12b-2, 12b-3, 12b-4) 역시 각각 상이한 크기를 가지도록 결정될 수 있다. 상기 세그먼트들은 각각 시작 세그먼트 (121-1, 121-2, 121-3, 121-4) 에 의해 시작되고, 종료 세그먼트 (122-1, 122-2, 122-3, 122-4) 에 의해 종료될 수 있다. 도 12 에 도시되지 않았으나, 각각의 세그먼트들 사이에는 세그먼트로 추출되지 않는 절삭 영역이 포함될 수도 있다.
또한, 도 12 에 도시되지 않았으나, 하나의 트리거링 입 모양이 세그먼트의 시작과 종료를 위해 사용될 수도 있다. 즉, 제 1 시점 (예를 들어, t1) 은 통화 영상에 포함된 특정 사용자의 입 모양 영상 정보 (예를 들어, 121-1) 가 미리 결정된 제 1 트리거링 입 모양 정보와 일치하는 시점을 나타내고, 제 2 시점 (예를 들어, t2) 은 제 1 시점에 후속하는, 특정 사용자의 입 모양 영상 정보가 미리 결정된 제 1 트리거링 입 모양 정보 (121-2) 와 일치하는 시점을 나타낼 수 있다. 이 때, 제 1 세그먼트 (12b-1) 는 입 모양 영상 정보 (121-1) 에서 개시되어 입 모양 영상 정보 (121-2) 이전에 종료될 수 있다.
한편, 일 측면에 따르면, 통화 영상에 포함된 특정 사용자의 입 모양 영상 정보가 미리 설정한 시간 길이 이상 미리 결정된 제 1 트리거링 입 모양 정보와 일치하는 것에 응답하여 세그먼트의 분할이 수행될 수도 있다. 일 측면에 따르면 제 1 트리거링 입 모양은 입을 다문 모양일 수 있다. 또는 제 1 트리거링 입 모양 정보는 복수의 입 모양의 시퀀스를 포함하는 입 모양 모션 정보일 수도 있다.
다시 도 9 를 참조하면, 통화 음성의 적어도 일부인 제 1 음성 정보를 텍스트 정보로 변환할 수 있다 (단계 715). 즉, 음성 인식 모델을 기반으로 제 1 음성 정보에 대응하는 텍스트 정보인 제 1 음성 인식 텍스트 정보를 획득할 수 있다. 여기서, 음성 인식 모델은 공지된 임의의 음성 인식 모델이 사용될 수 있다. 영상 통화 데이터는 앞서 언급한 바와 같이 높은 음성 인식 성공율을 도출할 수 있다. 다만, 일 측면에 따르면, 상기 특정 사용자의 음성 및 이에 대응하는 텍스트 정보를 훈련 데이터 세트로서 사용하여 인공 신경망을 훈련하여 생성된 음성 인식 모델이 사용될 수도 있다.
도 9 에 도시된 바와 같이, 제 1 입 모양 영상 정보와 상기 제 1 음성 인식 텍스트 정보를 제 1 훈련 데이터 세트로서 저장 (단계 717) 하는 것에 의해, 영상 통화 데이터를 기반으로 하는 훈련 데이터 세트의 생성을 수행할 수 있다. 앞서 언급한 바와 같이 시간 정보를 기반으로 제 1 입 모양 영상 정보와 제 1 음성 정보를 매칭하는 것이 가능하므로, 제 1 입 모양 영상 정보와 제 1 음성 인식 텍스트 정보를 매칭하는 것 역시 가능하다. 따라서, 서로 대응하는 제 1 입 모양 영상 정보와 제 2 음성 인식 텍스트 정보를 제 1 훈련 데이터 세트로서 저장할 수 있다. 이후, 제 2 내지 제 n 입 모양 영상 정보와 제 2 내지 제 n 음성 정보에 대한 반복적인 데이터 처리를 통해 제 1 내지 제 n 훈련 데이터 세트를 생성하여 저장할 수 있다.
따라서, 특정 사용자가 영상 통화를 수행하는 과정에서, 번거롭지 않고 자연스러우며 높은 정확도를 가지는 훈련 데이터 세트들의 생성이 가능하다.
예시 텍스트 정보 기반 훈련 데이터 세트 생성
본 발명의 일 실시예에 따르면, 소정의 어플리케이션을 통해 예시적인 문자열을 포함하는 예시 텍스트 정보를 표시하고, 특정 사용자가 이러한 텍스트 정보를 읽도록 하여 훈련 데이터 세트를 생성하는 것이 가능하다. 즉, 본 발명의 일 실시예에 따른 훈련 데이터 세트들은, i) 예시 텍스트 정보 및 ii) 특정 사용자가 예시 텍스트 정보를 읽은 입 모양 영상 정보를 포함할 수 있다.
도 13 은 예시 텍스트 정보 기반 훈련 데이터 세트 생성의 제 1 실시예에 대한 개념도이다. 도 13 에 도시된 바와 같이, 본 발명의 일 실시예에 따른 사용자 영상을 기반으로 하는 정보 입력 장치 (100) 는 특정 사용자에 의해 사용되는 모바일 디바이스일 수 있으며, 표시부 (1300) 를 구비할 수 있다.
도 15 는 예시 텍스트 정보 기반 훈련 데이터 세트 생성의 제 1 실시예의 흐름도이다. 이하, 도 13 및 도 15 를 참조하여 본 발명의 예시 텍스트 정보 기반 훈련 데이터 세트 생성의 제 1 실시예에 대해서 보다 구체적으로 설명한다.
도 15 에 도시된 바와 같이, 본 발명의 일 측면에 따른 예시 텍스트 정보 기반 훈련 데이터 세트 생성 절차에 따르면, 먼저 예시 텍스트 정보를 디스플레이할 수 있다 (단계 1510). 예시 텍스트 정보는, 예를 들어 도 1 및 도 4 에 도시된 바와 같이, 본 발명의 일 실시예에 따른 사용자 영상을 기반으로 하는 정보 입력 장치 (100) 의 메모리 (150) 에 예시 텍스트 정보 (430) 로서 저장되어 있을 수 있다. 예를 들어 사용자 영상을 기반으로 하는 정보 입력 장치 (100) 의 프로세서 (130) 는 상기 텍스트 정보 (430) 를 표시부 (140) 에 디스플레이할 수 있다. 도 13 에 도시된 바와 같이, 표시부 (1300) 에는 예시 텍스트 정보 (1310, 1320, 1330, 1340) 중 적어도 하나가 표시될 수 있다.
이후, 특정 사용자가 예시 텍스트 정보 (1310, 1320, 1330, 1340) 중 적어도 하나를 읽는 동안의 특정 사용자에 대한 영상인 읽기 영상을 획득할 수 있다 (단계 1520). 일 측면에 따르면, 예시 텍스트 정보 (1310) 에 대한 재생 버튼 (1311) 을 특정 사용자가 터치하는 것에 응답하여 영상 입력부 (110) 의 동작이 개시되어, 예시 텍스트 정보 (1310) 를 읽는 동안의 특정 사용자에 대한 영상 정보를 획득하고, 이를 읽기 영상으로서 저장할 수 있다. 이 때 특정 사용자는 반드시 소리 내어 예시 텍스트 (1310) 를 읽을 필요는 없다.
예시 텍스트 정보 (1310) 를 읽는 동안의 특정 사용자의 영상을 획득하였으므로, 이러한 읽기 영상에 포함된 제 2 입 모양 영상 정보 및 예시 텍스트 정보 (1310) 는 서로 대응되고, 제 2 입 모양 영상 정보 및 예시 텍스트 정보 (1310) 를 제 2 훈련 데이터 세트로서 저장 (단계 1530) 하는 것에 의해 제 2 훈련 데이터 세트가 생성될 수 있다. 예시 텍스트 정보 (1320, 1330, 1340) 에 대해서 순차적으로 데이터 처리를 수행할 수 있고, 이 때 각각 버튼 (1312, 1313, 1314) 가 사용될 수도 있다.
도 14 는 예시 텍스트 정보 기반 훈련 데이터 세트 생성의 제 2 실시예에 대한 개념도이다. 도 14 에 도시된 바와 같이, 본 발명의 일 실시예에 따른 사용자 영상을 기반으로 하는 정보 입력 장치 (100) 는 특정 사용자에 의해 사용되는 모바일 디바이스일 수 있으며, 표시부 (1400) 를 구비할 수 있다.
도 16 은 예시 텍스트 정보 기반 훈련 데이터 세트 생성의 제 2 실시예의 흐름도이다. 이하, 도 14 및 도 16 를 참조하여 본 발명의 예시 텍스트 정보 기반 훈련 데이터 세트 생성의 제 2 실시예에 대해서 보다 구체적으로 설명한다.
도 16 에 도시된 바와 같이, 본 발명의 일 측면에 따른 예시 텍스트 정보 기반 훈련 데이터 세트 생성 절차에 따르면, 먼저 복수의 예시 텍스트 정보를 디스플레이할 수 있다 (단계 1610). 예시 텍스트 정보는, 예를 들어 도 1 및 도 4 에 도시된 바와 같이, 본 발명의 일 실시예에 따른 사용자 영상을 기반으로 하는 정보 입력 장치 (100) 의 메모리 (150) 에 예시 텍스트 정보 (430) 로서 저장되어 있을 수 있고, 예시 텍스트 정보 (430) 는 제 1 예시 텍스트 (430-1) 내지 제 n 예시 텍스트 (430-n) 의 복수의 예시 텍스트 정보들을 포함할 수 있다. 예를 들어 사용자 영상을 기반으로 하는 정보 입력 장치 (100) 의 프로세서 (130) 는 위와 같은 복수의 텍스트 정보 (431-1 내지 431-n) 를 표시부 (140) 에 디스플레이할 수 있다. 도 14 에 도시된 바와 같이, 표시부 (1400) 에는 복수의 예시 텍스트 정보 (1410) 가 표시될 수 있다. 표시부 (1400) 에는 스크롤바 (1420) 가 표시되어 복수의 텍스트 정보들 중 현재 표시된 예시 텍스트 정보의 위치를 특정 사용자가 인지하도록 할 수도 있다.
이후, 특정 사용자가 표시된 복수의 예시 텍스트 정보들 (1410) 을 음독하는 동안 특정 사용자에 대한 영상인 읽기 영상 및 특정 사용자에 대한 음성인 읽기 음성을 획득할 수 있다 (단계 1620). 일 측면에 따르면, 사용자 영상을 기반으로 하는 정보 입력 장치 (100) 의 영상 입력부 (110) 를 이용하여 특정 사용자가 복수의 예시 텍스트 (1410) 를 음독하는 동안의 영상인 읽기 영상을 획득하고, 음성 입력부 (1420) 를 이용하여 특정 사용자가 복수의 예시 텍스트 (1420) 를 음독하는 동안의 음성인 읽기 음성을 획득할 수 있다.
이어서, 시간 정보를 기반으로, 읽기 영상의 적어도 일부인 제 3 입 모양 영상 정보와 읽기 음성의 적어도 일부인 제 3 음성 정보를 대응시킬 수 있다 (단계 1630). 앞서 설명한 영상 통화 데이터에 대한 세그먼트 분할의 절차들과 유사하게, 읽기 영상의 영상 데이터와 읽기 음성의 음성 데이터를 복수의 세그먼트로 분할하고, 제 3 입 모양 영상 정보는 복수의 영상 세그먼트들 중 어느 하나일 수 있으며, 제 3 음성 정보는, 복수의 음성 세그먼트들 중 어느 하나로서 시간 정보를 기반으로 제 3 입 모양 영상 정보와 매칭되는 세그먼트일 수 있다.
제 3 음성 정보를 텍스트 정보로 변환할 수 있다. 즉, 음성 인식 모델을 기반으로 제 3 음성 정보에 대응하는 텍스트 정보인 제 3 음성 인식 텍스트 정보를 획득할 수 있다 (단계 1640). 앞서 영상 통화 데이터의 처리에서와 유사하게, 음성 인식 모델은 임의의 공지된 모델이 사용될 수도 있다.
제 3 음성 정보에 대응하는 문자열을 포함하는 제 3 음성 인식 텍스트 정보가 결정되면, 복수의 예시 텍스트 정보들 중, 이러한 제 3 음성 인식 테스트 정보와 일치하는 텍스트 정보가 존재하는 지 여부를 판단한다. 동일성 판단의 대상이 되는 예시 텍스트 정보들은, 동일 문장에 대해서 상이한 길이로 세분화된 복수의 분할 예시 텍스트 정보들이 포함될 수 있다. 제 3 음성 인식 텍스트 정보가 복수의 예시 텍스트 정보들 중 어느 하나인 제 3 예시 텍스트 정보와 동일하다고 결정되면, 제 3 입 모양 영상 정보와 제 3 예시 텍스트 정보를 제 3 훈련 데이터 세트로서 저장할 수 있다 (단계 1650).
이와 같은 절차를 통해, 특정 사용자는 특정한 입 모양 정보와 예시 텍스트 정보를 매칭하지 않고 주어진 복수의 예시 텍스트 정보들을 읽는 것만으로도 훈련 데이터 세트를 생성할 수 있다. 또한, 음성 인식과 예시 텍스트 정보의 매칭과 같은 이중의 확인 절차를 거치게 되어, 보다 정확한 훈련 데이터 세트의 생성이 가능한 장점이 있다.
상술한 본 발명에 따른 방법은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현되는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체로는 컴퓨터 시스템에 의하여 해독될 수 있는 데이터가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래시 메모리, 광 데이터 저장장치 등이 있을 수 있다. 또한, 컴퓨터로 판독 가능한 기록매체는 컴퓨터 통신망으로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 읽을 수 있는 코드로서 저장되고 실행될 수 있다.
이상, 도면 및 실시예를 참조하여 설명하였지만, 본 발명의 보호범위가 상기 도면 또는 실시예에 의해 한정되는 것을 의미하지는 않으며 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
구체적으로, 설명된 특징들은 디지털 전자 회로, 또는 컴퓨터 하드웨어, 펌웨어, 또는 그들의 조합들 내에서 실행될 수 있다. 특징들은 예컨대, 프로그래밍 가능한 프로세서에 의한 실행을 위해, 기계 판독 가능한 저장 디바이스 내의 저장장치 내에서 구현되는 컴퓨터 프로그램 제품에서 실행될 수 있다. 그리고 특징들은 입력 데이터 상에서 동작하고 출력을 생성함으로써 설명된 실시예들의 함수들을 수행하기 위한 지시어들의 프로그램을 실행하는 프로그래밍 가능한 프로세서에 의해 수행될 수 있다. 설명된 특징들은, 데이터 저장 시스템으로부터 데이터 및 지시어들을 수신하기 위해, 및 데이터 저장 시스템으로 데이터 및 지시어들을 전송하기 위해 결합된 적어도 하나의 프로그래밍 가능한 프로세서, 적어도 하나의 입력 디바이스, 및 적어도 하나의 출력 디바이스를 포함하는 프로그래밍 가능한 시스템 상에서 실행될 수 있는 하나 이상의 컴퓨터 프로그램들 내에서 실행될 수 있다. 컴퓨터 프로그램은 소정 결과에 대해 특정 동작을 수행하기 위해 컴퓨터 내에서 직접 또는 간접적으로 사용될 수 있는 지시어들의 집합을 포함한다. 컴퓨터 프로그램은 컴파일된 또는 해석된 언어들을 포함하는 프로그래밍 언어 중 어느 형태로 쓰여지고, 모듈, 소자, 서브루틴(subroutine), 또는 다른 컴퓨터 환경에서 사용을 위해 적합한 다른 유닛으로서, 또는 독립 조작 가능한 프로그램으로서 포함하는 어느 형태로도 사용될 수 있다.
지시어들의 프로그램의 실행을 위한 적합한 프로세서들은, 예를 들어, 범용 및 특수 용도 마이크로프로세서들 둘 모두, 및 단독 프로세서 또는 다른 종류의 컴퓨터의 다중 프로세서들 중 하나를 포함한다. 또한 설명된 특징들을 구현하는 컴퓨터 프로그램 지시어들 및 데이터를 구현하기 적합한 저장 디바이스들은 예컨대, EPROM, EEPROM, 및 플래쉬 메모리 디바이스들과 같은 반도체 메모리 디바이스들, 내부 하드 디스크들 및 제거 가능한 디스크들과 같은 자기 디바이스들, 광자기 디스크들 및 CD-ROM 및 DVD-ROM 디스크들을 포함하는 비휘발성 메모리의 모든 형태들을 포함한다. 프로세서 및 메모리는 ASIC들(application-specific integrated circuits) 내에서 통합되거나 또는 ASIC들에 의해 추가되어질 수 있다.
이상에서 설명한 본 발명은 일련의 기능 블록들을 기초로 설명되고 있지만, 전술한 실시 예 및 첨부된 도면에 의해 한정되는 것이 아니고, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경 가능하다는 것이 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 명백할 것이다.
전술한 실시 예들의 조합은 전술한 실시 예에 한정되는 것이 아니며, 구현 및/또는 필요에 따라 전술한 실시예들 뿐 아니라 다양한 형태의 조합이 제공될 수 있다.
전술한 실시 예들에서, 방법들은 일련의 단계 또는 블록으로서 순서도를 기초로 설명되고 있으나, 본 발명은 단계들의 순서에 한정되는 것은 아니며, 어떤 단계는 상술한 바와 다른 단계와 다른 순서로 또는 동시에 발생할 수 있다. 또한, 당해 기술 분야에서 통상의 지식을 가진 자라면 순서도에 나타난 단계들이 배타적이지 않고, 다른 단계가 포함되거나, 순서도의 하나 또는 그 이상의 단계가 본 발명의 범위에 영향을 미치지 않고 삭제될 수 있음을 이해할 수 있을 것이다.
전술한 실시 예는 다양한 양태의 예시들을 포함한다. 다양한 양태들을 나타내기 위한 모든 가능한 조합을 기술할 수는 없지만, 해당 기술 분야의 통상의 지식을 가진 자는 다른 조합이 가능함을 인식할 수 있을 것이다. 따라서, 본 발명은 이하의 특허청구범위 내에 속하는 모든 다른 교체, 수정 및 변경을 포함한다고 할 것이다.

Claims (24)

  1. 프로세서 및 메모리를 포함하는 정보 입력 장치에 의해 수행되는, 사용자 영상을 기반으로 하는 정보 입력 방법으로서,
    특정 사용자에 대한 입 모양 영상 정보 및 상기 입 모양 영상 정보에 대응하는 텍스트 정보를 각각 포함하는 복수의 훈련 데이터 세트들을 생성하는 단계;
    상기 훈련 데이터 세트들을 기반으로, 입력된 입 모양 영상 정보에 대응하는 텍스트 정보를 출력하는 영상 인식 모델을 생성하는 단계; 및
    상기 영상 인식 모델을 기반으로 상기 특정 사용자에 대한 입력 영상에 대응하는 입력 텍스트 정보를 결정하는 단계를 포함하고,
    상기 훈련 데이터 세트들을 생성하는 단계는,
    상기 특정 사용자의 영상 통화 데이터 - 상기 영상 통화 데이터는 통화 영상 및 통화 음성을 포함 - 를 획득하는 단계;
    시간 정보를 기반으로 상기 통화 영상의 적어도 일부인 제 1 입 모양 영상 정보와 상기 통화 음성의 적어도 일부인 제 1 음성 정보를 대응시키는 단계;
    음성 인식 모델을 기반으로 상기 제 1 음성 정보에 대응하는 텍스트 정보인 제 1 음성 인식 텍스트 정보를 획득하는 단계; 및
    상기 제 1 입 모양 영상 정보와 상기 제 1 음성 인식 텍스트 정보를 제 1 훈련 데이터 세트로서 저장하는 단계를 포함하고,
    상기 제 1 입 모양 영상 정보 및 상기 제 1 음성 정보는 제 1 시점으로부터 제 2 시점까지의 시간 길이를 가지고,
    상기 제 1 시점은 상기 통화 음성이 미리 결정된 임계 크기 이하인 시점을 나타내고, 상기 제 2 시점은 상기 제 1 시점에 후속하는, 상기 통화 음성이 미리 결정된 임계 크기 이하인 시점을 나타내는, 사용자 영상을 기반으로 하는 정보 입력 방법.
  2. 제 1 항에 있어서,
    상기 입력 텍스트 정보를 결정하는 단계는,
    영상 입력부에 의해 취득된 상기 특정 사용자에 대한 입력 영상을 수신하는 단계; 및
    상기 영상 인식 모델을 기반으로, 상기 입력 영상에 포함된 입 모양 영상 정보에 대응하는 텍스트 정보를 상기 입력 텍스트 정보로서 결정하는 단계를 포함하는, 사용자 영상을 기반으로 하는 정보 입력 방법.
  3. 제 1 항에 있어서,
    상기 훈련 데이터 세트들은, i) 상기 특정 사용자의 영상 통화 데이터에 포함된 입 모양 영상 정보 및 ii) 상기 입 모양 영상 정보에 대응하는 음성에 대한 음성 인식 결과인 음성 인식 텍스트 정보를 포함하는, 사용자 영상을 기반으로 하는 정보 입력 방법.
  4. 삭제
  5. 제 1 항에 있어서,
    상기 제 1 입 모양 영상 정보 및 상기 제 1 음성 정보의 시간 길이는 미리 결정된 시간 길이로서 결정되는, 사용자 영상을 기반으로 하는 정보 입력 방법.
  6. 삭제
  7. 제 1 항에 있어서,
    상기 제 1 입 모양 영상 정보 및 상기 제 1 음성 정보는 제 1 시점으로부터 제 2 시점까지의 시간 길이를 가지고,
    상기 제 1 시점은 상기 통화 영상에 포함된 상기 특정 사용자의 입 모양 영상 정보가 미리 결정된 제 1 트리거링 입 모양 정보와 일치하는 시점을 나타내고,
    상기 제 2 시점은 상기 제 1 시점에 후속하는, 상기 특정 사용자의 입 모양 영상 정보가 미리 결정된 제 1 트리거링 입 모양 정보와 일치하는 시점을 나타내는, 사용자 영상을 기반으로 하는 정보 입력 방법.
  8. 제 1 항에 있어서,
    상기 제 1 입 모양 영상 정보 및 상기 제 1 음성 정보는 제 1 시점으로부터 제 2 시점까지의 시간 길이를 가지고,
    상기 제 1 시점은 상기 통화 영상에 포함된 상기 특정 사용자의 입 모양 영상 정보가 미리 결정된 제 1 트리거링 입 모양 정보와 일치하는 시점을 나타내고,
    상기 제 2 시점은 상기 통화 영상에 포함된 상기 특정 사용자의 입 모양 영상 정보가 미리 결정된 제 2 트리거링 입 모양 정보와 일치하는 시점을 나타내는, 사용자 영상을 기반으로 하는 정보 입력 방법.
  9. 제 1 항에 있어서,
    상기 훈련 데이터 세트들은, i) 예시 텍스트 정보 및 ii) 상기 특정 사용자가 상기 예시 텍스트 정보를 읽은 입 모양 영상 정보를 포함하는, 사용자 영상을 기반으로 하는 정보 입력 방법.
  10. 제 1 항에 있어서,
    상기 훈련 데이터 세트들을 생성하는 단계는,
    예시 텍스트 정보를 디스플레이하는 단계;
    상기 특정 사용자가 상기 예시 텍스트 정보를 읽는 동안의 상기 특정 사용자에 대한 영상인 읽기 영상을 획득하는 단계; 및
    상기 읽기 영상에 포함된 제 2 입 모양 영상 정보 및 상기 예시 텍스트 정보를 제 2 훈련 데이터 세트로서 저장하는 단계를 포함하는, 사용자 영상을 기반으로 하는 정보 입력 방법.
  11. 제 1 항에 있어서,
    상기 훈련 데이터 세트들을 생성하는 단계는,
    복수의 예시 텍스트 정보들을 디스플레이하는 단계;
    상기 특정 사용자가 상기 예시 텍스트 정보들을 음독하는 동안 상기 특정 사용자에 대한 영상인 읽기 영상 및 상기 특정 사용자에 대한 음성인 읽기 음성을 획득하는 단계;
    시간 정보를 기반으로 상기 읽기 영상의 적어도 일부인 제 3 입 모양 영상 정보와 상기 읽기 음성의 적어도 일부인 제 3 음성 정보를 대응시키는 단계;
    음성 인식 모델을 기반으로 상기 제 3 음성 정보에 대응하는 텍스트 정보인 제 3 음성 인식 텍스트 정보를 획득하는 단계;
    상기 제 3 음성 인식 테스트 정보와 상기 복수의 예시 텍스트 정보들 중 어느 하나인 제 3 예시 텍스트 정보와 동일하다는 결정에 응답하여, 상기 제 3 입 모양 영상 정보와 상기 제 3 예시 텍스트 정보를 제 3 훈련 데이터 세트로서 저장하는 단계를 포함하는, 사용자 영상을 기반으로 하는 정보 입력 방법.
  12. 사용자 영상을 기반으로 하는 정보 입력 장치로서,
    영상 정보를 획득하는 영상 입력부;
    음성 정보를 획득하는 음성 입력부;
    영상 정보, 음성 정보 및 텍스트 정보를 저장하는 메모리; 및
    프로세서를 포함하고,
    상기 프로세서는,
    특정 사용자에 대한 입 모양 영상 정보 및 상기 입 모양 영상 정보에 대응하는 텍스트 정보를 각각 포함하는 복수의 훈련 데이터 세트들을 생성하고,
    상기 훈련 데이터 세트들을 기반으로, 입력된 입 모양 영상 정보에 대응하는 텍스트 정보를 출력하는 영상 인식 모델을 생성하고; 그리고
    상기 영상 인식 모델을 기반으로 상기 특정 사용자에 대한 입력 영상에 대응하는 입력 텍스트 정보를 결정하도록 구성되고,
    상기 훈련 데이터 세트들을 생성하는 것은, 상기 프로세서가,
    상기 특정 사용자의 영상 통화 데이터 - 상기 영상 통화 데이터는 통화 영상 및 통화 음성을 포함 - 를 획득하고;
    시간 정보를 기반으로 상기 통화 영상의 적어도 일부인 제 1 입 모양 영상 정보와 상기 통화 음성의 적어도 일부인 제 1 음성 정보를 대응시키고;
    음성 인식 모델을 기반으로 상기 제 1 음성 정보에 대응하는 텍스트 정보인 제 1 음성 인식 텍스트 정보를 획득하고; 그리고
    상기 제 1 입 모양 영상 정보와 상기 제 1 음성 인식 텍스트 정보를 제 1 훈련 데이터 세트로서 상기 메모리에 저장하는 것을 포함하고,
    상기 제 1 입 모양 영상 정보 및 상기 제 1 음성 정보는 제 1 시점으로부터 제 2 시점까지의 시간 길이를 가지고,
    상기 제 1 시점은 상기 통화 음성이 미리 결정된 임계 크기 이하인 시점을 나타내고, 상기 제 2 시점은 상기 제 1 시점에 후속하는, 상기 통화 음성이 미리 결정된 임계 크기 이하인 시점을 나타내는, 사용자 영상을 기반으로 하는 정보 입력 장치.
  13. 제 12 항에 있어서,
    상기 입력 텍스트 정보를 결정하는 것은, 상기 프로세서가,
    상기 영상 입력부에 의해 취득된 상기 특정 사용자에 대한 입력 영상을 수신하고; 그리고
    상기 영상 인식 모델을 기반으로, 상기 입력 영상에 포함된 입 모양 영상 정보에 대응하는 텍스트 정보를 상기 입력 텍스트 정보로서 결정하는 것을 포함하는, 사용자 영상을 기반으로 하는 정보 입력 장치.
  14. 제 12 항에 있어서,
    상기 훈련 데이터 세트들은, i) 상기 특정 사용자의 영상 통화 데이터에 포함된 입 모양 영상 정보 및 ii) 상기 입 모양 영상 정보에 대응하는 음성에 대한 음성 인식 결과인 음성 인식 텍스트 정보를 포함하는, 사용자 영상을 기반으로 하는 정보 입력 장치.
  15. 삭제
  16. 제 12 항에 있어서,
    상기 제 1 입 모양 영상 정보 및 상기 제 1 음성 정보의 시간 길이는 미리 결정된 시간 길이를 가지는, 사용자 영상을 기반으로 하는 정보 입력 장치.
  17. 삭제
  18. 제 12 항에 있어서,
    상기 제 1 입 모양 영상 정보 및 상기 제 1 음성 정보는 제 1 시점으로부터 제 2 시점까지의 시간 길이를 가지고,
    상기 제 1 시점은 상기 통화 영상에 포함된 상기 특정 사용자의 입 모양 영상 정보가 미리 결정된 제 1 트리거링 입 모양 정보와 일치하는 시점을 나타내고,
    상기 제 2 시점은 상기 제 1 시점에 후속하는, 상기 특정 사용자의 입 모양 영상 정보가 미리 결정된 제 1 트리거링 입 모양 정보와 일치하는 시점을 나타내는, 사용자 영상을 기반으로 하는 정보 입력 장치.
  19. 제 12 항에 있어서,
    상기 제 1 입 모양 영상 정보 및 상기 제 1 음성 정보는 제 1 시점으로부터 제 2 시점까지의 시간 길이를 가지고,
    상기 제 1 시점은 상기 통화 영상에 포함된 상기 특정 사용자의 입 모양 영상 정보가 미리 결정된 제 1 트리거링 입 모양 정보와 일치하는 시점을 나타내고,
    상기 제 2 시점은 상기 통화 영상에 포함된 상기 특정 사용자의 입 모양 영상 정보가 미리 결정된 제 2 트리거링 입 모양 정보와 일치하는 시점을 나타내는, 사용자 영상을 기반으로 하는 정보 입력 장치.
  20. 제 12 항에 있어서,
    상기 훈련 데이터 세트들은, i) 예시 텍스트 정보 및 ii) 상기 특정 사용자가 상기 예시 텍스트 정보를 읽은 입 모양 영상 정보를 포함하는, 사용자 영상을 기반으로 하는 정보 입력 장치.
  21. 제 12 항에 있어서,
    상기 훈련 데이터 세트들을 생성하는 것은, 상기 프로세서가,
    상기 사용자 영상을 기반으로 하는 정보 입력 장치에 포함된 표시부에 예시 텍스트 정보를 디스플레이하고;
    상기 영상 입력부를 이용하여, 상기 특정 사용자가 상기 예시 텍스트 정보를 읽는 동안의 상기 특정 사용자에 대한 영상인 읽기 영상을 획득하고; 그리고
    상기 읽기 영상에 포함된 제 2 입 모양 영상 정보 및 상기 예시 텍스트 정보를 제 2 훈련 데이터 세트로서 상기 메모리에 저장하는 것을 포함하는, 사용자 영상을 기반으로 하는 정보 입력 장치.
  22. 제 12 항에 있어서,
    상기 훈련 데이터 세트들을 생성하는 것은, 상기 프로세서가,
    상기 사용자 영상을 기반으로 하는 정보 입력 장치에 포함된 표시부에 복수의 예시 텍스트 정보들을 디스플레이하고;
    상기 영상 입력부 및 음성 입력부를 이용하여, 상기 특정 사용자가 상기 예시 텍스트 정보들을 음독하는 동안 상기 특정 사용자에 대한 영상인 읽기 영상 및 상기 특정 사용자에 대한 음성인 읽기 음성을 획득하고;
    시간 정보를 기반으로 상기 읽기 영상의 적어도 일부인 제 3 입 모양 영상 정보와 상기 읽기 음성의 적어도 일부인 제 3 음성 정보를 대응시키고;
    음성 인식 모델을 기반으로 상기 제 3 음성 정보에 대응하는 텍스트 정보인 제 3 음성 인식 텍스트 정보를 획득하고;
    상기 제 3 음성 인식 테스트 정보와 상기 복수의 예시 텍스트 정보들 중 어느 하나인 제 3 예시 텍스트 정보를 대응시키고; 그리고
    상기 제 3 음성 인식 테스트 정보와 상기 복수의 예시 텍스트 정보들 중 어느 하나인 제 3 예시 텍스트 정보와 동일하다는 결정에 응답하여, 상기 제 3 입 모양 영상 정보와 상기 제 3 예시 텍스트 정보를 제 3 훈련 데이터 세트로서 상기 메모리에 저장하는 것를 포함하는, 사용자 영상을 기반으로 하는 정보 입력 장치.
  23. 사용자 영상을 기반으로 하는 정보 입력 시스템으로서,
    특정 사용자에 대한 입 모양 영상 정보 및 상기 입 모양 영상 정보에 대응하는 텍스트 정보를 각각 포함하는 복수의 훈련 데이터 세트들을 획득하고, 상기 훈련 데이터 세트들을 기반으로, 입력된 입 모양 영상 정보에 대응하는 텍스트 정보를 출력하는 영상 인식 모델을 생성하도록 구성된, 서버; 및
    상기 특정 사용자에 대한 영상 정보 및 음성 정보 중 적어도 하나를 취득하도록 구성되고, 상기 영상 인식 모델을 기반으로 상기 특정 사용자에 대한 입력 영상에 대응하는 입력 텍스트 정보를 결정하도록 구성된, 단말기를 포함하고,
    상기 훈련 데이터 세트들을 획득하는 것은,
    상기 특정 사용자의 영상 통화 데이터 - 상기 영상 통화 데이터는 통화 영상 및 통화 음성을 포함 - 를 획득하는 것;
    시간 정보를 기반으로 상기 통화 영상의 적어도 일부인 제 1 입 모양 영상 정보와 상기 통화 음성의 적어도 일부인 제 1 음성 정보를 대응시키는 것;
    음성 인식 모델을 기반으로 상기 제 1 음성 정보에 대응하는 텍스트 정보인 제 1 음성 인식 텍스트 정보를 획득하는 것; 및
    상기 제 1 입 모양 영상 정보와 상기 제 1 음성 인식 텍스트 정보를 제 1 훈련 데이터 세트로서 저장하는 것을 포함하고,
    상기 제 1 입 모양 영상 정보 및 상기 제 1 음성 정보는 제 1 시점으로부터 제 2 시점까지의 시간 길이를 가지고,
    상기 제 1 시점은 상기 통화 음성이 미리 결정된 임계 크기 이하인 시점을 나타내고, 상기 제 2 시점은 상기 제 1 시점에 후속하는, 상기 통화 음성이 미리 결정된 임계 크기 이하인 시점을 나타내는, 사용자 영상을 기반으로 하는 정보 입력 시스템.
  24. 프로세서에 의해 실행 가능한 명령어들을 포함하는, 컴퓨터 판독 가능한 저장 매체로서, 상기 명령어들은 상기 프로세서에 의해 실행되었을 때,
    특정 사용자에 대한 입 모양 영상 정보 및 상기 입 모양 영상 정보에 대응하는 텍스트 정보를 각각 포함하는 복수의 훈련 데이터 세트들을 생성하고;
    상기 훈련 데이터 세트들을 기반으로, 입력된 입 모양 영상 정보에 대응하는 텍스트 정보를 출력하는 영상 인식 모델을 생성하고; 그리고
    상기 영상 인식 모델을 기반으로 상기 특정 사용자에 대한 입력 영상에 대응하는 입력 텍스트 정보를 결정하도록 구성되고,
    상기 훈련 데이터 세트들을 생성하는 것은, 상기 프로세서가,
    상기 특정 사용자의 영상 통화 데이터 - 상기 영상 통화 데이터는 통화 영상 및 통화 음성을 포함 - 를 획득하고;
    시간 정보를 기반으로 상기 통화 영상의 적어도 일부인 제 1 입 모양 영상 정보와 상기 통화 음성의 적어도 일부인 제 1 음성 정보를 대응시키고;
    음성 인식 모델을 기반으로 상기 제 1 음성 정보에 대응하는 텍스트 정보인 제 1 음성 인식 텍스트 정보를 획득하고; 그리고
    상기 제 1 입 모양 영상 정보와 상기 제 1 음성 인식 텍스트 정보를 제 1 훈련 데이터 세트로서 메모리에 저장하는 것을 포함하고,
    상기 제 1 입 모양 영상 정보 및 상기 제 1 음성 정보는 제 1 시점으로부터 제 2 시점까지의 시간 길이를 가지고,
    상기 제 1 시점은 상기 통화 음성이 미리 결정된 임계 크기 이하인 시점을 나타내고, 상기 제 2 시점은 상기 제 1 시점에 후속하는, 상기 통화 음성이 미리 결정된 임계 크기 이하인 시점을 나타내는, 컴퓨터 판독 가능한 저장 매체.
KR1020180058183A 2018-05-23 2018-05-23 사용자 영상을 기반으로 하는 정보 입력 장치, 방법, 시스템 및 컴퓨터 판독 가능한 저장 매체 KR102114368B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180058183A KR102114368B1 (ko) 2018-05-23 2018-05-23 사용자 영상을 기반으로 하는 정보 입력 장치, 방법, 시스템 및 컴퓨터 판독 가능한 저장 매체

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180058183A KR102114368B1 (ko) 2018-05-23 2018-05-23 사용자 영상을 기반으로 하는 정보 입력 장치, 방법, 시스템 및 컴퓨터 판독 가능한 저장 매체

Publications (2)

Publication Number Publication Date
KR20190133361A KR20190133361A (ko) 2019-12-03
KR102114368B1 true KR102114368B1 (ko) 2020-05-22

Family

ID=68837838

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180058183A KR102114368B1 (ko) 2018-05-23 2018-05-23 사용자 영상을 기반으로 하는 정보 입력 장치, 방법, 시스템 및 컴퓨터 판독 가능한 저장 매체

Country Status (1)

Country Link
KR (1) KR102114368B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240052543A (ko) * 2022-10-14 2024-04-23 (주)재능이아카데미 학습 지도 장치, 원격으로 학습자의 학습 상황을 모니터링하는 방법 및 컴퓨터 프로그램

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100868638B1 (ko) * 2007-08-07 2008-11-12 에스케이 텔레콤주식회사 영상 통화 말풍선 제공 시스템 및 방법
JP2009169464A (ja) * 2008-01-10 2009-07-30 Tottori Univ 文字入力方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100336994B1 (ko) 1999-07-23 2002-05-17 이계철 다단계 음성인식을 이용한 음성인식 포탈서비스 시스템 및 그 방법
KR101092820B1 (ko) * 2009-09-22 2011-12-12 현대자동차주식회사 립리딩과 음성 인식 통합 멀티모달 인터페이스 시스템

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100868638B1 (ko) * 2007-08-07 2008-11-12 에스케이 텔레콤주식회사 영상 통화 말풍선 제공 시스템 및 방법
JP2009169464A (ja) * 2008-01-10 2009-07-30 Tottori Univ 文字入力方法

Also Published As

Publication number Publication date
KR20190133361A (ko) 2019-12-03

Similar Documents

Publication Publication Date Title
US11164568B2 (en) Speech recognition method and apparatus, and storage medium
CN111324743A (zh) 文本关系抽取的方法、装置、计算机设备及存储介质
US11037553B2 (en) Learning-type interactive device
US20210312905A1 (en) Pre-Training With Alignments For Recurrent Neural Network Transducer Based End-To-End Speech Recognition
US9558741B2 (en) Systems and methods for speech recognition
CN109753653B (zh) 实体名称识别方法、装置、计算机设备和存储介质
US20150179173A1 (en) Communication support apparatus, communication support method, and computer program product
Davel et al. Pronunciation prediction with default&refine
TW201203222A (en) Voice stream augmented note taking
JP6866715B2 (ja) 情報処理装置、感情認識方法、及び、プログラム
US20160055763A1 (en) Electronic apparatus, pronunciation learning support method, and program storage medium
JP2005150841A (ja) 情報処理方法及び情報処理装置
KR20180121831A (ko) 흥미 판정 장치, 흥미 판정 방법, 및 기억 매체
US20230082830A1 (en) Method and apparatus for driving digital human, and electronic device
CN112735371A (zh) 一种基于文本信息生成说话人视频的方法及装置
CN111916054A (zh) 基于唇形的语音生成方法、装置和系统及存储介质
US11893813B2 (en) Electronic device and control method therefor
KR102114368B1 (ko) 사용자 영상을 기반으로 하는 정보 입력 장치, 방법, 시스템 및 컴퓨터 판독 가능한 저장 매체
CN111785299B (zh) 一种语音测评方法、装置、设备及计算机存储介质
Bharti et al. Automated speech to sign language conversion using Google API and NLP
JP6664466B2 (ja) 処理実行装置、処理実行装置の制御方法、および制御プログラム
KR20160138613A (ko) 이모티콘을 이용한 자동통역 방법 및 이를 이용한 장치
JP6674876B2 (ja) 補正装置、補正方法及び補正プログラム
CN114267324A (zh) 语音生成方法、装置、设备和存储介质
Chimthankar Speech Emotion Recognition using Deep Learning

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant