KR102540177B1 - 화자 간 중첩되는 음성을 분리하여 대화록 서비스를 제공하는 방법 - Google Patents
화자 간 중첩되는 음성을 분리하여 대화록 서비스를 제공하는 방법 Download PDFInfo
- Publication number
- KR102540177B1 KR102540177B1 KR1020210009389A KR20210009389A KR102540177B1 KR 102540177 B1 KR102540177 B1 KR 102540177B1 KR 1020210009389 A KR1020210009389 A KR 1020210009389A KR 20210009389 A KR20210009389 A KR 20210009389A KR 102540177 B1 KR102540177 B1 KR 102540177B1
- Authority
- KR
- South Korea
- Prior art keywords
- voice data
- data
- voice
- sub
- voice recognition
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 40
- 238000004590 computer program Methods 0.000 claims abstract description 8
- 238000007781 pre-processing Methods 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 8
- 230000001788 irregular Effects 0.000 claims description 2
- 238000010801 machine learning Methods 0.000 claims description 2
- 238000004891 communication Methods 0.000 description 14
- 238000005516 engineering process Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 10
- 230000003287 optical effect Effects 0.000 description 9
- 238000012986 modification Methods 0.000 description 8
- 230000004048 modification Effects 0.000 description 8
- 230000004044 response Effects 0.000 description 8
- 238000004458 analytical method Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 238000013461 design Methods 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000003058 natural language processing Methods 0.000 description 3
- 230000006855 networking Effects 0.000 description 3
- 230000009977 dual effect Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000005055 memory storage Effects 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000013439 planning Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000009223 counseling Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
- 238000012384 transportation and delivery Methods 0.000 description 1
- 230000003442 weekly effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/166—Editing, e.g. inserting or deleting
-
- G06Q50/30—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/50—Business processes related to the communications industry
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L21/0232—Processing in the frequency domain
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- General Health & Medical Sciences (AREA)
- Tourism & Hospitality (AREA)
- General Engineering & Computer Science (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Economics (AREA)
- Operations Research (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Telephonic Communication Services (AREA)
Abstract
전술한 과제를 해결하기 위한 본 개시의 일 실시예에서, 하나 이상의 프로세서들에 의해 실행 가능한 컴퓨턴 판독가능 저장 매체에 저장된 컴퓨터 프로그램으로서, 상기 컴퓨터 프로그램은 상기 하나 이상의 프로세서로 하여금 이하의 동작들을 수행하도록 하며, 상기 동작들은: 하나 이상의 사용자 단말 각각으로부터 하나 이상의 음성 데이터―상기 음성 데이터는 각각의 사용자에 대한 하나 이상의 발화를 포함함―를 수신하는 동작, 상기 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성하는 동작 및 상기 대화록을 포함하는 사용자 인터페이스를 생성하여 상기 하나 이상의 사용자 단말로 제공하는 동작을 포함할 수 있다.
Description
본 개시는 대화록 서비스를 제공하는 컴퓨팅 장치에 관한 발명으로, 보다 구체적으로, 복수의 사용자간 대화 내용을 포함하는 음성 파일에 기초하여 대화록 서비스를 제공하는 컴퓨팅 장치에 관한 것이다.
오늘날, 직장인들은 회사 내/외부 임직원과 빈번하게 회의를 진행한다. 회의 과정에서 회의 내용에 대한 회의록을 작성하는 것은 조직과 개인의 업무 효율면에서 많은 도움이 된다. 다만, 회의 진행 중 회의록을 작성하기 위해서는 별도의 속기사를 필요로 하므로, 추가적인 비용이 발생할 수 있으며, 속기사의 역량에 따라 회의록의 질이 달라질 수 있다.
한편, 최근 들어 알파고 등과 같은 이슈에 따라 인공지능에 대한 시장 수요가 증가하고 있으며, 컴퓨터 기술의 발전으로 처리할 수 있는 정보량이 늘어남에 따라 인공지능이 빠른 속도로 진화하고 있다. 또한, 인공지능이 빠른 속도로 진화함에 따라 인공 신경망을 활용한 음성 인식의 정확도가 높아지고 있다.
이에 따라, 대한민국 공개특허 제10-2008-0037402호(2008.04.30)에서는 단일 채널로 입력되는 음성파일에 대하여 주파수 대역을 기준으로 복수의 화자를 분리하는 알고리즘은 통해 화자를 분리하여 텍스트화 함으로써, 자동으로 회의록을 작성하는 시스템을 개시하고 있다.
다만, 종래 기술은 단일 채널로 입력되는 음성파일을 주파수 대역을 통해 화자를 분리하는 과정에서 말소리가 겹치거나, 외부 환경에 따라 발생하는 잡음 등으로 인해 정확한 화자분리가 이뤄지지 않을 수 있다. 즉, 종래 기술은 복수의 화자에 대응하는 텍스트 파일이 부정확할 수 있어, 시스템을 이용하는 복수의 사용자에게 잘못된 정보를 제공할 우려가 있다.
본 개시는 전술한 배경 기술에 대응하여 안출된 것으로, 복수의 사용자간 대화 내용을 포함하는 음성파일에 기초하여 대화록 서비스를 제공하는 컴퓨팅 장치를 제공하기 위한 것이다.
전술한 과제를 해결하기 위한 본 개시의 일 실시예에, 하나 이상의 프로세서들에 의해 실행 가능한 컴퓨터 판독가능 매체에 저장된 컴퓨터 프로그램이 개시된다. 상기 컴퓨터 프로그램은 상기 하나 이상의 프로세서들로 하여금 이하의 동작들을 수행하도록 하며, 상기 동작들은: 하나 이상의 사용자 단말 각각으로부터 하나 이상의 음성 데이터―상기 음성 데이터는 각각의 사용자에 대한 하나 이상의 발화를 포함함―를 수신하는 동작, 상기 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성하는 동작 및 상기 대화록을 포함하는 사용자 인터페이스를 생성하여 상기 하나 이상의 사용자 단말로 제공하는 동작을 포함할 수 있다.
대안적으로, 상기 하나 이상의 음성 데이터 각각에 포함된 신호의 크기를 사전 결정된 기준 신호의 크기와의 비교에 기초하여 상기 하나 이상의 음성 데이터 각각에 포함된 신호의 크기를 표준화하는 동작 및 상기 하나 이상의 음성 데이터 각각에 포함된 주파수를 분석하여 적어도 하나의 특정 주파수를 제거하는 동작을 더 포함할 수 있다.
대안적으로, 상기 음성 데이터에 포함된 하나 이상의 묵음 구간에 기초하여 하나 이상의 발화 구간을 식별하는 동작 및 상기 음성 데이터에 포함된 하나 이상의 발화 구간에서의 발화 음성의 크기에 기초하여 화자를 분리하는 동작을 더 포함할 수 있다.
대안적으로, 상기 하나 이상의 음성 데이터 각각에 포함된 하나 이상의 발화 구간 에서의 발화 크기에 기초하여 화자를 분리하는 동작은, 상기 음성 데이터에 포함된 하나 이상의 발화 중 사전 결정된 크기 이상의 발화 음성의 크기를 가지는 발화를 상기 음성 데이터에 대응하는 특정 화자로 결정하는 동작, 상기 음성 데이터에서 상기 결정된 특정 화자의 음성을 제외한 다른 음성을 제거하는 동작 및 상기 특정 화자를 상기 음성 데이터를 전송한 사용자 단말의 식별 정보와 매칭하여 저장하는 동작을 포함할 수 있다.
대안적으로, 상기 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성하는 동작은, 상기 음성 데이터를 발화 구간에 기초하여 하나 이상의 음성 데이터 서브 데이터로 분할하는 동작, 상기 하나 이상의 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 식별하는 동작, 상기 하나 이상의 음성 데이터 서브 데이터 각각을 상기 음성 인식 모델의 입력으로 하여 상기 하나 이상의 음성 데이터 서브 데이터 각각에 대응하는 하나 이상의 음성 인식 서브 결과를 출력하는 동작 및 상기 하나 이상의 음성 인식 서브 결과의 기초가 된 각각의 음성 데이터 서브 데이터에서 식별된 시작 시점 및 종료 시점에 기초하여 상기 하나 이상의 음성 인식 서브 결과 각각의 상기 대화록 상에서의 순서를 결정하는 동작을 포함할 수 있다.
대안적으로, 상기 하나 이상의 음성 데이터는 각각의 사용자 단말로부터 수신된 제 1 음성 데이터 및 제 2 음성 데이터를 포함하며, 상기 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성하는 동작은, 상기 제 1 음성 데이터를 발화 구간에 기초하여 하나 이상의 제 1 음성 데이터 서브 데이터로 분할하고, 그리고 상기 제 2 음성 데이터를 발화 구간에 기초하여 하나 이상의 제 2 음성 데이터 서브 데이터로 분할하는 동작, 상기 제 1 음성 데이터 서브 데이터 및 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 식별하는 동작, 상기 제 1 음성 데이터 서브 데이터 및 상기 제 2 음성 데이터 서브 데이터를 상기 음성 인식 모델의 입력으로 하여 각각의 서브 데이터 각각에 대응하는 하나 이상의 제 1 음성 인식 서브 결과 및 하나 이상의 제 2 음성 인식 서브 결과를 출력하는 동작, 상기 하나 이상의 제 1 음성 인식 서브 결과 및 상기 하나 이상의 제 2 음성 인식 서브 결과의 기초가 된 각각의 음성 데이터 서브 데이터에서 식별된 시작 시점 및 종료 시점에 기초하여 상기 하나 이상의 제 1 음성 인식 서브 결과 및 상기 하나 이상의 제 2 음성 인식 서브 결과 각각의 상기 대화록 상에서의 순서를 결정하는 동작 및 상기 결정된 순서 및 상기 하나 이상의 사용자 단말 각각의 식별 정보에 기초하여 대화록을 생성하는 동작을 포함할 수 있다.
대안적으로, 상기 제 1 음성 데이터 서브 데이터 및 상기 제 2 음성 데이터 서브 데이터를 상기 음성 인식 모델의 입력으로 하여 각각의 서브 데이터에 대응하는 하나 이상의 제 1 음성 인식 서브 결과 및 제 2 음성 인식 서브 결과를 출력하는 동작은, 상기 제 1 음성 데이터 서브 데이터 및 상기 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점에 기초하여 중첩 구간을 식별하는 동작, 상기 중첩 구간이 식별된 경우, 상기 중첩 구간에 대응하는 제 1 음성 인식 서브 결과 및 상기 제 2 음성 인식 서브 결과 중 적어도 하나에 대한 분할 여부를 결정하는 동작 및 상기 분할이 결정된 경우, 상기 중첩 구간에 대응하는 음성 인식 서브 결과를 분할하는 동작을 포함할 수 있다.
대안적으로, 상기 중첩 구간이 식별된 경우, 상기 중첩 구간에 대응하는 제 1 음성 인식 서브 결과 및 상기 제 2 음성 인식 서브 결과 중 적어도 하나에 대한 분할 여부를 결정하는 동작은, 상기 중첩 구간에 대응하는 음성 인식 결과에 대하여 통계적 언어 모델을 통해 상기 음성 인식 결과의 분할 여부를 결정하는 동작을 포함할 수 있다.
대안적으로, 상기 하나 이상의 음성 인식 결과의 의미 분석 결과, 상기 하나 이상의 음성 인식 결과에 포함된 단어 별 반복 횟수 및 사전 결정된 대화 주제 중 적어도 하나에 기초하여 상기 대화록에 대한 하나 이상의 키워드를 결정하는 동작 및 상기 하나 이상의 음성 인식 결과에서 상기 하나 이상의 키워드 각각의 위치를 식별하는 동작을 더 포함할 수 있다.
대안적으로, 상기 사용자 인터페이스는, 사용자의 프로필, 상기 사용자가 등록한 하나 이상의 다른 사용자 목록, 상기 사용자가 추가 사용자를 등록하기 위한 등록 요청 버튼 및 상기 하나 이상의 다른 사용자 각각에 대한 접속 여부를 표시하는 사용자 목록 표시 화면을 포함하고, 그리고 상기 사용자가 참여한 하나 이상의 대화 각각의 명칭에 대한 정보, 상기 하나 이상의 대화 중 특정 대화를 검색하기 위한 대화 검색 버튼 및 하나 이상의 다른 사용자와 대화방을 개설하기 위한 대화방 개설 버튼을 표시하는 대화 목록 표시 화면을 포함할 수 있다.
대안적으로, 상기 프로세서는, 사용자 단말로부터 상기 대화방 개설 버튼에 대한 선택 입력을 수신하는 경우, 상기 하나 이상의 다른 사용자를 대화방에 포함시키기 위한 사용자 선택 입력 화면을 제공하도록 하는 제어 신호를 상기 사용자 단말로 전송할 것을 결정하는 동작을 더 포함할 수 있다.
대안적으로, 상기 프로세서는, 사용자 단말로부터 상기 사용자가 참여한 하나 이상의 대화방 목록 중 특정 대화방에 대한 선택 입력을 수신하는 경우, 상기 특정 대화방에 대응하는 대화록 및 하나 이상의 키워드를 포함하는 대화록 표시 화면을 제공하도록 하는 제어 신호를 상기 사용자 단말로 전송할 것을 결정하는 동작을 더 포함할 수 있다.
대안적으로, 상기 프로세서는, 상기 사용자 단말로부터 상기 하나 이상의 키워드 중 특정 키워드에 대한 선택 입력을 수신하는 경우, 해당 키워드에 대응하는 음성 인식 결과를 검색하고, 그리고 상기 검색된 음성 인식 결과의 생성에 기초한 음성 데이터의 발화 구간을 재생하기 위한 키워드 재생 화면을 제공하도록 하는 제어 신호를 상기 사용자 단말로 전송할 것을 결정하는 동작을 더 포함할 수 있다.
대안적으로, 상기 사용자 인터페이스는, 새로운 대화방이 개설된 경우, 상기 대화방에 포함된 하나 이상의 사용자 각각으로부터 음성 데이터를 수신하기 위한 녹음 시작 버튼 및 상기 대화방에 포함된 하나 이상의 사용자 각각으로부터 수신한 하나 이상의 음성 데이터에 기초하여 생성된 하나 이상의 음성 인식 결과를 표시하는 대화록 표시 화면을 포함할 수 있다.
대안적으로, 상기 사용자 인터페이스는, 사용자 단말로부터 상기 대화록에 포함된 하나 이상의 음성 인식 결과에 대한 수정 요청을 입력 받는 텍스트 편집 화면을 포함하고, 그리고 상기 프로세서는, 상기 사용자 단말로부터 상기 텍스트 편집 화면을 통해 상기 대화록에 포함된 하나 이상의 음성 인식 결과에 대한 수정 요청을 수신하는 경우, 상기 음성 인식 모델이 상기 수정 요청에 대응하는 음성 인식 결과를 출력하도록 상기 음성 인식 모델을 보정하는 동작을 더 포함할 수 있다.
본 개시의 다른 실시예에서 대화록 서비스를 제공하는 방법이 개시된다. 상기 방법은, 하나 이상의 사용자 단말 각각으로부터 하나 이상의 음성 데이터―상기 음성 데이터는 각각의 사용자에 대한 하나 이상의 발화를 포함함―를 수신하는 단계, 상기 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성하는 단계 및 상기 대화록을 포함하는 사용자 인터페이스를 생성하여 상기 하나 이상의 사용자 단말로 제공하는 단계를 포함할 수 있다.
본 개시의 또 다른 실시예에서 대화록 서비스를 제공하는 서버로서, 하나 이상의 코어를 포함하는 서버 프로세서, 상기 프로세서에서 실행 가능한 프로그램 코드들을 저장하는 서버 메모리 및 하나 이상의 사용자 단말과 데이터를 송수신하는 서버 네트워크부를 포함하고, 그리고 상기 프로세서는, 상기 하나 이상의 사용자 단말 각각으로부터 하나 이상의 음성 데이터―상기 음성 데이터는 각각의 사용자에 대한 하나 이상의 발화를 포함함―를 수신하고, 상기 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성하고, 그리고 상기 대화록을 포함하는 사용자 인터페이스를 생성하여 상기 하나 이상의 사용자 단말로 제공할 수 있다.
본 개시는 복수의 사용자간 대화 내용을 포함하는 음성파일에 기초하여 대화록 서비스를 제공하는 컴퓨팅 장치를 제공할 수 있다.
다양한 양상들이 이제 도면들을 참조로 기재되며, 여기서 유사한 참조 번호들은 총괄적으로 유사한 구성요소들을 지칭하는데 이용된다. 이하의 실시예에서, 설명 목적을 위해, 다수의 특정 세부사항들이 하나 이상의 양상들의 총체적 이해를 제공하기 위해 제시된다. 그러나, 그러한 양상(들)이 이러한 구체적인 세부사항들 없이 실시될 수 있음은 명백할 것이다.
도 1은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 전체적인 시스템을 나타낸 개념도를 도시한다.
도 2는 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하는 컴퓨팅 장치의 블록 구성도를 도시한다.
도 3은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 순서도를 도시한다.
도 4는 본 개시의 일 실시예에 따른 사용자 목록 표시 화면 및 대화 목록 표시 화면을 포함하는 사용자 인터페이스의 예시도를 도시한다.
도 5는 본 개시의 일 실시예에 따른 대화방을 개설하는 과정 및 복수의 사용자를 포함하는 대화방에 대한 사용자 인터페이스의 예시도를 도시한다.
도 6은 본 개시의 일 실시예에 따른 사용자가 수행한 하나 이상의 대화 목록 중 특정 대화에 대한 사용자 단말의 선택 입력에 대응하여 대화록 표시 화면 제공하는 사용자 인터페이스의 예시도를 도시한다.
도 7은 본 개시의 일 실시예에 따른 음성 인식 결과 및 키워드에 대한 사용자의 선택 입력에 대응하여 음성 데이터의 특정 시점을 재생하는 화면이 표시된 사용자 인터페이스의 예시도를 도시한다.
도 8은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 수단을 도시한다.
도 9는 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 모듈을 도시한다.
도 10은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 로직을 도시한다.
도 11은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 회로를 도시한다.
도 12는 본 개시의 일 실시예들이 구현될 수 있는 예시적인 컴퓨팅 환경에 대한 간략하고 일반적인 개략도를 도시한다.
도 1은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 전체적인 시스템을 나타낸 개념도를 도시한다.
도 2는 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하는 컴퓨팅 장치의 블록 구성도를 도시한다.
도 3은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 순서도를 도시한다.
도 4는 본 개시의 일 실시예에 따른 사용자 목록 표시 화면 및 대화 목록 표시 화면을 포함하는 사용자 인터페이스의 예시도를 도시한다.
도 5는 본 개시의 일 실시예에 따른 대화방을 개설하는 과정 및 복수의 사용자를 포함하는 대화방에 대한 사용자 인터페이스의 예시도를 도시한다.
도 6은 본 개시의 일 실시예에 따른 사용자가 수행한 하나 이상의 대화 목록 중 특정 대화에 대한 사용자 단말의 선택 입력에 대응하여 대화록 표시 화면 제공하는 사용자 인터페이스의 예시도를 도시한다.
도 7은 본 개시의 일 실시예에 따른 음성 인식 결과 및 키워드에 대한 사용자의 선택 입력에 대응하여 음성 데이터의 특정 시점을 재생하는 화면이 표시된 사용자 인터페이스의 예시도를 도시한다.
도 8은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 수단을 도시한다.
도 9는 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 모듈을 도시한다.
도 10은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 로직을 도시한다.
도 11은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 회로를 도시한다.
도 12는 본 개시의 일 실시예들이 구현될 수 있는 예시적인 컴퓨팅 환경에 대한 간략하고 일반적인 개략도를 도시한다.
다양한 실시예들이 이제 도면을 참조하여 설명된다. 본 명세서에서, 다양한 설명들이 본 개시의 이해를 제공하기 위해서 제시된다. 그러나, 이러한 실시예들은 이러한 구체적인 설명 없이도 실행될 수 있음이 명백하다.
본 명세서에서 사용되는 용어 "컴포넌트", "모듈", "시스템" 등은 컴퓨터-관련 엔티티, 하드웨어, 펌웨어, 소프트웨어, 소프트웨어 및 하드웨어의 조합, 또는 소프트웨어의 실행을 지칭한다. 예를 들어, 컴포넌트는 프로세서상에서 실행되는 처리과정(procedure), 프로세서, 객체, 실행 스레드, 프로그램, 및/또는 컴퓨터일 수 있지만, 이들로 제한되는 것은 아니다. 예를 들어, 컴퓨팅 장치에서 실행되는 애플리케이션 및 컴퓨팅 장치 모두 컴포넌트일 수 있다. 하나 이상의 컴포넌트는 프로세서 및/또는 실행 스레드 내에 상주할 수 있다. 일 컴포넌트는 하나의 컴퓨터 내에 로컬화 될 수 있다. 일 컴포넌트는 2개 이상의 컴퓨터들 사이에 분배될 수 있다. 또한, 이러한 컴포넌트들은 그 내부에 저장된 다양한 데이터 구조들을 갖는 다양한 컴퓨터 판독가능한 매체로부터 실행할 수 있다. 컴포넌트들은 예를 들어 하나 이상의 데이터 패킷들을 갖는 신호(예를 들면, 로컬 시스템, 분산 시스템에서 다른 컴포넌트와 상호작용하는 하나의 컴포넌트로부터의 데이터 및/또는 신호를 통해 다른 시스템과 인터넷과 같은 네트워크를 통해 전송되는 데이터)에 따라 로컬 및/또는 원격 처리들을 통해 통신할 수 있다.
더불어, 용어 "또는"은 배타적 "또는"이 아니라 내포적 "또는"을 의 미하는 것으로 의도된다. 즉, 달리 특정되지 않거나 문맥상 명확하지 않은 경우에, "X는 A 또는 B를 이용한다"는 자연적인 내포적 치환 중 하나를 의미하는 것으로 의도된다. 즉, X가 A를 이용하거나; X가 B를 이용하거나; 또는 X가 A 및 B 모두를 이용하는 경우, "X는 A 또는 B를 이용한다"가 이들 경우들 어느 것으로도 적용될 수 있다. 또한, 본 명세서에 사용된 "및/또는"이라는 용어는 열거된 관련 아이템들 중 하나 이상의 아이템의 가능한 모든 조합을 지칭하고 포함하는 것으로 이해되어야 한다.
또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하는 것으로 이해되어야 한다. 다만, "포함한다" 및/또는 "포함하는"이라는 용어는, 하나 이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다. 또한, 달리 특정되지 않거나 단수 형태를 지시하는 것으로 문맥상 명확하지 않은 경우에, 본 명세서와 청구범위에서 단수는 일반적으로 "하나 또는 그 이상"을 의미하는 것으로 해석되어야 한다.
당업자들은 추가적으로 여기서 개시된 실시예들과 관련되어 설명된 다양한 예시 적 논리적 블록들, 구성들, 모듈들, 회로들, 수단들, 로직들, 및 알고리즘 단계들이 전자 하드웨어, 컴퓨터 소프트웨어, 또는 양쪽 모두의 조합들로 구현될 수 있음을 인식해야 한다. 하드웨어 및 소프트웨어의 상호교환성을 명백하게 예시하기 위해, 다양한 예시 적 컴포넌트들, 블록들, 구성들, 수단들, 로직들, 모듈들, 회로들, 및 단계들은 그들의 기능성 측면에서 일반적으로 위에서 설명되었다. 그러한 기능성이 하드웨어로 또는 소프트웨어로서 구현되는지 여부는 전반적인 시스템에 부과된 특정 어플리케이션(application) 및 설계 제한들에 달려 있다. 숙련된 기술자들은 각각의 특정 어플리케이션들을 위해 다양한 방법들로 설명된 기능성을 구현할 수 있다. 다만, 그러한 구현의 결정들이 본 개시내용의 영역을 벗어나게 하는 것으로 해석되어서는 안된다.
도 1은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 전체적인 시스템을 나타낸 개념도를 도시한다.
본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100) 및 하나 이상의 사용자 단말(10)은 무선 및/또는 유선을 통한 상호 연결을 통해 데이터를 전송할 수 있고, 그리고 수신할 수 있다. 본 개시의 컴퓨팅 장치는 전자 형태의 데이터를 연산할 수 있는 모든 종류의 컴퓨팅 장치를 포함할 수 있으며, 예를 들어, 퍼스널 컴퓨터, 서버 컴퓨터 등의 일반 컴퓨팅 장치 및 모바일 단말(스마트폰(smartphone), 테블릿(tablet)) 등의 제한된 연산 능력을 가진 컴퓨팅 장치 등을 포함할 수 있다.
본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 복수의 사용자간 대화 내용을 포함하는 음성 데이터에 기초하여 대화록 서비스를 제공할 수 있다. 구체적으로, 컴퓨팅 장치(100)는 하나 이상의 사용자 단말(10) 각각으로부터 하나 이상의 음성 데이터를 수신하고, 상기 수신한 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 텍스트화함으로써, 복수의 사용자 간 수행된 대화 내용에 대한 대화록을 생성할 수 있다. 이때, 하나 이상의 사용자 단말(10)은 PC(personal computer), 노트북(note book), 모바일 단말기(mobile terminal), 스마트 폰(smart phone), 태블릿 PC(tablet pc) 등을 포함할 수 있으며, 유/무선 네트워크에 접속할 수 있는 모든 종류의 단말을 포함할 수 있다.
또한, 컴퓨팅 장치(100)는 하나 이상의 사용자 단말(10) 각각으로부터 수신한 하나 이상의 음성 데이터 각각에 기초하여 텍스트화된 대화록을 제공할 수 있다. 이 경우, 텍스트화된 대화록은 대화에 참여한 복수의 사용자의 음성 데이터를 텍스트화 한 것으로, 복수의 사용자가 참여한 대화에 대한 음성 데이터를 텍스트화하여 시간 및 화자 별로 구분하여 나열한 것일 수 있다. 이에 따라, 복수의 사용자들은 복수의 사용자 간 대화(또는 회의) 진행 시, 별도의 속기사를 통해 대화록을 작성하거나 본인이 직접 대화록을 작성할 필요가 없이, 단순 복수의 사용자의 대화 내용을 포함하는 음성 데이터를 통해 복수의 사용자 간 대화 내용을 포함하는 텍스트화된 대화록을 제공받을 수 있다.
또한, 컴퓨팅 장치(100)는 대화록을 포함하는 사용자 인터페이스를 하나 이상의 사용자 단말에 제공할 수 있다. 이 경우, 사용자 인터페이스는 대화에 참여한 하나 이상의 사용자 각각에 대한 정보, 하나 이상의 사용자의 대화 내용이 시간별 및 화자별 로 분류되어 채팅창 형태로 기록된 대화록, 대화록들의 편집, 관리 및 검색 등의 활용도를 제고하기 위한 다양한 UI(User Interfaces)/UX(User Experience)를 포함하여 본 개시의 컴퓨팅 장치(100)를 이용하는 복수의 사용자에게 편의성을 제공할 수 있다.
본 개시에서 컴퓨팅 장치(100)가 하나 이상의 사용자 단말(10)로 대화록 서비스를 제공하는 과정 및 대화록을 포함하는 사용자 인터페이스에 대한 구체적인 설명은 이하의 도면들을 참조하여 후술하도록 한다.
도 2는 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하는 컴퓨팅 장치의 블록 구성도를 도시한다.
도 2에 도시된 대화록 서비스를 제공하는 컴퓨팅 장치(100)의 컴포넌트들은 예시적인 것이다. 도 2에 도시된 컴포넌트 중 일부만이 대화록 서비스를 제공하는 컴퓨팅 장치(100)를 구성할 수도 있으며, 도 2에 도시된 컴포넌트 이외에 추가적인 컴포넌트(들)가 상기 대화록 서비스를 제공하는 컴퓨팅 장치(100)에 포함될 수도 있다.
도 2에 도시된 바와 같이, 대화록 서비스를 제공하는 컴퓨팅 장치(100)는 프로세서(110), 메모리(120) 및 네트워크부(130)를 포함할 수 있다.
본 개시의 일 실시예에 따르면, 프로세서(110)는 하나 이상의 사용자 단말(10) 각각으로부터 음성 데이터를 수신할 수 있다. 이 경우, 프로세서(110)가 수신하는 음성 데이터는 하나 이상의 사용자 단말(10) 각각으로부터 수신한 것으로, 하나 이상이 존재할 수 있다. 예를 들어, 3명의 사용자가 대화를 진행하는 경우, 3명의 사용자 각각이 소지한 3개의 사용자 단말 각각으로부터 3개의 음성 데이터를 수신할 수 있다. 즉, 프로세서(110)는 하나의 사용자 단말을 통해 하나의 음성 데이터를 수신하는 것이 아닌, 복수의 사용자 각각이 소지한 하나 이상의 사용자 단말(10)로부터 하나 이상의 음성 데이터를 수신할 수 있다. 전술한 대화를 진행하는 사용자의 수 및 이에 대응하는 사용자 단말의 수에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.
본 개시의 일 실시예에 따르면, 프로세서(110)는 하나 이상의 사용자 단말(10) 각각으로부터 수신한 하나 이상의 음성 데이터 각각에 대하여 전처리를 수행할 수 있다. 프로세서(110)는 음성 데이터에 대한 인식률을 높이기 위한 전처리를 수행할 수 있다. 이때, 프로세서(110)가 하나 이상의 음성 데이터 각각에 대하여 수행하는 전처리는 노이즈 제거에 대한 전처리 및 발화 구간에서의 발화 크기에 기초하여 화자를 분리하는 전처리를 포함할 수 있다.
본 개시의 일 실시예에 따르면, 프로세서(110)는 하나 이상의 사용자 단말(10) 각각으로부터 수신한 하나 이상의 음성 데이터 각각의 노이즈를 제거할 수 있다. 하나 이상의 음성 데이터 각각의 노이즈를 제거하는 것은, 상기 하나 이상의 음성 데이터에 포함된 노이즈를 제거하기 위한 것일 수 있다. 보다 구체적으로, 프로세서(110)는 하나 이상의 음성 데이터 각각에 포함된 신호의 크기와 사전 결정된 기준 신호의 크기의 비교에 기초하여 하나 이상의 음성 데이터 각각에 포함된 신호의 크기를 표준화할 수 있다. 프로세서(110)는 하나 이상의 사용자 단말(10)로부터 수신한 음성 데이터 각각에 포함된 신호의 크기가 사전 결정된 기준 신호 미만인 경우, 해당 신호의 크기를 크게 조정하고, 그리고 하나 이상의 사용자 단말(10)로부터 수신한 음성 데이터 각각에 포함된 신호의 크기가 사전 결정된 기준 신호 이상인 경우, 해당 신호의 크기를 작게(즉, clipping되지 않게)조정하는 Audio Signal compression Normalization을 수행할 수 있다. 전술한 노이즈 제거 동작은 예시일 뿐이며 본 개시는 이에 제한되지 않는다.
또한, 프로세서(110)는 하나 이상의 음성 데이터 각각에 포함된 음성의 파형을 분석하여, 발화 이외의 소리를 제거할 수 있다. 보다 구체적으로 프로세서(110)는 음성 데이터의 주파수를 분석하여 적어도 하나의 특정 주파수를 제거할 수 있다. 프로세서(110)가 수신하는 하나 이상의 음성 데이터 각각은 주파수가 균일한 백색 노이즈, 주파수가 불규칙한 랜덤 주파수 노이즈 또는 녹음 장치나 신호처리 과정에 따라 발생하는 다양한 노이즈를 포함할 수 있다. 즉, 프로세서(110)는 하나 이상의 음성 데이터 각각에 포함된 다양한 주파수를 갖는 잡음에 대하여 전처리를 수행할 수 있다. 구체적으로, 프로세서(110)는 하나 이상의 음성 데이터 각각에 포함된 잡음의 종류를 판별하기 위해 SVM(Supporting Vector Machine)과 같은 기계학습 알고리즘을 이용하여 분류하고, 각각의 상이한 주파수를 포함하는 잡음 각각에 대응하는 잡음 제거 알고리즘을 통해 노이즈를 제거할 수 있다. 전술한 잡음 제거 알고리즘은 예시일 뿐이며 본 개시는 이에 제한되지 않는다.
또한, 프로세서(110)는 하나 이상의 음성 데이터 각각에 대하여 하나 이상의 발화 구간을 식별할 수 있다. 프로세서(110)는 음성 데이터에 포함된 하나 이상의 발화를 식별할 수 있다. 구체적으로, 프로세서(110)는 음성 데이터에 존재하는 하나 이상의 묵음 구간을 기준으로 사용자의 발화 구간을 식별할 수 있다. 예를 들어, 프로세서(110)는 음성 데이터에 포함된 제 1 묵음 구간과 제 2 묵음 구간 사이를 사용자의 제 1 발화 구간으로 식별할 수 있으며, 제 2 묵음 구간과 제 3 묵음 구간 사이를 사용자의 제 2 발화 구간으로 식별할 수 있다. 즉, 하나 이상의 사용자의 대화 내용을 포함하는 음성 데이터에서 상기 하나 이상의 사용자의 음성(즉, 말소리)이 인지되지 않는 시점(예를 들어, 일정 크기 이하의 소리만이 감지되는 시점 등)을 식별하고, 상기 식별된 시점(즉, 묵음 구간)을 기준으로 하나 이상의 사용자의 발화 구간을 식별할 수 있다. 전술한 사용자의 발화 구간에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.
본 개시의 일 실시예에 따르면, 프로세서(110)는 음성 데이터에 포함된 하나 이상의 발화 구간 각각에서 하나 이상의 사용자 각각의 음성 식별할 수 있다. 또한, 프로세서(110)는 상기 식별된 하나 이상의 사용자 각각의 음성 중 음성의 크기가 사전 결정된 크기 이상을 가지는 발화를 음성 데이터에 대응하는 특정 화자로 결정할 수 있다. 보다 구체적으로, 프로세서(110)는 음성 데이터에 포함된 하나 이상의 사용자의 음성 중 특정 사용자의 음성의 크기가 사전 결정된 크기 이상인 경우, 상기 음성 데이터에 대응하는 특정 화자로 결정할 수 있다. 예를 들어, 제 1 사용자 단말로부터 2명의 사용자(A 사용자 및 B 사용자)의 음성을 포함하는 음성 데이터를 수신한 경우, 프로세서(110)는 A 사용자의 음성의 크기가 사전 결정된 크기 이상임을 판별하여, 상기 A 사용자를 제 1 사용자 단말로부터 수신한 음성 데이터에 대응하는 특정 화자로 결정할 수 있다. 즉, 본 개시에서 사용자 단말은 각각의 사용자의 음성을 수집하기 위하여 각각의 사용자에게 배치된 단말일 수 있으므로, 프로세서(110)는 수신된 음성 데이터에서 특정 크기 이상의 발화가 해당 음성 데이터가 수집된 사용자 단말의 사용자의 발화인 것으로 판단할 수 있다. 또한, 프로세서(110)는 음성 데이터에 포함된 하나 이상의 사용자 각각의 음성의 크기 비교에 기초하여 음성 데이터에 대응하는 특정 화자를 결정할 수도 있다. 예를 들어, 제 1 사용자 단말로부터 2명의 사용자(A 사용자 및 B 사용자)의 음성을 포함하는 음성 데이터를 수신한 경우, 프로세서(110)는 음성 데이터에 포함된 2명의 사용자의 음성 중 B 사용자의 음성의 크기가 A 사용자의 음성의 크기 보다 큰 것으로 판별하여 상기 B 사용자를 제 1 사용자 단말로부터 수신한 음성 데이터에 대응하는 특정 화자로 결정할 수 있다. 전술한 하나 이상의 사용자 및 하나 이상의 사용자 각각의 음성의 크기에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.
또한, 프로세서(110)는 사용자 단말(10)로부터 수신한 음성 데이터에서 특정 화자의 음성을 제외한 다른 음성을 제거할 수 있다. 보다 구체적으로, 프로세서(110)는 음성 데이터에 대응되는 특정 화자를 결정한 경우, 음성 데이터에서 상기 특정 화자의 음성을 제외한 다른 사용자의 음성을 제거할 수 있다. 예를 들어, 음성 데이터가 A 사용자 및 B 사용자의 음성을 포함하고, 상기 A 사용자가 상기 음성 데이터에 대응하는 특정 화자로 결정된 경우, 프로세서(110)는 상기 음성 데이터에서 B 사용자의 음성을 제거할 수 있다. 즉, 프로세서(110)는 음성 데이터에서 다른 사용자(예컨대, B 사용자)의 음성을 제거함으로써, 특정 화자(예컨대, A 사용자)의 음성을 보다 명확히 분리할 수 있다. 전술한 음성 데이터에 대응하는 사용자에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다. 이에 따라, 추후 음성 데이터에 기초하여 대화록 작성 시 화자 각각에 대한 분리가 정확해질 수 있어, 보다 정확도 높은 대화록을 생성할 수 있다.
또한, 프로세서(110)는 하나 이상의 음성 데이터 각각에 대응하는 특정 화자를 판별하고, 각각의 음성 데이터에서 판별된 특정 화자의 음성을 제외한 다른 음성을 제거한 경우, 상기 특정 화자를 하나 이상의 사용자 단말의 식별 정보 각각과 매칭하여 저장할 수 있다. 예를 들어, 제 1 음성 데이터 대응하는 특정 화자로 결정된 A 사용자를 A 사용자 단말의 식별 정보와 매칭할 수 있으며, 제 2 음성 데이터 대응하는 특정 화자로 결정된 B 사용자를 B 사용자 단말의 식별 정보와 매칭하여 저장할 수 있다. 이에 따라, 하나 이상의 사용자 단말 각각으로부터 수신한 하나 이상의 음성 데이터 각각에 대응하는 화자를 판별하고, 각각의 사용자 단말에 각각의 화자를 매칭함으로써 대화를 수행한 복수의 화자 각각을 보다 정확하게 분리시킬 수 있다. 전술한 음성 데이터와 그에 대응하는 사용자 단말에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.
또한, 프로세서(110)는 음성 데이터를 발화 구간에 기초하여 하나 이상의 음성 데이터 서브 데이터로 분할할 수 있다. 예를 들어, A 사용자 단말을 통해 제 1 음성 데이터를 수신한 경우, 프로세서(110)는 제 1 음성 데이터에서 식별된 하나 이상의 발화 구간을 기준으로 상기 제 1 음성 데이터를 하나 이상의 음성 데이터 서브 데이터로 분할할 수 있다. 보다 구체적인 예를 들어, 프로세서(110)는 제 1 음성 데이터에서 식별된 발화 구간이 5개인 경우, 상기 식별된 5개의 발화 구간 각각에 대응하여 상기 제 1 음성 데이터를 5개의 음성 데이터 서브 데이터로 분할할 수 있다. 전술한 음성 데이터의 하나 이상의 음성 데이터 서브 데이터 수에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.
본 개시의 일 실시예에 따르면, 프로세서(110)는 하나 이상의 사용자 단말(10) 각각으로부터 수신한 하나 이상의 음성 데이터 각각에 통일된 시점을 부여할 수 있다.
구체적으로, 프로세서(110)는 하나 이상의 사용자 단말(10) 각각으로부터 수신한 하나 이상의 음성 데이터 각각에 글로벌 시간 정보를 태그할 수 있다. 이 경우, 글로벌 시간 정보는 복수의 사용자 단말 각각으로부터 수신한 복수의 음성 데이터 각각에 적용되는 시간 정보일 수 있다. 보다 구체적으로, 글로벌 시간 정보는, 복수의 음성 데이터 각각의 선후 관계를 명확하게 하기 위해 부여된 기준이 되는 시간 정보일 수 있다. 예를 들어, 글로벌 시간 정보는 컴퓨팅 장치의 시간 정보에 기초하여 결정되는 시간 정보일 수 있다. 글로벌 시간 정보를 결정하는 방식은 예시일 뿐이며 본 개시는 이에 제한되지 않는다. 로컬 시간 정보는, 음성 데이터 각각에 적용되는 시간 정보일 수 있다. 즉, 로컬 시간 정보는 음성 데이터의 시작으로부터 경과 시간에 관한 정보(예를 들어, 8분 동안의 음성 데이터의 경우, 32초 지점, 40초 지점 등)일 수 있다. 로컬 시간 정보에 관한 전술한 기재는 예시일 뿐이며, 본 개시는 이에 제한되지 않는다. 즉, 복수의 사용자 단말(10) 각각으로부터 복수의 음성 데이터를 수신하는 경우, 프로세서(110)는 복수의 음성 데이터 각각에 글로벌 시간 정보를 매칭하여 저장함으로써, 복수의 음성 데이터 각각에서 발화 구간에 따라 분할된 하나 이상의 음성 데이터 서브 데이터의 선후 관계를 명확하게 판별할 수 있다. 예를 들어, 2개의 사용자 단말(A 사용자 단말 및 B 사용자 단말)을 통해 2개의 음성 데이터(제 1 음성 데이터 및 제 2 음성 데이터)를 수신한 경우, 상기 2개의 음성 데이터에 포함된 각각의 발화의 선후관계는 각각의 음성 데이터의 로컬 시간 정보 만으로는 파악하기 어려울 수 있다. 즉, 각각의 음성 데이터의 녹음 시작 시점이 서로 상이한 경우, 프로세서(110)는 로컬 시간 정보 만으로는 복수의 음성 데이터에 포함된 각각의 발화의 선후 관계를 명확하게 파악하기 어려울 수 있다. 예를 들어, A 사용자 단말로부터 수신한 제 1 음성 데이터는 11시 10분부터 11시 20분까지에 대한 음성 데이터(즉, 10분 동안의 음성 데이터)일 수 있으며, B 사용자 단말을 통해 수신한 제 2 음성 데이터는 11시 12분부터 11시 20분까지에 대한 음성 데이터(즉, 8분 동안의 음성 데이터)일 수 있어, 각각의 음성 데이터의 시작 시점이 서로 상이하여, 동일한 로컬 시간 정보를 가진 시점의 발화도 실제로는 서로 상이한 시점의 발화일 수 있다. 이에 따라, 각각에 음성 데이터에 포함된 음성 데이터 서브 데이터의 선후 관계가 명확하게 식별되지 않아 각각의 음성 데이터를 통한 대화록 생성에 문제를 유발할 수 있기 때문에, 프로세서(110)는 제 1 음성 데이터 및 제 2 음성 데이터 각각에 글로벌 시간 정보를 매칭(즉, 발화 구간 각각에 대응하는 현재 시간을 표시)하여 각각의 데이터의 시점을 통일시킴으로써, 제 1 음성 데이터 및 제 2 음성 데이터 각각에서 발화 구간에 따라 분할된 하나 이상의 음성 데이터 서브 데이터의 선후 관계를 명확하게 구분할 수 있다. 전술한 사용자 단말의 수, 음성 데이터의 수 및 각각의 음성 데이터의 시점에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.
또한, 프로세서(110)는 복수의 음성 데이터 각각의 경과 시간에 기초하여 음성 데이터에 포함된 발화의 선후 관계를 결정할 수 있다. 프로세서(110)는 복수의 음성 데이터 모두에 적용되는 기준 시점을 결정하고, 기준 시점으로부터 경과 시간에 기초하여 복수의 음성 데이터에 포함된 발화의 선후 관계를 결정할 수 있다. 예를 들어, 프로세서(110)는 복수의 음성 데이터 중 가장 먼저 녹음이 시작된 음성 데이터의 시작 시점을 기준 시점으로 결정하고, 다른 음성 데이터에 기준 시점을 기초로 하여 경과 시간을 결정함으로써, 복수의 음성데이터에 포함된 복수의 발화의 선후관계를 결정할 수 있다. 구체적으로, 프로세서(110)는 하나 이상의 사용자 단말(10) 각각으로부터 수신한 하나 이상의 음성 데이터 각각이 최초 생성된 시점을 기록하고, 하나 이상의 음성 데이터 각각에 기록된 최초 시점을 기준으로 각각의 음성 데이터의 진행 시간을 식별함으로써, 하나 이상의 음성 데이터 각각에 포함된 하나 이상의 음성 데이터 서브 데이터의 선후 관계를 판별하도록 통일된 시점을 부여할 수 있다.
보다 구체적으로, 프로세서(110)는 가장 먼저 녹음이 시작된 음성 데이터의 녹음 시작 시점과 이후에 녹음이 시작된 음성 데이터의 녹음 시작 시점의 차이 만큼 이후에 녹음이 시작된 음성 데이터에 묵음 구간을 해당 음성 데이터의 시작 전에 부가할 수 있다. 즉, 프로세서(110)는 복수의 음성 데이터에 적용되는 기준 시점(본 예시에서, 최초로 녹음이 시작된 음성 데이터의 녹음 시작 시간 등)을 매칭하고 기준 시점으로부터 각각의 음성 데이터의 차이를 각각의 음성 데이터에 반영하여 발화의 선후 관계를 결정할 수 있다. 예를 들어, 제 1 음성 데이터의 녹음 시작 후 제 2 음성 데이터가 5초 뒤 녹음이 시작 된 경우, 프로세서(110)는 음성 데이터의 생성에 대한 기준 시간(예를 들어, 컴퓨팅 장치의 시간)에 기초하여 이를 판단할 수 있으며, 제 2 음성 데이터의 녹음 시작 전에 5초의 묵음 구간을 부여함으로써, 제 1 음성 데이터 및 제 2 음성 데이터의 진행 시간이 실제 발화 시간과 일치하도록 할 수 있다. 전술한 기재는 예시일 뿐이며, 본 개시는 이에 제한되지 않는다.
또한, 프로세서(110)는 가장 먼저 녹음이 시작된 음성 데이터의 녹음 시작 시점과 이후에 녹음이 시작된 음성 데이터의 녹음 시작 시점의 차이 만큼 이후에 녹음이 시작된 음성 데이터의 진행 시간에 부가하여 발화의 선후 관계를 판단할 수 있다. 예를 들어, 제 1 음성 데이터의 녹음 시작 후 제 2 음성 데이터가 5초 뒤 녹음이 시작 된 경우, 제 2 음성 데이터의 녹음 시작으로부터 10초에 위치하는 발화는 제 1 음성 데이터의 녹음 시작으로부터 15초에 위치하는 발화일 수 있다. 따라서, 프로세서(110)는 제 2 음성 데이터에 제 1 음성 데이터와 시작 시간의 차이 만큼의 시간을 진행 시간에 부가하여 각각의 음성 데이터에 포함된 각각의 발화의 선후관계를 결정할 수 있다. 전술한 기재는 예시일 뿐이며, 본 개시는 이에 제한되지 않는다.
전술한 바와 같이 프로세서(110)는 음성 데이터에 글로벌 시간 정보를 매칭하여 저장하거나, 기준 시점으로부터 경과 시간에 관한 정보를 매칭하여 저장함으로써, 음성 데이터에 포함된 복수의 발화의 선후관계를 판단할 수 있다.
전술한 사용자 단말의 수, 음성 데이터의 수 및 각각의 음성 데이터의 시점에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.
이하에서 기재되는 음성 데이터에 대한 설명에서 시작 시점 및 종료 시점은 음성 데이터의 글로벌 시간 정보 및 기준 시점 정보 중 적어도 하나에 기초하여 하나 이상의 음성 데이터 각각에 포함된 하나 이상의 음성 데이터 서브 데이터 각각의 선후 관계를 구분하기 위해 하나 이상의 음성 데이터 각각에 부여된 통일된 시점에 기초한 것이다.
본 개시의 일 실시예에 따르면, 프로세서(110)는 하나 이상의 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 식별할 수 있다. 구체적으로, 프로세서(110)는 음성 데이터를 상기 음성 데이터에 포함된 발화 구간에 기초하여 분할한 하나 이상의 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 식별할 수 있다. 예를 들어, 음성 데이터가 2개의 발화 구간에 대응하여 2개의 음성 데이터 서브 데이터(음성 데이터 제 1 서브 데이터 및 음성 데이터 제 2 서브 데이터)로 분할된 경우, 프로세서(110)는 음성 데이터 제 1 서브 데이터의 시작 시점 및 종료 시점을 3초 및 32초로 각각 식별하고, 그리고 음성 데이터 제 2 서브 데이터의 시작 시점 및 종료 시점을 1분 10초 및 1분 52초로 각각 식별할 수 있다. 전술한 음성 데이터 서브 데이터의 시작 시점 및 종료 시점에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.
본 개시의 일 실시예에 따르면, 프로세서(110)는 하나 이상의 음성 데이터 서브 데이터 각각을 음성 인식 모델의 입력으로 하여 하나 이상의 음성 데이터 서브 데이터 각각에 대응하는 하나 이상의 음성 인식 서브 결과를 출력할 수 있다. 이 경우, 음성 인식 모델은 사용자가 말하는 음성 언어를 문자 데이터로의 전환을 수행하는 모델로, 학습 데이터를 통해 사전 학습된 하나 이상의 네트워크 함수를 포함할 수 있다. 또한, 프로세서(110)는 하나 이상의 음성 인식 서브 결과의 기초가 된 각각의 음성 데이터 서브 데이터에서 식별된 시작 시점 및 종료 시점에 기초하여 상기 대화록 상에서 하나 이상의 음성 인식 서브 결과 각각의 순서를 결정할 수 있다. 구체적인 예를 들어, 프로세서(110)는 음성 데이터 제 1 서브 데이터 및 음성 데이터 제 2 서브 데이터 각각을 음성 인식 모델에 입력하여 음성 인식 제 1 서브 결과 및 음성 인식 제 2 서브 결과를 출력할 수 있다. 프로세서(110)는 음성 인식 제 1 서브 결과의 출력에 기초한 음성 데이터 제 1 서브 데이터의 시작 시점 및 종료 시점을 3초 및 32초로 각각 식별하고, 그리고 음성 인식 제 2 서브 결과의 출력에 기초한 음성 데이터 제 2 서브 데이터의 시작 시점 및 종료 시점을 1분 10초 및 1분 52초로 각각 식별할 수 있다. 프로세서(110)는 판단된 시점 정보에 기초하여 음성 인식 제 1 서브 결과와 음성 인식 제 2 서브 결과의 대화록 상에서의 순서를 결정할 수 있다. 즉, 프로세서(110)는 하나 이상의 음성 인식 서브 결과를 상기 하나 이상의 음성 인식 서브 결과 각각에 대응하는 음성 데이터 서브 데이터의 시작 시점 및 종료 시점을 식별하고, 그리고 상기 식별된 시작 시점 및 종료 시점 중 적어도 하나에 기초하여 하나 이상의 음성 인식 서브 결과 각각이 대화록에서 표시되는 순서를 결정할 수 있다. 즉, 대화록에서 하나 이상의 음성 인식 서브 결과는 시작 시점 및 종료 시점에 따라 순서대로 배치될 수 있다. 예를 들어, 음성 인식 제 1 서브 결과의 시작 시점이 음성 인식 제 2 서브 결과의 시작 시점보다 빠른 경우, 프로세서(110)는 음성 인식 제 1 서브 결과가 대화록에서 음성 인식 제 2 서브 결과보다 먼저 표시되도록 순서를 결정할 수 있다. 다른 예를 들어, 음성 인식 제 2 서브 결과의 종료 시점이 제 1 음성 인식 결과의 종료 시점보다 빠른 경우, 프로세서(110)는 음성 인식 제 2 서브 결과가 대화록에서 음성 인식 제 1 서브 결과보다 먼저 표시되도록 순서를 결정할 수도 있다. 전술한 음성 인식 제 1 서브 결과 및 음성 인식 제 2 서브 결과에 대응하는 시작 시점 및 종료 시점에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.
본 개시의 일 실시예에 따르면, 프로세서(110)는 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성할 수 있다. 이 경우, 하나 이상의 음성 데이터는 각각의 사용자 단말로부터 수신된 제 1 음성 데이터 및 제 2 음성 데이터를 포함할 수 있다. 또한, 프로세서(110)는 제 1 음성 데이터를 발화 구간에 기초하여 하나 이상의 제 1 음성 데이터 서브 데이터로 분할하고, 그리고 제 2 음성 데이터 서브 데이터를 발화 구간에 기초하여 하나 이상의 제 2 음성 데이터 서브 데이터로 분할할 수 있다. 예를 들어, 제 1 음성 데이터에서 식별된 발화 구간이 3개인 경우, 프로세서(110)는 제 1 음성 데이터를 3개의 발화 구간에 기초하여 제 1 음성 데이터 제 1 서브 데이터, 제 1 음성 데이터 제 2 서브 데이터 및 제 1 음성 데이터 제 3 서브 데이터로 각각 분할할 수 있다. 다른 예를 들어, 제 2 음성 데이터에서 식별된 발화 구간이 2개인 경우, 프로세서(110)는 제 2 음성 데이터를 2개의 발화 구간에 기초하여 제 2 음성 데이터 제 1 서브 데이터, 제 2 음성 데이터 제 2 서브 데이터로 각각 분할할 수 있다. 전술한 제 1 음성 데이터 및 제 2 음성 데이터가 포함하는 발화 구간의 구체적인 수치에 대한 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.
또한, 프로세서(110)는 하나 이상의 제 1 음성 데이터 서브 데이터 및 하나 이상의 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 식별할 수 있다. 예를 들어, 제 1 음성 데이터가 3개의 발화 구간에 기초하여 제 1 음성 데이터 제 1 서브 데이터, 제 1 음성 데이터 제 2 서브 데이터 및 제 1 음성 데이터 제 3 서브 데이터로 분할되고, 제 2 음성 데이터가 2개의 발화 구간에 기초하여 제 2 음성 데이터 제 1 서브 데이터 및 제 2 음성 데이터 제 2 서브 데이터로 분할된 경우, 프로세서(110)는 상기 5 개의 음성 데이터 서브 데이터의 시작 시점을 각각 10초(제 1 음성 데이터 제 1 서브 데이터), 21초(제 1 음성 데이터 제 2 서브 데이터), 32초(제 1 음성 데이터 제 3 서브 데이터), 17초(제 2 음성 데이터 제 1 서브 데이터) 및 25초(제 2 음성 데이터 제 2 서브 데이터)로 식별할 수 있다. 전술한 음성 데이터 서브 데이터의 시작 시점에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.
또한, 프로세서(110)는 하나 이상의 제 1 음성 데이터 서브 데이터 및 하나 이상의 제 2 음성 데이터 서브 데이터를 음성 인식 모델의 입력으로 하여 각각의 서브 데이터 각각에 대응하는 하나 이상의 제 1 음성 인식 서브 결과 및 하나 이상의 제 2 음성 인식 서브 결과를 출력할 수 있다. 예를 들어, 음성 인식 모델에 제 1 음성 데이터 제 1 서브 데이터가 입력된 경우, 제 1 음성 인식 제 1 서브 결과를 출력할 수 있으며, 제 2 음성 데이터 제 1 서브 데이터를 입력된 경우, 제 2 음성 인식 제 2 서브 결과를 출력할 수 있다.
또한, 프로세서(110)는 하나 이상의 제 1 음성 인식 서브 결과 및 하나 이상의 제 2 음성 인식 서브 결과의 기초가 된 각각의 음성 데이터 서브 데이터에서 식별된 시작 시점 및 종료 시점에 기초하여 대화록 상에서 하나 이상의 제 1 음성 인식 서브 결과 및 하나 이상의 제 2 음성 인식 서브 결과 각각이 표시되는 순서를 결정할 수 있다. 구체적인 예를 들어, 전술한 예시에서 제 1 음성 인식 제 1 서브 결과, 제 1 음성 인식 제 2 서브 결과, 제 1 음성 인식 제 3 서브 결과, 제 2 음성 인식 제 1 서브 결과 및 제 2 음성 인식 제 2 서브 결과 각각이 제 1 음성 데이터 제 1 서브 데이터, 제 1 음성 데이터 제 2 서브 데이터, 제 1 음성 데이터 제 3 서브 데이터, 제 2 음성 데이터 제 1 서브 데이터 및 제 2 음성 데이터 서브 데이터에 기초하여 생성될 수 있다. 프로세서(110)는 상기 5개 음성 인식 서브 결과 생성에 기초가 된 상기 5개의 음성 데이터 서브 데이터의 시작 시점을 각각 10초(제 1 음성 데이터 제 1 서브 데이터), 21초(제 1 음성 데이터 제 2 서브 데이터), 32초(제 1 음성 데이터 제 3 서브 데이터), 17초(제 2 음성 데이터 제 1 서브 데이터) 및 25초(제 2 음성 데이터 제 2 서브 데이터)로 식별할 수 있다. 또한, 프로세서(110)는 상기 식별된 시작 시점에 기초하여 5개의 음성 인식 서브 결과이 대화록에서 표시되는 순서를 결정할 수 있다. 즉, 대화록에는 제 1 음성 인식 제 1 서브 결과(10초), 제 2 음성 인식 제 1 서브 결과(17초), 제 1 음성 인식 제 2 서브 결과(21초), 제 2 음성 인식 제 2 서브 결과(25초), 제 1 음성 인식 제 3 서브 결과(32초) 순으로 배치될 수 있다.
또한, 프로세서(110)는 하나 이상의 제 1 음성 인식 서브 결과 및 하나 이상의 제 2 음성 인식 서브 결과 각각의 결정된 순서 및 하나 이상의 사용자 단말(10) 각각의 식별 정보에 기초하여 대화록을 생성할 수 있다. 예를 들어, 프로세서(110)는 하나 이상의 제 1 음성 인식 서브 결과 각각에 매칭된 제 1 사용자 단말의 식별 정보에 기초하여 화자를 식별할 수 있다. 또한 프로세서(110)는 하나 이상의 제 2 음성 인식 서브 결과 각각에 매칭된 제 2 사용자 단말의 식별 정보에 기초하여 화자를 식별할 수 있다. 이에 따라, 각각의 음성 인식 서브 결과는 각각의 사용자 단말의 식별 정보에 기초하여 채팅창의 형태로 대화록에 기록될 수 있다. 즉, 프로세서(110)는 발화자 각각(예를 들어, 제 1 사용자 단말을 사용하는 제 1 사용자 및 제 2 사용자 단말을 사용하는 제 2 사용자)이 분리된 대화록을 생성할 수 있다.
본 개시의 일 실시예에 따르면, 프로세서(110)는 하나 이상의 제 1 음성 데이터 서브 데이터 및 하나 이상의 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점에 기초하여 복수의 사용자의 발화의 중첩 구간을 식별할 수 있다. 이때, 제 1 음성 데이터 서브 데이터는 제 1 사용자 단말을 통해 수신한 제 1 음성 데이터에 포함되는 것이며, 제 2 음성 데이터 서브 데이터는 제 2 사용자 단말을 통해 수신한 제 2 음성 데이터에 포함되는 것으로, 각각이 상이한 사용자 단말로부터 수신한 음성 데이터에 기초하여 생성된 것일 수 있다. 구체적으로, 프로세서(110)는 각각이 상이한 단말로부터 수신한 제 1 음성 데이터 및 제 2 음성 데이터를 각각의 발화 구간에 기초하여 분할한 하나 이상의 제 1 음성 데이터 서브 데이터 및 하나 이상의 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 통해 각각의 제 1 음성 데이터 서브 데이터 및 제 2 음성 데이터 서브 데이터가 시간적으로 중첩되는지 여부를 식별할 수 있다. 즉, 프로세서(110)는 각각의 음성 데이터에서 복수의 사용자의 복수의 발화 중 발화가 중첩되는 구간을 식별할 수 있다. 예를 들어, 제 1 사용자 단말을 통해 수신한 제 1 음성 데이터에 포함된 제 1 음성 데이터 제 1 서브 데이터, 제 1 음성 데이터 제 2 서브 데이터 및 제 1 음성 데이터 제 3 서브 데이터 각각의 시작 및 종료 시점이 각각 10~15초, 21~28초, 32~35초이며 제 2 사용자 단말을 통해 수신한 제 2 음성 데이터에 포함된 제 2 음성 데이터 제 1 서브 데이터, 제 2 음성 데이터 제 2 서브 데이터 각각의 시작 및 종료 시점이 각각 17~20초, 25~31초인 경우, 프로세서(110)는 제 1 음성 데이터 제 2 서브 데이터와 제 2 음성 데이터 제 2 서브 데이터가 중첩됨을 식별하여 25초에서 28초까지를 중첩 구간으로 식별할 수 있다. 전술한 제 1 음성 인식 서브 결과 및 제 2 음성 인식 서브 결과 각각의 시작 시점 및 종료 시점에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.
또한, 프로세서(110)는 중첩 구간이 식별된 경우, 중첩 구간에 대응하는 음성 인식 서브 결과의 순서를 결정할 수 있다. 이하의 예시에서 제 1 음성 인식 서브 결과는 제 1 사용자 단말로부터 수신된 제 1 음성 데이터에 포함된 제 1 음성 데이터의 서브 데이터 중 하나에 대한 음성 인식 서브 결과이고, 제 2 음성 인식 서브 결과는 제 2 사용자 단말로부터 수신된 제 2 음성 데이터에 포함된 제 2 음성 데이터의 서브 데이터 중 하나에 대한 음성 인식 서브 결과일 수 있다. 프로세서(110)는 제 1 음성 인식 서브 결과 및 제 2 음성 인식 서브 결과가 서로 중첩되는 시간의 발화임을 제 1 음성 데이터 서브 데이터 및 제 2 음성 데이터 서브 데이터의 시간 정보에 기초하여 식별할 수 있다. 이 경우, 프로세서(110)는 제 1 음성 인식 서브 결과 및 제 2 음성 인식 서브 결과의 대화록 상에서의 순서를 사전 결정된 기준에 따라 결정할 수 있다. 예를 들어, 프로세서(110)는 제 1 음성 인식 서브 결과의 기초가 된 제 1 음성 데이터 서브 데이터의 시작 시간이 제 2 음성 데이터 서브 데이터의 시작 시간보다 빠른 경우, 대화록 상에서 제 1 음성 인식 서브 결과를 제 2 음성 인식 서브 결과보다 먼저 배치할 수 있다.
또한, 프로세서(110)는 중첩 구간에 대응하는 음성 인식 서브 결과 중 적어도 하나를 분할할 수도 있다. 구체적으로, 프로세서(110)는 제 1 음성 인식 서브 결과 및 제 2 음성 인식 서브 결과 각각의 출력에 기초가 된 제 1 음성 데이터 서브 세트 및 제 2 음성 데이터 서브 세트 각각의 시작 시점 및 종료 시점에 기초하여 발화에 중첩이 식별되는 경우, 제 1 음성 인식 서브 결과 및 제 2 음성 인식 서브 결과 중 적어도 하나의 서브 결과를 분할할 것을 결정할 수 있다. 보다 구체적으로, 프로세서(110)는 제 1 음성 인식 서브 결과의 기초가 된 제 1 음성 데이터 서브 데이터의 시작 및 종료 시간 사이에 제 2 음성 데이터 서브 데이터가 시작되는 경우, 제 1 음성 인식 서브 결과를 제 2 음성 데이터 서브 데이터의 시작 시간에 기초하여 분할할 수 있다. 예를 들어, 제 1 음성 데이터 서브데이터가 10초짜리 발화를 포함한 데이터인 경우에, 제 1 음성 데이터 서브 데이터의 발화 시작 후 5초 뒤에 제 2 음성 데이터 서브데이터의 발화가 시작된 경우라고 가정할 수 있다. 이 경우, 프로세서(110)는 제 1 음성 데이터 서브데이터의 10초간 발화에 대한 음성 인식 결과인 제 1 음성 인식 서브 결과를 5초를 기준으로 분할하여 대화록 상에 배치할 수 있다. 즉, 본 예시에서 프로세서(110)는 대화록 상에서 제 1 음성 인식 서브 결과의 0초에서 5초 사이의 구간의 제 1 텍스트, 제 2 음성 인식 서브 결과의 텍스트, 제 1 음성 인식 서브 결과의 5초에서 10초 사이 구간의 제 2 텍스트를 순서대로 배치할 수 있다. 전술한 음성 데이터 서브 데이터의 시간 및 분할에 관련한 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.
또한, 프로세서(110)는 중첩 구간이 식별된 경우 각각의 음성 인식 서브 결과를 의미에 기초하여 분할할 수도 있다. 프로세서(110)는 음성 인식 서브 결과에 대한 자연어 처리에 기초하여 음성 인식 서브 결과의 분할 지점을 결정할 수 있다. 또한, 프로세서(110)는 중첩 구간에 대응하는 제 1 음성 인식 서브 결과 및 제 2 음성 인식 서브 결과 각각을 통계적 언어 모델을 기반으로 각 음성 인식 서브 결과에 포함된 단어들의 조합 확률을 분석함으로써, 각 음성 인식 서브 결과에 대한 문장에서의 끝 지점을 판정할 수 있다. 이때, 통계적 언어 모델은, 문장의 확률을 계산하거나, 또는 이전 단어들이 입력된 경우, 다음 단어가 나올 확률에 대한 계산이 가능한 모델일 수 있으며, 단어들의 조합이 얼마나 적절한지, 또는 해당 문장이 얼마나 적합한지를 판정할 수 있는 모델일 수 있다. 또한, 프로세서(110)는 각각의 음성 인식 서브 결과에 판정된 끝 지점에 기초하여 음성 인식 서브 결과의 분할 여부를 결정할 수 있다. 예를 들어, 제 1 음성 데이터 서브 데이터의 시작 시점 및 종료 시점이 각각 5초 및 20초로 식별되고, 제 2 음성 데이터 서브 데이터의 시작 시점 및 종료 시점이 각각 12초 및 18초로 식별된 경우(즉, 12초에서 18초사이의 6초간의 발화의 중첩 구간이 식별된 경우), 프로세서(110)는 제 1 음성 인식 서브 결과를 통계적 언어 모델의 입력으로하여 제 1 음성 인식 서브 결과에 포함된 각각의 단어 및 각각의 단어의 복수의 조합에 대한 적합도를 출력함으로써, 제 1 음성 인식 서브 결과에 대한 문장에서의 끝 지점을 판정할 수 있다. 또한, 프로세서(110)는 제 1 음성 인식 서버 결과에서 끝 지점이 판정된 경우, 상기 제 1 음성 인식 서브 결과를 분할할 것을 결정할 수 있다. 보다 구체적인 예를 들어, 전술한 중첩 구간을 포함하는 음성 데이터의 발화를, "저작권 관련 상담을 받고 싶어 찾아 뵙게 (저작권 관련이요?) 되었습니다. 네 맞습니다." 로 가정한다. 전술한 가정에서 괄호 내의 발화는 제 2 화자(즉, 제 2 음성 데이터로부터 인식된 발화)이고, 괄호 밖의 발화는 제 1 화자(즉, 제 1 음성 데이터로부터 인식된 발화)일 수 있다. 통계적 언어 모델은 이 경우, 제 1 음성 인식 서브 결과에 포함된 단어 각각이 '저작권', '관련', '상담을', '받고', '싶어', '찾아', '뵙게', '되었습니다', '네', '맞습니다.'를 인식하고, '되었습니다' 와 '네' 라는 단어들의 조합 적합도를 보다 낮게 출력할 수 있으며, 이에 따라, 프로세서(110)는 '되었습니다'를 문장에서의 끝지점으로 판정할 수 있다. 또한, 프로세서(110)는 제 1 음성 인식 서브 결과에서 판정된 문장에서의 끝 지점에 기초하여 상기 제 1 음성 인식 서브 결과를 분할할 것을 결정할 수 있다. 전술한, 제 1 음성 데이터 서브 데이터 및 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.
또한, 프로세서(110)는 제 1 음성 인식 서브 결과 및 제 2 음성 인식 서브 결과 중 적어도 하나에 대한 분할이 결정된 경우, 중첩 구간에 대응하는 음성 인식 서브 결과를 분할할 수 있다. 구체적인 예를 들어, 제 1 음성 데이터 서브 데이터의 시작 시점 및 종료 시점이 각각 5초 및 20초로 식별되고, 제 2 음성 데이터 서브 데이터의 시작 시점 및 종료 시점이 각각 12초 및 18초로 식별되어 중첩 구간 존재함이 식별되고, 그리고 제 1 음성 인식 서브 결과에 포함된 단어 각각이 '저작권', '관련', '상담을', '받고', '싶어', '찾아', '뵙게', '되었습니다', '네', '맞습니다.'이며, 제 2 음성 인식 서브 결과에 포함된 단어 각각이 '저작권' 및 '관련이요?'인 경우, 프로세서(110)는 통계적 언어 모델에서 출력된 단어들의 조합에 대한 적합도에 기초하여 제 1 음성 인식 서브 결과의 '되었습니다'를 상기 제 1 음성 인식 서브 결과에 대한 문장에서의 끝 지점으로 판정할 수 있다. 또한, 프로세서(110)는 제 1 음성 인식 서브 결과에서 판정된 끝 지점에 기초하여 상기 제 1 음성 인식 서브 결과를 '저작권 관련 상담을 받고 싶어 찾아 뵙게 되었습니다' 및 '네 맞습니다'로 분할할 수 있다. 다시 말해, 프로세서(110)는 제 1 음성 인식 서브 결과에 대응하는 시작 시점과 종료 시점 사이에 다른 사용자의 발화에 기초하여 출력된 제 2 음성 인식 서브 결과가 존재하는 것을 식별(즉, 중첩 구간을 식별)하고, 중첩 구간에서의 음성 인식 서브 결과에 포함된 단어의 의미를 파악함으로써, 각각의 음성 인식 서브 결과의 선후관계가 명확히 표시되도록 음성 인식 서브 결과를 분할할 수 있다. 즉, 프로세서(110)는 제 2 음성 인식 서브 결과에 포함된 단어(즉, “저작권 관련이요?”)가 제 1 음성 인식 서브 결과의 사이에 배치되도록 상기 제 1 음성 인식 서브 결과를 “저작권 관련 상담을 받고 싶어 찾아 뵙게 되었습니다” 및 “네 맞습니다”로 분할할 수 있다. 전술한 제 1 음성 데이터 서브 데이터 및 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점에 대한 구체적인 기재와 제 1 음성 인식 서브 결과 및 제 2 음성 인식 서브 결과에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.
본 개시는 전술한 바와 같이, 2개의 음성 데이터를 각각의 사용자 단말로부터 수신하여 2개의 음성 데이터로부터 출력된 하나 이상의 음성 인식 결과의 순서를 결정하고, 2개의 음성 데이터를 수신한 2개의 사용자 단말의 식별 정보에 기초하여 대화록을 생성할 수 있으나, 본 개시의 프로세스들을 통해 2개 이상의 복수의 음성 데이터를 수신하여 대화록을 생성할 수도 있음이, 당 업계의 통상의 기술자에게 자명하게 인지될 수 있다.
본 개시의 일 실시예에 따르면, 프로세서(110)는 대화록에 대응하는 키워드를 결정할 수 있다. 구체적으로, 프로세서(110)는 하나 이상의 음성 인식 결과의 의미 분석 결과, 하나 이상의 음성 인식 결과에 포함된 단어 별 반복 횟수 및 사전 결정된 대화 주제 중 적어도 하나에 기초하여 대화록에 대한 하나 이상의 키워드를 결정할 수 있다.
프로세서(110)는 하나 이상의 음성 인식 결과에 대한 의미 분석 결과에 기초하여 대화록에 대한 하나 이상의 키워드를 결정할 수 있다. 보다 구체적으로, 프로세서(110)는 하나 이상의 음성 인식 결과 각각에 포함된 하나 이상의 단어 각각의 의미의 중요도에 기초하여 하나 이상의 키워드를 결정할 수 있다. 예를 들어, 음성 인식 결과에 포함된 단어 각각이 '저작권', '관련', '상담을', '받고', '싶어', '찾아', '뵙게', '되었습니다'인 경우, 상기 프로세서(110)는 '저작권' 또는 '상담을'의 의미가 비교적 중요도가 높은 것으로 판단하여 '저작권' 또는 '상담'을 키워드로써 결정할 수 있다. 전술한 음성 인식 결과에 포함되는 하나 이상의 단어 및 상기 하나 이상의 단어 각각의 중요도에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.
또한, 프로세서(110)는 하나 이상의 음성 인식 결과 각각에 포함된 단어 별 반복 횟수에 기초하여 대화록에 대한 하나 이상의 키워드를 결정할 수 있다. 구체적으로, 프로세서(110)는 음성 인식 결과에 포함된 하나 이상의 단어 각각의 반복 횟수(즉, 중복 횟수)를 식별하고, 반복 횟수가 높은 단어를 대화록에 대한 키워드로써 결정할 수 있다.
또한, 프로세서(110)는 사전 결정된 대화 주제에 기초하여 키워드를 결정할 수 있다. 보다 구체적으로, 프로세서(110)는 음성인식 결과에 대한 의미 분석으로부터 대화의 주제를 결정하거나, 사용자 단말(10)로부터 대화 주제를 수신할 수 있으며, 상기 수신한 대화 주제에 대응하여 키워드를 결정할 수 있다. 예를 들어, 사용자 단말(10)로부터 '저작권'을 대화 주제로서 수신한 경우, 프로세서(110)는 상기 주제(즉, 저작권)와 관련된 '침해', '고소' 및 '친고죄' 등을 키워드로써 결정할 수 있다. 이 경우, 복수의 대화 주제 각각에 대응하여 하나 이상의 키워드가 메모리(120)에 사전 저장될 수 있다. 전술한 대화 주제 및 대화 주제에 대응하는 키워드에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.
본 개시의 일 실시예에 따르면, 프로세서(110)는 하나 이상의 음성 인식 결과에서 하나 이상의 키워드의 위치를 식별할 수 있다. 구체적으로, 프로세서(110)는 대화록에 포함된 하나 이상의 음성 인식 결과 중 하나 이상의 키워드 각각의 대화록 상에서의 위치 및 음성 데이터 상에서의 위치 중 적어도 하나를 식별할 수 있다. 또한, 프로세서(110)는 대화록에 포함된 하나 이상의 음성 인식 결과에서 하나 이상의 키워드 각각의 위치를 식별하고, 상기 하나 이상의 키워드 각각에 대응하는 음성 데이터 서브 데이터를 재생할 수 있다. 자세히 설명하면, 프로세서(110)는 하나 이상의 음성 데이터 각각을 음성 인식 모델의 입력으로 하여 출력된 하나 이상의 음성 인식 결과를 통해 생성된 대화록에서 키워드를 식별하고, 그리고 식별된 키워드에 대응하여 상기 식별된 키워드를 포함하는 음성 데이터 서브 데이터를 재생할 수 있다. 즉, 프로세서(110)는 사용자 단말(10)로부터 수신한 음성 데이터 중 특정 키워드에 대응하는 부분만을 대화록에서 식별하여 음성 인식 결과로써 제공할 수 있으며, 상기 식별된 음성 인식 결과에 대응하는 음성 데이터 서브 데이터 구간을 재생시킬 수 있어, 사용자에게 편의성을 제공할 수 있다. 다시 말해, 사용자는 대화록에서 중요한 특정 부분만을 제공받을 수 있으며, 녹음 데이터(즉, 음성 데이터)에서 해당 특정 부분에 대응하는 구간을 재생하도록 하는 재생 화면을 제공받을 수 있으므로, 대화록을 전부 읽어보거나 녹음 데이터를 모두 들을 필요없이 필요에 따라 특정 중요 부분(즉, 키워드)만을 탐색할 수 있어, 요지 파악에 편의성을 제공받을 수 있다.
본 개시의 일 실시예에 따르면, 프로세서(110)는 하나 이상의 사용자 단말(10) 각각으로부터 수신한 음성 데이터에 기초하여 생성된 대화록을 포함하는 사용자 인터페이스를 하나 이상의 사용자 단말로 제공할 수 있다.
프로세서(110)가 하나 이상의 사용자 단말(10)로 제공하는 사용자 인터페이스에 대한 구체적인 설명은 도 4 내지 도 7을 참조하여 후술하도록 한다.
도 4는 본 개시의 일 실시예에 따른 사용자 목록 표시 화면 및 대화 목록 표시 화면을 포함하는 사용자 인터페이스의 예시도를 도시한다.
사용자 인터페이스는 사용자 단말(10)의 디스플레이 수단에 표시될 수 있다.
프로세서(110)가 생성하여 하나 이상의 사용자 단말(10)로 제공한 사용자 인터페이스는 도 4의 (a)에 도시된 바와 같이, 대화록 서비스를 이용하는 사용자의 프로필 정보(310), 상기 사용자가 등록한 다른 사용자들의 목록, 등록한 다른 사용자들의 접속 상태 여부에 대한 접속 표시 정보(320) 및 다른 사용자들 추가 등록을 위한 등록 요청 버튼(330)을 표시하는 사용자 목록 표시 화면(340)을 제공할 수 있다. 다만, 해당 사용자 목록 표시 화면에 표시된 정보들은 필수적인 요소들은 아니므로, 추가적인 정보가 사용자 목록 표시 정보에 더 포함될 수도 있다.
사용자 인터페이스에 포함된 사용자 목록 표시 화면(340)은 사용자의 프로필 정보(310)를 표시할 수 있다. 예를 들어, 사용자 인터페이스에 표시된 사용자의 프로필 정보는 사용자의 이름, 회사명, 직위, 연락처 등에 관련한 정보를 포함할 수 있다. 또한, 사용자 인터페이스에 포함된 사용자 목록 표시 화면(340)은 사용자가 친구로 등록한 하나 이상의 다른 사용자의 목록을 표시할 수 있으며, 하나 이상의 다른 사용자의 목록 각각에 대응하여 하나 이상의 다른 사용자의 접속 상태를 나타내는 접속 표시 정보(320)를 표시할 수 있다. 예를 들어, 도 4에 도시된 바와 같이, 사용자 인터페이스는 사용자가 등록한 '최원혁'이라는 다른 사용자를 사용자 목록 표시 화면에 표시할 수 있으며, '최원혁'의 현재 접속 상태를 나타내는 접속 표시 정보를 함께 표시할 수 있다. 보다 구체적인 예를 들어, 하나 이상의 다른 사용자 중 '최원혁'에 대응하는 사용자 단말이 컴퓨팅 장치(100)에 접속하지 않은 경우, 사용자 인터페이스는 해당 사용자를 참조번호 321과 같은 접속 표시 정보를 나타낼 수 있으며, '장태빈' 및 '김선형' 각각에 대응하는 사용자 단말들이 컴퓨팅 장치(100)에 접속한 경우, 사용자 인터페이스는 참조번호 322 및 323과 같은 접속 표시 정보를 나타낼 수 있다. 사용자 인터페이스에 포함된 사용자 목록 표시 화면에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.
또한, 사용자 인터페이스에 포함된 사용자 목록 표시 화면(340)은 추가적으로 다른 사용자를 등록하기 위한 친구 추가 버튼(330)을 표시할 수 있으며, 프로세서(110)는 사용자 단말(10)로부터 해당 친구 추가 버튼(330)에 대한 선택 입력을 수신하는 경우, 대화 또는 회의를 진행하고자 하는 다른 사용자 고유 ID를 입력 받을 수 있는 ID 입력 창을 제공하도록 하는 제어 신호를 사용자 단말로 전송할 것을 결정할 수 있다. 또한, 사용자 단말(10)로부터 해당 ID 입력 창을 통해 다른 사용자의 ID에 대한 정보를 수신하는 경우, 프로세서(110)는 다른 사용자와 회의 또는 대화를 진행할 수 있도록, 다른 사용자의 정보(예컨대, ID)를 사용자 목록 표시 화면(340)에 추가하여 표시하도록 하는 제어 신호를 사용자 단말(10)로 전송할 것을 결정할 수 있다.
또한, 사용자 인터페이스는 사용자가 다른 사용자들과 수행한 하나 이상의 대화가 표시된 대화 목록 표시 화면(350)을 포함할 수 있다. 구체적으로, 사용자 인터페이스는 대화 목록 표시 화면(350)에 대한 사용자의 선택 입력에 기초하여 다른 사용자들과 수행한 하나 이상의 대화 각각의 명칭을 표시하는 화면을 제공할 수 있다. 이때, 사용자 인터페이스에 포함된 대화 목록 표시 화면(350)은, 사용자가 수행한 하나 이상의 대화 항목(370), 대화 내용 검색 버튼(360) 및 대화방을 개설하기 위한 대화방 개설 버튼(390)을 포함할 수 있다.
사용자 인터페이스에 포함된 대화 목록 표시 화면(350)은, 사용자가 하나 이상의 다른 사용자 각각과 수행한 하나 이상의 대화 각각의 명칭을 정렬하여 표시할 수 있다. 이 경우, 하나 이상의 대화에 대한 목록은 도 4에 도시된 바와 같이 IR 미팅(371), 주간 회의(372), OO회사 미팅(373), OOO님 인터뷰(374), OOO님 상담(375) 및 전체 회의(376)와 같이 정렬되어 표시될 수 있다. 또한, 각각의 대화에 대한 명칭은 대화방 개설 시 사용자 단말로부터 수신한 선택 입력에 기초하여 생성된 것 일 수 있으며, 각각의 대화에 대한 의미 분석 결과로서 생성되거나 또는 각각의 대화에서 결정된 키워드에 기초하여 생성된 것 일 수도 있다.
또한, 사용자 인터페이스에 포함된 대화 목록 표시 화면(350)은 사용자가 수행한 하나 이상의 대화 각각에 대응하여 하나 이상의 시점 정보를 표시할 수 있다. 예를 들어, 도 4에 도시된 바와 같이, 사용자가 수행한 대화의 명칭이 IR 미팅(371)인 경우, 상기 IR 미팅(371)에 대응하여 '2018.10.03. 14:00'라는 시점 정보를 표시할 수 있다. 또한, 대화 목록 표시 화면에 표시된 하나 이상의 대화 각각의 명칭은 시점 정보에 기초하여 내림차순 또는 오름차순으로 정렬될 수 있다.
또한, 사용자 인터페이스에 포함된 대화 목록 표시 화면(350)은 사용자가 수행한 하나 이상의 대화 중 특정 대화를 검색하기 위한 대화 검색 버튼(360)을 표시할 수 있다. 대화 목록 표시 화면(350)을 통해 사용자 단말(10)로부터 대화 검색 버튼에 대한 선택 입력을 수신한 경우, 프로세서(110)는 숫자 또는 텍스트를 입력 받는 검색 창을 제공하도록 하는 제어 신호를 사용자 단말(10)로 전송할 것을 결정할 수 있다. 또한, 사용자 단말(10)로부터 상기 검색 창에 숫자 또는 텍스트에 대한 정보를 수신하는 경우, 프로세서(110)는 사용자 단말(10)로부터 수신한 숫자 또는 텍스트에 대한 정보에 대응하는 대화를 검색하여 제공하도록 하는 제어 신호를 사용자 단말(10)로 전송할 것을 결정할 수 있다. 이때, 프로세서(110)가 사용자 단말(10)로부터 수신하는 선택 입력은 대화의 명칭, 대화의 시점 정보 및 대화에 포함된 하나 이상의 사용자에 대한 정보 중 적어도 하나에 대한 정보일 수 있다. 즉, 프로세서(110)는 대화의 명칭, 대화의 시점 정보 및 대화에 포함된 하나 이상의 사용자에 대한 정보(예컨대, 대화를 수행한 하나 이상의 사용자 각각에 ID 정보 등)에 기초하여 하나 이상의 대화 중 특정 대화에 대한 검색을 수행할 수 있다.
또한, 사용자 인터페이스에 포함된 대화 목록 표시 화면(350)에 표시된 하나 이상의 대화 명칭 중 특정 대화 명칭에 대하여 사용자 단말로부터 선택 입력을 수신하는 경우, 프로세서(110)는 상기 사용자 단말의 선택 입력에 기초하여 해당 대화 명칭에 대응하는 대화록 표시 화면을 제공하도록 하는 제어 신호를 사용자 단말(10)로 전송할 것을 결정할 수 있다. 사용자가 수행한 하나 이상의 대화 명칭 중 특정 대화 명칭에 대한 사용자 단말의 선택 입력에 기초하여 사용자 단말로 제공하는 대화록 표시 화면에 대한 구체적인 설명은 도 6을 참조하여 후술하도록 한다.
또한, 사용자 인터페이스에 포함된 대화 목록 표시 화면(350)은 사용자가 하나 이상의 다른 사용자와 대화방을 개설하기 위하여 사용자 단말(10)로부터 선택 입력을 수신하는 대화방 개설 버튼을 포함할 수 있다. 또한, 대화방 개설 버튼에 대한 선택 입력을 사용자 단말(10)로부터 수신하는 경우, 프로세서(110)는 하나 이상의 다른 사용자를 대화방에 포함시키기 위한 사용자 선택 입력 화면을 제공하도록 하는 제어 신호를 사용자 단말(10)로 전송할 것을 결정할 수 있다. 사용자 인터페이스에 포함된 사용자 선택 입력 화면 및 사용자 선택 입력 화면에 대한 사용자 단말의 선택 입력에 기초하여 개설된 대화방에 대한 구체적인 설명은 도 5를 참조하여 후술하도록 한다.
도 5는 본 개시의 일 실시예에 따른 대화방을 개설하는 과정 및 복수의 사용자를 포함하는 대화방에 대한 사용자 인터페이스의 예시도를 도시한다.
본 개시의 일 실시예에 따르면, 프로세서(110)는 대화방 개설 버튼(도 4의 참조 번호 390)에 대한 사용자 단말(10)의 선택 입력에 대응하여 하나 이상의 다른 사용자를 대화방에 포함시키기 위한 사용자 선택 입력 화면을 제공하도록 하는 제어 신호를 사용자 단말(10)로 전송할 것을 결정할 수 있다. 이때, 사용자 선택 입력 화면은 도 5에 도시된 바와 같이, 사용자가 등록한 하나 이상의 다른 사용자의 목록을 표시할 수 있으며, 상기 하나 이상의 다른 사용자 각각에 대응하여 상기 하나 이상의 다른 사용자를 선택하기 위한 선택 버튼을 포함할 수 있다. 보다 구체적인 예를 들어, 도 5를 참조하면, 사용자가 상기 사용자가 등록한 하나 이상의 다른 사용자 중 '장태빈', '김선형' 및 '변기훈'라는 아이디를 가진 다른 사용자를 포함하는 대화방을 개설하고자 하는 경우, '장태빈', '김선형' 및 '변기훈'에 각각 대응하는 선택 버튼 각각(참조번호 422, 423, 424)을 선택 입력하고, 선택 완료에 대한 버튼을 선택 입력할 수 있다. 다시 말해, 프로세서(110)는 사용자 단말로부터 사용자 선택 입력 화면을 통해 하나 이상의 다른 사용자 각각에 대한 선택 입력(참조번호 422, 423, 444)과 선택 완료에 대한 확인 버튼(430)에 대한 선택 입력에 대응하여 대화방을 개설하도록 하는 제어 신호를 사용자 단말(10)로 전송할 것을 결정할 수 있다. 전술한 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.
또한, 프로세서(110)는 사용자와 하나 이상의 다른 사용자와의 새로운 대화방이 개설된 경우, 대화방 표시 화면을 제공하도록 하는 제어 신호를 사용자 단말로 전송할 것을 결정할 수 있다. 예를 들어, 프로세서(110)는 도 5의 (a)와 같이 하나 이상의 다른 사용자('장태빈', '김선형' 및 '변기훈')에 대한 사용자 단말의 선택 입력을 수신한 경우, 도 5의 (b)와 같은 대화방 표시 화면을 제공할 수 있다. 이 경우, 대화방 표시 화면은, 도 5의 (b)에 도시된 바와 같이, 대화방이 개설된 시점 정보를 표시할 수 있으며, 상기 대화방에 포함된 사용자들의 정보(예컨대, 사용자의 ID 정보('장태빈', '김선형' 및 '변기훈'))를 표시할 수 있다. 전술한 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.
또한, 사용자 인터페이스에 포함된 대화방 표시 화면은 대화방에 포함된 하나 이상의 사용자 각각으로부터 하나 이상의 음성 데이터를 수신하기 위한 녹음 시작 버튼(440)을 포함할 수 있다. 또한, 사용자 단말로부터 대화방 표시 화면에 표시된 녹음 시작 버튼에 대한 선택 입력을 수신하는 경우, 프로세서(110)는 해당 선택 입력을 수신하는 시점을 기초로 하나 이상의 사용자 단말 각각으로부터 하나 이상의 음성 데이터를 수신할 수 있다.
또한, 사용자 인터페이스에 포함된 대화방 표시 화면은 대화방에 포함된 하나 이상의 사용자 각각으로부터 수신한 하나 이상의 음성 데이터에 기초하여 생성된 하나 이상의 음성 인식 결과를 시간별 및 화자별로 정렬하여 표시할 수 있다. 사용자 각각으로부터 수신한 하나 이상의 음성 데이터에 기초하여 생성된 하나 이상의 음성 인식 결과를 시간별 및 화자별로 정렬하여 표시하는 구성은 앞서 도 2를 통해 구체적으로 설명한 것으로 중복 설명은 생략하도록 한다. 사용자 인터페이스는 사용자 본인의 단말로부터 수신된 음성 데이터에 기초하여 출력된 음성 인식 결과를 대화방 표시 화면의 일측면에 표시하고, 그리고 하나 이상의 다른 사용자 단말로부터 수신된 각각의 음성 데이터에 기초하여 출력된 음성 인식 결과는 대화방 표시 화면의 다른 일 측면에 표시할 수 있다. 예를 들어, 도 5의 (b)에 도시된 바와 같이, 특정 사용자(450)의 음성 데이터를 통해 출력된 음성 인식 결과는 상기 특정 사용자(450)에 대응하여 대화방 표시 화면의 왼쪽에 배치(451)하고, 특정 사용자를 제외한 하나 이상의 다른 사용자(460)의 음성 데이터를 통해 출력된 음성 인식 결과는 대화방 표시 화면의 오른쪽에 배치(461)할 수 있다. 즉, 사용자 인터페이스는 사용자가 대화 내용을 용이하게 파악하도록 복수의 사용자가 간 대화 기록을 채팅창 형태로 나타냄으로써, 텍스트에 대한 가독성을 확보하여 사용자에게 편의성을 제공할 수 있다.
또한, 사용자 단말로부터 대화록 목록 표시 화면(350)에 표시된 하나 이상의 대화 명칭 중 특정 대화 명칭에 대한 선택 입력을 수신하는 경우, 프로세서(110)는 대화록 표시 화면을 제공하도록 하는 제어 신호를 사용자 단말로 전송할 것을 결정할 수 있다. 대화록 표시 화면에 대한 구체적은 설명은 도 6을 참조하여 후술하도록 한다.
도 6은 본 개시의 일 실시예에 따른 사용자가 수행한 하나 이상의 대화 목록 중 특정 대화에 대한 사용자 단말의 선택 입력에 대응하여 대화록 표시 화면 제공하는 사용자 인터페이스의 예시도를 도시한다.
사용자 인터페이스에 포함된 대화 목록 표시 화면(350)에 표시된 하나 이상의 대화 명칭 중 특정 대화 명칭에 대하여 사용자 단말로부터 선택 입력을 수신하는 경우, 프로세서(110)는 사용자 단말의 선택 입력에 기초하여 해당 대화 명칭에 대응하는 대화록 표시 화면을 제공하도록 하는 제어 신호를 사용자 단말로 전송할 것을 결정할 수 있다. 구체적인 예를 들어, 도 6의 (a)에 도시된 바와 같이, 대화 목록 표시 화면에 표시된 하나 이상의 대화 명칭 중 '서비스 기획 회의'에 해당하는 대화 명칭에 대한 선택 입력(510)을 사용자 단말(10)로부터 수신하는 경우, 프로세서(110)는 '서비스 기획 회의'에 대응하는 대화록 표시 화면을 제공하도록 하는 제어 신호를 사용자 단말(10)로 전송할 수 있다. 이 경우, 대화록 표시 화면은 도 6의 (b)와 같은 항목들을 포함할 수 있다. 보다 구체적으로, 대화록 표시 화면은, 대화를 수행한 하나 이상의 사용자 각각에 대한 정보(530), 상기 대화방에 관련한 하나 이상의 키워드에 관한 정보(540), 시간별 및 화자별로 나열된 하나 이상의 음성 인식 결과에 대한 정보(550) 및 음성 인식 결과에 대응하는 음성 구간 재생하는 음성 재생 화면(560)을 포함할 수 있다. 전술한 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.
또한, 프로세서(110)는 사용자 단말(10)로부터 대화록 표시 화면(350)에 표시된 하나 이상의 키워드 및 하나 이상의 음성 인식 결과 중 적어도 하나에 대한 선택 입력을 수신하는 경우, 해당 선택 입력에 대응하여 음성 데이터를 재생할 수 있다.
프로세서(110)가 사용자 단말(10)로부터 하나 이상의 키워드 및 하나 이상의 음성 인식 결과에 대한 선택 입력에 기초하여 음성 데이터를 재생하는 것에 대한 구체적인 설명은 도 7을 참조하여 후술하도록 한다.
도 7은 본 개시의 일 실시예에 따른 음성 인식 결과 및 키워드에 대한 사용자의 선택 입력에 대응하여 음성 데이터의 특정 시점을 재생하는 화면이 표시된 사용자 인터페이스의 예시도를 도시한다.
사용자 인터페이스는 대화록 표시 화면에 하나 이상의 음성 인식 결과를 표시할 수 있으며, 프로세서(110)는 하나 이상의 음성 인식 결과 중 적어도 하나의 음성 인식 결과에 대한 사용자 단말로부터의 선택 입력에 대응하여 해당 음성 인식 결과의 생성 시점에 음성 데이터를 재생하도록 하는 음성 재생 화면(630)을 제공하도록 하는 제어 신호를 사용자 단말(10)로 전송할 것을 결정할 수 있다. 구체적인 예를 들어, 도 7에 도시된 바와 같이, 대화록 표시 화면은 참조번호 611, 612 및 613과 같이 하나 이상의 음성 인식 결과를 표시할 수 있다. 이 경우, 사용자 단말(10)로부터 참조번호 612에 대한 선택 입력을 수신하는 경우, 프로세서(110)는 해당 음성 인식 결과에 대응하는 음성 데이터의 발화 구간을 시작점으로 하는 음성 데이터 서브 데이터를 재생시키는 음성 재생 화면(630)을 제공하도록 하는 제어 신호를 사용자 단말(10)로 전송할 것을 결정할 수 있다. 즉, 프로세서(110)는 하나 이상의 음성 인식 결과를 포함하는 대화록을 제공할 수 있으며, 대화록에서 사용자 단말(10)을 통해 특정 음성 인식 결과에 대한 선택 입력에 대응하여 해당 음성 데이터 서브 데이터를 재생시킬 수 있다. 이에 따라, 사용자는 하나 이상의 다른 사용자와 수행한 대화를 텍스트 형태 및 음성의 형태로 모두 제공받을 수 있다. 더불어, 음성 파일은 특정 구간에 대한 내용 파악이 어렵기 때문에 사용자는 대화록에 표시된 하나 이상의 음성 인식 결과(즉, 텍스트)를 통해 대화 내용에서 특정 구간을 빠르게 식별하고 해당 특정 구간에 대응하는 음성 데이터 서브 데이터를 재생시킬 수 있어, 수행한 대화에 대하여 내용 파악이 용이해질 수 있다.
또한, 프로세서(110)는 사용자 단말(10)로부터 하나 이상의 키워드 중 특정 키워드에 대한 선택 입력에 대응하여 해당 키워드와 매칭된 하나 이상의 음성 인식 결과의 생성 시점의 음성 데이터 서브 데이터를 재생하도록 하는 음성 재생 화면(630)을 제공하도록 하는 제어 신호를 사용자 단말(10)로 전송할 것을 결정할 수 있다. 이 경우, 하나 이상의 키워드의 위치는 하나 이상의 음성 인식 결과 각각에서 식별될 수 있으며, 특정 키워드는 대화록에 포함된 하나 이상의 음성 인식 결과 중 하나 이상의 위치에서 식별될 수 있다. 이에 따라, 프로세서(110)는 식별된 키워드의 위치를 음성 재생 화면(630)에 하나 이상 표시할 수 있다. 보다 구체적인 예를 들어, 도 7에 도시된 바와 같이 대화록 표시 화면에 표시된 하나 이상의 키워드가 '법률', '상담' 및 '저작권'을 포함하며, 사용자 단말(10)로부터 특정 '저작권'에 대한 선택 입력을 수신하는 경우, 프로세서(110)는 해당 키워드에 대응하는 구간의 음성 데이터 서브 데이터를 재생하도록 하는 음성 재생 화면(630)을 제공하도록 하는 제어 신호를 사용자 단말(10)로 제공할 수 있으며, 상기 음성 재생 화면(630)에는 음성 데이터에서 '저작권'(즉, 사용자가 선택한 키워드)에 대응하는 구간을 하나 이상 표시할 수 있다. 즉, 프로세서(110)는 사용자가 특정 키워드에 대응하는 구간을 용이하게 탐색할 수 있도록 음성 재생 화면(630)에 키워드가 존재하는 구간(즉, 음성 데이터 서브 데이터)을 각각 표시할 수 있다. 이에 따라, 사용자는 다른 사용자와 수행한 대화 내용을 포함하는 음성 데이터에서 특정 키워드에 대응하는 구간을 용이하게 재생할 수 있어, 특정 내용 탐색을 용이하게 수행할 수 있다.
본 개시의 일 실시예에 따르면, 사용자 인터페이스는 사용자 단말로부터 대화록에 포함된 하나 이상의 음성 인식 결과에 대한 수정 요청을 입력 받는 텍스트 편집 화면을 포함할 수 있다. 또한, 프로세서(110)는 사용자 단말(10)로부터 대화록에 포함된 하나 이상의 음성 인식 결과 중 특정 음성 인식 결과에 대한 수정 요청을 수신하는 경우, 음성 인식 모델이 해당 음성 인식 결과에 대응하는 음성 인식 결과를 출력하도록 상기 음성 인식 모델을 보정할 수 있다. 이때, 음성 인식 모델은 STT(Speech to text) 알고리즘을 활용하여 하나 이상의 음성 데이터 서브 데이터 각각에 대응하는 음성 인식 결과를 출력할 수 있다. 즉, 프로세서(110)는 사용자 단말(10)로부터 수신한 음성 인식 결과에 대한 수정 요청에 대응하는 피드백을 STT 알고리즘에 반영함으로써, STT알고리즘의 성능을 증진시킬 수 있다.
본 개시의 일 실시예에 따르면, 메모리(120)는 프로세서(110)에서 실행가능한 프로그램 코드, 하나 이상의 사용자 단말 각각에 대한 식별 정보, 음성 데이터를 입력으로 하여 음성 인식 결과를 출력하는 음성 인식 모델에 관한 정보 및 자연어 처리에 관한 알고리즘 등에 관련된 정보들을 저장할 수 있다. 예를 들어, 사용자 인터페이스를 통해 사용자 단말로부터 수신하는 하나 이상의 음성 인식 결과를 수정하기 위한 수정 요청에 대한 정보들을 저장할 수 있다.
본 개시의 일 실시예에 따르면, 메모리(120)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 컴퓨팅 장치(100)는 인터넷(internet) 상에서 상기 메모리의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다. 전술한 메모리에 대한 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.
본 개시의 일 실시예에 따르면, 네트워크부(130)는 하나 이상의 사용자 단말(10)과 정보를 전송할 수 있고, 그리고 수신할 수 있다. 보다 구체적으로, 네트워크부(130)는 네트워크 접속을 위한 유/무선 인터넷 모듈을 포함할 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. 유선 인터넷 기술로는 XDSL(Digital Subscriber Line), FTTH(Fibers to the home), PLC(Power Line Communication) 등이 이용될 수 있다.
또한, 네트워크부(130)는 근거리 통신 모듈을 포함하여, 사용자 단말과 비교적 근거리에 위치하고 근거리 통신 모듈을 포함한 전자 장치와 데이터를 송수신할 수 있다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.
도 3은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 순서도를 도시한다.
본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 하나 이상의 사용자 단말 각각으로부터 하나 이상의 음성 데이터―상기 음성 데이터는 각각의 사용자에 대한 하나 이상의 발화를 포함함―를 수신할 수 있다(210). 이 경우, 컴퓨팅 장치(100)가 수신하는 음성 데이터는 하나 이상의 사용자 단말(10) 각각으로부터 수신한 것으로, 하나 이상이 존재할 수 있다.
본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성할 수 있다(220).
컴퓨팅 장치(100)는 하나 이상의 음성 데이터 각각에 대하여 하나 이상의 발화 구간을 식별할 수 있다. 컴퓨팅 장치(100)는 음성 데이터에 포함된 하나 이상의 발화를 식별할 수 있다. 구체적으로, 컴퓨팅 장치(100)는 음성 데이터에 존재하는 하나 이상의 묵음 구간을 기준으로 사용자의 발화 구간을 식별할 수 있다. 또한, 컴퓨팅 장치(100)는 음성 데이터를 발화 구간에 기초하여 하나 이상의 음성 데이터 서브 데이터로 분할할 수 있다.
또한, 컴퓨팅 장치(100)는 음성 데이터에 포함된 하나 이상의 발화 구간 각각에서 하나 이상의 사용자 각각의 음성 식별할 수 있다. 또한, 컴퓨팅 장치(100)는 상기 식별된 하나 이상의 사용자 각각의 음성 중 음성의 크기가 사전 결정된 크기 이상을 가지는 발화를 음성 데이터에 대응하는 특정 화자로 결정할 수 있다. 또한, 컴퓨팅 장치(100)는 음성 데이터에 대응하는 특정 화자를 사용자 단말의 식별 정보와 매칭하여 저장할 수 있다.
또한, 컴퓨팅 장치(100)는 하나 이상의 사용자 단말(10) 각각으로부터 수신한 하나 이상의 음성 데이터 각각에 통일된 시점을 부여할 수 있다.
또한, 컴퓨팅 장치(100)는 하나 이상의 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 식별할 수 있다. 구체적으로, 컴퓨팅 장치(100)는 음성 데이터를 상기 음성 데이터에 포함된 발화 구간에 기초하여 분할한 하나 이상의 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 식별할 수 있다.
또한, 컴퓨팅 장치(100)는 하나 이상의 음성 데이터 서브 데이터 각각을 음성 인식 모델의 입력으로 하여 하나 이상의 음성 데이터 서브 데이터 각각에 대응하는 하나 이상의 음성 인식 서브 결과를 출력할 수 있다. 이 경우, 음성 인식 모델은 사용자가 말하는 음성 언어를 문자 데이터로의 전환을 수행하는 모델로, 학습 데이터를 통해 사전 학습된 하나 이상의 네트워크 함수를 포함할 수 있다. 또한, 컴퓨팅 장치(100)는 하나 이상의 음성 인식 서브 결과의 기초가 된 각각의 음성 데이터 서브 데이터에서 식별된 시작 시점 및 종료 시점에 기초하여 상기 대화록 상에서 하나 이상의 음성 인식 서브 결과 각각의 순서를 결정할 수 있다.
또한, 컴퓨팅 장치(100)는 하나 이상의 음성 인식 서브 결과 각각의 순서에 기초하여 대화록을 생성할 수 있다.
본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 대화록을 포함하는 사용자 인터페이스를 생성하여 하나 이상의 사용자 단말로 제공할 수 있다(230).
도 8은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 수단을 도시한다.
본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 대화록 서비스를 제공하기 위해서, 하나 이상의 사용자 단말 각각으로부터 하나 이상의 음성 데이터―상기 음성 데이터는 각각의 사용자에 대한 하나 이상의 발화를 포함함―를 수신하기 위한 수단(710), 상기 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성하기 위한 수단(720) 및 상기 대화록을 포함하는 사용자 인터페이스를 생성하여 상기 하나 이상의 사용자 단말로 제공하기 위한 수단(730)을 포함할 수 있다.
대안적으로, 상기 하나 이상의 음성 데이터 각각에 포함된 신호의 크기를 사전 결정된 기준 신호의 크기와의 비교에 기초하여 상기 하나 이상의 음성 데이터 각각에 포함된 신호의 크기를 표준화하기 위한 수단 및 상기 하나 이상의 음성 데이터 각각에 포함된 주파수를 분석하여 적어도 하나의 특정 주파수를 제거하기 위한 수단을 더 포함할 수 있다.
대안적으로, 상기 음성 데이터에 포함된 하나 이상의 묵음 구간에 기초하여 하나 이상의 발화 구간을 식별하기 위한 수단 및 상기 음성 데이터에 포함된 하나 이상의 발화 구간에서의 발화 음성의 크기에 기초하여 화자를 분리하기 위한 수단을 더 포함할 수 있다.
대안적으로, 상기 하나 이상의 음성 데이터 각각에 포함된 하나 이상의 발화 구간 에서의 발화 크기에 기초하여 화자를 분리하기 위한 수단은, 상기 음성 데이터에 포함된 하나 이상의 발화 중 사전 결정된 크기 이상의 발화 음성의 크기를 가지는 발화를 상기 음성 데이터에 대응하는 특정 화자로 결정하기 위한 수단, 상기 음성 데이터에서 상기 결정된 특정 화자의 음성을 제외한 다른 음성을 제거하기 위한 수단 및 상기 특정 화자를 상기 음성 데이터를 전송한 사용자 단말의 식별 정보와 매칭하여 저장하기 위한 수단을 포함할 수 있다.
대안적으로, 상기 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성하기 위한 수단은, 상기 음성 데이터를 발화 구간에 기초하여 하나 이상의 음성 데이터 서브 데이터로 분할하기 위한 수단, 상기 하나 이상의 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 식별하기 위한 수단, 상기 하나 이상의 음성 데이터 서브 데이터 각각을 상기 음성 인식 모델의 입력으로 하여 상기 하나 이상의 음성 데이터 서브 데이터 각각에 대응하는 하나 이상의 음성 인식 서브 결과를 출력하기 위한 수단 및 상기 하나 이상의 음성 인식 서브 결과의 기초가 된 각각의 음성 데이터 서브 데이터에서 식별된 시작 시점 및 종료 시점에 기초하여 상기 하나 이상의 음성 인식 서브 결과 각각의 상기 대화록 상에서의 순서를 결정하기 위한 수단을 포함할 수 있다.
대안적으로, 상기 하나 이상의 음성 데이터는 각각의 사용자 단말로부터 수신된 제 1 음성 데이터 및 제 2 음성 데이터를 포함하며, 상기 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성하기 위한 수단은, 상기 제 1 음성 데이터를 발화 구간에 기초하여 하나 이상의 제 1 음성 데이터 서브 데이터로 분할하고, 그리고 상기 제 2 음성 데이터를 발화 구간에 기초하여 하나 이상의 제 2 음성 데이터 서브 데이터로 분할하기 위한 수단, 상기 제 1 음성 데이터 서브 데이터 및 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점을 식별하기 위한 수단, 상기 제 1 음성 데이터 서브 데이터 및 상기 제 2 음성 데이터 서브 데이터를 상기 음성 인식 모델의 입력으로 하여 각각의 서브 데이터 각각에 대응하는 하나 이상의 제 1 음성 인식 서브 결과 및 하나 이상의 제 2 음성 인식 서브 결과를 출력하기 위한 수단, 상기 하나 이상의 제 1 음성 인식 서브 결과 및 상기 하나 이상의 제 2 음성 인식 서브 결과의 기초가 된 각각의 음성 데이터 서브 데이터에서 식별된 시작 시점 및 종료 시점에 기초하여 상기 하나 이상의 제 1 음성 인식 서브 결과 및 상기 하나 이상의 제 2 음성 인식 서브 결과 각각의 상기 대화록 상에서의 순서를 결정하기 위한 수단 및 상기 결정된 순서 및 상기 하나 이상의 사용자 단말 각각의 식별 정보에 기초하여 대화록을 생성하기 위한 수단을 포함할 수 있다.
대안적으로, 상기 제 1 음성 데이터 서브 데이터 및 상기 제 2 음성 데이터 서브 데이터를 상기 음성 인식 모델의 입력으로 하여 각각의 서브 데이터에 대응하는 하나 이상의 제 1 음성 인식 서브 결과 및 제 2 음성 인식 서브 결과를 출력하기 위한 수단은, 상기 제 1 음성 데이터 서브 데이터 및 상기 제 2 음성 데이터 서브 데이터 각각의 시작 시점 및 종료 시점에 기초하여 중첩 구간을 식별하기 위한 수단, 상기 중첩 구간이 식별된 경우, 상기 중첩 구간에 대응하는 제 1 음성 인식 서브 결과 및 상기 제 2 음성 인식 서브 결과 중 적어도 하나에 대한 분할 여부를 결정하기 위한 수단 및 상기 분할이 결정된 경우, 상기 중첩 구간에 대응하는 음성 인식 서브 결과를 분할하기 위한 수단을 포함할 수 있다.
대안적으로, 상기 중첩 구간이 식별된 경우, 상기 중첩 구간에 대응하는 제 1 음성 인식 서브 결과 및 상기 제 2 음성 인식 서브 결과 중 적어도 하나에 대한 분할 여부를 결정하기 위한 수단은, 상기 중첩 구간에 대응하는 음성 인식 결과에 대하여 통계적 언어 모델을 통해 상기 음성 인식 결과의 분할 여부를 결정하기 위한 수단을 포함할 수 있다.
대안적으로, 상기 하나 이상의 음성 인식 결과의 의미 분석 결과, 상기 하나 이상의 음성 인식 결과에 포함된 단어 별 반복 횟수 및 사전 결정된 대화 주제 중 적어도 하나에 기초하여 상기 대화록에 대한 하나 이상의 키워드를 결정하기 위한 수단 및 상기 하나 이상의 음성 인식 결과에서 상기 하나 이상의 키워드 각각의 위치를 식별하기 위한 수단을 더 포함할 수 있다.
대안적으로, 상기 사용자 인터페이스는, 사용자의 프로필, 상기 사용자가 등록한 하나 이상의 다른 사용자 목록, 상기 사용자가 추가 사용자를 등록하기 위한 등록 요청 버튼 및 상기 하나 이상의 다른 사용자 각각에 대한 접속 여부를 표시하는 사용자 목록 표시 화면을 포함하고, 그리고 상기 사용자가 참여한 하나 이상의 대화 각각의 명칭에 대한 정보, 상기 하나 이상의 대화 중 특정 대화를 검색하기 위한 대화 검색 버튼 및 하나 이상의 다른 사용자와 대화방을 개설하기 위한 대화방 개설 버튼을 표시하는 대화 목록 표시 화면을 포함할 수 있다.
대안적으로, 상기 프로세서는, 사용자 단말로부터 상기 대화방 개설 버튼에 대한 선택 입력을 수신하는 경우, 상기 하나 이상의 다른 사용자를 대화방에 포함시키기 위한 사용자 선택 입력 화면을 제공하도록 하는 제어 신호를 상기 사용자 단말로 전송할 것을 결정하기 위한 수단을 더 포함할 수 있다.
대안적으로, 상기 프로세서는, 사용자 단말로부터 상기 사용자가 참여한 하나 이상의 대화방 목록 중 특정 대화방에 대한 선택 입력을 수신하는 경우, 상기 특정 대화방에 대응하는 대화록 및 하나 이상의 키워드를 포함하는 대화록 표시 화면을 제공하도록 하는 제어 신호를 상기 사용자 단말로 전송할 것을 결정하기 위한 수단을 더 포함할 수 있다.
대안적으로, 상기 프로세서는, 상기 사용자 단말로부터 상기 하나 이상의 키워드 중 특정 키워드에 대한 선택 입력을 수신하는 경우, 해당 키워드에 대응하는 음성 인식 결과를 검색하고, 그리고 상기 검색된 음성 인식 결과의 생성에 기초한 음성 데이터의 발화 구간을 재생하기 위한 키워드 재생 화면을 제공하도록 하는 제어 신호를 상기 사용자 단말로 전송할 것을 결정하기 위한 수단을 더 포함할 수 있다.
대안적으로, 상기 사용자 인터페이스는, 새로운 대화방이 개설된 경우, 상기 대화방에 포함된 하나 이상의 사용자 각각으로부터 음성 데이터를 수신하기 위한 녹음 시작 버튼 및 상기 대화방에 포함된 하나 이상의 사용자 각각으로부터 수신한 하나 이상의 음성 데이터에 기초하여 생성된 하나 이상의 음성 인식 결과를 표시하는 대화록 표시 화면을 포함할 수 있다.
대안적으로, 상기 사용자 인터페이스는, 사용자 단말로부터 상기 대화록에 포함된 하나 이상의 음성 인식 결과에 대한 수정 요청을 입력 받는 텍스트 편집 화면을 포함하고, 그리고 상기 프로세서는, 상기 사용자 단말로부터 상기 텍스트 편집 화면을 통해 상기 대화록에 포함된 하나 이상의 음성 인식 결과에 대한 수정 요청을 수신하는 경우, 상기 음성 인식 모델이 상기 수정 요청에 대응하는 음성 인식 결과를 출력하도록 상기 음성 인식 모델을 보정하기 위한 수단을 더 포함할 수 있다.
도 9는 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 모듈을 도시한다.
본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 대화록 서비스를 제공하기 위해서, 하나 이상의 사용자 단말 각각으로부터 하나 이상의 음성 데이터―상기 음성 데이터는 각각의 사용자에 대한 하나 이상의 발화를 포함함―를 수신하기 위한 모듈(810), 상기 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성하기 위한 모듈(820) 및 상기 대화록을 포함하는 사용자 인터페이스를 생성하여 상기 하나 이상의 사용자 단말로 제공하기 위한 모듈(830)을 포함할 수 있다.
도 10은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 로직을 도시한다.
본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 대화록 서비스를 제공하기 위해서, 하나 이상의 사용자 단말 각각으로부터 하나 이상의 음성 데이터―상기 음성 데이터는 각각의 사용자에 대한 하나 이상의 발화를 포함함―를 수신하기 위한 로직(910), 상기 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성하기 위한 로직(920) 및 상기 대화록을 포함하는 사용자 인터페이스를 생성하여 상기 하나 이상의 사용자 단말로 제공하기 위한 로직(930)을 포함할 수 있다.
도 11은 본 개시의 일 실시예와 관련된 대화록 서비스를 제공하기 위한 회로를 도시한다.
본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 대화록 서비스를 제공하기 위해서, 하나 이상의 사용자 단말 각각으로부터 하나 이상의 음성 데이터―상기 음성 데이터는 각각의 사용자에 대한 하나 이상의 발화를 포함함―를 수신하기 위한 회로(1010), 상기 하나 이상의 음성 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 결과로 변환하여 대화록을 생성하기 위한 회로(1020) 및 상기 대화록을 포함하는 사용자 인터페이스를 생성하여 상기 하나 이상의 사용자 단말로 제공하기 위한 회로(1030)를 포함할 수 있다.
당업자들은 추가적으로 여기서 개시된 실시예들과 관련되어 설명된 다양한 예시적 논리적 블록들, 구성들, 모듈들, 회로들, 수단들, 로직들, 및 알고리즘 단계들이 전자 하드웨어, 컴퓨터 소프트웨어, 또는 양쪽 모두의 조합들로 구현될 수 있음을 인식해야 한다. 하드웨어 및 소프트웨어의 상호교환성을 명백하게 예시하기 위해, 다양한 예시적 컴포넌트들, 블록들, 구성들, 수단들, 로직들, 모듈들, 회로들, 및 단계들은 그들의 기능성 측면에서 일반적으로 위에서 설명되었다. 그러한 기능성이 하드웨어로 또는 소프트웨어로서 구현되는지 여부는 전반적인 시스템에 부과된 특정 어플리케이션(application) 및 설계 제한들에 달려 있다. 숙련된 기술자들은 각각의 특정 어플리케이션들을 위해 다양한 방법들로 설명된 기능성을 구현할 수 있으나, 그러한 구현의 결정들이 본 개시내용의 영역을 벗어나게 하는 것으로 해석되어서는 안된다.
도 12는 본 개시의 일 실시예들이 구현될 수 있는 예시적인 컴퓨팅 환경에 대한 간략하고 일반적인 개략도를 도시한다.
본 개시가 일반적으로 하나 이상의 컴퓨터 상에서 실행될 수 있는 컴퓨터 실행가능 명령어와 관련하여 전술되었지만, 당업자라면 본 개시가 기타 프로그램 모듈들과 결합되어 및/또는 하드웨어와 소프트웨어의 조합으로서 구현될 수 있다는 것을 잘 알 것이다.
일반적으로, 프로그램 모듈은 특정의 태스크를 수행하거나 특정의 추상 데이터 유형을 구현하는 루틴, 프로그램, 컴포넌트, 데이터 구조, 기타 등등을 포함한다. 또한, 당업자라면 본 개시의 방법이 단일-프로세서 또는 멀티프로세서 컴퓨터 시스템, 미니컴퓨터, 메인프레임 컴퓨터는 물론 퍼스널 컴퓨터, 핸드헬드 컴퓨팅 장치, 마이크로프로세서-기반 또는 프로그램가능 가전 제품, 기타 등등(이들 각각은 하나 이상의 연관된 장치와 연결되어 동작할 수 있음)을 비롯한 다른 컴퓨터 시스템 구성으로 실시될 수 있다는 것을 잘 알 것이다.
본 개시의 설명된 실시예들은 또한 어떤 태스크들이 통신 네트워크를 통해 연결되어 있는 원격 처리 장치들에 의해 수행되는 분산 컴퓨팅 환경에서 실시될 수 있다. 분산 컴퓨팅 환경에서, 프로그램 모듈은 로컬 및 원격 메모리 저장 장치 둘다에 위치할 수 있다.
컴퓨터는 통상적으로 다양한 컴퓨터 판독가능 매체를 포함한다. 컴퓨터에 의해 액세스 가능한 매체는 그 어떤 것이든지 컴퓨터 판독가능 매체가 될 수 있고, 이러한 컴퓨터 판독가능 매체는 휘발성 및 비휘발성 매체, 일시적(transitory) 및 비일시적(non-transitory) 매체, 이동식 및 비-이동식 매체를 포함한다. 제한이 아닌 예로서, 컴퓨터 판독가능 매체는 컴퓨터 판독가능 저장 매체 및 컴퓨터 판독가능 전송 매체를 포함할 수 있다. 컴퓨터 판독가능 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보를 저장하는 임의의 방법 또는 기술로 구현되는 휘발성 및 비휘발성 매체, 일시적 및 비-일시적 매체, 이동식 및 비이동식 매체를 포함한다. 컴퓨터 저장 매체는 RAM, ROM, EEPROM, 플래시 메모리 또는 기타 메모리 기술, CD-ROM, DVD(digital video disk) 또는 기타 광 디스크 저장 장치, 자기 카세트, 자기 테이프, 자기 디스크 저장 장치 또는 기타 자기 저장 장치, 또는 컴퓨터에 의해 액세스될 수 있고 원하는 정보를 저장하는 데 사용될 수 있는 임의의 기타 매체를 포함하지만, 이에 한정되지 않는다.
컴퓨터 판독가능 전송 매체는 통상적으로 반송파(carrier wave) 또는 기타 전송 메커니즘(transport mechanism)과 같은 피변조 데이터 신호(modulated data signal)에 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터등을 구현하고 모든 정보 전달 매체를 포함한다. 피변조 데이터 신호라는 용어는 신호 내에 정보를 인코딩하도록 그 신호의 특성들 중 하나 이상을 설정 또는 변경시킨 신호를 의미한다. 제한이 아닌 예로서, 컴퓨터 판독가능 전송 매체는 유선 네트워크 또는 직접 배선 접속(direct-wired connection)과 같은 유선 매체, 그리고 음향, RF, 적외선, 기타 무선 매체와 같은 무선 매체를 포함한다. 상술된 매체들 중 임의의 것의 조합도 역시 컴퓨터 판독가능 전송 매체의 범위 안에 포함되는 것으로 한다.
컴퓨터(1102)를 포함하는 본 개시의 여러가지 측면들을 구현하는 예시적인 환경(1100)이 나타내어져 있으며, 컴퓨터(1102)는 처리 장치(1104), 시스템 메모리(1106) 및 시스템 버스(1108)를 포함한다. 시스템 버스(1108)는 시스템 메모리(1106)(이에 한정되지 않음)를 비롯한 시스템 컴포넌트들을 처리 장치(1104)에 연결시킨다. 처리 장치(1104)는 다양한 상용 프로세서들 중 임의의 프로세서일 수 있다. 듀얼 프로세서 및 기타 멀티프로세서 아키텍처도 역시 처리 장치(1104)로서 이용될 수 있다.
시스템 버스(1108)는 메모리 버스, 주변장치 버스, 및 다양한 상용 버스 아키텍처 중 임의의 것을 사용하는 로컬 버스에 추가적으로 상호 연결될 수 있는 몇가지 유형의 버스 구조 중 임의의 것일 수 있다. 시스템 메모리(1106)는 판독 전용 메모리(ROM)(2110) 및 랜덤 액세스 메모리(RAM)(2112)를 포함한다. 기본 입/출력 시스템(BIOS)은 ROM, EPROM, EEPROM 등의 비휘발성 메모리(2110)에 저장되며, 이 BIOS는 시동 중과 같은 때에 컴퓨터(1102) 내의 구성요소들 간에 정보를 전송하는 일을 돕는 기본적인 루틴을 포함한다. RAM(2112)은 또한 데이터를 캐싱하기 위한 정적 RAM 등의 고속 RAM을 포함할 수 있다.
컴퓨터(1102)는 또한 내장형 하드 디스크 드라이브(HDD)(2114)(예를 들어, EIDE, SATA)이 내장형 하드 디스크 드라이브(2114)는 또한 적당한 섀시(도시 생략) 내에서 외장형 용도로 구성될 수 있음), 자기 플로피 디스크 드라이브(FDD)(2116)(예를 들어, 이동식 디스켓(2118)으로부터 판독을 하거나 그에 기록을 하기 위한 것임), 및 광 디스크 드라이브(1120)(예를 들어, CD-ROM 디스크(1122)를 판독하거나 DVD 등의 기타 고용량 광 매체로부터 판독을 하거나 그에 기록을 하기 위한 것임)를 포함한다. 하드 디스크 드라이브(2114), 자기 디스크 드라이브(2116) 및 광 디스크 드라이브(1120)는 각각 하드 디스크 드라이브 인터페이스(1124), 자기 디스크 드라이브 인터페이스(1126) 및 광 드라이브 인터페이스(1128)에 의해 시스템 버스(1108)에 연결될 수 있다. 외장형 드라이브 구현을 위한 인터페이스(1124)는 USB(Universal Serial Bus) 및 IEEE 1394 인터페이스 기술 중 적어도 하나 또는 그 둘 다를 포함한다.
이들 드라이브 및 그와 연관된 컴퓨터 판독가능 매체는 데이터, 데이터 구조, 컴퓨터 실행가능 명령어, 기타 등등의 비휘발성 저장을 제공한다. 컴퓨터(1102)의 경우, 드라이브 및 매체는 임의의 데이터를 적당한 디지털 형식으로 저장하는 것에 대응한다. 상기에서의 컴퓨터 판독가능 매체에 대한 설명이 HDD, 이동식 자기 디스크, 및 CD 또는 DVD 등의 이동식 광 매체를 언급하고 있지만, 당업자라면 집 드라이브(zip drive), 자기 카세트, 플래쉬 메모리 카드, 카트리지, 기타 등등의 컴퓨터에 의해 판독가능한 다른 유형의 매체도 역시 예시적인 운영 환경에서 사용될 수 있으며 또 임의의 이러한 매체가 본 개시의 방법들을 수행하기 위한 컴퓨터 실행가능 명령어를 포함할 수 있다는 것을 잘 알 것이다.
운영 체제(2130), 하나 이상의 애플리케이션 프로그램(2132), 기타 프로그램 모듈(2134) 및 프로그램 데이터(2136)를 비롯한 다수의 프로그램 모듈이 드라이브 및 RAM(2112)에 저장될 수 있다. 운영 체제, 애플리케이션, 모듈 및/또는 데이터의 전부 또는 그 일부분이 또한 RAM(2112)에 캐싱될 수 있다. 본 개시가 여러가지 상업적으로 이용 가능한 운영 체제 또는 운영 체제들의 조합에서 구현될 수 있다는 것을 잘 알 것이다.
사용자는 하나 이상의 유선/무선 입력 장치, 예를 들어, 키보드(2138) 및 마우스(1140) 등의 포인팅 장치를 통해 컴퓨터(1102)에 명령 및 정보를 입력할 수 있다. 기타 입력 장치(도시 생략)로는 마이크, IR 리모콘, 조이스틱, 게임 패드, 스타일러스 펜, 터치 스크린, 기타 등등이 있을 수 있다. 이들 및 기타 입력 장치가 종종 시스템 버스(1108)에 연결되어 있는 입력 장치 인터페이스(1142)를 통해 처리 장치(1104)에 연결되지만, 병렬 포트, IEEE 1394 직렬 포트, 게임 포트, USB 포트, IR 인터페이스, 기타 등등의 기타 인터페이스에 의해 연결될 수 있다.
모니터(1144) 또는 다른 유형의 디스플레이 장치도 역시 비디오 어댑터(1146) 등의 인터페이스를 통해 시스템 버스(1108)에 연결된다. 모니터(1144)에 부가하여, 컴퓨터는 일반적으로 스피커, 프린터, 기타 등등의 기타 주변 출력 장치(도시 생략)를 포함한다.
컴퓨터(1102)는 유선 및/또는 무선 통신을 통한 원격 컴퓨터(들)(1148) 등의 하나 이상의 원격 컴퓨터로의 논리적 연결을 사용하여 네트워크화된 환경에서 동작할 수 있다. 원격 컴퓨터(들)(1148)는 워크스테이션, 컴퓨팅 디바이스 컴퓨터, 라우터, 퍼스널 컴퓨터, 휴대용 컴퓨터, 마이크로프로세서-기반 오락 기기, 피어 장치 또는 기타 통상의 네트워크 노드일 수 있으며, 일반적으로 컴퓨터(1102)에 대해 기술된 구성요소들 중 다수 또는 그 전부를 포함하지만, 간략함을 위해, 메모리 저장 장치(1150)만이 도시되어 있다. 도시되어 있는 논리적 연결은 근거리 통신망(LAN)(1152) 및/또는 더 큰 네트워크, 예를 들어, 원거리 통신망(WAN)(1154)에의 유선/무선 연결을 포함한다. 이러한 LAN 및 WAN 네트워킹 환경은 사무실 및 회사에서 일반적인 것이며, 인트라넷 등의 전사적 컴퓨터 네트워크(enterprise-wide computer network)를 용이하게 해주며, 이들 모두는 전세계 컴퓨터 네트워크, 예를 들어, 인터넷에 연결될 수 있다.
LAN 네트워킹 환경에서 사용될 때, 컴퓨터(1102)는 유선 및/또는 무선 통신 네트워크 인터페이스 또는 어댑터(1156)를 통해 로컬 네트워크(1152)에 연결된다. 어댑터(1156)는 LAN(1152)에의 유선 또는 무선 통신을 용이하게 해줄 수 있으며, 이 LAN(1152)은 또한 무선 어댑터(1156)와 통신하기 위해 그에 설치되어 있는 무선 액세스 포인트를 포함하고 있다. WAN 네트워킹 환경에서 사용될 때, 컴퓨터(1102)는 모뎀(1158)을 포함할 수 있거나, WAN(1154) 상의 통신 컴퓨팅 디바이스에 연결되거나, 또는 인터넷을 통하는 등, WAN(1154)을 통해 통신을 설정하는 기타 수단을 갖는다. 내장형 또는 외장형 및 유선 또는 무선 장치일 수 있는 모뎀(1158)은 직렬 포트 인터페이스(1142)를 통해 시스템 버스(1108)에 연결된다. 네트워크화된 환경에서, 컴퓨터(1102)에 대해 설명된 프로그램 모듈들 또는 그의 일부분이 원격 메모리/저장 장치(1150)에 저장될 수 있다. 도시된 네트워크 연결이 예시적인 것이며 컴퓨터들 사이에 통신 링크를 설정하는 기타 수단이 사용될 수 있다는 것을 잘 알 것이다.
컴퓨터(1102)는 무선 통신으로 배치되어 동작하는 임의의 무선 장치 또는 개체, 예를 들어, 프린터, 스캐너, 데스크톱 및/또는 휴대용 컴퓨터, PDA(portable data assistant), 통신 위성, 무선 검출가능 태그와 연관된 임의의 장비 또는 장소, 및 전화와 통신을 하는 동작을 한다. 이것은 적어도 Wi-Fi 및 블루투스 무선 기술을 포함한다. 따라서, 통신은 종래의 네트워크에서와 같이 미리 정의된 구조이거나 단순하게 적어도 2개의 장치 사이의 애드혹 통신(ad hoc communication)일 수 있다.
Wi-Fi(Wireless Fidelity)는 유선 없이도 인터넷 등으로의 연결을 가능하게 해준다. Wi-Fi는 이러한 장치, 예를 들어, 컴퓨터가 실내에서 및 실외에서, 즉 기지국의 통화권 내의 아무 곳에서나 데이터를 전송 및 수신할 수 있게 해주는 셀 전화와 같은 무선 기술이다. Wi-Fi 네트워크는 안전하고 신뢰성 있으며 고속인 무선 연결을 제공하기 위해 IEEE 802.11(a,b,g, 기타)이라고 하는 무선 기술을 사용한다. 컴퓨터를 서로에, 인터넷에 및 유선 네트워크(IEEE 802.3 또는 이더넷을 사용함)에 연결시키기 위해 Wi-Fi가 사용될 수 있다. Wi-Fi 네트워크는 비인가 2.4 및 5 GHz 무선 대역에서, 예를 들어, 11Mbps(802.11a) 또는 54 Mbps(802.11b) 데이터 레이트로 동작하거나, 양 대역(듀얼 대역)을 포함하는 제품에서 동작할 수 있다.
본 개시의 기술 분야에서 통상의 지식을 가진 자는 정보 및 신호들이 임의의 다양한 상이한 기술들 및 기법들을 이용하여 표현될 수 있다는 것을 이해할 것이다. 예를 들어, 위의 설명에서 참조될 수 있는 데이터, 지시들, 명령들, 정보, 신호들, 비트들, 심볼들 및 칩들은 전압들, 전류들, 전자기파들, 자기장들 또는 입자들, 광학장들 또는 입자들, 또는 이들의 임의의 결합에 의해 표현될 수 있다.
본 개시의 기술 분야에서 통상의 지식을 가진 자는 여기에 개시된 실시예들과 관련하여 설명된 다양한 예시적인 논리 블록들, 모듈들, 프로세서들, 수단들, 회로들 및 알고리즘 단계들이 전자 하드웨어, (편의를 위해, 여기에서 "소프트웨어"로 지칭되는) 다양한 형태들의 프로그램 또는 설계 코드 또는 이들 모두의 결합에 의해 구현될 수 있다는 것을 이해할 것이다. 하드웨어 및 소프트웨어의 이러한 상호 호환성을 명확하게 설명하기 위해, 다양한 예시적인 컴포넌트들, 블록들, 모듈들, 회로들 및 단계들이 이들의 기능과 관련하여 위에서 일반적으로 설명되었다. 이러한 기능이 하드웨어 또는 소프트웨어로서 구현되는지 여부는 특정한 애플리케이션 및 전체 시스템에 대하여 부과되는 설계 제약들에 따라 좌우된다. 본 개시의 기술 분야에서 통상의 지식을 가진 자는 각각의 특정한 애플리케이션에 대하여 다양한 방식들로 설명된 기능을 구현할 수 있으나, 이러한 구현 결정들은 본 개시의 범위를 벗어나는 것으로 해석되어서는 안 될 것이다.
여기서 제시된 다양한 실시예들은 방법, 장치, 또는 표준 프로그래밍 및/또는 엔지니어링 기술을 사용한 제조 물품(article)으로 구현될 수 있다. 용어 "제조 물품"은 임의의 컴퓨터-판독가능 장치로부터 액세스 가능한 컴퓨터 프로그램, 캐리어, 또는 매체(media)를 포함한다. 예를 들어, 컴퓨터-판독가능 매체는 자기 저장 장치(예를 들면, 하드 디스크, 플로피 디스크, 자기 스트립, 등), 광학 디스크(예를 들면, CD, DVD, 등), 스마트 카드, 및 플래쉬 메모리 장치(예를 들면, EEPROM, 카드, 스틱, 키 드라이브, 등)를 포함하지만, 이들로 제한되는 것은 아니다. 또한, 여기서 제시되는 다양한 저장 매체는 정보를 저장하기 위한 하나 이상의 장치 및/또는 다른 기계-판독가능한 매체를 포함한다.
제시된 프로세스들에 있는 단계들의 특정한 순서 또는 계층 구조는 예시적인 접근들의 일례임을 이해하도록 한다. 설계 우선순위들에 기반하여, 본 개시의 범위 내에서 프로세스들에 있는 단계들의 특정한 순서 또는 계층 구조가 재배열될 수 있다는 것을 이해하도록 한다. 첨부된 방법 청구항들은 샘플 순서로 다양한 단계들의 엘리먼트들을 제공하지만 제시된 특정한 순서 또는 계층 구조에 한정되는 것을 의미하지는 않는다.
제시된 실시예들에 대한 설명은 임의의 본 개시의 기술 분야에서 통상의 지식을 가진 자가 본 개시를 이용하거나 또는 실시할 수 있도록 제공된다. 이러한 실시예들에 대한 다양한 변형들은 본 개시의 기술 분야에서 통상의 지식을 가진 자에게 명백할 것이며, 여기에 정의된 일반적인 원리들은 본 개시의 범위를 벗어남이 없이 다른 실시예들에 적용될 수 있다. 그리하여, 본 개시는 여기에 제시된 실시예들로 한정되는 것이 아니라, 여기에 제시된 원리들 및 신규한 특징들과 일관되는 최광의의 범위에서 해석되어야 할 것이다.
Claims (14)
- 프로세서를 포함하는 컴퓨팅 장치에 의해 수행되는 대화록 서비스를 제공하는 방법으로서, 상기 방법은:
음성 데이터를 수신하는 단계;
상기 음성 데이터에 대한 전처리를 수행하는 단계; 및
전처리된 상기 음성 데이터를 음성 인식 모델을 통해 음성 인식 결과로 변환하여 대화록을 생성하는 단계;
를 포함하되,
상기 전처리된 상기 음성 데이터를 음성 인식 모델을 통해 음성 인식 결과로 변환하여 대화록을 생성하는 단계는:
상기 음성 데이터를 화자 별 발화 구간에 기초하여 하나 이상의 음성 데이터 서브 데이터로 분할하는 단계;
상기 음성 데이터 서브 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 서브 결과로 변환하는 단계;
상기 음성 데이터 서브 데이터를 기초로 음성이 중첩되는 구간을 식별하는 단계; 및
상기 중첩되는 구간에 기초하여 상기 음성 인식 서브 결과를 재배치하여 대화록을 생성하는 단계;
를 포함하고,
상기 중첩되는 구간에 기초하여 상기 음성 인식 서브 결과를 재배치하여 대화록을 생성하는 단계는:
상기 중첩되는 구간에 기초하여, 시작 시간 또는 의미 중 적어도 하나의 기준을 사용하여 상기 음성 인식 서브 결과의 적어도 일부를 복수의 구간으로 분할하는 단계; 및
상기 복수의 구간들을 재배치하는 단계;
를 포함하는,
방법.
- 제 1 항에 있어서,
상기 음성 데이터에 대한 전처리를 수행하는 단계는,
사전 결정된 기준 신호의 크기에 대응되도록 상기 음성 데이터에 포함된 신호의 크기를 조정하여 표준화하는 단계;
를 포함하는,
방법.
- 제 1 항에 있어서,
상기 음성 데이터에 대한 전처리를 수행하는 단계는,
기계학습 알고리즘을 이용하여, 상기 음성 데이터로부터, 상기 음성 데이터에 포함된 잡음의 종류를 판별하는 단계; 및
상기 잡음의 종류에 대응하는 잡음 제거 알고리즘을 이용하여, 상기 음성 데이터에서 상기 잡음을 제거하는 단계;
를 포함하는,
방법.
- 제 3 항에 있어서,
상기 잡음은,
주파수가 균일한 백색 노이즈, 주파수가 불규칙한 랜덤 주파수 노이즈 또는 신호처리 과정에서 발생하는 노이즈 중 적어도 하나를 포함하는,
방법.
- 제 1 항에 있어서,
상기 음성 데이터에 대한 전처리를 수행하는 단계는,
상기 음성 데이터에 포함된 묵음 구간에 기초하여 발화 구간을 식별하는 단계; 및
상기 발화 구간에서의 발화 음성의 크기에 기초하여 음성을 식별하는 단계;
를 포함하는,
방법.
- 제 5 항에 있어서,
상기 음성의 크기가 사전 결정된 크기 이상을 가지는 발화를 상기 음성 데이터에 대응하는 특정 화자로 결정하는 단계;
를 더 포함하는,
방법.
- 제 5 항에 있어서,
식별된 상기 음성이 복수인 경우, 상기 음성 데이터에 포함된 복수의 음성들의 크기를 비교함으로써 상기 음성 데이터에 대응하는 특정 화자를 결정하는 단계;
를 더 포함하는,
방법.
- 제 6 항 또는 제 7 항에 있어서,
상기 음성 데이터에서 상기 특정 화자의 음성을 제외한 다른 음성을 제거하는 단계; 및
상기 특정 화자를 상기 음성 데이터를 전송한 사용자 단말의 식별 정보와 매칭하는 단계;
를 더 포함하는,
방법.
- 제 1 항에 있어서,
상기 음성 데이터가 복수인 경우, 복수의 음성 데이터들에 시간과 관련된 글로벌 시간 정보를 태그하는 단계; 및
상기 글로벌 시간 정보에 기초하여 상기 복수의 음성 데이터들의 선후 관계를 판별하는 단계;
를 더 포함하는,
방법.
- 제 1 항에 있어서,
상기 음성 데이터가 복수인 경우, 복수의 음성 데이터들 중에서 최초로 생성된 음성 데이터의 시작 지점을 상기 복수의 음성 데이터들에 적용되는 기준 시점으로 결정하는 단계; 및
상기 기준 시점으로부터 경과된 시간인 경과 시간에 기초하여 상기 복수의 음성 데이터들에 포함된 발화의 선후 관계를 결정하는 단계;
를 더 포함하는,
방법.
- 컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램으로서, 상기 컴퓨터 프로그램은 컴퓨팅 장치에 의해 수행되는 대화록 서비스를 구현하기 위한 동작을 수행하도록 하며, 상기 동작은:
음성 데이터를 수신하는 동작;
상기 음성 데이터에 대한 전처리를 수행하는 동작; 및
전처리된 상기 음성 데이터를 음성 인식 모델을 통해 음성 인식 결과로 변환하여 대화록을 생성하는 동작;
을 포함하되,
상기 전처리된 상기 음성 데이터를 음성 인식 모델을 통해 음성 인식 결과로 변환하여 대화록을 생성하는 동작은,
상기 음성 데이터를 화자 별 발화 구간에 기초하여 하나 이상의 음성 데이터 서브 데이터로 분할하는 동작;
상기 음성 데이터 서브 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 서브 결과로 변환하는 동작;
상기 음성 데이터 서브 데이터를 기초로 음성이 중첩되는 구간을 식별하는 동작; 및
상기 중첩되는 구간에 기초하여 상기 음성 인식 서브 결과를 재배치하여 대화록을 생성하는 동작;
을 포함하고,
상기 중첩되는 구간에 기초하여 상기 음성 인식 서브 결과를 재배치하여 대화록을 생성하는 동작은:
상기 중첩되는 구간에 기초하여, 시작 시간 또는 의미 중 적어도 하나의 기준을 사용하여 상기 음성 인식 서브 결과의 적어도 일부를 복수의 구간으로 분할하는 동작; 및
상기 복수의 구간들을 재배치하는 동작;
을 포함하는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
- 대화록 서비스를 제공하기 위한 컴퓨팅 장치로서,
프로세서;
상기 프로세서에서 실행가능한 프로그램 코드들을 저장하는 메모리; 및
하나 이상의 사용자 단말과 데이터를 송수신하는 네트워크부;
를 포함하고,
상기 프로세서는,
음성 데이터를 수신하고,
상기 음성 데이터에 대한 전처리를 수행하고, 그리고
전처리된 상기 음성 데이터를 음성 인식 모델을 통해 음성 인식 결과로 변환하여 대화록을 생성하되,
상기 전처리된 상기 음성 데이터를 음성 인식 모델을 통해 음성 인식 결과로 변환하여 대화록을 생성하는 것은:
상기 음성 데이터를 화자 별 발화 구간에 기초하여 하나 이상의 음성 데이터 서브 데이터로 분할하는 것;
상기 음성 데이터 서브 데이터 각각을 음성 인식 모델을 통해 하나 이상의 음성 인식 서브 결과로 변환하는 것;
상기 음성 데이터 서브 데이터를 기초로 음성이 중첩되는 구간을 식별하는 것; 및
상기 중첩되는 구간에 기초하여 상기 음성 인식 서브 결과를 재배치하여 대화록을 생성하는 것;
을 포함하고,
상기 중첩되는 구간에 기초하여 상기 음성 인식 서브 결과를 재배치하여 대화록을 생성하는 것은:
상기 중첩되는 구간에 기초하여, 시작 시간 또는 의미 중 적어도 하나의 기준을 사용하여 상기 음성 인식 서브 결과의 적어도 일부를 복수의 구간으로 분할하는 것; 및
상기 복수의 구간들을 재배치하는 것;
을 포함하는,
컴퓨팅 장치.
- 삭제
- 삭제
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210009389A KR102540177B1 (ko) | 2019-01-11 | 2021-01-22 | 화자 간 중첩되는 음성을 분리하여 대화록 서비스를 제공하는 방법 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190003888A KR102208954B1 (ko) | 2019-01-11 | 2019-01-11 | 대화록 서비스를 제공하는 컴퓨팅 장치 |
KR1020210009389A KR102540177B1 (ko) | 2019-01-11 | 2021-01-22 | 화자 간 중첩되는 음성을 분리하여 대화록 서비스를 제공하는 방법 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190003888A Division KR102208954B1 (ko) | 2019-01-11 | 2019-01-11 | 대화록 서비스를 제공하는 컴퓨팅 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210014174A KR20210014174A (ko) | 2021-02-08 |
KR102540177B1 true KR102540177B1 (ko) | 2023-06-05 |
Family
ID=86764125
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210009389A KR102540177B1 (ko) | 2019-01-11 | 2021-01-22 | 화자 간 중첩되는 음성을 분리하여 대화록 서비스를 제공하는 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102540177B1 (ko) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102632806B1 (ko) * | 2023-06-16 | 2024-02-05 | 주식회사 엘솔루 | Stt결과 조기 확정을 위한 음성 인식 방법 및 장치 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100560425B1 (ko) * | 2003-11-25 | 2006-03-13 | 한국전자통신연구원 | Svm을 이용한 화자 등록 및 인증 시스템과 그 방법 |
KR20170044386A (ko) * | 2015-10-15 | 2017-04-25 | 삼성전자주식회사 | 전자기기 및 전자기기의 제어방법 |
KR102458343B1 (ko) * | 2016-12-26 | 2022-10-25 | 삼성전자주식회사 | 음성 데이터를 송수신하는 디바이스 및 방법 |
KR20180127100A (ko) * | 2017-05-19 | 2018-11-28 | 엘지전자 주식회사 | 홈 어플라이언스 및 음성 인식 서버 시스템의 동작 방법 |
-
2021
- 2021-01-22 KR KR1020210009389A patent/KR102540177B1/ko active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR20210014174A (ko) | 2021-02-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102208954B1 (ko) | 대화록 서비스를 제공하는 컴퓨팅 장치 | |
CN110557589B (zh) | 用于整合记录的内容的系统和方法 | |
CN108288468B (zh) | 语音识别方法及装置 | |
CN106663430B (zh) | 使用用户指定关键词的说话者不相依关键词模型的关键词检测 | |
US10489451B2 (en) | Voice search system, voice search method, and computer-readable storage medium | |
JP4619623B2 (ja) | ボイスメッセージ処理システムおよび方法 | |
US8412530B2 (en) | Method and apparatus for detection of sentiment in automated transcriptions | |
US9947320B2 (en) | Script compliance in spoken documents based on number of words between key terms | |
US10909971B2 (en) | Detection of potential exfiltration of audio data from digital assistant applications | |
US20150193199A1 (en) | Tracking music in audio stream | |
JP5779032B2 (ja) | 話者分類装置、話者分類方法および話者分類プログラム | |
US11538461B1 (en) | Language agnostic missing subtitle detection | |
US7624010B1 (en) | Method of and system for improving accuracy in a speech recognition system | |
CN107679196A (zh) | 一种多媒体识别方法、电子设备及存储介质 | |
KR102540177B1 (ko) | 화자 간 중첩되는 음성을 분리하여 대화록 서비스를 제공하는 방법 | |
WO2020055465A1 (en) | Inline responses to video or voice messages | |
JP5997813B2 (ja) | 話者分類装置、話者分類方法および話者分類プログラム | |
KR102647512B1 (ko) | 멀티채널 음성 데이터에 기초하여 회의록을 생성하는 방법 | |
CN106782612A (zh) | 一种逆向爆音检测方法及其装置 | |
US20240054990A1 (en) | Computing device for providing dialogues services | |
US11632345B1 (en) | Message management for communal account | |
CN104021151A (zh) | 一种信息处理方法及电子设备 | |
CN113241061B (zh) | 语音识别结果的处理方法、装置、电子设备和存储介质 | |
US11886486B2 (en) | Apparatus, systems and methods for providing segues to contextualize media content | |
CN108364654A (zh) | 语音处理方法、介质、装置和计算设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
A201 | Request for examination | ||
AMND | Amendment | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
X091 | Application refused [patent] | ||
AMND | Amendment | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |