KR20220032972A - 객관식 타입의 전사 결과 선택을 통한 크라우드소싱 기반의 음성 데이터 전사 방법 - Google Patents

객관식 타입의 전사 결과 선택을 통한 크라우드소싱 기반의 음성 데이터 전사 방법 Download PDF

Info

Publication number
KR20220032972A
KR20220032972A KR1020200114969A KR20200114969A KR20220032972A KR 20220032972 A KR20220032972 A KR 20220032972A KR 1020200114969 A KR1020200114969 A KR 1020200114969A KR 20200114969 A KR20200114969 A KR 20200114969A KR 20220032972 A KR20220032972 A KR 20220032972A
Authority
KR
South Korea
Prior art keywords
transcription
voice data
results
result
transcribed
Prior art date
Application number
KR1020200114969A
Other languages
English (en)
Inventor
정훈
박전규
전형배
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020200114969A priority Critical patent/KR20220032972A/ko
Publication of KR20220032972A publication Critical patent/KR20220032972A/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/221Announcement of recognition results

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Artificial Intelligence (AREA)
  • Telephonic Communication Services (AREA)

Abstract

객관식 타입의 전사 결과 선택을 통한 크라우드소싱 기반의 음성 데이터 전사 방법이 제공된다. 상기 방법은 음성 인식 모델에 기초하여 비전사 음성 데이터에 대한 음성 인식을 수행하여, 가장 유사한 N개(N은 2 이상의 자연수)의 전사 결과를 인식 결과로 출력하는 단계; 상기 비전사 음성 데이터 및 상기 비전사 음성 데이터에 상응하는 상기 N개의 전사 결과 후보군을 객관식 타입으로 복수의 클라이언트 단말로 제공하여 전사 결과 입력을 위한 작업 수행을 요청하는 단계; 상기 작업 수행 요청에 대응하는 작업 결과로, 상기 N개의 전사 결과 후보군 중 사용자에 의해 선택된 M개(M은 1 이상의 자연수)의 전사 결과를 상기 복수의 클라이언트 단말로부터 수신하는 단계; 및 상기 수신한 전사 결과를 기반으로 상기 비전사 음성 데이터에 대한 전사문을 생성하는 단계를 포함한다.

Description

객관식 타입의 전사 결과 선택을 통한 크라우드소싱 기반의 음성 데이터 전사 방법{METHOD FOR TRANSCRIBING VOICE DATA BASED ON CROWDSOURCING THROUGH MULTIPLE CHOICE TYPE OF TRANSCRIPTION RESULT SELECTION}
본 발명은 객관식 타입의 전사 결과 선택을 통한 크라우드소싱 기반의 음성 데이터 전사 방법에 관한 것이다.
인공 지능 기반 음성 인식 기술의 성능을 고도화하기 위해서는 대량의 전사된 음성 데이터가 필요하다. 그러나 음성 전사 작업은 숙련자들의 많은 노력과 비용을 필요로 한다. 이러한 노력과 비용을 절감하기 위한 방법으로, 음성 인식기를 사용해 초벌 전사를 수행하고, 전사자가 이를 수정 및 보완함으로써 최종 전사문을 생성하는 방식을 사용하기도 한다.
하지만, 음성 인식기의 성능은 그 결과에 대하여 100% 신뢰도를 갖는 것이 아니므로, 초벌 전사에는 오류가 포함되어 있으며, 이를 보완하기 위한 전사자의 수정 편집 과정을 필요로 한다.
이러한 작업은 숙련된 기술은 아니지만, 컴퓨터에 대한 소정의 이해와 활용도를 필요로 하기 때문에 노년층과 같은 정보화 약자들이 수행하기에는 생산성이 떨어진다.
또한, 전사문에 대한 수정 편집 작업을 휴대폰과 같은 단말 환경에서 수행하는 것 역시 무리가 있다.
공개특허공보 제10-2019-0068392 (2019.06.18)
본 발명이 해결하고자 하는 과제는 수집된 비전사 음성 데이터에 대하여 전사문을 생성하되, 크라우드소싱 기반의 작업을 통해 복수의 클라이언트 단말로 객관식 타입으로 구성된 작업을 배정하고 이에 대한 전사 결과를 선택 입력토록 하는 방법을 제공하는 것이다.
다만, 본 발명이 해결하고자 하는 과제는 상기된 바와 같은 과제로 한정되지 않으며, 또다른 과제들이 존재할 수 있다.
상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 객관식 타입의 전사 결과 선택을 통한 크라우드소싱 기반의 음성 데이터 전사 방법은 음성 인식 모델에 기초하여 비전사 음성 데이터에 대한 음성 인식을 수행하여, 가장 유사한 N개(N은 2 이상의 자연수)의 전사 결과 후보군을 인식 결과로 출력하는 단계; 상기 비전사 음성 데이터 및 상기 비전사 음성 데이터에 상응하는 상기 N개의 전사 결과 후보군을 객관식 타입으로 복수의 클라이언트 단말로 제공하여 전사 결과 입력을 위한 작업 수행을 요청하는 단계; 및 상기 작업 수행 요청에 대응하는 작업 결과로, 상기 N개의 전사 결과 후보군 중 사용자에 의해 선택된 M개(M은 1 이상의 자연수)의 전사 결과를 상기 복수의 클라이언트 단말로부터 수신하는 단계를 포함한다.
본 발명의 일부 실시예에서, 상기 N개의 전사 결과 후보군 중 사용자에 의해 선택된 M개(M은 1 이상의 자연수)의 전사 결과를 상기 복수의 클라이언트 단말로부터 수신하는 단계는, 상기 비전사 음성 데이터가 상기 클라이언트 단말 상에서 사용자에 의해 재생 버튼이 입력되어 음성으로 출력된 후, 상기 출력된 음성에 상응하는 상기 M개의 전사 결과가 사용자에 의해 선택됨에 따라, 상기 선택된 M개의 전사 결과를 상기 클라이언트 단말로부터 수신할 수 있다.
본 발명의 일부 실시예에서, 상기 N개의 전사 결과 후보군 중 사용자에 의해 선택된 M개(M은 1 이상의 자연수)의 전사 결과를 상기 복수의 클라이언트 단말로부터 수신하는 단계는, 상기 N개의 전사 결과 후보군 중 상기 출력된 음성에 상응하는 전사 결과가 없는 것으로 사용자에 의해 판단된 경우, 유사 전사 결과가 없음을 알리는 메시지를 상기 클라이언트 단말로부터 수신할 수 있다.
본 발명의 일부 실시예는, 상기 수신한 M개의 전사 결과를 기반으로 상기 음성 인식 모델에 대한 준지도 학습(Semi-Supervised Learning)을 수행하는 단계를 더 포함할 수 있다. 여기에서 준지도 학습은 대량의 라벨되지 않은 데이터와 소량의 라벨된 데이터를 함께 사용하여 학습을 수행하는 것이다.
본 발명의 일부 실시예에서, 상기 수신한 M개의 전사 결과를 기반으로 상기 음성 인식 모델에 대한 준지도 학습을 수행하는 단계는, 상기 M개의 전사 결과를 기반으로 상기 음성 인식 모델에 대하여 상기 준지도 학습으로 강화 학습 또는 자율 학습을 수행할 수 있다.
상술한 과제를 해결하기 위한 본 발명의 다른 면에 따른 컴퓨터 프로그램은, 하드웨어인 컴퓨터와 결합되어 상기 객관식 타입의 전사 결과 선택을 통한 크라우드소싱 기반의 음성 데이터 전사 방법을 실행하며, 컴퓨터 판독가능 기록매체에 저장된다.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
상술한 본 발명에 의하면, 크라우드소싱 기반의 프로젝트를 통해 복수의 사용자들에게 객관식 타입으로 전사 결과 후보군을 제공 및 수집함으로써, 모바일 단말과 같은 전사 작업이 쉽지 않은 환경에서도 용이하게 전사 작업을 수행할 수 있는바, 노년층 등 정보화 약자들도 고생산성의 음성 전사 작업이 가능하다는 장점이 있다.
또한, 초벌 전사 결과를 생성한 후, 크라우드소싱 기반으로 사용자들에게 제공하여 선택된 전사 결과를 취합하여 비전사 음성 데이터에 대한 최종적인 전사 결과를 생성하는바, 전사 작업에 소요되는 정확도 및 생선성을 보다 향상시킬 수 있다는 장점이 있다.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 크라우드소싱 기반 프로젝트의 개념을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 음성 데이터 전사 방법의 순서도이다.
도 3은 본 발명의 일 실시예에 따른 음성 데이터 전사 서버를 설명하기 위한 도면이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예에 따른 객관식 타입의 전사 결과 선택을 통한 크라우드소싱 기반의 음성 데이터 전사 방법(이하, 음성 데이터 전사 방법)을 상세하게 설명한다.
도 1은 크라우드소싱 기반 프로젝트의 개념을 설명하기 위한 도면이다.
본 발명의 일 실시예에는 크라우드소싱 기반의 프로젝트를 통해 음성 데이터에 대한 전사문을 생성하기 위한 것이다.
서버(100)는 해당 프로젝트에 포함된 작업을 복수의 클라이언트 단말(200)에 대응하는 사용자에게 배정하여, 사용자로부터 작업 결과로 전사 결과의 입력을 수신한다. 이때, 서버(100)는 크라우드소싱 플랫폼(이하, 플랫폼)을 통해 사용자에게 크라우드소싱 기반 서비스를 제공한다
이후, 복수의 사용자로부터 크라우드소싱 기반 프로젝트에 대한 작업 결과를 제공받으면, 해당 프로젝트를 플랫폼 상에서 종료하고, 최종적으로 선택된 전사 결과를 통해 전사문을 생성한다.
한편, 사용자는 서버(100)가 제공하는 애플리케이션 또는 웹사이트 등을 통해 플랫폼에 오픈된 프로젝트에 참여할 수 있다. 여기에서 클라이언트 단말(200)은 스마트폰, 태블릿, PDA, 랩톱, 데스크톱, 서버 등과 같은 컴퓨터 장치 또는 전기 통신 장치가 이에 해당할 수 있다.
도 2는 본 발명의 일 실시예에 따른 음성 데이터 전사 방법의 순서도이다. 한편, 도 2에 도시된 단계들은 음성 데이터 전사를 위한 서버(이하, 서버)에 의해 수행되는 것으로 이해될 수 있지만, 이에 제한되는 것은 아니다.
도 2를 참조하면 먼저, 서버(100)는 음성 인식 모델에 기초하여 비전사 음성 데이터에 대한 음성 인식을 수행하여, 가장 유사한 N개(N-best, N은 2 이상의 자연수)의 전사 결과를 인식 결과로 출력한다(S110).
이때, 서버(100)는 비전사 음성 데이터를 미리 제공받아 저장할 수 있으며, 이전 과정에서 클라이언트 단말(200)로부터 수신한 M개(M은 1 이상의 자연수)의 전사 결과와 이후 과정에서 수신할 M개의 전사 결과를 저장할 수 있다.
다음으로, 서버(100)는 비전사 음성 데이터 및 비전사 음성 데이터에 상응하는 N개의 전사 결과 후보군을 객관식 타입으로 복수의 클라이언트 단말(200)로 제공하여, 전사 결과 입력을 위한 작업 수행을 요청한다(S120).
본 발명에서 비전사 음성 데이터에 대한 전사 작업은 복수의 클라이언트 단말(200)을 통한 크라우드소싱 기반 작업으로 진행되며, 서버(100)는 복수의 클라이언트 단말(200)로 작업을 배정하여 작업 수행을 요청한다.
해당 작업을 할당받은 클라이언트 단말(200)은 사용자에 의해 재생 버튼이 입력됨에 따라 수신한 비전사 음성 데이터를 음성으로 출력한다. 그리고 N개의 전사 결과 후보군을 클라이언트 단말(200)에 미리 설치된 어플리케이션 상의 소정의 영역에 출력시킨다.
사용자는 작업 수행 요청에 대응하는 작업 결과로, N개의 전사 결과 후보군 중 출력된 음성에 상응하는 것으로 판단한 M개의 전사 결과를 선택하게 된다. 즉, 사용자는 비전사 음성 데이터가 음성으로 출력되면, 서버(100)에 의한 N개의 전사 결과 후보군 중 가장 유사하다고 판단되는 M개의 전사 결과를 선택하게 된다.
M개의 전사 결과에 대한 선택이 완료되면 사용자는 제출 버튼을 입력하며, 이에 따라 서버(100)는 각 사용자에 의해 선택된 M개의 전사 결과를 복수의 클라이언트 단말(200)로부터 수신한다(S130). 그리고 수신한 M개의 전사 결과를 기반으로 비전사 음성 데이터에 대한 전사문을 생성한다(S140).
일 실시예로, 사용자는 N개의 전사 결과 후보군 중 출력된 음성에 상응하는 전사 결과가 없는 것으로 판단한 경우, '유사한 문장 없음'을 선택하게 되고, 이에 따라 서버(100)는 유사 전사 결과가 없음을 알리는 메시지를 클라이언트 단말(200)로부터 수신하게 된다.
한편, 서버(100)에서의 음성 인식 모델의 정확도는 100%가 아니므로, 음성 인식 모델에 의한 N개의 전사 결과 후보군에는 오류가 포함될 수 있다. 따라서, 음성 인식 모델의 정확도를 높이는 것이 객관적 전사 품질의 정확도 및 생산성을 높이는데 중요한 역할을 하게 된다.
이를 위해, 본 발명의 일 실시예는 사용자에 의해 선택된 객관식 정답인 M개의 전사 결과를 기반으로 음성 인식 모델에 대한 준지도 학습(Semi-Supervised Learning)을 추가적으로 수행할 수 있다.
이때, 준지도 학습은 M개의 전사 결과를 기반으로 음성 인식 모델에 대한 강화 학습이나 자율 학습(self-training) 방식을 통해 수행될 수 있다.
한편, 상술한 설명에서, 단계 S110 내지 S130은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다. 아울러, 기타 생략된 내용이라 하더라도 도 1 내지 도 2의 음성 데이터 전사 방법의 내용은 후술하는 도 3의 내용에도 적용될 수 있다.
이하에서는 본 발명의 일 실시예에 따른 객관식 타입의 전사 결과 선택을 통한 크라우드소싱 기반의 음성 데이터 전사 서버(100, 이하 음성 데이터 전사 서버)에 대하여 설명하도록 한다.
도 3은 본 발명의 일 실시예에 따른 음성 데이터 전사 서버(100)를 설명하기 위한 도면이다.
도 3을 참조하면, 본 발명의 일 실시예에 따른 음성 데이터 전사 서버(100)는 통신모듈(110), 메모리(120) 및 프로세서(130)를 포함한다.
통신모듈(110)은 복수의 클라이언트 단말과 데이터를 송수신한다.
메모리(120)에는 통신모듈(110)로부터 수신한 데이터에 기초하여 비전사 음성 데이터에 대한 전사 결과를 생성하기 위한 프로그램이 저장된다.
프로세서(130)는 메모리(120)에 저장된 프로그램을 실행시킴에 따라, 음성 인식 모델에 기초하여 비전사 음성 데이터에 대한 음성 인식 결과를 수행하여 가장 유사한 N개(N은 2 이상의 자연수)의 전사 결과를 인식 결과로 출력하고, 비전사 음성 데이터 및 비전사 음성 데이터에 상응하는 N개의 전사 결과 후보군을 객관식 타입으로 복수의 클라이언트 단말로 제공하여 전사 결과 입력을 위한 작업 수행을 요청하며, 작업 수행 요청에 대응하는 작업 결과로, N개의 전사 결과 후보군 중 사용자에 의해 선택된 M개(M은 1 이상의 자연수)의 전사 결과를 복수의 클라이언트 단말로부터 수신하여 최종적인 전사 결과로 생성한다.
도 3을 참조하여 설명한 음성 데이터 전사 서버(100)는 상술한 서버의 구성요소로 제공될 수 있다.
이상에서 전술한 본 발명의 일 실시예에 따른 음성 데이터 전사 방법은, 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.
상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, Ruby, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다.
상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
100 : 음성 데이터 전사 서버
110 : 통신모듈
120 : 메모리
130 : 프로세서
200: 클라이언트 단말

Claims (1)

  1. 컴퓨터에 의해 수행되는 방법에 있어서,
    음성 인식 모델에 기초하여 비전사 음성 데이터에 대한 음성 인식을 수행하여, 가장 유사한 N개(N은 2 이상의 자연수)의 전사 결과를 인식 결과로 출력하는 단계;
    상기 비전사 음성 데이터 및 상기 비전사 음성 데이터에 상응하는 상기 N개의 전사 결과 후보군을 객관식 타입으로 복수의 클라이언트 단말로 제공하여 전사 결과 입력을 위한 작업 수행을 요청하는 단계;
    상기 작업 수행 요청에 대응하는 작업 결과로, 상기 N개의 전사 결과 후보군 중 사용자에 의해 선택된 M개(M은 1 이상의 자연수)의 전사 결과를 상기 복수의 클라이언트 단말로부터 수신하는 단계; 및
    상기 수신한 전사 결과를 기반으로 상기 비전사 음성 데이터에 대한 전사문을 생성하는 단계를 포함하는,
    객관식 타입의 전사 결과 선택을 통한 크라우드소싱 기반의 음성 데이터 전사 방법.
KR1020200114969A 2020-09-08 2020-09-08 객관식 타입의 전사 결과 선택을 통한 크라우드소싱 기반의 음성 데이터 전사 방법 KR20220032972A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200114969A KR20220032972A (ko) 2020-09-08 2020-09-08 객관식 타입의 전사 결과 선택을 통한 크라우드소싱 기반의 음성 데이터 전사 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200114969A KR20220032972A (ko) 2020-09-08 2020-09-08 객관식 타입의 전사 결과 선택을 통한 크라우드소싱 기반의 음성 데이터 전사 방법

Publications (1)

Publication Number Publication Date
KR20220032972A true KR20220032972A (ko) 2022-03-15

Family

ID=80817073

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200114969A KR20220032972A (ko) 2020-09-08 2020-09-08 객관식 타입의 전사 결과 선택을 통한 크라우드소싱 기반의 음성 데이터 전사 방법

Country Status (1)

Country Link
KR (1) KR20220032972A (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190068392A (ko) 2017-12-08 2019-06-18 주식회사 엘솔루 음성인식 시스템 및 이의 전사데이터 생성 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190068392A (ko) 2017-12-08 2019-06-18 주식회사 엘솔루 음성인식 시스템 및 이의 전사데이터 생성 방법

Similar Documents

Publication Publication Date Title
US9990591B2 (en) Automated assistant invocation of appropriate agent
US10650821B1 (en) Tailoring an interactive dialog application based on creator provided content
US11823661B2 (en) Expediting interaction with a digital assistant by predicting user responses
US11797772B2 (en) Word lattice augmentation for automatic speech recognition
CN111033492A (zh) 为自动化助手提供命令束建议
CN110741364A (zh) 确定自动化助理对话的状态
KR102345615B1 (ko) 사용자 구성의 맞춤형 인터렉티브 대화 애플리케이션
US11942091B2 (en) Alphanumeric sequence biasing for automatic speech recognition using a grammar and a speller finite state transducer
US20070156406A1 (en) Voice user interface authoring tool
CN115769220A (zh) 经由自动化助理交互的文档创建和编辑
US20200051563A1 (en) Method for executing function based on voice and electronic device supporting the same
US20230177263A1 (en) Identifying chat correction pairs for trainig model to automatically correct chat inputs
KR20220032972A (ko) 객관식 타입의 전사 결과 선택을 통한 크라우드소싱 기반의 음성 데이터 전사 방법
US20220245489A1 (en) Automatic intent generation within a virtual agent platform
CN112966077B (zh) 对话状态的确定方法、装置、设备及存储介质
CN113343668B (zh) 选择题解题方法、装置、电子设备及可读存储介质
CN112597290A (zh) 结合上下文的意图识别方法、系统、电子设备和存储介质
KR20230109987A (ko) 회의 안건 체크의 자동화 방법 및 시스템
CN115438186A (zh) 智能对话系统架构和智能对话系统的对话方法
CN117252163A (zh) 电子手册的实现方法、装置、电子设备和可读介质