KR101768509B1 - 온라인 음성 번역 방법 및 장치 - Google Patents

온라인 음성 번역 방법 및 장치 Download PDF

Info

Publication number
KR101768509B1
KR101768509B1 KR1020157033318A KR20157033318A KR101768509B1 KR 101768509 B1 KR101768509 B1 KR 101768509B1 KR 1020157033318 A KR1020157033318 A KR 1020157033318A KR 20157033318 A KR20157033318 A KR 20157033318A KR 101768509 B1 KR101768509 B1 KR 101768509B1
Authority
KR
South Korea
Prior art keywords
information
identification information
user
translation
keyword
Prior art date
Application number
KR1020157033318A
Other languages
English (en)
Other versions
KR20160015218A (ko
Inventor
하이펑 왕
화 우
Original Assignee
베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. filed Critical 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디.
Publication of KR20160015218A publication Critical patent/KR20160015218A/ko
Application granted granted Critical
Publication of KR101768509B1 publication Critical patent/KR101768509B1/ko

Links

Images

Classifications

    • G06F17/289
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/01Assessment or evaluation of speech recognition systems
    • G06F17/2854
    • G06F17/30976
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation
    • G06F40/49Data-driven translation using very large corpora, e.g. the web
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/51Translation evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/005Language recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Machine Translation (AREA)
  • Telephonic Communication Services (AREA)

Abstract

온라인 음성 번역 방법 및 장치에 있어서, 상기 방법은, 제1 사용자가 입력하는 제1 음성정보에 대하여 음성식별을 진행하여, 제1 식별정보를 획득하는 단계; 제1 식별정보의 신뢰도를 확정하는 단계; 제1 식별정보의 신뢰도에 근거하여 제1 사용자가 제1 식별정보를 확인하도록 프롬프팅하는 단계; 확인된 제1 식별정보를 번역하여 제1 번역정보를 획득하고 출력하는 단계; 제2 사용자가 피드백한 제2 정보에 근거하여 제1 번역정보의 관련정보를 추출하는 단계; 관련정보에 근거하여 제1 번역정보를 수정하고 출력하는 단계;를 포함한다. 온라인 음성 번역 방법 및 장치를 통해, 언어간의 원활한 교류를 보장할 수 있다.

Description

온라인 음성 번역 방법 및 장치{ON-LINE VOICE TRANSLATION METHOD AND DEVICE}
본원 발명은 출원번호가 CN 201310728312.X이고 출원인이 북경 바이두 네트콤 과학기술 유한회사이며 발명의 명칭이 "온라인 음성 번역 방법 및 장치"이고, 출원일자가 2013년 12월 25일인 중국 특허 출원에 기반하여 제출하였고 상기 중국 특허 출원의 우선권을 주장하는 바, 상기 중국 특허 출원의 모든 내용은 참조로서 본원 발명에 원용된다.
본 발명의 실시예는 온라인 번역 기술 분야에 관한 것으로, 특히 온라인 음성 번역 방법 및 장치에 관한 것이다.
국제적 교류가 증가됨에 따라, 상이한 어종을 사용하는 언어 소통이 점차 빈번해진다. 언어상의 장애를 극복하기 위하여, 클라이언트를 기반하는 온라인 음성 번역은 광범위하게 응용되고 있다.
온라인 음성 번역은 일반적으로 두 개 단계를 거치는 바, 첫번째는 제1 사용자가 입력한 제1 어종 음성을 문자정보로 식별하는 음성식별 단계; 두번째는 번역 언어자료 데이터베이스에 의해 문자정보를 번역하고, 다음 제2 어종의 음성정보 또는 문자정보를 생성하여, 제2 사용자에게 제공하는 단계이다. 온라인 음성 번역을 통해, 상이한 언어를 사용하는 사용자 쌍방이 원활한 커뮤니케이션을 진행하도록 쌍방을 위해 번역 서비스를 제공할 수 있다.
현재, 온라인 음성 번역 과정에 있어서, 음성식별과 번역 단계에서 모두 착오가 발생할 수 있으므로, 언어간의 원활하지 못한 교류를 초래하여 최종적으로 언어간의 교류가 진행될 수 없게 된다.
본 발명은 온라인 음성 번역의 정확도의 향상시켜 언어간의 원활한 교류를 보장하는 온라인 음성 번역 방법 및 장치를 제공한다.
한편, 본 발명의 실시예는 온라인 음성 번역 방법을 제공하되, 상기 온라인 음성 번역 방법은,
제1 사용자가 입력하는 제1 음성정보에 대하여 음성식별을 진행하여 제1 식별정보를 획득하는 단계;
상기 제1 사용자가 상기 제1 식별정보를 확인하도록 프롬프팅하는 단계;
확인된 상기 제1 식별정보를 번역하여 제1 번역정보를 획득하고 출력하는 단계;
제2 사용자가 피드백한 제2 정보에 근거하여 상기 제2 정보에 대응되는 관련정보를 추출하는 단계; 및
상기 관련정보에 근거하여 상기 제1 번역정보를 수정하고 출력하는 단계;를 포함한다.
바람직하게는, 상기 제1 사용자가 상기 제1 식별정보를 확인하도록 프롬프팅하는 단계는,
제1 식별정보의 신뢰도를 확정하는 단계; 및
상기 제1 식별정보의 신뢰도에 근거하여 상기 제1 사용자가 상기 제1 식별정보를 확인하도록 프롬프팅하는 단계를 포함한다.
바람직하게는, 상기 제1 식별정보의 신뢰도를 확정하는 단계는,
현재 대화 장면에서의 키워드 및/또는 언어 규칙에 근거하여 상기 제1 식별정보의 신뢰도를 확정하는 단계를 포함한다.
바람직하게는, 상기 제1 식별정보의 신뢰도에 근거하여 상기 제1 사용자가 상기 제1 식별정보를 확인하도록 프롬프팅하는 단계는,
상기 제1 식별정보의 신뢰도가 제1 기정 임계값보다 작으면, 상기 제1 사용자가 확인하도록 제1 식별정보를 표시하는 단계; 또는
제1 식별정보 중 적어도 하나의 키워드의 신뢰도가 제2 기정 임계값보다 작으면, 상기 제1 사용자가 확인하도록 상기 키워드를 표시하는 단계;를 포함한다.
바람직하게는, 상기 제2 사용자가 피드백한 제2 정보에 근거하여 상기 제2 정보에 대응되는 관련정보를 추출하는 단계는,
상기 제2 사용자가 피드백한 상기 제2 정보와 확인된 상기 제1 식별정보에 대해 키워드 유사도 매칭을 진행하여 매칭된 키워드를 상기 관련정보로 추출하는 단계를 포함한다.
바람직하게는, 상기 제2 사용자가 피드백한 제2 정보에 근거하여 상기 제2 정보에 대응되는 관련정보를 추출하는 단계는,
현재 대화 장면에서의 키워드 및/또는 언어 규칙에 근거하여 확인된 상기 제1 식별정보로부터 상기 제2 정보에 대응되는 관련정보를 추출하는 단계를 포함한다.
바람직하게는, 상기 온라인 음성 번역 방법은,
상기 제1 식별정보에 근거하여 현재의 대화 장면을 확정하거나, 제1 사용자가 확인한 기왕 식별정보 중의 키워드에 근거하여 현재 대화 장면을 식별하는 단계를 더 포함한다.
다른 한 편, 본 발명의 실시예는 온라인 음성 번역 장치를 더 제공하되, 상기 온라인 음성 번역 장치는,
제1 사용자가 입력하는 제1 음성정보에 대하여 음성식별을 진행하여 제1 식별정보를 획득하기 위한 제1 식별정보 모듈;
상기 제1 사용자가 상기 제1 식별정보를 확인하도록 프롬프팅하기 위한 확인 프롬프팅 모듈;
확인된 상기 제1 식별정보를 번역하여 제1 번역정보를 획득하고 출력하기 위한 정보 번역 모듈;
제2 사용자가 피드백한 제2 정보에 근거하여 상기 제2 정보에 대응되는 관련정보를 추출하기 위한 관련정보 추출 모듈; 및
상기 관련정보에 근거하여 상기 제1 번역정보을 수정하고 출력하기 위한 정보 수정 모듈;을 포함하는 온라인 음성 번역 장치를 더 제공한다.
바람직하게는, 상기 확인 프롬프팅 모듈은,
제1 식별정보의 신뢰도를 확정하기 위한 신뢰도 확정 모듈; 및
상기 제1 식별정보의 신뢰도에 근거하여 상기 제1 사용자가 상기 제1 식별정보를 확인하도록 프롬프팅하기 위한 사용자 확인 모듈을 포함한다.
바람직하게는, 상기 신뢰도 확정 모듈은 구체적으로,
현재 대화 장면에서의 키워드 및/또는 언어 규칙에 근거하여 상기 제1 식별정보의 신뢰도를 확정하기 위한 것이다.
바람직하게는, 상기 확인 프롬프팅 모듈은 구체적으로,
상기 제1 식별정보의 신뢰도가 제1 기정 임계값보다 작으면, 상기 제1 사용자가 확인하도록 제1 식별정보를 표시하거나; 또는
제1 식별정보 중 적어도 하나의 키워드의 신뢰도가 제2 기정 임계값보다 작으면, 상기 제1 사용자가 확인하도록 상기 키워드를 표시하기 위한 것이다.
바람직하게는, 상기 관련정보 추출 모듈은,
상기 제2 사용자가 피드백한 상기 제2 정보와 확인된 상기 제1 식별정보에 대하여 키워드 유사도 매칭을 진행하여 매칭된 키워드를 상기 관련정보로 추출하기 위한 키워드 매칭 서브모듈을 포함한다.
바람직하게는, 상기 관련정보 추출 모듈은,
현재 대화 장면에서의 키워드 및/또는 언어 규칙에 근거하여 확인된 상기 제1 식별정보로부터 상기 제2 정보에 대응되는 관련정보를 추출하기 위한 언어 규칙 서브모듈을 포함한다.
바람직하게는, 상기 온라인 음성 번역 장치는,
상기 제1 식별정보에 근거하여 현재 대화 장면을 확정하거나, 제1 사용자가 확인한 기왕 식별정보 중의 키워드에 근거하여 현재 대화 장면을 식별하기 위한 대화 장면 확정 모듈을 더 포함한다.
본 발명의 실시예는 컴퓨터 프로세서에 의해 실행시 온라인 음성 번역 방법을 실행하기 위한 컴퓨터가 실행 가능한 명령을 포함하는 저장매체를 더 제공하되, 상기 온라인 음성 번역 방법은,
제1 사용자가 입력하는 제1 음성정보에 대하여 음성식별을 진행하여 제1 식별정보를 획득하는 단계;
상기 제1 사용자가 상기 제1 식별정보를 확인하도록 프롬프팅하는 단계;
확인된 상기 제1 식별정보를 번역하여 제1 번역정보를 획득하고 출력하는 단계;
제2 사용자가 피드백한 제2 정보에 근거하여 상기 제2 정보에 대응되는 관련정보를 추출하는 단계; 및
상기 관련정보에 근거하여 상기 제1 번역정보를 수정하고 출력하는 단계;를 포함한다.
본 발명의 실시예는 제1 사용자가 제1 식별정보의 식별 결과를 확인하도록 프롬프팅함으로써, 음성식별 과정에서 착오가 발생하는 것을 방지하여 식별정보의 정확도를 향상시킨다. 또한, 제2 사용자가 피드백한 제2 정보에 의거하여 상기 제2 정보에 대응되는 관련정보를 추출하고 제1 번역정보를 수정하고 출력함으로써, 언어간의 번역의 정확도를 향상시킨다.
본 발명의 실시예 중의 기술적 해결수단을 더 명확하게 설명하기 위하여, 아래에서는 실시예의 설명에 필요한 도면에 대하여 간단히 설명하기로 한다. 물론, 하기 설명 중의 도면은 단지 본 발명의 일부 실시예로서, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자기 진보성 창출에 힘쓰지 않은 전제하에서 이러한 도면에 대해 보정과 교체를 진행할 수 있다.
도 1은 본 발명의 제1 실시예에서 제공하는 온라인 음성 번역 방법의 예시적 흐름도이다.
도 2는 본 발명의 제2 실시예에서 제공하는 온라인 음성 번역 방법의 예시적 흐름도이다.
도 3은 본 발명의 제3 실시예에서 제공하는 온라인 음성 번역 방법의 예시적 흐름도이다.
도 4는 본 발명의 제4 실시예에서 제공하는 온라인 음성 번역 장치의 예시적 구조도이다.
도 5는 본 발명의 제5 실시예에서 제공하는 온라인 음성 번역 장치의 예시적 구조도이다.
도 6은 본 발명의 실시예에서 제공하는 온라인 음성 번역 방법을 실행하는 단말기 장치의 하드웨어 구조도이다.
아래에 도면을 결부시켜 본 발명의 실시예 중의 기술적 해결수단을 명확하고 완전하게 설명하기로 한다. 분명한 것은, 설명된 실시예는 본 발명의 일부 실시예일뿐 전부의 실시예가 아니며, 본 발명의 원리를 설명하기 위한 것이로, 본 발명을 이러한 구체적인 실시예로 한정하기 위한 것이 아니다. 본 발명이 속하는 기술분야의 통상의 지식을 가진 자가 본 발명 중의 실시예를 기반으로 진보성 창출이 없이 획득하는 모든 기타 실시예는 전부 본 발명의 보호범위에 포함된다.
제1 실시예
도 1은 본 발명의 제1 실시예에서 제공하는 온라인 음성 번역 방법의 예시적 흐름도이다. 본 실시예는 쌍방이 언어간의 음성 교류를 진행시 음성식별과 번역하는 상황에 적용될 수 있는 것으로, 해당 방법은 온라인 음성 번역 장치로 실행할 수 있고, 해당 장치는 하드웨어 및/또는 소프트웨어로 실현할 수 있으며, 상기 장치는 임의의 단말기 또는 네트워크 요소에 배치될 수 있다. 상기 방법은 구체적으로 하기와 같은 단계들을 포함한다.
단계(S101)에서, 제1 사용자가 입력하는 제1 음성정보에 대하여 음성식별을 진행하여 제1 식별정보를 획득한다.
상기 동작에 있어서, 제1 사용자와 제2 사용자는 어종 간의 언어 교류를 진행하는 바, 제1 사용자는 제1 음성을 이용하여 제1 음성정보를 입력할 수 있고, 온라인 음성 번역 장치는 이에 대해 음성식별을 진행하여 제1 식별정보를 획득할 수 있다.
단계(S102)에서, 제1 사용자가 제1 식별정보를 확인하도록 프롬프팅한다.
상기 동작에 있어서, 제1 식별정보를 스크린에 표시할 수 있고, 제1 사용자는 터치 스크린, 키보드 및 마우스 등 입력장치를 통해 제1 식별정보를 확인할 수 있다.
상기 동작은 사용자가 획득한 제1 식별정보를 전부 확인하도록 프롬프팅할 수 있으나, 바람직하게는 소정 트리거 조건에 따라 사용자가 확인하도록 선택적으로 제공한다.바람직하게는, 제1 식별정보의 신뢰도를 확정하고, 제1 식별정보의 신뢰도에 근거하여 제1 사용자가 제1 식별정보를 확인하도록 프롬프팅한다.
신뢰도는 예를 들어 제1 사용자가 입력한 제1 음성정보 본의와의 오차 정도, 제1 식별정보의 인식률, 어휘집 중의 표준 어휘와의 오차 정도 등 제1 식별정보를 표시하는 정확도일 수 있다. 신뢰도의 확정 과정은, 표준 어휘집에서 제1 식별정보를 매칭하여, 정확히 식별한 어휘률이 소정 한계에 도달하는지 판단하거나, 제1 식별정보가 예를 들어 문법 요구와 같은 소정 규칙에 부합되는지 판단하는 것을 포함할 수 있다. 실제 사용 과정에서, 모든 제1 식별정보의 신뢰도를 확정하거나, 제1 식별정보 중의 적어도 하나의 키워드를 선택하여 각 키워드의 신뢰도를 확정할 수 있다.
제1 식별정보의 신뢰도에 근거하여 사용자에 대해 진행하는 프롬프팅에 있어서, 바람직하게는, 제1 식별정보의 신뢰도가 제1 기정 임계값보다 작으면, 제1 식별정보를 표시하여 제1 사용자가 확인하도록 한다. 또는, 제1 식별정보 중 적어도 하나의 키워드의 신뢰도가 제2 기정 임계값보다 작으면, 키워드를 표시하여 제1 사용자가 확인하도록 한다.
단계(S103)에서, 확인된 제1 식별정보를 번역하여 제1 번역정보를 획득하고 출력한다.
상기 동작에 있어서, 제1 식별정보를 제1 사용자가 사용하는 어종으로부터 제2 사용자가 사용하는 어종으로 번역하는 것인 바, 예를 들어, 중국어의 제1 식별정보를 번역하여 영어의 제1 번역정보를 획득한다. 두 사용자는 각각 온라인 음성 번역 장치가 배치된 두 개의 단말기를 사용할 수 있고, 제1 사용자의 단말기는 유선 네트워크 또는 무선 네트워크를 통해 제1 번역정보를 제2 사용자의 단말기에 출력한다.
단계(S104)에서, 제2 사용자가 피드백한 제2 정보에 근거하여 제2 정보에 대응되는 관련정보를 추출한다.
상기 동작에 있어서, 제2 사용자가 피드백한 제2 정보는 여전히 단말기 사이의 교호를 통해 제1 사용자의 단말기에 반환될 수 있다. 제2 정보에 대응되는 관련정보는 제1 번역정보의 정확성을 교정할 수 있는 정보이다. 예를 들어, 관련정보는 확인된 제1 식별정보 중 제2 정보와 소정 유사도를 만족하는 단자, 구이거나, 또는, 제2 정보와 소정 논리적 관련을 구비하는 정보일 수 있다. 예컨대 제2 정보는 제1 번역정보에 대한 반문정보일 수 있고, 이에 대응되는 관련정보는 제2 정보의 회답일 수 있다.
관련정보를 획득하는 방식은, 예를 들어, 제2 사용자가 피드백한 제2 정보와 확인된 제1 식별정보에 대하여 키워드 유사도 매칭을 진행하여 매칭되는 키워드를 제2 정보에 대응되는 관련정보로 추출할 수 있다. 예를 들어, 제1 사용자가 "
Figure 112015113641051-pct00001
(북경에서 천진까지 어떻게 가나요)"라고 말하고 제2 사용자가 "
Figure 112015113641051-pct00002
(어디를 가세요)"라고 반문하면, 이는
Figure 112015113641051-pct00003
(천진)에 대한 번역에 착오가 발생하여 제2 사용자가 이해할 수 없게 되였음을 설명할 수 있으므로, 제2 정보 "
Figure 112015113641051-pct00004
(어디를 가세요)"와 확인된 제1 식별정보 "
Figure 112015113641051-pct00005
(북경에서 천진까지 어떻게 가나요)"에 대하여 유사도 매칭를 진행함으로써, 제2 사용자가 더 관심을 가지는 정보를 획득하여 교정하여야 할 정보로 한다.
단계(S105)에서, 관련정보에 근거하여 제1 번역정보를 수정하고 출력한다.
상기 동작에 있어서, 모든 제1 번역정보를 수정하고 출력하여 정보가 누락되지 않도록 확보할 수 있다. 제1 번역정보 중의 일부분, 예를 들어, 그 중의 일부 키워드를 수정하고 출력할 수도 있는 바, 한단락의 정보를 번역하는 것보다 키워드를 번역하는 정확도가 비교적 높으므로 수정의 정확도를 향상시킬 수 있다. 부분적 글자 또는 단어를 처리하는 데이터 처리량이 비교적 작으므로 제1 번역정보를 수정하고 출력하는 효율을 향상시킬 수 있다. 구체적으로, 유선 네트워크 또는 무선 네트워크를 통해 제2 사용자에게 출력할 수 있다. 본 동작에서, 제1 사용자가 확인하도록 제1 번역정보를 표시할 필요가 없이 장치가 자동으로 번역정보의 수정을 완성하여 번역하는 효율을 향상시킬 수 있다.
본 실시예에서 개시하는 온라인 음성 번역 방법은, 제1 사용자에게 제1 식별정보 식별 결과를 확인하도록 프롬프팅함으로써, 음성식별 과정에서 착오가 발생하는 것을 방지하여 식별정보의 정확도를 향상시킨다. 또한, 제2 사용자가 피드백한 제2 정보에 의거하여 제2 정보에 대응되는 관련정보를 추출하고 제1 번역정보를 수정하고 출력함으로써, 언어간의 번역의 정확도를 향상시킨다.
제2 실시예
도 2는 본 발명의 제2 실시예에서 제공하는 온라인 음성 번역 방법의 예시적 흐름도이다. 실제 쌍방이 교류하는 과정에서, 대화 내용은 일정한 대화 장면 및 대화 규칙을 기반으로 생성한다. 그러므로, 본 발명의 제2 실시예는 본 발명의 제1 실시예를 기초로, 대화 장면 및 대화 규칙에 의해 온라인 음성 번역 과정을 최적화시켰고, 본 제2 실시예에서 제공하는 온라인 음성 번역 방법은 하기와 같은 단계들을 포함한다.
단계(S201)에서, 제1 사용자가 입력하는 제1 음성정보에 대하여 음성식별을 진행하여 제1 식별정보를 획득한다.
단계(S202)에서, 제1 식별정보에 근거하여 현재 대화 장면을 확정하거나, 제1 사용자가 확인한 기왕 식별정보 중의 키워드에 근거하여 현재 대화 장면을 식별한다.
상기 동작에 있어서, 일부 대화 장면 및 그의 확정 규칙을 미리 설정할 수 있다. 예를 들어, 오락 장소 대화 장면, 비지니스 회담 장면, 학술 토론 장면, 기차역 대화 장면, 공항 대화 장면 등이다. 제1 식별정보 중의 키워드에 근거하여 현재 대화 장면을 확정할 수 있는 바, 예를 들어 키워드가 명소의 지명일 경우, 현재 대화 장면을 여행 장면으로 확정한다. 제1 사용자가 기정 시간 내에 확인한 기왕 식별정보 중의 키워드에 근거하여 현재 대화 장면을 식별할 수도 있다. 제1 사용자가 제1 식별정보를 확인하기전에 이미 확인된 정보가 기왕 식별정보이다. 물론, 대화 장면도 역시 사용자가 선택할 수 있다.
단계(S203)에서, 현재 대화 장면에서의 키워드 및/또는 언어 규칙에 근거하여 제1 식별정보의 신뢰도를 확정한다.
상기 동작에 있어서, 현재 대화 장면에서의 키워드는 해당 장면에서의 상용 어휘이거나, 해당 장면에서의 희귀 어휘일 수 있다. 그러므로, 제1 식별정보와 현재 대화 장면에서의 키워드를 비교 대조할 수 있다. 현재 장면에 포함되는 상용 어휘 및/또는 희귀 어휘의 확률에 근거하여 신뢰도를 확정한다. 제1 식별정보가 상용 어휘를 포함할 경우 제1 식별정보의 신뢰도는 비교적 높고, 제1 식별정보가 희귀 어휘를 포함할 경우 제1 신뢰도는 비교적 낮다. 예를 들어, 기차역 대화 장면에서, 기차, 기차표와 시간은 상용 어휘이고, 히말라야 산맥, 지팡이와 전쟁 등 단어는 희귀 어휘이다. 제1 식별정보가 기차, 기차표와 시간 등 어휘를 포함하면, 제1 식별정보의 신뢰도는 비교적 높고, 제1 식별정보가 히말라야 산맥, 지팡이와 전쟁 등 어휘를 포함하면, 제1 식별정보의 신뢰도는 비교적 낮다. 언어 규칙은 문법 규칙일 수 있고, 언어 규칙은 시간, 지점, 인물과 사건을 포함할 수 있으나 이에 한정되지 않는다. 제1 식별정보가 문법 규칙에 부합될 경우 제1 식별정보의 신뢰도는 비교적 높고, 제1 식별정보가 문법 규칙에 부합되지 않을 경우 제1 식별정보의 신뢰도는 비교적 낮다.
단계(S204)에서, 제1 식별정보의 신뢰도에 근거하여 제1 사용자가 제1 식별정보를 확인하도록 프롬프팅한다.
상기 동작에 있어서, 예를 들어 디스플레이 인터페이스에 팝업창을 띄우거나 확정키를 표시하는 등 방식과 같은 시각 방식으로 제1 사용자가 제1 식별정보를 확인하도록 프롬프팅하거나, 예를 들어 음성 제시 정보를 방송하는 청각 방식으로 제1 사용자가 제1 식별정보를 확인하도록 프롬프팅할 수 있다.
단계(S205)에서, 확인된 제1 식별정보를 번역하여 제1 번역정보를 획득하여 출력한다.
단계(S206)에서, 현재 대화 장면에서의 키워드 및/또는 언어 규칙에 근거하여 확인된 제1 식별정보로부터 제2 사용자가 피드백한 제2 정보에 대응되는 관련정보를 추출한다.
단계(S207)에서, 관련정보에 근거하여 제1 번역정보를 수정하고 출력한다.
본 제2 실시예에서 개시하는 온라인 음성 번역 방법을 통하여 대화 장면의 관리를 증가함으로써, 신뢰도 확정과 관련정보 확정의 정확도를 진일보로 최적화시킨다.
제3 실시예
도 3은 본 발명의 제3 실시예에서 제공하는 온라인 음성 번역 방법의 흐름도이다. 앞서 설명한 본 발명의 실시예를 기반으로, 본 제3 실시예에서는 온라인 음성 번역 방법의 바람직한 실시 방안을 제공하는 바, 제1 사용자를 중국어 사용자로, 제2 사용자를 프랑스어 사용자로 예를 들어 설명한다. 해당 방법은 하기와 같은 단계들을 포함한다.
단계(S301)에서, 제1 음성정보로 제1 사용자가 마이크를 통해 중국어로 "
Figure 112015113637540-pct00006
(오늘 오후, 니스에서 파리로 가는 기차표)"를 입력하고, 이에 대해 음성식별을 진행하여 제1 식별정보를 획득한다. 말투, 환경 소음 등 여러 방면의 원인으로 인해, 식별정보는 가능하게 "
Figure 112015113637540-pct00007
(경천 오후, 14에서 파리로 가는 기차표)"로 식별될 수 있다.
단계(S302)에서, "
Figure 112015113637540-pct00008
(경천 오후, 14에서 파리로 가는 기차표)"의 신뢰도를 확정하고, 신뢰도가 소정 임계값보다 작으면, 단계(S303)를 수행하고, 아니면 계속하여 단계(S305)를 수행한다.
"
Figure 112015113637540-pct00009
(경천 오후, 14에서 파리로 가는 기차표)"에는 "
Figure 112015113637540-pct00010
(오후)", "
Figure 112015113637540-pct00011
(파리)"와 "
Figure 112015113637540-pct00012
(기차표)"가 나타났으므로, 통상적인 문법 규칙에 따라 한곳에서 다른 곳으로 가는 문법 규칙으로 추리되며, "
Figure 112015113637540-pct00013
(경천)"은 시간 명사도 주소 명사도 아니고, "
Figure 112015113637540-pct00014
(14에서 파리로)"라는 표현의 출발지와 목적지의 문법 규칙에서 "14"도 주소가 아니기에, "
Figure 112015113637540-pct00015
(경천)"과 "14"의 신뢰도가 비교적 낮으므로, 단계(S303)를 수행하여야 한다.
단계(S303)에서, "
Figure 112015113637540-pct00016
(경천 오후, 14에서 파리로 가는 기차표)"를 문자의 방식으로 스크린 상에 표시하여, 제1 사용자가 확인하도록 프롬프팅한다.
단계(S304)에서, 사용자가 삭제를 선택하고 다시 입력할 경우, 단계(S301)로 반환하여 수행한다.
신뢰도가 비교적 높은 제1 식별정보 "
Figure 112015113637540-pct00017
(오늘 오후, 니스에서 파리로 가는 기차표)"를 획득할 때까지 수행한다.
단계(S305)에서, 제1 식별정보 "
Figure 112015113637540-pct00018
(오늘 오후, 니스에서 파리로 가는 기차표)"를 프랑스어로 "오늘 오후, 니스에서 파리로 가는 기차표", 즉 제1 번역정보로 번역하여 제2 사용자에게 출력한다.
여기서, 어휘의 희귀성 또는 여러 어의로 인해 번역정보의 착오를 초래할 수 있다.
단계(S306)에서, 제2 사용자가 입력한 프랑스어 피드백 정보를 수신하고, 피드백 정보를 중국어로 번역하며, 피드백한 정보 "당신은 어디에서 파리로 갑니까"를 제2 정보로 한다.
프랑스어 피드백 정보를 제2 정보로 직접 이용하거나, 중국어로 번역한 다음 제2 정보로 이용할 수 있다.
단계(S307)에서, 언어 규칙에 근거하여 확인된 제1 식별정보로부터 제2 정보에 대응되는 관련정보를 추출한다.
본 실시예에서, 제2 정보는 "
Figure 112015113637540-pct00019
(당신은 어디에서 파리로 갑니까)"이고, 언어 규칙에 의해 출발 지점을 문의한다는 것을 식별하였고, 제1 식별정보에서 "
Figure 112015113637540-pct00020
(오늘 오후, 니스에서 파리로 가는 기차표)"에서 "
Figure 112015113637540-pct00021
(니스에서 파리로)"라는 통상적인 문법에 따라 출발지와 목적지를 반영할 수 있으므로, 이에 근거하여, "
Figure 112015113637540-pct00022
(니스)"를 관련정보로 추출한다.
단계(S308)에서, 관련정보에 근거하여 제1 번역정보를 수정하고 제2 사용자에게 출력한다.
관련정보 "
Figure 112015113637540-pct00023
(니스)"에 의거하여 제1 번역정보를 프랑스어의 "니스"로 수정하고, 제2 사용자에게 출력한다. 통상적인 경우, 번역 시스템이 하나의 단어와 문구에 대한 번역은 문장의 번역보다 상대적으로 비교적 정확하므로 일정한 정도에서 번역 착오 확률을 감소시킬 수 있다.
본 제3 실시예의 기술적 해결수단은, 쌍방의 원활하지 않는 교류를 초래하지 않도록 "
Figure 112015113637540-pct00024
(경천)"이라는 번역 결과를 제2 사용자에게 출력하는 것을 방지하고, "
Figure 112015113637540-pct00025
(니스)"에 대한 번역 결과를 수정하고 다시 출력함으로써, 쌍방의 언어간의 원활한 교류를 보장한다.
제4 실시예
도 4는 본 발명의 제4 실시예에서 제공하는 온라인 음성 번역 장치의 예시적 구조도이다. 본 실시예는 쌍방이 언어 간의 음성 교류를 진행시 음성식별과 번역하는 상황에 적용될 수 있는 것으로, 해당 온라인 음성 번역 장치는 임의의 단말기 또는 네트워크 요소에 배치될 수 있다. 해당 온라인 음성 번역 장치는 구체적으로,
제1 식별정보 모듈(41), 확인 프롬프팅 모듈(42), 정보 번역 모듈(43), 관련정보 추출 모듈(44)과 정보 수정 모듈(45)을 포함한다.
제1 식별정보 모듈(41)은 제1 사용자가 입력하는 제1 음성정보에 대하여 음성식별을 진행하여 제1 식별정보를 획득하기 위한 것이다. 확인 프롬프팅 모듈(42)은 제1 사용자가 제1 식별정보를 확인하도록 프롬프팅하기 위한 것이다. 정보 번역 모듈(43)은 확인된 제1 식별정보를 번역하여 제1 번역정보를 획득하고 출력하기 위한 것이다. 관련정보 추출 모듈(44)은 제2 사용자가 피드백한 제2 정보에 근거하여 제2 정보에 대응되는 관련정보를 추출하기 위한 것이다. 정보 수정 모듈(45)은 관련정보에 근거하여 제1 번역정보를 수정하고 출력하기 위한 것이다.
제1 식별정보 모듈(41)에서, 제1 사용자와 제2 사용자가 어종 간의 언어 교류를 진행할 경우, 제1 사용자가 제1 음성을 사용하여 제1 음성정보를 입력할 수 있고, 온라인 음성 번역 장치는 이에 대해 음성식별을 진행하여, 제1 식별정보를 획득할 수 있다.
확인 프롬프팅 모듈(42)에서, 제1 식별정보를 스크린 상에 표시할 수 있고, 제1 사용자는 터치 스크린, 키보드와 마우스 등 입력장치를 통해 제1 식별정보를 확인할 수 있다.
사용자가 획득된 제1 식별정보 전체를 확인하도록 프롬프팅할 수 있으나, 바람직하게는, 소정 트리거 조건에 따라 사용자가 확인하도록 선택적으로 제공한다.
확인 프롬프팅 모듈(42)은 신뢰도 확정 모듈(421)과 사용자 확인 모듈(422)을 포함한다.
신뢰도 확정 모듈(421)은 제1 식별정보의 신뢰도를 확정하기 위한 것이다.
사용자 확인 모듈(422)은 제1 식별정보의 신뢰도에 근거하여 제1 사용자가 제1 식별정보를 확인하도록 프롬프팅하기 위한 것이다.
신뢰도 확정 모듈(421)에서, 신뢰도는 제1 식별정보를 표시하는 정확도, 예를 들어 제1 사용자가 입력한 제1 음성정보 본의와의 오차 정도, 제1 식별정보의 인식률, 어휘집 중의 표준 어휘와의 오차 정도일 수 있다. 신뢰도의 확정은 표준 어휘집에서 제1 식별정보를 매칭하여 정확히 식별한 어휘률이 소정 한계에 도달하는지 판한하거나, 제1 식별정보가 소정 규칙, 예를 들어 문법 요구에 부합되는지 판단할 수 있다. 실제 사용 과정에서, 모든 제1 식별정보의 신뢰도를 확정하거나, 제1 식별정보 중의 적어도 하나의 키워드를 선택하여 각 키워드의 신뢰도를 확정할 수 있다.
사용자 확인 모듈(422)에서, 제1 식별정보의 신뢰도에 근거하여 사용자에게 진행하는 프롬프팅은, 바람직하게는, 제1 식별정보의 신뢰도가 제1 기정 임계값보다 작으면, 제1 사용자가 확인하도록 제1 식별정보를 표시한다. 또는, 제1 식별정보 중에서 적어도 하나의 키워드의 신뢰도가 제2 기정 임계값보다 작으면, 제1 사용자가 확인하도록 키워드를 표시한다.
정보 번역 모듈(43)에서, 제1 식별정보를 제1 사용자가 사용하는 어종에서 제2 사용자가 사용하는 어종로 번역하는 바, 예를 들어, 중국어의 제1 식별정보를 번역하여 영어의 제1 번역정보를 획득한다. 두 사용자는 각각 온라인 음성 번역 장치가 배치된 두 개의 단말기를 사용할 수 있고, 제1 사용자의 단말기는 유선 네트워크 또는 무선 네트워크를 통해 제1 번역정보를 제2 사용자의 단말기에 출력한다.
관련정보 추출 모듈(44)에서, 제2 사용자가 피드백한 제2 정보는 여전히 단말기 사이의 교호를 통해 제1 사용자의 단말기에 반환될 수 있다. 제2 정보에 대응되는 관련정보는 제1 번역정보의 정확성을 교정할 수 있는 정보이다. 예를 들어, 관련정보는 확인된 제1 식별정보 중 제2 정보와 소정 유사도를 만족하는 단자, 구이거나, 또는, 제2 정보와 소정 논리적 관련을 구비하는 정보일 수 있다. 예컨대 제2 정보는 제1 번역정보에 대한 반문정보일 수 있고, 이에 대응되는 관련정보는 제2 정보에 대한 회답일 수 있다.
관련정보 추출 모듈(44)은, 제2 사용자가 피드백한 제2 정보와 확인된 제1 식별정보에 대하여 키워드 유사도 매칭을 진행하여 매칭되는 키워드를 제2 정보에 대응되는 관련정보로 추출하기 위한 키워드 매칭 서브모듈(441)을 포함한다. 예를 들어, 제1 사용자가 "
Figure 112015113641051-pct00026
(북경에서 천진까지 어떻게 가나요?)"라고 말하고 제2 사용자가 "
Figure 112015113641051-pct00027
(어디를 가세요)"라고 반문하면, 이는
Figure 112015113641051-pct00028
(천진)에 대한 번역에 착오가 발생하여 제2 사용자가 이해할 수 없게 되였음을 설명할 수 있으므로, 제2 정보 "
Figure 112015113641051-pct00029
(어디를 가세요)"와 확인된 제1 식별정보 "
Figure 112015113641051-pct00030
(북경에서 천진까지 어떻게 가나요)"에 대하여 유사도 매칭를 진행함으로써, 제2 사용자가 더 관심을 가지는 정보를 획득하여 교정하여야 할 정보로 한다.
정보 수정 모듈(45)에서, 모든 제1 번역정보를 수정하고 출력하여 정보가 누락되지 않도록 확보할 수 있다. 제1 번역정보 중의 일부분, 예를 들어, 그 중의 일부 키워드를 수정하고 출력할 수도 있는 바, 한단락의 정보를 번역하는 것보다 키워드를 번역하는 정확도가 비교적 높으므로 수정의 정확도를 향상시킬 수 있다. 부분적 글자 또는 단어를 처리하는 데이터 처리량이 비교적 작으므로 제1 번역정보를 수정하고 출력하는 효율을 향상시킬 수 있다. 구체적으로, 유선 네트워크 또는 무선 네트워크를 통해 제2 사용자에게 출력할 수 있다. 이로써 제1 사용자가 확인하도록 제1 번역정보를 표시할 필요가 없이 장치가 자동으로 번역정보의 수정을 완성하여 번역의 정확도를 향상시킬 수 있다.
본 제4 실시예에서 개시하는 온라인 음성 번역 장치는, 제1 사용자에게 제1 식별정보 식별 결과를 확인하도록 프롬프팅함으로써, 음성식별 과정에서 착오가 발생하는 것을 방지하여 식별정보의 정확도를 향상시킨다. 또한, 제2 사용자가 피드백한 제2 정보에 의거하여 제2 정보에 대응되는 관련정보를 추출하고 제1 번역정보를 수정하고 출력함으로써, 언어간의 번역의 정확도를 향상시킨다.
제5 실시예
도 5는 본 발명의 제5 실시예에서 제공하는 온라인 음성 번역 장치의 예시적 구조도이다. 실제 쌍방이 교류하는 과정에서, 대화 내용은 일정한 대화 장면 및 대화 규칙을 기반으로 생성한다. 그러므로, 본 발명의 제5 실시예는 본 발명 제4 실시예를 기초로, 대화 장면 및 대화 규칙에 의해 온라인 음성 번역 과정을 최적화시켰다. 본 실시예에서 제공하는 온라인 음성 번역 장치는,
제1 식별정보 모듈(51), 대화 장면 확정 모듈(52), 신뢰도 확정 모듈(53), 사용자 확인 모듈(54), 정보 번역 모듈(55), 언어 규칙 서브모듈(56) 및 정보 수정 모듈(57)을 포함한다.
제1 식별정보 모듈(51)은 제1 사용자가 입력하는 제1 음성정보에 대하여 음성식별을 진행하여 제1 식별정보를 획득하기 위한 것이다. 대화 장면 확정 모듈(52)은 제1 식별정보에 근거하여 현재 대화 장면을 확정하거나, 제1 사용자가 확인한 기왕 식별정보 중의 키워드에 근거하여 현재 대화 장면을 식별하기 위한 것이다. 신뢰도 확정 모듈(53)은 제1 식별정보의 신뢰도를 확정하기 위한 것이다. 사용자 확인 모듈(54)은 제1 식별정보의 신뢰도에 근거하여 제1 사용자가 제1 식별정보를 확인하도록 프롬프팅하기 위한 것이다. 정보 번역 모듈(55)은 확인된 제1 식별정보를 번역하여 제1 번역정보를 획득하고 출력하기 위한 것이다. 언어 규칙 서브모듈(56)은 현재 대화 장면에서의 키워드 및/또는 언어 규칙에 근거하여 확인된 제1 식별정보로부터 제2 사용자가 피드백한 제2 정보에 대응되는 관련정보를 추출하기 위한 것이다. 정보 수정 모듈(57)은 관련정보에 근거하여 제1 번역정보를 수정하고 출력하기 위한 것이다.
대화 장면 확정 모듈(52)에서, 일부 대화 장면 및 그의 확정 규칙을 미리 설정할 수 있다. 예를 들어, 오락 장소 대화 장면, 비지니스 회담 장면, 학술 토론 장면, 기차역 대화 장면, 공항 대화 장면 등이다. 제1 식별정보 중의 키워드에 근거하여 현재 대화 장면을 확정할 수 있는 바, 예를 들어 키워드가 명소 지명일 경우, 현재 대화 장면을 여행 장면으로 확정한다. 제1 사용자가 기정 시간 내에 확인한 기왕 식별정보 중의 키워드에 근거하여 현재 대화 장면을 식별할 수도 있다. 제1 사용자가 제1 식별정보를 확인하기전에 이미 확인된 정보가 기왕 식별정보이다. 물론, 대화 장면도 사용자가 선택할 수 있다.
신뢰도 확정 모듈(53)에서, 현재 대화 장면에서의 키워드는 해당 장면에서의 상용 어휘이거나, 해당 장면에서의 희귀 어휘일 수 있다. 그러므로, 제1 식별정보와 현재 대화 장면에서의 키워드를 비교 대조할 수 있다. 현재 장면에 포함되는 상용 어휘 및/또는 희귀 어휘의 확율에 근거하여 신뢰도를 확정한다. 언어 규칙은 문법 규칙일 수 있고, 언어 규칙은 시간, 지점, 인물과 사건을 포함할 수 있으나 이에 한정되지 않는다.
사용자 확인 모듈(54)에서, 예를 들어 디스플레이 인터페이스에 팝업창을 띄우거나 확정키를 표시하는 등 방식과 같은 시각 방식으로 제1 사용자가 제1 식별정보를 확인하도록 프롬프팅하거나, 예를 들어 음성 제시 정보를 방송하는 청각 방식으로 제1 사용자가 제1 식별정보를 확인하도록 프롬프팅할 수 있다.
본 제5 실시예에서 개시하는 온라인 음성 번역 장치를 통하여 대화 장면의 관리를 증가함으로써, 신뢰도 확정과 관련정보 확정의 정확도를 진일보로 최적화시킨다.
본 발명의 실시예는 컴퓨터 프로세서에 의해 실행시 온라인 음성 번역 방법을 실행하기 위한 컴퓨터 실행 가능한 명령을 포함하는 저장매체를 더 제공하는 바, 상기 온라인 음성 번역 방법은,
제1 사용자가 입력하는 제1 음성정보에 대하여 음성식별을 진행하여, 제1 식별정보를 획득하는 단계;
상기 제1 사용자가 상기 제1 식별정보를 확인하도록 프롬프팅하는 단계;
확인된 상기 제1 식별정보를 번역하여 제1 번역정보를 획득하고 출력하는 단계;
제2 사용자가 피드백한 제2 정보에 근거하여 제2 정보에 대응되는 관련정보를 추출하는 단계; 및
상기 관련정보에 근거하여 제1 번역정보를 수정하고 출력하는 단계;를 포함한다.
상기 온라인 음성 번역 장치는 본 발명의 임의의 실시예에서 제공하는 온라인 음성 번역 방법을 실행할 수 있고, 상응한 기능 모듈과 유리한 효과를 구비한다.
도 6을 참조하면, 본 발명의 실시예는 온라인 음성 번역 방법을 실행하는 단말기 장치의 하드웨어 구조를 제공하는 바, 상기 단말기 장치는 프로세서(601), 메모리(602), 입력 장치(603)와 출력 장치(604)를 포함한다. 단말기 장치의 프로세서(601)의 수량은 하나 또는 다수개일 수 있고, 도 6에서 하나의 프로세서(601)를 예로 든다. 단말기 장치 중의 프로세서(601), 메모리(602), 입력 장치(603)와 출력 장치(604)는 버스라인 또는 기타 방식으로 연결되고, 도 6에서는 버스라인을 통해 연결되는 것을 예로 든다.
메모리(602)는 컴퓨터 판독 가능한 저장매체로서, 소프트웨어 프로그램, 컴퓨터 실행 가능한 프로그램 및 모듈을 저장하기 위한 것인 바, 예를 들면 본 발명의 실시예 중의 온라인 음성 번역 방법에 대응되는 프로그램 명령/모듈(예를 들어, 도 4-도 5에 도시된 온라인 음성 번역 장치 중의 제1 식별정보 모듈(41), 확인 프롬프팅 모듈(42), 정보 번역 모듈(43), 관련정보 추출 모듈(44)과 정보 수정 모듈(45))이다. 프로세서(601)는 메모리(602)에 저장된 소프트웨어 프로그램, 명령 및 모듈을 작동시켜 단말기 장치의 각종 기능 응용 및 데이터 처리를 실행하여 상기 방법 실시예 중의 온라인 음성 번역 방법을 실현한다.
메모리(602)는 프로그램 저장 영역과 데이터 저장 영역을 포함할 수 있는 바, 여기서, 프로그램 저장 영역은 조작 시스템, 적어도 하나의 기능이 필요로 하는 응용 프로그램을 저장할 수 있고, 데이터 저장 구역은 단말기 장치의 사용에 근거하여 생성되는 데이터 등을 저장할 수 있다. 이외, 메모리(602)는 고속 랜덤 액세스 메모리를 포함할 수 있고, 비휘발성 메모리를 포함할 수도 있는 바, 예를 들면 적어도 하나의 디스크 메모리, 플래시 메모리, 또는 기타 비휘발성 고체 메모리를 포함할 수 있다. 일부 실시예에서, 메모리(602)는 프로세서(601)에 대하여 원격 설치되는 메모리를 진일보 포함할 수 있는 바, 이러한 원격 메모리는 네트워크를 통해 서버에 연결될 수 있다. 상기 네트워크의 실시예는 인터넷, 기업 인트라넷(intranet), 근거리 통신망, 이동 통신망 및 그 조합을 포함하나, 이에 한정되지 않는다.
입력 장치(603)는 입력한 오디오 정보의 수신 및 단말기의 사용자 설정 및 기능 제어에 관련되는 오디오 신호 입력을 생성하기 위한 것이다. 출력 장치(504)는 스크린 등 디스플레이 장치를 포함할 수 있다.
여기서, 프로세서(601)는, 제1 사용자가 입력하는 제1 음성정보에 대하여 음성식별을 진행하여 제1 식별정보를 획득하는 단계; 제1 사용자가 제1 식별정보를 확인하도록 프롬프팅하는 단계; 확인된 제1 식별정보를 번역하여 제1 번역정보를 획득하고 출력하는 단계; 제2 사용자가 피드백한 제2 정보에 근거하여 제2 정보에 대응되는 관련정보를 추출하는 단계; 및 관련정보에 근거하여 제1 번역정보를 수정하고 출력하는 단계;를 실행할 수 있다.
진일보로, 프로세서(601)는, 제1 사용자가 제1 식별정보를 확인하도록 프롬프팅할 때, 구체적으로 제1 식별정보의 신뢰도를 확정하고, 제1 식별정보의 신뢰도에 근거하여 제1 사용자가 제1 식별정보를 확인하도록 프롬프팅하도록 구현된다. 여기서, 제1 식별정보의 신뢰도를 확정하는 것은, 현재 대화 장면에서의 키워드 및/또는 언어 규칙 중의 적어도 하나에 근거하는 것을 포함한다.
진일보로, 프로세서(601)는, 제1 식별정보의 신뢰도에 근거하여 제1 사용자에게 제1 식별정보를 확인하도록 프롬프팅할 때, 구체적으로 제1 식별정보의 신뢰도가 제1 기정 임계값보다 작으면, 제1 사용자가 확인하도록 제1 식별정보를 표시하거나, 제1 식별정보 중 적어도 하나의 키워드의 신뢰도가 제2 기정 임계값보다 작으면, 제1 사용자가 확인하도록 키워드를 표시하도록 구현된다.
진일보로, 프로세서(601)는, 제2 사용자가 피드백한 제2 정보에 근거하여 제2 정보에 대응되는 관련정보를 추출할 때, 구체적으로 제2 사용자가 피드백한 제2 정보와 확인된 제1 식별정보에 대하여 키워드 유사도 매칭을 진행하여 매칭되는 키워드를 제2 정보에 대응되는 관련정보로 추출하도록 구현된다.
진일보로, 프로세서(601)는, 제2 사용자가 피드백한 제2 정보에 근거하여 제2 정보에 대응되는 관련정보를 추출할 때, 구체적으로 현재 대화 장면에서의 키워드 및/또는 언어 규칙에 근거하여 제1 식별정보로부터 제2 정보에 대응되는 관련정보를 추출하도록 구현된다. 여기서, 제1 식별정보에 근거하여 현재 대화 장면을 확정하거나, 제1 사용자가 확인한 기왕 식별정보 중의 키워드에 근거하여 현재 대화 장면을 식별한다.
상기의 실시 방식에 관한 설명을 통하여, 본 발명은 소프트웨어 및 필수적인 범용의 하드웨어에 의해 실현하거나, 물론 하드웨어에 의해 실현할 수 있으나, 대부분 경우 전자가 더욱 바람직한 실시방식임을 본 발명이 속하는 기술분야의 통상의 지식을 가진 자가 분명히 이해할 수 있을 것이다. 이러한 이해를 기반으로 하여, 본 발명의 기술적 해결수단이 본질적으로 또는 선행기술에 대하여 공헌한 부분은 소프트웨어 제품의 형식으로 체현될 수 있고, 상기 컴퓨터 소프트웨어 제품은 예를 들면 컴퓨터의 플로피 디스켓, 판독 전용 메모리(Read-Only Memory, ROM), 랜덤 액세스 메모리(Random Access Memory, RAM), 플래시 메모리(FLASH), 하드 드라이버 또는 디스크 등 컴퓨터 판독 가능 저장매체에 저장될 수 있으며, 컴퓨터 장치(개인 컴퓨터, 서버 또는 네트워크 장치 등일 수 있음)가 본 발명의 각 실시예에 따른 방법을 실행하도록 일부 명령을 포함할 수 있다.
주의해야 할 것은, 상기 검색 장치의 실시예에 있어서, 포함하는 각 유닛과 모듈은 단지 기능 로직에 따라 구획된 것으로 상기 구획에 한정되지 않으며, 상응한 기능을 실현할 수 있으면 된다. 이외, 각 기능 유닛의 구체적인 명칭은 서로 구분하기 위한 것일 뿐, 본 발명의 보호범위를 한정하지 않는다.
주의해야 할 것은, 상술한 바는 단지 본 발명의 바람직한 실시예 및 운용된 기술적 원리일 뿐이다. 본 발명이 상기의 특정 실시예에 한정되지 않고, 음을 본 발명이 속하는 기술분야의 통상의 지식을 가진 자가 이해할 수 있을 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 보호범위를 벗어나지 않는 범위내에서 각종 뚜렷한 변화, 재조절 또는 대체를 진행할 수 있다. 따라서, 상기의 실시예를 통해 본 발명을 비교적 상세하게 설명하였으나, 본 발명은 상기 실시예에 한정되지 않을뿐만 아니라, 본 발명의 사상을 벗어나지 않는 범위내에서, 더 많은 기타 등가 실시예를 포함할 수 있고, 본 발명의 범위는 첨부되는 특허청구범위에 의해 결정된다.

Claims (15)

  1. 제1 사용자가 입력하는 제1 음성정보에 대하여 음성식별을 진행하여 제1 식별정보를 획득하는 단계;
    상기 제1 사용자가 상기 제1 식별정보를 확인하도록 프롬프팅하는 단계;
    확인된 상기 제1 식별정보를 번역하여 제1 번역정보를 획득하고 출력하는 단계;
    제2 사용자가 제1 번역정보에 대해 피드백한 제2 정보에 근거하여 상기 제2 정보에 대응되는 상기 제1 번역정보의 정확성을 교정하기 위한 관련정보를 추출하는 단계; 및
    상기 관련정보에 근거하여 제1 번역정보를 수정하고 출력하는 단계;
    를 포함하는 것을 특징으로 하는 온라인 음성 번역 방법.
  2. 제1항에 있어서,
    상기 제1 사용자가 상기 제1 식별정보를 확인하도록 프롬프팅하는 단계는,
    상기 제1 식별정보를 표준 어휘집 및/또는 언어 규칙에 매칭시켜 상기 제1 식별정보의 신뢰도를 확정하는 단계; 및
    상기 제1 식별정보의 신뢰도에 근거하여 상기 제1 사용자가 상기 제1 식별정보를 확인하도록 프롬프팅하는 단계;를 포함하는 것을 특징으로 하는 온라인 음성 번역 방법.
  3. 제2항에 있어서,
    상기 제1 식별정보의 신뢰도를 확정하는 단계는,
    상기 제1 식별정보로부터 적어도 하나의 키워드를 선택하고 상기 적어도 하나의 키워드를 표준 어휘집 및/또는 언어 규칙에 매칭시켜 상기 적어도 하나의 키워드의 신뢰도를 확정하는 단계를 포함하는 것을 특징으로 하는 온라인 음성 번역 방법.
  4. 제3항에 있어서,
    상기 제1 식별정보의 신뢰도에 근거하여 상기 제1 사용자가 상기 제1 식별정보를 확인하도록 프롬프팅하는 단계는,
    상기 제1 식별정보의 신뢰도가 제1 기정 임계값보다 작으면, 상기 제1 사용자가 확인하도록 제1 식별정보를 표시하는 단계; 또는
    상기 적어도 하나의 키워드의 신뢰도가 제2 기정 임계값보다 작으면, 상기 제1 사용자가 확인하도록 상기 적어도 하나의 키워드를 표시하는 단계;를 포함하는 것을 특징으로 하는 온라인 음성 번역 방법.
  5. 제1항에 있어서,
    상기 제2 사용자가 피드백한 제2 정보에 근거하여 상기 제2 정보에 대응되는 관련정보를 추출하는 단계는,
    상기 제2 사용자가 피드백한 상기 제2 정보와 확인된 상기 제1 식별정보에 대해 키워드의 유사도 매칭을 진행하여 매칭된 키워드를 상기 관련정보로 추출하는 단계를 포함하는 것을 특징으로 하는 온라인 음성 번역 방법.
  6. 제1항에 있어서,
    상기 제2 사용자가 피드백한 제2 정보에 근거하여 상기 제2 정보에 대응되는 관련정보를 추출하는 단계는,
    현재 대화 장면에서의 키워드 및/또는 언어 규칙에 근거하여 확인된 상기 제1 식별정보로부터 상기 관련정보를 추출하는 단계를 포함하는 것을 특징으로 하는 온라인 음성 번역 방법.
  7. 제3항 또는 제6항에 있어서,
    상기 제1 식별정보에 근거하여 현재 대화 장면을 확정하거나, 제1 사용자가 상기 제1 식별정보를 확정하기 전에 이미 확인된 식별정보 중의 키워드에 근거하여 현재 대화 장면을 식별하는 단계를 더 포함하는 것을 특징으로 하는 온라인 음성 번역 방법.
  8. 제1 사용자가 입력하는 제1 음성정보에 대하여 음성식별을 진행하여, 제1 식별정보를 획득하기 위한 제1 식별정보 모듈;
    상기 제1 사용자가 상기 제1 식별정보를 확인하도록 프롬프팅하기 위한 확인 프롬프팅 모듈;
    확인된 상기 제1 식별정보를 번역하여 제1 번역정보를 획득하고 출력하기 위한 정보 번역 모듈;
    제2 사용자가 제1 번역정보에 대해 피드백한 제2 정보에 근거하여 상기 제2 정보에 대응되는 상기 제1 번역정보의 정확성을 교정하기 위한 관련정보를 추출하기 위한 관련정보 추출 모듈; 및
    상기 관련정보에 근거하여 상기 제1 번역정보를 수정하고 출력하기 위한 정보 수정 모듈;
    을 포함하는 것을 특징으로 하는 온라인 음성 번역 장치.
  9. 제8항에 있어서,
    상기 확인 프롬프팅 모듈은,
    상기 제1 식별정보를 표준 어휘집 및/또는 언어 규칙에 매칭시켜 상기 제1 식별정보의 신뢰도를 확정하기 위한 신뢰도 확정 모듈; 및
    상기 제1 식별정보의 신뢰도에 근거하여 상기 제1 사용자가 상기 제1 식별정보를 확인하도록 프롬프팅하기 위한 사용자 확인 모듈;을 포함하는 것을 특징으로 하는 온라인 음성 번역 장치.
  10. 제9항에 있어서,
    상기 신뢰도 확정 모듈은 구체적으로,
    상기 제1 식별정보로부터 적어도 하나의 키워드를 선택하고 상기 적어도 하나의 키워드를 표준 어휘집 및/또는 언어 규칙에 매칭시켜 상기 적어도 하나의 키워드의 신뢰도를 확정하기 위한 것을 특징으로 하는 온라인 음성 번역 장치.
  11. 제10항에 있어서,
    상기 확인 프롬프팅 모듈은 구체적으로,
    상기 제1 식별정보의 신뢰도가 제1 기정 임계값보다 작으면, 상기 제1 사용자가 확인하도록 제1 식별정보를 표시하거나; 또는
    상기 적어도 하나의 키워드의 신뢰도가 제2 기정 임계값보다 작으면, 상기 제1 사용자가 확인하도록 상기 적어도 하나의 키워드를 표시하기 위한 것을 특징으로 하는 온라인 음성 번역 장치.
  12. 제8항에 있어서,
    상기 관련정보 추출 모듈은,
    상기 제2 사용자가 피드백한 상기 제2 정보와 확인된 상기 제1 식별정보에 대하여 키워드 유사도 매칭을 진행하여 매칭된 키워드를 상기 관련정보로 추출하기 위한 키워드 매칭 서브모듈을 포함하는 것을 특징으로 하는 온라인 음성 번역 장치.
  13. 제8항에 있어서,
    상기 관련정보 추출 모듈은,
    현재 대화 장면에서의 키워드 및/또는 언어 규칙에 근거하여 확인된 상기 제1 식별정보로부터 상기 관련정보를 추출하기 위한 언어 규칙 서브모듈을 포함하는 것을 특징으로 하는 온라인 음성 번역 장치.
  14. 제8항 또는 제13항에 있어서,
    상기 제1 식별정보에 근거하여 현재 대화 장면을 확정하거나, 제1 사용자가 상기 제1 식별정보를 확정하기 전에 이미 확인된 식별정보 중의 키워드에 근거하여 현재 대화 장면을 식별하기 위한 대화 장면 확정 모듈을 더 포함하는 것을 특징으로 하는 온라인 음성 번역 장치.
  15. 컴퓨터 프로세서에 의해 실행시 온라인 음성 번역 방법을 실행하기 위한 컴퓨터 실행 가능한 명령을 포함하는 저장매체에 있어서,
    상기 온라인 음성 번역 방법은,
    제1 사용자가 입력하는 제1 음성정보에 대하여 음성식별을 진행하여 제1 식별정보를 획득하는 단계;
    상기 제1 사용자가 상기 제1 식별정보를 확인하도록 프롬프팅하는 단계;
    확인된 상기 제1 식별정보를 번역하여 제1 번역정보를 획득하고 출력하는 단계;
    제2 사용자가 제1 번역정보에 대해 피드백한 제2 정보에 근거하여 상기 제2 정보에 대응되는 상기 제1 번역정보의 정확성을 교정하기 위한 관련정보를 추출하는 단계; 및
    상기 관련정보에 근거하여 제1 번역정보를 수정하고 출력하는 단계;를 포함하는 것을 특징으로 하는 컴퓨터 실행 가능한 명령을 포함하는 저장매체.
KR1020157033318A 2013-12-25 2014-11-12 온라인 음성 번역 방법 및 장치 KR101768509B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201310728312.X 2013-12-25
CN201310728312.XA CN103744843B (zh) 2013-12-25 2013-12-25 一种在线语音翻译方法及装置
PCT/CN2014/090937 WO2015096564A1 (zh) 2013-12-25 2014-11-12 一种在线语音翻译方法和装置

Publications (2)

Publication Number Publication Date
KR20160015218A KR20160015218A (ko) 2016-02-12
KR101768509B1 true KR101768509B1 (ko) 2017-08-17

Family

ID=50501861

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020157033318A KR101768509B1 (ko) 2013-12-25 2014-11-12 온라인 음성 번역 방법 및 장치

Country Status (5)

Country Link
US (1) US9910851B2 (ko)
JP (1) JP6484236B2 (ko)
KR (1) KR101768509B1 (ko)
CN (1) CN103744843B (ko)
WO (1) WO2015096564A1 (ko)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103744843B (zh) 2013-12-25 2017-01-04 北京百度网讯科技有限公司 一种在线语音翻译方法及装置
US9501264B2 (en) * 2014-09-04 2016-11-22 Tg Llc User corrections in translation
CN104991892B (zh) * 2015-07-09 2018-10-23 百度在线网络技术(北京)有限公司 语音翻译方法和装置
US10394963B2 (en) * 2015-10-22 2019-08-27 International Business Machines Corporation Natural language processor for providing natural language signals in a natural language output
CN107291702A (zh) * 2016-04-12 2017-10-24 阿里巴巴集团控股有限公司 一种进行翻译的方法和系统
CN106020825A (zh) * 2016-05-20 2016-10-12 珠海市魅族科技有限公司 一种信息展示方法以及移动终端
CN106663128A (zh) * 2016-06-29 2017-05-10 深圳狗尾草智能科技有限公司 一种聊天对话系统的扩充学习方法及聊天对话系统
KR102637337B1 (ko) * 2016-12-09 2024-02-16 삼성전자주식회사 자동 통역 방법 및 장치, 및 기계 번역 방법
CN107315742A (zh) * 2017-07-03 2017-11-03 中国科学院自动化研究所 具有人机对话功能的拟人化口语翻译方法及系统
CN107609092B (zh) * 2017-09-08 2021-03-09 北京百度网讯科技有限公司 智能应答方法和装置
WO2019090781A1 (zh) * 2017-11-13 2019-05-16 深圳市沃特沃德股份有限公司 语言翻译方法、装置和翻译设备
CN107885734B (zh) * 2017-11-13 2021-07-20 深圳市沃特沃德股份有限公司 语言翻译方法和装置
CN108304389B (zh) * 2017-12-07 2021-06-08 科大讯飞股份有限公司 交互式语音翻译方法及装置
CN108228574B (zh) * 2017-12-07 2020-07-28 科大讯飞股份有限公司 文本翻译处理方法及装置
US20190221208A1 (en) * 2018-01-12 2019-07-18 Kika Tech (Cayman) Holdings Co., Limited Method, user interface, and device for audio-based emoji input
CN110209774A (zh) * 2018-02-11 2019-09-06 北京三星通信技术研究有限公司 处理会话信息的方法、装置及终端设备
US11354521B2 (en) 2018-03-07 2022-06-07 Google Llc Facilitating communications with automated assistants in multiple languages
JP6678764B1 (ja) * 2018-03-07 2020-04-08 グーグル エルエルシー 多言語での自動化されたアシスタントを用いたエンドツーエンドコミュニケーションの促進
CN108710616A (zh) * 2018-05-23 2018-10-26 科大讯飞股份有限公司 一种语音翻译方法及装置
CN109166594A (zh) * 2018-07-24 2019-01-08 北京搜狗科技发展有限公司 一种数据处理方法、装置和用于数据处理的装置
EP3862908A1 (en) * 2018-12-14 2021-08-11 Google LLC Voice-based interface for a networked system
CN111081245A (zh) * 2019-12-24 2020-04-28 杭州纪元通信设备有限公司 一种基于语音识别的呼叫中心的菜单系统
CN111581373B (zh) * 2020-05-11 2021-06-01 武林强 基于对话的语言自助学习方法及系统
FR3111467B1 (fr) * 2020-06-16 2023-11-17 Sncf Reseau Procédé de communication parlée entre agents ferroviaires
CN111752437B (zh) * 2020-06-29 2021-07-16 上海寻梦信息技术有限公司 评论方法、装置、电子设备及存储介质
CN112150866A (zh) * 2020-09-04 2020-12-29 温州职业技术学院 一种多语言文化互动交流系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001100781A (ja) * 1999-09-30 2001-04-13 Sony Corp 音声処理装置および音声処理方法、並びに記録媒体

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6567778B1 (en) * 1995-12-21 2003-05-20 Nuance Communications Natural language speech recognition using slot semantic confidence scores related to their word recognition confidence scores
US6345253B1 (en) * 1999-04-09 2002-02-05 International Business Machines Corporation Method and apparatus for retrieving audio information using primary and supplemental indexes
JP2001101187A (ja) * 1999-09-30 2001-04-13 Sony Corp 翻訳装置および翻訳方法、並びに記録媒体
US7177798B2 (en) * 2000-04-07 2007-02-13 Rensselaer Polytechnic Institute Natural language interface using constrained intermediate dictionary of results
AUPR082400A0 (en) * 2000-10-17 2000-11-09 Telstra R & D Management Pty Ltd An information retrieval system
JP4042360B2 (ja) * 2001-07-18 2008-02-06 日本電気株式会社 自動通訳システム及びその方法並びにプログラム
US7398209B2 (en) * 2002-06-03 2008-07-08 Voicebox Technologies, Inc. Systems and methods for responding to natural language speech utterance
KR20050052943A (ko) 2003-12-01 2005-06-07 한국전자통신연구원 여행자용 키워드 기반 음성번역 시스템 및 그 방법
US7827032B2 (en) * 2005-02-04 2010-11-02 Vocollect, Inc. Methods and systems for adapting a model for a speech recognition system
JP4087400B2 (ja) * 2005-09-15 2008-05-21 株式会社東芝 音声対話翻訳装置、音声対話翻訳方法および音声対話翻訳プログラム
WO2007070558A2 (en) * 2005-12-12 2007-06-21 Meadan, Inc. Language translation using a hybrid network of human and machine translators
JP4786384B2 (ja) * 2006-03-27 2011-10-05 株式会社東芝 音声処理装置、音声処理方法および音声処理プログラム
JP2008009153A (ja) 2006-06-29 2008-01-17 Xanavi Informatics Corp 音声対話システム
US20090192782A1 (en) * 2008-01-28 2009-07-30 William Drewes Method for increasing the accuracy of statistical machine translation (SMT)
CN102055855A (zh) 2009-11-02 2011-05-11 万国通翻译(北京)有限公司 一种基于多种通信平台的即时语音翻译系统
JP5014449B2 (ja) * 2010-02-26 2012-08-29 シャープ株式会社 会議システム、情報処理装置、会議支援方法、情報処理方法、及びコンピュータプログラム
US8165878B2 (en) * 2010-04-26 2012-04-24 Cyberpulse L.L.C. System and methods for matching an utterance to a template hierarchy
CN101937431A (zh) * 2010-08-18 2011-01-05 华南理工大学 情感语音翻译装置及处理方法
CN102467908B (zh) * 2010-11-17 2016-01-06 英业达股份有限公司 多语语音控制系统及其方法
JP2012203066A (ja) * 2011-03-24 2012-10-22 Toshiba Corp 音声認識装置及び音声認識処理方法
US9218339B2 (en) * 2011-11-29 2015-12-22 Educational Testing Service Computer-implemented systems and methods for content scoring of spoken responses
US9257115B2 (en) * 2012-03-08 2016-02-09 Facebook, Inc. Device for extracting information from a dialog
US8983840B2 (en) * 2012-06-19 2015-03-17 International Business Machines Corporation Intent discovery in audio or text-based conversation
WO2014130132A2 (en) * 2012-12-06 2014-08-28 Raytheon Bbn Technologies Corp. Active error detection and resolution for linguistic translation
US20140222435A1 (en) * 2013-02-01 2014-08-07 Telenav, Inc. Navigation system with user dependent language mechanism and method of operation thereof
US8694305B1 (en) * 2013-03-15 2014-04-08 Ask Ziggy, Inc. Natural language processing (NLP) portal for third party applications
US9594542B2 (en) * 2013-06-20 2017-03-14 Viv Labs, Inc. Dynamically evolving cognitive architecture system based on training by third-party developers
CN103744843B (zh) 2013-12-25 2017-01-04 北京百度网讯科技有限公司 一种在线语音翻译方法及装置
US10191999B2 (en) * 2014-04-30 2019-01-29 Microsoft Technology Licensing, Llc Transferring information across language understanding model domains
US9947320B2 (en) * 2014-11-12 2018-04-17 Nice-Systems Ltd Script compliance in spoken documents based on number of words between key terms

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001100781A (ja) * 1999-09-30 2001-04-13 Sony Corp 音声処理装置および音声処理方法、並びに記録媒体

Also Published As

Publication number Publication date
CN103744843B (zh) 2017-01-04
US9910851B2 (en) 2018-03-06
JP6484236B2 (ja) 2019-03-13
JP2016529603A (ja) 2016-09-23
US20160147744A1 (en) 2016-05-26
WO2015096564A1 (zh) 2015-07-02
CN103744843A (zh) 2014-04-23
KR20160015218A (ko) 2016-02-12

Similar Documents

Publication Publication Date Title
KR101768509B1 (ko) 온라인 음성 번역 방법 및 장치
CN112100349B (zh) 一种多轮对话方法、装置、电子设备及存储介质
JP6675463B2 (ja) 自然言語の双方向確率的な書換えおよび選択
KR102222317B1 (ko) 음성 인식 방법, 전자 디바이스, 및 컴퓨터 저장 매체
WO2020215554A1 (zh) 语音识别方法、装置、设备及计算机可读存储介质
CN106796787B (zh) 在自然语言处理中使用先前对话行为进行的语境解释
US20120271617A1 (en) Cross-lingual initialization of language models
US20150199340A1 (en) System for translating a language based on user's reaction and method thereof
WO2015014122A1 (zh) 语音交互的方法、系统以及交互终端
JP2020030408A (ja) オーディオにおける重要語句を認識するための方法、装置、機器及び媒体
CN109979450B (zh) 信息处理方法、装置及电子设备
WO2016008128A1 (en) Speech recognition using foreign word grammar
KR102267561B1 (ko) 음성 언어 이해 장치 및 방법
CN112669842A (zh) 人机对话控制方法、装置、计算机设备及存储介质
WO2015188454A1 (zh) 一种快速进入ivr菜单的方法及装置
KR102102287B1 (ko) 챗봇을 위한 대화 모델의 데이터 크라우드소싱 방법
CN108304389B (zh) 交互式语音翻译方法及装置
CN106649278A (zh) 扩展口语对话系统语料库的方法和系统
US9779722B2 (en) System for adapting speech recognition vocabulary
WO2022143349A1 (zh) 一种确定用户意图的方法及装置
CN116013307A (zh) 一种标点预测方法、装置、设备以及计算机存储介质
CN115620726A (zh) 语音文本生成方法、语音文本生成模型的训练方法、装置
CN113656566A (zh) 智能对话处理方法、装置、计算机设备及存储介质
CN113053390A (zh) 基于语音识别的文本处理方法、装置、电子设备及介质
CN111785259A (zh) 信息处理方法、装置及电子设备

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
GRNT Written decision to grant