KR20220127935A - 정보 상호작용을 위한 방법 및 장치 - Google Patents

정보 상호작용을 위한 방법 및 장치 Download PDF

Info

Publication number
KR20220127935A
KR20220127935A KR1020227029762A KR20227029762A KR20220127935A KR 20220127935 A KR20220127935 A KR 20220127935A KR 1020227029762 A KR1020227029762 A KR 1020227029762A KR 20227029762 A KR20227029762 A KR 20227029762A KR 20220127935 A KR20220127935 A KR 20220127935A
Authority
KR
South Korea
Prior art keywords
user
information
task
speaking practice
matching result
Prior art date
Application number
KR1020227029762A
Other languages
English (en)
Inventor
하오란 후앙
시 루어
푸시앙 리
항 리
Original Assignee
베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 filed Critical 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드
Publication of KR20220127935A publication Critical patent/KR20220127935A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3343Query execution using phonetics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/335Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/02Counting; Calculating
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • G09B5/065Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Liquid Crystal Substances (AREA)

Abstract

정보 상호작용을 위한 방법 및 장치로서, 상기 방법은, 사용자가 시작한 말하기 연습 요청이 수신된 것에 응답하여, 목표 말하기 연습 태스크를 나타내기 위한 태스크 정보를 출력하는 단계(201) - 상기 태스크 정보는 태스크 의도 정보와 태스크 키워드 정보에 대응됨 - ; 사용자가 태스크 정보에 대해 입력한 음성 정보를 획득하는 단계(202); 음성 정보에 대해 식별을 수행하여, 사용자에 대응되는 사용자 의도 정보와 사용자 키워드 정보를 결정하는 단계(203); 사용자가 목표 말하기 연습 태스크를 완료했는지 여부를 나타내기 위한 매칭 결과를 생성하는 단계(204) - 상기 매칭 결과는, 사용자 의도 정보와 태스크 의도 정보, 그리고 사용자 키워드 정보와 태스크 키워드 정보에 대해 각각 매칭을 수행하는 단계를 통해, 매칭 결과를 획득함 - ; 및 매칭 결과를 사용자에게 제시하는 단계(205)를 포함한다. 상기 방법은 보다 유연하고, 고효율적인 말하기 연습을 구현할 수 있다.

Description

정보 상호작용을 위한 방법 및 장치
관련 출원의 상호 참조
본 출원은 2020년 2월 26일 자로 제출된, 출원번호가 202010120450.X이고, 발명의 명칭이 "정보 상호작용을 위한 방법 및 장치"인 중국 특허 출원의 우선권을 주장하며, 상기 출원의 모든 내용은 참조로 본 출원에 통합된다.
본 발명의 실시예는 컴퓨터 기술분야에 관한 것으로, 특히 정보 상호작용을 위한 방법 및 장치에 관한 것이다.
컴퓨터 기술의 발전에 따라, 선행기술은 이미 컴퓨터 기술에 기반한 말하기 연습을 구현할 수 있다. 구체적으로, 여기서 말하기 연습은 예를 들어 영어, 프랑스어 등 다양한 언어에 대한 말하기 연습일 수 있다.
현재, 말하기 연습은 자동 평점을 주요 형태로 하며, 자동 평점은 사용자가 시스템에 의해 제공된 템플릿 또는 어구를 읽고, 시스템이 이에 대해 채점을 수행하는 것이다.
본 발명의 실시예는 정보 상호작용을 위한 방법 및 장치를 제출한다.
제1 측면에 따르면, 본 발명의 실시예는 정보 상호작용을 위한 방법을 제공한다. 상기 방법은, 사용자가 시작한 말하기 연습 요청이 수신된 것에 응답하여, 목표 말하기 연습 태스크를 나타내기 위한 태스크 정보를 출력하는 단계 - 상기 태스크 정보는 태스크 의도 정보와 태스크 키워드 정보에 대응됨 - ; 사용자가 태스크 정보에 대해 입력한 음성 정보를 획득하는 단계; 음성 정보에 대해 식별을 수행하여, 사용자에 대응되는 사용자 의도 정보와 사용자 키워드 정보를 결정하는 단계; 사용자가 목표 말하기 연습 태스크를 완료했는지 여부를 나타내기 위한 매칭 결과를 생성하는 단계 - 상기 매칭 결과는, 사용자 의도 정보와 태스크 의도 정보, 그리고 사용자 키워드 정보와 태스크 키워드 정보에 대해 각각 매칭을 수행하는 단계를 통해, 매칭 결과를 획득함 - ; 및 매칭 결과를 사용자에게 제시하는 단계를 포함한다.
일부 실시예에서, 상기 방법은, 음성 정보와 매칭 결과에 기반하여, 사용자의 구어 능력을 표시하기 위한 점수를 생성하는 단계; 및 생성된 점수를 사용자에게 제시하는 단계를 더 포함한다.
일부 실시예에서, 상기 방법은, 매칭 결과는 사용자가 목표 말하기 연습 태스크를 완료하지 않았음을 나타내는 것에 응답하여, 사용자가 목표 말하기 연습 태스크를 완료하도록 보조하기 위한 보조 정보를 출력하는 단계; 사용자가 보조 정보에 대해 입력한 보충 음성 정보를 획득하는 단계; 및 보충 음성 정보에 기반하여, 사용자가 목표 말하기 연습 태스크를 완료했는지 여부를 나타내기 위한 신규 매칭 결과를 생성하는 단계를 더 포함한다.
일부 실시예에서, 매칭 결과는 사용자가 목표 말하기 연습 태스크를 완료하지 않았음을 나타내는 것에 응답하여, 사용자가 목표 말하기 연습 태스크를 완료하도록 보조하기 위한 보조 정보를 출력하는 단계는, 매칭 결과는 사용자가 목표 말하기 연습 태스크를 완료하지 않았음을 나타내는 것에 응답하여, 사용자가 입력한 말하기 연습 종료 요청이 수신되었는지 여부를 결정하는 단계; 및 말하기 연습 종료 요청이 수신되지 않은 것에 응답하여, 사용자가 목표 말하기 연습 태스크를 완료하도록 보조하기 위한 보조 정보를 출력하는 단계를 포함한다.
일부 실시예에서, 매칭 결과는 사용자가 목표 말하기 연습 태스크를 완료하지 않았음을 나타내는 것에 응답하여, 사용자가 목표 말하기 연습 태스크를 완료하도록 보조하기 위한 보조 정보를 출력하는 단계는, 매칭 결과는 사용자가 목표 말하기 연습 태스크를 완료하지 않았음을 나타내는 것에 응답하여, 사용자가 목표 말하기 연습 태스크를 완료하도록 보조하기 위한 보조 정보를 출력하는 횟수가 미리 설정된 횟수 이하인지 여부를 결정하는 단계; 및 보조 정보를 출력하는 횟수가 미리 설정된 횟수 이하인 것에 응답하여, 사용자가 목표 말하기 연습 태스크를 완료하도록 보조하기 위한 보조 정보를 출력하는 단계를 포함한다.
일부 실시예에서, 목표 말하기 연습 태스크를 나타내기 위한 태스크 정보를 출력하는 단계는, 사용자의 과거 말하기 연습 결과를 획득하는 단계; 획득한 과거 말하기 연습 결과에 기반하여, 목표 말하기 연습 태스크를 결정하는 단계; 및 목표 말하기 연습 태스크를 나타내기 위한 태스크 정보를 획득하고, 획득한 태스크 정보를 출력하는 단계를 포함한다.
제2 측면에 따르면, 본 발명의 실시예는 정보 상호작용을 위한 장치를 제공한다. 상기 장치는, 사용자가 시작한 말하기 연습 요청이 수신된 것에 응답하여, 목표 말하기 연습 태스크를 나타내기 위한 태스크 정보를 출력하도록 구성되는 제1 출력 유닛 - 상기 태스크 정보는 태스크 의도 정보와 태스크 키워드 정보에 대응됨 - ; 사용자가 태스크 정보에 대해 입력한 음성 정보를 획득하도록 구성되는 제1 획득 유닛; 음성 정보에 대해 식별을 수행하여, 사용자에 대응되는 사용자 의도 정보와 사용자 키워드 정보를 결정하도록 구성되는 식별 유닛; 사용자가 목표 말하기 연습 태스크를 완료했는지 여부를 나타내기 위한 매칭 결과를 생성하도록 구성되는 제1 생성 유닛 - 상기 매칭 결과는 사용자 의도 정보와 태스크 의도 정보, 그리고 사용자 키워드 정보와 태스크 키워드 정보에 대해 각각 매칭을 수행하는 단계를 통해, 상기 매칭 결과를 획득함 - ; 및 매칭 결과를 사용자에게 제시하도록 구성되는 제1 제시 유닛을 포함한다.
일부 실시예에서, 상기 장치는, 음성 정보와 상기 매칭 결과에 기반하여, 사용자의 구어 능력을 표시하기 위한 점수를 생성하도록 구성되는 제2 생성 유닛; 및 생성된 점수를 사용자에게 제시하도록 구성되는 제2 제시 유닛을 더 포함한다.
일부 실시예에서, 상기 장치는, 매칭 결과는 사용자가 목표 말하기 연습 태스크를 완료하지 않았음을 나타내는 것에 응답하여, 사용자가 목표 말하기 연습 태스크를 완료하도록 보조하기 위한 보조 정보를 출력하도록 구성되는 제2 출력 유닛; 사용자가 보조 정보에 대해 입력한 보충 음성 정보를 획득하도록 구성되는 제2 획득 유닛; 및 보충 음성 정보에 기반하여, 사용자가 목표 말하기 연습 태스크를 완료했는지 여부를 나타내기 위한 신규 매칭 결과를 생성하도록 구성되는 제3 생성 유닛을 더 포함한다.
일부 실시예에서, 제2 출력 유닛은, 매칭 결과는 사용자가 목표 말하기 연습 태스크를 완료하지 않았음을 나타내는 것에 응답하여, 사용자가 입력한 말하기 연습 종료 요청이 수신되었는지 여부를 결정하도록 구성되는 제1 결정 모듈; 및 말하기 연습 종료 요청이 수신되지 않은 것에 응답하여, 사용자가 상기 목표 말하기 연습 태스크를 완료하도록 보조하기 위한 보조 정보를 출력하도록 구성되는 제1 출력 모듈을 포함한다.
일부 실시예에서, 제2 출력 유닛은, 매칭 결과는 사용자가 목표 말하기 연습 태스크를 완료하지 않았음을 나타내는 것에 응답하여, 사용자가 목표 말하기 연습 태스크를 완료하도록 보조하기 위한 보조 정보를 출력하는 횟수가 미리 설정된 횟수 이하인지 여부를 결정하도록 구성되는 제2 결정 모듈; 및 보조 정보를 출력하는 횟수가 미리 설정된 횟수 이하인 것에 응답하여, 사용자가 목표 말하기 연습 태스크를 완료하도록 보조하기 위한 보조 정보를 출력하도록 구성되는 제2 출력 모듈을 포함한다.
일부 실시예에서, 제1 출력 유닛은, 사용자의 과거 말하기 연습 결과를 획득하도록 구성되는 획득 모듈; 획득한 과거 말하기 연습 결과에 기반하여, 목표 말하기 연습 태스크를 결정하도록 구성되는 제3 결정 모듈; 및 목표 말하기 연습 태스크를 나타내기 위한 태스크 정보를 획득하고, 획득한 태스크 정보를 출력하도록 구성되는 제3 출력 모듈을 포함한다.
제3 측면에 따르면, 본 발명의 실시예는 하나 또는 복수의 프로세서; 및 하나 또는 복수의 프로그램이 저장되어 있는 저장 장치를 포함하되, 하나 또는 복수의 프로그램이 하나 또는 복수의 프로세서에 의해 실행되어, 하나 또는 복수의 프로세서가 상술한 정보 상호작용을 위한 방법 중 어느 하나의 실시예의 방법을 구현하도록 하는 전자 기기를 제공한다.
제4 측면에 따르면, 본 발명의 실시예는, 프로세서에 의해 실행될 때 상술한 정보 상호작용을 위한 방법 중 어느 하나의 실시예의 방법을 구현하는 컴퓨터 프로그램이 저장된 컴퓨터 판독 가능한 매체를 제공한다.
본 발명의 실시예에 따른 정보 상호작용을 위한 방법 및 장치는, 사용자가 시작한 말하기 연습 요청이 수신된 것에 응답하는 것을 통해, 목표 말하기 연습 태스크를 나타내기 위한 태스크 정보를 출력하고, 여기서, 태스크 정보는 태스크 의도 정보와 태스크 키워드 정보에 대응되고, 그 다음, 사용자가 태스크 정보에 대해 입력한 음성 정보를 획득하며, 이어서 음성 정보에 대해 식별을 수행하여, 사용자에 대응되는 사용자 의도 정보와 사용자 키워드 정보를 결정하고, 마지막에 사용자 의도 정보와 태스크 의도 정보, 그리고 사용자 키워드 정보와 태스크 키워드 정보에 각각 매칭을 수행하여, 사용자가 목표 말하기 연습 태스크를 완료했는지 여부를 나타내기 위한 매칭 결과를 생성하고, 매칭 결과를 사용자에게 제시함으로써, 태스크 타입 대화의 형태를 적용하여 말하기 연습을 수행할 수 있고, 선행기술에서 템플릿에 기반한 말하기 연습 방식에 비해, 본 발명의 해결수단은 지능도가 더 높고, 사용자가 스스로 언어를 조직하여 태스크를 완성할 수 있어, 보다 유연하고, 고효율적인 말하기 연습을 구현하는 데 도움이 된다.
아래 도면을 참조로 설명되는 비제한적인 실시예에 대한 상세한 설명을 읽음으로써, 본 발명의 기타 특징, 목적 및 장점은 더욱 분명해질 것이다.
도 1은 본 발명의 일 실시예가 적용될 수 있는 예시적인 시스템 구조도이다.
도 2는 본 발명에 따른 정보 상호작용을 위한 방법의 일 실시예의 흐름도이다.
도 3은 본 발명의 실시예에 따른 정보 상호작용을 위한 방법의 일 응용 시나리오의 모식도이다.
도 4는 본 발명에 따른 정보 상호작용을 위한 방법의 또 다른 실시예의 흐름도이다.
도 5는 본 발명에 따른 정보 상호작용을 위한 장치의 일 실시예의 구조 모식도이다.
도 6은 본 발명의 실시예의 구현에 적합한 전자 기기의 컴퓨터 시스템의 구조 모식도이다.
아래에 도면 및 실시예와 함께 본 발명에 대해 추가로 상세하게 설명한다. 여기서 설명된 구체적인 실시예는 관련 발명을 해석하기 위한 것일 뿐, 본 발명을 한정하는 것이 아님을 이해할 수 있다. 또한, 설명의 편의상 도면에는 발명에 관련된 부분만 도시되어 있다.
또한, 모순되지 않는 한, 본 발명에서의 실시예 및 실시예에서의 특징은 서로 조합될 수 있다. 아래에 도면을 참조하여 실시예와 함께 본 발명을 상세하게 설명한다.
도 1은 본 발명의 정보 상호작용을 위한 방법 또는 정보 상호작용을 위한 장치의 실시예가 적용될 수 있는 예시적인 시스템 구조(100)를 도시한다.
도 1에 도시된 바와 같이, 시스템 구조(100)는 단말 장치(101, 102, 103), 네트워크(104)와 서버(105)를 포함할 수 있다. 네트워크(104)는 단말 장치(101, 102, 103)와 서버(105) 사이에 통신 링크를 제공하기 위한 매체이다. 네트워크(104)는 유선 통신 링크, 무선 통신 링크 또는 광 섬유 케이블 등과 같은 다양한 연결 유형을 포함할 수 있다.
사용자는 단말 장치(101, 102, 103)를 사용하여 네트워크(104)를 통해 서버(105)와 상호작용하여, 메시지 등을 수신 또는 송신할 수 있다. 단말 장치(101, 102, 103)에는 다양한 클라이언트 측 애플리케이션, 예를 들어 언어 교육용 애플리케이션, 음성 상호작용용 애플리케이션, 웹 브라우저용 애플리케이션, 검색용 애플리케이션, 인스턴트 메시징 도구, 소셜 플랫폼 소프트웨어 등이 설치될 수 있다.
단말 장치(101, 102, 103)는 하드웨어일 수도 있고, 소프트웨어일 수도 있다. 단말 장치(101, 102, 103)가 하드웨어인 경우, 스마트폰, 태블릿 PC, 전자책 리더, MP3 플레이어(Moving Picture Experts Group Audio Layer III, 동영상 전문가 압축 표준 오디오 레이어 3), MP4(Moving Picture Experts Group Audio Layer IV, 동영상 전문가 압축 표준 오디오 레이어 4) 플레이어, 랩톱 컴퓨터와 데스크톱 컴퓨터 등을 포함하되 이에 한정되지 않는 음성 획득 기능을 구비한 다양한 전자 기기일 수 있다. 단말 장치(101, 102, 103)가 소프트웨어인 경우, 위에 열거된 전자 기기 중에 설치될 수 있다. 이는 복수의 소프트웨어 또는 소프트웨어 모듈(예를 들어 분포식 서비스를 제공하기 위한 복수의 소프트웨어 또는 소프트웨어 모듈)로 구현되거나, 단일 소프트웨어 또는 소프트웨어 모듈로 구현될 수도 있으며, 여기서 구체적으로 한정하지 않는다.
서버(105)는 다양한 서비스를 제공하는 서버일 수 있으며, 예를 들어 단말 장치(101, 102, 103)에 설치된 언어 교육형 애플리케이션의 백그라운드 서버일 수 있다. 상술한 백그라운드 서버는 사용자가 단말 장치(101, 102, 103)를 통해 시작한 말하기 연습 요청이 수신된 것에 응답하여, 목표 말하기 연습 태스크의 태스크 정보를 출력하고, 사용자가 단말 장치(101, 102, 103)를 이용하여 입력한 음성 정보를 획득하며, 수신된 음성 정보 등 데이터에 대해 분석 등의 처리를 수행하여, 처리 결과(예를 들어 사용자가 목표 말하기 연습 태스크를 완료했는지 여부를 나타내기 위한 매칭 결과)를 획득하고 출력할 수 있다.
또한, 본 발명의 실시예에 따른 정보 상호작용을 위한 방법은 단말 장치(101, 102, 103)에 의해 수행되거나, 서버(105)에 의해 수행될 수 있으며, 상응하게, 정보 상호작용을 위한 장치는 단말 장치(101, 102, 103) 중에 설치되거나, 서버(105) 중에 설치될 수 있다.
또한, 서버는 하드웨어일 수도 있고, 소프트웨어일 수도 있다. 서버가 하드웨어인 경우, 복수의 서버로 구성된 분포식 서버 클러스터로 구현되거나, 단일 서버로 구현될 수 있다. 서버가 소프트웨어인 경우, 복수의 소프트웨어 또는 소프트웨어 모듈(예를 들어 분포식 서비스를 제공하기 위한 복수의 소프트웨어 또는 소프트웨어 모듈)로 구현되거나, 단일 소프트웨어 또는 소프트웨어 모듈로 구현될 수 있다. 여기서는 구체적으로 한정하지 않는다.
도 1에서의 단말 장치, 네트워크와 서버의 수량은 단지 예시적인 것에 불과하다는 점을 이해하여야 한다. 구현의 필요에 따라, 임의의 수량의 단말 장치, 네트워크와 서버를 구비할 수 있다. 특히, 사용자가 목표 말하기 연습 태스크를 완료했는지 여부를 나타내기 위한 매칭 결과를 생성하는 과정에서 사용되는 데이터를 기타 전자 기기로부터 획득할 필요가 없는 경우, 상술한 시스템 구조는 네트워크를 포함하지 않고, 단말 장치 또는 서버만을 포함할 수 있다.
계속하여 도 2를 참조하면, 본 발명에 따른 정보 상호작용을 위한 방법의 일 실시예의 흐름(200)을 도시한다. 상기 정보 상호작용을 위한 방법은 아래 단계를 포함한다.
단계 201, 사용자가 시작한 말하기 연습 요청이 수신된 것에 응답하여, 목표 말하기 연습 태스크를 나타내기 위한 태스크 정보를 출력한다.
본 실시예에서, 정보 상호작용을 위한 방법의 수행 주체는(예를 들어 도 1에 도시된 바와 같은 단말 장치) 유선 연결 방식 또는 무선 연결 방식을 통해 사용자가 시작한 말하기 연습 요청이 수신된 것에 응답하여, 목표 말하기 연습 태스크를 나타내기 위한 태스크 정보를 출력할 수 있다. 여기서, 말하기 연습 요청은 말하기 연습 수행을 요청하는 데 사용된다. 구체적으로, 사용자가 요청한 말하기 연습은 다양한 언어의 말하기 연습일 수 있으며, 예를 들어 영어 말하기 연습, 프랑스어 말하기 연습, 중국어 말하기 연습 등일 수 있다.
실천에서, 사용자는 다양한 방법을 적용하여 말하기 연습 요청을 시작할 수 있으며, 예를 들어 페이지에 표시된 말하기 연습을 수행하기 위한 버튼을 클릭하거나; 또는 미리 설치된 말하기 연습을 수행하기 위한 스위치 등을 터치할 수 있다.
본 실시예에서, 상술한 수행 주체는 상술한 말하기 연습 요청이 수신된 것에 응답하여, 목표 말하기 연습 태스크를 나타내기 위한 태스크 정보를 출력할 수 있다. 여기서, 목표 말하기 연습 태스크는 말하기 연습 요청을 시작하는 사용자가 완료해야 하는 말하기 연습 태스크이다. 말하기 연습 태스크는 사용자가 음성 대화를 통해 완료할 수 있는 태스크이다. 예를 들어, 말하기 연습 태스크는 음식 주문 태스크, 자기소개 태스크, 비행기표 예매 태스크 등일 수 있다. 구체적으로, 목표 말하기 연습 태스크는 미리 설정된 태스크일 수도 있고, 사용자가 미리 설정된 복수의 말하기 연습 태스크에서 선택한 태스크일 수도 있다.
태스크 정보는 목표 말하기 연습 태스크의 구체적인 내용을 표시하는 데 사용될 수 있다. 예를 들어, 목표 말하기 연습 태스크가 음식 주문 태스크이면, 대응되는 태스크 정보는 "궁보계정덮밥 1 인분을 주문하여, 즈춘루(知春路) 잉두따샤(盈都大廈)로 배달하시오"일 수 있다. 구체적으로, 태스크 정보는 목표 말하기 연습 태스크에 대해 미리 설정된 정보일 수도 있고, 상술한 말하기 연습 요청이 수신된 후 생성된 정보일 수도 있다. 예를 들어, 목표 말하기 연습 태스크가 음식 주문 태스크이고, 상술한 수행 주체는 말하기 연습 요청이 수신된 후, 현재 위치가 "시딴따위에청(西單大悅城)"으로 검출되면, 태스크 정보 "궁보계정덮밥 1 인분을 주문하여, 시딴따위에청(西單大悅城)으로 배달하시오"를 생성한다.
본 실시예에서, 태스크 정보는 태스크 의도 정보와 태스크 키워드 정보에 대응된다. 태스크 의도 정보는 목표 말하기 연습 태스크의 목표를 표시하는 데 사용될 수 있다. 태스크 키워드 정보는 상술한 목표를 표시하는 키 포인트에 사용될 수 있다. 태스크 의도 정보와 태스크 키워드 정보는 태스크 정보에서 추출할 수 있다. 예를 들어, 태스크 정보 "궁보계정덮밥 1 인분을 주문하여, 시딴따위에청(西單大悅城)으로 배달하시오"에서, "음식 주문"이라는 태스크 의도 정보를 추출할 수 있고, 태스크 키워드 정보는 "궁보계정덮밥; 시딴따위에청(西單大悅城)"이다.
구체적으로, 다양한 방법을 적용하여 태스크 정보에서 태스크 의도 정보와 태스크 키워드 정보를 추출할 수 있다. 예를 들어, 태스크 정보가 미리 설정된 정보인 경우, 기술자가 미리 태스크 정보에서 태스크 의도 정보와 태스크 키워드 정보를 추출하거나; 또는 기존의 자연 언어 처리의 방법을 적용하여 태스크 정보에서 태스크 의도 정보와 태스크 키워드 정보를 추출할 수 있다.
또한, 상술한 수행 주체가 사용자 단말인 경우, 사용자가 시작한 말하기 연습 요청이 수신되도록, 상술한 수행 주체는 사용자의 조작을 직접 검출하고, 태스크 정보를 사용자에게 출력할 수 있으며; 상술한 수행 주체가 사용자 단말과 통신 연결된 서버인 경우, 상술한 수행 주체는 사용자 단말에 의해 송신된 말하기 연습 요청을 수신하고, 사용자 단말이 사용자에게 태스크 정보를 제시하는 데 편이하도록, 태스크 정보를 사용자 단말에게 출력할 수 있다.
본 실시예의 일부 선택 가능한 실시형태에서, 상술한 수행 주체는 아래 단계를 통해 목표 말하기 연습 태스크를 나타내기 위한 태스크 정보를 출력할 수 있다. 먼저, 상술한 수행 주체는 사용자의 과거 말하기 연습 결과를 획득할 수 있다. 그 다음, 상술한 수행 주체는 획득한 과거 말하기 연습 결과에 기반하여, 목표 말하기 연습 태스크를 결정할 수 있다. 마지막으로, 상술한 수행 주체는 목표 말하기 연습 태스크를 나타내기 위한 태스크 정보를 획득하고, 획득한 태스크 정보를 출력할 수 있다.
여기서, 과거 말하기 연습 결과는 사용자가 과거 말하기 연습 태스크를 수행할 때 획득한 결과일 수 있다. 예를 들어 사용자가 지난번 말하기 연습 태스크를 수행할 때 획득한, 사용자의 구어 능력을 표시하기 위한 점수일 수 있다.
본 실시형태에서, 미리 설정된 말하기 연습 태스크는 난이도의 구분(예를 들어 미리 설정된 난이율로 난이 정도를 표시할 수 있음)이 있을 수 있다. 나아가 상술한 수행 주체는 과거 말하기 연습 결과가 비교적 좋은(예를 들어 지난번 획득한 점수가 미리 설정된 점수를 초과함) 경우, 사용자를 위해 비교적 어려운 목표 말하기 연습 태스크(예를 들어 대응되는 난이율이 미리 설정된 난이율을 초과하는 말하기 연습 태스크)를 결정하고; 과거 말하기 연습 결과가 비교적 좋지 않은(예를 들어 지난번 획득한 점수가 미리 설정된 점수 이하임) 경우, 사용자를 위해 비교적 쉬운 목표 말하기 연습 태스크(예를 들어 대응되는 난이율이 미리 설정된 난이율 이하인 말하기 연습 태스크)를 결정한다.
본 실시형태는 사용자의 과거 말하기 연습 결과를 통해, 사용자를 위해 사용자의 구어 능력에 보다 부합되는 태스크를 결정해낼 수 있어, 보다 효과적인 말하기 연습을 구현하는 데 도움이 된다.
단계 202, 사용자가 태스크 정보에 대해 입력한 음성 정보를 획득한다.
본 실시예에서, 태스크 정보를 출력한 후, 사용자가 획득한 태스크 정보에 대해, 음성 정보를 입력할 수 있고, 나아가 상술한 수행 주체는 사용자가 태스크 정보에 대해 입력한 음성 정보를 획득할 수 있다. 여기서, 음성 정보는 태스크 정보에 대응되는 목표 말하기 연습 태스크를 완료하기 위한 정보이다. 사용자는 자신이 요청한 말하기 연습을 수행하는 언어를 사용하여 상술한 음성 정보를 입력할 수 있음을 이해할 수 있다.
단계 203, 음성 정보에 대해 식별을 수행하여, 사용자에 대응되는 사용자 의도 정보와 사용자 키워드 정보를 결정한다.
본 실시예에서, 단계 202에서 얻은 음성 정보에 기반하여, 상술한 수행 주체는 상기 음성 정보에 대해 식별을 수행하여, 사용자에 대응되는 사용자 의도 정보와 사용자 키워드 정보를 결정할 수 있다. 여기서, 사용자 의도 정보는 사용자 의도를 표시하는 데 사용된다. 사용자 키워드 정보는 사용자 의도의 키 포인트를 표시하는 데 사용된다. 예를 들어 사용자가 입력한 음성 정보가 "나는 오늘 샤먼(廈門)의 날씨를 조회하고 싶다"이면, 상기 음성 정보에 대해 식별을 수행한 후, 사용자 의도 정보인 "날씨 조회"와 사용자 키워드 정보인 "오늘; 샤먼(廈門)"을 획득할 수 있다.
구체적으로, 상술한 수행 주체는 기존의 자연 언어 처리의 방법을 적용하여 음성 정보에 대해 식별을 수행하여, 사용자 의도 정보와 사용자 키워드 정보를 획득할 수 있다. 예시로서, 상술한 수행 주체는 먼저 음성 식별의 방법을 적용하여 음성 정보를 텍스트 정보로 변환할 수 있고, 그 다음 어의 식별의 방법을 적용하여 변환된 텍스트 정보로부터 사용자 의도 정보와 사용자 키워드 정보를 식별할 수 있다.
특히, 음성 정보에 대해 식별을 수행하는 과정에서, 상술한 수행 주체는 또한 획득한 사용자 의도 정보와 사용자 키워드 정보가 각각 태스크 의도 정보와 태스크 키워드 정보에 대응되는 언어와 동일하도록, 음성 정보에 대해 번역을 수행할 수 있어, 후속 매칭 단계의 수행에 도움이 된다.
단계 204, 사용자가 목표 말하기 연습 태스크를 완료했는지 여부를 나타내기 위한 매칭 결과를 생성한다.
본 실시예에서, 상술한 수행 주체는 단계 203에서 얻은 사용자 의도 정보와 단계 201에서 얻은 태스크 의도 정보에 대해 매칭을 수행하고, 단계 203에서 얻은 사용자 키워드 정보와 단계 201에서 얻은 태스크 키워드 정보에 대해 매칭을 수행하여, 사용자가 목표 말하기 연습 태스크를 완료했는지 여부를 나타내기 위한 매칭 결과를 생성할 수 있다.
구체적으로, 상술한 수행 주체는 의도 정보(사용자 의도 정보와 태스크 의도 정보를 포함)의 매칭과 키워드 정보(사용자 키워드 정보와 태스크 키워드 정보를 포함)의 매칭에 기반하여, 다양한 방법을 적용하여 상술한 매칭 결과를 생성할 수 있으며, 예를 들어 상술한 수행 주체는 의도 정보가 매칭에 성공하고 키워드 정보가 매칭에 성공하는 경우, 사용자가 목표 말하기 연습 태스크를 완료였음을 나타내기 위한 매칭 결과를 생성하지만, 의도 정보와 키워드 정보 중 어느 한 항의 매칭이 성공하지 못한 경우, 사용자가 목표 말하기 연습 태스크를 완료하지 않았음을 나타내기 위한 매칭 결과를 생성할 수 있거나; 또는, 상술한 수행 주체는 의도 정보가 매칭에 성공하지 못하고 키워드 정보가 매칭에 성공하지 못한 경우, 사용자가 목표 말하기 연습 태스크를 완료하지 않았음을 나타내기 위한 매칭 결과를 생성하지만, 의도 정보와 키워드 정보 중 어느 한 항이 매칭에 성공하는 경우, 사용자가 목표 말하기 연습 태스크를 완료하였음을 나타내기 위한 매칭 결과를 생성할 수도 있다.
구체적으로, 상술한 수행 주체는 다양한 방식을 적용하여 정보 매칭(의도 정보의 매칭과 키워드 정보의 매칭을 포함)을 수행할 수 있으며, 예를 들어, 상술한 수행 주체는 두 개의 정보가 동일한지 여부를 비교하는 방식을 적용하여 정보 매칭을 수행할 수 있으며, 나아가, 두 개의 정보가 동일한 경우이면, 매칭에 성공하거나; 또는, 상술한 수행 주체는 유사도 계산의 방식을 적용하여 정보 매칭을 수행할 수도 있으며, 나아가, 두 개의 정보의 유사도가 미리 설정된 유사도 임계값 이상인 경우이면, 매칭에 성공한다.
특히, 또한, 정보 매칭을 수행할 경우, 만약 두 개의 정보에 대응되는 언어가 상이하면, 상술한 수행 주체는 먼저 두 개의 정보에 대응되는 언어가 동일하도록 정보에 대해 번역을 수행하고, 그 다음 다시 이 두 개의 정보에 대해 매칭을 수행할 수 있다.
태스크 의도 정보와 태스크 키워드 정보는 유일한 목표 말하기 연습 태스크를 결정해낼 수 있으며, 나아가 사용자에 대응되는 사용자 의도 정보와 태스크 키워드 정보가 각각 태스크 의도 정보와 태스크 키워드 정보와 매칭되는지 여부를 결정하는 것을 통해, 사용자가 목표 말하기 연습 태스크를 완료했는지 여부를 결정해낼 수 있다.
단계 205, 매칭 결과를 사용자에게 제시한다.
본 실시예에서, 단계 204에서 얻은 매칭 결과에 기반하여, 상술한 수행 주체는 매칭 결과를 사용자에게 제시할 수 있다.
구체적으로, 상술한 수행 주체는 예를 들어 오디오의 형태, 영상의 형태, 텍스트의 형태 등 다양한 형태로 상술한 매칭 결과를 제시할 수 있다. 사용자는 상술한 수행 주체에 의해 제시된 매칭 결과에 따라 태스크를 완료했는지 여부를 알 수 있다.
본 실시예의 일부 선택 가능한 실시형태에서, 상술한 수행 주체는 또한 음성 정보와 매칭 결과에 기반하여, 사용자의 구어 능력을 표시하기 위한 점수를 생성하고, 생성된 점수를 사용자에게 제시할 수 있다. 여기서, 상술한 수행 주체는 매칭 결과를 제시함과 동시에, 또한 매칭 결과와 사용자의 음성 정보에 기반하여, 사용자의 구어 능력에 대해 채점을 수행하고, 획득한 점수를 제시할 수 있다. 구체적으로, 상술한 수행 주체는 매칭 결과, 음성 정보의 유창 정도, 음성 정보의 단어를 구사하는 정확도 등에 기반하여 사용자의 구어 능력에 대해 채점을 수행할 수 있으며, 상술한 각 영향 요소가 채점 과정에서 차지하는 비중은 기술자가 미리 설정할 수 있다.
계속하여 도 3을 참조하면, 도 3은 본 실시예에 따른 정보 상호작용을 위한 방법의 응용 시나리오의 일 모식도이다. 도 3의 응용 시나리오에서, 단말 장치(301)는 먼저 사용자(302)가 시작한 말하기 연습 요청(303)이 수신된 것에 응답하여, 목표 말하기 연습 태스크(예를 들어 음식 주문 태스크)를 나타내기 위한 태스크 정보(304) (예를 들어 "궁보계정덮밥 1 인분을 주문하여, 즈춘루(知春路) 잉두따샤(盈都大廈)로 배달하시오")를 출력할 수 있으며, 여기서, 태스크 정보(304)는 태스크 의도 정보(305) (예를 들어 "음식 주문")와 태스크 키워드 정보(306) (예를 들어 "궁보계정덮밥; 즈춘루(知春路) 잉두따샤(盈都大廈)")에 대응된다. 그 다음, 단말 장치(301)는 사용자(302)가 태스크 정보(304)에 대해 입력한 음성 정보(307)를 획득할 수 있다. 이어서, 단말 장치(301)는 음성 정보(307)에 대해 식별을 수행하여, 사용자(302)에 대응되는 사용자 의도 정보(308) (예를 들어 "음식 주문")와 사용자 키워드 정보(309) (예를 들어 "궁보계정덮밥; 잉두따샤(盈都大廈)")를 결정할 수 있다.
그 다음, 단말 장치(301)는 사용자 의도 정보(308)와 태스크 의도 정보(305), 그리고 사용자 키워드 정보(309)와 태스크 키워드 정보(306)에 대해 각각 매칭을 수행하여, 사용자가 목표 말하기 연습 태스크를 완료했는지 여부를 나타내기 위한 매칭 결과(310)를 생성할 수 있다. 마지막에, 단말 장치(301)는 매칭 결과(310)를 사용자(302)에게 제시할 수 있다.
본 발명의 상술한 실시예에 따른 방법은 태스크 타입 대화의 형태를 적용하여 말하기 연습을 수행할 수 있으며, 선행기술에서 템플릿에 기반한 말하기 연습 방식에 비해, 본 발명의 해결수단은 지능도가 더 높고, 사용자가 스스로 언어를 조직하여 태스크를 완성할 수 있어, 보다 유연하고, 고효율적인 말하기 연습을 구현하는 데 도움이 된다.
나아가 도 4를 참조하면, 정보 상호작용을 위한 방법의 다른 실시예의 흐름(400)을 도시한다. 상기 정보 상호작용을 위한 방법의 흐름(400)은 아래 단계를 포함한다.
단계 401, 사용자가 시작한 말하기 연습 요청이 수신된 것에 응답하여, 목표 말하기 연습 태스크를 나타내기 위한 태스크 정보를 출력한다.
본 실시예에서, 정보 상호작용을 위한 방법의 수행 주체(예를 들어 도 1에 도시된 단말 장치)는 유선 연결 방식 또는 무선 연결 방식을 통해 사용자가 시작한 말하기 연습 요청이 수신된 것에 응답하여, 목표 말하기 연습 태스크를 나타내기 위한 태스크 정보를 출력할 수 있다. 여기서, 말하기 연습 요청은 말하기 연습 수행을 요청하는 데 사용된다. 목표 말하기 연습 태스크는 말하기 연습 요청을 시작하는 사용자가 완료해야 하는 말하기 연습 태스크이다. 말하기 연습 태스크는 사용자가 음성 대화를 통해 완료할 수 있는 태스크이다. 태스크 정보는 목표 말하기 연습 태스크의 구체적인 내용을 표시하는 데 사용될 수 있다.
본 실시예에서, 태스크 정보는 태스크 의도 정보와 태스크 키워드 정보에 대응된다. 태스크 의도 정보는 목표 말하기 연습 태스크의 목표를 표시하는 데 사용될 수 있다. 태스크 키워드 정보는 상술한 목표의 키 포인트를 표시하는 데 사용될 수 있다. 태스크 의도 정보와 태스크 키워드 정보는 태스크 정보에서 추출할 수 있다.
단계 402, 사용자가 태스크 정보에 대해 입력한 음성 정보를 획득한다.
본 실시예에서, 태스크 정보를 출력한 후, 사용자가 획득한 태스크 정보에 대해, 음성 정보를 입력할 수 있고, 나아가 상술한 수행 주체는 사용자가 태스크 정보에 대해 입력한 음성 정보를 획득할 수 있다. 여기서, 음성 정보는 태스크 정보에 대응되는 목표 말하기 연습 태스크를 완료하기 위한 정보이다. 사용자가 자신이 요청한 말하기 연습을 수행하는 언어를 사용하여 상술한 음성 정보를 입력할 수 있음을 이해할 수 있다.
단계 403, 음성 정보에 대해 식별을 수행하여, 사용자에 대응되는 사용자 의도 정보와 사용자 키워드 정보를 결정한다.
본 실시예에서, 단계 402에서 얻은 음성 정보에 기반하여, 상술한 수행 주체는 상기 음성 정보에 대해 식별을 수행하여, 사용자에 대응되는 사용자 의도 정보와 사용자 키워드 정보를 결정할 수 있다. 여기서, 사용자 의도 정보는 사용자 의도를 표시하는 데 사용된다. 사용자 키워드 정보는 사용자 의도의 키 포인트를 표시하는 데 사용된다.
단계 404, 사용자가 목표 말하기 연습 태스크를 완료했는지 여부를 나타내기 위한 매칭 결과를 생성한다.
본 실시예에서, 상술한 수행 주체는 단계 403에서 얻은 사용자 의도 정보와 단계 401에서 얻은 태스크 의도 정보에 대해 매칭을 수행하고, 단계 403에서 얻은 사용자 키워드 정보와 단계 401에서 얻은 태스크 키워드 정보에 대해 매칭을 수행하여, 사용자가 목표 말하기 연습 태스크를 완료했는지 여부를 나타내기 위한 매칭 결과를 생성할 수 있다.
단계 405, 매칭 결과를 사용자에게 제시한다.
본 실시예에서, 단계 404에서 얻은 매칭 결과에 기반하여, 상술한 수행 주체는 매칭 결과를 사용자에게 제시할 수 있다.
상술한 단계 401, 단계 402, 단계 403, 단계 404, 단계 405는 각각 전술한 실시예에서의 단계 201, 단계 202, 단계 203, 단계 204 및 단계 205와 유사한 방식을 적용하여 수행될 수 있고, 위에서 단계 201, 단계 202, 단계 203, 단계 204 및 단계 205에 대한 설명은 단계 401, 단계 402, 단계 403, 단계 404 및 단계 405에도 적용되며, 여기서 더 이상 설명하지 않는다.
단계 406, 매칭 결과는 사용자가 목표 말하기 연습 태스크를 완료하지 않았음을 나타내는 것에 응답하여, 사용자가 목표 말하기 연습 태스크를 완료하도록 보조하기 위한 보조 정보를 출력한다.
본 실시예에서, 상술한 수행 주체는 단계404에서 얻은 매칭 결과에 의해 사용자가 목표 말하기 연습 태스크를 완료하지 않았음을 나타내는 것에 응답하여, 사용자가 목표 말하기 연습 태스크를 완료하도록 보조하기 위한 보조 정보를 출력할 수 있다. 여기서, 보조 정보는 태스크에 대응되는 정보(태스크 의도 정보 및/또는 태스크 키워드 정보)와 매칭되지 않는 사용자 정보(사용자 의도 정보 및/또는 사용자 키워드 정보)에 대해 생성된 정보일 수 있으며, 사용자가 태스크에 대응되는 정보와 매칭될 수 있는 정보를 입력하도록 안내하는 데 사용된다.
구체적으로, 예시로서, 목표 말하기 연습 태스크는 음식 주문 태스크일 수 있으며, 상술한 수행 주체는 음성 정보에 기반하여, 사용자 의도 정보와 태스크 의도 정보를 수행할 수 있고, 사용자 키워드 정보와 태스크 키워드 정보가 매칭된 후, 사용자 키워드 정보 중의 음식 주문 주소 정보와 태스크 키워드 정보 중의 음식 주문 주소 정보가 매칭에 성공하지 못했다고 결정되면, 상술한 수행 주체는 보조 정보 "정확한 음식 주문 주소를 입력하십시오"를 생성할 수 있다.
본 실시예의 일부 선택 가능한 실시형태에서, 상술한 수행 주체는 매칭 결과에 의해 사용자가 목표 말하기 연습 태스크를 완료하지 않았음을 나타내는 것에 응답하여, 사용자가 입력한 말하기 연습 종료 요청이 수신되었는지 여부를 결정할 수 있고, 말하기 연습 종료 요청이 수신되지 않은 것에 응답하여, 사용자가 목표 말하기 연습 태스크를 완료하도록 보조하기 위한 보조 정보를 출력한다. 여기서, 말하기 연습 종료 요청은 금번 말하기 연습을 종료할 것을 요청하는 데 사용된다.
실천에서, 말하기 연습 태스크를 완료하는 것은 사용자의 목적이 아닐 수 있고, 사용자는 매칭 결과만을 획득하려고 할 수 있으며, 나아가 매칭 결과를 출력한 후, 계속하여 보조 정보를 출력하면 사용자의 반감을 일으킬 수 있다. 본 실시형태는 보조 정보를 출력하는 조작을 사용자에게 맡겨 제어할 수 있고, 사용자가 말하기 연습 종료 요청을 입력하면, 보조 정보를 출력하지 않고, 사용자가 말하기 연습 종료 요청을 입력하지 않으면, 보조 정보를 출력한다, 이러므로, 말하기 연습의 완전성을 향상하는 동시에, 말하기 연습의 유연성을 향상시킬 수 있다.
단계 407, 사용자가 보조 정보에 대해 입력한 보충 음성 정보를 획득한다.
본 실시예에서, 보조 정보를 출력한 후, 상술한 수행 주체는 사용자가 보조 정보에 대해 입력한 보충 음성 정보를 획득할 수 있다. 여기서, 보충 음성 정보는 사용자가 보조 정보를 획득한 후 입력하는, 단계 402에서 입력한 음성 정보에 대해 보충을 수행하기 위한 음성 정보일 수 있다.
예시로서, 상술한 수행 주체는 단계 402에서 획득한 음성 정보에 대응되는 사용자 의도 정보와 사용자 키워드 정보에 대해 각각 매칭을 완료한 후, 사용자 키워드 정보 중의 음식 주문 주소 정보와 태스크 키워드 정보 중의 음식 주문 주소 정보("잉두따샤(盈都大廈)")가 매칭에 성공하지 못했다고 결정하면, 상술한 수행 주체는 보조 정보 "정확한 음식 주문 주소를 입력하십시오"를 출력할 수 있다. 그 다음, 사용자가 보조 정보에 대해, 보충 음성 정보 "잉두따샤(盈都大廈)"를 입력할 수 있다.
단계 408, 보충 음성 정보에 기반하여, 사용자가 목표 말하기 연습 태스크를 완료했는지 여부를 나타내기 위한 신규 매칭 결과를 생성한다.
본 실시예에서, 단계 407에서 얻은 보충 음성 정보에 기반하여, 상술한 수행 주체는 사용자가 목표 말하기 연습 태스크를 완료했는지 여부를 나타내기 위한 신규 매칭 결과를 생성할 수 있다.
구체적으로, 보조 정보는 매칭되지 않는 정보(의도 정보와 키워드 정보를 포함)에 대해 생성되고, 보충 음성 정보는 보조 정보에 대해 입력한 정보이기 때문에, 여기서, 상술한 수행 주체는 보충 음성 정보와 매칭에 성공하지 못한 태스크 정보(태스크 의도 정보와 태스크 키워드 정보를 포함)의 매칭을 수행하기만 하면 되며, 보충 음성 정보에 관련되지 않은 정보이면 매칭에 성공한 정보이다.
구체적으로, 만약 매칭에 성공하지 못한 정보가 의도 정보이면, 상술한 수행 주체는 먼저 보충 음성 정보에 대해 식별을 수행하여, 보충 의도 정보를 획득하고, 그 다음 보충 의도 정보와 태스크 의도 정보에 대해 매칭을 수행하여, 신규 매칭 결과를 획득할 수 있다. 만약 매칭에 성공하지 못한 정보가 키워드 정보이면, 상술한 수행 주체는 먼저 보충 음성 정보에 대해 식별을 수행하여, 보충 키워드 정보를 획득하고, 그 다음 보충 키워드 정보와 태스크 키워드 정보에 대해 매칭을 수행하여, 신규 매칭 결과를 획득할 수 있다.
상술한 예시를 계속하여, 사용자가 보조 정보 "정확한 음식 주문 주소를 입력하십시오"에 대해, 보충 음성 정보 "잉두따샤(盈都大廈)"를 입력한 후, 상술한 수행 주체는 음성 정보 "잉두따샤(盈都大廈)"에 대해 식별을 수행하여, 텍스트 정보 "잉두따샤(盈都大廈)"를 획득하고, 그 다음 텍스트 정보 "잉두따샤(盈都大廈)"와 태스크 키워드 정보 중의 음식 주문 주소 정보 "잉두따샤(盈都大廈)"에 대해 매칭을 수행하여, 사용자가 목표 말하기 연습 태스크를 완료하도록 나타내기 위한 신규 매칭 결과를 획득할 수 있다.
선택 가능하게, 사용자가 보충 음성 정보를 입력한 후, 여전히 목표 말하기 연습 태스크를 완료하지 않은 경우(즉 신규 매칭 결과는 사용자가 목표 말하기 연습 태스크를 완료하지 않았음을 나타내는 경우), 상술한 수행 주체는 매칭에 성공하지 못한 정보에 추가로 기반하여, 보조 정보를 출력하고, 나아가 추가로 사용자가 목표 말하기 연습 태스크를 완료하도록 안내할 수 있다.
본 실시예의 일부 선택 가능한 실시형태에서, 상술한 수행 주체는 매칭 결과에 의해 사용자가 목표 말하기 연습 태스크를 완료하지 않았음을 나타내는 것에 응답하여, 사용자가 목표 말하기 연습 태스크를 완료하도록 보조하기 위한 보조 정보를 출력하는 횟수가 미리 설정된 횟수 이하인지 여부를 결정하고, 보조 정보를 출력하는 횟수가 미리 설정된 횟수 이하인 것에 응답하여, 사용자가 목표 말하기 연습 태스크를 완료하도록 보조하기 위한 보조 정보를 출력할 수 있다.
본 실시형태는 보조 정보를 출력하는 횟수를 제한하여, 보조 정보의 무절제한 출력, 나아가 사용자가 반감을 초래하는 가능성을 감소하는 데 도움이 될 수 있고; 또한, 보조 정보를 출력하는 데 설비 자원을 소모해야 하므로, 나아가, 보조 정보의 출력 횟수를 제한하는 것도 설비 자원을 비교적 적게 소모하는 데 도움이 된다.
도 4로부터, 도 2에 대응되는 실시예와 비교하면, 본 실시예에서의 정보 상호작용을 위한 방법의 흐름(400)은 매칭 결과에 의해 사용자가 목표 말하기 연습 태스크를 완료하지 않았음을 나타내는 경우, 사용자가 목표 말하기 연습 태스크를 완료하도록 보조하기 위한 보조 정보를 출력하는 것을 강조함을 알 수 있다. 이에 따라, 본 실시예에서 설명한 해결수단은 보조 정보를 출력하는 것을 통해, 사용자가 목표 말하기 연습 태스크를 완료하도록 안내함으로써, 말하기 연습의 완전성을 향상시킬 수 있고, 말하기 연습 과정에서의 구어 교육 성능을 향상시키는데 도움이 될 수 있다.
나아가 도 5를 참조하면, 상술한 각 도면에 도시된 방법에 대한 구현으로서, 본 발명은 정보 상호작용을 위한 장치의 일 실시예를 제공하고, 상기 장치 실시예는 도 2에 도시된 방법 실시예에 대응되고, 상기 장치는 구체적으로 다양한 전자 기기에 적용될 수 있다.
도 5에 도시된 바와 같이, 본 실시예의 정보 상호작용을 위한 장치(500)는, 제1 출력 유닛(501), 제1 획득 유닛(502), 식별 유닛(503), 제1 생성 유닛(504) 및 제1 제시 유닛(505)을 포함한다. 여기서, 제1 출력 유닛(501)은 사용자가 시작한 말하기 연습 요청이 수신된 것에 응답하여, 목표 말하기 연습 태스크를 나타내기 위한 태스크 정보를 출력하도록 구성되고, 여기서, 태스크 정보는 태스크 의도 정보와 태스크 키워드 정보에 대응되며; 제1 획득 유닛(502)은 사용자가 태스크 정보에 대해 입력한 음성 정보를 획득하도록 구성되고; 식별 유닛(503)은 음성 정보에 대해 식별을 수행하여, 사용자에 대응되는 사용자 의도 정보와 사용자 키워드 정보를 결정하도록 구성되며; 제1 생성 유닛(504)은 사용자가 목표 말하기 연습 태스크를 완료했는지 여부를 나타내기 위한 매칭 결과를 생성하도록 구성되고, 여기서, 매칭 결과는, 사용자 의도 정보와 태스크 의도 정보, 그리고 사용자 키워드 정보와 태스크 키워드 정보에 대해 각각 매칭을 수행하는 단계를 통해, 상기 매칭 결과를 획득하며; 제1 제시 유닛(505)은 매칭 결과를 사용자에게 제시하도록 구성된다.
본 실시예에서, 정보 상호작용을 위한 장치(500)의 제1 출력 유닛(501)은 유선 연결 방식 또는 무선 연결 방식을 통해 사용자가 시작한 말하기 연습 요청이 수신된 것에 응답하여, 목표 말하기 연습 태스크를 나타내기 위한 태스크 정보를 출력할 수 있다. 여기서, 말하기 연습 요청은 말하기 연습 수행을 요청하는 데 사용된다. 목표 말하기 연습 태스크는 말하기 연습 요청을 시작하는 사용자가 완료해야 하는 말하기 연습 태스크이다. 말하기 연습 태스크는 사용자가 음성 대화를 통해 완료할 수 있는 태스크이다. 태스크 정보는 목표 말하기 연습 태스크의 구체적인 내용을 표시하는 데 사용될 수 있다.
본 실시예에서, 태스크 정보는 태스크 의도 정보와 태스크 키워드 정보에 대응된다. 태스크 의도 정보는 목표 말하기 연습 태스크의 목표를 표시하는 데 사용될 수 있다. 태스크 키워드 정보는 상술한 목표의 키 포인트를 표시하는 데 사용될 수 있다. 태스크 의도 정보와 태스크 키워드 정보는 태스크 정보에서 추출할 수 있다.
본 실시예에서, 제1 출력 유닛(501)은 태스크 정보를 출력한 후, 사용자가 획득한 태스크 정보에 대해, 음성 정보를 입력할 수 있고, 나아가 제1 획득 유닛(502)은 사용자가 태스크 정보에 대해 입력한 음성 정보를 획득할 수 있다. 여기서, 음성 정보는 태스크 정보에 대응되는 목표 말하기 연습 태스크를 완료하기 위한 정보이다. 사용자는 자신이 요청한 말하기 연습을 수행하는 언어를 사용하여 상술한 음성 정보를 입력할 수 있음을 이해할 수 있다.
본 실시예에서, 제1 획득 유닛(502)에서 얻은 음성 정보에 기반하여, 식별 유닛(503)은 상기 음성 정보에 대해 식별을 수행하여, 사용자에 대응되는 사용자 의도 정보와 사용자 키워드 정보를 결정할 수 있다. 여기서, 사용자 의도 정보는 사용자 의도를 표시하는 데 사용된다. 사용자 키워드 정보는 사용자 의도의 키 포인트를 표시하는 데 사용된다.
본 실시예에서, 제1 생성 유닛(504)은 식별 유닛(503)에 의해 획득된 사용자 의도 정보와 제1 출력 유닛(501)에 의해 획득된 태스크 의도 정보에 대해 매칭을 수행하고, 식별 유닛(503)에 의해 획득된 사용자 키워드 정보와 제1 출력 유닛(501)에 의해 획득된 태스크 키워드 정보에 대해 매칭을 수행하여, 사용자가 목표 말하기 연습 태스크를 완료했는지 여부를 나타내기 위한 매칭 결과를 생성할 수 있다.
본 실시예에서, 제1 생성 유닛(504)에 의해 획득된 매칭 결과에 기반하여, 제1 제시 유닛(505)은 매칭 결과를 사용자에게 제시할 수 있다.
본 실시예의 일부 선택 가능한 실시형태에서, 장치(500)는, 음성 정보와 매칭 결과에 기반하여, 사용자의 구어 능력을 표시하기 위한 점수를 생성하도록 구성되는 제2 생성 유닛(미도시); 및 생성된 점수를 사용자에게 제시하도록 구성되는 제2 제시 유닛(미도시)을 더 포함한다.
본 실시예의 일부 선택 가능한 실시형태에서, 장치(500)는, 매칭 결과는 사용자가 목표 말하기 연습 태스크를 완료하지 않았음을 나타내는 것에 응답하여, 사용자가 목표 말하기 연습 태스크를 완료하도록 보조하기 위한 보조 정보를 출력하도록 구성되는 제2 출력 유닛(미도시); 사용자가 보조 정보에 대해 입력한 보충 음성 정보를 획득하도록 구성되는 제2 획득 유닛(미도시); 및 보충 음성 정보에 기반하여, 사용자가 목표 말하기 연습 태스크를 완료했는지 여부를 나타내기 위한 신규 매칭 결과를 생성하도록 구성되는 제3 생성 유닛(미도시)을 더 포함한다.
본 실시예의 일부 선택 가능한 실시형태에서, 제2 출력 유닛은, 매칭 결과는 사용자가 목표 말하기 연습 태스크를 완료하지 않았음을 나타내는 것에 응답하여, 사용자가 입력한 말하기 연습 종료 요청이 수신되었는지 여부를 결정하도록 구성되는 제1 결정 모듈(미도시); 및 말하기 연습 종료 요청이 수신되지 않은 것에 응답하여, 사용자가 상기 목표 말하기 연습 태스크를 완료하도록 보조하기 위한 보조 정보를 출력하도록 구성되는 제1 출력 모듈(미도시)을 포함한다.
본 실시예의 일부 선택 가능한 실시형태에서, 제2 출력 유닛은, 매칭 결과는 사용자가 목표 말하기 연습 태스크를 완료하지 않았음을 나타내는 것에 응답하여, 사용자가 목표 말하기 연습 태스크를 완료하도록 보조하기 위한 보조 정보를 출력하는 횟수가 미리 설정된 횟수 이하인지 여부를 결정하도록 구성되는 제2 결정 모듈(미도시); 및 보조 정보를 출력하는 횟수가 미리 설정된 횟수 이하인 것에 응답하여, 사용자가 목표 말하기 연습 태스크를 완료하도록 보조하기 위한 보조 정보를 출력하도록 구성되는 제2 출력 모듈(미도시)을 포함한다.
본 실시예의 일부 선택 가능한 실시형태에서, 제1 출력 유닛(501)은, 사용자의 과거 말하기 연습 결과를 획득하도록 구성되는 획득 모듈(미도시); 획득한 과거 말하기 연습 결과에 기반하여, 목표 말하기 연습 태스크를 결정하도록 구성되는 제3 결정 모듈(미도시); 및 목표 말하기 연습 태스크를 나타내기 위한 태스크 정보를 획득하고, 획득한 태스크 정보를 출력하도록 구성되는 제3 출력 모듈(미도시)을 포함한다.
상기 장치(500)에 기재된 모든 유닛은 도 2를 참조하여 설명한 방법 중의 각 단계에 대응된다. 이에 따라, 위에서 방법에 대해 설명한 조작, 특징 및 유익한 효과는 장치(500) 및 그중에 포함되는 유닛에도 동일하게 적용됨을 이해할 수 있으며, 여기서 더 이상 설명하지 않는다.
본 발명의 상술한 실시예에 따른 장치(500)는 태스크 타입 대화의 형태를 적용하여 말하기 연습을 수행할 수 있으며, 선행기술에서 템플릿에 기반한 말하기 연습 방식에 비해, 본 발명의 해결수단은 지능도가 더 높고, 사용자가 스스로 언어를 조직하여 태스크를 완성할 수 있어, 보다 유연하고, 고효율적인 말하기 연습을 구현하는 데 도움이 된다.
아래에 도 6을 참조하면, 본 발명의 실시예의 구현에 적합한 전자 기기(예를 들어 도 1에서의 단말 장치) (600)의 구조 모식도를 도시한다. 본 발명의 실시예에서의 단말 장치는 예컨대 휴대폰, 노트북, 디지털 방송 수신기, PDA(개인 휴대 정보 단말기), PAD(태블릿PC), PMP(휴대용 멀티미디어 플레이어), 차량용 단말(예를 들어 차량용 내비게이션 단말) 등의 이동 단말 및 예컨대 디지털 TV, 데스크톱 컴퓨터 등의 고정 단말을 포함하되 이에 한정되지 않는다. 도 6에 도시된 전자 기기는 단지 일 예시일 뿐이며, 본 발명의 실시예의 기능과 사용 범위에 대해 어떠한 제한도 해서는 안 된다.
도 6에 도시된 바와 같이, 전자 기기(600)는 처리 장치(예를 들어 중앙 처리 장치, 그래픽 처리 장치 등) (601)를 포함할 수 있으며, 리드온리 메모리(ROM) (602) 중에 저장된 프로그램 또는 저장 장치(608)로부터 랜덤 액세스 메모리(RAM) (603)에 로딩된 프로그램에 따라 다양한 적절한 동작과 처리를 실행할 수 있다. RAM(603)에는, 전자 기기(600)의 조작에 필요한 다양한 프로그램과 데이터가 더 저장되어 있다. 처리 장치(601), ROM(602) 및 RAM(603)은 버스(604)를 통해 서로 연결된다. 입/출력(I/O) 인터페이스(605)도 버스(604)에 연결된다.
일반적으로, 아래 장치는 I/O 인터페이스(605)에 연결될 수 있으며, 예를 들어 터치스크린, 터치패드, 키보드, 마우스, 카메라, 마이크, 가속도계, 자이로스코프 등의 입력 장치(606)를 포함하고; 예를 들어 액정 모니터(LCD), 스피커, 진동기 등의 출력 장치(607)를 포함하며; 예를 들어 자기 테이프, 하드 디스크 등의 저장 장치(608)를 포함하고; 통신 장치(609)를 포함한다. 통신 장치(609)는 전자 기기(600)가 기타 설비와 무선 또는 유선 통신을 수행하여 데이터를 교환하도록 할 수 있다. 도 6은 다양한 장치를 구비한 전자 기기(600)를 도시하지만, 도시된 모든 장치를 실시하거나 구비해야 하는 것은 아니라는 점을 이해하여야 한다. 더 많거나 더 적은 장치를 대체적으로 실시하거나 구비할 수 있다.
특히, 본 발명의 실시예에 따르면, 흐름도를 참조하여 설명된 위의 과정은 컴퓨터 소프트웨어 프로그램으로 구현될 수 있다. 예를 들어, 본 발명의 실시예는 흐름도에 도시된 방법을 수행하기 위한 프로그램 코드를 포함한 컴퓨터 판독 가능한 매체 상에 탑재된 컴퓨터 프로그램을 포함하는 컴퓨터 프로그램 제품을 포함한다. 이러한 실시예에서, 상기 컴퓨터 프로그램은 통신 장치(609)를 통해 네트워크에서 다운로드 및 설치되거나, 또는 저장 장치(608)에서 설치되거나, 또는 ROM(602)에서 설치될 수 있다. 상기 컴퓨터 프로그램이 처리 장치(601)에 의해 실행될 경우, 본 발명의 실시예의 방법에서 한정된 상술한 기능을 수행한다.
또한, 본 발명의 상기 컴퓨터 판독 가능한 매체는 컴퓨터 판독 가능한 신호 매체 또는 컴퓨터 판독 가능한 저장 매체 또는 상술한 양자의 임의의 조합일 수 있다. 컴퓨터 판독 가능한 저장 매체는 예를 들어 전기, 자기, 광, 전자기, 적외선, 또는 반도체의 시스템, 장치 또는 소자, 또는 임의 이상의 조합일 수 있으나 이에 한정되지 않는다. 컴퓨터 판독 가능한 저장 매체의 보다 구체적인 예로는, 하나 또는 복수의 도선를 구비한 전기적 연결, 휴대용 컴퓨터 자기 디스크, 하드 디스크, 랜덤 액세스 메모리(RAM), 리드온리 메모리(ROM), 소거식 프로그램 가능한 리드온리 메모리(EPROM 또는 플래시 메모리), 광섬유, 휴대용 콤팩트 자기 디스크 리드온리 메모리(CD-ROM), 광 메모리 장치, 자기 메모리 장치, 또는 상술한 임의의 적절한 조합을 포함하되 이에 한정되지 않는다. 본 발명에서, 컴퓨터 판독 가능한 저장 매체는 명령 실행 시스템, 장치 또는 소자에 사용되거나 이와 결합하여 사용될 수 있는 프로그램을 포함하거나 저장하는 임의의 유형 매체일 수 있다. 그리고 본 발명에서, 컴퓨터 판독 가능한 신호 매체는 기저 대역 중에 포함되거나 반송파의 일부로 전파되는 데이터 신호일 수 있으며, 컴퓨터 판독 가능한 프로그램 코드가 탑재된다. 이와 같이 전파되는 데이터 신호는 전자기 신호, 광 신호 또는 상술한 임의의 적절한 조합을 포함하되 이에 한정되지 않는 다양한 형태를 적용할 수 있다. 컴퓨터 판독 가능한 신호 매체는 또한 컴퓨터 판독 가능한 저장 매체 이외의 임의의 컴퓨터 판독 가능한 매체일 수 있고, 상기 컴퓨터 판독 가능한 신호 매체는 명령 실행 시스템, 장치 또는 소자에 의해 사용되거나 이와 결합하여 사용하기 위한 프로그램을 송신, 전파 또는 전송할 수 있다. 컴퓨터 판독 가능한 매체에 포함된 프로그램 코드는 임의의 적절한 매체로 전송될 수 있으며, 전선, 광 케이블, RF(무선주파수)등, 또는 상술한 임의의 적절한 조합을 포함하되 이에 한정되지 않는다.
상술한 컴퓨터 판독 가능한 매체는 상술한 전자 기기에 포함되거나; 별도로 존재할 수 있으며, 상기 전자 기기에 조립되어 있지 않다. 상술한 컴퓨터 판독 가능한 매체에는 하나 또는 복수의 프로그램이 탑재되어 있고, 상술한 하나 또는 복수의 프로그램이 상기 전자 기기에 의해 실행될 경우, 상기 전자 기기가, 사용자가 시작한 말하기 연습 요청이 수신된 것에 응답하여, 목표 말하기 연습 태스크를 나타내기 위한 태스크 정보를 출력하고, 여기서, 태스크 정보는 태스크 의도 정보와 태스크 키워드 정보에 대응되며; 사용자가 태스크 정보에 대해 입력한 음성 정보를 획득하고; 음성 정보에 대해 식별을 수행하여, 사용자에 대응되는 사용자 의도 정보와 사용자 키워드 정보를 결정하고; 사용자가 목표 말하기 연습 태스크를 완료했는지 여부를 나타내기 위한 매칭 결과를 생성하며, 여기서, 매칭 결과는, 사용자 의도 정보와 태스크 의도 정보, 그리고 사용자 키워드 정보와 태스크 키워드 정보에 대해 각각 매칭을 수행하는 단계를 통해, 매칭 결과를 획득하고; 및 매칭 결과를 사용자에게 제시한다.
하나 또는 복수의 프로그래밍 언어 또는 그 조합으로 본 발명의 조작을 수행하기 위한 컴퓨터 프로그램 코드를 작성할 수 있으며, 상기 프로그래밍 언어는 예컨대 Java, Smalltalk, C++인 객체 지향의 프로그래밍 언어를 포함하고, 예컨대 "C" 언어 또는 유사한 프로그래밍 언어인 상시적인 과정식 프로그래밍 언어를 더 포함한다. 프로그램 코드는 완전히 사용자 컴퓨터 상에서 실행되거나, 부분적으로 사용자 컴퓨터 상에서 실행되거나, 하나의 독립된 소프트웨어 패키지로 실행되거나, 부분적으로 사용자 컴퓨터 상에서 부분적으로 원격 컴퓨터 상에서 실행되거나, 또는 완전히 원격 컴퓨터 또는 서버 상에서 실행될 수 있다. 원격 컴퓨터에 관련된 상황에서, 원격 컴퓨터는 근거리 통신망(LAN) 또는 광역 통신망(WAN)을 포함한 임의의 종류의 네트워크를 통해 사용자 컴퓨터에 연결되거나, 또는, 외부 컴퓨터에 연결될 수 있다(예를 들어 인터넷 서비스 공급자를 이용하여 인터넷을 통해 연결됨).
도면에서의 흐름도와 블록도는, 본 발명의 다양한 실시예에 따른 시스템, 방법과 컴퓨터 프로그램 제품의 구현 가능한 시스템 구조, 기능과 조작을 도시한다. 이 점에서, 흐름도 또는 블록도 중의 각 블록은, 규정된 논리 기능을 구현하기 위한 하나 또는 복수의 실행 가능한 명령을 포함하는 모듈, 프로그램 세그먼트, 또는 코드의 일부분을 대표할 수 있다. 그리고, 일부 대체적인 구현으로서, 블록에 표기된 기능은 도면에 표기된 것과 상이한 순서로 발생할 수도 있다. 예를 들어, 연속적으로 표시되는 두 개의 블록은 실질적으로 거의 병렬하여 실행되거나, 이들은 때로는 반대의 순서대로 실행될 수도 있으며, 이는 관련된 기능에 의해 결정된다. 또한, 블록도 및/또는 흐름도 중의 각 블록, 그리고 블록도 및/또는 흐름도 중의 블록의 조합은, 규정된 기능 또는 조작을 수행하는 전용 하드웨어에 기반한 시스템으로 구현되거나, 또는 하드웨어와 컴퓨터 명령의 조합으로 구현될 수 있다.
본 발명의 실시예에서 설명하는 관련된 유닛은 소프트웨어의 방식을 통해 구현되거나, 하드웨어의 방식을 통해 구현될 수 있다. 여기서, 어떤 경우에 유닛의 명칭은 상기 유닛 자체에 대한 제한을 구성하지 않으며, 예를 들어, 제1 출력 유닛은 "태스크 정보를 출력하는 유닛"으로 설명될 수도 있다.
이상 설명은 본 발명의 바람직한 실시예 및 응용되는 기술 원리에 대한 설명일 뿐이다. 당업자라면, 본 발명에서 언급된 개시 범위는, 상술한 기술 특징의 특정한 조합으로 이루어진 기술적 해결수단에 한정되지 않고, 아울러 상술한 발명 구상을 이탈하지 않는 경우, 상술한 기술 특징 또는 이와 동등한 특징에 의한 임의의 조합을 수행하여 형성된 기타 기술적 해결수단을 포함함을 이해해야 할 것이다. 예를 들어 상술한 특징과 본 발명에 개시된(이에 한정되지 않음) 유사한 기능을 구비한 기술 특징이 서로 교체되어 형성된 기술적 해결수단이다.

Claims (14)

  1. 정보 상호작용을 위한 방법으로서,
    사용자가 시작한 말하기 연습 요청이 수신된 것에 응답하여, 목표 말하기 연습 태스크를 나타내기 위한 태스크 정보를 출력하는 단계 - 상기 태스크 정보는 태스크 의도 정보와 태스크 키워드 정보에 대응됨 - ;
    상기 사용자가 상기 태스크 정보에 대해 입력한 음성 정보를 획득하는 단계;
    상기 음성 정보에 대해 식별을 수행하여, 상기 사용자에 대응되는 사용자 의도 정보와 사용자 키워드 정보를 결정하는 단계;
    상기 사용자가 상기 목표 말하기 연습 태스크를 완료했는지 여부를 나타내기 위한 매칭 결과를 생성하는 단계 - 상기 매칭 결과는, 사용자 의도 정보와 태스크 의도 정보, 그리고 사용자 키워드 정보와 태스크 키워드 정보에 대해 각각 매칭을 수행하는 단계를 통해, 상기 매칭 결과를 획득함 - ; 및
    상기 매칭 결과를 상기 사용자에게 제시하는 단계를 포함하는 정보 상호작용을 위한 방법.
  2. 제1항에 있어서,
    상기 음성 정보와 상기 매칭 결과에 기반하여, 상기 사용자의 구어 능력을 표시하기 위한 점수를 생성하는 단계; 및
    생성된 점수를 상기 사용자에게 제시하는 단계를 더 포함하는 방법.
  3. 제1항에 있어서,
    상기 매칭 결과는 상기 사용자가 상기 목표 말하기 연습 태스크를 완료하지 않았음을 나타내는 것에 응답하여, 상기 사용자가 상기 목표 말하기 연습 태스크를 완료하도록 보조하기 위한 보조 정보를 출력하는 단계;
    상기 사용자가 상기 보조 정보에 대해 입력한 보충 음성 정보를 획득하는 단계; 및
    상기 보충 음성 정보에 기반하여, 상기 사용자가 상기 목표 말하기 연습 태스크를 완료했는지 여부를 나타내기 위한 신규 매칭 결과를 생성하는 단계를 더 포함하는 방법.
  4. 제3항에 있어서,
    상기 매칭 결과는 상기 사용자가 상기 목표 말하기 연습 태스크를 완료하지 않았음을 나타내는 것에 응답하여, 상기 사용자가 상기 목표 말하기 연습 태스크를 완료하도록 보조하기 위한 보조 정보를 출력하는 단계는,
    상기 매칭 결과는 상기 사용자가 상기 목표 말하기 연습 태스크를 완료하지 않았음을 나타내는 것에 응답하여, 상기 사용자가 입력한 말하기 연습 종료 요청이 수신되었는지 여부를 결정하는 단계; 및
    상기 말하기 연습 종료 요청이 수신되지 않은 것에 응답하여, 상기 사용자가 상기 목표 말하기 연습 태스크를 완료하도록 보조하기 위한 보조 정보를 출력하는 단계를 포함하는 방법.
  5. 제3항에 있어서,
    상기 매칭 결과는 상기 사용자가 상기 목표 말하기 연습 태스크를 완료하지 않았음을 나타내는 것에 응답하여, 상기 사용자가 상기 목표 말하기 연습 태스크를 완료하도록 보조하기 위한 보조 정보를 출력하는 단계는,
    상기 매칭 결과는 상기 사용자가 상기 목표 말하기 연습 태스크를 완료하지 않았음을 나타내는 것에 응답하여, 상기 사용자가 상기 목표 말하기 연습 태스크를 완료하도록 보조하기 위한 보조 정보를 출력하는 횟수가 미리 설정된 횟수 이하인지 여부를 결정하는 단계; 및
    보조 정보를 출력하는 횟수가 미리 설정된 횟수 이하인 것에 응답하여, 상기 사용자가 상기 목표 말하기 연습 태스크를 완료하도록 보조하기 위한 보조 정보를 출력하는 단계를 포함하는 방법.
  6. 제1항 내지 제5항 중 어느 한 항에 있어서,
    상기 목표 말하기 연습 태스크를 나타내기 위한 태스크 정보를 출력하는 단계는,
    상기 사용자의 과거 말하기 연습 결과를 획득하는 단계;
    획득한 과거 말하기 연습 결과에 기반하여, 목표 말하기 연습 태스크를 결정하는 단계; 및
    상기 목표 말하기 연습 태스크를 나타내기 위한 태스크 정보를 획득하고, 획득한 태스크 정보를 출력하는 단계를 포함하는 방법.
  7. 정보 상호작용을 위한 장치로서,
    사용자가 시작한 말하기 연습 요청이 수신된 것에 응답하여, 목표 말하기 연습 태스크를 나타내기 위한 태스크 정보를 출력하도록 구성되는 제1 출력 유닛 - 상기 태스크 정보는 태스크 의도 정보와 태스크 키워드 정보에 대응됨 - ;
    상기 사용자가 상기 태스크 정보에 대해 입력한 음성 정보를 획득하도록 구성되는 제1 획득 유닛;
    상기 음성 정보에 대해 식별을 수행하여, 상기 사용자에 대응되는 사용자 의도 정보와 사용자 키워드 정보를 결정하도록 구성되는 식별 유닛;
    상기 사용자가 상기 목표 말하기 연습 태스크를 완료했는지 여부를 나타내기 위한 매칭 결과를 생성하도록 구성되는 제1 생성 유닛 - 상기 매칭 결과는 사용자 의도 정보와 태스크 의도 정보, 그리고 사용자 키워드 정보와 태스크 키워드 정보에 대해 각각 매칭을 수행하는 단계를 통해, 상기 매칭 결과를 획득함 - ; 및
    상기 매칭 결과를 상기 사용자에게 제시하도록 구성되는 제1 제시 유닛을 포함하는 정보 상호작용을 위한 장치.
  8. 제7항에 있어서,
    상기 음성 정보와 상기 매칭 결과에 기반하여, 상기 사용자의 구어 능력을 표시하기 위한 점수를 생성하도록 구성되는 제2 생성 유닛; 및
    생성된 점수를 상기 사용자에게 제시하도록 구성되는 제2 제시 유닛을 더 포함하는 장치.
  9. 제7항에 있어서,
    상기 매칭 결과는 상기 사용자가 상기 목표 말하기 연습 태스크를 완료하지 않았음을 나타내는 것에 응답하여, 상기 사용자가 상기 목표 말하기 연습 태스크를 완료하도록 보조하기 위한 보조 정보를 출력하도록 구성되는 제2 출력 유닛;
    상기 사용자가 상기 보조 정보에 대해 입력한 보충 음성 정보를 획득하도록 구성되는 제2 획득 유닛; 및
    상기 보충 음성 정보에 기반하여, 상기 사용자가 상기 목표 말하기 연습 태스크를 완료했는지 여부를 나타내기 위한 신규 매칭 결과를 생성하도록 구성되는 제3 생성 유닛을 더 포함하는 장치.
  10. 제8항에 있어서,
    상기 제2 출력 유닛은,
    상기 매칭 결과는 상기 사용자가 상기 목표 말하기 연습 태스크를 완료하지 않았음을 나타내는 것에 응답하여, 상기 사용자가 입력한 말하기 연습 종료 요청이 수신되었는지 여부를 결정하도록 구성되는 제1 결정 모듈; 및
    상기 말하기 연습 종료 요청이 수신되지 않은 것에 응답하여, 상기 사용자가 상기 목표 말하기 연습 태스크를 완료하도록 보조하기 위한 보조 정보를 출력하도록 구성되는 제1 출력 모듈을 포함하는 장치.
  11. 제8항에 있어서,
    상기 제2 출력 유닛은,
    상기 매칭 결과는 상기 사용자가 상기 목표 말하기 연습 태스크를 완료하지 않았음을 나타내는 것에 응답하여, 상기 사용자가 상기 목표 말하기 연습 태스크를 완료하도록 보조하기 위한 보조 정보를 출력하는 횟수가 미리 설정된 횟수 이하인지 여부를 결정하도록 구성되는 제2 결정 모듈; 및
    보조 정보를 출력하는 횟수가 미리 설정된 횟수 이하인 것에 응답하여, 상기 사용자가 상기 목표 말하기 연습 태스크를 완료하도록 보조하기 위한 보조 정보를 출력하도록 구성되는 제2 출력 모듈을 포함하는 장치.
  12. 제7항 내지 제11항 중 어느 한 항에 있어서,
    상기 제1 출력 유닛은,
    상기 사용자의 과거 말하기 연습 결과를 획득하도록 구성되는 획득 모듈;
    획득한 과거 말하기 연습 결과에 기반하여, 목표 말하기 연습 태스크를 결정하도록 구성되는 제3 결정 모듈; 및
    상기 목표 말하기 연습 태스크를 나타내기 위한 태스크 정보를 획득하고, 획득한 태스크 정보를 출력하도록 구성되는 제3 출력 모듈을 포함하는 장치.
  13. 전자 기기로서,
    하나 또는 복수의 프로세서; 및
    하나 또는 복수의 프로그램이 저장되어 있는 저장 장치를 포함하되,
    상기 하나 또는 복수의 프로그램이 상기 하나 또는 복수의 프로세서에 의해 실행되어, 상기 하나 또는 복수의 프로세서가 제1항 내지 제6항 중 어느 한 항에 따른 방법을 구현하도록 하는 전자 기기.
  14. 컴퓨터 프로그램이 저장된 컴퓨터 판독 가능한 매체로서,
    상기 프로그램이 프로세서에 의해 실행될 때 제1항 내지 제6항 중 어느 한 항에 따른 방법을 구현하는 컴퓨터 판독 가능한 매체.

KR1020227029762A 2020-02-26 2021-02-26 정보 상호작용을 위한 방법 및 장치 KR20220127935A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010120450.XA CN112307162A (zh) 2020-02-26 2020-02-26 用于信息交互的方法和装置
CN202010120450.X 2020-02-26
PCT/CN2021/078186 WO2021170094A1 (zh) 2020-02-26 2021-02-26 用于信息交互的方法和装置

Publications (1)

Publication Number Publication Date
KR20220127935A true KR20220127935A (ko) 2022-09-20

Family

ID=74336596

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020227029762A KR20220127935A (ko) 2020-02-26 2021-02-26 정보 상호작용을 위한 방법 및 장치

Country Status (6)

Country Link
US (1) US11854422B2 (ko)
EP (1) EP4113320A4 (ko)
JP (1) JP2023514863A (ko)
KR (1) KR20220127935A (ko)
CN (1) CN112307162A (ko)
WO (1) WO2021170094A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112307162A (zh) 2020-02-26 2021-02-02 北京字节跳动网络技术有限公司 用于信息交互的方法和装置

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002297185A (ja) * 2001-03-29 2002-10-11 Pioneer Electronic Corp 情報処理装置および情報処理方法
JP2005106876A (ja) * 2003-09-26 2005-04-21 Cai Media Kyodo Kaihatsu:Kk 語学学習用ロボット及び語学学習システム
JP2005274830A (ja) * 2004-03-24 2005-10-06 Central Information System Corp 音読評価プログラム、音読評価装置及び音読評価方法
JP4797597B2 (ja) * 2005-11-24 2011-10-19 ヤマハ株式会社 語学学習装置
US8260809B2 (en) * 2007-06-28 2012-09-04 Microsoft Corporation Voice-based search processing
US10241752B2 (en) * 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
KR101211796B1 (ko) 2009-12-16 2012-12-13 포항공과대학교 산학협력단 외국어 학습 장치 및 그 제공 방법
JP2012255866A (ja) * 2011-06-08 2012-12-27 Konica Minolta Business Technologies Inc プレゼンテーションコーチシステム
NL2008809C2 (en) * 2012-05-14 2013-11-18 Stichting Katholieke Universtiteit Automated system for training oral language proficiency.
US9002835B2 (en) * 2013-08-15 2015-04-07 Google Inc. Query response using media consumption history
TWI566107B (zh) * 2014-05-30 2017-01-11 蘋果公司 用於處理多部分語音命令之方法、非暫時性電腦可讀儲存媒體及電子裝置
CN105741831B (zh) * 2016-01-27 2019-07-16 广东外语外贸大学 一种基于语法分析的口语评测方法和系统
US10102844B1 (en) * 2016-03-29 2018-10-16 Amazon Technologies, Inc. Systems and methods for providing natural responses to commands
US10489393B1 (en) * 2016-03-30 2019-11-26 Amazon Technologies, Inc. Quasi-semantic question answering
CN106407333B (zh) * 2016-09-05 2020-03-03 北京百度网讯科技有限公司 基于人工智能的口语查询识别方法及装置
US10536579B2 (en) * 2016-10-24 2020-01-14 Sriram Venkataramanan Iyer System, method and marketplace for real-time interactive video/voice services using artificial intelligence
US10755051B2 (en) * 2017-09-29 2020-08-25 Apple Inc. Rule-based natural language processing
CN108831503B (zh) * 2018-06-07 2021-11-19 邓北平 一种口语评测方法及装置
CN109039647A (zh) * 2018-07-19 2018-12-18 深圳乐几科技有限公司 终端及其口语学习方法
CN109697244A (zh) * 2018-11-01 2019-04-30 百度在线网络技术(北京)有限公司 信息处理方法、装置及存储介质
CN112307162A (zh) * 2020-02-26 2021-02-02 北京字节跳动网络技术有限公司 用于信息交互的方法和装置

Also Published As

Publication number Publication date
JP2023514863A (ja) 2023-04-11
US11854422B2 (en) 2023-12-26
WO2021170094A1 (zh) 2021-09-02
EP4113320A1 (en) 2023-01-04
US20230081000A1 (en) 2023-03-16
CN112307162A (zh) 2021-02-02
EP4113320A4 (en) 2023-07-26

Similar Documents

Publication Publication Date Title
JP6751122B2 (ja) ページ制御方法および装置
US20220075932A1 (en) Method and apparatus for inserting information into online document
US11758088B2 (en) Method and apparatus for aligning paragraph and video
CN111986655B (zh) 音频内容识别方法、装置、设备和计算机可读介质
CN112509562B (zh) 用于文本后处理的方法、装置、电子设备和介质
US20200409998A1 (en) Method and device for outputting information
JP7050857B2 (ja) 要約生成方法及び装置
US20240147023A1 (en) Video generation method and apparatus, and device, medium and product
CN113253885A (zh) 目标内容的显示方法、装置、设备、可读存储介质及产品
CN110806834A (zh) 基于输入法的信息处理方法、装置、电子设备及介质
US11854422B2 (en) Method and device for information interaction
US20220215482A1 (en) User information processing method, apparatus, electronic device, and computer storage medium
CN112242143B (zh) 一种语音交互方法、装置、终端设备及存储介质
EP4207775A1 (en) Method and apparatus for determining object addition mode, electronic device, and medium
CN112162686B (zh) 房源信息展示方法、装置、电子设备和计算机可读介质
CN115269920A (zh) 交互方法、装置、电子设备和存储介质
CN113221514A (zh) 文本处理方法、装置、电子设备和存储介质
CN114697760B (zh) 一种处理方法、装置、电子设备及介质
CN113220293B (zh) 页面展示方法、装置、电子设备和计算机可读介质
CN111930229B (zh) 人机交互方法、装置和电子设备
WO2023207580A1 (zh) 展示方法、装置和电子设备
CN115098211A (zh) 一种界面显示方法、装置、电子设备以及存储介质
CN117596452A (zh) 视频生成方法、装置、介质及电子设备
CN112309388A (zh) 用于处理信息的方法和装置
CN115563410A (zh) 搜索结果展示方法、装置、电子设备和存储介质