KR20010013236A - 읽기 및 발음 교습기 - Google Patents

읽기 및 발음 교습기 Download PDF

Info

Publication number
KR20010013236A
KR20010013236A KR19997011227A KR19997011227A KR20010013236A KR 20010013236 A KR20010013236 A KR 20010013236A KR 19997011227 A KR19997011227 A KR 19997011227A KR 19997011227 A KR19997011227 A KR 19997011227A KR 20010013236 A KR20010013236 A KR 20010013236A
Authority
KR
South Korea
Prior art keywords
knowledge base
processor
response
reading
text
Prior art date
Application number
KR19997011227A
Other languages
English (en)
French (fr)
Inventor
잭 모스토우
Original Assignee
수잔 버켓
카네기 멜론 유니버시티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 수잔 버켓, 카네기 멜론 유니버시티 filed Critical 수잔 버켓
Publication of KR20010013236A publication Critical patent/KR20010013236A/ko

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B17/00Teaching reading
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/04Speaking
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B17/00Teaching reading
    • G09B17/003Teaching reading electrically operated apparatus or devices
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • G09B5/065Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Multimedia (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Breeding Of Plants And Reproduction By Means Of Culturing (AREA)

Abstract

컴퓨터 구현 읽기 교습기는 응답을 출력하기 위한 재생기(28)를 포함한다. 무음 검출(silence detection), 스피치 인식, 등과 같은 복수의 기능을 구현하는 입력 블록(20)은 판독 자료를 포획한다. 교습 기능부(22)는 지식 베이스(24) 내의 정보 및 선택적으로 학생 모델(26)에 기초하여, 스피치 인식기의 출력과 판독된 텍스트를 비교하고 필요할 때 응답을 생성한다. 응답은 재생기(28)를 거쳐 사용자에게 출력된다. 품질 조절부(33)는 포획된 판독 자료를 평가하고 포획된 자료를 어떤 조건 하에서 지식 베이스(24) 내에 저장한다. 자동 증진 기능부(auto enenhancement function)(44)는 교습기에 허용가능한 정보를 이용하여 응답으로서 사용될 수 있는, 리듬 식별 단어, 공통 루트 단어, 등과 같은 부가의 리소스(resource)를 생성한다.

Description

읽기 및 발음 교습기{READING AND PRONUNCIATION TUTOR}
현재, 어린이는 1-3학년에서 크게 소리내어 읽도록 배우고, 4학년에서 조용히 읽게 하고 있다. 4학년에서 독자적으로 읽지 못하는 어린이는 학년이 올라갈수록 다른 학급 친구 보다 더 뒤쳐지게 되어, 문맹으로 자라날 위험이 상당히 있다. 문학은 일반적으로 교육적 목적의 주요 수단이다. 불행하게도, 미국 4학년 학생의 75% 정도가 기대되는 수준 이하로 읽고 있다.
구두 읽기는 교실 교육과 개별 훈련을 결합하여 가리켜지고 있다. 큰소리로 읽기는 이를 어린이가 이미 배우는 방식과 관련시킴으로써 인쇄된 단어를 구별하도록 배울 수 있게 해준다. 이 단계에서, 어린이의 구술 언어의 이해는 그들의 개별적인 읽기 수준 보다 높은 것이 보통이다.
어린이의 구두 읽기를 듣는 것은 몇가지 이유에서 중요하다. 먼저, 단어 확인의 에러를 식별해주어 이를 정정할 수 있도록 해준다. 단어 읽기 에러의 정정은 학습 능력이 없는 학생에게 단어 인식 정확도와 이해도를 증진시켜 준다. 더욱이, 요구에 따른 구술 보조 학습은 어린 독서자가 필요로 할 때 도움을 요청하려고 하거나 할 수 있다고 가정할 때 몇가지 단점을 보이고 있다. 읽기 장애를 갖는 어린이는 단어를 잘못 확인했을 때를 확실히 이해하지 못하는 경우가 있다. 둘째, 청취는 좌절감이 커지거나 이해의 실패와 관련되는 유창하지 못한, 느리고, 중단되는 읽기를 검출할 수 있게 해준다. 셋째, 청취와 같은 행동은 어린 판독자에게 구두 읽기의 시도에 대해 지원적인 청취자를 제공함으로써 효능이 있는 동기 부여 효과를 줄 수 있다. 네째, 듣기는 실수만이 아니라 성공을 검출하는 데에 사용될 수 있다. 이 정보는 어린이가 알고 있는 것을 확인할 때와, 어린이가 성공했을 때 긍정적인 학습 효과를 제공하는 데에 도움을 줄 수 있다.
최근에는 읽기를 배우는 어린이에게 도움을 주는 스피치 인식을 사용하는 목적에 대한 연구가 행해지고 있다. 최근의 개발은 구두 읽기에 대한 스피치 인식의 적용을 점차 더욱 실행할 수 있도록 하고 있다. 1994년 워싱턴 시애틀에서, 인공 지능에 대한 12번째 회의의 회보에서 잭 모스토우 등의 "청취하는 원형 읽기 코치"; 1996년 펜실베니아 필라델피아에서, 구술 언어 처리에 대한 네번째 국제 회의의 회보에서 마틴 러셀 등의 "어린이의 자동 스피치 인식의 적용"이 있다.
컴퓨터-보조 읽기 프로그램의 개발시, 하나의 중요만 문제는 소프트웨어의 이용을 위한 판독 자료를 얻는 것이다. 판독 자료에는 두 가지 가능성이 있는데, 음성 탈렌트와 합성음이다. 음성 탈렌트는 값비싸고 읽기 교습기의 이용에 대해 한계가 있다. 최근에 상당히 개선된 합성음은 우수한 나레이터 만큼 자연스럽지도 않고 동기 부여성도 없다. 컴퓨터 지원 읽기 프로그램의 개발시의 또 다른 문제는 현재 이용 가능한 시스템이 시스템의 동작을 위한 여러 규칙을 갖는 내용물 "하드 코드"를 갖는다는 것이다. 그 결과, 새로운 "하드 코어" 제품의 개발시 상당한 비용과 노력을 들여야만 새로운 내용을 얻을 수 있다. 따라서, 신속하면서 용이하게 유창한 스피치를 포획하고, 스피치가 정확한지를 결정하고 이를 다음의 이용을 위해 저장할 수 있는 읽기 교습기에 대한 요구가 대두되고 있다.
본 발명은 읽기 교습기에 관한 것으로, 특히 쉽게 내용을 이해할 수 있는 읽기 교습기에 관한 것이다.
본 발명은 더욱 명확하게 이해하고 용이하게 실현하기 위해서 다음의 도면을 참조하여 이하 설명될 것이다.
도 1은 본 발명의 원리에 따라 구성된 읽기 및 발음 교습기의 구성 요소를 나타내는 도면.
도 2는 지식 포획 특성의 동작을 설명하는 플로우챠트도
본 발명은 통상의 교습 활동 동안이나 창작 모드에서 읽기 교습기를 임의의 소스 기구에 대한 나레이션의 소스로서 이용하여, 어린이, 선생님 등의 스피치를 레코딩하는 방법 및 장치에 관한 것이다. 본 발명은 이 폭 넓은 형태로, 응답을 출력하기 위한 재생기를 포함하는 컴퓨터 구현 읽기 교습기에 관한 것이다. 무음 검출, 스피치 인식 등과 같은 복수의 기능을 실행하는 입력 블럭은 판독 자료를 포획한다. 교습 기능은 스피치 인식기의 출력을 읽혀질 것으로 예상되는 텍스트와 비교하고 필요에 따라 지식 베이스의 정보와 선택적 학생 모델에 기초하여 응답을 발생한다. 이 응답은 재생기를 통해 사용자에게 출력된다. 품질 제어 기능은 포획된 판독 자료를 평가하여 이 자료를 특정의 조건하에서 지식 베이스에 저장한다. 자동 증진 기능부는 교습기에게 이용 가능한 정보를 사용하여 응답으로서 사용될 수 있는 압운 단어, 동일한 어간을 갖는 단어, 공통의 다른 특성 등을 구별하는 것과 같이 부가의 리소스를 생성한다.
본 발명은 창작 모드나 통상의 교습 활동 동안 교습기를 동작시킴으로써 내용물이 생성될 수 있게 한다. 이것은 각 스토리나 스토리의 그룹에 대해 개별의 교습기를 마련해야 할 시간과 비용을 없애준다. 또한 동료의 음성을 이용하므로 매우 유용한 교육적 이점을 갖는다. 고학년의 학생이 저학년의 학생을 위해 이야기하면, 한 학급이나 몇개의 학급의 학생이 교육적 경험에 함께 참여할 수 있게 해준다. 따라서, 읽기 교습기는 컴퓨터 지원되며, 협조적인 교습을 가능하게 한다. 동료의 음성은 값비싼 음성 탤런트의 필요성을 제거한다. 본 교습기를 이용하여 신뢰가는 나레이터나 학생으로부터 내용물을 용이하게 포획할 수 있게 하는 능력은 교실에 쉽게 적응할 수 있게 해준다. 본 발명의 이들 및 그외 장점들은 이하 바람직한 실시예의 설명으로부터 명백하게 될 것이다.
본 발명의 원리에 따라 구성된 읽기 교습기(10)를 도 1에서 나타낸다. 교습기(10)는 크게 읽는 사용자를 들은 다음에 읽기에 어려움이 있을 때 도움을 제공한다. 읽기 교습기(10)의 현재 버전은 단일의 독립형 PC(12)에서 실행된다. 사용자는 핸드셋 마이크로폰(14)을 쓰고 마우스(16)로 억세스하지만 선생님에 의해 사용되기 위해 키보드(18)에 의해서도 억세스할 수 있다. 교습기(10)는 PC(12) 상에서 사용자에게 문장을 디스플레이하여, 사용자가 크게 읽는 것을 듣고, 구술 및 도식적인 원조를 제공한다. 사용자는 읽기를 배우고, 이들의 읽기 능력을 개선하려고 하고, 제2 언어를 배우는 등의 어느 연령의 사람이라도 좋다. 교습기(10)는 또한 스피치와 같이 판독될 텍스트를 읽지 못하는 사람에게 제시하기 위해 지능 에이전트 (스마트 텔레프롬프터)로서 사용될 수 있다. 교습기는 또한 텍스트를 메모리하거나, 예를 들어 텍스트가 표시되는 방식을 변형하여 스크립트의 일부를 배우는 도움을 주는 데에 사용될 수 있다.
PC(12)는 세 개의 버튼: "이전" (이전의 문장으로 이동), "도움"(교습기(10)가 문장을 읽게 함), 및 "이동" (다음 문장으로 이동함)의 버튼을 갖는 "리모트 컨트롤" 윈도우를 디스플레이로서 제공한다. "대시보드"에는 버튼 "스토리" (즉, 메뉴로부터 어떤 스토리가 읽혀질지를 선택), 또는 "판독자" (어느 학생이 교습기(10)를 동작하고 있는지를 확인)가 제공되어 있다. 사용자는 도움을 위해 단어를 클릭할 수 있다. "이전", "이동", 및 "스토리"는 판독자가 조정할 수 있게 한다. 완전한 사람들은 교습기(10)가 수용할 때 까지 문장을 읽을 수 있고; 참지 못하는 판독자는 다음에 무엇이 있는지를 읽을 수 있다. 초보 판독자는 교습기(10)가 먼저 문장을 읽게 할 수 있고; 대담한 판독자는 스스로 먼저 해 볼 수 있다. 사용자는 중단하려고 클릭할 수 있으므로 얼마나 많이 들을지를 조절할 수 있다. 교습기(10)는 사용자가 스스로 또는 컨택스트 내에서 정정된 단어를 다시 읽도록 할 수 있다. 당업자라면 그 외 입력 버튼과 입력 버튼 배열이 가능하다는 것을 인식할 수 있을 것이다.
PC(12)는 예를 들어, 사용자의 읽기 시도와, 버튼의 작동 등을 출력하고, 이들은 블럭(20)에 입력된다. 블럭(20)은 무음을 청취하는 연속적인 청취기와 같은 여러 기능을 실행하는 몇가지 구성 요소를 갖는다. 청취기는 모든 입력 스피치를 취하여 이를 파일에 위치시킨다. 블럭(20)은 지식 베이스(24)로부터의 발음 사전을 이용하고 또한 (사용자가 읽을려고 시도하고 있는 현재의 문장과 같은) 교습 기능부(22)로부터 정보를 수신하여 이 청취 기능을 더 쉽게 실행할 수 있게 한다. 청취기는 사용자가 말하고 있을 때와 무음이 있을 때를 결정한다.
블럭(20)은 또한 예를 들어, 스피닉스 -Ⅱ 스피치 인식기와 같은 스피치 인식기를 포함한다. 우리는 인공 지능에 대한 11번째 회의의 회보 (AAAI-93), 페이지 392-397에서, 제이 모스토우 등의 "청취하는 읽기 코치에 관하여: 구두 읽기 에러의 자동 검출"에 기재된 것과 유사한 스피치 인식기용 언어 모델 생성기를 사용한다. 임의의 문장에 대해 생성된 언어 모델은 유창한 읽기와의 편차를 모델화하여, 스피치 인식 작업을 강요하고, 유창한 읽기와의 편차의 검출을 가능하게 한다. 스피치 인식기는 스피치를 교습 기능부(22)에 출력되는 단어와 타이밍 정보로 변환한다.
블럭(20)에서, 각 학생의 동작을 추상적인 이벤트로서 분류한다. 이것은 동작이 어떻게 통신되는지에 대한 상세 사항을 교습 기능부(22)로부터 숨기는 것이다. 예를 들어, "이전" 버튼을 클릭하면 이전으로 돌아가는 요청으로 분류된다. (현재의 문장 위에서 그레이색으로 표시된) 이전의 문장을 클릭하는 것은 또한 이전으로 돌아갈 요청으로 분류된다. 이것은 사용자가 이들을 통신하는 방법에 대한 특정 인터페이스 상세 사항이 아니라, 논리적 통신 동작으로 교습 기능부(22)가 작용되게 한다.
교습 기능부(22)가 알아야 하는 모든 학생의 동작은 이를 처리하는 목적에 의해 하나의 이벤트로서 분류된다. 버튼을 누르는 등과 같은 직접적인 조작은 이벤트를 분류한 다음에 이에 응답함으로써 처리된다. 예를 들어, "리모트 콘트롤"은 도움의 요청으로서 "도움" 버튼의 클릭을 분류하여 사용자가 도움을 요청한 것을 교습 기능부(22)에 알린다. 스피치의 시작과 종료와 같은 스피치와 관련된 사용자 동작은 (발성이 진행중일 동안 연산된) 부분 스피치 인식 결과와 (발성의 결과로 연산된) 최종 인식 결과가 스피치 인식기에 의해 취급되고 있는 동안 연속적 청취자에 의해 취급된다. 교습 기능부(22)는 이들 이벤트가 발생할 때를 통지받고, 교습 기능부(22)는 이벤트를 기록하여 필요에 따라 응답한다.
교습기(10)에 의해 인식된 각 유형의 이벤트에는 이벤트 타이머가 할당된다. 이벤트 타이머는 현재와 이벤트가 마지막으로 발생할 때 사이의 차를 측정하기 위한 것이다. 또한 이벤트의 종류를 나타내는 특수한 타이머가 있다. "대드 에어 타임"은 사용자나 교습기(10)가 말하고 있지 않는 경과 시간이다. "사용자 순번 타임"은 현재의 사용자 순번에서의 경과 시간이다. "사용자 아이들 타임"은 임의의 사용자 이벤트 이후의 경과 시간이다. "전체 아이들 타임"은 모든 이벤트 이후의 경과 시간이다.
교습 기능부(22)는 지식 베이스(24)와 선택적 학생 모델(26)과 관련하여 동작한다. 중간 개재가 있는지, 언제인지, 어떤 방법인지, 어느 방식으로인지에 대한 결정이 현재의 판독 입력과, 가능하다면 학생 모델(26)에 기초하여 교습 기능부(22)에 의해 동적으로 이루어진다. 예를 들어, 사용자가 단어를 잘못 읽으면, 교습 기능부(22)는 이를 하이라이트하여 그 기록된 발음을 재생하도록 선택할 수 있다. 다르게, 그 단어는 이에 이끌어지는 단어들을 읽음으로써 다시 삽입된다. 사용자가 한 단어를 읽으려고 하면, 교습 기능부(22)는 그 단어를 소리내어 발음하여 힌트를 주려고 하거나, 운이 맞는 단어를 제시하거나, 그 단어를 조용히 말하는 사람의 비디오 클립(clip)을 보여줄 수 있다. 사용자가 알것 같은 단어를 텍스트가 포함하고 있으면, 교습 기능부(22)는 정의를 제시하고, 화상을 표시하거나, 음향 효과를 보내어 유도할 수 있다. 사용자가 한 구나 문장을 읽는 데에 어려움이 갖는 경우, 교습 기능부(22)는 이의 유창한 발음을 재생하여, 이 단어를 한 번씩 발음하여 사용자가 함께 읽을 수 있게 하고, 텍스쳐나 구술 의역이나 설명을 제시하거나, 관련 화상이나 비디오 클립을 표시할 수 있다. 교습 기능부(22)에 의해 선택된 중간 개재는 재생기(28)에 의해 실행되는 청각과 시각적 요소가 동기화된 것을 이용할 수 있다.
몇 가지 교습 기능부의 동작은 순차적으로 정렬된 몇가지 동작으로 이루어진다. 예를 들어, 교습 기능부(22)는 한 문장의 일부를 읽은 다음에 다음 단어를 강조하여 사용자에게 다시 신호보낸다. 이들 이벤트는 이들을 순서대로 실행하는 재생기(28)에 정렬된다. 재생기(18)는 교습 기능부(22)에 아이템이 재생될 때와, 아이템의 순서가 완료되었을 때를 알린다. 순서가 재생되고 있는 동안 교습기(10)가 사용자 입력에 응답하도록 하기 위해서, 재생기는 예를 들어, 개별의 드레드(thread) 또는 메세지 구동 아키텍쳐를 이용하여 비동기 처리로서 실행되어야 한다.
현재, 교습기(10)는 문장이 학생 모델(26)에 의해 친숙하지 않은 것으로 (예를 들어, 교습기(10)가 학생이 정확하게 읽은 것으로 듣지 않은 것) 분류된 단어를 포함할 때 선제적으로, 학생이 도움을 요청하거나 막혀 있을 때 보조적으로, 및 학생이 중요한 단어 (예를 들어, 이해하기가 거의 중요하지 않은 "a"와 "the" 같은 기능 단어의 사용자 정의 파일에 있지 않은 단어)를 잘못 읽을 때 정정할 수 있게, 중간 개재한다. 하나 이상의 중요 단어가 잘못 읽혀지면, 교습 기능부(22)는 첫번째의 경우를 선택한다.
도울 단어가 있으면, 교습 기능부(22)는 다음과 같이 어떤 원조가 제공될지를 결정한다. 교습 기능부와 스피치 인식기에 의해 사용되는 발음 사전은 뒤집어진 단어 (예를 들어, "saw"에 대해 "was") 또는 대체 단어 (예를 들어, 문자 C를 /S/ 대신에 /K/로 발음하는 것)와 같은 특정 유형의 예기된 발음의 에러를 포함할 수 있다. 교습 기능부(22)가 이들 경우 중 하나를 검출하면, 지식 베이스(24)는 문구 "나는 당신이 이 단어를 반대로 읽었다고 생각함"의 레코딩과 같이, 이 경우에 특정한 응답을 제공한다. 아니면, 교습 기능부(22)는 의문이 있는 단어에 대해 이용 가능한 리소스가 있는 경우 적용 가능한 응답의 세트로부터 응답을 임의적으로 선택한다.
교습 기능부(22)는 또한 트래킹 알고리즘을 포함하는데, 이는 텍스트에 대한 부분 인식 결과의 할당에 기초하여, 교습 기능부(22)에 따라 마지막으로 정확하게 읽혀진 단어에 이어 다음의 예기된 단어를 결정한다. 잘못 읽혀진 단어가 다음의 예기되는 단어가 아니면, 교습 기능부(22)는 문장의 처음이나 가장 최근 구절의 경계 (콤마나 특정한 다른 구두점에 의해 나타내거나, 그 외 발견법에 의해)부터 시작하여 이에 이끌어지는 단어들을 다시 읽음으로써, 그 단어에 잠재적으로 도움을 주기 전에 컨텍스트를 다시 만든다.
지식 베이스(24)는 텍스트 세그먼트와 관련 리소스로 이루어진다. 텍스트 세그먼트는 문자, 음소, 단어, 문장, 구, 페이지, 스토리, 소설, 전문 사전 및 도서관을 포함하여 사이즈가 다양하다. 텍스트 세그먼트는 문자 요소와 같은 단편이나 문장, 자음과 모음, 접두사와 접미사, 온세트와 압운, 음절, 어근, 및 구문을 포함할 수 있다. 텍스트 세그먼트와 관련되는 리소스는 텍스쳐, 회화, 어구 및/또는 그 외 형태일 수 있다. 리소스는 예를 들어, 구술 발음, 음향 효과, 정의, 설명, 의역, 화상, 비디오 클립, 또는 그 외 정보를 포함할 수 있다.
텍스트 및 임의의 텍스트 세그먼트와 리소스의 결합은 몇가지 요건을 충족하도록 표현되어야 한다. 먼저, 리소스를 다시 사용하기 위한 능력을 최대화해야 한다. 예를 들어, 임의의 단어와 관련되는 리소스는 어느 텍스트 내의 그 단어의 출현에 대해 교습 기능부(22)에 통상 이용 가능해야 한다. 둘째, 이 결합은 텍스트가 변형될 때 적당히 동작해야 한다. 예를 들어, 편집 텍스트는 개정판에 의해 폐기되는 나레이션과 문장의 결합을 없애지만, 이들의 스틸 벨리드(still valid) 나레이션과 개정되지 않은 문장의 결합을 보유해야 한다. 세째, 텍스트 편집은 선생님과 학생에게 정교한 컴퓨터 기술 없이 간단해야 한다. 이 요구 조건은 그 소스 형태나 구성된 편집기에서 HTML와 같은 마크업 언어를 편집하는 것과 같은 옵션을 배제한다. 네째, 편집은 유동성이 있어, 사용자가 그들이 선호하는 편집기를 이용할 수 있게 해야 한다. 마지막으로, 이 표현은 합리적으로 효율적인 처리와 편리한 실행을 지원해야 한다.
본 발명에 따르면, 주해를 텍스트 내에 삽입하여 리소스와 텍스트의 결합을 나타내는 것 보다는, 텍스트를 플레인텍스트(plaintext)로 남겨 놓고 이 결합을 다음과 같이 연산한다. 각 텍스트 세그먼트는 세그먼트의 유형과 값으로부터 연산된 키를 갖는다. 그 리소스는 이 키에 의해 인덱스된다. 이 기구는 여러 방법으로 구현될 수 있다. 예를 들어, 문장의 키는 텍스트 세그먼트에 대한 리소스의 리스를 포함하는 파일이나 폴더의 이름일 수 있다. 단어 (말하자면 "cat")의 키는 각 단어를 음성적 발음으로 리스트화하는 사전 내의 인덱스로서 또한 그 단어의 기록된 발음을 포함하는 파일 "cat.wav"의 이름으로 사용되는 단어 자체일 수 있다.
가장 간단한 경우, 키는 단어, 구 또는 문장과 같은 텍스트 세그먼트 자체가 된다. 키를 파일네임으로 사용하기 위해서, 세그먼트는 예를 들어, 적법하지 않은 문자를 없애고, 허용된 한계로 자르고, 및/또는 모든 문자를 상측의 경우나 하측의 경우로 구속함으로써, 적합한 파일네임으로 체계적으로 변화될 수 있다.
어떤 경우에는 예를 들어 스토리에서 동일한 문장이 여러번 발생하는 것을 구별하기 위해서, 텍스트 세그먼트의 복수회 출현을 구별하는 것이 중요할 때가 있다. 이런 구별을 가능하게 하기 위해서, 키는 텍스트 내에 세그먼트의 이전 출현의 회수와 같은 부가의 정보를 포함할 수 있다. 예를 들어, 마틴 루터 킹의 연설문에서 문장 "I have a dream" 의 첫번째 출현의 키는 문장 자체일 수 있지만, 두 번째 출현의 키는 "I have a dream.2"이다. 이 방법은 각 문장에 대해 독특한 나레이션을 가능하게 한다.
전체 스토리와 같은 몇개의 텍스트 세그먼트는 너무 길어 고유의 키로서 작용하지 못하는 것이 있다. 이런 세그먼트는 그 스토리의 제목과 같은 이름 (자연적인거나 할당된 것)을 갖는다. 이들의 키는 이들 이름으로부터 연산된다.
다른 유형의 세그먼트는 동일한 텍스트를 갖는 것이 있다. 예를 들어, 스토리 제목이 구나 문장일 수 있다. 유사하게, 문자 ("A" 또는 "I") 또는 음소("AX")가 또한 단어일 수 있다. 모호하지 않게 하기 위해서, 텍스트 세그먼트의 키가 그 유형, 예를 들어, "문자_A", 또는 "음소_AX"를 인코드할 수 있다. 다르게는, 다른 유형의 텍스트 세그먼트에 대한 리소스가 개별적으로, 예를 들어 다른 디렉토리에 저장될 수 있다.
이 표현은 대응하는 텍스트의 세그먼트와 리소스를 결합시킴으로써, 사용자를 도울 때 리소스를 더욱 지능적으로 사용할 수 있게 한다. 또한 폐기되는 결합을 없애고 대부분의 유효한 것을 보유하면서 편집을 간단하고 유동성 있게 유지시킨다.
학생 모델(26)은 통상 교습 기능부(22)에 의해 구축되고 교습기(10)를 이용하여 특정 사용자에 대한 역사적 정보를 교습 기능부(22)에 제공한다. 예를 들어, 학생 모델(26)은 사용자가 어려워하는 단어, 사용자가 마스터한 단어, 사용자의 읽기 습관 (예를 들어, 단어의 반복 등)에 대한 정보나, 그 외 교습 기능부(22)를 도울 수 있는 정보를 포함할 수 있다. 학생 모델은 자동적으로 구축될 수 있으며 또한 나이, 국적 등과 같은 선택적인 사용자 입력을 이용할 수 있다.
읽는 작업 (예를 들어, 현재 문장 읽기)이 완료될 때를 결정하는 것은 어려운 일이다. 사용자나 교습기(10)에 대한 전체 결정의 부담을 안기 보다는, 누군가 한명이 이 결정을 행하도록 할 수 있다. 이것은 잘 읽는 사람에게 핸드 프리로 사용할 수 있게 하고 청취자 중심 환경을 제공하는 것 사이에서 타협된 것이다. 교습기(10)는 사용자가 정확하게 순서대로 읽은 것을 들은 단어에 대해 사용자 크레디트를 부여한다. 이 크레디트는 문장을 읽는 시도에 대해 축적된다. 사용자는 문장 내의 모든 중요 단어에 대해 크레디트를 수신하면, 교습기(10)는 다음 문장으로 이동한다. 사용자는 "이동" 버튼을 눌러 먼저 이동할 수도 있다.
언제 중간 개재할지를 결정하는 것은, 사용자가 도움을 요청하지 않을 때, 또 다른 여러운 문제가 있다. 오픈 마이크로폰을 사용하는 스피치 시스템은 발성의 종료시 무음의 기간을 회화 순서의 종료로 해석한다. 구두 읽기 교습 작업시에는, 일기 시도 중간시 몇 초간의 중지는 일반적이다. 따라서, 구술 언어계에서 교대하는 행동에 대한 표준적인 가정은 이 작업에 적용되지 않는다. 부가하여, 교습기(10)가 연속적으로 두 번 중간 개재하는 데에 적당한 때, 예를 들어 학생이 단어를 힘겨워하거나 다음에 무엇을 해야 할지 확실하지 않을 때가 있다. 중간 개재하기 전의 무음 동안 대기하는 적당한 시간 길이는 학생, 텍스트의 난이도, 및 학생과 교습기(10)에 의해 취해진 마지막 작동을 포함하여 몇가지 요인에 따라서 달라질 수 있다.
교습기가 교대되게 하는 몇가지 기구가 제안되고 있다. 동적 제한 만족, 다이얼로그 스크립트, 및 선형 결합된 특성 벡터를 포함한다. 한가지 제안 방법은 회화를 청취하고 그 룰이 파기되면 "mm"이 삽입되는 컴퓨터화 "도청기"에서의 백채널링을 트리거하도록 운율법을 사용하는 것이다. 우리는 백채널링 룰에의 접근법과 유사하지만 완성된 구술 언어계의 교대 행동을 조절하는 교대 룰을 사용한다. 교습기(10)의 구조를 예시하고, 구두 읽기 교습의 영역에 적용하도록 교대 룰을 채용한다. 이들 교대 룰은 다음과 같이 동작된다. 검출된 사용자 동작에 기초한 이벤트 생성을 제외하고, 교습 기능부(22)는 교습기(10)와 사용자와의 상호 작용에서 검출된 패턴에 기초하여, 그 자신의 이벤트를 자발적으로 생성한다. 예를 들어, 교습 기능부(22)는 그 사용자의 순서 후 무음 기간에 기초하여 교대 시간인 것을 결정한다. 교습 기능부 이벤트가 일단 생성되면, 교습 기능부(22)는 "mm-hmm"을 말하고, 한 단어를 읽거나, 문장을 읽는 것과 같은 특정 행동을 선택하여 발생한 이벤트에 응답한다.
교습기(10)는 7개의 교대 룰을 사용한다:
°사용자의 순서가 매우 길다면 사용자를 중단시킨다.
°사용자가 중복되면 자기-중단(스피치 중지)한다.
°사용자가 중단하면 백채널링한다.
° 사용자가 계속 중단하면 "미니 교대"한다.
°사용자가 여전히 계속 중단하면 교대한다.
°사용자 순서의 종료를 들으면 교대한다.
°잠시 동안 아무것도 발생하지 않으면 사용자에게 프롬프트한다.
미니 교대는 사용자에게 이야기 주도권을 남기는 교대이고; 이것은 내용을 공급하지만 사용자가 계속하도록 하는 것이다. 예를 들어, 사용자가 어려운 단어에서 망설이고 있으면, 교습기(10)는 그 단어를 사용자에 "언스틱"하도록 공급할 수 있다.
이 도메인에서, 교습 기능부(22)는 (a) 교습 기능부(22)가 사용자가 하나의 단어를 읽을 것을 기대하고 있으며, 스피치 인식기가 사용자가 오직 그 단어만을 읽는 것을 들을 때, 또는 (b) 스피치 인식기가 현재의 문장의 종료(EOS)를 들을 때, (무음에 기초하는 것을 제외하고) 사용자의 순서의 종료를 인식할 수 있다. 스피치 인식기가 100% 미만의 정확도이기 때문에, EOS의 테스트는 EOS를 영구적으로 검출함에 따라 사용자를 중단시키는 것과 EOS를 검출하지 못함에 따라 딜레이를 초래하는 것을 상충시킨다.
상술된 룰은 적당한 교대 상태에 들어갈 때 즉시 파기되지 않는다. 대신에, 각 룰은 교대 상태가 룰이 파기되기 전에 적당한 상태에 얼마나 오래 남겨져야 하는지를 나타내는 것과 관련된 딜레이를 갖는다. 이 딜레이는 적당한 이벤트 타이머(들)와 비교된다. 예를 들어, 백채널링의 룰은 백채널링 딜레이를 대드 에어 타이머와 사용자 동작 타이머와 비교한다. 교육학으로부터 선생님의 질문과 선생님이 해주는 응답 사이에 삼 초 이상의 지연이 학생의 학습력을 증진시킨다는 결과를 나타내고 있기 때문에, 우리는 타이밍 파라미터 대부분을 삼초 이상으로 설정한다. 이 예외는 교습기의 백채널링이 학생에 의해 교대로서 지각되는 것이 아니기 때문에 백채널링하고 있다. 백채널링의 딜레이는 본래 1.5초로 설정되어 있지만, 이 작업에는 너무 빠른 것으로 보이기 때문에 2초로 연장시킨다. 1.5초에서, 통상의 회화 중단 보다 더 긴 것에도 불구하고, 교습기(10)는 어려운 단어에 대해 분투하고 있는 학생을 중단시킨다. 딜레이를 2초로 증가시키는 것은 교습기(10)를 더욱 허용가능하게 만든다.
이들 룰의 일반성 중 하나는 우리가 풀-듀플렉스(full-duplex) 모드에서 동작하도록 교습기(10)를 확장할 때 하나의 룰(자기 중단)만을 부가하여, 동시에 말하고 듣게 하는 것이다. 그러나, 이들 교대 룰은 가능한 교대 컨텍스트의 공간을 완전히 커버하지 못한다. 예를 들어, 학생의 백채널링을 처리하기 위해 의도적인 교습기의 중지을 발생하기 위한 룰을 부가할 수 있다.
개신된 중간 개재 기구는 몇가지 중요한 특성을 갖는다. 먼저, 사용자 동작을 처리하고 응답을 생성할 때 중요한 요소로서 경과 시간을 사용하기 때문에 시간에 민감하다. 둘째, 언제 응답하는지에 대한 룰이 어떻게 응답하는지에 대한 도메인 특정 의견과 분리되어 있는 점에서 도메인과 독립적이다. 마지막으로, 시스템이 그 행동을 변형시키고 다이얼로그에 대한 그 변형의 효과를 관찰하는 눈에 보이지 않는 실험을 행하게 한다.
도 1에서, 블럭(20), 교습 기능부(22), 학생 모델(26), 및 재생기(28)가 교습기(10)의 교습 소자로서 참조될 수 있다. 교습기(10)는 소프트웨어로 구현될 수 있다. 소프트웨어로 구현될 때, 교습기(10)는 적당한 어느 유형의 메모리 장치로도 실행될 수 있거나, 네트워크에 의해 억세스될 수 있다.
교습기 중재 읽기는 텍스트 생성기와 판독기 사이의 새로운 형태의 통신으로서, 이는 두 개의 이전 형태와 비교하여 잘 이해된다. 종래의 발간시에는, 생성기가 폰트, 공간, 일러스트레이션의 위치, 페이지 브레이크 등과 같은 형태를 포함하여, 텍스트의 외형을 조절한다. 웹 브라우저에서, 판독기는 이들 팩터를 조절할 수 있다. 교습기 중재 읽기에서, 텍스트 제시는 교습기(10)에 의해 동적으로 조절되어 개별의 사용자 특히 예를 들어, 읽기, 발음 또는 암기의 도움을 필요로 하는 사람의 요구를 만족하게 한다. 읽기 교습기와 관련된 한 가지 문제는 종래에 발간된 자료와 비교할 때 내용물의 모자란다는 것이다.
지식 베이스(24)는 교습기(10) 내에 구축된 리소스를 포함한다. 예를 들어, 현 실시예에서, 지식 베이스(24)는 단어 목록, cumdict(카네기 멜론 대학에 컴파일된 발음 사전)으로부터의 발음, 및 기록된 단어와 문장의 콜렉션을 포함한다. 그러나, 지식 베이스(24)는 이하 기술된 저작, 콜렉션, 및 생성 처리에 의해 시간이 감에 따라 확장되게 된다.
본 발명에서, 텍스트와 리소스 형태의 내용물은 몇개의 처리에 의해 몇개의 리소스로부터 입력될 수 있다. 텍스트와 리소스는 선재하는 소스로부터 직접 지식 베이스(24) 내에 수동으로 가지고 온다. 텍스트는 교습기(10) 자체나 외부 어플리케이션에 의해서든지, 자동적으로 선택되거나 생성될 수 있다. 예를 들어, 교습기(10)는 판독자에게 친숙하지 않다고 믿겨지는 선택 단어의 정의를 제시함으로써 스토리를 시작하도록 결정할 수 있다. 또는, 다른 도메인의 교습기와 같은 외부 어플리케이션은 사용자가 읽는 것을 돕기 위해 교습기에게 텍스트를 동적으로 제공할 수 있다.
구술 리소스 (예를 들어, 단어와 문장)가 포획될 수 있는 한 가지 방법을 도 2에서 나타낸다. 단계 30에서, 교습기(10)는 디스플레이에 단어를 계속적으로 증가시킴으로써, 텍스트를 한번에 하나의 문장이나 문장의 일부를 제시한다. 구술 발음이 기록되어 있지 않는 단어가 현재 적색으로 그렇지 않으면 하이라이트되어 특수하게 마크된다. 단계 32에서, 사용자는 나레이트되는 한 단어 (또는 일련의 단어)를 선택하고; 그렇지 않으면 전체 문장 (또는 부분)를 디폴트로 선택한다. 단계 34에서 교습기(10)는 사용자 (저자 또는 학생)가 선택된 단어나 일련의 단어를 읽는 것을 듣고, 사용자가 말한 것을 기록한다.
사용자의 스피치가 텍스트에 대응하는 것을 체크하기 위해서, 교습기(10)는 도 1에서 나타낸 품질 조절 기능부(33)를 사용하여 품질 조절 체크를 행한다. 현재 구현된 바와 같이, 이 체크는 스피치의 출력이 삽입, 삭제 또는 반복 없이 텍스트 단어와 정확히 일치하는지를 검증하는 것으로 이루어진다. 품질 조절 기능부(33)에 기초하여, 기록이 교습기(10)에 허용가능한 지를 결정하기 위한 것이 단계 34에서 행해진다. 기록이 허용가능한 것이면, 단어의 하이라이팅이 단계 36에서 제거된다.
스피치 인식 정확도가 불완전하기 때문에, 읽기 실수를 포함하는 기록이 수용되는 경우가 있다. 품질 조절은 정확한 읽기의 이상 배제의 증가를 희생하여, 스피치 인식기에 의해 출력된 신용 예상치에 대한 드레시홀딩와 같은 수단에 의해 강화될 수 있다. 품질 조절은 기록의 비교적인 품질을 평가하도록 확장될 수 있다. 예를 들어, 읽기 속도 (분당 단어)는 연산되어 미숙함으로 너무 늦거나, 너무 빨라 학생이 함께 따라하기 어려운 읽기을 이용하는 것을 거절하거나 권장하지 않는 데에 사용된다.
품질 조절은 판독자의 신원과 읽기의 환경을 고려할 수 있다. 기록은 저작 모드에서명백하게 또는 정상 교습기 동작 동안 함축적으로 이용될 수 있다. 저작 모드는 선생님, 부모, 또는 그외 신뢰가는 사용자에 대한 것이고, 패스워드로 보호될 수 있다. 저작 모드에서, 교습기(10)에 의해 정확한 것으로 허용되는 단어나 문장은 단계 38에서 사용자에게 반향되고, 이 사용자는 다음에 단계 40에서 허용하거나 거절할 수 있다. 기록이 거절되면, 이 처리는 재기록을 허용하도록 반복될 수 있다. 저작 모드에서 허용된 기록은 정확한 것으로 가정된다. 통상의 교습시, 정확한 것으로 허용된 기록은 반향되지 않고, 덜 신뢰가는 것으로, 즉 반드시 정확할 필요가 없는 것으로 마크된다. 예를 들어, 저작 모드 기록은 "This say..."로 시작할 수 있지만, 통상의 교습 모드 기록은 "See if this say.."로 시작할 수 있다.
도 2의 공정은 적당한 입력 하드웨어(46)가 이용 기능하면 입력되는 비디오나 그 외 유형의 입력을 포획하도록 변형될 수 있다.
일반 포획되면, 텍스트는 도 1의 편집기(42)에 의해 나타낸 바와 같이 편집될 수 있다. 텍스트는 설명된 바와 같이 관련되는 리소스를 가질 수 있다. 그러나, 우리가 사용하는 표현 때문에, 텍스트가 변형되면, 리소스와의 연관이 함축적으로 갱신된다. 따라서, 어느 형태의 명백한 일치 유지 기능도 필요 없기 때문에 어느 텍스트 편집기라도 사용될 수 있다.
몇개의 리소스는 자동 증진 기능부(44)에 의해 자동적으로 생성될 수 있다. 예를 들어, 한 단어가 발음 사전에 있지 않으면, 그 발음은 텍스트-스피치 합성기의 발음 성분에 의해 그 스펠링으로부터 발견법적으로 유추될 수 있다. 유사하게, 사람의 단어 기록을 이용할 수 없으면, 구술 기록은 합성 스피치를 사용하여 그 발음으로부터 생성된다.
다수의 리소스는 임의의 단어를 읽기 위한 힌트로서 유용한 여러 정보의 연산을 돕도록 발음 사전에 대해 연산되는 발견법적 알고리즘으로 생성된다. 몇개의 힌트는 문자, 음소, 음절, 온세트(초기 자음 ) 및 압운, 또는 어근 및 접사이든지, 그 단어를 그의 성분에서 분해하는 것을 포함한다. 다른 힌트는 그 단어를 운이 맞으며, 유사하게 보이며, 동일하게 시작하거나 종료하거나, 동일한 의미를 갖는 다른 단어에 관련시키는 것을 포함한다. 음소 힌트는:
문자-음성 대응을 결정하고;
단어를 음절에서 분해하고;
단어를 온세트와 압운에서 분해하고;
서로 운이 맞는 단어 세트를 구별하고;
유사하게 모이는 단어를 구별하기 위해서
테이블 룩업과 발견법적 알고리즘을 결합하여 연산된다.
어떤 단어가 운이 맞고 도움으로 사용하기가 유용한지를 발견하기 위한 알고리즘은 다음과 같다:
*각 단어에 대해 어떤 세트가 있는지를 말해주는 키를 구축
*사전 내의 단어들을 온세트와 압운으로 분리, 문자와 음소 둘다
CAT/k aa t/
C AT k/ /aa t/
MAT /m /aa t/
*key = AT/aa t/
* 따라서 CAT와 MAT은 서로 동일한 키를 가지며 운이 맞으므로, 교습기에 의해 사용될 수 있다
* 비고. LAUGH와 STAFF는 운이 맞지만 교습기에게는 유용하지 않다.
동일하게 시작하는 단어와, 유사하게 보이지만 다르게 들리는 단어에 대해 유사한 알고리즘이 개발될 수 있다.
도 1에서, 품질 조절 기능부(33), 편집기(42), 및 자동 증진 기능부(44)는 교습기(10)의 저작 성분으로서 참조될 수 있다.
본 발명의 일 장점은 사전으로부터 유추될 수 있으므로, 수동으로 엔코드될 필요가 없다는 것이다. 교습기(10)는 단어가 사전에 첨가될 때, 운이 맞는 단어에 대해 그 지식 베이스(24)를 자동적으로 확장할 수 있는데, 예를 들어 새로운 단어 PRAT /p r aa t/가 CAT및 MAT와 운이 맞는 것으로 결정되게 된다.
본 발명은 그 바람직한 실시예와 관련하여 설명되고 있지만, 당업자라면 여러 변형과 수정이 명백하게 될 것이다. 예를 들어, 다른 표현이 지식 베이스에서 사용될 수 있으며, 텍스트와 리소스 사이의 함축적인 맵핑을 필요로 하는 표현을 사용할 수 있다. 여기에서 명백하게 기술한 것과는 다른 리소스를 사용할 수 있으며, 그 외 지식 베이스를 자동으로 개선하는 기구를 이용할 수 있다. 상기 설명과 다음의 청구범위는 이런 모든 변형을 포괄하는 것이다.

Claims (39)

  1. 컴퓨터 구현 읽기 교습기에 있어서,
    응답을 출력하기 위한 수단(28);
    판독 자료를 포획하여 인식하기 위한 수단(20);
    상기 포획된 판독 자료를 평가하고 상기 응답을 생성하기 위한 수단(22) - 상기 응답은 상기 출력하기 위한 수단에 입력됨 - ; 및
    품질 조절 수단(33)
    을 포함하고,
    상기 포획된 판독 자료를 평가하기 위한 상기 수단(22)은 부가적으로 상기 포획된 판독 자료가 상기 품질 조절 수단(33)에 응답하여 하나의 응답으로서 저장되게 하는 컴퓨터 구현 읽기 교습기.
  2. 컴퓨터 구현 읽기 교습기 및 지식 베이스의 결합물에 있어서,
    지식 베이스(24);
    응답을 출력하기 위한 수단(28);
    판독 자료를 포획하고 인식하기 위한 수단(20);
    상기 포획된 판독 자료를 평가하고 상기 지식 베이스(24) 내의 정보에 기초하여 상기 응답을 생성하기 위한 수단(22) - 상기 응답은 상기 출력하기 위한 수단(28)에 입력됨 - ; 및
    품질 조절 수단(33)
    을 포함하고,
    상기 포획된 판독 자료를 평가하기 위한 상기 수단(22)은 부가적으로 상기 포획된 판독 자료가 상기 품질 조절 수단(33)에 응답하여 하나의 응답으로서 상기 지식 베이스(24)에 저장되게 하는 컴퓨터 구현 읽기 교습기 및 지식 베이스의 결합물.
  3. 제1항에 있어서, 상기 품질 조절 수단(33)은 화자의 특성에 따라 신용 드레시홀드(confidence threshold)를 적용하는 컴퓨터 구현 읽기 교습기.
  4. 제1항에 있어서, 상기 품질 조절 수단(33)은 상기 읽기 교습기가 저작 모드나 교습 모드에 있는지에 기초하여 신용 드레시홀드를 적용하는 컴퓨터 구현 읽기 교습기.
  5. 제1항에 있어서, 상기 품질 조절 수단(33)은 상기 포획된 판독 자료의 읽기 속도를 미리 정해진 읽기 속도와 비교하는 컴퓨터 구현 읽기 교습기.
  6. 제2항에 있어서, 상기 품질 조절 수단(33)은 화자의 특징에 따라 신용 드레시홀드를 적용하는 컴퓨터 구현 읽기 교습기.
  7. 제2항에 있어서, 상기 품질 조절 수단(33)은 상기 읽기 교습기가 저작 모드나 교습 모드에 있는지에 기초하여 신용 드레시홀드를 적용하는 컴퓨터 구현 읽기 교습기.
  8. 제2항에 있어서, 상기 품질 조절 수단(33)은 상기 포획된 판독 자료의 읽기 속도를 미리 정해진 읽기 속도와 비교하는 컴퓨터 구현 읽기 교습기.
  9. 제2항에 있어서, 상기 지식 베이스(24) 내의 정보는 판독 자료의 텍스트를 포함하고, 상기 텍스트 중 적어도 특정의 것은 그 자신의 키와 관련되고, 상기 지식 베이스(24)의 정보는 복수의 리소스(resource)를 부가적으로 포함하고, 상기 리소스는 상기 키에 의해 텍스트와 관련되는 컴퓨터 구현 읽기 교습기.
  10. 읽기 교습기 시스템에 있어서,
    지식 베이스(24);
    판독 자료를 스피치로부터 포획하여 인식하기 위한 제1 회로(20);
    상기 포획된 자료를 상기 판독 자료의 텍스트와 비교하여 상기 비교와 상기 지식 베이스(24) 내의 정보에 기초하여 응답을 생성하기 위한 제2 회로(22);
    상기 응답을 출력하기 위한 제3 회로(28);
    상기 지식 베이스(24)내의 가능한 저장을 위해 상기 포획된 자료를 평가하기 위한 제4 회로(22); 및
    상기 평가에 기초하여 상기 지식 베이스(24) 내에 상기 포획된 자료 중 특정의 것을 저장하기 위한 제5 회로(22)
    를 포함하는 읽기 교습기 시스템.
  11. 제10항에 있어서, 상기 제4 회로(22)는 저작 및 교습 모드 중 하나에 응답하는 읽기 교습기 시스템.
  12. 제10항에 있어서, 상기 지식 베이스(24) 내의 정보는 판독 자료의 텍스트를 포함하고, 상기 텍스트 중 적어도 특정의 것은 그 자신의 키와 관련되고, 상기 지식 베이스(24) 내의 정보는 복수의 리소스를 부가적으로 포함하고, 상기 리소스는 상기 키에 의해 텍스트와 관련되는 읽기 교습기 시스템.
  13. 읽기 교습기 시스템에 있어서,
    프로세서, 메모리 및 출력 장치를 구비한 컴퓨터(12); 및
    상기 컴퓨터(12)와 통신하는 적어도 하나의 입력 장치(14)
    를 포함하고,
    상기 메모리는 순서화된 데이터 세트, 및 상기 프로세서에 의해 실행되는 명령어 세트를 저장하며, 상기 명령어 세트는, 상기 프로세서가
    판독 자료를 스피치로부터 포획하여 인식하는 단계;
    상기 포획된 자료를 상기 판독 자료의 텍스트와 비교하는 단계;
    상기 비교 단계와 지식 베이스(24) 내의 정보에 기초하여 응답을 생성하는 단계;
    상기 응답을 출력하는 단계;
    상기 지식 베이스(24) 내의 가능한 저장을 위해 상기 포획된 자료를 평가하는 단계; 및
    상기 평가 단계에 기초하여 상기 지식 베이스(24)내에 상기 포획된 자료 중 특정의 것을 저장하는 단계
    를 실행하게 하는 읽기 교습기 시스템.
  14. 제13항에 있어서, 상기 지식 베이스(24) 내의 정보는 상기 판독 자료의 텍스트를 포함하고, 상기 텍스트 중 적어도 특정의 것은 그 자신의 키와 관련되고, 상기 지식 베이스 내의 정보는 복수의 리소스를 부가적으로 포함하고, 상기 리소스는 상기 키에 의해 텍스트와 관련되는 읽기 교습기 시스템.
  15. 제14항에 있어서, 상기 메모리는 상기 프로세서에 의해 실행될 때, 상기 프로세서가, 상기 지식 베이스(24)를 확장하는 부가의 단계를 실행하도록 하는 부가의 명령 세트를 저장하는 읽기 교습기 시스템.
  16. 제15항에 있어서, 상기 메모리는 상기 프로세서에 의해 실행될 때,
    텍스트를 상기 지식 베이스(24)에 부가하는 단계와,
    상기 지식 베이스(24)에 리소스를 부가하는 단계
    를 실행함으로써 상기 프로세서가, 상기 지식 베이스(24)를 확장하는 상기 단계를 실행하도록 하는 명령을 저장하는 읽기 교습기 시스템.
  17. 제16항에 있어서, 상기 메모리는 상기 프로세서에 의해 실행될 때, 상기 프로세서가, 상기 부가의 리소스를 키와 관련시키는 상기 부가의 단계를 실행하도록 하는 부가의 명령의 세트를 저장하는 읽기 교습기 시스템.
  18. 제13항에 있어서, 상기 메모리는 상기 프로세서에 의해 실행될 때, 상기 프로세서가, 학생 모델(26)을 생성하는 상기 부가의 단계를 실행하도록 하는 부가의 명령 세트를 저장하는 읽기 교습기 시스템.
  19. 제13항에 있어서, 상기 메모리는 상기 프로세서에 의해 실행될 때, 상기 프로세서가
    구술 발음(spoken pronunciation)이 기록되어 있지 않은 상기 자료 부분을 마킹하는 단계;
    상기 자료의 상기 마킹된 부분 중 특정의 것을 포함하여, 상기 자료의 일부를 선택하는 단계;
    상기 선택된 부분의 구술 발음을 포획하는 단계;
    상기 구술 발음이 상기 선택된 부분과 일치하는 것을 검증하는 단계;
    상기 선택된 부분과 일치하지 않는 상기 구술 발음을 제거하는 단계;
    상기 자료의 상기 마킹된 부분을 언마킹하는 단계; 및
    상기 지식 베이스(24) 내의 상기 선택된 부분과 일치하는 상기 구술 발음을 저장하는 단계
    를 실행함으로써, 상기 포획된 자료를 평가하여 상기 포획된 자료 중 특정의 것을 저장하는 상기 단계를 실행하도록 하는 명령의 세트를 저장하는 읽기 교습기 시스템.
  20. 제19항에 있어서, 상기 메모리는 상기 프로세서에 의해 실행될 때, 상기 프로세서가
    상기 기록된 구술 발음 중 특정의 것을 재생하고;
    상기 재생된 구술 발음의 수용 가능성을 나타내는 응답을 수용하는
    부가의 단계를 실행하도록 하는 부가의 명령의 세트를 저장하는 읽기 교습기 시스템.
  21. 교습 모듈에 있어서,
    판독 자료를 입력 모듈로부터 수신하기 위한 제1 명령어 시퀀스(20);
    상기 판독 자료를 평가하기 위한 제2 명령어 시퀀스(22);
    상기 제2 명령어 시퀀스와 지식 베이스(24)내의 정보에 응답하여 상기 판독 자료에 대한 응답을 생성하기 위한 제3 명령어 시퀀스(22); 및
    미리 정해진 조건이 만족될 때 상기 지식 베이스에 상기 판독 자료를 하나의 응답으로서 자동적으로 부가하는 제4 명령어 시퀀스(22)
    을 포함하는 교습 모듈.
  22. 제21항에 있어서, 학생 모델(26)을 생성하기 위한 제5 명령어 시퀀스(22)를 더 포함하고, 상기 제3 명령어 시퀀스(22)는 상기 학생 모델(26)에 부가적으로 응답하는 교습 모듈.
  23. 제21항에 있어서, 재생기 모듈을 제어하기 위한 제5 명령어 시퀀스(22)를 더 포함하는 교습 모듈.
  24. 제21항에 있어서, 정보가 상기 지식 베이스에 수동적으로 부가되게 하기 위한 제5 명령어 시퀀스(42)를 더 포함하는 교습 모듈.
  25. 프로세서에 의해 실행되는 명령어를 위에 기억하고 있는 컴퓨터 판독가능 매체에 있어서, 상기 명령어는 상기 프로세서가,
    판독 자료를 스피치 신호로부터 포획 및 인식하는 단계;
    상기 포획된 자료를 상기 판독 자료의 텍스트와 비교하는 단계;
    상기 비교 단계와 지식 베이스(24) 내의 정보에 기초하여 응답을 생성하는 단계;
    상기 응답을 출력하는 단계;
    상기 지식 베이스 내의 가능한 저장을 위해 상기 포획된 자료를 평가하는 단계; 및
    상기 평가 단계에 기초하여 상기 지식 베이스(24) 내의 상기 포획된 자료 중 특정의 것을 저장하는 단계
    를 실행하게 하는 컴퓨터 판독가능 매체.
  26. 제25항에 있어서, 상기 프로세서에 의해 실행될 때, 상기 프로세서가 상기 지식 베이스(24)를 확장하는 부가의 단계를 실행하도록 하는 명령을 위에 저장하고 있는 컴퓨터 판독가능 매체.
  27. 제26항에 있어서, 상기 프로세서에 의해 실행될 때, 상기 프로세서가
    상기 지식 베이스(24)에 텍스트를 부가하는 단계; 및
    상기 지식 베이스(24)에 리소스를 부가하는 단계
    를 실행함으로써 상기 지식 베이스(24)를 확장하는 상기 단계를 실행하도록 하는 명령을 저장하고 있는 컴퓨터 판독가능 매체.
  28. 제26항에 있어서, 상기 프로세서에 의해 실행될 때, 상기 프로세서가, 키를 상기 지식 베이스(24)에 저장된 텍스트와 관련시키는 상기 부가의 단계를 실행하도록 하는 부가의 명령을 위에 저장하고 있는 컴퓨터 판독가능 매체.
  29. 제28항에 있어서, 상기 프로세서에 의해 실행될 때, 상기 프로세서가, 상기 부가된 리소스를 키와 관련시키는 상기 부가의 단계를 실행하도록 하는 부가의 명령을 저장하고 있는 컴퓨터 판독가능 매체.
  30. 제25항에 있어서, 상기 프로세서에 의해 실행될 때, 상기 프로세서가, 학생 모델(26)을 생성하는 상기 부가의 단계를 실행하도록 하는 부가의 명령을 저장하고 있는 컴퓨터 판독가능 매체.
  31. 제25항에 있어서, 상기 프로세서에 의해 실행될 때, 상기 프로세서가
    구술 발음이 기록되어 있지 않은 상기 자료의 부분을 마킹하는 단계;
    상기 자료의 상기 마킹된 부분 중 특정의 것을 포함하여, 상기 자료의 일부를 선택하는 단계;
    상기 선택된 부분의 구술 발음을 포획하는 단계;
    상기 구술 발음이 상기 선택된 부분과 일치하는 것을 검증하는 단계;
    상기 선택된 부분과 일치하지 않는 상기 구술 발음을 제거하는 단계;
    상기 자료 중 상기 마킹된 부분을 언마킹하는 단계; 및
    상기 지식 베이스(24) 내의 상기 선택된 부분과 일치하는 상기 구술 발음을 저장하는 단계
    를 실행함으로써, 상기 포획된 자료를 평가하여 상기 포획된 자료 중 특정의 것을 저장하는 상기 단계를 실행하게 하는 명령을 위에 저장하고 있는 컴퓨터 판독가능 매체.
  32. 제31항에 있어서, 상기 프로세서에 의해 실행될 때, 상기 프로세서가
    상기 기록된 구술 발음 중 특정의 것을 재생하고,
    상기 재생된 구술 발음의 수용 가능성을 나타내는 응답을 수용하는
    부가의 단계를 실행하도록 하는 부가의 명령을 저장하고 있는 컴퓨터 판독가능 매체.
  33. 스피치에 응답하는 컴퓨터 구현 방법에 있어서,
    상기 스피치로부터 판독 자료를 포획하는 단계;
    상기 포획된 자료를 인식하는 단계;
    상기 인식된 자료를 상기 판독 자료의 텍스트와 비교하는 단계;
    상기 비교 단계와 지식 베이스 내의 정보에 기초하여 응답을 생성하는 단계;
    상기 응답을 출력하는 단계;
    상기 지식 베이스 내의 저장을 위해 상기 인식된 자료를 평가하는 단계; 및
    상기 평가 단계에 기초하여 상기 지식 베이스 내의 상기 인식된 자료 중 특정의 것을 저장하는 단계
    를 포함하는 컴퓨터 구현 방법.
  34. 제33항에 있어서, 상기 지식 베이스를 확장하는 단계를 더 포함하는 컴퓨터 구현 방법.
  35. 제34항에 있어서, 상기 지식 베이스를 확장하는 상기 단계는:
    상기 지식 베이스에 텍스트를 부가하는 단계; 및
    상기 지식 베이스에 리소스를 부가하는 단계
    를 포함하는 컴퓨터 구현 방법.
  36. 제35항에 있어서, 상기 지식 베이스에 부가된 각 리소스와 키를 관련시키는 단계를 더 포함하는 컴퓨터 구현 방법.
  37. 제33항에 있어서, 학생 모델을 생성하는 단계를 더 포함하고, 상기 응답 생성 단계는 상기 학생 모델에 더 응답하는 컴퓨터 구현 방법.
  38. 제33항에 있어서, 상기 인식 자료를 평가하고 상기 인식 자료 중 특정의 것을 저장하는 상기 단계는:
    구술 발음이 기록되어 있지 않은 상기 자료 부분을 마크하는 단계;
    상기 자료의 상기 마크된 부분 중 특정의 것을 포함하여, 상기 자료의 일부를 선택하는 단계;
    상기 선택된 부분의 구술 발음을 포획하는 단계;
    상기 구술 발음이 상기 선택된 부분과 일치하는 것을 검증하는 단계;
    상기 선택된 부분과 일치하지 않는 상기 구술 발음을 제거하는 단계;
    상기 자료의 상기 마킹된 부분을 언마킹하는 단계; 및
    상기 지식 베이스 내의 상기 선택된 부분과 일치하는 상기 구술 발음을 저장하는 단계
    를 포함하는 컴퓨터 구현 방법.
  39. 제38항에 있어서,
    상기 기록된 구술 발음 중 특정의 것을 재생하는 단계; 및
    상기 재생된 구술 발음의 허용가능성을 나타내는 응답을 수신하는 단계
    를 더 포함하는 컴퓨터 구현 방법.
KR19997011227A 1997-06-02 1998-06-01 읽기 및 발음 교습기 KR20010013236A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US08/863,505 1997-06-02
US08/863,505 US5920838A (en) 1997-06-02 1997-06-02 Reading and pronunciation tutor
PCT/US1998/011088 WO1998055980A1 (en) 1997-06-02 1998-06-01 Reading and pronunciation tutor

Publications (1)

Publication Number Publication Date
KR20010013236A true KR20010013236A (ko) 2001-02-26

Family

ID=25341221

Family Applications (1)

Application Number Title Priority Date Filing Date
KR19997011227A KR20010013236A (ko) 1997-06-02 1998-06-01 읽기 및 발음 교습기

Country Status (9)

Country Link
US (1) US5920838A (ko)
EP (1) EP0986802B1 (ko)
JP (1) JP2002503353A (ko)
KR (1) KR20010013236A (ko)
CN (1) CN1174349C (ko)
AT (1) ATE237173T1 (ko)
BR (1) BR9810420A (ko)
DE (1) DE69813217D1 (ko)
WO (1) WO1998055980A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009035825A2 (en) * 2007-09-11 2009-03-19 Microsoft Corporation Automatic reading tutoring
KR100914609B1 (ko) * 2009-04-29 2009-08-28 김정중 지식 구술기의 구술정보 처리 장치 및 방법

Families Citing this family (120)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6017219A (en) * 1997-06-18 2000-01-25 International Business Machines Corporation System and method for interactive reading and language instruction
US6146147A (en) * 1998-03-13 2000-11-14 Cognitive Concepts, Inc. Interactive sound awareness skills improvement system and method
US7203649B1 (en) * 1998-04-15 2007-04-10 Unisys Corporation Aphasia therapy system
US6338038B1 (en) * 1998-09-02 2002-01-08 International Business Machines Corp. Variable speed audio playback in speech recognition proofreader
US6336089B1 (en) * 1998-09-22 2002-01-01 Michael Everding Interactive digital phonetic captioning program
US6511324B1 (en) 1998-10-07 2003-01-28 Cognitive Concepts, Inc. Phonological awareness, phonological processing, and reading skill training system and method
US6246986B1 (en) * 1998-12-31 2001-06-12 At&T Corp. User barge-in enablement in large vocabulary speech recognition systems
US6224383B1 (en) 1999-03-25 2001-05-01 Planetlingo, Inc. Method and system for computer assisted natural language instruction with distracters
US6299452B1 (en) * 1999-07-09 2001-10-09 Cognitive Concepts, Inc. Diagnostic system and method for phonological awareness, phonological processing, and reading skill testing
US7110945B2 (en) * 1999-07-16 2006-09-19 Dreamations Llc Interactive book
US20020086275A1 (en) * 1999-07-30 2002-07-04 Boney James L. Methods and apparatus for computer training relating to devices using a resource control module
US6514085B2 (en) * 1999-07-30 2003-02-04 Element K Online Llc Methods and apparatus for computer based training relating to devices
US7149690B2 (en) * 1999-09-09 2006-12-12 Lucent Technologies Inc. Method and apparatus for interactive language instruction
US6755657B1 (en) 1999-11-09 2004-06-29 Cognitive Concepts, Inc. Reading and spelling skill diagnosis and training system and method
TW434524B (en) * 1999-12-16 2001-05-16 Mustek Systems Inc Correlative real-time sound teaching method
US7010489B1 (en) * 2000-03-09 2006-03-07 International Business Mahcines Corporation Method for guiding text-to-speech output timing using speech recognition markers
WO2001082264A1 (en) * 2000-04-26 2001-11-01 Jrl Enterprises, Inc. An interactive, computer-aided speech education method and apparatus
US6632094B1 (en) * 2000-11-10 2003-10-14 Readingvillage.Com, Inc. Technique for mentoring pre-readers and early readers
US6876987B2 (en) * 2001-01-30 2005-04-05 Itt Defense, Inc. Automatic confirmation of personal notifications
US7739115B1 (en) 2001-02-15 2010-06-15 West Corporation Script compliance and agent feedback
US7664641B1 (en) 2001-02-15 2010-02-16 West Corporation Script compliance and quality assurance based on speech recognition and duration of interaction
US8180643B1 (en) 2001-02-15 2012-05-15 West Corporation Script compliance using speech recognition and compilation and transmission of voice and text records to clients
US7191133B1 (en) 2001-02-15 2007-03-13 West Corporation Script compliance using speech recognition
US7966187B1 (en) 2001-02-15 2011-06-21 West Corporation Script compliance and quality assurance using speech recognition
US6941269B1 (en) * 2001-02-23 2005-09-06 At&T Corporation Method and system for providing automated audible backchannel responses
US20030023439A1 (en) * 2001-05-02 2003-01-30 Gregory Ciurpita Method and apparatus for automatic recognition of long sequences of spoken digits
KR100940630B1 (ko) * 2001-05-02 2010-02-05 소니 주식회사 로봇 장치와, 문자 인식 장치 및 문자 인식 방법과, 제어프로그램 및 기록 매체
EP1255190A1 (en) * 2001-05-04 2002-11-06 Microsoft Corporation Interface control
US6634887B1 (en) * 2001-06-19 2003-10-21 Carnegie Mellon University Methods and systems for tutoring using a tutorial model with interactive dialog
CA2454571A1 (en) * 2001-07-18 2003-01-30 Wireless Generation, Inc. System and method for real-time observation assessment
US6996528B2 (en) * 2001-08-03 2006-02-07 Matsushita Electric Industrial Co., Ltd. Method for efficient, safe and reliable data entry by voice under adverse conditions
EP1430460A1 (en) * 2001-08-07 2004-06-23 Element K Online LLC Method and system for developing and providing effective training courses
US6953343B2 (en) * 2002-02-06 2005-10-11 Ordinate Corporation Automatic reading system and methods
US8210850B2 (en) 2002-03-07 2012-07-03 Blank Marion S Literacy education system for students with autistic spectrum disorders (ASD)
US20030170596A1 (en) * 2002-03-07 2003-09-11 Blank Marion S. Literacy system
US7001183B2 (en) * 2002-06-10 2006-02-21 Peter Dowrick Diagnostically and audibly responsive computer learning memory game and system provided therefor
US7403967B1 (en) 2002-06-18 2008-07-22 West Corporation Methods, apparatus, and computer readable media for confirmation and verification of shipping address data associated with a transaction
US20060057546A1 (en) * 2002-08-09 2006-03-16 The Academy For Early Childhood Development Products, systems and methods for teaching educational subjects to young children
US6535853B1 (en) * 2002-08-14 2003-03-18 Carmen T. Reitano System and method for dyslexia detection by analyzing spoken and written words
US7752045B2 (en) * 2002-10-07 2010-07-06 Carnegie Mellon University Systems and methods for comparing speech elements
US20040098266A1 (en) * 2002-11-14 2004-05-20 International Business Machines Corporation Personal speech font
US20040254794A1 (en) * 2003-05-08 2004-12-16 Carl Padula Interactive eyes-free and hands-free device
US20040253568A1 (en) * 2003-06-16 2004-12-16 Shaver-Troup Bonnie S. Method of improving reading of a text
US7524191B2 (en) * 2003-09-02 2009-04-28 Rosetta Stone Ltd. System and method for language instruction
US6930759B2 (en) * 2003-09-23 2005-08-16 Eastman Kodak Company Method and apparatus for exposing a latent watermark on film
US20060010378A1 (en) * 2004-07-09 2006-01-12 Nobuyoshi Mori Reader-specific display of text
US9520068B2 (en) * 2004-09-10 2016-12-13 Jtt Holdings, Inc. Sentence level analysis in a reading tutor
US20060069562A1 (en) * 2004-09-10 2006-03-30 Adams Marilyn J Word categories
US7433819B2 (en) * 2004-09-10 2008-10-07 Scientific Learning Corporation Assessing fluency based on elapsed time
US7243068B2 (en) * 2004-09-10 2007-07-10 Soliloquy Learning, Inc. Microphone setup and testing in voice recognition software
WO2006031536A2 (en) * 2004-09-10 2006-03-23 Soliloquy Learning, Inc. Intelligent tutoring feedback
US8109765B2 (en) * 2004-09-10 2012-02-07 Scientific Learning Corporation Intelligent tutoring feedback
US7624013B2 (en) * 2004-09-10 2009-11-24 Scientific Learning Corporation Word competition models in voice recognition
US20060058999A1 (en) * 2004-09-10 2006-03-16 Simon Barker Voice model adaptation
US20060121422A1 (en) * 2004-12-06 2006-06-08 Kaufmann Steve J System and method of providing a virtual foreign language learning community
US8478597B2 (en) * 2005-01-11 2013-07-02 Educational Testing Service Method and system for assessing pronunciation difficulties of non-native speakers
US7527498B2 (en) * 2005-03-22 2009-05-05 Read Naturally Method and apparatus for timing reading
US20060263752A1 (en) * 2005-04-25 2006-11-23 Michele Moore Teaching method for the rapid acquisition of attractive, effective, articulate spoken english skills
US20070055514A1 (en) * 2005-09-08 2007-03-08 Beattie Valerie L Intelligent tutoring feedback
US20090220926A1 (en) * 2005-09-20 2009-09-03 Gadi Rechlis System and Method for Correcting Speech
US20120237906A9 (en) * 2006-03-15 2012-09-20 Glass Andrew B System and Method for Controlling the Presentation of Material and Operation of External Devices
US20070269788A1 (en) * 2006-05-04 2007-11-22 James Flowers E learning platform for preparation for standardized achievement tests
ES2652413T3 (es) * 2006-09-28 2018-02-02 Exxonmobil Upstream Research Company Inversión iterativa de datos a partir de fuentes geofísicas simultáneas
US20080141126A1 (en) * 2006-11-17 2008-06-12 Vincent Lee Johnson Method and system to aid in viewing digital content
US20080140413A1 (en) * 2006-12-07 2008-06-12 Jonathan Travis Millman Synchronization of audio to reading
US20080140412A1 (en) * 2006-12-07 2008-06-12 Jonathan Travis Millman Interactive tutoring
US20080140652A1 (en) * 2006-12-07 2008-06-12 Jonathan Travis Millman Authoring tool
US20080140411A1 (en) * 2006-12-07 2008-06-12 Jonathan Travis Millman Reading
US20080140397A1 (en) * 2006-12-07 2008-06-12 Jonathan Travis Millman Sequencing for location determination
WO2008073850A2 (en) * 2006-12-08 2008-06-19 Sri International Method and apparatus for reading education
US20080160487A1 (en) * 2006-12-29 2008-07-03 Fairfield Language Technologies Modularized computer-aided language learning method and system
US8433576B2 (en) * 2007-01-19 2013-04-30 Microsoft Corporation Automatic reading tutoring with parallel polarized language modeling
US20090011395A1 (en) * 2007-07-03 2009-01-08 Michael Aaron Schmidt System and methods for matching requirements and standards in employment and education-related environments
US8103503B2 (en) * 2007-11-01 2012-01-24 Microsoft Corporation Speech recognition for determining if a user has correctly read a target sentence string
US20100068683A1 (en) * 2008-09-16 2010-03-18 Treasure Bay, Inc. Devices and methods for improving reading skills
US10088976B2 (en) 2009-01-15 2018-10-02 Em Acquisition Corp., Inc. Systems and methods for multiple voice document narration
JP2012516463A (ja) * 2009-01-31 2012-07-19 ドッド、エンダ、パトリック コンピュータ実行方法
US8537638B2 (en) * 2010-02-10 2013-09-17 Exxonmobil Upstream Research Company Methods for subsurface parameter estimation in full wavefield inversion and reverse-time migration
US8223587B2 (en) * 2010-03-29 2012-07-17 Exxonmobil Upstream Research Company Full wavefield inversion using time varying filters
US8694299B2 (en) 2010-05-07 2014-04-08 Exxonmobil Upstream Research Company Artifact reduction in iterative inversion of geophysical data
US8478186B2 (en) 2010-05-10 2013-07-02 King Fahd University Of Petroleum And Minerals Educational system and method for testing memorization
US8392186B2 (en) * 2010-05-18 2013-03-05 K-Nfb Reading Technology, Inc. Audio synchronization for document narration with user-selected playback
US8756042B2 (en) 2010-05-19 2014-06-17 Exxonmobile Upstream Research Company Method and system for checkpointing during simulations
US8888494B2 (en) * 2010-06-28 2014-11-18 Randall Lee THREEWITS Interactive environment for performing arts scripts
US11062615B1 (en) 2011-03-01 2021-07-13 Intelligibility Training LLC Methods and systems for remote language learning in a pandemic-aware world
US10019995B1 (en) 2011-03-01 2018-07-10 Alice J. Stiebel Methods and systems for language learning based on a series of pitch patterns
CN102956125B (zh) * 2011-08-25 2014-10-01 骅钜数位科技有限公司 云端数码语音教学录音系统
EP2823335A4 (en) 2012-03-08 2016-01-13 Exxonmobil Upstream Res Co ORTHOGONAL SOURCE AND RECEIVER CODING
US8682678B2 (en) * 2012-03-14 2014-03-25 International Business Machines Corporation Automatic realtime speech impairment correction
JP6045175B2 (ja) 2012-04-05 2016-12-14 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理方法及び情報処理システム
US9430776B2 (en) 2012-10-25 2016-08-30 Google Inc. Customized E-books
US10317548B2 (en) 2012-11-28 2019-06-11 Exxonmobil Upstream Research Company Reflection seismic data Q tomography
US9009028B2 (en) 2012-12-14 2015-04-14 Google Inc. Custom dictionaries for E-books
US10459117B2 (en) 2013-06-03 2019-10-29 Exxonmobil Upstream Research Company Extended subspace method for cross-talk mitigation in multi-parameter inversion
US9072478B1 (en) * 2013-06-10 2015-07-07 AutismSees LLC System and method for improving presentation skills
US9702998B2 (en) 2013-07-08 2017-07-11 Exxonmobil Upstream Research Company Full-wavefield inversion of primaries and multiples in marine environment
US10036818B2 (en) 2013-09-06 2018-07-31 Exxonmobil Upstream Research Company Accelerating full wavefield inversion with nonstationary point-spread functions
JP6229645B2 (ja) * 2013-11-20 2017-11-15 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理方法、及びそのプログラム
US9910189B2 (en) 2014-04-09 2018-03-06 Exxonmobil Upstream Research Company Method for fast line search in frequency domain FWI
SG11201608175SA (en) 2014-05-09 2016-11-29 Exxonmobil Upstream Res Co Efficient line search methods for multi-parameter full wavefield inversion
US10185046B2 (en) 2014-06-09 2019-01-22 Exxonmobil Upstream Research Company Method for temporal dispersion correction for seismic simulation, RTM and FWI
AU2015280633B2 (en) 2014-06-17 2018-07-19 Exxonmobil Upstream Research Company Fast viscoacoustic and viscoelastic full-wavefield inversion
US10838092B2 (en) 2014-07-24 2020-11-17 Exxonmobil Upstream Research Company Estimating multiple subsurface parameters by cascaded inversion of wavefield components
US10422899B2 (en) 2014-07-30 2019-09-24 Exxonmobil Upstream Research Company Harmonic encoding for FWI
US10386511B2 (en) 2014-10-03 2019-08-20 Exxonmobil Upstream Research Company Seismic survey design using full wavefield inversion
EP3210050A1 (en) 2014-10-20 2017-08-30 Exxonmobil Upstream Research Company Velocity tomography using property scans
US11163092B2 (en) 2014-12-18 2021-11-02 Exxonmobil Upstream Research Company Scalable scheduling of parallel iterative seismic jobs
US10520618B2 (en) 2015-02-04 2019-12-31 ExxohnMobil Upstream Research Company Poynting vector minimal reflection boundary conditions
US10317546B2 (en) 2015-02-13 2019-06-11 Exxonmobil Upstream Research Company Efficient and stable absorbing boundary condition in finite-difference calculations
MX2017007988A (es) 2015-02-17 2017-09-29 Exxonmobil Upstream Res Co Proceso de inversion de campo ondulatorio completo de multifase que genera un conjunto de datos libres de multiples.
CA2985738A1 (en) 2015-06-04 2016-12-08 Exxonmobil Upstream Research Company Method for generating multiple free seismic images
US10838093B2 (en) 2015-07-02 2020-11-17 Exxonmobil Upstream Research Company Krylov-space-based quasi-newton preconditioner for full-wavefield inversion
CN108139499B (zh) 2015-10-02 2020-02-14 埃克森美孚上游研究公司 Q-补偿的全波场反演
MX2018003495A (es) 2015-10-15 2018-06-06 Exxonmobil Upstream Res Co Apilados angulares de dominio de modelo de fwi con conservacion de amplitud.
US10768324B2 (en) 2016-05-19 2020-09-08 Exxonmobil Upstream Research Company Method to predict pore pressure and seal integrity using full wavefield inversion
US11322172B2 (en) 2017-06-01 2022-05-03 Microsoft Technology Licensing, Llc Computer-generated feedback of user speech traits meeting subjective criteria
US11093695B2 (en) 2017-10-18 2021-08-17 Email Whisperer Inc. Systems and methods for providing writing assistance
CN108231090A (zh) * 2018-01-02 2018-06-29 深圳市酷开网络科技有限公司 文本朗读水平评估方法、装置及计算机可读存储介质
US12008921B2 (en) * 2022-04-22 2024-06-11 617 Education Inc. Systems and methods for grapheme-phoneme correspondence learning
FR3139657A1 (fr) * 2022-09-08 2024-03-15 Orange Synthèse vocale intelligente

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4302193A (en) * 1980-01-17 1981-11-24 Haynes Leonard S Reading tutor timer
GB8817705D0 (en) * 1988-07-25 1988-09-01 British Telecomm Optical communications system
US5010495A (en) * 1989-02-02 1991-04-23 American Language Academy Interactive language learning system
US5302132A (en) * 1992-04-01 1994-04-12 Corder Paul R Instructional system and method for improving communication skills
US5393236A (en) * 1992-09-25 1995-02-28 Northeastern University Interactive speech pronunciation apparatus and method
US5428707A (en) * 1992-11-13 1995-06-27 Dragon Systems, Inc. Apparatus and methods for training speech recognition systems and their users and otherwise improving speech recognition performance
US5487671A (en) * 1993-01-21 1996-01-30 Dsp Solutions (International) Computerized system for teaching speech
US5562453A (en) * 1993-02-02 1996-10-08 Wen; Sheree H.-R. Adaptive biofeedback speech tutor toy
KR100309207B1 (ko) * 1993-03-12 2001-12-17 에드워드 이. 데이비스 음성-대화식언어명령방법및장치
US5429513A (en) * 1994-02-10 1995-07-04 Diaz-Plaza; Ruth R. Interactive teaching apparatus and method for teaching graphemes, grapheme names, phonemes, and phonetics
US5511980A (en) * 1994-02-23 1996-04-30 Leapfrog Rbt, L.L.C. Talking phonics interactive learning device
US5540589A (en) * 1994-04-11 1996-07-30 Mitsubishi Electric Information Technology Center Audio interactive tutor
US5697789A (en) * 1994-11-22 1997-12-16 Softrade International, Inc. Method and system for aiding foreign language instruction
US5717828A (en) * 1995-03-15 1998-02-10 Syracuse Language Systems Speech recognition apparatus and method for learning
US5737489A (en) * 1995-09-15 1998-04-07 Lucent Technologies Inc. Discriminative utterance verification for connected digits recognition
US5727950A (en) * 1996-05-22 1998-03-17 Netsage Corporation Agent based instruction system and method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009035825A2 (en) * 2007-09-11 2009-03-19 Microsoft Corporation Automatic reading tutoring
WO2009035825A3 (en) * 2007-09-11 2009-05-28 Microsoft Corp Automatic reading tutoring
KR100914609B1 (ko) * 2009-04-29 2009-08-28 김정중 지식 구술기의 구술정보 처리 장치 및 방법
WO2010126210A1 (ko) * 2009-04-29 2010-11-04 Kim Jeong-Joong 지식 구술기의 구술정보 처리 장치 및 방법

Also Published As

Publication number Publication date
JP2002503353A (ja) 2002-01-29
EP0986802A1 (en) 2000-03-22
CN1174349C (zh) 2004-11-03
US5920838A (en) 1999-07-06
WO1998055980A1 (en) 1998-12-10
ATE237173T1 (de) 2003-04-15
DE69813217D1 (de) 2003-05-15
BR9810420A (pt) 2000-07-25
CN1265767A (zh) 2000-09-06
EP0986802B1 (en) 2003-04-09

Similar Documents

Publication Publication Date Title
KR20010013236A (ko) 읽기 및 발음 교습기
Lems et al. Teaching reading to English language learners: Insights from linguistics
US6305942B1 (en) Method and apparatus for increased language fluency through interactive comprehension, recognition and generation of sounds, words and sentences
US6632094B1 (en) Technique for mentoring pre-readers and early readers
US20060074659A1 (en) Assessing fluency based on elapsed time
US20070055514A1 (en) Intelligent tutoring feedback
US20060069562A1 (en) Word categories
US20040043364A1 (en) Phonological awareness, phonological processing, and reading skill training system and method
US20050255431A1 (en) Interactive language learning system and method
JP2001159865A (ja) 対話型語学指導のための方法および装置
JP2004516497A (ja) 自動言語習得システムおよび方法
US9520068B2 (en) Sentence level analysis in a reading tutor
KR101180287B1 (ko) 외국어 학습장치
Bezuidenhout et al. Children's use of contextual cues to resolve referential ambiguity: An application of relevance theory
KR100238451B1 (ko) 한국어 교육 시스템 및 그 제어방법
WO2006031536A2 (en) Intelligent tutoring feedback
Mäkinen The role of pronunciation in Finnish EFL textbooks and EFL teaching
JP2001337594A (ja) 言語を学習者に習得させる方法、言語学習システムおよび記録媒体
JP2009075526A (ja) 音声合成利用の総合的英語学習システム
Park Teaching Intonation Patterns through Reading Aloud
Brown et al. Perspectives on teaching connected speech to second language speakers
Çekiç The effects of computer assisted pronunciation teaching on the listening comprehension of Intermediate learners
JP2006030561A (ja) 英語リスニング学習装置及びその制御方法
Brown Task-Based Listening: What Every ESL Teacher Needs to Know
O'Neill Sound correspondences in the English-Spanish bilingual lexicon

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
NORF Unpaid initial registration fee