KR20060123718A - 언어 교육 시스템 및 방법 - Google Patents

언어 교육 시스템 및 방법 Download PDF

Info

Publication number
KR20060123718A
KR20060123718A KR1020067004359A KR20067004359A KR20060123718A KR 20060123718 A KR20060123718 A KR 20060123718A KR 1020067004359 A KR1020067004359 A KR 1020067004359A KR 20067004359 A KR20067004359 A KR 20067004359A KR 20060123718 A KR20060123718 A KR 20060123718A
Authority
KR
South Korea
Prior art keywords
description
event
phrase
presented
text
Prior art date
Application number
KR1020067004359A
Other languages
English (en)
Other versions
KR101118927B1 (ko
Inventor
잭 에이. 마르모르스타인
그레고리 에이. 케임
유진 에이치. 스톨츠푸스
듀에인 앰. 사이더
Original Assignee
페어필드 랭귀지 테크놀로지스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 페어필드 랭귀지 테크놀로지스 filed Critical 페어필드 랭귀지 테크놀로지스
Publication of KR20060123718A publication Critical patent/KR20060123718A/ko
Application granted granted Critical
Publication of KR101118927B1 publication Critical patent/KR101118927B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • G09B5/065Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Multimedia (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Machine Translation (AREA)

Abstract

언어 교육 시스템 및 방법은 제공된다. 일실시예에서, 언어 교육 방법은 제 1 시점에 응답하는 이벤트의 제 1 설명 및 제 2 시점에 응답하는 이벤트의 제 2 설명을 프리젠팅하도록 포함되고, 이벤트의 제 1 설명 및 이벤트의 제 2 설명은 공통 언어이다. 이벤트의 제 1 및 제 2 설명들은 오디오 포맷 또는 텍스트 같은 다양한 포맷으로 제공될 수 있다.
언어 교육 시스템, 공통 언어, 나레이션

Description

언어 교육 시스템 및 방법{System and method for language instruction}
본 발명은 일반적으로 외국어 교육에 관한 것이고, 특히 몰입 기술들(immersion techniques)을 사용함으로써 외국어를 가르치기 위한 시스템들 및 방법들에 관한 것이다.
사람의 교육에서 증가하고 있는 중요한 측면은 외국어 학습이다. 다양한 방법론이 외국어들을 가르치기 위하여 존재한다. 보통 교실에서의 기술들은 단어들 및 문법들의 기억, 및 학습자의 모국어에서 외국어로 공통 어구들의 번역 및 그 반대 상황을 포함한다. 예를 들어, 학생에게 외국어의 일련의 단어들 또는 어구들이 제공되고, 학생은 이들 단어들 및 어구들, 및 학생 모국어의 동일한 단어들 및 어구들을 기억하는 것이 요구될 수 있다. 또한, 학생에게 다양한 문법들이 프리젠팅되고 다양한 정황들에서 문법들의 응용이 검사될 수 있다.
비록 외국어가 이런 방식으로 학습될 수 있지만, 이것은 종종 매우 어렵고 시간 소비적이며, 학생에게 상당한 결심을 요구한다. 비록 학생이 이런 방식으로 외국어를 학습할 수 있지만, 그 또는 그녀는 언어의 습득이 제한되고, 보통의 상황들에서 언어의 네이티브 스피커들과 의사 소통이 어려울 수 있다.
몰입 기술들은 외국어의 가르침 및 학습을 개선하기 위하여 개발되었다. 간 단히 말하여, 몰입 기술들은 학생들이 모국어를 배우는 과정을 시스템적으로 반복시킴으로써 외국어에 학생들을 "몰입시키는(immersing)" 것에 관한 것이다. 따라서, 학생들은 대상들, 개념들 및 행동들을 가진 언어 연관 단어들을 스피커들의 말을 청취함으로써 언어를 습득한다. 몰입 기술들은 대부분의 사람이 언어를 말하는 것을 관찰함으로써 모국어를 배우고, 언어에 유창하게 된 후에 문법 등의 학습이 따르는 것을 인지한다. 따라서, 언어 몰입 기술들, 기억 및 문법의 학습은 통상적으로 중요하지 않다.
대부분의 언어 몰입 기술들에서, 학생들의 모국어는 필수적으로 등식으로부터 제거된다. 스피커는 예를 들어 독일어의 "der Hund"가 영어의 "the dog"를 의미하는 것을 배우지 않다. 오히려, 학생은 "der Hund"가 특정 동물과 연관되고 단어와 관련된 대상물 사이의 관계를 배운다. 이것은 언어를 배우기 위한 보다 자연스러운 방식으로 고려되고 종래 교실에서의 기술들보다 효과적인 것으로 믿어진다.
컴퓨터 소프트웨어 프로그램들이 적어도 어느 정도까지, 언어 몰입 기술들을 사용하도록 개발되었다. 이들 프로그램들은 (컴퓨터 스크린 같은) 시각적 디스플레이 및 (스피커 같은) 오디오 컴포넌트 모두를 가진 통상적인 퍼스널 컴퓨터들에 사용된다. 이들 프로그램들은 사용자와 적어도 약간의 대화형식으로 어느 정도의 다중 매체 프리젠테이션을 사용한다. 예를 들어, 상기 프로그램들은 대상이 디스플레이되거나 특정 이벤트의 비디오 영화 필름이 컴퓨터 스크린 상에 프리젠팅되는 정지 화상 또는 비디오 컴포넌트를 제공할 수 있다. 시각적 디스플레이와 관련하여, 외국어는 청각적으로 프리젠팅될 수 있다. 예를 들어, 개의 화상이 스크린상 에 프리젠팅될 때, 독일어 교육 프로그램의 오디오 컴포넌트는 "der Hund"라고 말하는 기록된 네이티브 스피커를 사용자에게 프리젠팅할 수 있다. 또한, 기록된 오디오 메시지의 "대본(script)"은 스크린상에 프리젠팅될 수 있다. 따라서, 컴퓨터 스크린상 텍스트 박스에, 단어들 "der Hund"는 프리젠팅될 수 있다.
통상적으로 상기 시스템들에서, 단지 하나의 외국 단어는 각각의 개념 또는 아이디어에 대하여 프리젠팅된다. 따라서, 예를 들어 단어 "der Hund"의 독일어 유의어는 프리젠팅되지 않는다. 부가적으로, 보다 복잡한 상황은 프리젠팅되고, 그 상황은 단일 시점으로 기술된다. 예를 들어, 공항 방향을 물어보는 개인 및 올바른 방향들을 답해주는 다른 개인을 나타내는 비디오 컴포넌트가 프리젠팅될 수 있다. 들은 하나 이상의 시점으로부터 이벤트의 외국어 설명들을 프리젠팅하지 못한다.이런 상호작용은 제 1 또는 제 2 개인의 시점, 또는 상호작용을 설명하는 제 3 자 나레이터의 시점으로부터 기술될 것이다. 부가적으로, 프로그램은 플레이의 대본과 유사한 2명의 실제 대화를 간단히 프리젠팅할 수 있다. 그러나, 상기 프로그램
또한, 많은 상기 시스템들에서, 외국에서 학생의 모국어로의 번역은 종종 스크린 상에 프리젠팅된다. 따라서, 영어 단어 "the dog"는 독일 단어 "der Hund"가 프리젠팅될 때 컴퓨터 스크린상 다른 텍스트 박스에 제공될 수 있다.
많은 언어 교육 프로그램들은 외국어를 학습하는데 사용자에게 도움을 주기 위하여 사용자와 몇몇 상호작용을 제공한다. 하나의 공통된 기술은 묘사된 대상 또는 이벤트에 관한 특정 질문들 및 대응하는 외국어 설명을 제공하는 것이다. 따 라서, 비디오 컴포넌트는 공항으로의 방향들을 물어보는 것을 포함하는 상호작용을 보여주는 것이 프리젠팅될 수 있다. 질문은 예를 들어 "공항이 좌측인가 우측인가?"에 대한 외국어를 사용자가 이해하게 하도록 사용자에게 프리젠팅될 수 있다. 사용자는 질문을 올바르게 대답한 것에 대하여 포인트들을 받을 수 있다.
모국어 번역이 쉽게 이용될 수 있고, 대상 또는 이벤트의 임의의 외국어 설명들이 부가적인 시점들로부터 묘사되지 않기 때문에, 위에 설명된 프로그램들이 학생들에게 어느 정도 언어 몰입 장점을 제공하지만, 많은 학생들은 "의지(crutch)"로서 모국어 번역을 사용하고 몰입 기술의 완전한 장점을 얻는 데 실패한다.
따라서, 이벤트 또는 대상이 외국어의 이해를 용이하게 하기 위하여 다양한 시점으로부터 설명되는 몰입 기반 언어 교육 시스템 및 방법이 필요하다.
발명의 요약
본 발명은 언어 교육 시스템 및 방법을 제공한다. 일 실시예에서, 언어 교육 방법은 제 1 시점에 응답하는 이벤트의 제 1 설명, 및 제 2 시점에 응답하는 이벤트의 제 2 설명을 프리젠팅하는 것을 포함하도록 제공되고, 이벤트의 제 1 시점 및 이벤트의 제 2 시점은 공통 언어이다. 이벤트의 제 1 및 제 2 설명들은 다양한 포맷으로 제공될 수 있다. 예를 들어, 그들은 제 1 설명의 오디오 기록이 제 2 설명의 오디오 기록을 발생시키도록 오디오 포맷으로 제공될 수 있다. 선택적으로, 제 1 및 제 2 설명들은 예를 들어 컴퓨터 스크린상 텍스트처럼 디스플레이될 수 있다. 또한, 비디오 컴포넌트는 이벤트의 비디오 프리젠테이션을 디스플레이하도록 제공될 수 있다.
다른 실시예에서, 본 발명은 시각적 이벤트 프리젠테이션 영역, 제 1 텍스트 프리젠테이션 영역, 및 제 2 텍스트 프리젠테이션 영역을 포함할 수 있는 설명 프리젠테이션 장치를 제공한다. 시각적 프리젠테이션은 시각적 이벤트 프리젠테이션 영역에서 이벤트의 시각적 프리젠테이션, 제 1 텍스트 프리젠테이션 영역에서 이벤트의 제 1 텍스트 설명 및 제 2 텍스트 프리젠테이션 영역에서 이벤트의 제 2 텍스트 설명을 디스플레이할 수 있다. 이벤트의 제 1 텍스트 설명은 이벤트의 제 1 시점에 응답하고 이벤트의 제 2 텍스트 설명은 이벤트의 제 2 시점에 응답한다. 이벤트의 제 1 텍스트 설명 및 이벤트의 제 2 텍스트 설명 양쪽은 공통 언어이다. 다른 실시예들에서, 부가적인 텍스트 설명들은 제공될 수 있다.
이벤트의 설명이 제공된 시점이 시각적 이벤트 프리젠테이션 영역에 표시된 이벤트의 참가자들 중 한명의 시점일 수 있다. 다른 시점들은 나레이션 시점 또는 대화 시점을 포함할 수 있다.
상세한 설명의 일부에 통합되고 구성하는 첨부 도면들은 본 발명의 바람직한 실시예를 도시하고, 설명과 함께 본 발명의 원리들을 설명하기 위하여 사용한다.
도 1은 본 발명의 실시예에 따른 디스플레이 장치의 대표도.
도 2는 본 발명의 실시예에 따른 다른 디스플레이 장치의 도면.
도 3은 어휘 피쳐가 도시된 본 발명의 일실시예에 따른 다른 디스플레이 장 치의 도면.
도 4는 본 발명의 일실시예에 사용하기에 적당한 컴퓨터 시스템의 블록도.
본 발명의 바람직한 실시예들에 대하여 보다 상세히 참조가 이루어지고, 그 실시예들은 몇몇 도면들에 도시된다. 도면들, 설명 및 실시예들은 본 발명의 범위 또는 실시예들 또는 등가물들을 제한하는 것을 의미하지 않는다.
일반적으로, 하나 이상의 시점들로부터 특정 이벤트의 외국의 설명들을 제공하는 것은 몰입 환경에서 외국어를 학습하기 위한 학생들의 언어 능력을 향상시키는 것이 믿어진다. 위에 설명된 바와 같이, 가장 일반적인 언어 학습 프로그램들을 가지고, 하나의 외국어 텍스트 설명은 사용자에게 프리젠팅되고, 시각적으로 디스플레이되는 특정 이벤트와 연관된다. 이벤트의 하나의 외국어 설명만이 프리젠팅되기 때문에, 만약 사용자가 상기 설명에서 몇몇 단어들을 이해할 수 없다면, 그 또는 그녀는 사용자의 모국어 텍스트 설명의 번역을 다시 분류하여야 한다. 이런 번역 상 믿음은 사용자가 몰입 정황에서 벗어나게 하고, 따라서 몰입 기술과 연관된 장점들을 잃어버린다.
본 발명의 실시예는 적어도 2개의 다른 시점들로부터 이벤트의 설명들을 사용자에게 프리젠팅함으로써 이런 문제를 극복한다. 따라서, 만약 사용자가 제 1 설명에서 특정 단어를 이해하지 못하면, 그 또는 그녀는 그 또는 그녀가 그 설명을 이해할 수 있도록 제 2 설명으로 진행할 수 있다. 예를 들어, 사용자가 이해하지 못하는 단어를 만약 제 1 설명이 포함하면, 제 2 설명은 사용자가 이해하는 단어의 유의어를 포함할 수 있다. 또한, 제 2 설명은 제 1 설명에 몇몇 정황을 제공함으로써 제 1 설명을 사용자가 이해하게 할 수 있다. 이런 방식에서, 사용자는 제 1 절의 모국어 번역보다 오히려 제 2 설명(외국어)에 의존할 것이다. 따라서, 제 2 설명의 이용 가능성은 사용자가 번역을 재분류하기보다 몰입 환경에서 유지될 가능성을 증가시킨다.
그 또는 그녀가 어려운 부분을 만나면 사용자가 몰입 정황에 유지될 가능성을 증가시키는 것 외에, 하나 이상의 시점으로부터 설명의 사용은 사용자의 전체 언어 이해를 깊게하기 위하여 사용한다. 예를 들어, 다른 시점들로부터 설명들을 제공하는 것은 사용자가 특정 대상 또는 아이디어에 대한 다양한 유의어를 접하게 한다. 또한 언어 스피커들이 동일하거나 유사한 아이디어들을 얻도록 하는 다양한 방식들을 사용자가 학습할 수 있도록, 사용자가 다양한 구문론 및 문장을 접하게 한다.
다수의 설명들은 사용자가 관용적인 설명들을 인식하게 할 수 있다. 예를 들어, 하나의 절은 "그의 차가 고장났다"를 의미할 수 있다. 사용자는 어구 "고장나다"를 이해할 수 없을 수 있다. 그러나, 제 2 절은 사용자가 이해할 수 있는 "그의 차가 작동하지 못한다"를 말할 수 있다. 따라서, 그 또는 그녀는 "고장나다"가 "작동하지 못함"과 유사하다는 것을 유추할 것이다. 유사하게, 다수의 시점들은 "기타 등등" 및 "기타" 같은 어구의 의미에 대하여 실제로 중요하지 않은 회화 채움문자들(conversational fillers)을 사용자가 구성하게 할 수 있다.
다수의 설명들로 인해, 사용자는 예를 들어 수동태 및 능동태와 같은 다른 태들로 표현된 동일한 아이디어들을 마주할 수 있다. 사용자는 대명사들이 사용되는 여러 방식들, 또는 직접과 간접 화법, 또는 다른 시제의 사용 사이의 차를 알 수 있다.
보다 일반적으로 말하면, 다양한 시점들로부터의 설명들을 제공하는 것은 언의 네이티브 스피커들 사이에서 대화들이 발생하는 방법을 보다 정확하게 반영하는 것으로 믿어진다 - 그들은 다양한 구문론, 유의어들, 및 관용구 표현을 사용한다. 필수적으로 동일한 것을 말하기 위한 다양한 방식들을 학습하는 것은 외국어의 완전한 이해를 얻기 위하여 중요한 것으로 고려된다.
다른 설명들이 본 발명의 사용자에게 프리젠팅되는 방식은 중요하지 않다는 것이 주의된다. 예를 들어, 아래에 설명된 실시예들에서, 다른 설명들은 시각적인 텍스트로서 프리젠팅된다. 그러나, 다른 설명들은 오디오 형태로 단순히 프리젠팅될 수 있다. 또한, 아래에 설명된 실시예들에서, 이벤트를 나타내는 비디오는 설명된다. 그러나, 상기 비디오는 본 발명에 필요하지 않다.
본 발명의 일 실시예는 도 1에 도시된다. 도 1은 본 발명의 일 실시예에 따른 디스플레이 장치(101)를 포함하는 설명 프리젠테이션 장치의 대표도이다. 디스플레이 장치(101)는 언어 몰입 기술을 사용하여 언어를 학습하기를 원하는 사용자에게 프리젠팅될 수 있다. 바람직하게, 디스플레이 장치(101)는 이벤트의 비디오 영화 필름이 사용자에게 디스플레이될 수 있도록 하는 종래 컴퓨터 스크린이다. 그러나, 현재 본 발명은 컴퓨터 또는 "다중 매체(multi-media)" 환경으로 제한되지 않는다. 따라서, 디스플레이 장치(101)는 단순히 종이여서, 아래에 기술된 아이템 들이 책으로 프리젠팅될 수 있다. 명백히, 비디오는 실시예로 프리젠팅되지 않고, 이벤트들의 정지 화상들일 수 있다. 어느 경우나 포함되지만 제한되지 않는 셀방식 전화들, 퍼스널 디지털 어시스턴트들("PDA"들), 텔레비젼들, 게임 콘솔들 등등을 포함하는 본 발명에 의해 고안된 디스플레이들을 허용하는 임의의 다른 매체와 같이 본 발명 내에 속한다.
디스플레이 장치(101)는 다른 아이템들이 디스플레이되는 다수의 영역들을 갖는다. 하나의 상기 영역은 시각적 이벤트 프리젠테이션 영역(102)이다. 시각적 이벤트 프리젠테이션 영역(102)에서, 이벤트의 시각적 표현은 프리젠팅된다. 여기에 사용된 "이벤트"는 임의의 액션 또는 일련의 액션들, 또는 사용자에게 비언어학적으로 프리젠팅될 수 있는 대상, 대상들 등등을 의미하는 것으로 폭넓게 이해된다. 이벤트는 공항에 대한 방향들에 대해 다른 이에게 질문하는 하나의 개인 같은 2명 사이에서의 일련의 상호작용들일 수 있다. 여기에 사용된 바와 같이, "개인(individual)"은 예를 들어 인간이 만화 캐릭터들 같은 가공의 캐릭터들인 것을 포함하는 엔티티를 사용하는 임의의 언어를 포함할 수 있다. 이벤트는 동물, 하나 이상의 개인들 또는 무생물 임의의 대상물의 정지 화상을 포함할 수 있다. 따라서, 시각적 이벤트 프리젠테이션 영역(102)은 상호작용하는 2명의 모션 비디오 영화 필름, 또는 대상의 정지 이미지 같은 이벤트의 시각적 표현을 포함한다.
본 발명이 컴퓨터 환경에서 실행되고 이벤트의 비디오 영화 필름이 시각적 이벤트 프리젠테이션 영역(102)에서 프리젠팅되는 일 실시예에서, 사용자에게는 비디오 영화 필름상에 다양한 제어들이 제공된다. 예를 들어, 사용자는 명세서 측면 에서 당업자에게 명백한 방식으로 버튼(103)을 클릭함으로써 비디오 영화 필름을 되감기할 수 있다. 유사하게, 사용자는 버튼(104)을 클릭함으로써 비디오 영화 필름을 플레이할 수 있고, 버튼(105)을 클릭함으로써 비디오 영화 필름을 멈추고, 버튼(106)을 클릭함으로써 비디오 영화 필름을 빨리 감기할 수 있다. 부가적으로, 사용자는 버튼(107)을 클릭하고 그것을 종래에 알려진 방식으로 영화 필름의 특정 부분에 끌어옴으로써 비디오 영화 필름의 특정 부분으로 진행할 수 있다. 타이머(108)는 비디오 영화 필름 동안 정시에 특정 포인트들을 추적하기 위하여 사용될 수 있다.
시각적 이벤트 프리젠테이션 영역(102)에 프리젠팅될 수 있는 비디오 영화 필름의 특정 실시예는 2명이 공항을 빠져나오는 장면일 수 있다. 이들 개인들은 서로 대화하고, 여기서 하나의 그의 시계를 다른 이에게 보여준다. 상기 개인들은 공항의 수화물 청구 영역으로 걸어가고, 그 백들을 집어들고, 앉는다.
시각적 이벤트 프리젠테이션 영역(102) 외에, 디스플레이 장치(101)는 제 1 텍스트 프리젠테이션 영역(109) 및 제 2 텍스트 프리젠테이션 영역(110)을 가진다. 제 1 텍스트 프리젠테이션 영역(109)에 디스플레이된 것은 특정 시점으로부터 말해지는 시각적 이벤트 프리젠테이션 영역에 도시된 이벤트의 제 1 텍스트 설명(111)이다. 만약 프리젠팅된 이벤트가 공항을 빠져나오는 2명들에 관한 위에 설명된 이벤트이면, 이벤트는 상기 개인들 중 한명의 시점으로부터 설명될 수 있다. 따라서, 제 1 텍스트 설명(111)은 이벤트의 참가들 중 한명의 측면으로부터 상호작용의 설명일 수 있다. 따라서, 제 1 텍스트 프리젠테이션 영역(109)에 제공된 제 1 텍 스트 설명(111)은 다음과 같을 수 있다 :
오우, 드디어, 우리는 집으로 돌아왔다! 그런데 우리의 차편이 어디에 있지? 지금 몇시지, 짐? 5시 30분인가? 우리가 3시간 늦었어! 아마 빌은 왔다 갔을 것이야. 짐은 우리가 수하물 창구에서 그를 찾고 있을 거라고 생각했다. 우리의 비행기 번호가 무엇인지? 옳지. 826번, 어서와, 짐.
우리는 우리 백들을 발견하지만 우리의 친구는 발견하지 못했다. 이것은 우스운 경우이다. 짐은 빌이 우리를 발견하게 우리가 앉아야 한다고 말했다.
유사하게, 제 2 텍스트 프리젠테이션 영역(110)은 이벤트의 제 2 텍스트 설명(112)을 프리젠팅하고, 제 1 텍스트 설명(111)과 다른 시점으로 말했다. 따라서, 예를 들어, 제 2 텍스트 설명은 시각적 이벤트 프리젠테이션 영역에서 묘사되지 않은 나레이터의 시점으로 말했고 다음과 같다 :
케이트와 짐은 그들의 신혼 여행에서 돌아왔다. 그러나 그들은 공항에 3시간 늦게 도착했다. 이미 5:30이다. 그리고 그들의 친구 빌은 그들을 집으로 데려가기 위하여 거기에 있지 않았다. 그들은 수하물 창구 영역에서 그를 찾기로 결정한다. 그것은 비행기 번호를 바로 확인하는 것이다. 그러면 당신이 잘못된 수하물 창구로 가게 하지 않는다.
좋다. 모든 수화물은 거기에 있지만, 빌은 없다. 그들은 만약 그가 돌아오 면 볼 수 있게 앉고자 한다. 당신은 결코 알지 못한다.
제 2 텍스트 설명(112)은 제 1 텍스트 설명(110)(모두 영어로)과 동일 언어이지만 다른 시점으로부터 말했다.
도 1에 도시된 바와 같이 제 1 텍스트 프리젠테이션 영역(109) 및 제 2 텍스트 프리젠테이션 영역(110)은 서로 밀접하게 배치된다. 바람직하게, 이들 영역들에 프리젠팅된 텍스트는 적어도 단락 레벨을 구성한다. 따라서, 도 1에 도시된 바와 같이, 제 1 텍스트 설명(111)의 제 1 절 및 제 2 텍스트 설명(112)의 제 1 절은 실질적으로 동일한 라인에서 시작하고; 유사하게, 각각의 텍스트 설명의 제 2 절은 동일한 라인에서 시작한다.
또한, 도 1에 도시된 실시예에서, 각각의 텍스트 설명의 제 1 절들은 동일한 개념들의 설명들을 포함한다. 따라서, 이 실시예에서, 제 1 텍스트 설명(111)의 제 1 문장은 "오우, 드디어, 우리는 집으로 왔다"를 판독한다. 이 실시예(112)에서 제 2 텍스트 설명의 제 1 문장은 "케이트와 짐은 신혼 여행으로부터 돌아왔다"를 판독한다. 이들 문장들은 다른 시점들로부터 말해진 동일한 의미이다 - 이벤트에 참가하는 개인의 시점으로부터 제 1 시점, 및 제 3 파티 나레이터의 시점으로부터의 제 2 시점.
그러나, 본 발명의 실시예들의 텍스트 설명들이 문장 단위로 대응하는 의미를 가질 필요가 없다는 것은 주의된다. 따라서, 예를 들어, 이들 실시예들의 제 2 문장은 각각 "그러나 우리가 탈것이 어디에 있는가?"(제 1 텍스트 설명 111으로부 터) 및 "그러나 그들이 3시간 늦게 도착했다"(제 2 텍스트 설명 112로부터)를 판독한다. 이들 문장들은 위에 설명된 제 1 문장들의 실시예가 필수적으로 동일한 의미를 표현하는 방식으로 동일한 의미를 표현하지 않는다. 텍스트 설명이 실시예들에서 문장 단위로 대응하는 의미를 가질 필요가 없지만, 그들은 절 단위로 필수적으로 대응하는 아이디어들을 전달한다. 따라서, 전체적으로 텍스트 설명에서 절은 필수적으로 제 2 텍스트 설명에서 대응하는 절과 동일한 의미를 전달한다. 위에 설명된 실시예에서(도 1에 기술된), 각각의 텍스트 설명의 제 1 절들은 개인들이 여행으로부터 늦게 도착했고 그들은 그들을 픽업하기로 한 사람을 발견할 수 없다는 아이디어들을 전달한다.
부가적으로, 도 1에 도시된 디스플레이 장치(101)와 관련하여, 오디오 컴포넌트는 종래 오디오 스피커 상에서 디스플레이되는 기록된 음성처럼 제공될 수 있다. 특히, 제 1 텍스트 프리젠테이션 영역(109)에 프리젠팅된 텍스트를 읽은 개인의 음성은 시각적 이벤트 프리젠테이션 영역(102)에 프리젠팅된 비디오와 관련하여 제공될 수 있다. (선택적으로, 물론 제 1 텍스트 프리젠테이션 영역(109)보다 오히려, 제 2 텍스트 프리젠테이션 영역(110)에 제공된 텍스트가 오디오 형태로 제공될 수 있다). 예를 들어, 제 1 텍스트 프리젠테이션(111)의 제 1 절의 오디오 프리젠테이션은 비디오가 공항에서 나가고 서로 대화하는 두명을 보여줄 때 발생할 수 있다. 비디오 및 오디오는 비디오가 2명의 개인들이 수하물 창구 영역으로 이동하고 그들의 짐들을 검색하는 것을 보여줄 때 제 2 절의 오디오 프리젠테이션이 발생할 수 있도록 동기화될 수 있다. 다른 말로, 본 발명의 실시예들에서, 오디오 및 비디오는 오디오 프리젠테이션에 의해 설명된 이벤트 측면이 비디오에 도시된 이벤트 측면과 대응하도록 동기화된다.
부가적으로, 오디오 컴포넌트에 의해 프리젠팅된 텍스트 설명(111)의 문장은 오디오와 함께 사용자를 돕기 위하여 하이라이트된다(하이라이팅 113 참조).
일 실시예에서, 이벤트의 특정 참가자의 관점으로부터 말해진 텍스트 설명과 연관되는 오디오가 프리젠팅될 때, 오디오는 참가자와 동일한 성별의 사람에 의한 보이스이다. 이것은 사용자가 다양한 음성들의 외국 단어들을 듣게하여, 사용자가 외국의 발음의 그 또는 그녀의 이해를 개선하게 한다.
전체 텍스트 설명이 제 1 텍스트 프리젠테이션 영역(109) 같은 각각의 텍스트 프리젠테이션 영역으로 고정될 수 없는 실시예들에서, 텍스트는 시각적 텍스트가 플레이되는 오디오 부분에 대응하도록 자동으로 "스크롤(scroll)"할 것이다. 실시예들에서, 2개의 텍스트 프리젠테이션 영역들이 적어도 하나의 단락 상에서 단락 레벨에 정렬을 유지하도록, 오디오로 프리젠팅되지 않는 텍스트 프리젠테이션 영역의 텍스트는 유사한 방식으로 스크롤링한다.
또한, 버튼(119)은 제공될 수 있다. 버튼(119)을 클릭함으로써, 사용자는 텍스트를 통하여 텍스트의 특정 부분, 및 대응하는 비디오 및/또는 오디오로 스크롤링하게 할 수 있다. 부가적으로, 사용자는 텍스트 프리젠테이션 영역 내의 텍스트의 목표된 부분을 간단히 클릭함으로써 텍스트(대응하는 비디오 및/또는 오디오를 가짐)의 특정 포인트로 이동할 수 있다.
도 1에 도시된 실시예에서, 위에 설명된 2개의 시점들 외에, 디스플레이 장 치(101)는 다른 시점들로부터 텍스트 설명들을 선택적으로 디스플레이하기 위한 능력을 사용자에게 제공한다. 도 1에 도시된 바와 같이, 제 1 프리젠테이션 영역(109)은 다수의 버튼(114-117)을 가진다. 이들 버튼들 중 하나를 클릭함으로써, 사용자는 제 1 텍스트 프리젠테이션 영역에 특정 시점과 연관된 텍스트를 디스플레이할 수 있다.
버튼(114)을 클릭함으로써, 사용자는 이벤트에 참가한 개인들 중 한명의 시점으로부터 텍스트 설명을 디스플레이할 것이다. 이 텍스트 설명은 상기되고, 텍스트 설명(111)에 도시된다.
버튼(115)을 클릭함으로써, 사용자는 제 1 텍스트 프리젠테이션 영역(109)으로부터 텍스트 설명을 볼 것이다. 이 실시예에서 사용자는 이벤트에 참가한 다른 개인의 시점으로부터 텍스트 설명을 볼 것이다. 따라서, 다음 텍스트 설명은 제 1 프리젠테이션 영역(109)에 나타날 수 있다 :
나는 집에 와서 행복하다. 그러나 빌은 거기에 없었다. 그는 픽업하기로 되어있었다. 그 시간은? 5:30이다. 우리의 비행은 3시간 늦었다. "이봐", 나는 게이트에게 "수화물 창구에서 그를 찾자"고 말했다. 케이트는 "물론"이라고 말했지. "그러나 우선 우리의 비행 번호를 확인해야해". 여기있어 : 826. 수화물 창구 7. 가자.
적어도 우리의 짐은 거기에 있다. 그러나 우리는 여전히 빌을 찾지 못했다. "글쎄", 나는 "우리가 빌을 찾을 수 없으니까, 빌이 우리를 찾도록 하자"라고 케이 트에게 말했다.
제 1 텍스트 설명(111) 및 제 2 텍스트 설명(112)과 유사하게, 이 텍스트 설명은 비디오에 나타난 이벤트의 설명을 제공하고, 적어도 절 단위에서 적어도 제 1 및 제 2 텍스트 설명들(111 및 112)의 일반적인 개념들에 대응한다.
또한, 본 발명의 실시예들에서, 오디오 컴포넌트가 텍스트 설명의 기록을 프리젠팅하는 경우, 제 1 텍스트 프리젠테이션 영역(109)에서 텍스트 설명을 스위칭하는 것은 새로운 텍스트 설명에 대응하도록 오디오 기록을 스위칭하고, 오디오 기록은 이전 오디오 부분이 남겨진 장소에 거의 대응하는 지점에서 설명을 픽업한다. 예를 들어, 도 1에 도시된 실시예에서, 오디오 트랙이 제 1 텍스트 설명(111)의 제 1 절을 완료할 때 만약 사용자가 버튼(115)을 클릭하면, 오디오 트랙은 새로운 텍스트 설명의 제 2 절에서 시작한다(즉, "적어도 우리의 백들은 거기에 있어...").
버튼(116)을 클릭함으로써, 사용자는 이벤트의 다른 텍스트 설명을 여전히 디스플레이할 것이다. 이 텍스트 설명은 "회화(dialogue)" 시점으로부터 바람직하다. 따라서, 여기에 사용된 바와 같이, "회화"는 이벤트의 "설명(description)"의 하나의 타입일 수 있다. 회화 시점은 필수적으로 플레이의 대본과 유사한 이벤트의 참가자들 사이의 직접적인 회화이다. 이 경우, 직접적인 회화 텍스트는 :
케이트(kate): 오우, 집에 오니 좋다(Oh, it's so good to be home)!
짐(Jim): 오우, 정말이야(Oh, it sure is).
케이트: 빌은 픽업을 위하여 여기에 있지 않는데(Bill is not here to pick us up).
짐: 그래, 나는 그를 찾을 수 없어(No, I don't see him).
게이트: 지금 몇시야, 짐(What time is it, Jim)?
짐: 5시 30분이야(Five fifty).
게이트: 5시 30분? 우리는 3시간 늦었어!. 아마도 그는 여기 있다가 떠났을 거야(Fivr fifty? We're three hours late! Maybe he's been here and left).
짐: 이봐, 수화물 창구에서 그를 찾아보자(Hey. Let's look for him at baggage claim).
게이트: 좋아, 하지만 우선 우리의 비행 번호를 검사하고(Sure, But fist check our flight number).
짐: 오우, 맞아, 여기 826번이야. 수하물 창구 7. 가자(Oh, right. Here it is: 826. Baggage claim 7. Let's go).
게이트: 우리의 수화물은 여기에 있지만, 나는 빌을 못찾겠어(Our luggage is all here, but I don't see Bill).
짐: 그럼, 우리가 빌을 못 찾겠으니까, 빌이 우리를 찾게두자(Well, we can't find Bill, so let Bill find us).
다시, 이런 텍스트 설명은 비디오 나타난 이벤트의 설명을 제공하고, 적어도 단락 단위에서, 다른 텍스트 설명들의 일반적인 개념들에 대응한다.
마지막으로, 버튼(117)을 클릭함으로써, 사용자는 제 2 텍스트 설명(112)과 관련하여 위에 설명된 바와 같이, 제 3 파티 나레이터의 시점으로부터 텍스트 설명을 디스플레이할 것이다.
다른 실시예들에서, 다른 시점들로부터의 이벤트들의 다른 설명들은 적당할 수 있다. 예를 들어, 만약 이벤트에 3명의 참가자들이 있다면, 각각의 참가자의 시점으로부터 텍스트 설명은 이용할 수 있다.
또한, 몇몇 실시예들에서 2개 이상의 텍스트 박스들은 주어진 시간에 볼 수 있다. 예를 들어, 도 2에 도시된 실시예에서, 디스플레이 장치(201)는 디스플레이 장치(101)와 유사하게 제공된다. 따라서, 디스플레이 장치(201)는 시각적 이벤트 프리젠테이션 영역(202)을 포함하고 4개의 텍스트 프리젠테이션 영역들(203, 204, 205 및 206)이 제공된다. 따라서, 예를 들어, 사용자는 4개의 다른 시점들로부터 말해진 이벤트의 4개의 텍스트 설명들을 동시에 볼 수 있다.
도 1을 다시 참조하여, 디스플레이 장치(101)에는 질문 프리젠테이션 영역(118)이 제공된다. 다양한 질문들은 이벤트 및 텍스트 및 이벤트의 오디오 설명들의 사용자 이해를 검사하기 위하여 질문 프리젠테이션 영역(110)에서 사용자에게 프리젠팅될 수 있다. 이들 질문들은 다중 선택, 블랭크 채움, 참-거짓, 또는 임의의 다른 적당한 포맷으로 프리젠팅되고, 이것은 사용자가 대답을 입력하게 하고, 대답이 올바른지를 컴퓨터 시스템이 평가하게 한다. 따라서, 대답은 마우스를 사용하여 선택 리스트로부터 단일 선택을 클릭하거나 명세서의 측면에서 당업자에게 명백한 바와 같이 컴퓨터 키보드를 사용함으로써 입력될 수 있다.
일 실시예에서, 적어도 일부 질문들에서 대답을 올바르게 하는 능력은 사용자에게 적어도 2개의 텍스트 설명들을 이해하는 것을 요구한다. 예를 들어, 질문은 참가자들의 다른 이에 의해 취해진 요구에 대해 참가자들 중 한명의 응답을 사용자가 평가하게 요구할 수 있다. 이것은 제 1 참가자의 시점으로부터 말해진 텍스트 설명뿐 아니라 제 2 참가자의 시점으로부터 말해진 텍스트 설명을 이해할 것을 사용자에게 요구할 수 있다.
다른 실시예에서, 디렉토리 또는 어휘 피쳐는 제공될 수 있다. 따라서, 특정 단어들에 대하여, 사용자는 명세서 측면에서 당업자에게 명백한 방식으로 단어를 클릭하고, 상기 단어를 의미하는 다른 설명을 수신할 수 있다. 일 실시예는 도 3에 도시된다. 도 3은 디스플레이 장치(101)와 유사한 디스플레이 장치(301)를 도시한다. 만약 다양한 텍스트 설명들로부터 단어 "시간"을 사용자가 이해할 수 없다면, 그 또는 그녀는 그 단어를 클릭할 수 있고, 텍스트 박스(302)가 그 단어의 추가 설명을 제공하게 나타날 것이다. 일 실시예에서, 이런 설명은 텍스트 설명과 동일한 언어로 제공된다. 상기 설명은 사용자의 모국어로 그 단어를 번역하는 것을 포함할 수 있다.
도 1과 관련하여 위에 설명된 바와 같이, 본 발명의 일 실시예는 이벤트의 비디오뿐 아니라 이벤트의 적어도 2개의 텍스트 바탕 설명들을 디스플레이하기 위한 능력을 가진 디스플레이 장치(101)를 포함한다. 또한, 오디오 컴포넌트는 텍스트 설명들 중 하나를 말하는 언어의 네이티브 스피커의 기록을 제공한다. 따라서, 이 실시예는 시각적 컴포넌트, 텍스트 컴포넌트, 및 오디오 컴포넌트를 가진다. 본 발명의 실시예들에서, 하나 이상의 이들 컴포넌트들은 선택적으로 턴오프된다. 예를 들어, 사용자는 말해진 언어를 간단히 이해할 수 있는 그 또는 그녀의 능력을 검사하기를 원할 수 있다. 따라서, 그 또는 그녀는 텍스트 디스플레이 또는 심지어 비디오를 턴오프할 수 있고, 오디오 컴포넌트로부터 들린 것을 간단히 이해하기 위한 시도를 수행한다. 유사하게, 사용자는 그 또는 그녀의 판독 이해를 검사하고 오디오 및/또는 비디오 부분을 턴오프하기를 원하여, 디스플레이된 텍스트를 남긴다. 마지막으로, 사용자는 외국을 발음하기 위한 그 또는 그녀의 능력을 검사하기를 원하고 오디오 부분을 턴오프하기를 원한다.
따라서, 위에 설명된 바와 같이, 본 발명의 특정 실시예들에서, 이벤트의 설명들은 사용자에게 제 1 시점으로부터 말해진 이벤트의 설명의 오디오 기록이 프리젠팅되도록, 오디오 형태로만 프리젠팅될 수 있다. 사용자에게는 제 2 시점으로부터 말해진 이벤트의 오디오 기록이 프리젠팅될 수 있다. 이런 오디오 프리젠테이션은 이벤트의 비디오 표현의 디스플레이와 관련하여 발생할 수 있지만, 필요하지 않다.
위에 설명된 바와 같이, 본 발명의 일실시예는 컴퓨터 환경에서 수행될 수 있다. 따라서, 예를 들어, 컴퓨터 프로그램 제품은 위에 설명된 기능들을 수행하기 위한 컴퓨터에게 명령하기 위하여 매체 상에 기록된 컴퓨터 논리를 가진 컴퓨터 이용 가능 매체를 포함하도록 제공될 수 있다. 예를 들어, 컴퓨터는 위에 설명된 비디오 영화 필름 및 텍스트 설명들을 디스플레이하도록 명령받을 수 있고, 텍스트 설명들 중 하나와 연관된 오디오를 제공한다.
도 4를 참조하여, 본 발명의 실시예에 사용하기에 적당한 컴퓨터 시스템의 설명은 제공된다. 컴퓨터 시스템(402)은 처리기(404) 같은 하나 이상의 처리기들을 포함한다. 처리기(404)는 통신 버스(406)에 접속된다.
컴퓨터 시스템(402)은 메인 메모리(408), 바람직하게 랜덤 액세스 메모리(ram)를 포함하고, 또한 제 2 메모리(410)를 포함할 수 있다. 제 2 메모리(410)는 예를 들어 하드 디스크 드라이브(412) 및/또는 플로피 디스크 드라이브, 자기 테이프 드라이브, 광학 디스크 드라이브 등을 나타내는 이동 가능한 저장 드라이브(414)를 포함할 수 있다. 이동 가능한 저장 드라이브(414)는 잘 알려진 방식으로 이동 가능한 저장 유닛(418)으로부터 판독하고 및/또는 기록한다. 이동 가능한 저장 유닛(418)은 이동 가능한 저장 드라이브(414)에 의해 판독되고 및/또는 기록된 플로피 디스크, 자기 테이프, 광학 디스크, CD-ROM 등을 나타낸다. 이해될 바와 같이, 이동 가능한 저장 유닛(418)은 그 내부에 저장된 컴퓨터 소프트웨어 및/또는 데이터를 갖는 컴퓨터 이용 가능 저장 매체를 포함한다.
다른 실시예들에서, 제 2 메모리(10)는 컴퓨터 시스템(402)에 로딩될 컴퓨터 프로그램들 또는 다른 명령들을 허용하기 위한 다른 유사한 수단을 포함할 수 있다. 상기 수단은 예를 들어 이동 가능한 저장 유닛(422) 및 인터페이스(420)를 포함할 수 있다. 상기의 예들은 프로그램 카트리지 및 카트리지 인터페이스 (비디오 게임 장치들에서 발견된 바와 같은), 이동 가능한 메모리 칩(EPROM, 또는 PROM 같은) 및 연관된 소켓, 및 이동 가능한 저장 유닛(422)으로부터 컴퓨터 시스템(402)으로 소프트웨어 및 데이터가 전달되게 하는 다른 이동 가능한 저장 유닛들(422) 및 인터페이스들(420)을 포함할 수 있다.
컴퓨터 시스템(402)은 통신 인터페이스(424)를 포함할 수 있다. 통신 인터페이스(424)는 소프트웨어 및 데이터가 컴퓨터 시스템(402) 및 외부 장치들 사이에서 전달되게 한다. 통신 인터페이스(424)의 예들은 모뎀, 네트워크 인터페이스(이더넷 카드 같은), 통신 포트, PCMCIA 슬롯 및 카드 등을 포함할 수 있다. 통신 포트를 통하여 전달된 소프트웨어 및 데이터는 통신 인터페이스(424)에 의해 수신될 수 있는 전자, 전자기, 광학 또는 다른 신호들일 수 있는 신호들(426) 형태일 수 있다. 신호들(426)은 채널(428)을 통하여 통신 인터페이스에 제공된다. 채널(428)은 신호들(426)을 운반하고 유선 또는 케이블, 광섬유, 전화선, 셀방식 전화 링크, RF 링크 및 다른 통신 채널들을 사용하여 실행될 수 있다.
이런 사양에서, 용어 "컴퓨터 판독 가능 저장 매체"는 이동 가능한 저장 장치(418), 하드 디스크 드라이브(412)에 설치된 하드 디스크, 및 신호들(426) 같은 매체를 참조하기 위하여 사용된다. 이들 매체들은 컴퓨터 시스템(402)에 소프트웨어 및 연산 명령들을 제공하기 위한 수단이다.
도 4에 도시된 실시예에서, 컴퓨터 프로그램들(또한 컴퓨터 제어 논리라 불림)은 메인 메모리(408) 및/또는 제 2 메모리(410)에 저장된다. 컴퓨터 프로그램들은 통신 인터페이스(424)를 통하여 수신될 수 있다. 실행될 때 상기 컴퓨터 프로그램들은 컴퓨터 시스템(402)이 여기에 기술된 바와 같은 본 발명의 특징들을 수행하게 한다. 특히, 실행될 때 컴퓨터 프로그램들은 본 발명의 특징들을 처리기(404)가 수행하게 한다. 따라서, 상기 컴퓨터 프로그램들은 컴퓨터 시스템(402)의 제어기들을 나타낸다.
본 발명이 소프트웨어를 사용하여 실행되는 실시예에서, 소프트웨어는 컴퓨터 판독 가능 저장 매체에 저장되고 이동 가능한 저장 드라이브(414), 하드 드라이브(412) 또는 통신 인터페이스(424)를 사용하여 컴퓨터 시스템(402)에 로딩될 수 있다. 처리기(404)에 의해 실행될 때 제어 논리(소프트웨어)는 처리기(404)가 여기에 기술된 바와 같이 본 발명의 기능들을 수행하게 한다.
다른 실시예에서, 본 발명은 예를 들어 애플리케이션 지정 집적 회로들(ASIC) 같은 하드웨어 컴포넌트들을 사용하여 하드웨어에서 우선적으로 실행된다. 여기에 기술된 기능들을 수행하기 위한 상기 하드웨어 상태 머신의 실행은 당업자에게 명백할 것이다. 다른 실시예에서, 본 발명은 하드웨어 및 소프트웨어 모두의 결합을 사용하여 실행된다.
모니터(426)는 또한 통신 버스(406)에 결합된다. 위에 설명된 바와 같이, 본 발명의 실시예들에서, 다양한 아이템들은 디스플레이 장치상에 디스플레이된다. 모니터(426) 같은 종래 컴퓨터 모니터는 디스플레이 장치로서 사용할 수 있다. 따라서, 컴퓨터 프로그램은 처리기가 비디오 영화 필름, 텍스트 설명들 등등을 모니터(426)상에 디스플레이하게 하고, 상기 모니터는 사용자에 의해 시청될 수 있다.
또한, 오디오 장치(428)는 통신 버스(406)에 결합된다. 오디오 장치(428)는 컴퓨터 시스템(402)이 예를 들어 종래 스피커들을 포함하는 오디오 가능한 출력을 제공하게 하는 임의의 장치일 수 있다. 따라서, 상기 컴퓨터 프로그램은 처리기가 적당한 기록된 오디오 트랙을 오디오 장치(428)상에서 플레이하게 한다.
마지막으로, 입력 장치(430)는 통신 버스(406)에 결합된다. 입력 장치(430)는 사용자가 예를 들어 키보드, 마우스, 마이크론폰(예를 들어 음성 인식 소프트웨어와 상호작용함), 스타일러스 등등을 포함하는 컴퓨터 시스템에 정보를 입력하게 하는 임의의 수의 장치들일 수 있다.
비록 본 발명의 특정 실시예들이 여기에 기술되고 도시되지만, 변형들 및 변화들이 당업자에 의해 쉽게 발생하는 것이 인지되고, 결과적으로 청구항들이 상기 변형들 및 등가물들을 포함하는 것으로 해석되는 것이 의도된다.

Claims (86)

  1. 언어 교육 방법로서,
    제 1 시점(perspective)에 응답하는 이벤트의 제 1 설명을 프리젠팅하는 단계; 및
    제 2 시점에 응답하는 상기 이벤트의 제 2 설명을 프리젠팅하는 단계를 포함하고, 상기 이벤트의 제 1 설명 및 상기 이벤트의 제 2 설명은 공통 언어(common language)로 되어있는, 언어 교육 방법.
  2. 제 1 항에 있어서, 상기 이벤트의 시각적 표현을 프리젠팅하는 단계를 더 포함하는, 언어 교육 방법.
  3. 제 2 항에 있어서, 상기 이벤트의 상기 제 1 설명 및 상기 이벤트의 상기 제 2 설명은 오디오 형태로 프리젠팅되는, 언어 교육 방법.
  4. 제 3 항에 있어서, 상기 이벤트의 상기 제 1 설명 및 상기 이벤트의 상기 제 2 설명은 텍스트 형태로 프리젠팅되는, 언어 교육 방법.
  5. 제 1 항에 있어서, 상기 이벤트의 상기 제 1 설명 및 상기 이벤트의 상기 제 2 설명은 오디오 형태로 프리젠팅되는, 언어 교육 방법.
  6. 제 5 항에 있어서, 상기 이벤트의 상기 제 1 설명 및 상기 이벤트의 상기 제 2 설명은 텍스트 형태로 프리젠팅되는, 언어 교육 방법.
  7. 제 6 항에 있어서, 상기 오디오 형태 프리젠테이션은 상기 이벤트의 상기 제 1 설명 또는 상기 이벤트의 상기 제 2 설명의 텍스트 형태 프리젠테이션과 동기화되는, 언어 교육 방법.
  8. 제 1 항에 있어서, 상기 이벤트의 상기 제 1 설명 및 상기 이벤트의 상기 제 2 설명은 텍스트 형태로 프리젠팅되는, 언어 교육 방법.
  9. 제 8 항에 있어서, 상기 이벤트의 상기 제 1 설명 및 상기 이벤트의 상기 제 2 설명은 동시에 프리젠팅되는, 언어 교육 방법.
  10. 제 8 항에 있어서, 상기 이벤트의 상기 제 1 설명 및 상기 이벤트의 상기 제 2 설명은 디스플레이 모니터 상에 프리젠팅되는, 언어 교육 방법.
  11. 제 8 항에 있어서, 상기 이벤트의 상기 제 1 설명은 상기 이벤트의 상기 제 2 설명에 인접하게 프리젠팅되는, 언어 교육 방법.
  12. 제 1 항에 있어서, 상기 이벤트는 제 1 개인 및 제 2 개인을 포함하는 상호작용(interaction)을 포함하는, 언어 교육 방법.
  13. 제 12 항에 있어서, 상기 제 1 시점은 상기 제 1 개인의 시점에 응답하고, 상기 제 2 시점은 상기 제 2 개인의 시점에 응답하는, 언어 교육 방법.
  14. 제 13 항에 있어서, 제 3 시점에 응답하는 상기 이벤트의 제 3 설명을 프리젠팅하는 단계를 더 포함하는, 언어 교육 방법.
  15. 제 14 항에 있어서, 상기 이벤트의 상기 제 3 설명은 상기 이벤트의 나레이션(narration)을 포함하는, 언어 교육 방법.
  16. 제 14 항에 있어서, 상기 이벤트의 상기 제 3 설명은 상기 제 1 및 제 2 개인 사이의 대화를 포함하는, 언어 교육 방법.
  17. 제 14 항에 있어서, 제 4 시점에 응답하는 상기 이벤트의 제 4 설명을 프리젠팅하는 단계를 더 포함하는, 언어 교육 방법.
  18. 제 17 항에 있어서, 상기 제 3 설명은 상기 이벤트의 나레이션을 포함하고; 상기 이벤트의 상기 제 4 설명은 상기 제 1 및 제 2 개인 사이의 대화를 포함하는, 언어 교육 방법.
  19. 제 1 항에 있어서, 상기 제 1 설명은 제 1 단어(word)를 포함하고, 상기 제 2 설명은 제 2 단어를 포함하고, 상기 제 1 단어는 상기 제 2 단어와 유의어인, 언어 교육 방법.
  20. 제 1 항에 있어서, 상기 제 1 설명은 제 1 어구(phrase)이고, 상기 제 2 설명은 제 2 어구이고, 상기 제 1 어구는 능동태이고 상기 제 2 어구는 수동태인, 언어 교육 방법.
  21. 제 1 항에 있어서, 상기 제 1 설명은 제 1 어구를 포함하고, 상기 제 2 설명은 제 2 어구를 포함하고, 상기 제 1 어구는 제 1 시제(tense)이고 상기 제 2 어구는 제 2 시제인, 언어 교육 방법.
  22. 제 1 항에 있어서, 상기 제 1 설명은 제 1 어구를 포함하고, 상기 제 2 설명은 제 2 어구를 포함하고, 상기 제 1 어구는 상기 제 2 어구와 유의어인, 언어 교육 방법.
  23. 언어 교육 시스템으로서,
    설명 프리젠테이션 장치를 포함하고,
    상기 설명 프리젠테이션 장치는 상기 이벤트의 제 1 설명을 프리젠팅하고,
    상기 설명 프리젠테이션 장치는 상기 이벤트의 제 2 설명을 프리젠팅하고,
    상기 이벤트의 상기 제 1 설명은 상기 이벤트의 제 1 시점에 응답하고 상기 이벤트의 상기 제 2 설명은 이벤트의 제 2 시점에 응답하고,
    상기 이벤트의 상기 제 1 설명 및 상기 이벤트의 상기 제 2 설명 모두는 공통 언어로 되어있는, 언어 교육 시스템.
  24. 제 23 항에 있어서, 상기 설명 프리젠테이션 장치는 시각적 이벤트 프리젠테이션 영역을 더 포함하고, 상기 이벤트의 시각적 프리젠테이션은 상기 시각적 이벤트 프리젠테이션 영역에 디스플레이되는, 언어 교육 시스템.
  25. 제 24 항에 있어서, 상기 설명 프리젠테이션 장치는 제 1 텍스트 설명 프리젠테이션 영역 및 제 2 텍스트 설명 프리젠테이션 영역을 더 포함하고, 상기 이벤트의 상기 제 1 설명은 제 1 텍스트 설명으로서 상기 제 1 텍스트 설명 프리젠테이션 영역에 프리젠팅되고, 상기 이벤트의 상기 제 2 설명은 제 2 텍스트 설명으로서 상기 제 2 텍스트 프리젠테이션 영역에 프리젠팅되는, 언어 교육 시스템.
  26. 제 25 항에 있어서, 오디오 컴포넌트를 더 포함하고, 상기 오디오 컴포넌트는 상기 제 1 또는 제 2 설명의 오디오 프리젠테이션을 프리젠팅하는, 언어 교육 시스템.
  27. 제 23 항에 있어서, 상기 설명 프리젠테이션 장치는 제 1 텍스트 설명 프리젠테이션 영역 및 제 2 텍스트 설명 프리젠테이션 영역을 더 포함하고, 상기 이벤트의 상기 제 1 설명은 제 1 텍스트 설명으로서 상기 제 1 텍스트 설명 프리젠테이션 영역에 프리젠팅되고, 상기 이벤트의 상기 제 2 설명은 제 2 텍스트 설명으로서 상기 제 2 텍스트 프리젠테이션 영역에 프리젠팅되는, 언어 교육 시스템.
  28. 제 27 항에 있어서, 오디오 컴포넌트를 더 포함하고, 상기 오디오 컴포넌트는 상기 제 1 또는 제 2 설명의 오디오 프리젠테이션을 프리젠팅하는, 언어 교육 시스템.
  29. 제 23 항에 있어서, 상기 설명 프리젠테이션 장치는 컴퓨터 스크린을 포함하는, 언어 교육 시스템.
  30. 제 27 항에 있어서, 상기 제 1 텍스트 프리젠테이션 영역은 상기 제 2 텍스트 프리젠테이션 영역에 인접한, 언어 교육 시스템.
  31. 제 23 항에 있어서, 상기 이벤트는 제 1 개인 및 제 2 개인을 포함하는 상호작용을 포함하는, 언어 교육 시스템.
  32. 제 31 항에 있어서, 상기 제 1 시점은 상기 제 1 개인의 시점에 응답하고, 상기 제 2 시점은 상기 제 2 개인의 시점에 응답하는, 언어 교육 시스템.
  33. 제 31 항에 있어서, 상기 설명 프리젠테이션 장치는 상기 이벤트의 제 3 설명을 프리젠팅하는, 언어 교육 시스템.
  34. 제 33 항에 있어서, 상기 이벤트의 상기 제 3 설명은 상기 이벤트의 나레이션을 포함하는, 언어 교육 시스템.
  35. 제 33 항에 있어서, 상기 이벤트의 상기 제 3 설명은 상기 제 1 및 제 2 개인 사이의 대화를 포함하는, 언어 교육 시스템.
  36. 제 33 항에 있어서, 상기 설명 프리젠테이션 장치는 상기 이벤트의 제 4 설명을 프리젠팅하는, 언어 교육 시스템.
  37. 제 36 항에 있어서, 상기 이벤트의 상기 제 3 설명은 상기 이벤트의 나레이션을 포함하고, 상기 이벤트의 상기 제 4 설명은 상기 제 1 및 제 2 개인 사이의 대화를 포함하는, 언어 교육 시스템.
  38. 제 23 항에 있어서, 상기 제 1 설명은 제 1 단어를 포함하고, 상기 제 2 설 명은 제 2 단어를 포함하고, 상기 제 1 단어는 상기 제 2 단어와 유의어인, 언어 교육 시스템.
  39. 제 23 항에 있어서, 상기 제 1 설명은 제 1 어구를 포함하고, 제 2 설명은 제 2 어구를 포함하고, 상기 제 1 어구는 능동태이고 상기 제 2 어구는 수동태인, 언어 교육 시스템.
  40. 제 23 항에 있어서, 상기 제 1 설명은 제 1 어구를 포함하고, 상기 제 2 설명은 제 2 어구를 포함하고, 상기 제 1 어구는 제 1 시제이고 제 2 어구는 제 2 시제인, 언어 교육 시스템.
  41. 제 23 항에 있어서, 상기 제 1 설명은 제 1 어구를 포함하고, 상기 제 2 설명은 제 2 어구를 포함하고, 제 1 어구는 제 2 어구와 유의어인, 언어 교육 시스템.
  42. 제 28 항에 있어서, 상기 이벤트의 상기 제 1 텍스트 설명 또는 상기 이벤트의 상기 제 2 텍스트 설명은 상기 오디오 프리젠테이션과 동기화되는, 언어 교육 시스템.
  43. 컴퓨터 프로그램 제품으로서,
    제 1 시점에 응답하는 이벤트의 제 1 설명을 프리젠팅하고,
    제 2 시점에 응답하는 상기 이벤트의 제 2 설명을 프리젠팅하도록 컴퓨터 시스템에게 명령하기 위하여 그 위에 기록된 컴퓨터 프로그램 논리를 가진 컴퓨터 사용 가능 매체를 포함하고,
    상기 이벤트의 상기 제 1 설명 및 상기 이벤트의 상기 제 2 설명은 공통 언어로 되어있는, 컴퓨터 프로그램 제품.
  44. 제 43 항에 있어서, 상기 컴퓨터 시스템은 상기 이벤트의 시각적 표현을 프리젠팅하도록 더 명령을 받는, 컴퓨터 프로그램 제품.
  45. 제 44 항에 있어서, 상기 이벤트의 상기 제 1 설명 및 상기 이벤트의 상기 제 2 설명은 오디오 형태로 프리젠팅되는, 컴퓨터 프로그램 제품.
  46. 제 45 항에 있어서, 상기 이벤트의 상기 제 1 설명 및 상기 이벤트의 상기 제 2 설명은 텍스트 형태로 프리젠팅되는, 컴퓨터 프로그램 제품.
  47. 제 43 항에 있어서, 상기 이벤트의 상기 제 1 설명 및 상기 이벤트의 상기 제 2 설명은 오디오 형태로 프리젠팅되는, 컴퓨터 프로그램 제품.
  48. 제 47 항에 있어서, 상기 이벤트의 상기 제 1 설명 및 상기 이벤트의 상기 제 2 설명은 텍스트 형태로 프리젠팅되는, 컴퓨터 프로그램 제품.
  49. 제 48 항에 있어서, 상기 오디오 형태 프리젠테이션은 상기 이벤트의 상기 제 1 설명 또는 상기 이벤트의 상기 제 2 설명의 텍스트 형태 프리젠테이션과 동기화되는, 컴퓨터 프로그램 제품.
  50. 제 43 항에 있어서, 상기 이벤트의 상기 제 1 설명 및 상기 이벤트의 상기 제 2 설명은 텍스트 형태로 프리젠팅되는, 컴퓨터 프로그램 제품.
  51. 제 50 항에 있어서, 상기 이벤트의 상기 제 1 설명 및 상기 이벤트의 상기 제 2 설명은 동시에 프리젠팅되는, 컴퓨터 프로그램 제품.
  52. 제 50 항에 있어서, 상기 이벤트의 상기 제 1 설명 및 상기 이벤트의 상기 제 2 설명은 디스플레이 모니터상에 프리젠팅되는, 컴퓨터 프로그램 제품.
  53. 제 50 항에 있어서, 상기 이벤트의 상기 제 1 설명은 상기 이벤트의 상기 제 2 설명과 인접하게 프리젠팅되는, 컴퓨터 프로그램 제품.
  54. 제 43 항에 있어서, 상기 이벤트는 제 1 개인 및 제 2 개인을 포함하는 상호작용을 포함하는, 컴퓨터 프로그램 제품.
  55. 제 54 항에 있어서, 상기 제 1 시점은 상기 제 1 개인의 시점에 응답하고, 상기 제 2 시점은 상기 제 2 개인의 시점에 응답하는, 컴퓨터 프로그램 제품.
  56. 제 55 항에 있어서, 상기 컴퓨터 시스템은 제 3 시점에 응답하는 상기 이벤트의 제 3 설명을 프리젠팅하도록 더 교육받는, 컴퓨터 프로그램 제품.
  57. 제 56 항에 있어서, 상기 이벤트의 제 3 설명은 상기 이벤트 나레이션을 포함하는, 컴퓨터 프로그램 제품.
  58. 제 56 항에 있어서, 상기 이벤트의 상기 제 3 설명은 상기 제 1 및 제 2 개인 사이의 대화를 포함하는, 컴퓨터 프로그램 제품.
  59. 제 56 항에 있어서, 상기 컴퓨터 시스템은 제 4 시점에 응답하는 상기 이벤트의 제 4 설명을 프리젠팅하도록 더 명령받는, 컴퓨터 프로그램 제품.
  60. 제 59 항에 있어서, 상기 제 3 설명은 상기 이벤트의 나레이션을 포함하고, 상기 이벤트의 제 4 설명은 상기 제 1 및 제 2 개인 사이의 대화를 포함하는, 컴퓨터 프로그램 제품.
  61. 제 43 항에 있어서, 상기 제 1 설명은 제 1 단어를 포함하고, 상기 제 2 설명은 제 2 단어를 포함하고, 상기 제 1 단어는 상기 제 2 단어와 유의어인, 컴퓨터 프로그램 제품.
  62. 제 43 항에 있어서, 상기 제 1 설명은 제 1 어구를 포함하고, 상기 제 2 설명은 제 2 어구를 포함하고, 상기 제 1 어구는 능동태이고 상기 제 2 어구는 수동태인, 컴퓨터 프로그램 제품.
  63. 제 43 항에 있어서, 상기 제 1 설명은 제 1 어구를 포함하고, 상기 제 2 설명은 제 2 어구를 포함하고, 상기 제 1 어구는 제 1 시제이고 상기 제 2 어구는 제 2 시제인, 컴퓨터 프로그램 제품.
  64. 제 43 항에 있어서, 상기 제 1 설명은 제 1 어구를 포함하고, 상기 제 2 설명은 제 2 어구를 포함하고, 상기 제 1 어구는 상기 제 2 어구와 유의어인, 컴퓨터 프로그램 제품.
  65. 언어 교육을 위한 시스템으로서,
    제 1 시점에 응답하는 이벤트의 제 1 설명을 프리젠팅하기 위한 수단; 및
    제 2 시점에 응답하는 이벤트의 제 2 설명을 프리젠팅하기 위한 수단을 포함하고, 상기 이벤트의 상기 제 1 설명 및 상기 이벤트의 상기 제 2 설명은 공통 언 어로 되어있는, 언어 교육 시스템.
  66. 제 65 항에 있어서, 상기 이벤트의 시각적 표현(visual representation)을 프리젠팅하기 위한 수단을 더 포함하는, 언어 교육 시스템.
  67. 제 66 항에 있어서, 상기 이벤트의 상기 제 1 설명 및 상기 이벤트의 상기 제 2 설명은 오디오 형태로 프리젠팅되는, 언어 교육 시스템.
  68. 제 67 항에 있어서, 상기 이벤트의 상기 제 1 설명 및 상기 이벤트의 상기 제 2 설명은 텍스트 형태로 프리젠팅되는, 언어 교육 시스템.
  69. 제 65 항에 있어서, 상기 이벤트의 상기 제 1 설명 및 상기 이벤트의 상기 제 2 설명은 오디오 형태로 프리젠팅되는, 언어 교육 시스템.
  70. 제 69 항에 있어서, 상기 이벤트의 상기 제 1 설명 및 상기 이벤트의 상기 제 2 설명은 텍스트 형태로 프리젠팅되는, 언어 교육 시스템.
  71. 제 70 항에 있어서, 상기 오디오 형태 프리젠테이션은 상기 이벤트의 상기 제 1 설명 또는 상기 이벤트의 상기 제 2 설명의 텍스트 형태 프리젠테이션과 동기화되는, 언어 교육 시스템.
  72. 제 65 항에 있어서, 상기 이벤트의 상기 제 1 설명 및 상기 이벤트의 상기 제 2 설명은 텍스트 형태로 프리젠팅되는, 언어 교육 시스템.
  73. 제 72 항에 있어서, 상기 이벤트의 상기 제 1 설명 및 상기 이벤트의 상기 제 2 설명은 동시에 프리젠팅되는, 언어 교육 시스템.
  74. 제 72 항에 있어서, 상기 이벤트의 상기 제 1 설명 및 상기 이벤트의 상기 제 2 설명은 디스플레이 모니터상에 프리젠팅되는, 언어 교육 시스템.
  75. 제 72 항에 있어서, 상기 이벤트의 상기 제 1 설명은 상기 이벤트의 상기 제 2 설명에 인접하게 프리젠팅되는, 언어 교육 시스템.
  76. 제 65 항에 있어서, 상기 이벤트는 제 1 개인 및 제 2 개인을 포함하는 상호작용을 포함하는, 언어 교육 시스템.
  77. 제 76 항에 있어서, 상기 제 1 시점은 상기 제 1 개인의 시점에 응답하고, 상기 제 2 시점은 상기 제 2 개인의 시점에 응답하는, 언어 교육 시스템.
  78. 제 77 항에 있어서, 제 3 시점에 응답하는 상기 이벤트의 제 3 설명을 프리 젠팅하기 위한 수단을 더 포함하는, 언어 교육 시스템.
  79. 제 78 항에 있어서, 상기 이벤트의 상기 제 3 설명은 상기 이벤트의 나레이션을 포함하는, 언어 교육 시스템.
  80. 제 78 항에 있어서, 상기 이벤트의 상기 제 3 설명은 상기 제 1 및 제 2 개인 사이의 대화를 포함하는, 언어 교육 시스템.
  81. 제 78 항에 있어서, 제 4 시점에 응답하는 상기 이벤트의 제 4 설명을 프리젠팅하기 위한 수단을 더 포함하는, 언어 교육 시스템.
  82. 제 81 항에 있어서, 상기 제 3 설명은 상기 이벤트의 나레이션을 포함하고, 상기 이벤트의 상기 제 4 설명은 상기 제 1 및 제 2 개인 사이의 대화를 포함하는, 언어 교육 시스템.
  83. 제 65 항에 있어서, 상기 제 1 설명은 제 1 단어를 포함하고, 상기 제 2 설명은 제 2 단어를 포함하고, 상기 제 1 단어는 상기 제 2 단어의 유의어인, 언어 교육 시스템.
  84. 제 65 항에 있어서, 상기 제 1 설명은 제 1 어구를 포함하고, 상기 제 2 설 명은 제 2 어구를 포함하고, 상기 제 1 어구는 능동태이고 상기 제 2 어구는 수동태인, 언어 교육 시스템.
  85. 제 65 항에 있어서, 상기 제 1 설명은 제 1 어구를 포함하고, 상기 제 2 설명은 제 2 어구를 포함하고, 상기 제 1 어구는 제 1 시제이고 상기 제 2 어구는 제 2 시제인, 언어 교육 시스템.
  86. 제 65 항에 있어서, 상기 제 1 설명은 제 1 어구를 포함하고, 상기 제 2 설명은 제 2 어구를 포함하고, 상기 제 1 어구는 상기 제 2 어구와 유의어인, 언어 교육 시스템.
KR1020067004359A 2003-09-02 2006-03-02 언어 교육 시스템 및 방법 KR101118927B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US10/652,620 2003-09-02
US10/652,620 US7524191B2 (en) 2003-09-02 2003-09-02 System and method for language instruction
PCT/US2004/028216 WO2005022487A2 (en) 2003-09-02 2004-08-31 System and method for language instruction

Publications (2)

Publication Number Publication Date
KR20060123718A true KR20060123718A (ko) 2006-12-04
KR101118927B1 KR101118927B1 (ko) 2012-03-09

Family

ID=34217693

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020067004359A KR101118927B1 (ko) 2003-09-02 2006-03-02 언어 교육 시스템 및 방법

Country Status (6)

Country Link
US (1) US7524191B2 (ko)
EP (1) EP1673752A4 (ko)
JP (2) JP2007504496A (ko)
KR (1) KR101118927B1 (ko)
CN (1) CN1842831A (ko)
WO (1) WO2005022487A2 (ko)

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050089828A1 (en) * 2003-10-02 2005-04-28 Ahmad Ayaz Language instruction methodologies
US20050175970A1 (en) * 2004-02-05 2005-08-11 David Dunlap Method and system for interactive teaching and practicing of language listening and speaking skills
US20050181336A1 (en) * 2004-02-17 2005-08-18 Bakalian Kalust C. System and method for learning letters and numbers of a foreign language
US20070269775A1 (en) * 2004-09-14 2007-11-22 Dreams Of Babylon, Inc. Personalized system and method for teaching a foreign language
US8764455B1 (en) 2005-05-09 2014-07-01 Altis Avante Corp. Comprehension instruction system and method
US8568144B2 (en) * 2005-05-09 2013-10-29 Altis Avante Corp. Comprehension instruction system and method
US20060286527A1 (en) * 2005-06-16 2006-12-21 Charles Morel Interactive teaching web application
US20070026375A1 (en) * 2005-08-01 2007-02-01 Dewey Russell H Electronic study aid and practice aid
US20070111169A1 (en) * 2005-08-15 2007-05-17 University Of Southern California Interactive Story Development System with Automated Goal Prioritization
WO2007062529A1 (en) * 2005-11-30 2007-06-07 Linguacomm Enterprises Inc. Interactive language education system and method
US9002258B2 (en) 2006-01-18 2015-04-07 Dongju Chung Adaptable audio instruction system and method
US20070179788A1 (en) * 2006-01-27 2007-08-02 Benco David S Network support for interactive language lessons
US20120237906A9 (en) * 2006-03-15 2012-09-20 Glass Andrew B System and Method for Controlling the Presentation of Material and Operation of External Devices
US20070255570A1 (en) * 2006-04-26 2007-11-01 Annaz Fawaz Y Multi-platform visual pronunciation dictionary
US20080070216A1 (en) * 2006-09-20 2008-03-20 James Becker Book having audio information
US20080160487A1 (en) * 2006-12-29 2008-07-03 Fairfield Language Technologies Modularized computer-aided language learning method and system
TWI338269B (en) * 2007-05-31 2011-03-01 Univ Nat Taiwan Teaching materials generation methods and systems, and machine readable medium thereof
WO2008154542A1 (en) * 2007-06-10 2008-12-18 Asia Esl, Llc Program to intensively teach a second language using advertisements
US20090061398A1 (en) * 2007-08-28 2009-03-05 Gregory Keim Language Teaching Method and Apparatus
US20090197233A1 (en) * 2008-02-06 2009-08-06 Ordinate Corporation Method and System for Test Administration and Management
US20100248194A1 (en) * 2009-03-27 2010-09-30 Adithya Renduchintala Teaching system and method
US20110020774A1 (en) * 2009-07-24 2011-01-27 Echostar Technologies L.L.C. Systems and methods for facilitating foreign language instruction
US20110143323A1 (en) * 2009-12-14 2011-06-16 Cohen Robert A Language training method and system
US20110166862A1 (en) * 2010-01-04 2011-07-07 Eyal Eshed System and method for variable automated response to remote verbal input at a mobile device
US11562013B2 (en) 2010-05-26 2023-01-24 Userzoom Technologies, Inc. Systems and methods for improvements to user experience testing
US20120122066A1 (en) * 2010-11-15 2012-05-17 Age Of Learning, Inc. Online immersive and interactive educational system
US9324240B2 (en) 2010-12-08 2016-04-26 Age Of Learning, Inc. Vertically integrated mobile educational system
KR101182675B1 (ko) * 2010-12-15 2012-09-17 윤충한 장기 기억 자극을 통한 외국어 학습 방법
CN102253792A (zh) * 2011-01-12 2011-11-23 南昊(北京)科技有限公司 多画面交互方法
US11062615B1 (en) 2011-03-01 2021-07-13 Intelligibility Training LLC Methods and systems for remote language learning in a pandemic-aware world
US10019995B1 (en) 2011-03-01 2018-07-10 Alice J. Stiebel Methods and systems for language learning based on a series of pitch patterns
US20140127653A1 (en) * 2011-07-11 2014-05-08 Moshe Link Language-learning system
US8784108B2 (en) * 2011-11-21 2014-07-22 Age Of Learning, Inc. Computer-based language immersion teaching for young learners
US9058751B2 (en) 2011-11-21 2015-06-16 Age Of Learning, Inc. Language phoneme practice engine
US8740620B2 (en) * 2011-11-21 2014-06-03 Age Of Learning, Inc. Language teaching system that facilitates mentor involvement
US9679496B2 (en) * 2011-12-01 2017-06-13 Arkady Zilberman Reverse language resonance systems and methods for foreign language acquisition
KR101193668B1 (ko) * 2011-12-06 2012-12-14 위준성 스마트 기기를 이용한 상황 인식 기반 외국어 습득 및 학습 서비스 제공 방법
US9207834B2 (en) * 2012-06-11 2015-12-08 Edupresent Llc Layered multimedia interactive assessment system
US8761574B2 (en) 2012-10-04 2014-06-24 Sony Corporation Method and system for assisting language learning
WO2014069220A1 (ja) * 2012-10-31 2014-05-08 Necカシオモバイルコミュニケーションズ株式会社 再生装置、設定装置、再生方法およびプログラム
US20140272820A1 (en) * 2013-03-15 2014-09-18 Media Mouth Inc. Language learning environment
JP6623575B2 (ja) * 2015-06-24 2019-12-25 カシオ計算機株式会社 学習支援装置およびプログラム
US11741845B2 (en) * 2018-04-06 2023-08-29 David Merwin Immersive language learning system and method
RU2688292C1 (ru) * 2018-11-08 2019-05-21 Андрей Яковлевич Битюцкий Способ запоминания иностранных слов
CA3129691A1 (en) * 2019-02-11 2020-08-20 Gemiini Educational Systems, Inc. Verbal expression system
US11875698B2 (en) 2022-05-31 2024-01-16 International Business Machines Corporation Language learning through content translation

Family Cites Families (131)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US591A (en) * 1838-02-03 Improved mill for breaking and crumbling lumps of sugar
JPS5754792B2 (ko) * 1974-03-01 1982-11-19
US4067122A (en) * 1975-10-17 1978-01-10 Santiago Julio Fernandez Tutor system
US4128737A (en) 1976-08-16 1978-12-05 Federal Screw Works Voice synthesizer
US4333152A (en) * 1979-02-05 1982-06-01 Best Robert M TV Movies that talk back
US4247995A (en) * 1979-07-09 1981-02-03 Paul Heinberg Language teaching method and apparatus
US4406626A (en) * 1979-07-31 1983-09-27 Anderson Weston A Electronic teaching aid
US4406001A (en) * 1980-08-18 1983-09-20 The Variable Speech Control Company ("Vsc") Time compression/expansion with synchronized individual pitch correction of separate components
US4443199A (en) * 1982-05-18 1984-04-17 Margaret Sakai Method of teaching the pronounciation and spelling and distinguishing between the written and spoken form of any language
FR2546323B1 (fr) 1983-05-20 1985-08-30 Tomatis Alfred Appareil d'entrainement a la pratique d'une langue maternelle ou etrangere, en vue de son assimilation integrale
US4710877A (en) 1985-04-23 1987-12-01 Ahmed Moustafa E Device for the programmed teaching of arabic language and recitations
US4613309A (en) * 1985-09-19 1986-09-23 Mccloskey Emily A Figures of speech
US4884972A (en) 1986-11-26 1989-12-05 Bright Star Technology, Inc. Speech synchronized animation
US5191617A (en) * 1987-04-20 1993-03-02 Intechnica International, Inc. Voice interactive computer system
IL84902A (en) * 1987-12-21 1991-12-15 D S P Group Israel Ltd Digital autocorrelation system for detecting speech in noisy audio signal
US5315689A (en) * 1988-05-27 1994-05-24 Kabushiki Kaisha Toshiba Speech recognition system having word-based and phoneme-based recognition means
US4891011A (en) * 1988-07-13 1990-01-02 Cook Graham D System for assisting the learning of a subject
GB8817705D0 (en) * 1988-07-25 1988-09-01 British Telecomm Optical communications system
US5065345A (en) 1988-11-04 1991-11-12 Dyned International, Inc. Interactive audiovisual control mechanism
US5010495A (en) * 1989-02-02 1991-04-23 American Language Academy Interactive language learning system
JP2797438B2 (ja) 1989-06-02 1998-09-17 ソニー株式会社 集団語学学習装置
JP2990703B2 (ja) * 1989-08-22 1999-12-13 ソニー株式会社 学習装置
US5453014A (en) * 1989-10-20 1995-09-26 Hendriks; Helga M. L. Dynamic language training system
US5203705A (en) * 1989-11-29 1993-04-20 Franklin Electronic Publishers, Incorporated Word spelling and definition educational device
CA2035348C (fr) * 1990-02-08 2000-05-16 Jean-Louis Vignaud Dispositif de fixation orientable de tiges d'osteosynthese rachidienne
JPH04158397A (ja) * 1990-10-22 1992-06-01 A T R Jido Honyaku Denwa Kenkyusho:Kk 声質変換方式
US5170362A (en) 1991-01-15 1992-12-08 Atlantic Richfield Company Redundant system for interactively evaluating the capabilities of multiple test subjects to perform a task utilizing a computerized test system
US5145376A (en) * 1991-03-04 1992-09-08 Krass Jennifer M Teaching aid for foreign language
US5197883A (en) * 1991-11-26 1993-03-30 Johnston Louise D Sound-coded reading
US5275569A (en) * 1992-01-30 1994-01-04 Watkins C Kay Foreign language teaching aid and method
US5486111A (en) * 1992-01-30 1996-01-23 Watkins; C. Kay Foreign language teaching aid and method
US5273433A (en) 1992-02-10 1993-12-28 Marek Kaminski Audio-visual language teaching apparatus and method
US5267865A (en) 1992-02-11 1993-12-07 John R. Lee Interactive computer aided natural learning method and apparatus
US5692906A (en) 1992-04-01 1997-12-02 Corder; Paul R. Method of diagnosing and remediating a deficiency in communications skills
US5302132A (en) * 1992-04-01 1994-04-12 Corder Paul R Instructional system and method for improving communication skills
US5293584A (en) * 1992-05-21 1994-03-08 International Business Machines Corporation Speech recognition system for natural language translation
US5717818A (en) * 1992-08-18 1998-02-10 Hitachi, Ltd. Audio signal storing apparatus having a function for converting speech speed
US5286205A (en) * 1992-09-08 1994-02-15 Inouye Ken K Method for teaching spoken English using mouth position characters
US5393236A (en) * 1992-09-25 1995-02-28 Northeastern University Interactive speech pronunciation apparatus and method
US6311157B1 (en) * 1992-12-31 2001-10-30 Apple Computer, Inc. Assigning meanings to utterances in a speech recognition system
US5487671A (en) * 1993-01-21 1996-01-30 Dsp Solutions (International) Computerized system for teaching speech
US5562453A (en) 1993-02-02 1996-10-08 Wen; Sheree H.-R. Adaptive biofeedback speech tutor toy
FR2702362B3 (fr) * 1993-02-24 1995-04-14 Soprane Sa Fixateur pour les ostéosynthèses du rachis lombo-sacré.
US5531745A (en) * 1993-03-11 1996-07-02 Danek Medical, Inc. System for stabilizing the spine and reducing spondylolisthesis
EP0692135B1 (en) * 1993-03-12 2000-08-16 Sri International Method and apparatus for voice-interactive language instruction
US5421731A (en) * 1993-05-26 1995-06-06 Walker; Susan M. Method for teaching reading and spelling
US5340316A (en) * 1993-05-28 1994-08-23 Panasonic Technologies, Inc. Synthesis-based speech training system
US5557706A (en) * 1993-07-06 1996-09-17 Geist; Jon Flexible pronunciation-practice interface for recorder/player
JP3683909B2 (ja) * 1993-10-08 2005-08-17 ロゴジンスキ,チェーム 脊椎の状態を処置する装置
JP2594130Y2 (ja) * 1993-10-13 1999-04-19 株式会社学習研究社 画像を利用した外国語会話学習書
US5810599A (en) * 1994-01-26 1998-09-22 E-Systems, Inc. Interactive audio-visual foreign language skills maintenance system and method
JPH07219418A (ja) * 1994-01-31 1995-08-18 Tadashi Yamaguchi 携帯用音声発生装置及びその携帯用音声発生装置を利用した音声再生システム
US5822720A (en) 1994-02-16 1998-10-13 Sentius Corporation System amd method for linking streams of multimedia data for reference material for display
US5529496A (en) * 1994-03-28 1996-06-25 Barrett; William Method and device for teaching reading of a foreign language based on chinese characters
US5540589A (en) * 1994-04-11 1996-07-30 Mitsubishi Electric Information Technology Center Audio interactive tutor
JP3005360U (ja) * 1994-06-17 1994-12-20 信子 横山 語学学習テキストブック
US5507746A (en) * 1994-07-27 1996-04-16 Lin; Chih-I Holding and fixing mechanism for orthopedic surgery
US5697789A (en) * 1994-11-22 1997-12-16 Softrade International, Inc. Method and system for aiding foreign language instruction
EP0797822B1 (en) * 1994-12-08 2002-05-22 The Regents of the University of California Method and device for enhancing the recognition of speech among speech-impaired individuals
FR2731344B1 (fr) * 1995-03-06 1997-08-22 Dimso Sa Instrumentation rachidienne notamment pour tige
US5717828A (en) * 1995-03-15 1998-02-10 Syracuse Language Systems Speech recognition apparatus and method for learning
US5562661A (en) * 1995-03-16 1996-10-08 Alphatec Manufacturing Incorporated Top tightening bone fixation apparatus
ES2179102T3 (es) * 1995-05-22 2003-01-16 Synthes Ag Mordaza de sujecion para un dispositivo de contencion para la columna vertebral.
US6109923A (en) * 1995-05-24 2000-08-29 Syracuase Language Systems Method and apparatus for teaching prosodic features of speech
US6164971A (en) * 1995-07-28 2000-12-26 Figart; Grayden T. Historical event reenactment computer systems and methods permitting interactive role players to modify the history outcome
CN1117368C (zh) * 1995-07-31 2003-08-06 三星电子株式会社 向/自光盘再现语言学习信息的方法
US5772446A (en) * 1995-09-19 1998-06-30 Rosen; Leonard J. Interactive learning system
JP3820421B2 (ja) * 1995-10-03 2006-09-13 圭介 高森 学習装置
US5799276A (en) * 1995-11-07 1998-08-25 Accent Incorporated Knowledge-based speech recognition system and methods having frame length computed based upon estimated pitch period of vocalic intervals
US5729694A (en) * 1996-02-06 1998-03-17 The Regents Of The University Of California Speech coding, reconstruction and recognition using acoustics and electromagnetic waves
US5649826A (en) * 1996-03-19 1997-07-22 Sum Total, Inc. Method and device for teaching language
US5727951A (en) * 1996-05-28 1998-03-17 Ho; Chi Fai Relationship-based computer-aided-educational system
US5735693A (en) * 1996-03-29 1998-04-07 Multi Lingua Ltd.. Method and device for learning a foreign language
IL120622A (en) * 1996-04-09 2000-02-17 Raytheon Co System and method for multimodal interactive speech and language training
US5730603A (en) * 1996-05-16 1998-03-24 Interactive Drama, Inc. Audiovisual simulation system and method with dynamic intelligent prompts
US5845238A (en) * 1996-06-18 1998-12-01 Apple Computer, Inc. System and method for using a correspondence table to compress a pronunciation guide
JPH1011447A (ja) * 1996-06-21 1998-01-16 Ibm Japan Ltd パターンに基づく翻訳方法及び翻訳システム
US5766015A (en) * 1996-07-11 1998-06-16 Digispeech (Israel) Ltd. Apparatus for interactive language training
JP2871620B2 (ja) * 1996-09-06 1999-03-17 株式会社ロバート・リード商会 骨固定装置
US5884263A (en) * 1996-09-16 1999-03-16 International Business Machines Corporation Computer note facility for documenting speech training
US5879350A (en) * 1996-09-24 1999-03-09 Sdgi Holdings, Inc. Multi-axial bone screw assembly
US5857173A (en) * 1997-01-30 1999-01-05 Motorola, Inc. Pronunciation measurement device and method
US6632096B1 (en) 1997-05-26 2003-10-14 Haruyuki Sumimoto Method and apparatus for teaching and learning
AU7753998A (en) * 1997-05-28 1998-12-30 Shinar Linguistic Technologies Inc. Translation system
US5920838A (en) * 1997-06-02 1999-07-06 Carnegie Mellon University Reading and pronunciation tutor
US6017219A (en) * 1997-06-18 2000-01-25 International Business Machines Corporation System and method for interactive reading and language instruction
JPH1138863A (ja) * 1997-07-17 1999-02-12 Fuji Xerox Co Ltd 言語情報装置
US6163769A (en) 1997-10-02 2000-12-19 Microsoft Corporation Text-to-speech using clustered context-dependent phoneme-based units
EP0923908B1 (en) * 1997-12-17 2003-04-23 Robert Lange Apparatus for stabilizing certain vertebrae of the spine
US5957699A (en) * 1997-12-22 1999-09-28 Scientific Learning Corporation Remote computer-assisted professionally supervised teaching system
US5995932A (en) 1997-12-31 1999-11-30 Scientific Learning Corporation Feedback modification for accent reduction
USRE38432E1 (en) * 1998-01-29 2004-02-24 Ho Chi Fai Computer-aided group-learning methods and systems
US6134529A (en) 1998-02-09 2000-10-17 Syracuse Language Systems, Inc. Speech recognition apparatus and method for learning
US6517351B2 (en) * 1998-02-18 2003-02-11 Donald Spector Virtual learning environment for children
US6227863B1 (en) * 1998-02-18 2001-05-08 Donald Spector Phonics training computer system for teaching spelling and reading
US6077085A (en) * 1998-05-19 2000-06-20 Intellectual Reserve, Inc. Technology assisted learning
GB2338333B (en) * 1998-06-09 2003-02-26 Aubrey Nunes Computer assisted learning system
US6370498B1 (en) * 1998-06-15 2002-04-09 Maria Ruth Angelica Flores Apparatus and methods for multi-lingual user access
US6305942B1 (en) * 1998-11-12 2001-10-23 Metalearning Systems, Inc. Method and apparatus for increased language fluency through interactive comprehension, recognition and generation of sounds, words and sentences
DE19852896A1 (de) * 1998-11-17 2000-05-18 Alcatel Sa Verfahren zur automatischen Erstellung und Überwachung eines Ablaufplans für einen Lernkurs durch einen Rechner
US6275789B1 (en) * 1998-12-18 2001-08-14 Leo Moser Method and apparatus for performing full bidirectional translation between a source language and a linked alternative language
US6234802B1 (en) * 1999-01-26 2001-05-22 Microsoft Corporation Virtual challenge system and method for teaching a language
US6356865B1 (en) * 1999-01-29 2002-03-12 Sony Corporation Method and apparatus for performing spoken language translation
US6224383B1 (en) * 1999-03-25 2001-05-01 Planetlingo, Inc. Method and system for computer assisted natural language instruction with distracters
US6397185B1 (en) 1999-03-29 2002-05-28 Betteraccent, Llc Language independent suprasegmental pronunciation tutoring system and methods
US6397158B1 (en) * 1999-04-29 2002-05-28 Sun Microsystems, Inc. Method for determining capacitance values for quieting noisy power conductors
US6325630B1 (en) 1999-06-09 2001-12-04 Josef Grabmayr Foreign language learning device and method
US6438515B1 (en) * 1999-06-28 2002-08-20 Richard Henry Dana Crawford Bitextual, bifocal language learning system
US6468084B1 (en) 1999-08-13 2002-10-22 Beacon Literacy, Llc System and method for literacy development
JP2001075957A (ja) * 1999-08-24 2001-03-23 Internatl Business Mach Corp <Ibm> 自然言語構造の表示方法及び装置
US6736642B2 (en) * 1999-08-31 2004-05-18 Indeliq, Inc. Computer enabled training of a user to validate assumptions
US6341958B1 (en) * 1999-11-08 2002-01-29 Arkady G. Zilberman Method and system for acquiring a foreign language
US6302695B1 (en) 1999-11-09 2001-10-16 Minds And Technologies, Inc. Method and apparatus for language training
US20010041328A1 (en) * 2000-05-11 2001-11-15 Fisher Samuel Heyward Foreign language immersion simulation process and apparatus
US6565358B1 (en) * 2000-05-18 2003-05-20 Michel Thomas Language teaching system
JP2001337595A (ja) * 2000-05-25 2001-12-07 Hideo Ando 語学学習支援プログラム及び該プログラムの構成方法
US6741833B2 (en) * 2000-07-21 2004-05-25 Englishtown, Inc. Learning activity platform and method for teaching a foreign language over a network
US6704699B2 (en) * 2000-09-05 2004-03-09 Einat H. Nir Language acquisition aide
US6782356B1 (en) * 2000-10-03 2004-08-24 Hewlett-Packard Development Company, L.P. Hierarchical language chunking translation table
JP2002171348A (ja) * 2000-12-01 2002-06-14 Docomo Mobile Inc 音声情報提供システムおよび方法
US6714911B2 (en) * 2001-01-25 2004-03-30 Harcourt Assessment, Inc. Speech transcription and analysis system and method
US7103534B2 (en) * 2001-03-31 2006-09-05 Microsoft Corporation Machine learning contextual approach to word determination for text input via reduced keypad keys
US20030006969A1 (en) * 2001-05-16 2003-01-09 Barras Bryan L. System for one-touch bible book selection and viewing
JP2003029619A (ja) * 2001-07-11 2003-01-31 Lexpo:Kk 語学練習器
US6729882B2 (en) * 2001-08-09 2004-05-04 Thomas F. Noble Phonetic instructional database computer device for teaching the sound patterns of English
US20030040899A1 (en) * 2001-08-13 2003-02-27 Ogilvie John W.L. Tools and techniques for reader-guided incremental immersion in a foreign language text
JP2003085093A (ja) * 2001-09-07 2003-03-20 Mitsubishi Chemicals Corp 情報公開システム,情報公開装置,情報公開方法,情報公開プログラムおよび情報公開プログラムを記録したコンピュータ読取可能な記録媒体
JP2003150041A (ja) * 2001-11-07 2003-05-21 Inventec Corp ストーリー対話型文法教授システムおよび方法
US20030152904A1 (en) * 2001-11-30 2003-08-14 Doty Thomas R. Network based educational system
JP4032761B2 (ja) * 2002-02-06 2008-01-16 日本電気株式会社 教育サービス提供サーバ、教育用コンテンツ提供方法、及び、プログラム
JP2002229442A (ja) * 2002-04-03 2002-08-14 Akira Saito Dvdビデオによる外国語学習システム

Also Published As

Publication number Publication date
EP1673752A2 (en) 2006-06-28
CN1842831A (zh) 2006-10-04
WO2005022487A3 (en) 2005-12-29
US7524191B2 (en) 2009-04-28
KR101118927B1 (ko) 2012-03-09
JP2007504496A (ja) 2007-03-01
EP1673752A4 (en) 2008-10-29
US20050048449A1 (en) 2005-03-03
JP2011197691A (ja) 2011-10-06
WO2005022487A2 (en) 2005-03-10

Similar Documents

Publication Publication Date Title
KR101118927B1 (ko) 언어 교육 시스템 및 방법
Dunkel Listening in the native and second/foreign language: Toward an integration of research and practice
Bardovi-Harlig et al. Unconventional expressions: Productive syntax in the L2 acquisition of formulaic language
Lafford The effects of study abroad vs. classroom contexts on Spanish SLA: Old assumptions, new insights and future research directions
Kinginger Videoconferencing as access to spoken French
McKee et al. Interpreting into international sign pidgin: An analysis
Gutierrez-Clellen et al. Referential cohesion in the narratives of Spanish-speaking children: A developmental study
Oprandy Listening/speaking in second and foreign language teaching
Hakim et al. How a learner learns and acquires English as a foreign language: A case study
Kalocsányiová et al. 10 Transcribing (Multilingual) Voices: From Fieldwork to Publication
Harben An exercise in applying pedagogical principles to multimedia CALL materials design
KR101133887B1 (ko) 영어교육교재 및 영어교육교재를 기록한 기록매체
Rusmawaty Investigating the types of code switching in language teaching instruction in EFL class of SMA I Negeri Samarinda
Blackwell Exploring second-language learner comprehension of university lectures
Mole Deaf and multilingual
Lee Polysemous Words in English Movies, Learning Obstacles or Gifted Talent?
Nadjah Improving Students’ Listening Skill Through the Language Laboratory A case of third year students at the department of English-Bouzareah university
Cazden Situational variation in children’s language revisited
Schepers The use of pragmatic markers by english speaking learners of brazilian portuguese
Meacham The educational soundscape: Participation and perception in Japanese high school English lessons
HAFFERSSAS The Impact of Implementing Same-Language Subtitled Audiovisual Material on EFL Learners’ Vocabulary Comprehension and Spelling
Bailey Language Learning Diary Studies in Learning Beyond the Classroom Contexts
Truong Exploring turn-taking and repair strategies among Vietnamese non-English major students
Rabia et al. Exploring Code Switching as a Communicative Strategy in Informal Virtual Communication: The Case of MA Students of the Department of English at MMUTO
Kim TEACHING ORAL SPEECH IN A FOREIGN LANGUAGE

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150119

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160119

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170119

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180118

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20181227

Year of fee payment: 8