KR20110055190A - 언어학습시스템 - Google Patents

언어학습시스템 Download PDF

Info

Publication number
KR20110055190A
KR20110055190A KR1020090112112A KR20090112112A KR20110055190A KR 20110055190 A KR20110055190 A KR 20110055190A KR 1020090112112 A KR1020090112112 A KR 1020090112112A KR 20090112112 A KR20090112112 A KR 20090112112A KR 20110055190 A KR20110055190 A KR 20110055190A
Authority
KR
South Korea
Prior art keywords
sentence
picture
data
voice
word
Prior art date
Application number
KR1020090112112A
Other languages
English (en)
Inventor
김보경
Original Assignee
김보경
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김보경 filed Critical 김보경
Priority to KR1020090112112A priority Critical patent/KR20110055190A/ko
Publication of KR20110055190A publication Critical patent/KR20110055190A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/263Language identification
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/04Electrically-operated educational appliances with audible presentation of the material to be studied

Abstract

본 발명은 주어진 상황에 해당하는 문장데이터, 음성데이터, 그림데이터 및 행동테이터를 결합하여 연결 표현되도록 하고, 상기 문장데이터, 음성데이터, 그림데이터 및 행동테이터의 표현시간을 조절할 수 있는 언어학습시스템에 관한 것으로, 보다 상세하게는 상기 언어학습시스템은 주어진 한 상황에 해당하는 문장데이터, 음성데이터, 그림데이터 및 행동테이터가 서로 맵핑되어 저장된 문장데이터베이스부; 상기 문장데이터베이스부로부터 문장을 선택하는 문장선택부; 상기 문장선택부에서 선택된 문장을 해당 문장, 음성, 그림 또는 행동으로 동기(sync) 연결 처리하는 문장처리부; 상기 문장처리부에서 처리된 문장을 문장, 음성, 그림 또는 행동으로 동기(sync) 연결 표시하는 디스플레이부 및/또는 로봇;을 포함하여 구성되는 언어학습시스템에 관한 것이다.
본 발명에 따른 언어학습시스템은 주어진 상황에 해당하는 문장의 구성 요소에 대응되는 부분의 음성, 그림 및 행동들 사이에서 그 전체 문장의 구성 요소가 순차적으로 학습자의 머리속에 이해될 수 있도록 해당 문장, 음성, 그림 및 행동이 서로 맵핑되어 문장 흐름에 따라 시계열적으로 연결 구현되므로 단어 및 문장을 이해하고, 적절한 언어표현을 구사하는 능력이 획기적으로 길러지는 장점이 있다.
언어학습, 문장, 음성, 그림, 행동, 문장데이터베이스부, 문장선택부, 문장처리부, 디스플레이부

Description

언어학습시스템{omitted}
본 발명은 주어진 상황에 해당하는 문장데이터, 음성데이터, 그림데이터 및 행동테이터를 결합하여 연결 표현되도록 하고, 상기 문장데이터, 음성데이터, 그림데이터 및 행동테이터의 표현시간을 조절할 수 있는 언어학습시스템에 관한 것으로, 보다 상세하게는 상기 언어학습시스템은 주어진 한 상황에 해당하는 문장데이터, 음성데이터, 그림데이터 및 행동테이터가 서로 맵핑되어 저장된 문장데이터베이스부; 상기 문장데이터베이스부로부터 문장을 선택하는 문장선택부; 상기 문장선택부에서 선택된 문장을 해당 문장, 음성, 그림 또는 행동으로 동기(sync) 연결 처리하는 문장처리부; 상기 문장처리부에서 처리된 문장을 문장, 음성, 그림 또는 행동으로 동기(sync) 연결 표시하는 디스플레이부 및/또는 로봇;을 포함하여 구성되는 언어학습시스템에 관한 것이다.
현재 일반적으로 통용되는 언어 학습 방법으로서 첫째, 대인 학습법 ,둘째, 오디오 테이프의 음성만을 이용한 문장 반복형 학습법, 세째, 비데오 테이프를 이 용한 시청각 학습법, 네째, 서적이나 PC 등을 이용한 온라인 또는 오프라인을 이용한 학습법 등이 일반적인데, 상술한 다양한 학습 방법의 등장에도 불구하고 각 방법별로 취약성이 있으며, 각 방법별로 레퍼런스(Reference)는 제공하고 있으나 학습자의 발음, 억양 및 입모양 등을 정확히 분석해주는 방법은 제공되지 않고 있다. 따라서, 학습자는 자신의 발음과 억양이 원음과 얼마나 다르며 어디가 틀렸는지 정확히 인식할 수 없었으며, 그에 따라서 학습이 비효과적으로 진행되는 결과를 초래하고, 언어를 학습하는데 상당한 노력과 투자가 요구되고 있다.
한편, 최근 인터넷이나 영상매체를 통하여 언어를 학습하는 방법이 다수 제시되고 있는데, 그 학습방법은 주로 학습어에 대한 단어, 의미구, 문장, 그리고 문법 등을 제공하며, 특히 언어 듣기능력 향상의 일환으로 단어, 혹은 문장 등에 대해서 원어민의 발음을 제공하기도 한다. 이러한 인터넷 또는 영상매체를 이용한 언어학습시스템 및 방법은 단어 및 숙어 암기, 문법, 독해, 발음 기호, 및 회화로 5가지 단계를 각각 분리하여 배우는 방법으로서 문자 인식 능력을 위주로 학습하여 언어 습득에 매우 비효율적이다.
즉, 인터넷 또는 영상 매체를 이용한 언어학습방법은 각각의 단어 및 숙어, 문법, 독해, 발음 기호, 및 회화를 각 데이터 베이스에 저장한 후, 학습자가 해당 단어나 숙어 등을 선택하면 이에 대한 학습자 모국어의 의미 또는 문법에 해당하는 데이터를 디스플레이 한다. 따라서, 단어와 숙어, 문법, 독해, 발음 기호, 회화를 별개로 따로 배우도록 함으로서, 외국어에서 짧은 시간에 소리로 표현되는 언어의 특성을 소리로서 이해하는 것이 아니라 그것을 논리적 사고로 분석하고 이해할 수 있도록 하는 언어학습시스템에 의해 학습하므로 결국, 학습자는 많은 시간과 노력에도 불구하고 학습어에 대한 정확한 이해가 부족하게 되고, 더욱이 실제 생활에서도 외국어를 거의 사용할 수 없게 되어 외국어 학습에 대한 효율성이 매우 떨어지게 된다는 문제점이 있었다.
상기와 같은 문제점을 해결하기 위하여 한국등록특허 제0505346호에는 학습하고자 하는 학습어와 모국어의 학습정보를 학습정보 데이타베이스로 구축한 웹 서버를 통해 인터넷으로 접속 가능하게 하고, 학습자가 상기 웹 서버에 접속하여 학습정보를 요청하면, 해당 학습정보를 상기 학습정보 데이타베이스에서 검색 및 추출하여 상기 학습자에게 제공하는 컴퓨터를 이용한 언어학습방법에 있어서, 상기 웹 서버는 상기 학습정보의 학습과정에 따른 단어, 의미구, 문장 및 그림을 플래쉬 기법을 통해 하나의 파일로 생성한 후 메뉴를 통해 학습자가 열람할 수 있게 제공하고, 상기 메뉴를 보고 학습자가 특정 학습정보를 선택할 경우, 해당 학습정보의 플래쉬 파일을 상기 학습자의 컴퓨터로 일시에 전송하여 상기 학습자의 컴퓨터상에서 플래쉬로 출력하며, 상기 학습자의 컴퓨터상에서 플래쉬로 출력되는 학습정보를 제공하는 과정이, 1) 본문을 상기 모국어로 출력하는 모국어 환경에서의 본문 파악 과정; 2) 상기 본문을 상기 모국어로 디스플레이하여 상기 디스플레이된 본문의 각 단어를 상기 학습어 문자로 롤오버함과 동시에 상기 학습어의 원어민 발음으로 출 력하는 모국어 환경에서의 단어 학습과정; 3) 상기 본문을 상기 모국어로 디스플레이하여 상기 디스플레이된 본문의 각 의미구를 상기 학습어 문자로 롤오버함과 동시에 상기 학습어의 원어민 발음으로 출력하는 모국어 환경에서의 의미구 학습과정; 4) 상기 본문을 상기 모국어로 디스플레이하여 상기 디스플레이된 본문의 각 문장을 상기 학습어 문자로 롤오버함과 동시에 상기 학습어의 원어민 발음으로 출력하는 모국어 환경에서의 문장 학습과정; 5) 상기 본문을 상기 학습어로 디스플레이하여 상기 디스플레이된 본문의 각 단어를 상기 모국어 문자로 롤오버함과 동시에 상기 각 단어에 대한 학습어의 원어민 발음으로 출력하는 학습어 환경에서의 단어 학습과정; 6) 상기 본문을 상기 학습어로 디스플레이하여 상기 디스플레이된 본문의 각 의미구를 상기 모국어 문자로 롤오버함과 동시에 상기 각 의미구에 대한 학습어의 원어민 발음으로 출력하는 학습어 환경에서의 의미구 학습과정; 7) 상기 본문을 상기 학습어로 디스플레이하여 상기 디스플레이된 본문의 각 문장을 상기 모국어 문자로 롤오버함과 동시에 상기 각 문장에 대한 학습어의 원어민 발음으로 출력하는 학습어 환경에서의 문장 학습과정; 8) 상기 본문을 상기 학습어로 디스플레이함과 동시에 상기 학습어의 원어민 발음으로 출력하는 학습어 환경에서의 제1본문 파악 과정; 및 9) 상기 본문을 상기 학습어의 원어민 발음으로 출력하는 학습어 환경에서의 제2 본문 파악 과정을 포함하여 이루어지는 것을 특징으로 하는 플래쉬 기법을 이용한 언어학습방법이 개발된 바 있다.
또한, 한국특허출원 제 10-2001-0005314호에는 영어 강의 방법에 관한 것으 로서, 영어 단어의 소리 속에 의미를 담는 방법을 알아냄으로써, 영어 단어를 구성하는 소리의 의미를 자연스럽게 이해시키고, 그림문자에서 영어의 어순을 풀어내는 순서에 대해 언급하고 있으며, 상형 문자를 활용하여 영어의 어순 문제 중 "주어 + 동사" 어순 문제를 해결하는 방법을 제시하고 있다.
또한, 한국특허출원 제 10-2001-0052657호에는 그림만들기를 이용한 영어 교습 방법에 관한 것으로써, 영어를 표현하기 전에 그 영어 표현에 해당하는 자기의 사고의 흐름에 따라 만들어지는 그림이 어떤 순서로 그려지느냐를 판단하여, 그림을 그리고, 이에 영어 표현을 일치시키는 방법을 채용함으로써 영어를 교습하는 방법을 제시하고 있다. 그러나, 한국특허출원 제 10-2001-0052657호는 그림들은 문구 또는 문구의 구성 요소 단위를 설명해 주는 것에 불과할 뿐, 그 그림에 대응되는 전체 문구가 어떠한 흐름, 순서 및 연결 관계로 되어 있는지에 대한 정보를 전달해 주지 못하며, 그림을 통하여 원어민들처럼 자연스럽게 영어 순서대로 영어를 듣고, 말하고, 읽고, 쓰는데 도움을 주지 못한다.
또한, 한국등록특허 10-0821380호에는 영어의 주어를 중심으로 주어의 행위가 진행되는 순서, 및 주어에게 행위가 미치는 순서에 따라 영상에 객체지향성 다이어그램이 표시되며, 이를 통해 학습자가 영어의 구현 원리를 쉽게 이해할 수 있도록 하기 위하여, 학습 대상 문구, 및 상기 학습대상 문구에 대응되는 전체이미지를 포함하는 학습 콘텐츠를 학습자의 사용자 단말기로 제공하는 서버를 통해 구현 되며, 상기 서버는, 상기 학습 콘텐츠를 상기 사용자 단말기에 제공 시, 상기 학습대상 문구에서 표현하고자 하는 대상을 지시하는 객체지향성 다이어그램(object oriented diagram)을 상기 학습대상 문구에 동기 시키며, 이를 통해 상기 학습대상 문구의 이야기 전개에 따라 상기 학습대상 문구에 대응되는 객체지향성 다이어그램이 상기 전체이미지에서 순차로 표시되도록 하는 것을 특징으로 하는 언어 학습 콘텐츠 제공 시스템이 제공된 바 있다.
그러나, 상기 출원들은 여전히 기존의 인터넷 또는 영상매체를 이용한 언어학습시스템 및 방법과 마찬가지로 단어, 문법, 독해, 발음, 청취, 회화를 각각 분리하여 학습하는 방법으로서 효율적인 언어학습을 하기에는 현실적으로 한계가 있는 문제점이 있고, 또한, 언어의 습득은 단어를 이해하고 적절한 표현형식을 익힘으로써 완성되는데, 일반적으로 단어의 개념이해와 문자단어와 음성간의 표현의 차이 때문에 언어 숙달에 많은 어려움이 있으므로 이를 극복하기 위하여 문자, 음성, 그림 및 행동을 동시에 연결하여 표현하고, 표시시간을 조절하는 언어학습시스템의 개발이 절실히 요구되고 있다.
즉, 읽자마자 읽는 순서대로 바로 이해하고, 듣자마자 듣는 순서대로 바로 알아듣고, 생각하자마자 생각하는 순서대로 말이 되어 원어민처럼 자연스럽게 영어로 말하고, 쓰고, 듣고, 읽을 수 있는 능력을 갖추도록 하는 언어학습시스템의 개발이 시급한 실정이다.
본 발명은 상기 문제점을 해결하기 위한 것으로, 주어진 상황에 해당하는 문장의 구성 요소에 대응되는 부분의 음성, 그림 및 행동들 사이에서 그 전체 문장의 구성 요소가 순차적으로 학습자의 머리속에 이해될 수 있도록 해당 문장, 음성, 그림 및 행동이 서로 맵핑되어 문장 흐름에 따라 시계열적으로 연결 구현되어 학습자로 하여금 단어 및 문장을 이해하고, 적절한 언어표현을 구사하는 능력이 길러질 수 있도록 하는 언어학습시스템을 제공하는 것을 해결하고자 하는 과제로 한다.
본 발명은 주어진 상황에 해당하는 문장데이터, 음성데이터, 그림데이터 및 행동테이터를 결합하여 연결 표현되도록 하고, 상기 문장데이터, 음성데이터, 그림데이터 및 행동테이터의 표현시간을 조절할 수 있는 언어학습시스템에 관한 것으로, 보다 상세하게는 상기 언어학습시스템은 주어진 한 상황에 해당하는 문장데이터, 음성데이터, 그림데이터 및 행동테이터가 서로 맵핑되어 저장된 문장데이터베이스부; 상기 문장데이터베이스부로부터 문장을 선택하는 문장선택부; 상기 문장선택부에서 선택된 문장을 해당 문장, 음성, 그림 또는 행동으로 동기(sync) 연결 처리하는 문장처리부; 상기 문장처리부에서 처리된 문장을 문장, 음성, 그림 또는 행동으로 동기(sync) 연결 표시하는 디스플레이부 및/또는 로봇;을 포함하여 구성되 는 언어학습시스템을 제공하는 것을 과제해결수단으로 한다.
본 발명에 따른 언어학습시스템은 주어진 상황에 해당하는 문장의 구성 요소에 대응되는 부분의 음성, 그림 및 행동들 사이에서 그 전체 문장의 구성 요소가 순차적으로 학습자의 머리속에 이해될 수 있도록 해당 문장, 음성, 그림 및 행동이 서로 맵핑되어 문장 흐름에 따라 시계열적으로 연결 구현되므로 단어 및 문장을 이해하고, 적절한 언어표현을 구사하는 능력이 획기적으로 길러지는 장점이 있으며, 이에 따라 읽자마자 읽는 순서대로 바로 이해하고, 듣자마자 듣는 순서대로 바로 알아듣고, 생각하자마자 생각하는 순서대로 말이 되어 원어민처럼 자연스럽게 영어로 말하고, 쓰고, 듣고, 읽을 수 있는 능력을 갖출 수 있는 획기적인 효과가 있다.
본 발명에 따른 언어학습시스템은 주어진 한 상황에 해당하는 문장데이터, 음성데이터, 그림데이터 및 행동테이터가 서로 맵핑되어 저장된 문장데이터베이스부; 상기 문장데이터베이스부로부터 문장을 선택하는 문장선택부; 상기 문장선택부에서 선택된 문장을 해당 문장, 음성, 그림 또는 행동으로 동기(sync) 연결 처리하는 문장처리부; 상기 문장처리부에서 처리된 문장을 문장, 음성, 그림 또는 행동으로 동기(sync) 연결 표시하는 디스플레이부 또는 및/로봇;을 포함하여 구성되는 것을 특징으로 한다.
또한, 상기 디스플레이부는 문장데이터베이스에 저장된 문장을 순차적으로 선택하는 문장순차선택부; 상기 문장순차선택부에서 선택된 문장이 표시되는 문장표시부; 상기 문장표시부에 표시된 문장을 몇 번 읽을 것인지 선택하는 반복횟수선택부; 상기 문장표시부에 표시된 문장에서 읽혀지는 각 단어 또는 구절을 표시하는 단어구절표시부; 상기 단어구절표시부에 표시된 각 단어의 의미를 영문과 국문으로 나타내는 단어사전표시부; 상기 문장표시부에 표시된 문장이 읽혀질 때, 읽혀지는 단어 또는 구절에 해당하는 그림이 표시되는 그림표시부; 상기 문장표시부에 표시된 문장을 읽을 읽기속도선택부, 구절읽기간격선택부 및 단어읽기간격선택부를 포함하는 속도선택부;를 포함하여 구성되는 것을 특징으로 한다.
또한, 상기 문장표시부는 표시된 문장이 읽혀질 때 읽혀지는 단어 또는 구절을 명확히 구분할 수 있도록, 색상, 크기, 글자체, 굵기, 기울기, 밑줄 및 음영중 어느 하나의 수단으로 주변의 단어, 구절과 차별하여 강조하는 하이라이트 수단을 더 포함하는 것을 특징으로 한다.
여기서, 상기 하이라이트 수단은, 상기 전체 문장를 구성하는 단어, 구 중 상기 음성, 그림 또는 행동데이터에 대응되는 구간의 단어, 구에 대해서만 나타나도록 하는 것을 특징으로 한다.
또한, 상기 그림표시부는 정지화상, 정지영상, 동화상, 동영상 및 플래시 중 어느 하나인 것으로 표시되는 것을 특징으로 한다.
또한, 상기 문장데이터베이스부에는 문장데이터, 음성데이터, 그림데이터 및 행동테이터가 문장데이터(자문)으로 코드화된 후 서로 맵핑되어 저장되는 것을 특징으로 한다.
또한, 상기 문장처리부는 선택된 문장과 대응코드로 맵핑되어 저장된 음성데이터(음문), 그림데이터(화문) 또는 행동테이터(동문)을 각각 독출하고, 문장이 순차적으로 읽혀지는 부분에 해당하는 음성, 그림, 행동을 서로 동기(sync)시켜 출력하는 것을 특징으로 한다.
또한, 상기 디스플레이부 및/또는 로봇은 문장-음성표시, 음성-그림표시, 음성-행동표시, 문장-그림표시, 문장-음성-그림표시, 문장-음성-그림-행동표시 중 어느 하나의 방법으로 표시하는 것을 특징으로 한다.
이하, 도면을 참조하여 본 발명에 따른 언어학습시스템에서 주어진 상황에 해당하는 문장데이터, 음성데이터, 그림데이터 및 행동테이터가 어떻게 결합 연결 되어 표시되는지 그 메카니즘을 상세히 설명하도록 하며, 도 2 및 도 3을 참조하여 본 발명에서 사용되는 용어의 정의를 설명하면 다음과 같다.
(1) 문장(Sentence)
문장은 글이나 대화 같은 언어 표현에 대한 기본 단위이며, 1개 이상의 구로 구성되고, 문장의 종류로는 문자문장(이하 '자문'이라 칭함), 음성문장(이하 '음문'이라 칭함), 그림문장(이하 '화문'이라 칭함), 행동문장(이하 '동문'이라 칭함)이 있다.
문자문장(자문)은 문장 자체(예; I am a boy)를 나타내며, 음성문장(음문)은 문자문장(자문)의 음성표현으로서 자문을 표현하는 음성구(음구)의 모임이고, 그림문장(화문)은 문자문장(자문)의 화상표현(그림)으로서 자문을 표현하는 그림구(화구)의 모임이며, 화상으로 표현되고, 행동문장(동문)은 문자문장(자문)을 일련의 행동으로 표현하는 것으로서 자문을 표현하는 행동구(동구)의 모임이다.
(2) 구(Phrase)
구는 1개 이상의 단어로 구성되어 있는 것으로, 형태는 명사구, 동사구, 형용사구, 부사구, 접속사구, 감탄사 형태로 사용되며, 종류는 문자구(자구), 음성구(음구), 그림구(화구), 행동구(동구)가 있다.
문자구(자구)는 문자구 자체(예: eye of the man)를 나타내며, 음성구(음구)는 문자구(자구)의 음성표현으로서 자구를 표현하는 음성단어(음단)의 모임이고, 그림구(화구)는 문자구(자구)의 짧은 화상표현(그림)으로서 자구을 표현하는 그림단어(화단)의 모임이며, 행동구(동구)는 문자구(자구)을 짧은 일련의 행동으로 표 현하는 것으로서 자구을 표현하는 행동단어(동단)의 모임이다.
(3) 단어(word)
이해의 기본단위로서, 종류로는 문자단어(자단), 음성단어(음단), 그림단어(화단), 행동단어(동단)이 있다.
문자단어(자단)은 문자단어 자체(예 : man)를 나타내며, 음성단어(음단)은 문자단어(자단)의 음성표현이며, 그림단어(화단)은 자단을 표현하는 그림의 최소단위이고, 행동단어(동단)는 자단을 표현하는 행동의 최소단위이다.
단어의 의미상 분류로서 각 단어는 의미에 따라 감각단어(시각단어, 청각단어, 미각단어, 후각단어, 촉각단어)와 비감각단어로 분류된다.
비감각단어(비감어)는 감각어가 아닌 단어이고, 비감어의 의미를 1개 이상의 감각어로 표현할 수 있는 2차 형성 단어이다. 예로서 행복이라는 비감어는 웃음(시각단어)과 얼굴(시각단어)의 교집합으로 나타낼 수 있으며, 단어 종류에 근거하여, 모든 단어는 각 단어 간에 서로 대응된다.
또한, 문자단어(자단), 음성단어(음단), 그림단어(화단), 행동단어(동단)은 서로 간에 대응된 단어가 존재하며, 단어의 감각어와 비감어로 분류에 의해 모든 자단과 음단에 적합한 화단이나, 동단을 만들 수 있고, 화단과 동단은 대응된 많은 자단과 음단이 존재한다.
(4) 이해
이해란 언어 표현에 의하여 제시된 단어와 관련이 있는 대응 단어들이 두뇌에 기 축적되어 있음을 의미한다.
(5) 해응
이해의 기본 단위이며, 언어 표현에 의하여 제시된 단어와 관련되어 두뇌에 기 축적되어 있는 대응 단어를 매칭시켜 이해하는 과정의 기본단위를 의미하며, 해응을 위하여 일정 시간이 필요하다.
(6) 해응의 속도
문자단어(자단), 음성단어(음단), 그림단어(화단), 행동단어(동단)의 해응의 속도는 각기 표시 특성에 따라 차이가 있으며, 자단은 문장내 자단 해응의 정지, 진행, 재시도가 가능하고, 적절한 해응을 위하여 수용 속도(읽는 속도)를 조절 가능하다. 즉, 문자단어가 이해되지 않은 경우 읽기를 정지하거나, 천천히 읽거나 반복해서 읽을 수 있다.
음성단어(음단)는 음성문장(음문)내 음단 해응의 정지, 진행, 재시도가 불가능하며, 적절한 해응을 위하여 수용 속도(듣는 속도) 조절이 가능하지 않다. 즉, 문장청취시 음성단어(음단)가 이해되지 않을 경우 천천히 듣거나, 반복해서 들을 수 없다.
그림단어(화단)는 그림문장내 화단 해응의 정지, 진행, 재시도가 가능하며, 적절한 해응을 위하여 수용 속도(보는 속도) 조절이 가능하다. 즉, 그림단어(화단) 이 이해되지 않을 경우 천천히 볼 수 있다.
행동단어(동단)은 행동문장내 동단 해응의 정지, 진행, 재시도가 불가능하며, 적절한 해응을 위하여 수용 속도(듣는 속도) 조절이 가능하지 않다. 즉, 문장행동시 행동단어(동단)가 이해되지 않을 경우 천천히 행동하거나, 반복해서 행동할 수 없다.
(7) 해응 속도의 조절
자단의 경우, 문장내 자단의 해응 속도 증가의 방해 요소는 해응이 없거나 해응이 미완인 경우로서 자단읽기를 건너뛰게 뒤며, 해응에 대한 확신이 없거나, 눈의 초점 이동이 실패한 경우와 같이 반복읽는 경우에는 해응속도증가의 방해요소가 되므로 이러한 경우에는 자단의 표시를 순서대로 강조하고 자단의 의미를 제시한다.
음단의 경우, 음문내 음단의 해응 속도 증가의 방해 요소는 해응이 없거나 해응이 미완이거나 해응에 대한 확신이 없는 경우와 같이 음단해응에 실패하는 때에는 음단의 표음간의 간격을 늘리고, 경음을 들려주는데, 표음이란 목소리를 냄을 의미하며, 경음이란 배경 소리를 의미한다.
화단의 경우, 화문내 화단의 해응 속도 증가의 방해 요소는 해응이 없거나 해응이 미완이거나 해응에 대한 확신이 없는 경우와 같이 화단해응에 실패하는 때에는 화단과 화단 세부 경계의 배경과의 명도 혹은 색상차를 증가시킨다.
동단의 경우, 동문내 동단의 해응 속도 증가의 방해 요소는 해응이 없거나 해응이 미완이거나 해응에 대한 확신이 없는 경우와 같이 동단해응에 실패하는 때에는 동단간의 간격을 늘린다.
(8) 단어 동시 표시
본 발명의 디스플레이에서는 해응 속도 증가를 위한 자단, 음단, 화단 및 동단을 동시에 표시한다. 즉, 자단은 화면에 문자로 표현하고, 음단은 스피커의 소리로 표현하며, 화단은 화면에 그림으로 표현하고, 동단은 로봇 동작으로 표현한다.
상기와 같은 주어진 상황에 해당하는 문장데이터, 음성데이터, 그림데이터 및 행동테이터를 결합 연결하여 본 발명의 언어학습시스템의 디스플레이에 구현하는 과정에 대하여 도 1을 참조하여 설명하면 다음과 같다.
문장데이터베이스부에는 문장데이터, 음성데이터, 그림데이터 및 행동테이터가 서로 맵핑되어 저장되는데, 문장데이터, 음성데이터, 그림데이터 및 행동테이터 각각은 문자, 음성, 그림, 동작을 사람이 인식하여 직접 입력하여 만들어지거나 기계가 인식하여 만들어지는데, 현재는 기계 문자 광학 인식과 기계 음성 인식이 가능하다.
각 문장의 구성요소는 자문-자구-자단, 음문-음구-음단-음소, 화문-화구-화단, 동문-동구-동단의 체계로 구성되고, 상기 코드는 각기 대응코드로 맵핑 대응되어 입력된다.
즉, 음문, 화문, 동문을 주어진 상황에 따른 자문으로 코드화하여 저장하는데 이러한 코드를 자문, 음자문, 화자문, 동자문이라 하며, 자구에 해당하는 코드를 음자구, 화자구, 동자구라 하고, 자단에 해당하는 코드를 음자, 화자, 동자라고 한다.
문장선택부에서는 문장의 인식 혹은 입력에 의하여 상기 문장데이터베이스부에 저장된 문장(자문, 음문, 화문, 동문)을 학습자의 의지에 따라 매회 1개씩 선택된다.
문장처리부는 선택된 문장(자문, 음문, 화문 혹은 동문)과 대응된 코드를 가진 자문, 음문, 화문 및 동문을 각각 독출하고, 상기 각 문장에 해당하는 구와 단어를 독출한다.
보다 상세히 설명하면, 자문의 경우, 자단 배열(자단열) 생성, 자구 배열(자구열) 생성을 거쳐 자문이 구성되는데, 각 자단열은 자단(언어1)1, 자단(언어2)2, … 자단(언어n)n, 자문내 자단 위치(번호), 자단의 품사, 자단정의(언어1)1, 자단정의(언어2)2 … 자단정의(언어n)n로 생성되고, 각 자구열은 자구의 자문내 위치(번호), 자구의 형태로 각각 생성되며, 자문은 본 자문에 해당하는 자구열, 자문 번호, 폰트로 생성되어 독출된다.
음문의 경우, 음자문에 근거하여 음단의 자단(음자)가 생성되고, 음구의 자구(음자구)로 생성되는데, 음단 배열(음단열)은 음자, 음문내 음단의 위치(번호), 음문내 시작 위치, 강세, 표시 시간, 표시 길이로 생성되며, 각 음단 배열에 대한 음소 배열(음소열)을 생성한다. 즉, 음소란 음단내 최소 소리 단위로서 각 음소열은 음소, 음단내 음소의 위치(번호), 음단내 시작 위치, 강세, 표시시간, 표시길이로 생성된다.
음자 해석에 따른 음구 배열(음구열)은 음구, 음구의 형태(=자구의 형태), 음문내 음구의 위치(번호), 음문내 시작 위치, 강세로 생성되며, 음문은 음구 배열(음구열)로 구성되는데, 음문은 음자문, 음자문 번호, 본 음자문에 해당하는 음구열, 표시 시간, 표시 길이로 생성되어 독출된다.
화문의 경우, 화자문에 근거하여 대응된 화문(화상)이 생성되고, 화자문에 근거하여 화단의 자단을 생성하는데, 화단의 자단을 화자, 화구의 자구을 화자구라 한다. 화단 배열(화단열)은 화자, 화단 그림파일, 화문내 화단의 위치(번호), 화문내 시작 위치, 표시 지속 시간, 폭, 높이로 생성된다.
화자 해석에 따른 화구 배열(화구열)은 화자구, 본 화자구에 해당하는 화단열, 화문내 화구의 위치(번호), 화문내 시작 위치, 표시 지속 시간, 화구 총 폭, 화구 총 높이로 생성되고, 화문은 화구 배열(화구열)로 구성되는데, 화자문, 화자문 번호, 본 화자문에 해당하는 화구열, 표시 지속 시간, 총 폭, 총 높이로 생성되어 독출된다.
동문의 경우, 동자문에 근거하여 대응된 동문(행동)이 생성되고, 동자문에 근거하여 동단의 자단을 생성하며, 동단의 자단을 동자, 동구의 자구을 동자구라 한다. 동단 배열(동단열)은 동자, 동문내 동단의 위치(번호), 동문내 시작 위치, 행동(표시) 지속 시간, 공간상의 무게 중심 위치(x, y, z좌표), 행동 범위(dx, dy, dz좌표)로 생성되고, 동자 해석에 따른 동구 배열(동구열)은 동자구, 본 동자구에 해당하는 동단열, 동문내 동구의 위치(번호), 동문내 시작 위치, 행동(표시) 지속 시간, 동구 평균 공간상의 무게 중심 위치(x, y, z좌표), 동구 총 행동 범위(dx, dy, dz좌표)로 생성되며, 동문은 동구 배열(동구열)로 구성되는데, 동자문, 동자문 번호, 본 동자문에 해당하는 동구열, 표시 지속 시간, 행동(표시) 지속 시간, 동문 평균 공간상의 무게 중심 위치(x, y, z좌표), 동문 총 행동 범위(dx, dy, dz좌표)로 생성되어 독출된다.
디스플레이부 및/또는 로봇은 상기 각 독출된 자문, 음문, 화문, 동문 데이터를 표시하며, 자문의 표시는 디스플레이 화면상 문자로 이루어진 문장으로 출력된다.
음문의 표시는 음자문에 따라 컴퓨터 스피커의 소리로 만들어진다.
화문의 표시는 컴퓨터 화면상에서 화자에 대응된 화단이 그려지고, 일련의 화단과 화구에 의하여 화자문이 정지화상 혹은 동화상으로 그려진다. 예를들면, "장미꽃이 핀다" 라는 화자문의 경우 장미꽃이 피는 과정을 나타내므로 다수개의 그림이 시간에 종속되어 동화상으로 그려지게 된다. 상기 정지화상 혹은 동화상은사진, 단일영상, 정지영상, 동영상, 및 플래시 중 어느 하나인 것이 바람직하다.
동문의 표시는 동자문에 의한 행동명령어에 따른 로봇의 구체적인 동작으로서, 예를들면, 강아지 로봇의 경우 “왼쪽 귀를 올렸다가 내려라”라는 동문에 대하여 왼쪽 귀 올림 프로그램코드와 왼쪽 귀 내림 프로그램코드로 생성되어 실제 동작과 동자문에 맵핑되어 구체적인 동작(왼쪽 귀의 유압 혹은 모타 작동)이 실행되게 하고, 일련의 행동명령(일련의 동자문)에 의하여 로봇의 움직임이 만들어진다.
상기와 같은 자문, 음문, 화문 및 동문은 본 발명의 디스플레이부 및/또는 로봇에서 단독 또는 복합적으로 동시 연결되어 표시될 수 있는데, 자문의 표시와 동시에 음문을 표시, 음문의 표시와 동시에 화문을 표시, 음문의 표시와 동시에 동문을 표시, 자문의 표시와 동시에 화문을 표시, 자문의 표시와 동시에 음문과 화문을 표시, 자문의 표시와 동시에 음문, 화문, 그리고 동문을 표시할 수도 있다.
즉, 문장이 순차적으로 읽혀지는 부분에 해당하는 음성, 그림, 행동은 서로 동기(sync) 되어 표시되며, 여기서, 동기(sync)의 의미는 문장, 음성, 그림, 행동이 서로 결합 연결되어 표시됨을 의미한다.
또한, 음문을 표시할 때에는 음소 표시자인 대표 발음기호를 표시할 수도 있다.(예 : Father : f + aa + dh + er, Ago: ax + g + ao)
도 4를 참조하여 본 발명을 일실시예에 따른 언어학습시스템에 대하여 상세히 설명하도록 한다.
도 4에 도시된 바와 같이, 문장순차선택부(101)에서 4번째 문장을 선택하면, 문장표시부(102)에는 He loves to eat bananas, grapes, strawberries and many more.의 문장이 표시되며, 반복회수선택부(108)에서 반복회수 1을 선택하고, 단어읽기간격선택부(106)에서 1을 선택하였다.
문장표시부(102)에 표시된 문장에 기재된 이야기 흐름에 따라 단어읽기간격 1에 해당되는 속도로 순서대로 문장이 읽혀지며 음성이 스피커로 출력되고, 그림표시부(105)에는 그림이 표시되는데, 예를들어 banana가 읽혀지는 동안에는 banana 발음이 스피커로 출력되고, 동시에 화면에는 바나나 그림이 출력되며, grapes가 읽혀지는 동안에는 grapes 발음이 스피커 출력되고, 동시에 화면에는 포도송이 그림이 출력된다.
또한, 단어구절표시부(103)에는 읽혀지는 단어 more가 표시되고, 단어사전표 시부(104)에는 more의 의미를 영문과 국문으로 나타낸다.
또한, 상기 문장표시부(102)는 표시된 문장이 읽혀질 때 읽혀지는 단어 또는 구절을 명확히 구분할 수 있도록, 색상, 크기, 글자체, 굵기, 기울기, 밑줄 및 음영중 어느 하나의 수단으로 주변의 단어, 구절과 차별하여 강조하는 하이라이트 수단(107)을 더 포함할 수 있으며, 상기 하이라이트 수단은, 상기 전체 문장를 구성하는 단어, 구 중 상기 음성, 그림 또는 행동데이터에 대응되는 구간의 단어, 구에 대해서만 나타나도록 한다.
본 발명의 시스템이 적용되면, 언어학습자는 상기 문장, 음성, 그림, 행동의 연결 관계와 순서를 보면서 대응되는 문장의 구성 요소들을 이해할 수 있으며, 문장이 표현하고자 하는 다양한 상황을 보다 쉽게 이해할 수 있다. 이때, 언어학습자는, 머리속에서 문장, 음성, 그림, 행동이 지시하는 이미지들을 매칭시켜 연상할 수 있게 되며, 이미지들에 대응되는 문장의 구성 요소를 함께 연상하게 된다. 따라서, 언어학습자는 영어 문장을 구성하는 각 구성요소가 자연스럽게 머리에 떠오르게 되며, 단순히 문장만을 보고 학습하는데 비하여 문장의 구성요소 및 각 구성요소의 연결관계를 쉽게 파악하여 학습효과를 획기적으로 향상시킬 수 있다.
도 1은 본 발명에 따른 언어학습시스템에 대한 블록구성 개념도
도 2는 본 발명에 따른 문장구성도
도 3은 본 발명에 따른 문장처리부의 문장처리개념도
도 4는 본 발명의 일실시예에 따른 언어학습시스템의 콘텐츠 구성도
*도면의 주요 부분에 대한 부호의 설명*
101 : 문장순차선택부 102 : 문장표시부 103 : 단어구절표시부
104 : 단어사전표시부 105 : 그림표시부 106 : 속도선택부
107 : 하이라이트부 108 : 반복횟수선택부

Claims (8)

  1. 주어진 한 상황에 해당하는 문장데이터, 음성데이터, 그림데이터 및 행동테이터가 서로 맵핑되어 저장된 문장데이터베이스부; 상기 문장데이터베이스부로부터 문장을 선택하는 문장선택부; 상기 문장선택부에서 선택된 문장을 해당 문장, 음성, 그림 또는 행동으로 동기(sync.) 연결 처리하는 문장처리부; 상기 문장처리부에서 처리된 문장을 문장, 음성, 그림 또는 행동으로 동기(sync.) 연결 표시하는 디스플레이부 및/또는 로봇;을 포함하여 구성되는 것을 특징으로 하는 언어학습시스템
  2. 제1항에 있어서,
    상기 디스플레이부는 문장데이터베이스에 저장된 문장을 순차적으로 선택하는 문장순차선택부; 상기 문장순차선택부에서 선택된 문장이 표시되는 문장표시부; 상기 문장표시부에 표시된 문장을 몇 번 읽을 것인지 선택하는 반복횟수선택부; 상기 문장표시부에 표시된 문장에서 읽혀지는 각 단어 또는 구절을 표시하는 단어구절표시부; 상기 단어구절표시부에 표시된 각 단어의 의미를 영문과 국문으로 나타내는 단어사전표시부; 상기 문장표시부에 표시된 문장이 읽혀질 때, 읽혀지는 단어 또는 구절에 해당하는 그림이 표시되는 그림표시부; 상기 문장표시부에 표시된 문장을 읽을 읽기속도선택부, 구절읽기간격선택부 및 단어읽기간격선택부를 포함하는 속도선택부;를 포함하여 구성되는 것을 특징으로 하는 언어학습시스템
  3. 제2항에 있어서
    상기 문장표시부는 표시된 문장이 읽혀질 때 읽혀지는 단어 또는 구절을 명확히 구분할 수 있도록, 색상, 크기, 글자체, 굵기, 기울기, 밑줄 및 음영중 어느 하나의 수단으로 주변의 단어, 구절과 차별하여 강조하는 하이라이트 수단을 더 포함하는 것을 특징으로 하는 언어학습시스템
  4. 제3항에 있어서,
    상기 하이라이트 수단은, 상기 전체 문장를 구성하는 단어, 구 중 상기 음성, 그림 또는 행동데이터에 대응되는 구간의 단어, 구에 대해서만 나타나도록 하는 것을 특징으로 하는 언어학습시스템
  5. 제2항에 있어서,
    상기 그림표시부는 정지화상, 정지영상, 동화상, 동영상 및 플래시 중 어느 하나인 것으로 표시되는 것을 특징으로 하는 언어학습시스템
  6. 제1항에 있어서,
    상기 문장데이터베이스부에는 문장데이터, 음성데이터, 그림데이터 및 행동테이터가 문장데이터(자문)으로 코드화된 후 서로 맵핑되어 저장되는 것을 특징으로 하는 언어학습시스템
  7. 제1항에 있어서,
    상기 문장처리부는 선택된 문장과 대응코드로 맵핑되어 저장된 음성데이터(음문), 그림데이터(화문) 또는 행동테이터(동문)을 각각 독출하고, 문장이 순차적으로 읽혀지는 부분에 해당하는 음성, 그림, 행동을 서로 동기(sync)시켜 출력하는 것을 특징으로 하는 언어학습시스템
  8. 제1항 내지 제7항중 어느 한 항에 있어서,
    상기 디스플레이부 및/또는 로봇은 문장-음성표시, 음성-그림표시, 음성-행동표시, 문장-그림표시, 문장-음성-그림표시, 문장-음성-그림-행동표시 중 어느 하나의 방법으로 표시하는 것을 특징으로 하는 언어학습시스템
KR1020090112112A 2009-11-19 2009-11-19 언어학습시스템 KR20110055190A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090112112A KR20110055190A (ko) 2009-11-19 2009-11-19 언어학습시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090112112A KR20110055190A (ko) 2009-11-19 2009-11-19 언어학습시스템

Publications (1)

Publication Number Publication Date
KR20110055190A true KR20110055190A (ko) 2011-05-25

Family

ID=44364250

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090112112A KR20110055190A (ko) 2009-11-19 2009-11-19 언어학습시스템

Country Status (1)

Country Link
KR (1) KR20110055190A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101320076B1 (ko) * 2013-04-02 2013-10-18 강란숙 언어 학습 장치 및 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101320076B1 (ko) * 2013-04-02 2013-10-18 강란숙 언어 학습 장치 및 방법

Similar Documents

Publication Publication Date Title
Neri et al. Selecting segmental errors in non-native Dutch for optimal pronunciation training
KR100900085B1 (ko) 외국어 학습 제어방법
Neri et al. Feedback in computer assisted pronunciation training: technology push or demand pull?
JP2001159865A (ja) 対話型語学指導のための方法および装置
JP2002503353A (ja) 音読及び発音指導装置
KR100900081B1 (ko) 외국어 학습 제어방법
Ai Automatic pronunciation error detection and feedback generation for call applications
US20170148341A1 (en) Methodology and system for teaching reading
KR20140087956A (ko) 단어 및 문장과 이미지 데이터 그리고 원어민의 발음 데이터를 이용한 파닉스 학습장치 및 방법
KR20140078810A (ko) 언어 데이터 및 원어민의 발음 데이터를 이용한 리듬 패턴 학습장치 및 방법
Husby et al. Dealing with L1 background and L2 dialects in Norwegian CAPT
KR20140107067A (ko) 이미지 데이터와 원어민 발음 데이터를 이용한 단어 학습장치 및 방법
KR102395702B1 (ko) 문장을 이루는 단위를 단계별 확장하여 스텝화한 영어 교육 서비스 제공 방법
JP6656529B2 (ja) 外国語の会話訓練システム
KR20140079677A (ko) 언어 데이터 및 원어민의 발음 데이터를 이용한 연음 학습장치 및 방법
KR20110055190A (ko) 언어학습시스템
KR20140087951A (ko) 이미지 데이터 및 원어민의 발음 데이터를 이용한 영어 문법 학습장치 및 방법
KR20140087950A (ko) 언어 데이터 및 원어민의 발음 데이터를 이용한 리듬 패턴 학습장치 및 방법
KR20140079245A (ko) 언어 데이터 및 원어민의 발음 데이터를 이용한 리듬 패턴 학습장치 및 방법
KR102112059B1 (ko) 청음 기반 중국어 발음 한글 표기 형성 방법, 청음 기반 중국어 발음 한글 표기 표시 방법 및 이것을 이용한 외국어 학습 방법
KR20140101548A (ko) 연계 예문을 이용한 단어 학습장치 및 방법
Jaelani The Lingua Franca Core (LFC) and Its Impact on Pronunciation Teaching Practice in Indonesia
KR20140087955A (ko) 이미지 데이터 및 원어민의 발음 데이터를 이용한 영어 전치사 학습장치 및 방법
Alsabaan Pronunciation support for Arabic learners
KR20140075145A (ko) 단어 및 문장과 이미지 데이터 그리고 원어민의 발음 데이터를 이용한 파닉스 학습장치 및 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application