KR100968364B1 - 영어속독을 위한 동적 영문그래픽 상영방법 - Google Patents

영어속독을 위한 동적 영문그래픽 상영방법 Download PDF

Info

Publication number
KR100968364B1
KR100968364B1 KR1020090121688A KR20090121688A KR100968364B1 KR 100968364 B1 KR100968364 B1 KR 100968364B1 KR 1020090121688 A KR1020090121688 A KR 1020090121688A KR 20090121688 A KR20090121688 A KR 20090121688A KR 100968364 B1 KR100968364 B1 KR 100968364B1
Authority
KR
South Korea
Prior art keywords
sentence
language element
dynamic
graphic
individual language
Prior art date
Application number
KR1020090121688A
Other languages
English (en)
Inventor
신효상
Original Assignee
신효상
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 신효상 filed Critical 신효상
Priority to KR1020090121688A priority Critical patent/KR100968364B1/ko
Application granted granted Critical
Publication of KR100968364B1 publication Critical patent/KR100968364B1/ko
Priority to GB1122202.3A priority patent/GB2488005A/en
Priority to US13/322,515 priority patent/US8310505B2/en
Priority to PCT/KR2010/008503 priority patent/WO2011071267A2/ko

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B17/00Teaching reading
    • G09B17/04Teaching reading for increasing the rate of reading; Reading rate control
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Machine Translation (AREA)
  • Processing Or Creating Images (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

본 발명은 Universal Grammar에서 제시하는 merge, piping, moving의 기본 원리를 독특한 동적 그래픽으로 실체화하여 디스플레이 화면 상에서 재구성한 것이다.
본 발명은 입력되는 영어 문장을 컴퓨터가 인식하여 의미있는 개별 언어요소와 그를 둘러싼 의미있는 공백으로 나누고, 상기 요소와 공백들이 각자의 영역에 갖고 있는 원래의 정적 그래픽 데이터에다 merge, piping, moving의 원리에 맞는 고유한 기하학적 기호로 표시된 추가적인 정적 그래픽을 겹쳐서 출력하거나, 또는 상기 영역에 원래의 정적 그래픽 데이터를 변형시켜서 역시 merge, piping, moving의 원리를 내포하도록 설계한 독특한 운동정보를 담은 새로운 동적 그래픽 화면으로 출력시키는 것이 특징이다.
화면에 표시되는 동적 문장데이터는 Universal Grammar에 따라 그 문장이 가진 의미결합구조를 실체적으로 표현한 애니매이팅 된 이미지를 갖는 문자그래픽 모형으로 실체화되어 사용자의 시각을 자극하며, 결과적으로 사용자의 두뇌를 의도적으로 자극한다.
본 발명에 따르면 사용자의 시신경에 연결된 두뇌의 언어해석 구조가 점차 해당언어의 모국어 사용자와 유사하게 최적화된 언어해석 구조로 발전되도록 하는 효과가 있다.
Figure 112009075965634-pat00001
문자, 문장, 그래픽, 애니매이팅, 애니메이션, 상영, Universal Grammar

Description

영어속독을 위한 동적 영문그래픽 상영방법{Dynamic graphic playing of English sentence for Speed Reading}
본 발명은 과학화된 영어교습법 중 하나로서, 영문 그래픽 패턴의 변화를 통해 시신경을 포함한 두뇌구조를 의도적으로 자극하는 상영기술에 관한 것이다.
(배경1.) 변형생성문법의 창시자인 Noam Chomsky 교수는 인지문법에 관한 저서 Universal Grammar를 통해 모든 문법과 그 문법으로 만들어지는 문장들은 두뇌의 3차원적 공간인지에 관한 작동원리가 적용될 수 밖에 없는 두뇌의 정신적 결과물이며, 작동원리에서의 지배적인 힘 3가지를 크게 merge(분기된 내용들의 병합), piping(인과적 요소들의 연결), moving(주체와 그에 연결된 의미들의 연동)이라 설명한 바 있다.
즉 모든 문장들은 문장구조의 척추(back bone 또는 structure core)를 가지게 되고, 상기 소개한 3가지 힘을 바탕으로 다양한 문장패턴으로 진화하거나 변종이 된다. Noam Chomsky 교수는 이것을 단 하나의 원리, 최소의 규칙으로 정리하여 최소주의 문법(minimalism)이라 정의하였고, 이 문법에 의하여 문장을 이루는 형식은 5문형, 28문형, 108문형 등으로 새롭게 분류될 수 있었다.
(배경2.) 언어인식 프로그램과 자동번역 프로그램은 인공지능 설계기술의 발달에 따라 현재 인간과 동등한 수준의 선택적 추출능력, 인간을 능가하는 대량/ 고속의 검색능력, 인간의 능력에 육박해가는 추상적 사실의 인식 및 조립능력을 보유하고 있다.
Google을 비롯한 주요 웹사이트에서 제공하는 자동번역기들은 파편화된 구절단위의 문장을 거의 완벽하게 번역해내며, 기계적인 의미를 담은 대다수의 순차적이고, 구체적이며, 자주 사용되는 문장들을 상당히 매끄럽게 번역해낸다.
추상적인 의미를 담은 비순차적이고 비구체적이며 자주 사용되지 않는 문장들은 아직 완전히 번역한다고 말하기 어렵지만, 이것은 현재의 번역프로그램의 문제라기 보다는 현 시대 검색로봇이나 번역로봇에 탑재된 언어데이터베이스와 이를 습득하는 인공지능의 발달상태에 따른 문제(때로는 경제적이거나 정책적일 수도 있는 문제)일 뿐이다. 예컨대 현재는 특정 분야에서 매끄러운 번역을 위해 인간에 의존한 보조적 마무리작업이 필요한 경우일지라도, 해당 분야의 언어데이터를 추가로 저장하고 습득하여 개량된 version의 자동번역기를 사용하면 그 분야의 복잡하며 전문적인 내용을 담은 문장도 매끄럽고 훌륭하게 번역될 수 있다.
이러한 사실은 인터넷에 존재하는 거대한 언어의 바다에서 추출되는 지극히 다양한 문장과, 학자들에 의해 발견된 방대한 단어와 구절들을 체계적으로 분류하여 저장하고 있는 언어 데이터베이스와 이를 참조하는 인공지능에 의한 문장인식 및 번역 프로그램들의 뛰어난 잠재력을 증명하여 준다.
(배경3.) 워드프로그램과 같은 언어처리도구와 애니메이션 그래픽 기술은 컴퓨터 의 저장/연산 능력과 이를 표시하여 주는 디스플레이 장치의 처리속도 향상에 따라 놀라운 발전을 거듭하여 왔다. 대부분의 문자처리 프로그램들이 과거 문자 당 저장용량과 표현속도에 제한을 받아 정형화되고 경직된 포맷으로 문자데이터들을 변환하고 처리하였던 반면, 최근의 워드프로그램들은 문자와 그림 사이의 경계를 무너뜨리는 정도의 능력을 보여주고 있다. 예컨대 애니매이팅 gif 파일형식이나 flash 파일형식, 그리고 매크로 기능을 사용한 다양한 프레젠테이션 관련 파일형식들은 동영상처럼 살아 움직이는 문자를 간단한 tool에 의해 일반적인 PC에서도 구현할 수 있게 해준다.
특정 언어로 된 글을 읽을 때 상기 언어가 모국어인 사람이 그 글을 읽고 해석하는 두뇌메커니즘과 상기 언어가 제2외국어이고 그것을 머리 속에서 모국어로 번역해서 읽는 사람이 그 글을 읽고 해석하는 두뇌메커니즘은 다르기 마련이다.
또한 같은 모국어를 쓰는 사람들 사이에서도 모국어로 된 글을 빠른 시간 내에 읽고 해석하는 능력은 각기 다르다. 이 또한 지능의 개인차를 고려하더라도, 문장으로 표현된 언어를 인식하고, 해석하는 두뇌메커니즘이 서로 다르기 때문에 일어나는 현상이다.
영어를 제2외국어로 배우는 많은 국가에서 영어권에서 태어나서 영어를 모국어로 사용하는 사람과 동등 이상의 속도로 빠르게 읽고 정확히 해석하고자 하는 노력은 오랜 기간 동안 이어져 왔다. 그러나 영어가 모국어인 사람은 영어 문장의 구조를 3차원적으로 풍부하게 느끼고 받아들이면서 이해하는 반면 영어를 제2외국어로 배운 사람은 2차원적인 문법의 구조적 틀에 갇혀 눈으로 영어문장을 분해하고 이를 두뇌 속에서 재조립해서 해석하는 한계를 벗어나지 못하였다. 이로 인해 모국어 사용자와 동등한 정도의 장문 속독이 어려웠으며 설사 장문 속독이 어느 정도 가능한 사람일 경우에도 읽고 난 이후에 기억이 단편적으로 남아 이해도가 크게 떨어지는 단점이 있었다.
본 발명은 상기 (배경1.) 에서 설명한 바와 같이 아직 언어학분야에서의 이론에 머물러있는 Universal Grammar의 3대 법칙 merge(분기된 내용의 병합), piping(인과적 요소들의 연결), moving(주체에 연결된 의미들의 연동) 등 언어학자에 의해 제시된 추상적 의미의 이론을 재 해석하여 언어이론을 눈에 보여질 수 있는 Graphic tool로 구체화시킴으로써 Universal Grammar에 따른 문장구조 이해요령을 모국어 사용자의 두뇌작용과 동등한 속도와 실체적인 체감현상으로 피 교육자가 체험할 수 있도록 한 것이다.
컴퓨터 화면상에서 특정 문장의 merge, piping, moving 작동구조를 컴퓨터 기반의 디스플레이 장치에 의해 동적인 이미지를 갖는 문자그래픽 모형으로 실체화 시키고 그것을 사실적으로 화면상에서 구동시키는 방법을 구현하기 위해 본 발명은 컴퓨터에 입력되는 소정의 문장 특정영역에서 포착된 문자들의 형상을 상기 (배경2.)에서 소개한 문장인식 프로그램을 이용하여 운동 가능한 개별 언어요소로 변환 저장하고, 여기에 상기 개별 언어요소의 merge, piping, moving 원리에 따른 움직 임을 상기 (배경3.)에서 소개한 문자 애니매이팅 도구를 이용하여 기하학적 평면기호 또는 물리학적 입체운동 정보로 변환한 동적 문장데이터로 변환한다.
상기 동적 문장데이터는 문장인식부가 결정한 상기 소정의 문장에서 의미있는 언어요소, 다시 말해서 문장의 전체적인 뜻을 결정짓는 문장척추(back bone)를 기준으로 하여 각 개별 언어요소의 형상과 움직임 변화로 화면에 출력된다.
이때 상기 의미있는 언어요소나 문장척추를 포함한 나머지 언어요소의 merge, piping, moving에 대한 판단여부는 기본적으로 현재까지 공개된 자동번역 시스템의 문장 인식능력에 따른다.
예를 들어 향후 (자동번역) 인공지능의 발전에 따라 같은 문장에서도 merge & piping으로 문장을 전개하느냐 혹은 merge & moving으로 문장을 전개하느냐와 같은 다른 판단이 나올 수 있으나 이 모든 경우는 본질적으로 본 발명이 제시하는 기술적 사상의 예비단계에 해당된다 할 수 있다.
즉, 본 발명은 현재까지 공개된 컴퓨터의 인공지능 능력에 의해서 인식된 문장에 대해 실체적인 그래픽 효과를 부여하는 기술에 관한 발명이므로 상기 판단여부의 정확도(사실 이것은 언어학자들 사이에서도 의견이 갈리는 부분이 있다)가 본 발명 동적 그래픽 변환개념 자체를 침해하거나 훼손하는 것은 아님을 밝혀둔다.
본 발명에 따르면 영어를 모국어로 사용하는 사람이 아니거나 영어 읽기능력이 떨어지는 사람이라 하여도 화면상에 표시되는 빠르고 의미있는 움직임 그대로를 반복적으로 눈이 추적하면서 시신경과 그에 연결된 두뇌 역시 결과적으로 Universal Grammar에 따른 문장독해 원리로 움직이도록 만드는 최적의 훈련도구를 제공하여 준다.
본 발명에 따른 그래픽 상영방법은 언어사전을 탑재한 컴퓨터에 연동되는 적절한 문자입력 장치와 디스플레이 장치로 구현되었을 경우, 사용자로 하여금 대략 10주/2000페이지 분량의 상영으로 사용자의 읽기속도를 평균 300%, 이해력은 평균 30%이상 증가하는 효과를 가져다 준다. 이것은 책에 의한 전통적 속독훈련 방식인 직독직해/순차번역보다 3배 이상 뛰어난 것이다.
컴퓨터 내에서 이루어지는 시간에 따른 처리과정으로 도 1을 참조하여 본 발명의 기술적 특징을 표현하면,
먼저 입력되는 문장을 공백과 개별 언어요소로 변환하는 (A-1)단계와, 상기 변환된 공백과 개별 언어요소를 인식하여 이를 언어데이터 저장부와 대조하여 의미 있는 언어요소영역(1)과 그를 둘러싼 공백영역(2)으로 분류하여 저장하는 (A-2)단계로 구성되는 문장 인식단계(=A단계)가 실행되고,
다음으로, 상기 A단계를 거쳐 도출된 문장데이터를 Universal Grammar에 따른 3가지 주요 문장 조립단계에 맞추어 재 분류하고 그에 따른 동적 운동정보를 각 언어요소영역(1)과 각 공백영역(2)에 할당하는 (B-1)단계와, 상기 할당된 동적 운동정보를 각 영역이 보유한 원래의 정적 그래픽정보에 소정의 기호를 삽입하여 변형시킨 새로운 정적 그래픽정보로 바꾸어서 화면에 표시하거나, 또는 각 영역이 보유한 정적 그래픽정보를 기초로 하여 그 자체를 변형시킨 새로운 동적 그래픽정보로 바꾸어서 화면에 표시하는 (B-2)단계로 구성되는 동적 그래픽 변환단계(=B단계)가 실행된다.
상기 A, B단계를 연속 실행할 수 있도록 앞 문장의 A, B단계가 종료되면 앞 문장의 인식정보를 삭제하고 동적 그래픽변환을 중지하며(C-1), 이어지는 문장 또는 줄 바꿔서 이어지는 문장에 상기 (A-1) ~ (B-2) 단계를 반복 적용할 수 있도록 인식영역과 화면표시영역의 기준점을 다음 문장의 첫머리로 이동(C-2)시키는 문장 기준위치 이동단계(=C단계)가 실행된다.
이후 상기 A-B-C 가 반복되면서 컴퓨터에 입력되는 문장은 먼저 화면 상에 펼쳐진 책처럼 사용자에게 제시되고, 이후 기존의 컴퓨터 책 화면과 달리 Universal Grammar에 따른 문장의 조립구조가 해당 문장에 겹쳐서 역동적으로 표시(애니매이팅)되므로 사용자는 이를 반복적으로 따라 읽으면서 문장의 개별 언어요소와 그 결합구조를 조직적으로 쫓는 시선이 발달된다.
상기 설명한 본 발명의 진행단계를 많은 수의 짧고 긴 글에 반복적으로 점점 빠르게 적용하면 사용자의 시각이 (영어)문장의 구조파악에 최적으로 반응하도록 자극되면서 사용자 두뇌의 언어해석 구조가 해당언어의 모국어 사용자와 동일한 구조로 점차 개조되는 것이다.
상기 도 1에서 소개한 본 발명의 대략적인 기술적 특징을 보다 구체적으로 표현하기 위하여 도면에 포함된 본 발명의 일 예를 참조하여 아래에 보다 상세히 설명한다.
다만 아래에 기술하는 구체적인 실시예(specific example)에서 특정 기술용어를 포함한 구성요소들과 그들을 서로 결합한 특정 결합구조가 본 발명에 내재한 포괄적인 기술사상을 제한하는 것은 아니다.
촘스키 교수의 Universal Grammar를 관통하고 있는 기본 개념을 다시 소개하면 문장에서 고유한 행위자는 의미의 체인으로 연결되어있고 행위자가 의미의 체인을 흔들면 그 파동이 다음 행위자로 뻗어나가 다음 행위자가 연쇄 반응한다는 것이다.
이때 최소거리의 원칙에 따라 거리가 멀수록 상기 의미의 체인이 전달하는 힘은 약해지고 다음 행위자가 받는 영향력은 줄어든다.
예를 들면 merge의 개념은 따로 떨어질 수 있는 구절이 병합되는 것을 의미한다.
도 2는 일단 merge의 개념으로만 해석된 문장에 본 발명의 상영방법이 적용된 실시예이다.
도면 상단의 언어요소 포착단계를 살펴보면 주어진 문장이 컴퓨터의 문장인식 처리부에서 인식, 해석된 후 의미있는 개별 언어요소(1)와 의미있는 공백(2)으로 분류되고, 이후 각 언어요소(1)와 공백(2)이 갖고 있는 원래의 정적 그래픽정보가 해당 영역에 할당된 개별 저장소에 저장된다.
이때 정적 그래픽 정보란 다름 아닌 화면에 표시된 글자의 내용, 크기, 형상, 배경의 크기와 색깔 등이 될 것이다.
첫번째 문장인 The boy who will be good king에서 who를 기준으로 병합(merge) 가능한 두 개별 언어요소 The boy와 will be good king이 존재한다.
이때 두뇌 속에서 merge의 개념적인 동작을 따르는 문장 해석작용이 유발될 수 있도록 상기 언어요소들과 공백들은 애니매이팅 Type1과 같이 공백이 사라지고 merge를 유발하는 언어요소(100 = who)의 크기가 작아지며 색깔이 변할 수 있다.
또는, Type2와 같이 merge되는 두 언어요소(101)의 원래 글자가 옅어지면서 새로운 글자가 돌출, 근접하는 등의 동적 그래픽 변환이 이루어질 수도 있다.
상기 도 2의 Type1,2 과정은 도 1의 흐름도에서 (B-2-2)단계에 해당하는 것이다. 즉 merge의 동작구조를 충실히 재생하기 위해서는 겹치는 정적 그래픽 변환(B-2-1)보다 돌출되거나 축소 또는 삭제되면서 의미있는 개별 언어요소(1)가 서로 가까워지는 동적 그래픽 변환(B-2-2)이 효과적일 수 있다.
도 3은 Piping의 개념으로만 해석될 수 있는 문장에 본 발명의 상영방법이 적용된 실시예이다.
Piping의 개념이란 인과관계의 흐름에 따른 연결을 의미하며 에너지의 순차적 흐름을 나타낸 것으로 해석될 수 있다.
기존의 끊어서 해석하는 분해결합 해석방식 등은 문장의 앞뒤로 문장해석구조가 왔다 갔다 하는 경우가 잦으나, 기본적으로 모든 언어의 올바른 해석은 문장의 처음에서 끝까지 순차적으로 진행되면서 때에 따라 필요한 만큼 앞문장의 의미를 뒷문장 특정 부분까지 끌고 가는 방식이 자연스럽다. 따라서 주로 piping 개념이 적용되는 문장도 시선의 빠르기를 늘리고 문장 처음의 의미주체를 문장 끝까지 끌고 가는 두뇌훈련에 효과적이다.
도 3 상단의 언어요소 포착부분에서는 앞서 도 2에서 소개하지 않았던 무의미한 언어요소(1')와 무의미한 공백(2')이 소개되어 있다.
최신 컴퓨터의 자동번역 프로그램은 실로 지극히 많은 수의 다양한 문장을 저장하고 있다. 인공지능이 특정 문장을 처리하기에 앞서 거의 실시간으로 사전에서 참조하는 문장의 수는 방대하며 이때 상기 무의미한 언어요소(1')들과 무의미한 공백(2')들은 사전으로부터 적절히 참조되어 의미있는 개별 언어요소(1)와 상기 (1)을 구분하는 의미있는 공백(2)으로 걸러질 수 있다. 즉 유의미한 언어요소/공백과 무의미한 언어요소/공백을 나누는 기준은 기본적으로 상기 인공지능이 사전에서 참조한 구절 또는 문장과 현재 입력된 문장 사이의 유사도로 결정된다. 그러므로 특정문장에서 유의미했던 언어요소가 다른 문장에서는 무의미한 정도의 것으로 판단될 수 있고 이를 둘러싸는 공백도 마찬가지일 수 있다. 그러나 상기와 같은 인공지능 판단의 차이는 앞서 과제해결수단에 설명한 바와 같이 본 발명 기술적 특징의 범위를 벗어나는 것이다. 즉 본 발명의 동적 그래픽 변환에 이은 변환된 그래픽의 상영방법은 상업화 가능한 정도의 정확도를 보이고 있는 현재의 자동 문장인식 기술의 문장인식 정확도와 궤를 같이하는 정확도 수준에서 피 교육자에게 가장 효율적인 시각 및 두뇌자극 방법을 제공하는 것이다.
따라서 본 발명을 피교육자에게 적용하기 전에, 시스템의 인공지능이 참조하게 될 언어사전을 입력될 문장의 분야에 미리, 적절히 최적화 시켜둔다면 유사도가 더 높은 문장을 더욱 빠르고 많이 참조하여 그에 따른 정확한 문장구조를 동적 그래픽 변환하여 피교육자에게 상영하는 효과를 거둘 수 있을 것이다. 그러나, 설사 그러한 예비작업이 없다고 하더라도 본 발명의 상영방법 또는 상영된 영상이 피교육자의 시각과 그에 연결된 두뇌의 반응구조를 의도적으로 빠르게 자극하는 본질적인 효과 자체가 줄어드는 것은 아니다.
도 3 Type1의 동적 그래픽 변환은 piping의 기본 개념을 충실히 반영하는 인과관계를 암시하는 화살표(200)가 원래 문장에 겹쳐서 나타나는 정적 겹침 애니매이팅 패턴을 보여준다. 이것이 앞서 설명한 바 있는 (B-2-1)단계이다. 즉 언어요소영역(1)과 각 공백영역(2)에 할당된 동적 운동정보를 각 영역이 보유한 원래의 정적 그래픽정보에 소정의 기호(200 = 화살표)를 삽입하여 변형시킨 (겹쳐진)새로운 정적 그래픽정보로 바꾸어서 화면에 표시한 것이다.
Dog bites the chain loosed와 Dog bites thieves run away 두 문장을 추가로 (B-2-2)단계에 의해 동적 그래픽 변환하여 보자. 이 문장들은 개별 언어요소 들이 모두 순차적으로 인과관계를 이루면서 뒤에 이어지는 언어요소에게 의미를 전달하고 있다. 따라서 도 3 하단에서와 같이 상기 두 문장은 각 언어요소들이 돌출, 형상 및 크기 변환되면서, 동시에 후속되는 의미있는 공백들이 삭제됨으로써 마치 앞 단어가 뒤 단어에 끌려들어가면서 부딪히는 듯한 애니매이팅 효과를 보여준다. 도면은 움직이는 화면이 아니므로 모든 순차적 움직임을 위에서 아래로 다 도시 하였으나 실제 컴퓨터 화면에서는 하나의 문장에 201-1, 201-2, , , 201-5 등의 움직임이 연달아서 나타나고 사라지면서 마치 한 문장 속에서 단어가 순차적으로 살아 움직이는 듯한 느낌을 받게 된다.
도 4는 도 2, 도 3에서 제시한 merge와 piping의 개념이 적절히 혼합된 동적 그래픽 변환을 나타낸 실시예이다.
컴퓨터는 문장을 인식하는 A단계에서 의미있는 개별언어요소를 확정하고 그를 둘 러싼 좌우의 공백을 재차 의미있는 merge공백(2-merge) 또는 의미있는 piping공백(2-piping)으로 구별하여 판단한다.
이후 판단된 결과에 따라 서로 다른 동적 문장데이터 정보를 할당하고, 이것은 원래의 문장형상에 적용되면서 도2와 도3에서 소개하였던 본 발명 특유의 그래픽 패턴이 혼합 상영된다.
Dog that bites the chain loosed get free. 의 첫 문장에서 Type1 애니매이팅은 Dog와 bite를 일단 서로 끌어당겼다가, 이후 bite부터 free까지 화살표 표시한다. 즉 Dog와 bites는 서로 merge되어 있었으며, bite 이후의 단어들은 서로 인과적으로 piping 되어 있다는 뜻이다.
마찬가지로 Mr. Dorsey was the director of a firm called Grunnings, which made drills. 의 둘째 문장에서 Tipe1 애니매이팅은 Mr. Dorsey 와 the director를 일단 서로 끌어당겼다가, 그 다음에 of부터 Grunnings까지 화살표 표시하고, 다음에는 Grunnings와 made를 서로 끌어당겼다가 재차 drills까지 화살표 표시한다. 즉 Mr. Dorsey 와 the director, Grunnings와 made는 서로 merge되어 있었으며, 그 사이의 단어들은 서로 인과적으로 piping 되어 있다는 뜻이다.
더욱 빠른 시선처리나 더욱 역동적인 문장움직임을 위해서 Type2가 제시되어 있다. 도 4의 Type2에서 돌출되어 떠오르거나 뒤 단어에 부딪히거나, 기존에 단어가 있었던 자리가 연한 초록색이나 노란색으로 옅어지는 등의 다양한 애니매이팅 그래픽형상은 기본적으로 문자데이터가 아닌 해당 문자영역을 그대로 스캔(scan) 한 그림정보의 변환에 의한 것이다. 다시 말해서 앞서 도 1에서 설명한 B단계에서 각 영 역이 보유한 정적 그래픽정보를 기초로 하여 그 자체를 변형시킨 새로운 동적 그래픽정보로 바꾸어서 화면에 표시하는 (B-2)단계를 의미하는 것이다.
도 5는 merge와 piping의 개념에다 moving의 개념까지 혼합된 문장에 본 발명의 동적 그래픽 변환을 나타낸 실시예이다.
Moving은 주체에 연결된 의미들이 마치 체인으로 연결된 듯이 서로 연동상태에 있는 것으로 개념적으로 정의할 수 있다.
예컨대, 길고 복잡한 문장에서 주어 또는 의미의 주체가 멀리 떨어질수록 그것을 읽는 사람의 두뇌에 남는 기억의 효과는 감소한다. 이것이 영어가 비 모국어인 사람들의 빠른 문장구조 파악에 어려운 이유이다.
따라서 merge를 벗어나는 범위의 의미의 연결이 컴퓨터에 의해 포착될 때 merge와 동시에, 또는 merge에 앞서 moving을 적용할 수 있으며 이것은 화면상에서 마치 행위자가 문장 위를 걸어 다니는 듯이 동적 그래픽 변환될 수 있다.
도 5의 They were the last people you'd expect to be involved in anything strange or mysterious because they just didn't hold with such nonsense 문장에서 They(1-merge)는 the last people you'd expect to와 merge될 수 있으며, 또는 be involved in에게 moving으로 영향을 줄 수 있다. 마찬가지로 상기 They는 2-piping으로 표시된 piping공백들 사이에 있는 they와 함께 이어지는 hold with에게 moving으로 의미 연동될 수 있다.
Type1 Animating(도5)는 비교적 정적인 그래픽의 겹침으로 이루어진 동적 그래픽 문장을 보여준다. 앞서 설명한 바와 마찬가지로 다섯 개로 나열된 각각의 문장은 특정 시점에서의 상영 상태(정지영상)을 보여주는 것이다. 즉 상기 문장이 표시된 화면에서 연속적으로 애니매이팅 된다면 동적 그래픽 변환된 문장 동영상이 구현될 수 있다.
도면에서 merge와 piping은 앞서 설명한 패턴을 따르고 있으며, moving은 원거리에 떨어져 있는 의미 주체를 300-1, 300-2 등으로 재차 출현시켜 준다.
Type2 Animating(도5)는 정적 겹침 그래픽이 아닌 동적 그래픽 변환된 영상의 특정 시점의 정지영상을 순차적으로 나열하고 있다. 예컨대 두 번째와 다섯 번째의 문장에서 They의 움직임은 마치 문장 위를 살짝 떠서 이동하는 듯한 의미의 연결을 보여준다. 이러한 그래픽 변환패턴은 Universal Grammar를 비롯한 어떤 언어학 자료에서도 모티브를 얻기 힘든 본 발명만의 고유한 특징이며 도 1에 도시된 방법에 의해 애니매이팅 가능한 컴퓨터기반 디스플레이 화면에서 가장 최적으로 구동 가능하여 영어권 native reader와 동등한 수준의 경험칙을 그 어떠한 영어교재보다도 더 자극적이고, 의도적이며, 최적화된 시각(두뇌)인식 훈련방법으로 제공하여 준다.
도 6은 장문의 속독에서 필요한 구절 단위의 언어요소 인식과 빠른 시각적 문장구조 분해를 위한 고급자용 동적 그래픽 영상을 나타낸 실시예이다.
도 6에 도시된 두 개의 문장을 참조하면, 발달된 문장인식 프로그램은 도 2~도5와 달리 3~6 단어 이상의 독립적 의미에 가까운 문장을 개별언어요소로 인식하며, 동적 그래픽 변환프로그램은 속도상승에 방해가 되는 모든 다른 글자 색과 기호를 배제하고 간단한 돌출과 끌어당김, 주체의 연속적 이동 등으로 빠르게 애니매이팅 함으로써 피교육자로 하여금 급속도의 인식능력과 문장분해 및 재 조립 능력을 습득시킨다.
위에서 설명한 동적 그래픽 영상을 피 교육자에게 순차적으로 제공하여 학습성취도를 측정한 자료를 도 6, 7에 그래프로 도시하였다. 도시된 그래프를 살펴보면 개인별로 최초 보유한 능력의 차이에 따른 출발점 차이만 있을 뿐 merge와 piping훈련을 거쳐 moving훈련에 도입된 이후로는 대부분의 학습자들이 정체현상 없이 급속도로 Reading Speed가 증가하는 것을 볼 수 있다. 이것은 통상의 다독(多讀) 방법으로는 결코 달성할 수 없는 짧은 기간(7주 이내)에 영어가 모국어이며 대학원생 수준의 지식을 갖춘 사람을 능가하는 분당 200~400 단어 수준(분당 1페이지 이상)에 도달하는 결과를 보여주는 것으로 본 상영방법이 비 영어권 사람들의 두뇌를 최적으로 자극할 수 있다는 결과를 정확하게 보여준다고 하겠다.
이상 본 발명이 구체화된 실시예를 도면과 함께 상세히 설명하였으나, 본 발명의 기술적 사상은 상기 실시예에만 국한되는 것은 아니다.
다시 말해 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면, 본 발명의 상세한 설명 또는 도면에 기재된 기술구성을 활용하여 필요에 따라 단순한 변경제작 및 간단한 확장 설계를 추가로 구현할 수 있을 것이나, 이 또한 본 발명의 고유한 기술사상의 범위에 자명하게 포함된다.
본 발명에 따른 동적 영문그래픽 상영방법은 인터넷 망을 통한 다량 배포가 가능하므로 전세계 비 영어권의 학습자들에게 컴퓨터화면을 통해 강력한 Speed reading 애니매이팅 교습을 실시할 수 있다.
본 발명은 아직 완전하지 않은 현재의 자동번역 인공지능에 의해서도 충분하고 정확한 두뇌자극을 유도할 수 있지만, 추가적으로 사전에 패턴을 미리 생성하여 결정된 동적 문장데이터를 인간이 수정, 보완할 경우 더욱 정교하고 최적화된 두뇌훈련이 가능하게 된다. 이것은 새로운 영어교습 사업모델로 발전될 수 있다.
향후 거대한 용량폭발을 보일 컴퓨터 탑재 언어사전이나, 경험이 거듭될수록 이를 더욱 영리하게 참조할 인공지능의 급속한 발달속도를 고려하면, 사용자의 두뇌성향과 시선속도에 따른 선별된 패턴이나, 사용자전용 해석 구문, 또는 최적화된 그래픽 진행속도 등이 본 발명의 발전된 형태로 추가 적용 가능할 것이며 이는 영어원서를 생애 처음 접하게 되는 비 영어권 사용자에게 기초부터 최종단계까지의 전체 학습과정에서 학습의 방향이나 학습속도를 최적으로 제어할 수 있는 효과적인 도구가 된다.
도 1은 본 발명 동적 영문그래픽 상영방법의 각 수행단계별 처리과정을 나타낸 흐름도.
도 2는 merge의 개념으로만 해석된 문장에 본 발명이 적용된 실시예.
도 3은 piping의 개념으로만 해석된 문장에 본 발명이 적용된 실시예.
도 4는 merge와 piping 개념이 적절히 혼합된 문장에 본 발명이 적용된 실시예.
도 5, 6은 merge와 piping 개념에다 moving 개념이 추가되어 해석되는 문장에 본 발명이 적용된 실시예.
도 6, 7은 본 발명 상영방법을 피실험자들에게 적용하여 일정 기간 후의 학업 성취도를 측정한 조사표.
* 도면 주요부분에 대한 도면부호의 설명
1: (의미있는) 개별언어요소 1': (판단 전) 개별언어요소
2: (의미있는) 공백 2': (판단 전) 공백
200, 300: 겹쳐지는 정적 그래픽
100, 101, 201, 301: 변형되는 동적 그래픽

Claims (9)

  1. Universal Grammar에 따른 merge작용 또는 piping작용의 실체적 상영방법에 있어서,
    상기 merge작용 또는 piping작용을 유발하는 원래의 개별언어요소(1)의 색깔이 옅어지거나 크기가 작아지고,
    상기 개별언어요소(1)에 인접한 공백(2)의 크기가 원래 크기 이하이거나 삭제됨으로써 상기 개별언어요소(1)와 상기 공백(2)을 포함하는 merge문장 또는 piping문장으로 동적 그래픽 변환되는 것을 특징으로 하는 동적 영문그래픽 상영방법.
  2. 제1항에 있어서,
    상기 개별언어요소(1)는 상기 개별언어요소(1)가 갖는 내용과 동일한 내용으로 돌출 강조된 형태의 문장이 추가로 겹쳐지거나 재형성되어 상기 merge 작용 또는 piping 작용의 방향으로 이동하는 것을 특징으로 하는 동적 영문그래픽 상영방법.
  3. 제1항에 있어서,
    상기 개별언어요소(1)의 화면표시 영역에는 상기 merge 작용 또는 piping작용을 의미하는 기하학적 기호가 겹쳐져서 형성되는 것을 특징으로 하는 동적 영문그래픽 상영방법.
  4. Universal Grammar에 따른 moving 작용의 실체적 상영방법에 있어서,
    상기 moving작용을 유발하는 제1개별언어요소로부터,
    상기 제1개별언어요소와 상기 moving작용으로 연동되는 제2개별언어요소 사이의 범위 내 소정의 위치에 상기 제1개별언어요소 또는 제2개별언어요소가 재 출현하는 것을 특징으로 하는 동적 영문그래픽 상영방법.
  5. 제4항에 있어서,
    상기 제1개별언어요소와 moving작용으로 연동되는 제2개별언어요소 사이의 범위 내 화면표시 영역에는 상기 제1개별언어요소 또는 제2개별언어요소가 추가로 형성되어 연속적으로 이동하면서 화면 표시되는 것을 특징으로 하는 동적 영문그래픽 상영방법.
  6. 제1항 내지 제5항 중 어느 한 항에 있어서,
    상기 제1항 내지 제5항 중 어느 한 항에 기재된 실행단계를 B단계로 정의할 때,
    상기 B단계 이전에, 입력되는 문장을 공백과 개별 언어요소로 변환하는 (A-1)단계와, 상기 변환된 공백과 개별 언어요소를 인식하여 이를 언어데이터 저장부와 대조하여 의미 있는 언어요소영역(1)과 그를 둘러싼 공백영역(2)으로 분류하여 저장하는 (A-2)단계로 구성되는 문장 인식단계(=A단계)가 실행되고,
    상기 B단계 이후에 앞 문장의 인식정보를 삭제하고 동적 그래픽변환을 중지하는(C-1)단계와, 이어지는 문장 또는 줄 바꿔서 이어지는 문장에 상기 (A 단계)를 반복 적용할 수 있도록 인식영역과 화면표시영역의 기준점을 다음 문장의 첫머리로 이동시키는(C-2)단계로 구성되는 문장 기준위치 이동단계(=C단계)를 더 포함하여 구성되는 동적 영문그래픽 상영방법.
  7. 제6항에 있어서,
    상기 B단계는, 상기 A단계를 거쳐 도출된 문장데이터를 Universal Grammar에 따른 3가지 주요 문장 조립단계에 맞추어 재 분류하고 그에 따른 동적 운동정보를 각 언어요소영역(1)과 각 공백영역(2)에 할당하는 (B-1)단계와, 상기 할당된 동적 운동정보를 각 영역이 보유한 원래의 정적 그래픽정보에 소정의 기호를 삽입하여 변형시킨 새로운 정적 그래픽정보로 바꾸어서 화면에 표시하거나, 또는 각 영역이 보유한 정적 그래픽정보를 기초로 하여 그 자체를 변형시킨 새로운 동적 그래픽정보로 바꾸어서 화면에 표시하는 (B-2)단계로 구성되는 것을 특징으로 하는 동적 영문그래픽 상영방법.
  8. 제6항에 기재된 방법을 컴퓨터 기반 디스플레이 장치에 적용하여 표현된 영상에 있어서,
    특정 시점이나 특정 표현상태에서 정지된 상태를 저장 가능한 파일형식으로 변환한 것을 특징으로 하는 동적 영문그래픽 정지영상.
  9. 제7항에 기재된 방법을 컴퓨터 기반 디스플레이 장치에 적용하여 표현된 영상에 있어서,
    빠르거나 느리게 연속 변환되는 애니매이팅 화면을 재생 가능한 매체로 변환한 것을 특징으로 하는 동적 영문그래픽 동영상.
KR1020090121688A 2009-12-09 2009-12-09 영어속독을 위한 동적 영문그래픽 상영방법 KR100968364B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020090121688A KR100968364B1 (ko) 2009-12-09 2009-12-09 영어속독을 위한 동적 영문그래픽 상영방법
GB1122202.3A GB2488005A (en) 2009-12-09 2010-11-30 Method for playing dynamic english graphics of english sentences for speed reading
US13/322,515 US8310505B2 (en) 2009-12-09 2010-11-30 Method for playing dynamic english graphics of english sentences for speed reading
PCT/KR2010/008503 WO2011071267A2 (ko) 2009-12-09 2010-11-30 영어속독을 위한 동적 영문그래픽 상영방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090121688A KR100968364B1 (ko) 2009-12-09 2009-12-09 영어속독을 위한 동적 영문그래픽 상영방법

Publications (1)

Publication Number Publication Date
KR100968364B1 true KR100968364B1 (ko) 2010-07-06

Family

ID=42645248

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090121688A KR100968364B1 (ko) 2009-12-09 2009-12-09 영어속독을 위한 동적 영문그래픽 상영방법

Country Status (4)

Country Link
US (1) US8310505B2 (ko)
KR (1) KR100968364B1 (ko)
GB (1) GB2488005A (ko)
WO (1) WO2011071267A2 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101609910B1 (ko) * 2013-08-09 2016-04-06 (주)엔엑스씨 학습 서비스를 제공하는 방법, 서버 및 시스템

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010017480A (ko) * 1999-08-11 2001-03-05 박규진 학습용 디지털 캡션 출력방법
KR100686545B1 (ko) 2006-09-26 2007-02-26 정준언 언어학습장치
KR20090001718A (ko) * 2007-05-14 2009-01-09 차원이동교육도시 주식회사 유무선 통신망을 이용하여 속독 서비스를 제공하는 서버 및기록매체
KR20090096952A (ko) * 2008-03-10 2009-09-15 (주)나인앤미디어 인지단어 그룹을 이용한 속해 훈련 서비스 제공 방법 및시스템

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002207413A (ja) 2001-01-12 2002-07-26 National Institute Of Advanced Industrial & Technology 行動認識発話型語学学習装置
JP2004205770A (ja) 2002-12-25 2004-07-22 Yukai Kikaku:Kk 電子表示画面上の回遊アニメーションによる言語記憶学習システム
JP2005338173A (ja) 2004-05-24 2005-12-08 Advanced Telecommunication Research Institute International 外国語読解学習支援装置
JP2006072281A (ja) 2004-09-03 2006-03-16 Eye Power Sports Inc 脳を活性化し鍛える方法と記録媒体
JP2006202181A (ja) * 2005-01-24 2006-08-03 Sony Corp 画像出力方法および装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010017480A (ko) * 1999-08-11 2001-03-05 박규진 학습용 디지털 캡션 출력방법
KR100686545B1 (ko) 2006-09-26 2007-02-26 정준언 언어학습장치
KR20090001718A (ko) * 2007-05-14 2009-01-09 차원이동교육도시 주식회사 유무선 통신망을 이용하여 속독 서비스를 제공하는 서버 및기록매체
KR20090096952A (ko) * 2008-03-10 2009-09-15 (주)나인앤미디어 인지단어 그룹을 이용한 속해 훈련 서비스 제공 방법 및시스템

Also Published As

Publication number Publication date
GB201122202D0 (en) 2012-02-01
WO2011071267A9 (ko) 2011-08-04
US20120113139A1 (en) 2012-05-10
US8310505B2 (en) 2012-11-13
WO2011071267A2 (ko) 2011-06-16
GB2488005A (en) 2012-08-15
WO2011071267A3 (ko) 2011-09-15

Similar Documents

Publication Publication Date Title
Loffredo et al. Translation and creativity: Perspectives on creative writing and translation studies
CN110264792B (zh) 一种针对小学生作文智能辅导系统
Amin et al. Sign language gloss translation using deep learning models
De Martino et al. Signing avatars: making education more inclusive
KR100953979B1 (ko) 수화 학습 시스템
Donahue Rhetorical and linguistic flexibility: Valuing heterogeneity in academic writing education
Guimarães et al. Sign language writing acquisition--Technology for a writing system
Krause et al. Sign language in light of mathematics education
El Ghoul et al. Multimedia Courses Generator for Deaf Children.
Baumgärtner et al. Automated Sign Language Translation: The Role of Artificial Intelligence Now and in the Future.
KR100968364B1 (ko) 영어속독을 위한 동적 영문그래픽 상영방법
Doloughan Translation as a motor of critique and invention in contemporary literature: the case of Xiaolu Guo
Gibet et al. Signing avatars-multimodal challenges for text-to-sign generation
Elhadj et al. Towards a unified 3D animated dictionary for Saudi sign language
Sotelo Using a multimedia corpus of subtitles in translation training
Cohn Interdisciplinary approaches to visual narrative
Probierz et al. Sign language interpreting-relationships between research in different areas-overview
Kadam et al. A learning ecosystem for dyslexic
Theoodore Artistic Drawing and Thought Expression: CAFA Drawing Retrospective 2009-2015
Xie et al. Divide and Control: Generation of Multiple Component Comic Illustrations with Diffusion Models Based on Regression
Joy et al. A prototype Malayalam to Indian Sign Language (ISL) Automatic Translator.
Abdul Aziz et al. Dyslexia-friendly design features for tangible user interfaces: a systematic literature review
Lin ABC: Typography and Identity
Most Crisis and criticism
Prathipa et al. Text to Audio Listener Tool in Tamil Language for Dyslexics

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee