KR20220101229A - 인토네이션, 스트레스 및 리듬을 표기한 영어 말하기 학습 서비스 제공 시스템 - Google Patents

인토네이션, 스트레스 및 리듬을 표기한 영어 말하기 학습 서비스 제공 시스템 Download PDF

Info

Publication number
KR20220101229A
KR20220101229A KR1020210003022A KR20210003022A KR20220101229A KR 20220101229 A KR20220101229 A KR 20220101229A KR 1020210003022 A KR1020210003022 A KR 1020210003022A KR 20210003022 A KR20210003022 A KR 20210003022A KR 20220101229 A KR20220101229 A KR 20220101229A
Authority
KR
South Korea
Prior art keywords
data
stress
rhythm
intonation
english
Prior art date
Application number
KR1020210003022A
Other languages
English (en)
Other versions
KR102480607B1 (ko
Inventor
정가영
Original Assignee
정가영
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 정가영 filed Critical 정가영
Priority to KR1020210003022A priority Critical patent/KR102480607B1/ko
Publication of KR20220101229A publication Critical patent/KR20220101229A/ko
Application granted granted Critical
Publication of KR102480607B1 publication Critical patent/KR102480607B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • G09B5/065Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/187Phonemic context, e.g. pronunciation rules, phonotactical constraints or phoneme n-grams

Abstract

인토네이션, 스트레스 및 리듬을 표기한 영어 말하기 학습 서비스 제공 시스템이 제공되며, 학습할 영어 문장을 발화한 원어민의 발화 데이터를 오디오로 출력할 때, 인토네이션(Intonation), 스트레스(Stress) 및 리듬(Rhythm)을 표기한 화면을 함께 출력하는 사용자 단말 및 적어도 하나의 영어 문장을 수집하고, 적어도 하나의 영어 문장이 표기된 화면 내에 높낮이에 대응하는 인토네이션, 한 단어 내에 표기되는 강세에 대응하는 스트레스 및 박자를 포함하는 규칙(Rhythm Rule)에 대응하는 리듬을 표시하는 표시부, 적어도 하나의 영어 문장을 발화한 원어민의 발화 데이터를 입력받는 입력부, 발화 데이터와 인토네이션, 스트레스 및 리듬이 표기된 화면 데이터를 매핑하여 저장하는 저장부, 사용자 단말에서 영어 문장을 선택하는 경우, 발화 데이터와 화면 데이터를 함께 사용자 단말로 전송하는 전송부를 포함하는 학습 서비스 제공 서버를 포함한다.

Description

인토네이션, 스트레스 및 리듬을 표기한 영어 말하기 학습 서비스 제공 시스템{SYSTEM FOR PROVIDING ENGLISH SPEAKING PRACTICE SERVICE INDICATING INTONATION, STRESS AND RHYTHM}
본 발명은 인토네이션, 스트레스 및 리듬을 표기한 영어 말하기 학습 서비스 제공 시스템에 관한 것으로, 쉐도잉 학습을 할 때 주의해야 할 원어민의 발음의 주요 인자를 직관적으로 인식할 수 있도록 표기하여 발음과 함께 출력할 수 있는 플랫폼을 제공한다.
단어 통사적 범주에 따라 내용어(Content Words)인 명사, 동사, 형용사. 부사에 강세의 분포가 결정된다는 이론에 따라 여러 개의 내용어로만 구성된 문장은 내용어의 갯수 만큼의 강한 리듬 박자로 구현된다. 내용어는 명사, 동사, 형용사, 부사의 4개의 통사적 범주를 가진 단어를 의미하며 모든 내용어는 하나 이상의 어휘강세를 가지는데, 내용어의 어휘강세는 문장 내에서는 문장강세(Sentence Stress)인 피치액센트(Pitch)를 통하여 실현된다. 강세 박자 언어(Stress-Timed Language)인 영어의 발화에 있어서 가장 특징적인 요소는 리듬의 구현이며, 이 리듬 박자(Rhythmic Beats)를 만들어내는데 기여하는 중요 요인이 영어의 강세이다. 영어의 강세와 리듬의 밀접한 관련성은 영어 운율에 관한 연구와 함께 구체화 되어 왔으며, 율격 음운론(Metrical Phonology)은 강세를 리듬의 측면에서 연구하는 대표적 이론이다.
이때, 영어의 강세(Stress)나 리듬(Rhythm)까지 함께 발음(Pronounciation)하면서 학습할 수 있는 방법이 연구 및 개발되었는데, 이와 관련하여, 선행기술인 한국등록특허 제10-1835127호(2018년03월06일 공고) 및 한국공개특허 제2017-0120234호(2017년10월31일 공개)에는, 영어 단어를 어미 형태별로 분류하고, 영어 단어의 어미 형태에 따른 강세 리듬 규칙을 학습하게 함으로써, 결과적으로 영어 단어의 읽기 능력을 향상시킬 수 있도록, 어미가 포함된 영어 단어들의 음절수 별로 강세 리듬 패턴을 제공하고, 어미가 포함되는 영어 단어 중 어느 하나의 영어 단어를 제공한 후, 영어 단어를 음절 수로 분리하여 제공하며, 음절로 분리된 영어 단어의 마지막 음절부터 처음 음절로의 순서로, 강세가 포함된 음절부터 하나씩 음절을 증가시키면서 강세 리듬 패턴에 따른 발음을 각각 제공하는 구성과, 악보의 가사로 지정되는 영어 단어의 음절 개수를 파악하고, 영어 단어의 각 음절별 음가를 설정하며, 영어 단어의 각 음절 및 음가에 대응하는 음표를 설정하고, 음료를 기 설정된 음정에 다라 악보에 배열하고, 음표에 대응되는 영어 단어의 각 음절을 가사로 지정하여 악보를 생성하는 구성이 각각 개시되어 있다.
다만, 영어 발음의 기본은 상술한 바와 같이 강세와 리듬 외에도 문장의 높낮이(Intonation)의 학습이 선행되어야 한다. 높낮이를 익히고 강세를 주면서 리듬감을 익히고 한 호흡에 어느 문장이나 단어까지 말해야 하는지를 배우는 호흡법까지 순서대로 함께 익혀야 원어민과 같은 발음이 가까스로 가능해지는데, 상술한 구성은 하나의 단어의 강세나 리듬만을 익히는 것이기 때문에 이를 모두 모아놓은 문장을 발음할 때에는 다시 인토네이션부터 배워야 하는 비효율이 발생한다. 현실적으로 영어 입력의 양이 충분히 이루어질 수 있는 여건을 갖춘 영미권 환경과는 근본적으로 다른 한국과 같은 EFL 환경에서는 많은 아이들이 여전히 읽기 성취기준을 달성하기에는 어려움이 많다. 충분한 입력이 전제됨에도 영미권에서 수 년이 넘게 걸리는 읽기 과정은 영미권과는 근본적으로 다른 ESL 환경을 가진 한국에서 한국환경에 맞게 개발 및 변형되어야 할 필요성이 존재한다.
본 발명의 일 실시예는, 영어 문장을 제공할 때 인토네이션(Intonation), 강세(Stress), 리듬(Rhythm) 및 호흡법까지 모두 출력되는 문장 내에 표시를 해줌으로써, 단순히 원어민의 발음만을 따라하는 쉐도잉(Shadowing) 학습에 머무는 것이 아니라, 어느 부분을 어떻게 읽어야 하는지에 대한 표시를 시각화함으로써 학습자가 발음 연습을 할 때 직관적으로 인지할 수 있도록 하고, 영어 문장의 현재 위치를 나타내주는 표시자(Indicator)와 오디오 콘텐츠를 동기화시킴으로써 현재 읽어야 하는 부분과 오디오 콘텐츠의 부분을 시청각적으로 인지할 수 있도록 하며, 높낮이나 강세 또 리듬감을 익힐 수 있도록 배속을 느리게 또는 빠르게 설정할 수 있도록 UI/UX를 생성함으로써 원어민과 같은 발음을 구사할 수 있도록 하는, 인토네이션, 스트레스 및 리듬을 표기한 영어 말하기 학습 서비스 제공 방법을 제공할 수 있다. 다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예는, 학습할 영어 문장을 발화한 원어민의 발화 데이터를 오디오로 출력할 때, 인토네이션(Intonation), 스트레스(Stress) 및 리듬(Rhythm)을 표기한 화면을 함께 출력하는 사용자 단말 및 적어도 하나의 영어 문장을 수집하고, 적어도 하나의 영어 문장이 표기된 화면 내에 높낮이에 대응하는 인토네이션, 한 단어 내에 표기되는 강세에 대응하는 스트레스 및 박자를 포함하는 규칙(Rhythm Rule)에 대응하는 리듬을 표시하는 표시부, 적어도 하나의 영어 문장을 발화한 원어민의 발화 데이터를 입력받는 입력부, 발화 데이터와 인토네이션, 스트레스 및 리듬이 표기된 화면 데이터를 매핑하여 저장하는 저장부, 사용자 단말에서 영어 문장을 선택하는 경우, 발화 데이터와 화면 데이터를 함께 사용자 단말로 전송하는 전송부를 포함하는 학습 서비스 제공 서버를 포함한다.
전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 영어 문장을 제공할 때 인토네이션(Intonation), 강세(Stress), 리듬(Rhythm) 및 호흡법까지 모두 출력되는 문장 내에 표시를 해줌으로써, 단순히 원어민의 발음만을 따라하는 쉐도잉(Shadowing) 학습에 머무는 것이 아니라, 어느 부분을 어떻게 읽어야 하는지에 대한 표시를 시각화함으로써 학습자가 발음 연습을 할 때 직관적으로 인지할 수 있도록 하고, 영어 문장의 현재 위치를 나타내주는 표시자(Indicator)와 오디오 콘텐츠를 동기화시킴으로써 현재 읽어야 하는 부분과 오디오 콘텐츠의 부분을 시청각적으로 인지할 수 있도록 하며, 높낮이나 강세 또 리듬감을 익힐 수 있도록 배속을 느리게 또는 빠르게 설정할 수 있도록 UI/UX를 생성함으로써 원어민과 같은 발음을 구사할 수 있도록 하고, FSI(the Foreign Service Institute)에서 발표한 바와 같이 카테고리 5 내의 한국어를 모국어로 하는 학습자가 가장 배우기 어려운(Exceptionally difficult for native Korean speakers) 영어를 익히는데 도움을 줄 수 있다.
도 1은 본 발명의 일 실시예에 따른 인토네이션, 스트레스 및 리듬을 표기한 영어 말하기 학습 서비스 제공 시스템을 설명하기 위한 도면이다.
도 2는 도 1의 시스템에 포함된 학습 서비스 제공 서버를 설명하기 위한 블록 구성도이다.
도 3 및 도 4는 본 발명의 일 실시예에 따른 인토네이션, 스트레스 및 리듬을 표기한 영어 말하기 학습 서비스가 구현된 일 실시예를 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 도 1의 인토네이션, 스트레스 및 리듬을 표기한 영어 말하기 학습 서비스 제공 시스템에 포함된 각 구성들 상호 간에 데이터가 송수신되는 과정을 나타낸 도면이다.
도 5는 본 발명의 일 실시예에 따른 인토네이션, 스트레스 및 리듬을 표기한 영어 말하기 학습 서비스 제공 방법을 설명하기 위한 동작 흐름도이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
명세서 전체에서 사용되는 정도의 용어 "약", "실질적으로" 등은 언급된 의미에 고유한 제조 및 물질 허용오차가 제시될 때 그 수치에서 또는 그 수치에 근접한 의미로 사용되고, 본 발명의 이해를 돕기 위해 정확하거나 절대적인 수치가 언급된 개시 내용을 비양심적인 침해자가 부당하게 이용하는 것을 방지하기 위해 사용된다. 본 발명의 명세서 전체에서 사용되는 정도의 용어 "~(하는) 단계" 또는 "~의 단계"는 "~ 를 위한 단계"를 의미하지 않는다.
본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다. 한편, '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, '~부'는 어드레싱 할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체 지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.
본 명세서에 있어서 단말, 장치 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말, 장치 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말, 장치 또는 디바이스에서 수행될 수도 있다.
본 명세서에서 있어서, 단말과 매핑(Mapping) 또는 매칭(Matching)으로 기술된 동작이나 기능 중 일부는, 단말의 식별 정보(Identifying Data)인 단말기의 고유번호나 개인의 식별정보를 매핑 또는 매칭한다는 의미로 해석될 수 있다.
이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 인토네이션, 스트레스 및 리듬을 표기한 영어 말하기 학습 서비스 제공 시스템을 설명하기 위한 도면이다. 도 1을 참조하면, 인토네이션, 스트레스 및 리듬을 표기한 영어 말하기 학습 서비스 제공 시스템(1)은, 적어도 하나의 사용자 단말(100), 학습 서비스 제공 서버(300), 적어도 하나의 교수자 단말(400)을 포함할 수 있다. 다만, 이러한 도 1의 인토네이션, 스트레스 및 리듬을 표기한 영어 말하기 학습 서비스 제공 시스템(1)은, 본 발명의 일 실시예에 불과하므로, 도 1을 통하여 본 발명이 한정 해석되는 것은 아니다.
이때, 도 1의 각 구성요소들은 일반적으로 네트워크(Network, 200)를 통해 연결된다. 예를 들어, 도 1에 도시된 바와 같이, 적어도 하나의 사용자 단말(100)은 네트워크(200)를 통하여 학습 서비스 제공 서버(300)와 연결될 수 있다. 그리고, 학습 서비스 제공 서버(300)는, 네트워크(200)를 통하여 적어도 하나의 사용자 단말(100), 적어도 하나의 교수자 단말(400)과 연결될 수 있다. 또한, 적어도 하나의 교수자 단말(400)은, 네트워크(200)를 통하여 학습 서비스 제공 서버(300)와 연결될 수 있다.
여기서, 네트워크는, 복수의 단말 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크의 일 예에는 근거리 통신망(LAN: Local Area Network), 광역 통신망(WAN: Wide Area Network), 인터넷(WWW: World Wide Web), 유무선 데이터 통신망, 전화망, 유무선 텔레비전 통신망 등을 포함한다. 무선 데이터 통신망의 일례에는 3G, 4G, 5G, 3GPP(3rd Generation Partnership Project), 5GPP(5th Generation Partnership Project), LTE(Long Term Evolution), WIMAX(World Interoperability for Microwave Access), 와이파이(Wi-Fi), 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), RF(Radio Frequency), 블루투스(Bluetooth) 네트워크, NFC(Near-Field Communication) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.
하기에서, 적어도 하나의 라는 용어는 단수 및 복수를 포함하는 용어로 정의되고, 적어도 하나의 라는 용어가 존재하지 않더라도 각 구성요소가 단수 또는 복수로 존재할 수 있고, 단수 또는 복수를 의미할 수 있음은 자명하다 할 것이다. 또한, 각 구성요소가 단수 또는 복수로 구비되는 것은, 실시예에 따라 변경가능하다 할 것이다.
적어도 하나의 사용자 단말(100)은, 인토네이션, 스트레스 및 리듬을 표기한 영어 말하기 학습 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하여 원어민 발화 데이터를 스피커로 출력하고, 적어도 하나의 종류의 문장을 인토네이션, 스트레스 및 리듬이 표기된 화면으로 디스플레이하면서, 사용자가 문장을 읽은 발화를 입력받아 사용자 발화 데이터로 학습 서비스 제공 서버(300)로 전송하는 단말일 수 있고, 학습 서비스 제공 서버(300)로부터 비교결과를 수신하는 단말일 수 있다.
여기서, 적어도 하나의 사용자 단말(100)은, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 사용자 단말(100)은, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 사용자 단말(100)은, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트 패드(Smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.
학습 서비스 제공 서버(300)는, 인토네이션, 스트레스 및 리듬을 표기한 영어 말하기 학습 서비스 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 제공하는 서버일 수 있다. 그리고, 학습 서비스 제공 서버(300)는, 적어도 하나의 교수자 단말(400)로부터 적어도 하나의 문장 데이터 및 적어도 하나의 원어민 발화 데이터 및 화면 데이터를 업로드받아 사용자 단말(100)에서 출력되도록 하는 서버일 수 있다. 또, 학습 서비스 제공 서버(300)는, 사용자 단말(100)로부터 수집된 사용자 발화 데이터를 원어민 발화 데이터와 비교 및 분석한 결과를 사용자 단말(100)로 전송하는 서버일 수 있다.
여기서, 학습 서비스 제공 서버(300)는, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다.
적어도 하나의 교수자 단말(400)은, 인토네이션, 스트레스 및 리듬을 표기한 영어 말하기 학습 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하는 교수자의 단말일 수 있다. 이때, 교수자 단말(400)은, 적어도 하나의 종류의 문장 데이터 및 적어도 하나의 원어민 발화 데이터 및 화면 데이터를 학습 서비스 제공 서버(300)로 업로드하는 단말일 수 있다. 이때, 문장 데이터는 텍스트가 포함된 파일 포맷으로 입력될 수도 있고, 원어민 발화 데이터는 .mp3, .wav, .vox 등일 수 있으나 이에 한정되지는 않는다. 또, 교수자 단말(400)은, 문장 데이터 외에도 교재 데이터를 업로드할 수도 있다.
여기서, 적어도 하나의 교수자 단말(400)은, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 교수자 단말(400)은, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 교수자 단말(400)은, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트 패드(Smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.
도 2는 도 1의 시스템에 포함된 학습 서비스 제공 서버를 설명하기 위한 블록 구성도이고, 도 3 및 도 4는 본 발명의 일 실시예에 따른 인토네이션, 스트레스 및 리듬을 표기한 영어 말하기 학습 서비스가 구현된 일 실시예를 설명하기 위한 도면이다.
도 2를 참조하면, 학습 서비스 제공 서버(300)는, 표시부(310), 입력부(320), 저장부(330), 전송부(340), 동기화부(350), 속도조절부(360) 및 인공지능부(370)를 포함할 수 있다.
본 발명의 일 실시예에 따른 학습 서비스 제공 서버(300)나 연동되어 동작하는 다른 서버(미도시)가 적어도 하나의 사용자 단말(100) 및 적어도 하나의 교수자 단말(400)로 인토네이션, 스트레스 및 리듬을 표기한 영어 말하기 학습 서비스 애플리케이션, 프로그램, 앱 페이지, 웹 페이지 등을 전송하는 경우, 적어도 하나의 사용자 단말(100) 및 적어도 하나의 교수자 단말(400)은, 인토네이션, 스트레스 및 리듬을 표기한 영어 말하기 학습 서비스 애플리케이션, 프로그램, 앱 페이지, 웹 페이지 등을 설치하거나 열 수 있다. 또한, 웹 브라우저에서 실행되는 스크립트를 이용하여 서비스 프로그램이 적어도 하나의 사용자 단말(100) 및 적어도 하나의 교수자 단말(400)에서 구동될 수도 있다. 여기서, 웹 브라우저는 웹(WWW: World Wide Web) 서비스를 이용할 수 있게 하는 프로그램으로 HTML(Hyper Text Mark-up Language)로 서술된 하이퍼 텍스트를 받아서 보여주는 프로그램을 의미하며, 예를 들어 넷스케이프(Netscape), 익스플로러(Explorer), 크롬(Chrome) 등을 포함한다. 또한, 애플리케이션은 단말 상의 응용 프로그램(Application)을 의미하며, 예를 들어, 모바일 단말(스마트폰)에서 실행되는 앱(App)을 포함한다.
도 2를 설명하기 이전에, 본 발명의 일 실시예에서 인토네이션, 스트레스, 리듬 및 호흡법을 왜 표기하면서 보여주어야 하는지에 대한 기본 개념을 설명하도록 한다. 이하에서 설명된 개념들은 도 2를 설명하면서 반복하지 않는다.
강세 음절과 비강세 음절이 규칙적으로 교차되어 나타나는 것은, 율격상 가장 적격(Metrically Well-Formed)의 형태를 보인다. 율격 음운론에서와 같이 리듬의 측면에서 돋들림을 설명하려는 관점에서는 발화에 나타나는 리듬 박자(Rhythmic Beats)를 강세라고 정의한다. 리듬의 교체 원리는 운문뿐 아니라 자연 발화에서도 근본적으로 지켜지고자 하는 것이기 때문에, 운문에서 사용되는 용어인 음보(foot)의 개념을 일반 문장에도 도입한다. 이에 따르면 음보란 첫 강세 박자에서부터 다음 강세 박자나 나타나기 전까지의 시간을 의미한다.
강약 박자가 교체되면서 완벽한 리듬을 유지하고자 하는 제약(Eurhythmic Constraints)은 실제 발화에서 자주 사용되는 구의 구성에도 관여하고 있다. 예를 들어, 등위 접속사로 연결된 ‘A and B’와 같은 병렬적 구조에서 spicy and hot, tidy and neat, slender and slim와 같이 ‘B and A’로 순서를 바꾸어도 전혀 의미의 차이가 생겨나지 않음에도 불구하고, 화자들은 리듬의 교체를 이루는 구조를 선호한다. 이처럼 강한 음절과 약한 음절이 번갈아 나타나려는 경향은 궁극적으로 생리학적으로든 심리학적으로든 조건화되어 있으므로, 리듬의 교체 현상은 보편적 원리라고 보고 있다.
그러나 실제 발화에서 구현되는 리듬은 (어휘)강세 그 자체가 아니다. 강세는 언어의 음운부에 기재되어 있는 단어 내 특정 음절이 돋들리게 발화되어야 한다는 지식(Knowldege)이며, 이 강세에 대한 지식은 발화(Utterance) 단계에서 피치액센트로 실현된다. 즉, 소리의 세기(Loudness)나, 피치(Pitch), 길이(Duration)가 결합되어 강세 음절은 더 돋들리게 발화되는데 이것을 발화 내 액센트라고 한다. 모든 강세 음절이 피치액센트로 실현되는 것은 아니다. 즉, 강세를 보유한 내용어라고 하더라도 과도한 액센트가 실현되어 리듬이 파괴된다거나 발화자가 화용론적으로 특정 의도를 가진 경우에는 내용어의 강세가 액센트로 실현되지 않을 수도 있다. 따라서 강세는 실제 발화에서 액센트로 구현될 수 있는 여지를 가지지만 음성실체는 아니다.
억양음운론의 기반이 되는 자립 분절-율격 이론(Autosegmental-Metrical Theory)에서는 강세와 피치액센트를 구분한다. 강세는 개별적 음절에 주어지는 어휘(단어)에 한정된 자질이며, 피치액센트는 발화상의 실제적인 돋들림으로 나타나게 된다. 즉, 기존 이론에서 강세로 언급되는 것들도 실제 발화 단계에서는 선택적으로 액센트로 실현되며, 억양 음운론 상 돋들림을 표시(Prominencecueing)하는 데 기여하는 것은 강세 자체가 아니라 피치 액센트라고 할 수 있다. 그 예로, 율격 음운론에서 어휘 단계에서의 강세의 충돌로 설명해오던 강세 충돌과 강세 전이 현상도 실제로 발화 단계에서 나타나는 피치액센트의 충돌임을 밝힌 최근 연구들이 있으며 억양 음운론에 근거하여 강세 충돌 시의 피치액센트 구현 양상을 살핀 연구도 있다.
영어 발화에서는 리듬 패턴이 무엇보다 중요하다. 영어는 내용어와 기능어가 적절히 혼합되어 강-약의 음보를 반복적으로 만들며 리듬패턴을 생성하고 있다. 그러나 내용어로만 구성된 문장을 발화한다고 가정하여 보면, 내용어에 내재되어 있는 어휘강세가 모두 액센트로 실현된다면 영어 발화의 리듬패턴은 지켜지지 못할 것이다. 그렇다면 내용어로 구성된 문장에서 어떻게 리듬이 형성되는지 내용어의 피치액센트의 실현양상을 분석하여 리듬구현의 원칙을 사용자에게 알려주어야 하고, 본 발명의 일 실시예는 스트레스(강세)를 표시할 때, 피치엑센트까지 포함하는 개념으로 정의함으로써 실제로 원어민과 같이 가장 유사하게 발음할 수 있도록 학습자를 지도할 수 있다.
표시부(310)는, 적어도 하나의 영어 문장을 수집하고, 적어도 하나의 영어 문장이 표기된 화면 내에 높낮이에 대응하는 인토네이션, 한 단어 내에 표기되는 강세에 대응하는 스트레스 및 박자를 포함하는 규칙(Rhythm Rule)에 대응하는 리듬을 표시할 수 있다. 표시부(310)는, 인토네이션, 스트레스 및 리듬에 추가로 한 번의 호흡에 영어 문장 중 어느 단어 또는 문장까지 읽어야 하는지를 안내하는 호흡법을 표시할 수 있다. 이때, 스트레스(강세)는, 엑센트 및 피치 엑센트를 포함하는 개념임은 상술한 바와 같다.
입력부(320)는, 적어도 하나의 영어 문장을 발화한 원어민의 발화 데이터를 입력받을 수 있다. 교수자 단말(400)은, 적어도 하나의 원어민 발화 데이터를 업로드하고, 적어도 하나의 종류의 문장 텍스트를 업로드할 수 있다.
저장부(330)는, 발화 데이터와 인토네이션, 스트레스 및 리듬이 표기된 화면 데이터를 매핑하여 저장할 수 있다. 화면은 도 4와 같을 수 있지만 실제 수기가 아닌 컴퓨터 그래픽으로 표기된 화면을 이용하는 것이 바람직하다.
전송부(340)는, 사용자 단말(100)에서 영어 문장을 선택하는 경우, 발화 데이터와 화면 데이터를 함께 사용자 단말(100)로 전송할 수 있다. 이에 따라, 사용자 단말(100)은, 학습할 영어 문장을 발화한 원어민의 발화 데이터를 오디오로 출력할 때, 인토네이션(Intonation), 스트레스(Stress) 및 리듬(Rhythm)을 표기한 화면을 함께 출력할 수 있다.
전송부(340)는, 사용자 단말(100)에서 원어민 발화 데이터를 선택하는 경우 사용자 단말(100)로 실시간 스트리밍되도록 제어할 수 있다. 이때, 녹음 파일(원어민 발화 데이터) 뿐만 아니라 유튜브에서 선생님이 설명을 해주는 것과 같이 동영상이나 이미지 또는 사진 등이 실시간으로 중계되거나 스트리밍되어야 하는 경우, HTML5를 이용할 수도 있다. 이때, 실시간으로 스트리밍되는 것은 콘텐츠 데이터일 수 있고, 콘텐츠 데이터는 텍스트, 이미지, 사진 및 동영상 데이터 중 어느 하나 또는 적어도 하나의 조합일 수 있다. 여기서, 웹 페이지 내 동영상은 HTML5 기반으로 실시간 스트리밍받을 수 있도록 설계될 수도 있다. 여기서, HTML5는, 웹문서 표준인 HTML(Hyoer Text Markup Language)의 최신 규격으로 문서 작성 중심에서 그림, 동영상, 음악 등을 실행하는 기능이 포함되었다.
HTML5는 플러그인 기반의 액티브 엑스(Active-X), Flash 와 같이 프로그램을 별도로 설치할 필요가 없어지게 되었으며, 이로 인해 발생한 문제는 대부분 해결할 수 있게 되었다. 이때, 종래의 HTML 표준과 HTML5의 가장 큰 차이점은 시맨틱 마크업을 지원하는 점과 추가적인 API를 제공하는 점이다. 시맨틱 마크업은 웹 문서를 의미적으로 구조화 할 수 있는 새로운 요소이다. 예를 들어, 문서의 내용을 머리말, 본문, 꼬리말로 구분할 수 있도록 <head>, <section>, <footer> 라는 요소로 문서를 작성하게 되면, 문서의 내용을 구조적으로 명확히 이해할 수 있게 된다. 또한 HTML5에서는 다양한 API를 제공한다. HTML5에서 제공하는 API는 2차원 그래픽을 지원하거나, 디바이스의 지리적 위치를 확인할 수 있는 기능을 지원하는 등 웹 애플리케이션에 다양한 기능을 추가할 수 있도록 해준다
또한, HTML5는, 웹 페이지를 만들 때 사용이 되는 마크업 언어로 하이퍼링크와 텍스트로 표시하던 HTML을 멀티미디어 등 다양한 애플리케이션까지 표현하고 제공할 수 있다. HTML5는 웹 문서 구조 설계를 위한 마크업 언어인 HTML, 디자인 표현을 위한 CSS, 인터랙티브한 동작을 표현하기 위한 자바스크립트(JavaScript) 등을 포함하여 구현될 수 있고, 기존의 HTML의 태그에 새로운 태그들이 더 추가될 수 있으며, 콘텐츠들을 담기 위한 구조로 개선되어 플랫폼의 역할까지도 수행할 수 있다. 또, HTML5는 모바일 웹을 위한 표준은 아니지만, 앞서 설명한 여러 기능 중에서 모바일 웹의 구현에 필요한 기능들을 다수 제공해 주고 있다. 2차원 그래픽, 오디오, 다양한 웹 폼 등은 모바일 웹의 UI(User Interface)를 풍부하고 다양하게 해줄 수 있다. 즉, 모바일 웹 환경에서도 멀티미디어 정보를 제공하거나 사용자의 동적인 상호작용을 지원할 수 있게 된다. 모바일 웹 환경에서는 모바일 환경의 특성상 대용량의 데이터를 전송하는데 한계를 가지고, 인터넷이 연결되지 않는 환경이 자주 발생하지만, 이러한 제약조건을 극복할 수 있는 것이 웹 클라이언트의 캐시를 이용하여 오프라인 웹 애플리케이션을 구현하거나 로컬에 DB를 저장하여 SQL문으로 질의할 수 있다.
또는, SaaS(Software as a Servcie)를 이용할 수도 있는데, SaaS는 인터넷 어디에서든 쉽게 이용할 수 있고, 웹브라우저만 있으면 어디서든 접근할 수 있다. 이때, 기관, 사용자 및 강사의 요구사항에 따라 BaaS(Backend as a Service)를 더 추가할 수도 있다. 물론, 인프라나 플랫폼 자체가 구비되지 않은 사용자, 기관 및 강사의 경우 IaaS(Infrastructure as a Service)로 서버 운영에 필요한 서버자원, IP, Network, Storage, 전력 등 여러 인프라 자원을 탄력적이고 빠르게 제공할 수 있다. IaaS는 자원을 쉽게 추가하거나 제거할 수 있으며 운영체제를 제공하므로 친숙한 환경이 주어질 수 있다. 또, PaaS(Platform as a Service)로 서비스를 제공할 수 있는데, 안정적인 환경과 그 환경을 이용하는 응용 프로그램을 개발할 수 있는 API까지 제공하는 서비스이다. PaaS는 간편하게 원시코드를 빌드 및 배포할 수 있으며 사용량에 따라 스케일 아웃(Scale Out)을 하기 용이하다. BaaS는 모바일 애플리케이션에 특화된 서비스로 모바일 애플리케이션에서 처리하기 힘든 회원관리 및 푸시, 파일 처리 등 서버 측 애플리케이션을 제공할 수 있다. PaaS의 플랫폼을 이용할 수 있고 제공되는 백앤드 모듈을 REST API나 라이브러리 CALL을 통해 바로 사용할 수 있도록 구성될 수도 있다.
동기화부(350)는, 발화 데이터에서 재생되는 시점과, 화면 데이터 내에서 발화 데이터가 재생되는 위치를 표기하는 표시자(Indicator)를 동기화시켜 저장할 수 있다. 최근에는 오디오와 비디오를 한 번에 편집할 수 있는 툴이 다양하게 나오기는 했지만, 발화 데이터가 재생되는 위치를 표시하기 위한 표시자가 예를 들어 바(Bar) 모양으로 지나가고 있다면, 이 바(Bar)의 이동 속도와 발화 데이터가 재생되는 시점을 동기화하거나 맞춰줘야한다. 이때, 악보 넘기기와 같은 재생 속도를 표시해주는 프로그램을 이용할 수도 있고, 각 가사를 음악과 함께 동기화할 수 있는 프로그램을 사용할 수도 있다. 또는, 발화 데이터를 STT(Speech to Text)로 텍스트화하고, 텍스트가 발화되는 시점과 각 텍스트를 매칭한 다음, 표시자를 위치시켜 동기화하는 방법도 이용할 수 있다.
속도조절부(360)는, 사용자 단말(100)에서 발화 데이터와 화면 데이터가 포함된 콘텐츠를 재생할 때 속도를 증감할 수 있도록 재생속도조절 인터페이스를 제공할 수 있다. 속도조절부(360)는, 콘텐츠를 기 설정된 정상속도로 재생하는 1 배속, 정상속도보다 느린 0.8 배속, 정상속도보다 빠른 1.2 배속의 재생속도를 제공할 수 있다.
인공지능부(370)는, 적어도 하나의 영어 문장을 음성으로 발화한 적어도 하나의 원어민 발화 데이터의 소리 데이터 및 진동 데이터를 수집하여 저장하고, 적어도 하나의 영어 문장을 음성으로 발화한 적어도 하나의 한국인 발화 데이터의 소리 데이터 및 진동 데이터를 수집하여 저장하며, 원어민의 소리 데이터 및 진동 데이터와, 한국인의 소리 데이터 및 진동 데이터로부터 특징 데이터를 추출하여 저장할 수 있다.
이때, 인공지능부(370)는, 원어민의 소리 데이터 및 한국인의 소리 데이터를 STFT(Short-Time Fourier Trasnform)을 이용하여 스펙트로그램(Spectrogram) 이미지로 변환하고, 변환된 스펙트로그램 이미지를 CNN(Convolutional Neural Network)를 이용하여 특징 데이터를 추출하며, 원어민의 진동 데이터 및 한국인의 진동 데이터를 시간 도메인(Time Domain)에서 XYZ축에 대하여 재구조화를 수행한 후, CNN을 이용하여 특징 데이터를 추출할 수 있다.
인공지능부(370)에서 소리 데이터를 스펙트로그램 이미지로 변환할 때, 푸리에 변환(Fourier Transform)의 비정상적인 신호에 대한 주파수 분석 기법의 오차가 생기는 문제점이 발생하고, 이와 같은 오차가 발생하는 순간에도 주파수 분석을 할 수 있는 방법이 필요하다. 이에, STFT는, 신호의 안정성을 고려하여 대상 신호를 프레임 단위로 나누어 일정한 크기의 창을 움직이면서 푸리에 변환을 하는 방법인데, 분석하고자 하는 신호에 윈도우(Window) 함수를 적용한 후 푸리에 변환을 수행하는 것으로 시간 영역에서의 STFT의 수식은 STFT(t,w)=∫x(τ-t)e-jwτ dτ이며, 인테그랄의 범위는 - 무한대에서 + 무한대까지이다.
여기서 x(τ)는 분석하고자 하는 신호이고, w(τ-t)는 윈도우 함수이다. 또, 스펙트로그램(Spectrogram)은, 소리나 파동을 시각화하여 파악하기 위한 도구로, 파형(Waveform)과 스펙트럼(Spectrum)의 특징이 조합되어 있다. 파형에서는 시간축의 변화, 즉 시간 도메인에서의 진폭축의 변화를 볼 수 있고, 스펙트럼에서는 주파수축의 변화에 따른 진폭축의 변화를 볼 수 있는 반면, 스펙트로그램에서는 시간축과 주파수축의 변화에 따라 진폭의 차이를 인쇄 농도나 표시 색상의 차이로 나타낸다.
인공지능부(370)는, 변환된 스펙트로그램 이미지를 CNN(Convolutional Neural Network)를 이용하여 특징 데이터를 추출할 수 있다. 스펙트로그램이 이미지로 출력되기 때문에, 결과적으로 이미지 분석을 통하여 사용자가 녹음한 소리 데이터를, 기 저장된 소리 데이터와 비교를 할 때, 이미지를 이용하여 비교해야 한다. 이때, 서로 다른 이미지 간에 유사도를 계산하고자 할 때 픽셀 단위의 비교를 통해서는 이미지 사이의 유사한 정도를 판단하기 어렵기 때문에, 이러한 문제를 해결하기 위해 이미지를 픽셀 단위로 비교하는 것이 아닌 이미지의 특징을 추출하여 이미지를 비교하는 방법이 존재하는데, 바로 딥러닝 기술, CNN이다.
CNN은, 스스로 이미지의 특징을 학습하고 학습된 특징을 바탕으로 이미지의 분류 및 이미지의 패턴을 인식할 수 있고, 컨볼루션 층을 이용한 네트워크 구조로 이미지 처리에 적합하며, 이미지 데이터를 입력으로 하여 이미지 내의 특징을 기반으로 이미지를 분류할 수 있기 때문에 본 발명의 일 실시예에서 이용하도록 한다. 다만, CNN에 한정되는 것은 아니고 이미지를 구분하고 그 특징을 추출할 수 있는 방법이라면 그 어떠한 것이든 가능하다 할 것이다. CNN은, 스펙트로그램의 특징을 벡터 형태로 추출하고 추출된 특징을 이용하여 이미지 간 유사도를 측정할 수 있다.
스펙트로그램의 특징을 추출하기 위해 본 발명의 일 실시예에서는, 컨볼루션(Convolution) 레이어, 활성 함수(Activation Function) 레이어, 최대 풀링(Max Pooling) 레이어로 구성된 합성곱 신경망의 기본 구조를 이용한 모델을 이용할 수 있고, 유사도를 측정하기 이전, 이미지를 분류하기 위해사용되는 소프트맥스 레이어(Softmax Layer) 이전의 레이어로부터 스펙트로그램의 특징 벡터를 추출하여 사용할 수 있다. 기본적으로 전결합 레이어(Fully-Connected Layer)를 가지는 CNN과, 특징 맵(Feature Map) 상의 평균값을 가져오는 GAP 레이어(Global Average Layer)를 가지는 모델로부터 특징을 추출하여 유사도를 측정하는 데 사용할 수 있다.
이미지의 유사도를 측정하기 위한 또 다른 모델로 CNN 기반의 오토인코더 모델을 이용할 수도 있는데, 인코더(Encoder)는 컨볼루션 신경망 구조로 구성되어 있고, 인코더의 결과로 압축된 데이터를 다시 재구성하기 위한 디코더(Decoder)를 포함할 수 있다. 학습된 오토인코더 모델의 특정 레이어로부터 스펙트로그램의 특징을 추출하고, 이를 다시 GAP 레이어를 통해 나온 특징 벡터를 이미지 유사도 측정에 사용할 수 있다. 위 세 가지 모델을 통해 추출된 이미지 특징 벡터로부터 유클리디안거리(Euclidean Distance) 및 코사인 유사도(Cosine Similarity)를 측정할 수 있고, 이를 이용하여 스펙트로그램 별 유사 정도, 즉 유사도에 따라 정렬할 수 있으며, 정렬된 순서를 이용하여 스펙트로그램 별 가장 유사하다고 판단되는 데이터뿐만 아니라 가장 유사하지 않다고 판단되는 데이터까지 확인할 수 있다.
소리 데이터에 대한 특징 데이터가 추출되었으면, 그 다음은 진동 데이터에 대한 특징 데이터를 추출해야 하는데, 인공지능부(370)는, 수집된 진동 데이터를 시간 도메인(Time Domain)에서 XYZ축에 대하여 재구조화를 수행한 후, CNN을 이용하여 특징 데이터를 추출할 수 있다. 이에 대한 기본 개념은 시간축(시간 도메인)에 대한 추의 이동의 원리로 회귀한다. 용수철에 달린 추는 시간이 지남에 따라 상하로 운동하게 되고, 중심점을 기준으로 상한점과 하한점을 왕복하면서 그래프를 남긴다. 이와 마찬가지로, 사용자가 호흡을 하는 경우 호흡 소리가 사용자 단말(100)의 마이크로 입력되고, 호흡이 언제 발생하는지, 그 세기는 어느 정도인지, 그 패턴은 어떻게 되는지에 대한 데이터 생성 및 그래프 시각화가 가능해진다. 이렇게 생성된 그래프 또한 이미지이므로, 상술한 CNN을 이용하여 인공지능부(370)는 진동 데이터에 대한 특징 데이터를 추출할 수 있다.
인공지능 알고리즘은 데이터의 수집, 전처리, 특징 데이터 추출, 학습 및 테스트의 과정을 거쳐 모델링된다. 모델링 된 후 사용되는 것도 대부분 동일한데 학습 과정만을 거치지 않는 것만이 다르다. 물론, 오류가 발생되거나 인간의 개입으로 오차가 발생하는 부분에 대하여 재학습을 하는 것도 가능하지만, 모델링이 된 후 실제 사용할 때에는 수집-전처리-추출-결과 도출의 과정으로 이루어지는 것이 일반적이다. 따라서, 상술한 과정에서 모델링이 된 후 실제 사용하는 과정을 설명했다면, 이하에서는 학습 및 테스트 과정을 거치면서 모델링이 되는 과정을 설명하기로 한다.
인공지능부(370)는, 수집된 원어민의 소리 데이터 및 진동 데이터와, 한국인의 종류별 소리 데이터 및 진동 데이터로부터 특징 데이터를 추출할 때, 추출된 특징 데이터를 LSTM(Long Short-Term Memory)에 기반하여 특징 데이터를 재추출할 수 있다. 인공지능부(370)는, 모델링하는 과정에서 차이점은, 기 설정된 기준 데이터인 레이블과 특징 데이터 간의 오차율을 산출하고, 산출된 오차율이 최소인 가중치를 특징 데이터와 매핑하여 저장하는 구성이다. 인공지능 알고리즘을 학습(Learning)하는 과정은, 특징(Features)이 이미 정해진 데이터를 사용하여 학습이 진행되게 되는데, 이때 각 데이터에 정해진 특징을 레이블(Label)이라 하며, 레이블이 있는 데이터들의 집합을 트레이닝 셋(Training Set)이라고도 한다.
예를 들어, 강아지와 강아지 사진을 짝지어둔 데이터가 존재한다고 가정하면, 인공지능 알고리즘 학습 과정은, 강아지를 식별하기 위하여 강아지 사진, 즉 강아지-강아지 사진(트레이닝 셋)을 계속 학습시키는 것이고, 강아지에 해당하는 사진, 즉 강아지 사진을 계속하여 학습시키다보면, 이후 임의의 사진이 입력(Query)으로 들어온 경우, 해당 사진이 강아지의 사진인지 아닌지, 또, 강아지의 종류는 무엇인지 등을 파악할 수 있게 된다. 또, LSTM은, 과거 학습결과를 현재 학습에 사용하는 딥러닝 네트워크인 RNN(Recurrent Neural Network)의 일종인데, 셀 상태(Cell State)를 통해 학습이 반복됨에 따라 과거 학습 정보가 사라지는 장기 의존성(Long-Term Dependency) 문제를 해결한 알고리즘이다. LSTM은 신경망(Neural Network) 모듈을 반복시키는 체인과 같은 형태로 구성되고, 인공지능부(370)에서도 CNN 과정 이후에 LSTM 과정이 실행되어 특징을 재추출한다.
LSTM의 구조는 순환신경망의 일반적인 신경들을 내부에 작은 메모리를 가진 LSTM 셀로 교체한다. 이 LSTM 셀들은 일반적인 순환신경망과 같이 연결되어 있어서, 셀 내부의 상태가 여러 단계에 걸친 오류를 기억하는 것을 도와주며, 상태를 유지하기 위해서 게이트(Gate)들로 이루어져 있다. 입력 게이트와 망각 게이트 및 출력 게이트 등을 이용하여 출력값을 조절할 수 있는데, 입력 게이트는 입력값을 얼마나 받아들일지를 결정하고, 망각 게이트는 이전의 셀 내부의 상태를 얼마나 잊어버릴지를 결정하며, 출력 게이트는 얼마나 출력할지를 결정한다. 여기서, 망각 게이트는, 입력 게이트와 동일한 형태로, 단지 곱해지는 가중치가 망각 게이트로 이어지는 가중치로 변화하고, 이전 시간에 있던 입력 데이터의 영향력을 반영할지 혹은 반영하지 않을지를 결정한다. 입력 게이트는, 현재 시간의 입력 데이터에 입력 게이트로 이어지는 가중치를 곱하여 더한 값과, 이전 시간의 메모리 블럭의 출력값과 셀 출력값에 입력 게이트로 이어지는 가중치를 곱한 값을 더하여 입력 게이트의 출력값을 계산하게 되고, 현재 시간에 받은 입력 데이터의 영향력을 반영할지의 여부를 결정한다.
LSTM은, 이처럼 셀 상태 값을 얼마나 잊어버리고, 새로운 입력 값을 얼마나 받아들일지 결정하여 더하는 구조이다. 이 과정이 반복되어도 기울기가 소멸하여 학습할 수 없어지는 일이 발생 하지 않는다. LSTM은 표준 순환신경망과 같은 방법으로 은닉 변수를 거쳐 최종 출력 값을 계산하지만, 은닉 계층의 변수 계산 과정에서 게이트들을 적절하게 이용하여 정보의 흐름을 조절한다. 이러한 결과로 LSTM 셀을 사용한 순환신경망은 시간축에 따라 변화하는 시계열데이터라도 기울기 소실 문제없이 처리할 수 있는 구조이다. 상술한 구조로 인하여 이미지(스펙트로그램)로부터 CNN 및 LSTM을 거쳐 특징을 추출하고, 추출된 특징(특징 데이터)과, 기준값인 레이블을 비교하면서 학습결과가 제대로 되었는지를 오차를 구함으로써 파악하고, 오차가 최소치인 가중치(LSTM에서 사용됨)를 기억하도록 저장함으로써 이후 쿼리인 질의가 입력되었을 때, 질의에 대응하는 가중치를 적용하고 STFT, CNN, LSTM을 순차적으로 거침으로써 사용자의 호흡이나 발음 또는 연음 등이 어떠한 상태인지를 진단하게 될 수 있다.
이하, 상술한 도 2의 학습 서비스 제공 서버의 구성에 따른 동작 과정을 도 3 및 도 4를 예로 들어 상세히 설명하기로 한다. 다만, 실시예는 본 발명의 다양한 실시예 중 어느 하나일 뿐, 이에 한정되지 않음은 자명하다 할 것이다.
도 3을 참조하면, (a) 학습 서비스 제공 서버(300)는 적어도 하나의 교수자 단말(400)로부터 적어도 하나의 영어 문장의 텍스트를 입력받고 데이터베이스화할 수 있다. 그리고, (b) 학습 서비스 제공 서버(300)는 적어도 하나의 교수자 단말(400)로부터 발화 데이터와 화면 데이터를 입력받고 발화 데이터와 화면 데이터를 동기화시켜 저장한다. (c) 사용자 단말(100)에서 말하기 연습할 영어 문장이나 챕터를 선택하는 경우, 학습 서비스 제공 서버(300)는 사용자 단말(100)로 발화 데이터와 화면 데이터를 전송하고, (d) 속도를 조절해가면서 발음의 구성요소를 시각적으로도 인지하면서 청각적으로 발화 데이터를 오디오 출력으로 들을 수 있도록 한다. 도 4a 내지 도 4c는 화면 데이터가 출력되면서 발화 데이터도 동시에 출력되는 영상 콘텐츠의 캡쳐본이다. 이때, 속도를 0.8 배, 1.2 배, 1 배 등으로 다양하게 설정하여 재생할 수 있다.
이와 같은 도 2 내지 도 4의 인토네이션, 스트레스 및 리듬을 표기한 영어 말하기 학습 서비스 제공 방법에 대해서 설명되지 아니한 사항은 앞서 도 1을 통해 인토네이션, 스트레스 및 리듬을 표기한 영어 말하기 학습 서비스 제공 방법에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.
도 5는 본 발명의 일 실시예에 따른 도 1의 인토네이션, 스트레스 및 리듬을 표기한 영어 말하기 학습 서비스 제공 시스템에 포함된 각 구성들 상호 간에 데이터가 송수신되는 과정을 나타낸 도면이다. 이하, 도 5를 통해 각 구성들 상호간에 데이터가 송수신되는 과정의 일 예를 설명할 것이나, 이와 같은 실시예로 본원이 한정 해석되는 것은 아니며, 앞서 설명한 다양한 실시예들에 따라 도 5에 도시된 데이터가 송수신되는 과정이 변경될 수 있음은 기술분야에 속하는 당업자에게 자명하다.
도 5를 참조하면, 학습 서비스 제공 서버는, 적어도 하나의 영어 문장을 수집하고, 적어도 하나의 영어 문장이 표기된 화면 내에 높낮이에 대응하는 인토네이션, 한 단어 내에 표기되는 강세에 대응하는 스트레스 및 박자를 포함하는 규칙(Rhythm Rule)에 대응하는 리듬을 표시한다(S5100).
그리고, 학습 서비스 제공 서버는, 적어도 하나의 영어 문장을 발화한 원어민의 발화 데이터를 입력받고(S5200), 발화 데이터와 인토네이션, 스트레스 및 리듬이 표기된 화면 데이터를 매핑하여 저장한다(S5300).
마지막으로, 학습 서비스 제공 서버는, 사용자 단말에서 영어 문장을 선택하는 경우, 발화 데이터와 화면 데이터를 함께 사용자 단말로 전송한다(S5400).
상술한 단계들(S5100~S5400)간의 순서는 예시일 뿐, 이에 한정되지 않는다. 즉, 상술한 단계들(S5100~S5400)간의 순서는 상호 변동될 수 있으며, 이중 일부 단계들은 동시에 실행되거나 삭제될 수도 있다.
이와 같은 도 5의 인토네이션, 스트레스 및 리듬을 표기한 영어 말하기 학습 서비스 제공 방법에 대해서 설명되지 아니한 사항은 앞서 도 1 내지 도 4를 통해 인토네이션, 스트레스 및 리듬을 표기한 영어 말하기 학습 서비스 제공 방법에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.
도 5를 통해 설명된 일 실시예에 따른 인토네이션, 스트레스 및 리듬을 표기한 영어 말하기 학습 서비스 제공 방법은, 컴퓨터에 의해 실행되는 애플리케이션이나 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다.
전술한 본 발명의 일 실시예에 따른 인토네이션, 스트레스 및 리듬을 표기한 영어 말하기 학습 서비스 제공 방법은, 단말기에 기본적으로 설치된 애플리케이션(이는 단말기에 기본적으로 탑재된 플랫폼이나 운영체제 등에 포함된 프로그램을 포함할 수 있음)에 의해 실행될 수 있고, 사용자가 애플리케이션 스토어 서버, 애플리케이션 또는 해당 서비스와 관련된 웹 서버 등의 애플리케이션 제공 서버를 통해 마스터 단말기에 직접 설치한 애플리케이션(즉, 프로그램)에 의해 실행될 수도 있다. 이러한 의미에서, 전술한 본 발명의 일 실시예에 따른 인토네이션, 스트레스 및 리듬을 표기한 영어 말하기 학습 서비스 제공 방법은 단말기에 기본적으로 설치되거나 사용자에 의해 직접 설치된 애플리케이션(즉, 프로그램)으로 구현되고 단말기에 등의 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (7)

  1. 학습할 영어 문장을 발화한 원어민의 발화 데이터를 오디오로 출력할 때, 인토네이션(Intonation), 스트레스(Stress) 및 리듬(Rhythm)을 표기한 화면을 함께 출력하는 사용자 단말; 및
    적어도 하나의 영어 문장을 수집하고, 상기 적어도 하나의 영어 문장이 표기된 화면 내에 높낮이에 대응하는 인토네이션, 한 단어 내에 표기되는 강세에 대응하는 스트레스 및 박자를 포함하는 규칙(Rhythm Rule)에 대응하는 리듬을 표시하는 표시부, 상기 적어도 하나의 영어 문장을 발화한 원어민의 발화 데이터를 입력받는 입력부, 상기 발화 데이터와 상기 인토네이션, 스트레스 및 리듬이 표기된 화면 데이터를 매핑하여 저장하는 저장부, 상기 사용자 단말에서 영어 문장을 선택하는 경우, 상기 발화 데이터와 화면 데이터를 함께 상기 사용자 단말로 전송하는 전송부를 포함하는 학습 서비스 제공 서버;
    를 포함하는 인토네이션, 스트레스 및 리듬을 표기한 영어 말하기 학습 서비스 제공 시스템.
  2. 제 1 항에 있어서,
    상기 학습 서비스 제공 서버는,
    상기 발화 데이터에서 재생되는 시점과, 상기 화면 데이터 내에서 상기 발화 데이터가 재생되는 위치를 표기하는 표시자(Indicator)를 동기화시켜 저장하는 동기화부;
    를 더 포함하는 것을 특징으로 하는 인토네이션, 스트레스 및 리듬을 표기한 영어 말하기 학습 서비스 제공 시스템.
  3. 제 1 항에 있어서,
    상기 표시부는,
    상기 인토네이션, 스트레스 및 리듬에 추가로 한 번의 호흡에 상기 영어 문장 중 어느 단어 또는 문장까지 읽어야 하는지를 안내하는 호흡법을 표시하는 것을 특징으로 하는 인토네이션, 스트레스 및 리듬을 표기한 영어 말하기 학습 서비스 제공 시스템.
  4. 제 1 항에 있어서,
    상기 학습 서비스 제공 서버는,
    상기 사용자 단말에서 상기 발화 데이터와 화면 데이터가 포함된 콘텐츠를 재생할 때 속도를 증감할 수 있도록 재생속도조절 인터페이스를 제공하는 속도조절부;
    를 더 포함하는 것을 특징으로 하는 인토네이션, 스트레스 및 리듬을 표기한 영어 말하기 학습 서비스 제공 시스템.
  5. 제 4 항에 있어서,
    상기 속도조절부는,
    상기 콘텐츠를 기 설정된 정상속도로 재생하는 1 배속, 상기 정상속도보다 느린 0.8 배속, 상기 정상속도보다 빠른 1.2 배속의 재생속도를 제공하는 것을 특징으로 하는 인토네이션, 스트레스 및 리듬을 표기한 영어 말하기 학습 서비스 제공 시스템.
  6. 제 1 항에 있어서,
    상기 학습 서비스 제공 서버는,
    상기 적어도 하나의 영어 문장을 음성으로 발화한 적어도 하나의 원어민 발화 데이터의 소리 데이터 및 진동 데이터를 수집하여 저장하고, 상기 적어도 하나의 영어 문장을 음성으로 발화한 적어도 하나의 한국인 발화 데이터의 소리 데이터 및 진동 데이터를 수집하여 저장하며, 원어민의 소리 데이터 및 진동 데이터와, 상기 한국인의 소리 데이터 및 진동 데이터로부터 특징 데이터를 추출하여 저장하는 인공지능부;
    를 더 포함하는 것을 특징으로 하는 인토네이션, 스트레스 및 리듬을 표기한 영어 말하기 학습 서비스 제공 시스템.
  7. 제 6 항에 있어서,
    상기 인공지능부는,
    상기 원어민의 소리 데이터 및 상기 한국인의 소리 데이터를 STFT(Short-Time Fourier Trasnform)을 이용하여 스펙트로그램(Spectrogram) 이미지로 변환하고, 상기 변환된 스펙트로그램 이미지를 CNN(Convolutional Neural Network)를 이용하여 특징 데이터를 추출하며, 상기 원어민의 진동 데이터 및 상기 한국인의 진동 데이터를 시간 도메인(Time Domain)에서 XYZ축에 대하여 재구조화를 수행한 후, 상기 CNN을 이용하여 특징 데이터를 추출하는 것을 특징으로 하는 인토네이션, 스트레스 및 리듬을 표기한 영어 말하기 학습 서비스 제공 시스템.
KR1020210003022A 2021-01-11 2021-01-11 인토네이션, 스트레스 및 리듬을 표기한 영어 말하기 학습 서비스 제공 시스템 KR102480607B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210003022A KR102480607B1 (ko) 2021-01-11 2021-01-11 인토네이션, 스트레스 및 리듬을 표기한 영어 말하기 학습 서비스 제공 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210003022A KR102480607B1 (ko) 2021-01-11 2021-01-11 인토네이션, 스트레스 및 리듬을 표기한 영어 말하기 학습 서비스 제공 시스템

Publications (2)

Publication Number Publication Date
KR20220101229A true KR20220101229A (ko) 2022-07-19
KR102480607B1 KR102480607B1 (ko) 2022-12-23

Family

ID=82607398

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210003022A KR102480607B1 (ko) 2021-01-11 2021-01-11 인토네이션, 스트레스 및 리듬을 표기한 영어 말하기 학습 서비스 제공 시스템

Country Status (1)

Country Link
KR (1) KR102480607B1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020087709A (ko) * 2001-05-16 2002-11-23 오원록 어학 발음 학습장치
KR101293467B1 (ko) * 2013-01-29 2013-08-06 김명기 영어 발음 학습 교재
KR20150076126A (ko) * 2013-12-26 2015-07-06 강진호 동적 발음 지원 시각화 수단을 포함하는 활용 발음 학습 지원 시스템 및 그 시스템의 발음 학습 지원 방법
JP2019053235A (ja) * 2017-09-19 2019-04-04 有限会社オフィス・アイカワ 言語学習システム及び言語学習方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020087709A (ko) * 2001-05-16 2002-11-23 오원록 어학 발음 학습장치
KR101293467B1 (ko) * 2013-01-29 2013-08-06 김명기 영어 발음 학습 교재
KR20150076126A (ko) * 2013-12-26 2015-07-06 강진호 동적 발음 지원 시각화 수단을 포함하는 활용 발음 학습 지원 시스템 및 그 시스템의 발음 학습 지원 방법
JP2019053235A (ja) * 2017-09-19 2019-04-04 有限会社オフィス・アイカワ 言語学習システム及び言語学習方法

Also Published As

Publication number Publication date
KR102480607B1 (ko) 2022-12-23

Similar Documents

Publication Publication Date Title
US9478143B1 (en) Providing assistance to read electronic books
US11062615B1 (en) Methods and systems for remote language learning in a pandemic-aware world
KR20150146373A (ko) 큰 말뭉치에 기초하여 음성 합성을 하기 위한 방법 및 장치
Dhanjal et al. An automatic machine translation system for multi-lingual speech to Indian sign language
KR20150076128A (ko) 3차원 멀티미디어 활용 발음 학습 지원 시스템 및 그 시스템의 발음 학습 지원 방법
US20200273450A1 (en) System and A Method for Speech Analysis
Wang et al. Computer-assisted audiovisual language learning
Brunkan Relationships of a circular singer arm gesture to acoustical and perceptual measures of singing: A motion capture study
KR101071392B1 (ko) 학습자 맞춤형 외국어 교육 시스템 및 외국어 교육 방법
Gibbon Prosody: The rhythms and melodies of speech
KR102355960B1 (ko) 자격조건검증 기반 한국어 교육 서비스 제공 시스템
JP6728116B2 (ja) 音声認識装置、音声認識方法およびプログラム
TWI574254B (zh) 用於電子系統的語音合成方法及裝置
Rilliard et al. Paradigmatic variation of vowels in expressive speech: Acoustic description and dimensional analysis
KR102480607B1 (ko) 인토네이션, 스트레스 및 리듬을 표기한 영어 말하기 학습 서비스 제공 시스템
KR20140087956A (ko) 단어 및 문장과 이미지 데이터 그리고 원어민의 발음 데이터를 이용한 파닉스 학습장치 및 방법
Sannino et al. Lessonable: leveraging deep fakes in MOOC content creation
AU2012100262A4 (en) Speech visualisation tool
KR20220081675A (ko) 원어민 호흡법을 이용한 영어 말하기 학습 서비스 제공 시스템
KR20160016313A (ko) 어순과 억양 정보를 이용한 언어 학습 방법
Li The application of computer speech recognition technology in oral English teaching
Kraleva Design and development a children's speech database
KR102112059B1 (ko) 청음 기반 중국어 발음 한글 표기 형성 방법, 청음 기반 중국어 발음 한글 표기 표시 방법 및 이것을 이용한 외국어 학습 방법
KR102616915B1 (ko) 국어 맞춤법 퀴즈 제공 방법 및 시스템
KR102645783B1 (ko) 외국인 대상 한국어 교육 서비스 제공 시스템

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant