JP2022130385A - electronic learning program - Google Patents

electronic learning program Download PDF

Info

Publication number
JP2022130385A
JP2022130385A JP2022088820A JP2022088820A JP2022130385A JP 2022130385 A JP2022130385 A JP 2022130385A JP 2022088820 A JP2022088820 A JP 2022088820A JP 2022088820 A JP2022088820 A JP 2022088820A JP 2022130385 A JP2022130385 A JP 2022130385A
Authority
JP
Japan
Prior art keywords
learning
output
input
instructor
language
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022088820A
Other languages
Japanese (ja)
Inventor
幸大 領家
Yukihiro Ryoke
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kagome Co Ltd
Original Assignee
Kagome Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kagome Co Ltd filed Critical Kagome Co Ltd
Priority to JP2022088820A priority Critical patent/JP2022130385A/en
Publication of JP2022130385A publication Critical patent/JP2022130385A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To realize iterative learning.
SOLUTION: What the inventor of the present application has focused on is that a trigger for attracting attentions of learners is an inconsistency between visual and auditory expressions. For example, character strings of a question are provided in common to both of learners. Contrary to this common-ness, speeches of both learners may be made differently. One speech may be made in one local dialect manner, meanwhile the other speech may be made in the other local dialect manner. Thus, the character strings provided in common may make different speeches through both learners.
SELECTED DRAWING: Figure 12
COPYRIGHT: (C)2022,JPO&INPIT

Description

本発明に関係するのは、電子学習プログラムである。 Pertinent to the present invention are electronic learning programs.

近年、教育現場で採用されているのは、電子学習(いわゆる「イーラーニング(”e‐
learning”)」)システムである。電子学習システムの利点の一つは、指導の均
質化である。特許文献1で開示されているのは、外国語習得支援システムである。このシ
ステムで提供されるのは、外国語習得コンテンツである。
In recent years, electronic learning (so-called “e-learning”) has been adopted in educational settings.
learning")") system. One of the advantages of electronic learning systems is the homogenization of instruction. Patent Document 1 discloses a foreign language acquisition support system. This system provides foreign language learning content.

電子学習システムで頻繁に用いられるのは、教師の分身(以下、「アバタ(“Avat
ar“)」という。)である。その目的の一つは、学習意欲の喚起である。学習意欲の低
下が引き起こすのは、理解度の低下である。特許文献2で開示されているのは、学習・生
活支援システムである。このシステムで使用されるのは、アバタコメントである。このア
バタコメントが応答するのは、ユーザコメントである。そのような会話で喚起されるのは
、ユーザの学習意欲である。特許文献3で開示されているのは、学習支援システムである
。このシステムで使用されるのは、教師アバタの属性及び生徒アバタの属性である。教師
アバタの属性に適合するのは、生徒アバタの属性である。それによって、当該支援システ
ムが最適化するのは、教師アバタと生徒アバタとの相性である。
The teacher's alter ego (hereinafter referred to as "Avat") is frequently used in electronic learning systems.
ar ")". ). One of the purposes is to arouse the desire to learn. A decline in motivation to learn causes a decline in comprehension. Patent Document 2 discloses a learning/life support system. Avatar comments are used in this system. This avatar comment responds to a user comment. What is aroused in such conversations is the user's desire to learn. What is disclosed in Patent Document 3 is a learning support system. Used in this system are attributes of the teacher avatar and attributes of the student avatar. Matching the attributes of the teacher avatar are the attributes of the student avatar. It is thereby the compatibility between the teacher avatar and the student avatar that the support system optimizes.

特開2019‐152761号JP 2019-152761 特開2015‐102994号JP 2015-102994 特開2019‐86602号JP 2019-86602

本発明が解決しようとする課題は、反復学習の実現である。具体的には、如何にして学
習者の興味を惹くかである。
The problem to be solved by the present invention is the realization of iterative learning. Specifically, how to attract the interest of learners.

以上を踏まえて、本願発明者が着目したのは、学習者の興味を惹くきっかけが視覚表現
及び聴覚表現のズレである点である。そのような観点から本発明を定義すると、次のとお
りである。
Based on the above, the inventors of the present application focused on the fact that the gap between the visual representation and the auditory representation is the trigger that attracts the learner's interest. The definition of the present invention from such a point of view is as follows.

電子学習プログラムによってコンピュータが実行する処理は、少なくとも、入力及び出
力である。すなわち、講師が入力されると、或いは、入力された講師が受け付けられると
、文字列及び音声は、並列に(同期して)出力される。当該文字列及び音声に関連付けら
れているのは、入力された講師である。当該文字列及び当該音声の一方を表現するのは、
共通語である。他方を表現するのは、特徴語である。
The processing performed by the computer with the electronic learning program is at least an input and an output. That is, when the lecturer is input, or when the input lecturer is accepted, the character string and the voice are output in parallel (synchronously). Associated with the string and voice is the input instructor. Representing one of said character string and said sound is
It is a common language. It is the characteristic word that expresses the other.

本発明が可能にするのは、反復学習を実現することである。すなわち、視覚表現及び聴
覚表現を違えることで、学習者の興味を惹く。学習者の興味を惹くことで、講義内容が反
復して学習される。
What the present invention enables is to implement iterative learning. In other words, different visual representations and auditory representations attract the learner's interest. By attracting the learner's interest, the lecture contents are learned repeatedly.

ここで示すのは、本実施の形態に係るシステム(本システム)のユースケースである。What is shown here is a use case of the system (this system) according to this embodiment. ここで示すのは、本システムの構成である。Shown here is the configuration of this system. ここで示すのは、コンピュータのハードウェア構成である。Shown here is the hardware configuration of the computer. ここで示すのは、講師リスト画面の構成である。Shown here is the configuration of the instructor list screen. ここで示すのは、学習単元画面の構成である。Shown here is the configuration of the learning unit screen. ここで示すのは、学習画面の構成である。The configuration of the learning screen is shown here. ここで示すのは、講師データベースの構成であり、具体的には、(a)基本データベース、(b)画像データベース、(c)音声データベースである。Shown here is the configuration of the lecturer database, specifically, (a) basic database, (b) image database, and (c) voice database. ここで示すのは、学習者管理データベースの構成である。Shown here is the configuration of the learner management database. ここで示すのは、電子学習プログラムの流れである。Here is the flow of the electronic learning program. ここで示すのは、講師リスト画面の例であり、具体的には、(a)無操作時の例、(b)シングルタップ時の例である。Shown here is an example of the instructor list screen, specifically, (a) an example at the time of no operation and (b) an example at the time of a single tap. ここで示すのは、学習単元画面の例である。Shown here is an example of a learning unit screen. ここで示すのは、学習画面の例であり、具体的には、(a)講師アバタ「お豆先生」選択時の例、(b)講師アバタ「米作先生」選択時の例である。Shown here are examples of the learning screen, specifically, (a) an example when the instructor avatar "Mr. Omame" is selected, and (b) an example when the instructor avatar "Mr. Rice" is selected.

<ユースケース>
図1で示すのは、本実施の形態に係るシステム(以下、「本システム」という。)ユー
スケースである。本システム1の用途は、学習である。学習の内容は、不問であるが、好
ましくは、語学以外である。本システム1を使用するのは、学習者である。
<Use case>
FIG. 1 shows a use case of a system according to this embodiment (hereinafter referred to as "this system"). The application of this system 1 is learning. The content of the study is not required, but is preferably other than language study. A person who uses the system 1 is a learner.

学習者が選択するのは、講師及び学習単元である。当該講師を選択する一つの基準は、
使用される言語の違いである。他方、当該学習単元を選択する一つの基準は、履修の有無
である。以下では、学習単元を「単元」ということもある。
The learner chooses the instructor and the unit of study. One criterion for selecting the instructor is
The difference is the language used. On the other hand, one of the criteria for selecting the relevant learning unit is the presence or absence of course completion. Below, a learning unit may be called a "unit."

学習者が認識するのは、文字列及び音声である。文字列とは、視覚情報であって、それ
で示されるのが学習単元の内容であるものをいう。音声とは、聴覚情報であって、それで
示されるのが学習単元の内容であるものをいう。
A learner recognizes character strings and sounds. A character string is visual information that indicates the contents of a learning unit. Speech refers to auditory information that indicates the content of a learning unit.

文字列及び音声の一方を表現するのは、共通語であり、かつ、他方を表現するのは、特
徴語である。共通語とは、言語であって、その通用範囲が一国家の全域であるものをいう
。特徴語とは、言語であって、共通語以外のものをいう。特徴語を例示すると、地方語や
個別語などである。地方語とは、言語であって、その通用範囲が一国家の一部地域である
ものいう。例えば、日本国において、当該共通語が日本の国語(言い換えると、言語であ
って、国の教育期間が採用するものをいう。以下、「国語」という。)である。これに対
して、当該地方語は、方言である。方言を例示すると、北海道弁、津軽弁、新潟弁、関西
弁、鹿児島弁などである。当該地方語の候補数は、2以上である。個別語とは、言語であ
って、その使用者が特定の個人(例えば、著名人など)又は個体(例えば、漫画の登場人
物など)であるものをいう。
Common words represent one of character strings and sounds, and feature words represent the other. A lingua franca is a language whose scope is the whole of a nation. A feature word is a language and means something other than a common language. Examples of characteristic words are local words and individual words. A local language is a language whose scope is a part of a country. For example, in Japan, the common language is the national language of Japan (in other words, the language adopted by the educational system of the country; hereinafter referred to as the "national language"). In contrast, the local language is a dialect. Examples of dialects include Hokkaido dialect, Tsugaru dialect, Niigata dialect, Kansai dialect, and Kagoshima dialect. The number of candidates for the local language is two or more. An individual word is a language whose user is a specific individual (eg, a celebrity) or individual (eg, a cartoon character).

<システム構成>
図2で示すのは、本システムの構成である。システム1を構成するのは、端末装置10
及び処理装置20である。端末装置10及び処理装置20を接続するのは、ネットワーク
30である。これらの装置の説明は、次のとおりである。
<System configuration>
FIG. 2 shows the configuration of this system. The system 1 consists of a terminal device 10
and processing device 20 . A network 30 connects the terminal device 10 and the processing device 20 . A description of these devices follows.

<端末装置>
端末装置10で入力され或いは出力されるのは、各種値(データ)である。入力される
値(入力値)を例示すると、選択された講師や学習単元などである。出力される値(出力
値)を例示すると、前述の文字列や音声などである。
<Terminal device>
Various values (data) are input to or output from the terminal device 10 . Examples of input values (input values) include the selected lecturer and study unit. Examples of output values (output values) include the aforementioned character strings and voices.

端末装置10を構成するのは、コンピュータ、入力装置、及び、出力装置である。当該
コンピュータに接続されるのは、当該入力装置及び当該出力装置である。これらの部品の
詳細は、後述する。端末装置10を例示すると、パーソナルコンピュータ(PC)、スマ
ートフォン、タブレット、学習専用機等である。
The terminal device 10 is composed of a computer, an input device, and an output device. Connected to the computer are the input device and the output device. Details of these parts will be described later. Examples of the terminal device 10 include a personal computer (PC), a smart phone, a tablet, and a dedicated learning device.

<処理装置>
処理装置20で処理されるのは、各種値である。すなわち、入力値を処理して得られる
のは、出力値である。例えば、講師及び学習単元を処理して得られるのは、文字列及び音
声である。
<Processing device>
Various values are processed by the processor 20 . That is, the result of processing an input value is an output value. For example, text strings and voices are obtained by processing lecturers and study units.

処理装置20を構成するのは、コンピュータ及び大容量記憶装置である。当該コンピュ
ータに接続されているのは、当該大容量記憶装置である。当該大容量記憶装置に記憶され
るのは、当該入力値及び当該出力値である。これらの部品の詳細は、後述する。処理装置
20を例示すると、管理サーバ等である。
Comprised of processing unit 20 is a computer and a mass storage device. Connected to the computer is the mass storage device. Stored in the mass storage device are the input values and the output values. Details of these parts will be described later. An example of the processing device 20 is a management server or the like.

<ネットワーク>
ネットワーク30とは、通信網をいう。ネットワーク30を例示すると、狭域ネットワ
ーク(LAN)、広域ネットワーク(WAN)、機器間通信(M2M)等である。
<Network>
Network 30 refers to a communication network. Examples of the network 30 include a local area network (LAN), a wide area network (WAN), machine-to-machine communication (M2M), and the like.

<コンピュータのハードウェア構成>
図3で示すのは、コンピュータのハードウェア構成である。コンピュータ40を構成す
るのは、入出力部41、通信部42、プログラム記憶部43、一時記憶部44、及び、処
理部44である。これらの部品は、互いに、バス接続されている。コンピュータ40が実
装されているのは、端末装置10及び処理装置20である。これらの部品の説明は、次の
とおりである。
<Computer hardware configuration>
FIG. 3 shows the hardware configuration of the computer. The computer 40 is composed of an input/output unit 41 , a communication unit 42 , a program storage unit 43 , a temporary storage unit 44 and a processing unit 44 . These components are bus-connected to each other. The computer 40 is mounted on the terminal device 10 and the processing device 20 . A description of these parts follows.

<入出力部>
入出力部41で授受されるのは、各種データである。入出力部41に接続されるのは、
様々な装置であるが、例示すると、入力装置、出力装置、外部記憶装置などである。入力
装置を例示すると、タッチパネル、操作キー、ボタン、キーボードやマウス等である。出
力装置を例示すると、音声出力装置(例えば、スピーカなど)、振動出力装置(例えば、
ハプティックデバイスなど)、表示装置(例えば、液晶ディスプレイや有機ELディスプ
レイなど)等である。外部記憶装置を例示すると、磁気記憶装置(HDDなど)、光学記
憶装置(CD、DVD、BDなど。その駆動装置を含む。)、半導体記憶装置(USBメ
モリ、SDカードメモリ、SSDなど)などである。
<Input/output unit>
Various data are exchanged by the input/output unit 41 . Connected to the input/output unit 41 are:
Examples of various devices include input devices, output devices, and external storage devices. Examples of input devices include touch panels, operation keys, buttons, keyboards, and mice. Examples of output devices include audio output devices (e.g., speakers), vibration output devices (e.g.,
haptic devices, etc.), display devices (eg, liquid crystal displays, organic EL displays, etc.), and the like. Examples of external storage devices include magnetic storage devices (HDD, etc.), optical storage devices (CD, DVD, BD, etc., including their drive devices), and semiconductor storage devices (USB memory, SD card memory, SSD, etc.). be.

<通信部>
通信部42で送受されるのは、各種データである。通信部42に接続されるのは、ネッ
トワーク30である。通信部42を例示すると、ダイヤルアップ接続モジュール、ワイフ
ァイ(Wi-Fi)モジュール、ブルートゥース(Bluetooth、登録商標)モジ
ュール等である。
<Communication part>
Various data are transmitted and received by the communication unit 42 . Connected to the communication unit 42 is the network 30 . Examples of the communication unit 42 include a dial-up connection module, a Wi-Fi module, a Bluetooth (registered trademark) module, and the like.

<プログラム記憶部>
プログラム記憶部43に記憶されるのは、各種プログラムである。プログラム記憶部4
3を具現化するのは、不揮発性記憶装置(例えば、ROMなど)及び不揮発記憶装置(例
えば、HDDやSSDなど)である。不揮発性記憶装置に記憶されるのは、基本プログラ
ム(それに必要なデータを含む。)である。基本プログラムを例示すると、ベーシックイ
ンプット/アウトプットシステム(BIOS)、オペレーションシステム(OS)設定プ
ログラム、ネットワーク設定プログラムなどである。不揮発記憶装置に記憶されるのは、
オペレーションシステム(OS)及びアプリケーションプログラムである。オペレーショ
ンシステム(OS)を例示すると、ウィンドウズ“Windows”(登録商標)、リナ
ックス“Linux”(登録商標)、アンドロイド“Android”(登録商標)など
である。アプリケーションプログラムを例示すると、後述する電子学習プログラムである
<Program memory>
Various programs are stored in the program storage unit 43 . Program storage unit 4
3 is embodied by a non-volatile memory device (eg, ROM, etc.) and a non-volatile memory device (eg, HDD, SSD, etc.). Stored in non-volatile storage is the base program (including the data it requires). Examples of basic programs include a basic input/output system (BIOS), an operating system (OS) setting program, a network setting program, and the like. Stored in the non-volatile memory are:
An operating system (OS) and application programs. Examples of operating systems (OS) include Windows "Windows" (registered trademark), Linux "Linux" (registered trademark), android "Android" (registered trademark). An example of an application program is an electronic learning program, which will be described later.

<一時記憶部>
一時記憶部44に一時記憶されるのは、各種プログラム及び各種データである。各種デ
ータが示すのは、入力値や出力値などである。各種プログラムは、前述のとおりである。
一時記憶部44を例示すると、揮発性記憶装置(例えば、RAMなど)である。
<Temporary memory>
Various programs and various data are temporarily stored in the temporary storage unit 44 . Various data indicate input values, output values, and the like. Various programs are as described above.
An example of the temporary storage unit 44 is a volatile storage device (eg, RAM, etc.).

<処理部>
処理部44で実行されるのは、各種プログラムであり、かつ、処理されるのは、各種デ
ータである。各種プログラムが実行されることで、入力値が処理されて出力値となる。処
理部44を具現化するのは、中央演算装置(いわゆるCPU)である。中央演算装置に一
般的に内蔵されているのは、計時機能である。
<Processing unit>
Various programs are executed by the processing unit 44, and various data are processed. By executing various programs, input values are processed and become output values. A central processing unit (so-called CPU) embodies the processing unit 44 . Commonly built into the central processing unit is a clock function.

<講師リスト画面>
図4で示すのは、講師リスト画面の構成である。講師リスト画面50を主に構成するの
は、背景部51及び講師リスト部52である。本実施の形態で不問なのは、これらの画面
部品の配置場所である。
<Instructor list screen>
FIG. 4 shows the configuration of the lecturer list screen. The instructor list screen 50 is mainly composed of a background portion 51 and an instructor list portion 52 . What does not matter in this embodiment is the location of these screen components.

背景部51に表示され或いは出力される(以下、単に「表示」ともいう。)のは、様々
な情報であるが、例示すると、講義名、学習者名や現日時等である。学習者名の源泉は、
後述する学習者管理データベースである。現日時の源泉は、不問であるが、例示すると、
端末装置10の計時機能やGPSデータ等である。
Various types of information are displayed or output (hereinafter also simply referred to as “display”) in the background portion 51. Examples include lecture titles, learner names, current date and time, and the like. The source of the learner's name is
It is a learner management database to be described later. The source of the current date and time is irrelevant, but for example,
These include the timekeeping function of the terminal device 10, GPS data, and the like.

講師リスト部52に表示されるのは、少なくとも、講師アバタである。講師アバタは、
サムネイル表示される。講師アバタの源泉は、後述する講師データベースである。講師リ
スト部52が有するのは、起動機能である。すなわち、講師リスト部52を操作すること
で、後述の学習単元画面が出力される。また、講師リスト部52の操作が許容するのは、
講師属性を表示することである。講師属性を例示すると、出身地、性別、性格等である。
当該属性の源泉は、後述する講師データベースである。
At least the instructor avatar is displayed in the instructor list portion 52 . Instructor avatar
Thumbnails are displayed. The source of the instructor avatar is the instructor database, which will be described later. What the instructor list section 52 has is an activation function. That is, by operating the lecturer list section 52, a learning unit screen, which will be described later, is output. In addition, the operation of the lecturer list section 52 allows:
It is to display instructor attributes. Examples of instructor attributes include hometown, gender, personality, and the like.
The source of the attributes is the instructor database, which will be described later.

<学習単元画面>
図5で示すのは、学習単元画面の構成である。学習単元画面60を主に構成するのは、
背景部61、学習履歴部62、及び、学習単元部63である。本実施の形態で不問なのは
、これらの画面部品の配置場所である。
<Learning unit screen>
FIG. 5 shows the structure of the learning unit screen. The learning unit screen 60 is mainly composed of
A background portion 61 , a learning history portion 62 , and a learning unit portion 63 . What does not matter in this embodiment is the location of these screen components.

背景部61に表示されるのは、様々な情報であるが、例示すると、講義名、学習者名や
現日時等である。学習者名及び現日時の源泉は、前述のとおりである。
Various types of information are displayed in the background portion 61. Examples include lecture titles, learner names, current date and time, and the like. The learner's name and the source of the current date and time are as described above.

学習履歴部62に表示されるのは、様々な情報であるが、例示すると、進捗率等である
。学習履歴部62が有するのは、起動機能である。すなわち、学習履歴部62を操作する
ことで、学習履歴の詳細(例えば、項目ごとの進捗など)が出力される。学習履歴の源泉
は、後述する学習者管理データベースである。
Various types of information are displayed in the learning history section 62, and an example is a progress rate. What the learning history unit 62 has is an activation function. That is, by operating the learning history section 62, the details of the learning history (for example, the progress of each item) are output. The source of the learning history is the learner management database, which will be described later.

学習単元部53に表示されるのは、少なくとも、学習単元名である。学習単元部53で
任意に表示されるのは、講師名である。学習リスト部53が有するのは、起動機能である
。すなわち、学習リスト部53を操作することで、後述の学習画面が出力される。
What is displayed in the learning unit section 53 is at least the name of the learning unit. What is arbitrarily displayed in the learning unit section 53 is the name of the lecturer. What the learning list section 53 has is an activation function. That is, by operating the learning list portion 53, a learning screen, which will be described later, is output.

<学習画面>
図6で示すのは、学習画面の構成である。学習画面70を主に構成するのは、背景部7
1、講師アバタ部72、画像部73である。本実施の形態で不問なのは、これらの画面部
品の配置場所である。学習画面70が出力されるのと並行し或いは同期して、音声80が
出力される。
<Learning screen>
FIG. 6 shows the configuration of the learning screen. The learning screen 70 is mainly composed of the background part 7
1, a lecturer avatar section 72 and an image section 73 . What does not matter in this embodiment is the location of these screen components. A voice 80 is output in parallel with or in synchronization with output of the learning screen 70 .

背景部71に表示されるのは、様々な情報であるが、例示すると、学習単元名等である
。当該学習単元名の源泉は、学習単元部63の画面要素である。
Various types of information are displayed in the background portion 71, and examples thereof include the names of learning units. The source of the learning unit name is the screen element of the learning unit section 63 .

講師アバタ部72に表示されるのは、少なくとも、講師アバタである。講師アバタの源
泉は、後述する講師データベースである。講師アバタ部72の操作が許容するのは、前述
した講師属性を表示することである。
At least the instructor avatar is displayed in the instructor avatar section 72 . The source of the instructor avatar is the instructor database, which will be described later. What the operation of the lecturer avatar section 72 permits is to display the aforementioned lecturer attributes.

画像部73に表示されるのは、少なくとも、画像である。当該画像で示されるのは、各
学習単元の視覚情報である。当該視覚情報を構成するのは、文字列及び図形である。その
ように表示される文字列73aは、いわゆる字幕である。当該画像は、静止画又は動画で
ある。画像部73の一部を操作することで、当該画像が表示され、或いは、その表示が停
止される。
At least an image is displayed on the image portion 73 . The images show visual information for each learning unit. Character strings and graphics constitute the visual information. The character string 73a displayed as such is a so-called caption. The image is a still image or a moving image. By operating a portion of the image portion 73, the image is displayed or stopped.

音声80で示されるのは、各学習単元の聴覚情報である。音声80の出力に同期してい
るのは、文字列73aの表示である。画像部73の一部を操作することで、音声80が出
力され、或いは、その出力が停止される。
Shown by audio 80 is auditory information for each learning unit. Synchronized with the output of voice 80 is the display of character string 73a. By operating a part of the image portion 73, the sound 80 is output or the output is stopped.

<文字列及び音声の関係>
文字列73a及び音声80の一方を表現するのは、共通語であり、かつ、他方を表現す
るのは、特徴語である。当該共通語及び当該特徴語が並列に(同期して)出力される場合
、当該共通語の意味に対応するのは、当該特徴語の意味である。言い換えると、当該特徴
語を翻訳した結果は、当該共通語である。当該特徴語の意味が不明であれば、学習者にて
参照されるのは、当該共通語の意味である。
<Relationship between character string and voice>
One of the character string 73a and the voice 80 is expressed by a common word, and the other is expressed by a characteristic word. When the common word and the feature word are output in parallel (synchronously), it is the meaning of the feature word that corresponds to the meaning of the common word. In other words, the result of translating the feature word is the common word. If the meaning of the characteristic word is unknown, the learner refers to the meaning of the common word.

本実施の形態では、文字列73aを表現するのは、当該共通語であり、より具体的には
、国語である。他方、音声80を表現するのは、当該特徴語であり、具体的には、地方語
(例えば、方言。以下、同じ。)である。なぜなら、当該地方語を特徴付ける一つの要素
が音の抑揚だからである。
In this embodiment, the character string 73a is expressed by the common language, more specifically, the national language. On the other hand, the speech 80 is expressed by the characteristic word, specifically, a local language (for example, a dialect, hereinafter the same). This is because one element that characterizes the local language is the intonation of the sound.

<講師データベース>
図7で示すのは、講師データベースの構成であり、具体的には、(a)基本データベー
ス、(b)画像データベース、(c)音声データベースである。
<Lecturer database>
FIG. 7 shows the configuration of the lecturer database, specifically, (a) basic database, (b) image database, and (c) speech database.

基本データベースを構成するのは、1以上のレコードである。各レコードが有するのは
、2以上のフィールドである。各フィールドの属性(属性名及び属性値の組)を列挙する
と、講師ID、講師アバタ、画像、音声、設問、及び、その他の付加的属性である。各属
性の値は、文字列又はポインタである。
A basic database consists of one or more records. Each record has two or more fields. Listing the attributes (attribute name and attribute value pairs) of each field is instructor ID, instructor avatar, image, voice, question, and other additional attributes. The value of each attribute is either a string or a pointer.

画像データベースを構成するのは、1以上のレコードである。各レコードが有するのは
、2以上のフィールドである。各フィールドの属性(属性名及び属性値の組)を列挙する
と、画像、及び、単元1から単元Nである。画像の値が示すのは、基本データベースの画
像の値(ポインタ)である。単元1から単元Nの値がそれぞれ示すのは、画像ファイルで
あり、具体的には、静止画ファイル又は動画ファイルである。本実施の形態で不問なのは
、当該画像ファイルの形式である。例えば、当該画像ファイルが採用するのは、非圧縮形
式及び圧縮形式である。
An image database consists of one or more records. Each record has two or more fields. The attributes of each field (a set of attribute name and attribute value) are listed for image and unit 1 to unit N. FIG. The value of the image indicates the value (pointer) of the image in the underlying database. The values of unit 1 to unit N indicate image files, specifically still image files or moving image files. What does not matter in this embodiment is the format of the image file. For example, the image file adopts a non-compressed format and a compressed format.

音声データベースを構成するのは、1以上のレコードである。各レコードが有するのは
、2以上のフィールドである。各フィールドの属性(属性名及び属性値の組)を列挙する
と、音声、及び、単元1から単元Nである。音声の値が示すのは、基本データベースの音
声の値(ポインタ)である。単元1から単元Nの値がそれぞれ示すのは、音声ファイルで
ある。本実施の形態で不問なのは、当該音声ファイルの形式である。当該音声ファイルが
採用するのは、非圧縮形式及び圧縮形式である。
A voice database consists of one or more records. Each record has two or more fields. Attributes of each field (a set of attribute name and attribute value) are listed for voice and unit 1 to unit N. FIG. The speech value indicates the speech value (pointer) in the basic database. The values of unit 1 to unit N respectively indicate audio files. What does not matter in this embodiment is the format of the audio file. The audio file adopts an uncompressed format and a compressed format.

<学習者管理データベース>
図8で示すのは、学習者管理データベースの構成である。学習者管理データベースを構
成するのは、1以上のレコードである。各レコードが有するのは、2以上のフィールドで
ある。各フィールドの属性(属性名及び属性値の組)を列挙すると、学習者ID、パスワ
ード、学習者名、最終画像、最終音声、再生位置、完了フラグ、及び、その他の付加的情
報である。最終画像の値が示すのは、画像データベースの属性値(単元1から単元Nの値
)の何れかである。この属性値で示されるのは、最後に或いは直近に(以下、単に「最後
に」ということもある。)出力された画像である。最終音声の値が示すのは、音声データ
ベースの属性値(単元1から単元Nの値)の何れかである。この属性値で示されるのは、
最後に出力された音声である。再生(出力)位置の値が示すのは、最後に出力された画像
及び音声の位置(フレームのアドレス)である。完了フラグが示すのは、全ての単元が出
力されたか否かである。ここで、当該全ての単元に関連付けられるのは、1つの講師ID
である。完了フラグの値「1」が示すのは、全ての単元が出力されたことである。他方、
完了フラグの値「0」が示すのは、全ての又は一部の単元が出力されていないことである
<Learner management database>
FIG. 8 shows the configuration of the learner management database. One or more records constitute the learner management database. Each record has two or more fields. Attributes of each field (attribute name and attribute value pairs) are enumerated as learner ID, password, learner name, final image, final voice, playback position, completion flag, and other additional information. The value of the final image indicates one of the attribute values (unit 1 to unit N) in the image database. What is indicated by this attribute value is the image that was output last or most recently (hereinafter also simply referred to as “finally”). The value of the final speech indicates one of the attribute values (values of unit 1 to unit N) in the speech database. This attribute value indicates
This is the last output sound. The value of the playback (output) position indicates the position (frame address) of the last output image and sound. The completion flag indicates whether or not all units have been output. Here, one lecturer ID is associated with all the units concerned.
is. The completion flag value "1" indicates that all units have been output. on the other hand,
A completion flag value of "0" indicates that all or some of the units have not been output.

<電子学習プログラム>
図9で示すのは、電子学習プログラムの流れである。電子学習プログラムを構成するの
は、主に、講師入力処理(S1)、単元入力処理(S2)、及び、出力処理(S3)であ
る。当該プログラムを主に実行するのは、処理装置20である。端末装置10が処理する
のは、処理装置20からの命令及びデータである。これらの処理を詳説すると、以下のと
おりである。
<Electronic learning program>
Shown in FIG. 9 is the flow of the electronic learning program. The electronic learning program is mainly composed of lecturer input processing (S1), unit input processing (S2), and output processing (S3). The processing device 20 mainly executes the program. Terminal device 10 processes instructions and data from processing device 20 . Details of these processes are as follows.

<講師入力処理(S1)>
講師入力処理の目的は、講師を選択することである。この処理が実行される時期は、電
子学習プログラムの起動時である。具体的には、次のとおりである。
<Lecturer Input Processing (S1)>
The purpose of the Instructor Input process is to select an instructor. The time at which this process is executed is when the electronic learning program is started. Specifically, it is as follows.

講師リスト画面を出力する。図10で示すのは、講師リスト画面の例である。講師リス
ト画面を構成するのは、講義名「ベジタブル研究所」、学習者名「カゴメトマト」、及び
、現日時「2020年1月1日」、並びに、講師リストである(図10(a)を参照。)
。講師リストを構成するのは、講師アバタ「お豆先生」及び「米作先生」である。これら
は、サムネイル表示される。
Output the lecturer list screen. FIG. 10 shows an example of the instructor list screen. The instructor list screen consists of the lecture name "Vegetable Institute", the learner name "Kagome Tomato", the current date and time "January 1, 2020", and the instructor list (Fig. 10 (a) see.)
. The instructor list is made up of the instructor avatars "Mr. Omame" and "Mr. Yonesaku". These are displayed as thumbnails.

講師アバタを選択すると(例えば、シングルタップ)、講師属性を表示する。例えば、
講師アバタ「お豆先生」を選択すると、講師「お豆先生」の属性「北海道出身」を表示す
る(図10(b)を参照。)。講師アバタ「米作先生」を選択すると、講師「米作先生」
の属性「新潟県出身」を表示する。講師アバタを再度選択すると(例えば、ダブルタップ
)、講師入力処理(S1)を終了する。
Selecting the instructor avatar (eg, single tapping) displays instructor attributes. for example,
When the lecturer avatar “Mr. Omame” is selected, the attribute “from Hokkaido” of the lecturer “Mr. Omame” is displayed (see FIG. 10(b)). If you select the lecturer avatar "Yonesaku-sensei", the lecturer "Yonesaku-sensei"
display the attribute "Niigata Prefecture". When the instructor avatar is selected again (for example, by double-tapping), the instructor input processing (S1) ends.

初回起動時において、選択可能な講師アバタに関連付けられているのは、特徴語の音声
である。すなわち、学習の初回において、学習者が必ず聞くのは、特徴語である。このと
き、処理装置20が参照するのは、学習者管理データベースの属性値であり、具体的には
、最終画像又は最終音声の値である。これらの値が存在しなければ(例えば“Null”
)、過去の学習回数は、初回である。第2回以降では、そのような制限は、解除される。
すなわち、選択可能な講師アバタの一つに関連付けられているのは、共通語の音声である
Associated with the selectable tutor avatars upon initial activation is the voice of the feature word. In other words, what the learner always hears at the first time of learning is the feature word. At this time, the processor 20 refers to the attribute values of the learner management database, specifically the value of the final image or the final voice. If these values do not exist (e.g. "Null"
), and the number of past learning times is the first time. From the second time onwards, such restrictions are lifted.
That is, associated with one of the selectable tutor avatars is a common language voice.

初回の学習後、選択可能な講師アバタは、更に制限される。初回に選択された講師アバ
タに関連付けられているのは、複数の単元である。当該複数の単元の全てが出力されるま
で、他の講師アバタは選択できない。このとき、処理装置20が参照するのは、学習者管
理データベースの属性値であり、具体的には、完了フラグの値である。完了フラグの値が
「0」であれば、他の講師アバタは、選択されない。例えば、他の講師アバタは、グレー
アウトされる。他方、完了フラグの値が「1」であれば、他の講師アバタは、選択される
After the initial learning, the selectable tutor avatars are further restricted. Associated with the initially selected instructor avatar are multiple units. Other instructor avatars cannot be selected until all of the plurality of units are output. At this time, the processor 20 refers to the attribute value of the learner management database, specifically the value of the completion flag. If the value of the completion flag is "0", no other lecturer avatar is selected. For example, other lecturer avatars are grayed out. On the other hand, if the value of the completion flag is "1", another lecturer avatar is selected.

<単元入力処理(S2)>
S1で講師アバタが選択されると、学習単元画面を出力する。図11で示すのは、学習
単元画面の例である。学習単元画面を構成するのは、講義名「ベジタブル研究所」、学習
者名「カゴメトマト」、現日時「2020年1月1日」、及び、学習履歴「学習進捗率8
0%」並びに、学習単元リストである。学習単元リストを構成するのは、学習単元名「第
1回お豆は凄い!」、「第2回トマトも凄い!」、「第3回ナスの良い所」、「第4回ピ
ーマン大好き」、及び「確認テスト」である。講師名「お豆先生」も表示される。学習単
元名を選択すると、単元入力処理(S2)を終了する。
<Unit Input Processing (S2)>
When the teacher avatar is selected in S1, a learning unit screen is output. FIG. 11 shows an example of a learning unit screen. The learning unit screen consists of the lecture name “Vegetable Institute”, the learner name “Kagome Tomato”, the current date and time “January 1, 2020”, and the learning history “learning progress rate 8
0%” and a learning unit list. The learning unit list consists of the learning unit names “1st: Beans are amazing!”, “2nd: Tomatoes are also amazing!”, “3rd: Good things about eggplants”, and “4th: I love green peppers.” , and "confirmation test". The name of the lecturer "Omame-sensei" is also displayed. When the learning unit name is selected, the unit input process (S2) ends.

<出力処理(S3)>
S2で学習単元名が選択されると、学習画面を出力する。図12で示すのは、学習画面
の例である。具体的には、以下のとおりである。
<Output processing (S3)>
When a learning unit name is selected in S2, a learning screen is output. FIG. 12 shows an example of the learning screen. Specifically, it is as follows.

図12(a)が示すとおり、講師アバタ「お豆先生」及び学習単元名「第2回トマトも
凄い!」が選択されると、学習画面を構成するのは、講師アバタ「お豆先生」、学習単元
名「第2回トマトも凄い!」、画像「トマトの図柄」、及び、文字列「どこでやるの。こ
こでしょ。」である。この文字列の出力と並列に(同期して)出力されるのは、音声「ど
こでやるのさ。ここでないかい。」である。つまり、文字列を表現するのは、共通語(国
語)「どこでやるの。ここでしょ。」である。他方、音声を表現するのは、特徴語(北海
道弁)「どこでやるのさ。ここでないかい。」である。
As shown in FIG. 12(a), when the lecturer avatar "Mr. Omame" and the learning unit name "2nd Tomatoes are great!" are selected, the learning screen is composed of the lecturer avatar "Mr. Omame". , the name of the learning unit “The second tomato is also amazing!”, the image “Tomato pattern”, and the character string “Where will you do it? Output in parallel (synchronization) with the output of this character string is the voice "Where are you going to do it? Isn't it here?". In other words, the common language (national language) "Where are you doing it? Here is it?" expresses the character string. On the other hand, voice is expressed by a characteristic word (Hokkaido dialect), "Where are you doing it? Isn't it here?"

他方、図12(b)が示すとおり、講師アバタ「米作先生」及び学習単元名「第2回ト
マトも凄い!」が選択されると、学習画面を構成するのは、講師アバタ「米作先生」、学
習単元名「第2回トマトも凄い!」、画像「トマトの図柄」、及び、文字列「どこでやる
の。ここでしょ。」である。この文字列の出力と並列に(同期して)出力されるのは、音
声「どこでやるんらね。ここらてぃ。」である。つまり、文字列を表現するのは、共通語
(国語)「どこでやるの。ここでしょ。」である。他方、音声を表現するのは、特徴語(
新潟弁)「どこでやるんらね。ここらてぃ。」である。
On the other hand, as shown in FIG. 12(b), when the lecturer avatar “Mr. teacher", the name of the learning unit "The second tomato is also amazing!", the image "pattern of tomato", and the character string "Where is it done? Here." What is output in parallel (synchronization) with the output of this character string is the voice "Where are you doing it? Here it is.". In other words, the common language (national language) "Where are you doing it? Here is it?" expresses the character string. On the other hand, speech is represented by feature words (
Niigata dialect) ``Where are you going?

図12(a)及び図12(b)を比較すると、両者の文字列は、共通して、国語「どこ
でやるの。ここでしょ。」である。これに対して、両者の音声は、相違する。一方の音声
は、北海道弁「どこでやるのさ。ここでないかい。」である。他方の音声は、新潟弁「ど
こでやるんらね。ここらてぃ。」である。つまり、両者の文字列が同一であるものの、両
者の音声が異なっている。
Comparing FIGS. 12(a) and 12(b), both character strings are commonly the national language "Where will you do it? Here.". On the other hand, the voices of both are different. One voice is the Hokkaido dialect, "Where are you doing it? Isn't it here?" The other voice is the Niigata dialect, ``Where are you going? In other words, although the character strings of both are the same, the voices of the two are different.

出力処理(S3)が終了するのは、1つの単元の出力が停止された場合、又は、1つの
単元の出力が完了した場合である。
The output process (S3) ends when the output of one unit is stopped or when the output of one unit is completed.

1つの単元の出力が停止された場合、学習者管理データベースに記憶されるのは、最終
画像の値、最終音声の値、及び再生位置の値である。
When the output of one unit is stopped, what is stored in the learner management database is the value of the final image, the value of the final audio, and the value of the playback position.

1つの単元の出力が完了した場合、未出力の単元が残っていなければ(全ての単元の出
力が完了していれば)、講師入力処理(S1)が実行される。この場合、学習者管理デー
タベースに記憶されるのは、完了フラグの値「1」である。つまり、講師リスト画面が可
能にするのは、他の講師アバタの選択である。
When the output of one unit is completed, if there is no unoutputted unit (if the output of all units is completed), the instructor input process (S1) is executed. In this case, the completion flag value "1" is stored in the learner management database. In other words, what the instructor list screen allows is the selection of other instructor avatars.

他方、1つの単元の出力が完了した場合、未出力の単元が残っていれば、単元入力処理
(S2)が実行される。この場合、学習者管理データベースに記憶されるのは、完了フラ
グの値「0」である。
On the other hand, when the output of one unit is completed, if there are any unoutput units remaining, the unit input process (S2) is executed. In this case, the completion flag value "0" is stored in the learner management database.

<変形例>
本実施の形態が排除しないのは、(1)文字列が地方語(方言)であり、かつ、音声が
共通語(日本の国語)であること、(2)講師入力処理(S1)の実行が単元入力処理(
S2)の後であること、及び、(3)特徴語が個別語であることである。これらの場合、
講師データベースの構成も適宜変更される。
<Modification>
This embodiment does not exclude (1) the character string is a local language (dialect) and the voice is a common language (Japanese national language), and (2) execution of the instructor input process (S1) is unit input processing (
and (3) the feature word is an individual word. In these cases,
The configuration of the lecturer database is also changed as appropriate.

<本実施の形態の効果>
以上のとおり、文字列を表現するのは、共通語(日本の国語)であり、かつ、音声を表
現するのは、地方語(北海道弁や新潟弁等。)である。それによって、地方語の一つ(北
海道弁)を出力すると、学習者の興味を惹く。この学習者が聞きたくなるのは、他の地方
語(新潟弁)である。両地方語が出力されても、文字列は、ともに、共通語(日本の国語
)である。この場合、同じ文字列が出力される回数は、2回である。つまり、同一の学習
単元は、反復して学習される。
<Effects of this embodiment>
As described above, the common language (the national language of Japan) expresses character strings, and the local language (Hokkaido dialect, Niigata dialect, etc.) expresses voice. As a result, when one of the local languages (Hokkaido dialect) is output, the learner's interest is attracted. What this learner wants to hear is another local language (Niigata dialect). Even if both local languages are output, the character strings are both common languages (the national language of Japan). In this case, the number of times the same character string is output is two. That is, the same learning unit is repeatedly learned.

学習の初回において、文字列又は音声は、必ず地方語である。言い換えると、学習者が
必ず耳にするのは、地方語である。それによって、学習者の興味は、確度高く、惹つけら
れる。
At the first time of learning, the strings or sounds are always local language. In other words, what learners always hear is the local language. As a result, the learner's interest is highly certain and attracted.

初回の学習後、1つの講師アバタが選択されると、このアバタに関連する全ての単元が
出力されるまで、他の講師アバタは選択できない。それによって、学習者が強いられるの
は、全ての単元を学習することである。つまり、全ての学習単元は、確度高く、学習され
る。
After the first study, once one teacher avatar is selected, no other teacher avatar can be selected until all units related to this avatar are output. It forces the learner to study all the units. That is, all learning units are learned with high accuracy.

本発明が有用な分野は、各種(例えば、企業監査、財務経理、情報管理、環境、品質管理
、健康啓発等)教育事業である。
Fields in which the present invention is useful are various (eg, corporate auditing, financial accounting, information management, environmental, quality control, health awareness, etc.) educational projects.

Claims (8)

電子学習(語学を除く。)プログラムであって、それによってコンピュータが実行するのは、次の処理である:
入力:入力されるのは、講師であり、その際に表示されるのは、当該講師の候補であり、かつ、
出力:並列に出力されるのは、少なくとも、文字列及び音声であり、かつ、
当該文字列及び音声に関連付けられているのは、入力された講師であり、かつ、
当該文字列を表現するのは、共通語であり、かつ、当該音声を表現するのは、特徴語である。
An electronic learning (other than language) program whereby a computer performs the following processes:
Input: Input is a lecturer, and what is displayed at that time is a candidate for the lecturer, and
Output: At least character strings and voice are output in parallel, and
Associated with the string and voice is the input instructor, and
It is the common word that expresses the character string, and the feature word that expresses the sound.
請求項1のプログラムであって、それによってコンピュータが実行するのは、次の処理である:
第2の入力:入力されるのは、学習単元であり、その際に表示されるのは、当該学習単元の候補であり、かつ、
当該文字列及び音声で示されるのは、入力された学習単元の内容である。
The program of claim 1, whereby the computer executes the following processes:
Second input: what is input is a learning unit, and what is displayed at that time is a candidate for the learning unit, and
What is indicated by the character string and voice is the content of the input learning unit.
請求項2のプログラムであって、
一の講師に代えて、他の講師が入力される条件は、全ての学習単元の出力が完了することであり、かつ、
当該全ての学習単元に関連付けられているのは、当該一の講師である。
The program of claim 2,
The condition for inputting another instructor instead of one instructor is that the output of all learning units is completed, and
Associated with all such learning units is the one instructor.
請求項1乃至3の何れかのプログラムであって、
当該共通語は、日本の国語であり、かつ、
当該特徴語は、日本の地方語である。
The program according to any one of claims 1 to 3,
The common language is the national language of Japan, and
The characteristic word is a local language of Japan.
電子学習(語学を除く。)プログラムであって、それによってコンピュータが実行するのは、次の処理である:
入力:入力されるのは、選択された講師アバタであり、その際に表示されるのは、講師アバタの候補であり、かつ、
出力:並列に出力されるのは、少なくとも、文字列及び音声であり、かつ、
当該文字列及び音声に関連付けられているのは、入力された選択結果であり、かつ、
当該文字列を表現するのは、共通語であり、かつ、当該音声を表現するのは、特徴語である。
An electronic learning (other than language) program whereby a computer performs the following processes:
Input: what is input is the selected lecturer avatar, and what is displayed at that time is the candidate lecturer avatar, and
Output: At least character strings and voice are output in parallel, and
Associated with the string and voice is an input selection result, and
It is the common word that expresses the character string, and the feature word that expresses the speech.
請求項5のプログラムであって、それによってコンピュータが実行するのは、次の処理である:
第2の入力:入力されるのは、学習単元であり、その際に表示されるのは、当該学習単元の候補であり、かつ、
当該文字列及び音声で示されるのは、入力された学習単元の内容である。
The program of claim 5, whereby the computer executes the following processes:
Second input: what is input is a learning unit, and what is displayed at that time is a candidate for the learning unit, and
What is indicated by the character string and voice is the content of the input learning unit.
請求項6のプログラムであって、
一の講師アバタに代えて、他の講師アバタが選択される条件は、全ての学習単元の出力が完了することであり、かつ、
当該学習単元の出力に関連付けられているのは、当該一の講師アバタである。
The program of claim 6,
The condition for selecting another instructor avatar instead of one instructor avatar is that the output of all learning units is completed, and
Associated with the output of the learning unit is the one instructor avatar.
請求項5乃至7の何れかのプログラムであって、
当該共通語は、日本の国語であり、かつ、
当該特徴語は、日本の地方語である。
The program according to any one of claims 5 to 7,
The common language is the national language of Japan, and
The characteristic word is a local language of Japan.
JP2022088820A 2020-01-15 2022-05-31 electronic learning program Pending JP2022130385A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022088820A JP2022130385A (en) 2020-01-15 2022-05-31 electronic learning program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020004149A JP7118513B2 (en) 2020-01-15 2020-01-15 electronic learning program
JP2022088820A JP2022130385A (en) 2020-01-15 2022-05-31 electronic learning program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020004149A Division JP7118513B2 (en) 2020-01-15 2020-01-15 electronic learning program

Publications (1)

Publication Number Publication Date
JP2022130385A true JP2022130385A (en) 2022-09-06

Family

ID=77059995

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020004149A Active JP7118513B2 (en) 2020-01-15 2020-01-15 electronic learning program
JP2022088820A Pending JP2022130385A (en) 2020-01-15 2022-05-31 electronic learning program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020004149A Active JP7118513B2 (en) 2020-01-15 2020-01-15 electronic learning program

Country Status (1)

Country Link
JP (2) JP7118513B2 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3364976B2 (en) * 1993-02-16 2003-01-08 カシオ計算機株式会社 Chinese learning device
JPH08287070A (en) * 1995-04-12 1996-11-01 Fuji Xerox Co Ltd Language speaking device
US7149690B2 (en) * 1999-09-09 2006-12-12 Lucent Technologies Inc. Method and apparatus for interactive language instruction
JP2004334111A (en) * 2003-05-12 2004-11-25 Casio Comput Co Ltd Language learning system and language learning server
JP2006078802A (en) * 2004-09-09 2006-03-23 Nisshinbo Ind Inc Device and method for supporting learning, and program
JP2015087649A (en) * 2013-10-31 2015-05-07 シャープ株式会社 Utterance control device, method, utterance system, program, and utterance device

Also Published As

Publication number Publication date
JP7118513B2 (en) 2022-08-16
JP2021110890A (en) 2021-08-02

Similar Documents

Publication Publication Date Title
US8784108B2 (en) Computer-based language immersion teaching for young learners
US9058751B2 (en) Language phoneme practice engine
JP6218740B2 (en) Language education system to promote the involvement of leaders
US9536438B2 (en) System and method for customizing reading materials based on reading ability
US20150254999A1 (en) Method and system for providing contextual vocabulary acquisition through association
CN112053595B (en) Computer-implemented training system
US10373516B2 (en) Method for facilitating contextual vocabulary acquisition through association
JP2011209730A (en) Chinese language learning device, chinese language learning method, program, and recording medium
KR20190143057A (en) An online learning system and method capable of parallel learning of Chinese characters and Chinese
JP7118513B2 (en) electronic learning program
US20220036759A1 (en) Augmentative and alternative communication (aac) reading system
KR101080092B1 (en) Method for studying foreign language word and installation using thereof
WO2013078144A2 (en) Computer-based language immersion teaching for young learners
US20210134177A1 (en) System and method for displaying voice-animated multimedia content
US20160307453A1 (en) System and method for auditory capacity development for language processing
KR20200018053A (en) Teaching materials for study of English
KR102594629B1 (en) Apparatus for including speaking scoring artificial intelligence model to evaluate responses of answer to evaluation question
TW552549B (en) Computer-controllable card reading system and method thereof
KR20220134248A (en) Method and device for providing korean language self-directed learning contents
JP2020201421A (en) Language learning device, language learning method, and language learning program
KR20220142276A (en) Device for learning hangeul using images
Ozkul Accent Perfect: American English Pronunciation App
KR20130139390A (en) Language learning system using mobile application
TW201640464A (en) Multi-language learning system with word exchanged and method thereof
JP2022120500A (en) Learning support system, learning support method, and program

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20221109

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240311