JP2022130385A - electronic learning program - Google Patents
electronic learning program Download PDFInfo
- Publication number
- JP2022130385A JP2022130385A JP2022088820A JP2022088820A JP2022130385A JP 2022130385 A JP2022130385 A JP 2022130385A JP 2022088820 A JP2022088820 A JP 2022088820A JP 2022088820 A JP2022088820 A JP 2022088820A JP 2022130385 A JP2022130385 A JP 2022130385A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- output
- input
- instructor
- language
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims description 13
- 230000008569 process Effects 0.000 claims description 13
- 230000000007 visual effect Effects 0.000 abstract description 6
- 230000014509 gene expression Effects 0.000 abstract 1
- 238000012545 processing Methods 0.000 description 25
- 235000007688 Lycopersicon esculentum Nutrition 0.000 description 8
- 240000003768 Solanum lycopersicum Species 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 230000007423 decrease Effects 0.000 description 2
- 238000010079 rubber tapping Methods 0.000 description 2
- 235000013311 vegetables Nutrition 0.000 description 2
- 235000008534 Capsicum annuum var annuum Nutrition 0.000 description 1
- 240000008384 Capsicum annuum var. annuum Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 244000046052 Phaseolus vulgaris Species 0.000 description 1
- 235000010627 Phaseolus vulgaris Nutrition 0.000 description 1
- 244000061458 Solanum melongena Species 0.000 description 1
- 235000002597 Solanum melongena Nutrition 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000000265 homogenisation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003908 quality control method Methods 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Abstract
Description
本発明に関係するのは、電子学習プログラムである。 Pertinent to the present invention are electronic learning programs.
近年、教育現場で採用されているのは、電子学習(いわゆる「イーラーニング(”e‐
learning”)」)システムである。電子学習システムの利点の一つは、指導の均
質化である。特許文献1で開示されているのは、外国語習得支援システムである。このシ
ステムで提供されるのは、外国語習得コンテンツである。
In recent years, electronic learning (so-called “e-learning”) has been adopted in educational settings.
learning")") system. One of the advantages of electronic learning systems is the homogenization of instruction.
電子学習システムで頻繁に用いられるのは、教師の分身(以下、「アバタ(“Avat
ar“)」という。)である。その目的の一つは、学習意欲の喚起である。学習意欲の低
下が引き起こすのは、理解度の低下である。特許文献2で開示されているのは、学習・生
活支援システムである。このシステムで使用されるのは、アバタコメントである。このア
バタコメントが応答するのは、ユーザコメントである。そのような会話で喚起されるのは
、ユーザの学習意欲である。特許文献3で開示されているのは、学習支援システムである
。このシステムで使用されるのは、教師アバタの属性及び生徒アバタの属性である。教師
アバタの属性に適合するのは、生徒アバタの属性である。それによって、当該支援システ
ムが最適化するのは、教師アバタと生徒アバタとの相性である。
The teacher's alter ego (hereinafter referred to as "Avat") is frequently used in electronic learning systems.
ar ")". ). One of the purposes is to arouse the desire to learn. A decline in motivation to learn causes a decline in comprehension. Patent Document 2 discloses a learning/life support system. Avatar comments are used in this system. This avatar comment responds to a user comment. What is aroused in such conversations is the user's desire to learn. What is disclosed in Patent Document 3 is a learning support system. Used in this system are attributes of the teacher avatar and attributes of the student avatar. Matching the attributes of the teacher avatar are the attributes of the student avatar. It is thereby the compatibility between the teacher avatar and the student avatar that the support system optimizes.
本発明が解決しようとする課題は、反復学習の実現である。具体的には、如何にして学
習者の興味を惹くかである。
The problem to be solved by the present invention is the realization of iterative learning. Specifically, how to attract the interest of learners.
以上を踏まえて、本願発明者が着目したのは、学習者の興味を惹くきっかけが視覚表現
及び聴覚表現のズレである点である。そのような観点から本発明を定義すると、次のとお
りである。
Based on the above, the inventors of the present application focused on the fact that the gap between the visual representation and the auditory representation is the trigger that attracts the learner's interest. The definition of the present invention from such a point of view is as follows.
電子学習プログラムによってコンピュータが実行する処理は、少なくとも、入力及び出
力である。すなわち、講師が入力されると、或いは、入力された講師が受け付けられると
、文字列及び音声は、並列に(同期して)出力される。当該文字列及び音声に関連付けら
れているのは、入力された講師である。当該文字列及び当該音声の一方を表現するのは、
共通語である。他方を表現するのは、特徴語である。
The processing performed by the computer with the electronic learning program is at least an input and an output. That is, when the lecturer is input, or when the input lecturer is accepted, the character string and the voice are output in parallel (synchronously). Associated with the string and voice is the input instructor. Representing one of said character string and said sound is
It is a common language. It is the characteristic word that expresses the other.
本発明が可能にするのは、反復学習を実現することである。すなわち、視覚表現及び聴
覚表現を違えることで、学習者の興味を惹く。学習者の興味を惹くことで、講義内容が反
復して学習される。
What the present invention enables is to implement iterative learning. In other words, different visual representations and auditory representations attract the learner's interest. By attracting the learner's interest, the lecture contents are learned repeatedly.
<ユースケース>
図1で示すのは、本実施の形態に係るシステム(以下、「本システム」という。)ユー
スケースである。本システム1の用途は、学習である。学習の内容は、不問であるが、好
ましくは、語学以外である。本システム1を使用するのは、学習者である。
<Use case>
FIG. 1 shows a use case of a system according to this embodiment (hereinafter referred to as "this system"). The application of this
学習者が選択するのは、講師及び学習単元である。当該講師を選択する一つの基準は、
使用される言語の違いである。他方、当該学習単元を選択する一つの基準は、履修の有無
である。以下では、学習単元を「単元」ということもある。
The learner chooses the instructor and the unit of study. One criterion for selecting the instructor is
The difference is the language used. On the other hand, one of the criteria for selecting the relevant learning unit is the presence or absence of course completion. Below, a learning unit may be called a "unit."
学習者が認識するのは、文字列及び音声である。文字列とは、視覚情報であって、それ
で示されるのが学習単元の内容であるものをいう。音声とは、聴覚情報であって、それで
示されるのが学習単元の内容であるものをいう。
A learner recognizes character strings and sounds. A character string is visual information that indicates the contents of a learning unit. Speech refers to auditory information that indicates the content of a learning unit.
文字列及び音声の一方を表現するのは、共通語であり、かつ、他方を表現するのは、特
徴語である。共通語とは、言語であって、その通用範囲が一国家の全域であるものをいう
。特徴語とは、言語であって、共通語以外のものをいう。特徴語を例示すると、地方語や
個別語などである。地方語とは、言語であって、その通用範囲が一国家の一部地域である
ものいう。例えば、日本国において、当該共通語が日本の国語(言い換えると、言語であ
って、国の教育期間が採用するものをいう。以下、「国語」という。)である。これに対
して、当該地方語は、方言である。方言を例示すると、北海道弁、津軽弁、新潟弁、関西
弁、鹿児島弁などである。当該地方語の候補数は、2以上である。個別語とは、言語であ
って、その使用者が特定の個人(例えば、著名人など)又は個体(例えば、漫画の登場人
物など)であるものをいう。
Common words represent one of character strings and sounds, and feature words represent the other. A lingua franca is a language whose scope is the whole of a nation. A feature word is a language and means something other than a common language. Examples of characteristic words are local words and individual words. A local language is a language whose scope is a part of a country. For example, in Japan, the common language is the national language of Japan (in other words, the language adopted by the educational system of the country; hereinafter referred to as the "national language"). In contrast, the local language is a dialect. Examples of dialects include Hokkaido dialect, Tsugaru dialect, Niigata dialect, Kansai dialect, and Kagoshima dialect. The number of candidates for the local language is two or more. An individual word is a language whose user is a specific individual (eg, a celebrity) or individual (eg, a cartoon character).
<システム構成>
図2で示すのは、本システムの構成である。システム1を構成するのは、端末装置10
及び処理装置20である。端末装置10及び処理装置20を接続するのは、ネットワーク
30である。これらの装置の説明は、次のとおりである。
<System configuration>
FIG. 2 shows the configuration of this system. The
and
<端末装置>
端末装置10で入力され或いは出力されるのは、各種値(データ)である。入力される
値(入力値)を例示すると、選択された講師や学習単元などである。出力される値(出力
値)を例示すると、前述の文字列や音声などである。
<Terminal device>
Various values (data) are input to or output from the
端末装置10を構成するのは、コンピュータ、入力装置、及び、出力装置である。当該
コンピュータに接続されるのは、当該入力装置及び当該出力装置である。これらの部品の
詳細は、後述する。端末装置10を例示すると、パーソナルコンピュータ(PC)、スマ
ートフォン、タブレット、学習専用機等である。
The
<処理装置>
処理装置20で処理されるのは、各種値である。すなわち、入力値を処理して得られる
のは、出力値である。例えば、講師及び学習単元を処理して得られるのは、文字列及び音
声である。
<Processing device>
Various values are processed by the
処理装置20を構成するのは、コンピュータ及び大容量記憶装置である。当該コンピュ
ータに接続されているのは、当該大容量記憶装置である。当該大容量記憶装置に記憶され
るのは、当該入力値及び当該出力値である。これらの部品の詳細は、後述する。処理装置
20を例示すると、管理サーバ等である。
Comprised of
<ネットワーク>
ネットワーク30とは、通信網をいう。ネットワーク30を例示すると、狭域ネットワ
ーク(LAN)、広域ネットワーク(WAN)、機器間通信(M2M)等である。
<Network>
<コンピュータのハードウェア構成>
図3で示すのは、コンピュータのハードウェア構成である。コンピュータ40を構成す
るのは、入出力部41、通信部42、プログラム記憶部43、一時記憶部44、及び、処
理部44である。これらの部品は、互いに、バス接続されている。コンピュータ40が実
装されているのは、端末装置10及び処理装置20である。これらの部品の説明は、次の
とおりである。
<Computer hardware configuration>
FIG. 3 shows the hardware configuration of the computer. The
<入出力部>
入出力部41で授受されるのは、各種データである。入出力部41に接続されるのは、
様々な装置であるが、例示すると、入力装置、出力装置、外部記憶装置などである。入力
装置を例示すると、タッチパネル、操作キー、ボタン、キーボードやマウス等である。出
力装置を例示すると、音声出力装置(例えば、スピーカなど)、振動出力装置(例えば、
ハプティックデバイスなど)、表示装置(例えば、液晶ディスプレイや有機ELディスプ
レイなど)等である。外部記憶装置を例示すると、磁気記憶装置(HDDなど)、光学記
憶装置(CD、DVD、BDなど。その駆動装置を含む。)、半導体記憶装置(USBメ
モリ、SDカードメモリ、SSDなど)などである。
<Input/output unit>
Various data are exchanged by the input/
Examples of various devices include input devices, output devices, and external storage devices. Examples of input devices include touch panels, operation keys, buttons, keyboards, and mice. Examples of output devices include audio output devices (e.g., speakers), vibration output devices (e.g.,
haptic devices, etc.), display devices (eg, liquid crystal displays, organic EL displays, etc.), and the like. Examples of external storage devices include magnetic storage devices (HDD, etc.), optical storage devices (CD, DVD, BD, etc., including their drive devices), and semiconductor storage devices (USB memory, SD card memory, SSD, etc.). be.
<通信部>
通信部42で送受されるのは、各種データである。通信部42に接続されるのは、ネッ
トワーク30である。通信部42を例示すると、ダイヤルアップ接続モジュール、ワイフ
ァイ(Wi-Fi)モジュール、ブルートゥース(Bluetooth、登録商標)モジ
ュール等である。
<Communication part>
Various data are transmitted and received by the
<プログラム記憶部>
プログラム記憶部43に記憶されるのは、各種プログラムである。プログラム記憶部4
3を具現化するのは、不揮発性記憶装置(例えば、ROMなど)及び不揮発記憶装置(例
えば、HDDやSSDなど)である。不揮発性記憶装置に記憶されるのは、基本プログラ
ム(それに必要なデータを含む。)である。基本プログラムを例示すると、ベーシックイ
ンプット/アウトプットシステム(BIOS)、オペレーションシステム(OS)設定プ
ログラム、ネットワーク設定プログラムなどである。不揮発記憶装置に記憶されるのは、
オペレーションシステム(OS)及びアプリケーションプログラムである。オペレーショ
ンシステム(OS)を例示すると、ウィンドウズ“Windows”(登録商標)、リナ
ックス“Linux”(登録商標)、アンドロイド“Android”(登録商標)など
である。アプリケーションプログラムを例示すると、後述する電子学習プログラムである
。
<Program memory>
Various programs are stored in the
3 is embodied by a non-volatile memory device (eg, ROM, etc.) and a non-volatile memory device (eg, HDD, SSD, etc.). Stored in non-volatile storage is the base program (including the data it requires). Examples of basic programs include a basic input/output system (BIOS), an operating system (OS) setting program, a network setting program, and the like. Stored in the non-volatile memory are:
An operating system (OS) and application programs. Examples of operating systems (OS) include Windows "Windows" (registered trademark), Linux "Linux" (registered trademark), android "Android" (registered trademark). An example of an application program is an electronic learning program, which will be described later.
<一時記憶部>
一時記憶部44に一時記憶されるのは、各種プログラム及び各種データである。各種デ
ータが示すのは、入力値や出力値などである。各種プログラムは、前述のとおりである。
一時記憶部44を例示すると、揮発性記憶装置(例えば、RAMなど)である。
<Temporary memory>
Various programs and various data are temporarily stored in the
An example of the
<処理部>
処理部44で実行されるのは、各種プログラムであり、かつ、処理されるのは、各種デ
ータである。各種プログラムが実行されることで、入力値が処理されて出力値となる。処
理部44を具現化するのは、中央演算装置(いわゆるCPU)である。中央演算装置に一
般的に内蔵されているのは、計時機能である。
<Processing unit>
Various programs are executed by the
<講師リスト画面>
図4で示すのは、講師リスト画面の構成である。講師リスト画面50を主に構成するの
は、背景部51及び講師リスト部52である。本実施の形態で不問なのは、これらの画面
部品の配置場所である。
<Instructor list screen>
FIG. 4 shows the configuration of the lecturer list screen. The
背景部51に表示され或いは出力される(以下、単に「表示」ともいう。)のは、様々
な情報であるが、例示すると、講義名、学習者名や現日時等である。学習者名の源泉は、
後述する学習者管理データベースである。現日時の源泉は、不問であるが、例示すると、
端末装置10の計時機能やGPSデータ等である。
Various types of information are displayed or output (hereinafter also simply referred to as “display”) in the
It is a learner management database to be described later. The source of the current date and time is irrelevant, but for example,
These include the timekeeping function of the
講師リスト部52に表示されるのは、少なくとも、講師アバタである。講師アバタは、
サムネイル表示される。講師アバタの源泉は、後述する講師データベースである。講師リ
スト部52が有するのは、起動機能である。すなわち、講師リスト部52を操作すること
で、後述の学習単元画面が出力される。また、講師リスト部52の操作が許容するのは、
講師属性を表示することである。講師属性を例示すると、出身地、性別、性格等である。
当該属性の源泉は、後述する講師データベースである。
At least the instructor avatar is displayed in the
Thumbnails are displayed. The source of the instructor avatar is the instructor database, which will be described later. What the
It is to display instructor attributes. Examples of instructor attributes include hometown, gender, personality, and the like.
The source of the attributes is the instructor database, which will be described later.
<学習単元画面>
図5で示すのは、学習単元画面の構成である。学習単元画面60を主に構成するのは、
背景部61、学習履歴部62、及び、学習単元部63である。本実施の形態で不問なのは
、これらの画面部品の配置場所である。
<Learning unit screen>
FIG. 5 shows the structure of the learning unit screen. The
A
背景部61に表示されるのは、様々な情報であるが、例示すると、講義名、学習者名や
現日時等である。学習者名及び現日時の源泉は、前述のとおりである。
Various types of information are displayed in the
学習履歴部62に表示されるのは、様々な情報であるが、例示すると、進捗率等である
。学習履歴部62が有するのは、起動機能である。すなわち、学習履歴部62を操作する
ことで、学習履歴の詳細(例えば、項目ごとの進捗など)が出力される。学習履歴の源泉
は、後述する学習者管理データベースである。
Various types of information are displayed in the
学習単元部53に表示されるのは、少なくとも、学習単元名である。学習単元部53で
任意に表示されるのは、講師名である。学習リスト部53が有するのは、起動機能である
。すなわち、学習リスト部53を操作することで、後述の学習画面が出力される。
What is displayed in the learning unit section 53 is at least the name of the learning unit. What is arbitrarily displayed in the learning unit section 53 is the name of the lecturer. What the learning list section 53 has is an activation function. That is, by operating the learning list portion 53, a learning screen, which will be described later, is output.
<学習画面>
図6で示すのは、学習画面の構成である。学習画面70を主に構成するのは、背景部7
1、講師アバタ部72、画像部73である。本実施の形態で不問なのは、これらの画面部
品の配置場所である。学習画面70が出力されるのと並行し或いは同期して、音声80が
出力される。
<Learning screen>
FIG. 6 shows the configuration of the learning screen. The
1, a
背景部71に表示されるのは、様々な情報であるが、例示すると、学習単元名等である
。当該学習単元名の源泉は、学習単元部63の画面要素である。
Various types of information are displayed in the
講師アバタ部72に表示されるのは、少なくとも、講師アバタである。講師アバタの源
泉は、後述する講師データベースである。講師アバタ部72の操作が許容するのは、前述
した講師属性を表示することである。
At least the instructor avatar is displayed in the
画像部73に表示されるのは、少なくとも、画像である。当該画像で示されるのは、各
学習単元の視覚情報である。当該視覚情報を構成するのは、文字列及び図形である。その
ように表示される文字列73aは、いわゆる字幕である。当該画像は、静止画又は動画で
ある。画像部73の一部を操作することで、当該画像が表示され、或いは、その表示が停
止される。
At least an image is displayed on the
音声80で示されるのは、各学習単元の聴覚情報である。音声80の出力に同期してい
るのは、文字列73aの表示である。画像部73の一部を操作することで、音声80が出
力され、或いは、その出力が停止される。
Shown by
<文字列及び音声の関係>
文字列73a及び音声80の一方を表現するのは、共通語であり、かつ、他方を表現す
るのは、特徴語である。当該共通語及び当該特徴語が並列に(同期して)出力される場合
、当該共通語の意味に対応するのは、当該特徴語の意味である。言い換えると、当該特徴
語を翻訳した結果は、当該共通語である。当該特徴語の意味が不明であれば、学習者にて
参照されるのは、当該共通語の意味である。
<Relationship between character string and voice>
One of the
本実施の形態では、文字列73aを表現するのは、当該共通語であり、より具体的には
、国語である。他方、音声80を表現するのは、当該特徴語であり、具体的には、地方語
(例えば、方言。以下、同じ。)である。なぜなら、当該地方語を特徴付ける一つの要素
が音の抑揚だからである。
In this embodiment, the
<講師データベース>
図7で示すのは、講師データベースの構成であり、具体的には、(a)基本データベー
ス、(b)画像データベース、(c)音声データベースである。
<Lecturer database>
FIG. 7 shows the configuration of the lecturer database, specifically, (a) basic database, (b) image database, and (c) speech database.
基本データベースを構成するのは、1以上のレコードである。各レコードが有するのは
、2以上のフィールドである。各フィールドの属性(属性名及び属性値の組)を列挙する
と、講師ID、講師アバタ、画像、音声、設問、及び、その他の付加的属性である。各属
性の値は、文字列又はポインタである。
A basic database consists of one or more records. Each record has two or more fields. Listing the attributes (attribute name and attribute value pairs) of each field is instructor ID, instructor avatar, image, voice, question, and other additional attributes. The value of each attribute is either a string or a pointer.
画像データベースを構成するのは、1以上のレコードである。各レコードが有するのは
、2以上のフィールドである。各フィールドの属性(属性名及び属性値の組)を列挙する
と、画像、及び、単元1から単元Nである。画像の値が示すのは、基本データベースの画
像の値(ポインタ)である。単元1から単元Nの値がそれぞれ示すのは、画像ファイルで
あり、具体的には、静止画ファイル又は動画ファイルである。本実施の形態で不問なのは
、当該画像ファイルの形式である。例えば、当該画像ファイルが採用するのは、非圧縮形
式及び圧縮形式である。
An image database consists of one or more records. Each record has two or more fields. The attributes of each field (a set of attribute name and attribute value) are listed for image and
音声データベースを構成するのは、1以上のレコードである。各レコードが有するのは
、2以上のフィールドである。各フィールドの属性(属性名及び属性値の組)を列挙する
と、音声、及び、単元1から単元Nである。音声の値が示すのは、基本データベースの音
声の値(ポインタ)である。単元1から単元Nの値がそれぞれ示すのは、音声ファイルで
ある。本実施の形態で不問なのは、当該音声ファイルの形式である。当該音声ファイルが
採用するのは、非圧縮形式及び圧縮形式である。
A voice database consists of one or more records. Each record has two or more fields. Attributes of each field (a set of attribute name and attribute value) are listed for voice and
<学習者管理データベース>
図8で示すのは、学習者管理データベースの構成である。学習者管理データベースを構
成するのは、1以上のレコードである。各レコードが有するのは、2以上のフィールドで
ある。各フィールドの属性(属性名及び属性値の組)を列挙すると、学習者ID、パスワ
ード、学習者名、最終画像、最終音声、再生位置、完了フラグ、及び、その他の付加的情
報である。最終画像の値が示すのは、画像データベースの属性値(単元1から単元Nの値
)の何れかである。この属性値で示されるのは、最後に或いは直近に(以下、単に「最後
に」ということもある。)出力された画像である。最終音声の値が示すのは、音声データ
ベースの属性値(単元1から単元Nの値)の何れかである。この属性値で示されるのは、
最後に出力された音声である。再生(出力)位置の値が示すのは、最後に出力された画像
及び音声の位置(フレームのアドレス)である。完了フラグが示すのは、全ての単元が出
力されたか否かである。ここで、当該全ての単元に関連付けられるのは、1つの講師ID
である。完了フラグの値「1」が示すのは、全ての単元が出力されたことである。他方、
完了フラグの値「0」が示すのは、全ての又は一部の単元が出力されていないことである
。
<Learner management database>
FIG. 8 shows the configuration of the learner management database. One or more records constitute the learner management database. Each record has two or more fields. Attributes of each field (attribute name and attribute value pairs) are enumerated as learner ID, password, learner name, final image, final voice, playback position, completion flag, and other additional information. The value of the final image indicates one of the attribute values (
This is the last output sound. The value of the playback (output) position indicates the position (frame address) of the last output image and sound. The completion flag indicates whether or not all units have been output. Here, one lecturer ID is associated with all the units concerned.
is. The completion flag value "1" indicates that all units have been output. on the other hand,
A completion flag value of "0" indicates that all or some of the units have not been output.
<電子学習プログラム>
図9で示すのは、電子学習プログラムの流れである。電子学習プログラムを構成するの
は、主に、講師入力処理(S1)、単元入力処理(S2)、及び、出力処理(S3)であ
る。当該プログラムを主に実行するのは、処理装置20である。端末装置10が処理する
のは、処理装置20からの命令及びデータである。これらの処理を詳説すると、以下のと
おりである。
<Electronic learning program>
Shown in FIG. 9 is the flow of the electronic learning program. The electronic learning program is mainly composed of lecturer input processing (S1), unit input processing (S2), and output processing (S3). The
<講師入力処理(S1)>
講師入力処理の目的は、講師を選択することである。この処理が実行される時期は、電
子学習プログラムの起動時である。具体的には、次のとおりである。
<Lecturer Input Processing (S1)>
The purpose of the Instructor Input process is to select an instructor. The time at which this process is executed is when the electronic learning program is started. Specifically, it is as follows.
講師リスト画面を出力する。図10で示すのは、講師リスト画面の例である。講師リス
ト画面を構成するのは、講義名「ベジタブル研究所」、学習者名「カゴメトマト」、及び
、現日時「2020年1月1日」、並びに、講師リストである(図10(a)を参照。)
。講師リストを構成するのは、講師アバタ「お豆先生」及び「米作先生」である。これら
は、サムネイル表示される。
Output the lecturer list screen. FIG. 10 shows an example of the instructor list screen. The instructor list screen consists of the lecture name "Vegetable Institute", the learner name "Kagome Tomato", the current date and time "January 1, 2020", and the instructor list (Fig. 10 (a) see.)
. The instructor list is made up of the instructor avatars "Mr. Omame" and "Mr. Yonesaku". These are displayed as thumbnails.
講師アバタを選択すると(例えば、シングルタップ)、講師属性を表示する。例えば、
講師アバタ「お豆先生」を選択すると、講師「お豆先生」の属性「北海道出身」を表示す
る(図10(b)を参照。)。講師アバタ「米作先生」を選択すると、講師「米作先生」
の属性「新潟県出身」を表示する。講師アバタを再度選択すると(例えば、ダブルタップ
)、講師入力処理(S1)を終了する。
Selecting the instructor avatar (eg, single tapping) displays instructor attributes. for example,
When the lecturer avatar “Mr. Omame” is selected, the attribute “from Hokkaido” of the lecturer “Mr. Omame” is displayed (see FIG. 10(b)). If you select the lecturer avatar "Yonesaku-sensei", the lecturer "Yonesaku-sensei"
display the attribute "Niigata Prefecture". When the instructor avatar is selected again (for example, by double-tapping), the instructor input processing (S1) ends.
初回起動時において、選択可能な講師アバタに関連付けられているのは、特徴語の音声
である。すなわち、学習の初回において、学習者が必ず聞くのは、特徴語である。このと
き、処理装置20が参照するのは、学習者管理データベースの属性値であり、具体的には
、最終画像又は最終音声の値である。これらの値が存在しなければ(例えば“Null”
)、過去の学習回数は、初回である。第2回以降では、そのような制限は、解除される。
すなわち、選択可能な講師アバタの一つに関連付けられているのは、共通語の音声である
。
Associated with the selectable tutor avatars upon initial activation is the voice of the feature word. In other words, what the learner always hears at the first time of learning is the feature word. At this time, the
), and the number of past learning times is the first time. From the second time onwards, such restrictions are lifted.
That is, associated with one of the selectable tutor avatars is a common language voice.
初回の学習後、選択可能な講師アバタは、更に制限される。初回に選択された講師アバ
タに関連付けられているのは、複数の単元である。当該複数の単元の全てが出力されるま
で、他の講師アバタは選択できない。このとき、処理装置20が参照するのは、学習者管
理データベースの属性値であり、具体的には、完了フラグの値である。完了フラグの値が
「0」であれば、他の講師アバタは、選択されない。例えば、他の講師アバタは、グレー
アウトされる。他方、完了フラグの値が「1」であれば、他の講師アバタは、選択される
。
After the initial learning, the selectable tutor avatars are further restricted. Associated with the initially selected instructor avatar are multiple units. Other instructor avatars cannot be selected until all of the plurality of units are output. At this time, the
<単元入力処理(S2)>
S1で講師アバタが選択されると、学習単元画面を出力する。図11で示すのは、学習
単元画面の例である。学習単元画面を構成するのは、講義名「ベジタブル研究所」、学習
者名「カゴメトマト」、現日時「2020年1月1日」、及び、学習履歴「学習進捗率8
0%」並びに、学習単元リストである。学習単元リストを構成するのは、学習単元名「第
1回お豆は凄い!」、「第2回トマトも凄い!」、「第3回ナスの良い所」、「第4回ピ
ーマン大好き」、及び「確認テスト」である。講師名「お豆先生」も表示される。学習単
元名を選択すると、単元入力処理(S2)を終了する。
<Unit Input Processing (S2)>
When the teacher avatar is selected in S1, a learning unit screen is output. FIG. 11 shows an example of a learning unit screen. The learning unit screen consists of the lecture name “Vegetable Institute”, the learner name “Kagome Tomato”, the current date and time “January 1, 2020”, and the learning history “learning progress rate 8
0%” and a learning unit list. The learning unit list consists of the learning unit names “1st: Beans are amazing!”, “2nd: Tomatoes are also amazing!”, “3rd: Good things about eggplants”, and “4th: I love green peppers.” , and "confirmation test". The name of the lecturer "Omame-sensei" is also displayed. When the learning unit name is selected, the unit input process (S2) ends.
<出力処理(S3)>
S2で学習単元名が選択されると、学習画面を出力する。図12で示すのは、学習画面
の例である。具体的には、以下のとおりである。
<Output processing (S3)>
When a learning unit name is selected in S2, a learning screen is output. FIG. 12 shows an example of the learning screen. Specifically, it is as follows.
図12(a)が示すとおり、講師アバタ「お豆先生」及び学習単元名「第2回トマトも
凄い!」が選択されると、学習画面を構成するのは、講師アバタ「お豆先生」、学習単元
名「第2回トマトも凄い!」、画像「トマトの図柄」、及び、文字列「どこでやるの。こ
こでしょ。」である。この文字列の出力と並列に(同期して)出力されるのは、音声「ど
こでやるのさ。ここでないかい。」である。つまり、文字列を表現するのは、共通語(国
語)「どこでやるの。ここでしょ。」である。他方、音声を表現するのは、特徴語(北海
道弁)「どこでやるのさ。ここでないかい。」である。
As shown in FIG. 12(a), when the lecturer avatar "Mr. Omame" and the learning unit name "2nd Tomatoes are great!" are selected, the learning screen is composed of the lecturer avatar "Mr. Omame". , the name of the learning unit “The second tomato is also amazing!”, the image “Tomato pattern”, and the character string “Where will you do it? Output in parallel (synchronization) with the output of this character string is the voice "Where are you going to do it? Isn't it here?". In other words, the common language (national language) "Where are you doing it? Here is it?" expresses the character string. On the other hand, voice is expressed by a characteristic word (Hokkaido dialect), "Where are you doing it? Isn't it here?"
他方、図12(b)が示すとおり、講師アバタ「米作先生」及び学習単元名「第2回ト
マトも凄い!」が選択されると、学習画面を構成するのは、講師アバタ「米作先生」、学
習単元名「第2回トマトも凄い!」、画像「トマトの図柄」、及び、文字列「どこでやる
の。ここでしょ。」である。この文字列の出力と並列に(同期して)出力されるのは、音
声「どこでやるんらね。ここらてぃ。」である。つまり、文字列を表現するのは、共通語
(国語)「どこでやるの。ここでしょ。」である。他方、音声を表現するのは、特徴語(
新潟弁)「どこでやるんらね。ここらてぃ。」である。
On the other hand, as shown in FIG. 12(b), when the lecturer avatar “Mr. teacher", the name of the learning unit "The second tomato is also amazing!", the image "pattern of tomato", and the character string "Where is it done? Here." What is output in parallel (synchronization) with the output of this character string is the voice "Where are you doing it? Here it is.". In other words, the common language (national language) "Where are you doing it? Here is it?" expresses the character string. On the other hand, speech is represented by feature words (
Niigata dialect) ``Where are you going?
図12(a)及び図12(b)を比較すると、両者の文字列は、共通して、国語「どこ
でやるの。ここでしょ。」である。これに対して、両者の音声は、相違する。一方の音声
は、北海道弁「どこでやるのさ。ここでないかい。」である。他方の音声は、新潟弁「ど
こでやるんらね。ここらてぃ。」である。つまり、両者の文字列が同一であるものの、両
者の音声が異なっている。
Comparing FIGS. 12(a) and 12(b), both character strings are commonly the national language "Where will you do it? Here.". On the other hand, the voices of both are different. One voice is the Hokkaido dialect, "Where are you doing it? Isn't it here?" The other voice is the Niigata dialect, ``Where are you going? In other words, although the character strings of both are the same, the voices of the two are different.
出力処理(S3)が終了するのは、1つの単元の出力が停止された場合、又は、1つの
単元の出力が完了した場合である。
The output process (S3) ends when the output of one unit is stopped or when the output of one unit is completed.
1つの単元の出力が停止された場合、学習者管理データベースに記憶されるのは、最終
画像の値、最終音声の値、及び再生位置の値である。
When the output of one unit is stopped, what is stored in the learner management database is the value of the final image, the value of the final audio, and the value of the playback position.
1つの単元の出力が完了した場合、未出力の単元が残っていなければ(全ての単元の出
力が完了していれば)、講師入力処理(S1)が実行される。この場合、学習者管理デー
タベースに記憶されるのは、完了フラグの値「1」である。つまり、講師リスト画面が可
能にするのは、他の講師アバタの選択である。
When the output of one unit is completed, if there is no unoutputted unit (if the output of all units is completed), the instructor input process (S1) is executed. In this case, the completion flag value "1" is stored in the learner management database. In other words, what the instructor list screen allows is the selection of other instructor avatars.
他方、1つの単元の出力が完了した場合、未出力の単元が残っていれば、単元入力処理
(S2)が実行される。この場合、学習者管理データベースに記憶されるのは、完了フラ
グの値「0」である。
On the other hand, when the output of one unit is completed, if there are any unoutput units remaining, the unit input process (S2) is executed. In this case, the completion flag value "0" is stored in the learner management database.
<変形例>
本実施の形態が排除しないのは、(1)文字列が地方語(方言)であり、かつ、音声が
共通語(日本の国語)であること、(2)講師入力処理(S1)の実行が単元入力処理(
S2)の後であること、及び、(3)特徴語が個別語であることである。これらの場合、
講師データベースの構成も適宜変更される。
<Modification>
This embodiment does not exclude (1) the character string is a local language (dialect) and the voice is a common language (Japanese national language), and (2) execution of the instructor input process (S1) is unit input processing (
and (3) the feature word is an individual word. In these cases,
The configuration of the lecturer database is also changed as appropriate.
<本実施の形態の効果>
以上のとおり、文字列を表現するのは、共通語(日本の国語)であり、かつ、音声を表
現するのは、地方語(北海道弁や新潟弁等。)である。それによって、地方語の一つ(北
海道弁)を出力すると、学習者の興味を惹く。この学習者が聞きたくなるのは、他の地方
語(新潟弁)である。両地方語が出力されても、文字列は、ともに、共通語(日本の国語
)である。この場合、同じ文字列が出力される回数は、2回である。つまり、同一の学習
単元は、反復して学習される。
<Effects of this embodiment>
As described above, the common language (the national language of Japan) expresses character strings, and the local language (Hokkaido dialect, Niigata dialect, etc.) expresses voice. As a result, when one of the local languages (Hokkaido dialect) is output, the learner's interest is attracted. What this learner wants to hear is another local language (Niigata dialect). Even if both local languages are output, the character strings are both common languages (the national language of Japan). In this case, the number of times the same character string is output is two. That is, the same learning unit is repeatedly learned.
学習の初回において、文字列又は音声は、必ず地方語である。言い換えると、学習者が
必ず耳にするのは、地方語である。それによって、学習者の興味は、確度高く、惹つけら
れる。
At the first time of learning, the strings or sounds are always local language. In other words, what learners always hear is the local language. As a result, the learner's interest is highly certain and attracted.
初回の学習後、1つの講師アバタが選択されると、このアバタに関連する全ての単元が
出力されるまで、他の講師アバタは選択できない。それによって、学習者が強いられるの
は、全ての単元を学習することである。つまり、全ての学習単元は、確度高く、学習され
る。
After the first study, once one teacher avatar is selected, no other teacher avatar can be selected until all units related to this avatar are output. It forces the learner to study all the units. That is, all learning units are learned with high accuracy.
本発明が有用な分野は、各種(例えば、企業監査、財務経理、情報管理、環境、品質管理
、健康啓発等)教育事業である。
Fields in which the present invention is useful are various (eg, corporate auditing, financial accounting, information management, environmental, quality control, health awareness, etc.) educational projects.
Claims (8)
入力:入力されるのは、講師であり、その際に表示されるのは、当該講師の候補であり、かつ、
出力:並列に出力されるのは、少なくとも、文字列及び音声であり、かつ、
当該文字列及び音声に関連付けられているのは、入力された講師であり、かつ、
当該文字列を表現するのは、共通語であり、かつ、当該音声を表現するのは、特徴語である。 An electronic learning (other than language) program whereby a computer performs the following processes:
Input: Input is a lecturer, and what is displayed at that time is a candidate for the lecturer, and
Output: At least character strings and voice are output in parallel, and
Associated with the string and voice is the input instructor, and
It is the common word that expresses the character string, and the feature word that expresses the sound.
第2の入力:入力されるのは、学習単元であり、その際に表示されるのは、当該学習単元の候補であり、かつ、
当該文字列及び音声で示されるのは、入力された学習単元の内容である。 The program of claim 1, whereby the computer executes the following processes:
Second input: what is input is a learning unit, and what is displayed at that time is a candidate for the learning unit, and
What is indicated by the character string and voice is the content of the input learning unit.
一の講師に代えて、他の講師が入力される条件は、全ての学習単元の出力が完了することであり、かつ、
当該全ての学習単元に関連付けられているのは、当該一の講師である。 The program of claim 2,
The condition for inputting another instructor instead of one instructor is that the output of all learning units is completed, and
Associated with all such learning units is the one instructor.
当該共通語は、日本の国語であり、かつ、
当該特徴語は、日本の地方語である。 The program according to any one of claims 1 to 3,
The common language is the national language of Japan, and
The characteristic word is a local language of Japan.
入力:入力されるのは、選択された講師アバタであり、その際に表示されるのは、講師アバタの候補であり、かつ、
出力:並列に出力されるのは、少なくとも、文字列及び音声であり、かつ、
当該文字列及び音声に関連付けられているのは、入力された選択結果であり、かつ、
当該文字列を表現するのは、共通語であり、かつ、当該音声を表現するのは、特徴語である。 An electronic learning (other than language) program whereby a computer performs the following processes:
Input: what is input is the selected lecturer avatar, and what is displayed at that time is the candidate lecturer avatar, and
Output: At least character strings and voice are output in parallel, and
Associated with the string and voice is an input selection result, and
It is the common word that expresses the character string, and the feature word that expresses the speech.
第2の入力:入力されるのは、学習単元であり、その際に表示されるのは、当該学習単元の候補であり、かつ、
当該文字列及び音声で示されるのは、入力された学習単元の内容である。 The program of claim 5, whereby the computer executes the following processes:
Second input: what is input is a learning unit, and what is displayed at that time is a candidate for the learning unit, and
What is indicated by the character string and voice is the content of the input learning unit.
一の講師アバタに代えて、他の講師アバタが選択される条件は、全ての学習単元の出力が完了することであり、かつ、
当該学習単元の出力に関連付けられているのは、当該一の講師アバタである。 The program of claim 6,
The condition for selecting another instructor avatar instead of one instructor avatar is that the output of all learning units is completed, and
Associated with the output of the learning unit is the one instructor avatar.
当該共通語は、日本の国語であり、かつ、
当該特徴語は、日本の地方語である。 The program according to any one of claims 5 to 7,
The common language is the national language of Japan, and
The characteristic word is a local language of Japan.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022088820A JP2022130385A (en) | 2020-01-15 | 2022-05-31 | electronic learning program |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020004149A JP7118513B2 (en) | 2020-01-15 | 2020-01-15 | electronic learning program |
JP2022088820A JP2022130385A (en) | 2020-01-15 | 2022-05-31 | electronic learning program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020004149A Division JP7118513B2 (en) | 2020-01-15 | 2020-01-15 | electronic learning program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022130385A true JP2022130385A (en) | 2022-09-06 |
Family
ID=77059995
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020004149A Active JP7118513B2 (en) | 2020-01-15 | 2020-01-15 | electronic learning program |
JP2022088820A Pending JP2022130385A (en) | 2020-01-15 | 2022-05-31 | electronic learning program |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020004149A Active JP7118513B2 (en) | 2020-01-15 | 2020-01-15 | electronic learning program |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP7118513B2 (en) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3364976B2 (en) * | 1993-02-16 | 2003-01-08 | カシオ計算機株式会社 | Chinese learning device |
JPH08287070A (en) * | 1995-04-12 | 1996-11-01 | Fuji Xerox Co Ltd | Language speaking device |
US7149690B2 (en) * | 1999-09-09 | 2006-12-12 | Lucent Technologies Inc. | Method and apparatus for interactive language instruction |
JP2004334111A (en) * | 2003-05-12 | 2004-11-25 | Casio Comput Co Ltd | Language learning system and language learning server |
JP2006078802A (en) * | 2004-09-09 | 2006-03-23 | Nisshinbo Ind Inc | Device and method for supporting learning, and program |
JP2015087649A (en) * | 2013-10-31 | 2015-05-07 | シャープ株式会社 | Utterance control device, method, utterance system, program, and utterance device |
-
2020
- 2020-01-15 JP JP2020004149A patent/JP7118513B2/en active Active
-
2022
- 2022-05-31 JP JP2022088820A patent/JP2022130385A/en active Pending
Also Published As
Publication number | Publication date |
---|---|
JP7118513B2 (en) | 2022-08-16 |
JP2021110890A (en) | 2021-08-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8784108B2 (en) | Computer-based language immersion teaching for young learners | |
US9058751B2 (en) | Language phoneme practice engine | |
JP6218740B2 (en) | Language education system to promote the involvement of leaders | |
US9536438B2 (en) | System and method for customizing reading materials based on reading ability | |
US20150254999A1 (en) | Method and system for providing contextual vocabulary acquisition through association | |
CN112053595B (en) | Computer-implemented training system | |
US10373516B2 (en) | Method for facilitating contextual vocabulary acquisition through association | |
JP2011209730A (en) | Chinese language learning device, chinese language learning method, program, and recording medium | |
KR20190143057A (en) | An online learning system and method capable of parallel learning of Chinese characters and Chinese | |
JP7118513B2 (en) | electronic learning program | |
US20220036759A1 (en) | Augmentative and alternative communication (aac) reading system | |
KR101080092B1 (en) | Method for studying foreign language word and installation using thereof | |
WO2013078144A2 (en) | Computer-based language immersion teaching for young learners | |
US20210134177A1 (en) | System and method for displaying voice-animated multimedia content | |
US20160307453A1 (en) | System and method for auditory capacity development for language processing | |
KR20200018053A (en) | Teaching materials for study of English | |
KR102594629B1 (en) | Apparatus for including speaking scoring artificial intelligence model to evaluate responses of answer to evaluation question | |
TW552549B (en) | Computer-controllable card reading system and method thereof | |
KR20220134248A (en) | Method and device for providing korean language self-directed learning contents | |
JP2020201421A (en) | Language learning device, language learning method, and language learning program | |
KR20220142276A (en) | Device for learning hangeul using images | |
Ozkul | Accent Perfect: American English Pronunciation App | |
KR20130139390A (en) | Language learning system using mobile application | |
TW201640464A (en) | Multi-language learning system with word exchanged and method thereof | |
JP2022120500A (en) | Learning support system, learning support method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20221109 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221219 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230929 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231003 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240311 |