JP2017207571A - Learning apparatus, learning content presentation method, and program - Google Patents

Learning apparatus, learning content presentation method, and program Download PDF

Info

Publication number
JP2017207571A
JP2017207571A JP2016098590A JP2016098590A JP2017207571A JP 2017207571 A JP2017207571 A JP 2017207571A JP 2016098590 A JP2016098590 A JP 2016098590A JP 2016098590 A JP2016098590 A JP 2016098590A JP 2017207571 A JP2017207571 A JP 2017207571A
Authority
JP
Japan
Prior art keywords
content
learning
information
unit
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016098590A
Other languages
Japanese (ja)
Other versions
JP6693266B2 (en
Inventor
由紀 吉濱
Yuki Yoshihama
由紀 吉濱
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2016098590A priority Critical patent/JP6693266B2/en
Publication of JP2017207571A publication Critical patent/JP2017207571A/en
Application granted granted Critical
Publication of JP6693266B2 publication Critical patent/JP6693266B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a learning apparatus, a learning content presentation method and a program capable of presenting an appropriate learning content depending on user's condition.SOLUTION: The learning apparatus includes: information acquisition means that acquires a piece of information relevant to user's behavior state; and content provide means that presents learning contents to a user while changing complexity of the contents based on the information acquired by the information acquisition means.SELECTED DRAWING: Figure 3

Description

この発明は、学習装置、学習コンテンツ提供方法及びプログラムに関する。   The present invention relates to a learning device, a learning content providing method, and a program.

従来、音声出力や表示を用いて解説、例示、設問や解答提示などの学習コンテンツをユーザに提供するプログラムや電子装置(学習装置)がある。特許文献1には、現在の日時やユーザの位置情報を取得し、取得された日時及び位置に即した会話例を出力する会話辞書装置について記載されている。   2. Description of the Related Art Conventionally, there are programs and electronic devices (learning devices) that provide learning content such as explanations, examples, questions, and answer presentations to users using voice output and display. Patent Document 1 describes a conversation dictionary device that acquires current date and time and position information of a user and outputs a conversation example corresponding to the acquired date and position.

特開2002−7394号公報JP 2002-7394 A

しかしながら、ユーザが他の動作を行いながら並行して学習を行う場合、単純に日時や位置だけに応じた内容を配信しても、ユーザの状況によっては提供内容が複雑過ぎたりして効果的な学習にならない場合があるという課題がある。   However, when the user performs learning in parallel while performing other actions, even if the contents corresponding to only the date and time are simply delivered, the provided contents may be too complex depending on the user's situation, and effective. There is a problem that learning may not be possible.

この発明の目的は、ユーザの状況に応じてより適切な学習コンテンツを提供することの出来る学習装置、学習コンテンツ提供方法及びプログラムを提供することにある。   An object of the present invention is to provide a learning apparatus, a learning content providing method, and a program capable of providing more appropriate learning content according to the user's situation.

上記目的を達成するため、本発明は、
ユーザの行動状態に係る情報を取得する情報取得手段と、
当該情報取得手段により取得された情報に基づいて学習コンテンツの内容の複雑さを切り替えて前記ユーザに提供するコンテンツ提供手段と、
を備えることを特徴とする学習装置である。
In order to achieve the above object, the present invention provides:
Information acquisition means for acquiring information relating to the user's behavior state;
Content providing means for switching the complexity of the content of the learning content based on the information acquired by the information acquiring means and providing it to the user;
It is a learning device characterized by comprising.

本発明に従うと、ユーザの状況に応じてより適切な学習コンテンツを提供することが出来るという効果がある。   According to the present invention, there is an effect that more appropriate learning content can be provided according to the user's situation.

スマートフォンの機能構成を示すブロック図である。It is a block diagram which shows the function structure of a smart phone. 本実施形態のスマートフォンにおいて判別取得可能な動作種別、状態種別、及びこれらに応じて学習アプリで選択される学習コンテンツの選択種別を示す図表である。It is a chart which shows the action classification which can be discriminated and acquired in the smart phone of this embodiment, the state classification, and the selection classification of the learning content selected by a learning application according to these. 学習アプリの実行時にスマートフォンで行われる提供コンテンツ選択処理の制御手順を示すフローチャートである。It is a flowchart which shows the control procedure of the provision content selection process performed with a smart phone at the time of execution of a learning application.

以下、本発明の実施の形態を図面に基づいて説明する。
図1は、本発明の学習装置の実施形態であり、また、学習装置として機能させるコンピュータの実施形態であるスマートフォン100の機能構成を示すブロック図である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram illustrating a functional configuration of a smartphone 100 that is an embodiment of a learning device of the present invention and that is an embodiment of a computer that functions as a learning device.

スマートフォン100は、制御部11(コンテンツ提供手段)と、記憶部12と、表示部13と、操作受付部14(入力部)と、音声出力部15と、音声入力部16と、通信部17と、計時部18と、測位モジュール19と、計測部20などを備える。   The smartphone 100 includes a control unit 11 (content providing unit), a storage unit 12, a display unit 13, an operation receiving unit 14 (input unit), a voice output unit 15, a voice input unit 16, and a communication unit 17. The timer unit 18, the positioning module 19, and the measuring unit 20 are provided.

制御部11は、各種処理動作を行ってスマートフォン100の全体動作を統括制御する。制御部11は、CPU111(Central Processing Unit)と、RAM112(Random Access Memory)などを有する。CPU111は、各種処理動作に係る演算などを行う。RAM112は、CPU111に作業用のメモリ空間を提供し、一時データを記憶する。   The control unit 11 performs various processing operations and controls the overall operation of the smartphone 100. The control unit 11 includes a CPU 111 (Central Processing Unit), a RAM 112 (Random Access Memory), and the like. The CPU 111 performs calculations related to various processing operations. The RAM 112 provides a working memory space for the CPU 111 and stores temporary data.

記憶部12は、不揮発性メモリなどを用いた補助記憶部であり、例えば、フラッシュメモリを有する。記憶部12には、各種プログラム(制御プログラムやアプリケーションプログラム)や設定データが記憶される。ここでは、記憶部12に記憶されるアプリケーションプログラム(以下、アプリと記す)には、学習アプリ121及び設定位置情報122が含まれる。また、記憶部12は、着脱可能な可搬型記録媒体(記憶媒体)、例えば、microSDカードなどが増設可能であっても良い。   The storage unit 12 is an auxiliary storage unit using a nonvolatile memory or the like, and includes, for example, a flash memory. The storage unit 12 stores various programs (control program and application program) and setting data. Here, the application program (hereinafter referred to as an application) stored in the storage unit 12 includes a learning application 121 and setting position information 122. Further, the storage unit 12 may be capable of adding a removable portable recording medium (storage medium) such as a microSD card.

表示部13は、制御部11の制御に基づいて各種情報を表示する表示画面を有する。表示画面としては、特には限られないが、薄型軽量なもの、例えば、液晶ディスプレイが用いられる。また、表示部13は、別途LED(Light Emitting Diode)などを有して点灯動作により所定の報知動作を行っても良い。   The display unit 13 has a display screen that displays various information based on the control of the control unit 11. The display screen is not particularly limited, but a thin and light display such as a liquid crystal display is used. The display unit 13 may have a separate LED (Light Emitting Diode) or the like and perform a predetermined notification operation by a lighting operation.

操作受付部14は、ユーザの入力操作を受け付ける。操作受付部14は、例えば、タッチパネルを有し、このタッチパネルが表示画面と重ねて設けられて、当該タッチパネルへの入力位置及び種別(操作内容)が制御部11に出力される。制御部11は、当該操作内容と表示画面への表示内容との対応関係に基づいて、操作に応じた命令を取得する。また、操作受付部14は、別途押しボタンスイッチやスライドスイッチなどを有し、その動作検出により起動動作、再起動動作やその他特定の動作に係る命令を取得しても良い。
また、このスマートフォン100では、操作受付部14は、タッチペン又は指先などを用いたタッチパネルへの文字入力操作(予め設定された記号などを含む)の検出が可能となっている。検出された文字入力操作の内容に基づいて制御部11が文字の判別を行う。判別対象とする文字種別は、適宜追加及び/又は入れ替え設定可能とすることが出来る。
The operation reception unit 14 receives a user input operation. The operation reception unit 14 includes, for example, a touch panel. The touch panel is provided so as to overlap the display screen, and an input position and a type (operation content) to the touch panel are output to the control unit 11. The control unit 11 acquires a command corresponding to the operation based on the correspondence between the operation content and the display content on the display screen. Further, the operation receiving unit 14 may have a separate push button switch, slide switch, and the like, and may acquire a command related to a start operation, a restart operation, and other specific operations by detecting the operation.
Further, in this smartphone 100, the operation receiving unit 14 can detect a character input operation (including a preset symbol) on the touch panel using a touch pen or a fingertip. Based on the content of the detected character input operation, the control unit 11 determines the character. The character types to be discriminated can be added and / or switched as appropriate.

音声出力部15は、外部に音声を出力する。出力される音声としては、接続端子で接続されたイヤホンなどに出力する場合と外部出力用のスピーカに出力する場合とが接続端子への接続有無に応じて切り替え可能であり、或いは、接続端子を介してイヤホンなどにのみ音声出力可能であっても良い。また、電話着信時の音声は、これらとは別個に出力可能となっている。   The audio output unit 15 outputs audio to the outside. The output sound can be switched between output to an earphone connected to the connection terminal and output to an external output speaker depending on whether or not the connection terminal is connected, or the connection terminal The sound may be output only to the earphone. In addition, the voice at the time of incoming call can be output separately from these.

音声入力部16は、ユーザの声などの音声を取得してエンコードし、通信部17を介して外部に送信したり、音声データとして記憶部12に記憶保持させたりする。音声入力部16はマイクロフォン(マイク)を有する。マイクは内蔵のものだけでなく、接続端子を介して外部マイクに接続されても良い。   The voice input unit 16 acquires and encodes a voice such as a user's voice and transmits the voice to the outside via the communication unit 17 or stores the voice data in the storage unit 12 as voice data. The voice input unit 16 has a microphone (microphone). The microphone is not limited to a built-in microphone, and may be connected to an external microphone via a connection terminal.

通信部17は、外部機器との通信に用いられる。通信部17は、例えば、携帯電話の音声通信を携帯基地局と送受信するRF通信部及びそのアンテナ、ブルートゥース(登録商標:Bluetooth)などの近距離無線通信の電波を送受信する近距離通信部及びそのアンテナ、及び近接無線通信(NFC)の電波送受信を行うNFCモジュールなどを有し、各々の通信規格に従って外部機器との間で通信を行う。   The communication unit 17 is used for communication with an external device. The communication unit 17 includes, for example, an RF communication unit that transmits / receives voice communication of a mobile phone to / from a mobile base station and its antenna, a short-range communication unit that transmits / receives radio waves of short-range wireless communication such as Bluetooth (registered trademark: Bluetooth), and the like An antenna and an NFC module that performs near-field communication (NFC) radio wave transmission / reception are included, and communication is performed with an external device in accordance with each communication standard.

計時部18は、内蔵時計を有し、現在の日時を計数する。計時部18としては、RTC(Real Time Clock)と、制御部11の制御に基づいて計数する現在日時の保持部とを有する。RTCは、スマートフォン100の動作と関係なく継続的に動作する。スマートフォン100の動作時には、計時部18は、このRTCから取得された日時を初期値とし、また、通信部17や測位モジュール19の起動後に外部から取得された日時情報に基づいて修正された日時に従って制御部11がより高精度の日時の計数を行う。   The timer unit 18 has a built-in clock and counts the current date and time. The timer unit 18 includes an RTC (Real Time Clock) and a current date and time holding unit that counts based on the control of the control unit 11. The RTC operates continuously regardless of the operation of the smartphone 100. When the smartphone 100 is operating, the time measuring unit 18 uses the date and time acquired from the RTC as an initial value, and according to the date and time corrected based on the date and time information acquired from the outside after the communication unit 17 and the positioning module 19 are activated. The control unit 11 counts the date and time with higher accuracy.

測位モジュール19は、全地球測位システム、例えば、GPS(Global Positioning System)に係る測位衛星からの電波を受信して現在位置や現在日時を算出する測位処理を行う。   The positioning module 19 performs a positioning process of receiving a radio wave from a positioning satellite according to a global positioning system, for example, a GPS (Global Positioning System) and calculating a current position and a current date and time.

計測部20は、スマートフォン100の移動状態や姿勢などを計測する各種センサを有する。各種センサとしては、例えば、加速度センサや地磁気センサが挙げられ、傾斜センサや光量センサなどを備えていても良い。
計時部18、測位モジュール19及び計測部20、並びに制御部11が情報取得手段を構成する。
The measurement unit 20 includes various sensors that measure the movement state and posture of the smartphone 100. Examples of the various sensors include an acceleration sensor and a geomagnetic sensor, and may include an inclination sensor, a light amount sensor, and the like.
The time measuring unit 18, the positioning module 19, the measuring unit 20, and the control unit 11 constitute information acquisition means.

次に、本実施形態のスマートフォン100に記憶された学習アプリ121の実行時の動作について説明する。
学習アプリ121は、主に音声出力を用いた学習コンテンツを提供するものであって、特には限られないが、例えば、英語などの語学学習コンテンツ、即ち、ユーザの母国語とは異なる言語の聞き取り(リスニング)に係る学習(トレーニング)内容が含まれる。語学学習コンテンツとしては、各種学校の入学試験レベルや定期試験レベル、各種検定試験における種々の目標レベルといった学習レベルに応じたものや、ビジネス用途、旅行用途、外国での日常会話用途や、当該言語での映画、ドラマや各種放送の視聴用途など、用途に応じたものなど、様々に設定可能である。学習コンテンツの内容(データ)は、予めスマートフォン100の記憶部12に記憶されても良いし、外部のオンラインストレージなどに記憶させて必要に応じて読み出しても良い。或いは、当該学習アプリ121に係るコンテンツ供給サーバ(データベース)に通信部17を介してアクセスして、随時学習コンテンツデータを取得しても良い。
Next, the operation | movement at the time of execution of the learning application 121 memorize | stored in the smart phone 100 of this embodiment is demonstrated.
The learning application 121 mainly provides learning content using audio output, and is not particularly limited. For example, language learning content such as English, that is, listening to a language different from the user's native language Learning (training) content related to (listening) is included. Language learning content includes various school entrance examination levels, regular examination levels, and various target levels for various examinations, such as business use, travel use, daily conversation in foreign countries, and other languages. Various settings can be made according to the usage such as watching movies, dramas and various broadcasts. The content (data) of the learning content may be stored in advance in the storage unit 12 of the smartphone 100, or may be stored in an external online storage or the like and read as necessary. Or you may access the content supply server (database) which concerns on the said learning application 121 via the communication part 17, and may acquire learning content data at any time.

これら、聞き取りに係る学習は、単語、熟語やフレーズなどの記憶、センテンス(文、節)の理解、会話や説明文などの長文理解及び適切な応答の習得などに分けることが出来る。これらのうち、単語などは、一語(提供内容の要素)あたりの音声出力に要する時間が短く、また、前後関係などを考慮する必要が無いので、ユーザによる長時間の思考を要しない。一方で、会話や長文理解の学習では、学習コンテンツの提供内容の要素である会話や長文の全体を聞く必要があり、また、内容を整理、理解する必要がある。従って、ユーザの思考が長時間割かれることになる。   These learning related to listening can be divided into memory of words, idioms and phrases, understanding of sentences (sentences, clauses), understanding of long sentences such as conversations and explanations, and acquisition of appropriate responses. Among these, for words and the like, the time required for voice output per word (element of the provided contents) is short, and since it is not necessary to consider the context, etc., it does not require long-time thinking by the user. On the other hand, in the learning of conversation and long sentence understanding, it is necessary to listen to the whole conversation and long sentence, which are elements of the provided contents of the learning content, and it is necessary to organize and understand the contents. Therefore, the user's thoughts are spent for a long time.

ユーザが他の動作を行っている状況で当該ユーザに長時間の複雑な思考を要求する学習コンテンツを提供しても、ユーザが適切に学習を行って内容を習得するのは困難であり、むしろユーザの行動状態によってはユーザの他の行動に係る集中力を殺ぐことになって却って効率が低下しやすい。更に、画像を見ながらその説明文などを理解する学習(視覚併用学習コンテンツ)では、聴覚だけでなく視覚を学習に用いるので、ユーザが他の行動と並行して学習を行うのは困難や危険を伴うものとなる。学習アプリ121は、これら学習コンテンツを内容の複雑さの程度、即ち、ユーザが学習に際し必要とする思考の手間や集中力の度合で分類し、ユーザの行動状態に応じて適切な複雑さの内容の学習コンテンツを提供する(学習コンテンツの提供内容の種別を変更するともいえる)ことで、効率良くバランスの取れた学習を可能とさせる。学習コンテンツの内容の複雑さの基準としては、上述のように、提供内容の各要素の音声出力に要する時間(長さ)や、視覚情報の出力有無などが含まれる。   Even if the user is providing other learning content that requires complicated thinking for a long time in a situation where the user is performing other actions, it is difficult for the user to learn appropriately by learning appropriately. Depending on the user's action state, the concentration of the user's other actions is killed, and the efficiency tends to decrease. Furthermore, learning that understands explanations while viewing images (visual learning content) uses not only hearing but also vision for learning, making it difficult and dangerous for users to learn in parallel with other actions. Will be accompanied. The learning application 121 classifies these learning contents according to the degree of complexity of the contents, that is, the degree of thinking and the degree of concentration required by the user for learning, and the contents of the appropriate complexity according to the user's action state By providing the learning content (which can be said to change the type of the content provided for the learning content), it is possible to efficiently and well-balanced learning. As described above, the complexity of the content of the learning content includes the time (length) required for outputting the sound of each element of the provided content, whether visual information is output, and the like.

図2は、本実施形態のスマートフォン100において判別取得可能な動作種別、状態種別、及びこれらの種別に応じて学習アプリ121で選択される学習コンテンツの選択種別を示す図表である。   FIG. 2 is a chart showing operation types and state types that can be discriminated and acquired in the smartphone 100 according to the present embodiment, and learning content selection types selected by the learning application 121 according to these types.

このスマートフォン100では、計測部20の各センサの計測データに基づいて、ユーザの移動に係る行動状態の判別を行う。ここでは、ユーザの静止状態、徒歩での移動状態、走行(ジョギング、ランニングなど)での移動状態、自転車での移動状態、バイクや自動車の運転による移動状態、及びバス(専用道路を走る旅客輸送車両やトロリーバスなどを含む)や鉄道(モノレール、路面電車やケーブルカーなどを含む)による移動状態が判別される。また、バスや鉄道による移動状態では、ユーザが着席したか否かが更に判別される。これらの動作判別は、主に加速度センサの3軸方向についての各変動成分に係る周知の特徴などに基づいて行われる。また、測位モジュール19の測位動作により、ユーザの動作を伴わない移動、即ち、自動車(バス)や鉄道などの移動手段による移動の判別がサポートされても良い。   In this smart phone 100, based on the measurement data of each sensor of the measurement part 20, the action state which concerns on a user's movement is discriminate | determined. Here, the user's stationary state, walking state, traveling state (jogging, running, etc.), traveling state by bicycle, traveling state by driving a motorcycle or car, and bus (passenger transportation on a dedicated road) The movement state by a vehicle (including a vehicle, a trolley bus, etc.) and a railroad (including a monorail, a streetcar, a cable car, etc.) is determined. In addition, it is further determined whether or not the user is seated in a moving state by bus or railroad. These operation determinations are performed mainly based on known features and the like related to the respective fluctuation components in the three-axis directions of the acceleration sensor. In addition, the positioning operation of the positioning module 19 may support determination of movement without user action, that is, movement by a moving means such as an automobile (bus) or a railroad.

また、静止状態は、移動状態が一時的に停止した状態であるのか、又は目的地に到達して停止した状態やそもそも移動をしていない状態であるのかが判別される。これらは、例えば、予めユーザの住居、通学先や通勤先、利用駅などの情報を設定位置情報122として保持しておくことで、測位モジュール19の測位動作により得られる現在位置情報に基づいて判別され得る。また、計時部18から適宜現在時刻情報を取得し、移動状態と静止状態の各継続時間やその配列などにより、継続的な一時停止と、移動状態に近い断続的な一時停止とを判別しても良い。更に、現在時刻が通勤通学などに該当する時刻や曜日か否かなどを考慮しても良い。   In addition, it is determined whether the stationary state is a state in which the moving state is temporarily stopped, a state in which the moving state is stopped after reaching the destination, or a state in which the moving is not performed. These are discriminated based on the current position information obtained by the positioning operation of the positioning module 19 by, for example, storing information such as the user's residence, school destination, commuting destination, and use station in advance as the set position information 122. Can be done. Moreover, current time information is acquired from the time measuring unit 18 as appropriate, and a continuous pause and an intermittent pause close to the moving state are discriminated based on the duration and arrangement of the moving state and the stationary state. Also good. Furthermore, it may be considered whether the current time is a time corresponding to commuting to school or the day of the week.

学習アプリ121では、これら取得され得る行動状態に対応してそれぞれ選択される学習コンテンツが設定されている。ここでは、ジョギングやランニングなど走って移動中には単語学習コンテンツが選択され、歩行中ではセンテンス学習コンテンツが提供され、バスや鉄道の立ち乗り状態では文章又は会話の学習コンテンツが提供される。即ち、これら立って移動中の行動状態では、音声出力のみを用いる学習コンテンツを提供する。一方、バスや鉄道の着席時(移動手段に座って乗っている状態)や最初から移動がない状態では、視覚併用学習コンテンツ(視覚情報を利用する学習コンテンツ)が提供される。また、自転車、バイクや自動車などの運転動作時には、学習コンテンツの提供が停止され、一切コンテンツの提供を行わない。また、移動状態が一時中断された場合には、中断前に提供されていた学習コンテンツが継続的に提供されるとともに、移動状態が終了した場合には、学習コンテンツの提供が終了される。   In the learning application 121, learning contents to be selected corresponding to the action states that can be acquired are set. Here, word learning content is selected during running such as jogging or running, sentence learning content is provided while walking, and text or conversation learning content is provided when standing on a bus or railway. In other words, learning content that uses only audio output is provided in these standing and moving action states. On the other hand, when sitting on a bus or railroad (when sitting on a moving means) or when there is no movement from the beginning, visual combined learning content (learning content using visual information) is provided. Also, during driving operations of bicycles, motorcycles, cars, etc., the provision of learning content is stopped and no content is provided. Further, when the moving state is temporarily interrupted, the learning content provided before the interruption is continuously provided, and when the moving state ends, the provision of the learning content is ended.

単語学習コンテンツでは、例えば、ユーザの学習対象の言語における単語、熟語やフレーズ(まとめて単語などと記す)を所定の時間間隔で順番に音声出力部15により音声出力させていく。各単語などは、複数回(2回)それぞれ繰り返されて出力されても良い。また、類語、反対語や関連する単語などを複数続けて配列して順番に音声出力させても良い。   In the word learning content, for example, words, idioms, and phrases (collectively referred to as words or the like) in a user's learning target language are sequentially output by the audio output unit 15 at predetermined time intervals. Each word or the like may be repeatedly output a plurality of times (twice). Alternatively, a plurality of synonyms, antonyms, and related words may be arranged in succession and output in sound.

センテンス学習コンテンツでは、例えば、音声出力部15によりユーザの学習対象の言語による一文(1センテンス)を音声出力した後、当該一文に対する応答文を音声出力させる。一文は、疑問文には限られないが、他者がその一文の発言に対して反応することが出来る内容のものである。この応答文は、1つである必要はなく、複数パターンが続けて音声出力されて良い。また、この複数パターンのうち一部が不適切な応答文であって、ユーザに適切な応答文と不適切な応答文とを判別させる形式の学習コンテンツであっても良い。この場合、複数パターンの応答文が音声出力された後、更に、適切な(又は不適切な)応答文が何れであるかを示す正解情報を音声出力部15により音声出力させることが出来る。正解情報としては、単純に適切な応答文又は不適切な応答文を示すだけであっても良いし、解説などが付加されていても良い。   In the sentence learning content, for example, the voice output unit 15 outputs a sentence (one sentence) in the language to be learned by the user as a voice, and then outputs a response sentence for the sentence as a voice. A sentence is not limited to a question sentence, but is a content that allows others to react to the statement. This response sentence does not have to be one, and a plurality of patterns may be output in a voice. Moreover, some of the multiple patterns may be inappropriate response sentences, and learning content may be in a format that allows the user to distinguish between an appropriate response sentence and an inappropriate response sentence. In this case, after a plurality of patterns of response sentences are output as voices, the voice output unit 15 can further output the correct answer information indicating which is an appropriate (or inappropriate) response sentence. The correct answer information may simply indicate an appropriate response sentence or an inappropriate response sentence, or an explanation may be added.

文章又は会話の学習コンテンツでは、例えば、音声出力部15により複数センテンスからなる文章のナレーションや会話が音声出力される。ユーザは、これら音声出力された文章や会話を聞き取って理解するトレーニングを行う。この学習コンテンツでは、ナレーションや会話の音声出力の後に、これらの内容に係る問題を音声出力させても良い。また、音声出力された問題の回答文を更に音声出力させても良い。また、複数の回答文を選択肢しとして音声出力させ、ユーザに正解を選択させる形式の学習コンテンツであっても良い。複数の回答文中の正解の数は、一つに限られなくても良い。この場合には、複数の回答文が音声出力された後、更に、何れが適切な回答文であるかを示す正解情報を更に音声出力させても良い。   In the learning content of a sentence or conversation, for example, a voice narration or conversation composed of a plurality of sentences is output as voice by the voice output unit 15. The user performs training for listening to and understanding these sentences and conversations that are output as speech. In this learning content, after the voice output of the narration or conversation, the problem related to these contents may be output as a voice. In addition, the answer sentence of the problem that is output by voice may be further output by voice. Moreover, the learning content may be a format in which a plurality of answer sentences are selected as voices and the correct answer is selected by the user. The number of correct answers in a plurality of answer sentences need not be limited to one. In this case, after a plurality of answer sentences are output by voice, correct answer information indicating which is an appropriate answer sentence may be further output by voice.

視覚併用学習コンテンツでは、例えば、表示部13に画像(動画を含む)などの表示を行わせて、音声出力部15から当該表示内容についての説明文や、画像に対応する(動画中のものを含む)会話など、表示の内容に係る一又は複数のセンテンスを音声出力させたり、一部に空白を設けたセンテンスや文章を表示させて、当該センテンスや文章の音声出力を音声出力部15により行わせたりする。また、このような説明文や会話などを複数パターン(複数種類)順番に音声出力させ、何れのパターンの音声出力が表示させている内容として適切なものであるか(不適切なものであるか)を判別させても良い。適切なものの数は、一つ(一種類)には限られない。この場合、複数パターンの音声出力の後に、更に、何れが適切なもの(及び/又は不適切なもの)であるかを示す正解情報を音声出力させ、及び/又は表示部13に表示させることが出来る。   In the visual combined learning content, for example, the display unit 13 displays an image (including a moving image) and the like, and the audio output unit 15 responds to an explanatory text about the display content or the image (the one in the moving image). One or more sentences related to the contents of the display, such as conversation, or the like, or a sentence or sentence with a space in part is displayed, and the voice output unit 15 performs voice output of the sentence or sentence. I will let you. Also, such explanations and conversations are output as voices in the order of multiple patterns (multiple types), and which pattern of voice output is appropriate as the displayed content (whether it is inappropriate) ) May be discriminated. The appropriate number is not limited to one (one type). In this case, after a plurality of patterns of voice output, correct information indicating which is appropriate (and / or inappropriate) is further output as voice and / or displayed on the display unit 13. I can do it.

また、これらの表示の有無に拘わらず、ユーザにタッチペンや指先などを用いて、音声出力されたセンテンスの書き取りを行わせる書き取り学習コンテンツ(音声出力内容の書き取りに係る学習コンテンツ)、即ち、ディクテーション学習のコンテンツが提供されても良い。ユーザによる書き取り動作は、表示画面(即ちタッチパネル)上に直接自由に学習対象の言語における文字を書き込む動作の他、表示画面にバーチャルキーボードを表示させて当該バーチャルキーボードを介しての入力動作であっても良い。この書き取り学習コンテンツでは、ユーザにより入力された語句、フレーズやセンテンスの正誤に係る正答情報(音声出力された内容との比較結果に係る情報)などを表示部13に表示させることが出来る。これらの正答情報の表示は、一字が入力されるごとにリアルタイムで行われても良いし、まとまった語句やセンテンスなどが入力された後に一括で行われても良い。或いは、リアルタイム表示と一括表示とがユーザの操作設定などにより切替可能であっても良い。この場合、制御部11は、ユーザが入力操作を行うのに要する時間間隔を空けて各センテンスの音声出力を行わせる。或いは、ユーザから正確な書き取りが入力されるまで、制御部11は、次のセンテンスの音声出力を行わせないで待機することとしても良い。   In addition, regardless of the presence or absence of these displays, writing learning content (learning content related to writing of voice output contents) that allows the user to write a sentence that has been output using a touch pen or fingertip, that is, dictation learning May be provided. The writing operation by the user is an operation of writing a character in the language to be learned directly and freely on the display screen (ie, touch panel), or an input operation through the virtual keyboard by displaying a virtual keyboard on the display screen. Also good. In this writing learning content, correct answer information related to correctness of words, phrases, and sentences input by the user (information related to a result of comparison with the content output by voice) can be displayed on the display unit 13. The display of correct answer information may be performed in real time every time a character is input, or may be performed in a lump after inputting a group of words or sentences. Alternatively, the real-time display and the collective display may be switched according to user operation settings or the like. In this case, the control unit 11 outputs the voice of each sentence with a time interval required for the user to perform an input operation. Alternatively, the control unit 11 may stand by without outputting the voice of the next sentence until an accurate writing is input from the user.

また、センテンス学習コンテンツ、文章会話理解に係る学習コンテンツや視覚併用学習コンテンツでは、設問形式の音声出力を行うことが出来る。例えば、先に音声出力させるセンテンス、説明文や会話、或いは、表示させる画像や動画について、適切な応答文や説明文を含む複数の文を続けて音声出力させ、ユーザに適切な応答文や説明文を選択させることが出来る。この場合、音声出力や表示出力において、更に適切な応答文や説明文を示す正答情報を更に続けて出力させることとしても良い。   Moreover, in the sentence learning content, the learning content related to the understanding of the sentence conversation, and the visual combined learning content, it is possible to perform voice output in a question format. For example, for sentences, explanations and conversations to be output first, or for images and videos to be displayed, a plurality of sentences including appropriate response sentences and explanations are output in succession, and appropriate response sentences and explanations are given to the user. You can select a sentence. In this case, the correct answer information indicating a more appropriate response sentence or explanatory sentence may be further output in voice output or display output.

図3は、学習アプリ121の実行時にスマートフォン100で行われる提供コンテンツ選択処理の制御部11による制御手順を示すフローチャートである。   FIG. 3 is a flowchart illustrating a control procedure by the control unit 11 of the provided content selection process performed by the smartphone 100 when the learning application 121 is executed.

この提供コンテンツ選択処理は、学習アプリ121が起動された場合、或いは、実行されている学習アプリ121において特定の動作モード、ここでは、ユーザの行動状態に応じて提供コンテンツを切り替える動作モードに切り替えられた場合に開始される。   This provided content selection process is switched to a specific operation mode when the learning application 121 is activated or an operation mode in which the provided content is switched according to the user's action state in the learning application 121 being executed. Will be started.

提供コンテンツ選択処理が開始されると、制御部11(CPU111)は、初期設定動作を行う(ステップS101)。次いで、制御部11は、提供コンテンツ選択処理の終了操作が入力されたか否かを判別する(ステップS102)。入力されたと判別された場合には(ステップS102で“YES”)、制御部11は、学習コンテンツの提供に係る動作を終了し(ステップS120)、提供コンテンツ選択処理を終了する。   When the provided content selection process is started, the control unit 11 (CPU 111) performs an initial setting operation (step S101). Next, the control unit 11 determines whether or not an operation for ending the provided content selection process has been input (step S102). If it is determined that it has been input (“YES” in step S102), the control unit 11 ends the operation related to the provision of learning content (step S120), and ends the provided content selection process.

終了操作が入力されていないと判別された場合には(ステップS102で“NO”)、制御部11は、計測部20から必要な各種センサの計測値を取得する(ステップS103)。制御部11は、これら取得された計測値に基づいてユーザの動作種別を判別する(ステップS104)。   When it is determined that the end operation has not been input (“NO” in step S102), the control unit 11 acquires necessary measurement values of various sensors from the measurement unit 20 (step S103). The control part 11 discriminate | determines a user's operation | movement classification based on these acquired measured values (step S104).

また、制御部11は、計時部18及び測位モジュール19から現在位置及び日時情報を取得する(ステップS105)。制御部11は、判別された動作種別について、当該動作種別と取得された現在位置及び日時情報とに基づいて行動状態の判別を行う(ステップS106)。ステップS103〜S106の処理が情報取得ステップ(情報取得手段)に対応する。   In addition, the control unit 11 acquires the current position and date / time information from the time measuring unit 18 and the positioning module 19 (step S105). The control unit 11 determines the action state of the determined action type based on the action type and the acquired current position and date / time information (step S106). The processing in steps S103 to S106 corresponds to an information acquisition step (information acquisition means).

制御部11は、既に本提供コンテンツ選択処理において、既に学習コンテンツの提供が開始されているか否かを判別する(ステップS107)。未だ学習コンテンツの提供が開始されていないと判別された場合には(ステップS107で“NO”)、制御部11の処理は、ステップS111に移行する。   The control unit 11 determines whether or not learning content provision has already been started in the provision content selection process (step S107). If it is determined that the provision of learning content has not yet started (“NO” in step S107), the processing of the control unit 11 proceeds to step S111.

学習コンテンツの提供が既に開始されていると判別された場合には(ステップS107で“YES”)、制御部11は、取得された行動状態が移動終了による静止状態であるか否かを判別する(ステップS108)。移動終了による静止状態であると判別された場合には(ステップS108で“YES”)、制御部11の処理は、ステップS120に移行する。   When it is determined that provision of learning content has already been started (“YES” in step S107), the control unit 11 determines whether or not the acquired action state is a stationary state due to the end of movement. (Step S108). If it is determined that the movement is in a stationary state (“YES” in step S108), the processing of the control unit 11 proceeds to step S120.

移動終了による静止状態ではないと判別された場合には(ステップS108で“NO”)、制御部11は、取得された行動状態が前回と同一であるか否かを判別する(ステップS109)。前回と同一であると判別された場合には(ステップS109で“YES”)、制御部11は、提供中の学習コンテンツの提供を続け、処理をステップS102に戻す。   When it is determined that the moving state is not a stationary state ("NO" in step S108), the control unit 11 determines whether or not the acquired action state is the same as the previous time (step S109). If it is determined that it is the same as the previous time (“YES” in step S109), the control unit 11 continues to provide the learning content being provided and returns the process to step S102.

前回と同一の行動状態ではない、即ち、前回と異なる行動状態が取得されたと判別された場合には(ステップS109で“NO”)、制御部11は、前回と今回の行動状態が一時停止による静止状態と何れかの移動状態との切り替わりであるか否かを判別する(ステップS110)。一時停止状態による静止状態と何れかの移動状態との切り替わりであると判別された場合には(ステップS110で“YES”)、制御部11は、提供中の学習コンテンツの提供を続け、処理をステップS102に戻す。   If it is determined that the behavior state is not the same as the previous time, that is, it is determined that a behavior state different from the previous time has been acquired (“NO” in step S109), the control unit 11 causes the previous and current behavior states to be temporarily stopped. It is determined whether or not the switching is between a stationary state and any moving state (step S110). When it is determined that the switching is between the stationary state due to the paused state and any of the moving states (“YES” in step S110), the control unit 11 continues to provide the learning content being provided and performs the process. Return to step S102.

一時停止による静止状態と何れかの移動状態との切り替わりではないと判別された場合には(ステップS110で“NO”)、制御部11は、今回取得された行動状態に応じた学習コンテンツの提供を開始する(ステップS111;コンテンツ提供ステップ(コンテンツ提供手段))。それから、制御部11の処理は、ステップS102に戻る。   When it is determined that the switching between the stationary state due to the pause and any moving state is not made (“NO” in step S110), the control unit 11 provides the learning content according to the action state acquired this time Is started (step S111; content providing step (content providing means)). Then, the process of the control unit 11 returns to step S102.

以上のように、本実施形態のスマートフォン100は、ユーザの行動状態に係る情報を取得する情報取得手段としての計時部18、測位モジュール19及び計測部20と、当該情報取得手段により取得された情報に基づいて学習コンテンツの内容の複雑さを切り替えて前記ユーザに提供する制御部11と、を備える。
これにより、ユーザが他の行動と並行して学習を行う場合でも、当該行動を阻害せずに習得可能な複雑さの学習コンテンツを当該ユーザに提供することが出来るので、ユーザの状況に応じてより適切な学習コンテンツを提供し、効率良くユーザに学習対象を習得させることが出来る。
As described above, the smartphone 100 according to the present embodiment includes the time measurement unit 18, the positioning module 19, and the measurement unit 20 as the information acquisition unit that acquires information related to the user's behavior state, and the information acquired by the information acquisition unit. And a control unit 11 that switches the complexity of the content of the learning content and provides the learning content to the user.
Thereby, even when a user performs learning in parallel with other behaviors, it is possible to provide the user with learning content having a complexity that can be learned without hindering the behaviors. More appropriate learning content can be provided, and the user can learn the learning target efficiently.

また、制御部11は、情報取得手段により取得された情報に基づいて、提供内容の各要素、即ち、単語、フレーズ、センテンス、長文や会話など、の音声出力の長さと、視覚情報の出力有無とのうち少なくとも一方を制御することにより学習コンテンツの内容の複雑さを切り替える。このようにシンプル且つ適切に提供する学習コンテンツが切り替えられることで、ユーザを混乱せずにスムーズ且つバランス良く各分野の学習コンテンツを提供することが出来る。   Further, the control unit 11 determines the length of audio output of each element of the provided contents, that is, words, phrases, sentences, long sentences, conversations, and the like based on the information acquired by the information acquisition unit, and whether visual information is output. The complexity of the content of the learning content is switched by controlling at least one of. By switching learning contents to be provided simply and appropriately in this way, it is possible to provide learning contents in each field smoothly and in a balanced manner without confusing the user.

また、制御部11は、計時部18が計数する現在時刻情報及び測位モジュール19などから同定される現在位置情報のうち少なくとも一方を取得し、当該少なくとも一方と行動状態に係る情報との組み合わせに応じて前記学習コンテンツの内容の複雑さを切り替える。即ち、予め設定された自宅や勤務、通学先などに到着した場合と、移動途中で信号や駅停車などにより一時した場合などを的確に分類し、より適切に学習コンテンツ提供を継続させたり終了させたり、或いは変更させたりすることが出来る。   Further, the control unit 11 acquires at least one of the current time information counted by the time measuring unit 18 and the current position information identified from the positioning module 19 and the like, and according to a combination of the at least one and information related to the action state. The complexity of the learning content is switched. In other words, it accurately classifies when it arrives at a pre-set home, work, destination, etc., or when it temporarily stops due to a traffic light or a station stop during travel, etc., and continues or ends the provision of learning content more appropriately Or can be changed.

また、音声出力部15を備え、制御部11は、情報取得手段によりユーザが立って移動中であるとの情報が取得された場合に、音声出力部15による音声出力のみを用いる学習コンテンツを提供する。即ち、移動中のユーザに余所見させて危険を生じさせたり周囲に迷惑をかけたりするのを防止し、また、満員混雑の列車などで無理して画面を見る必要を生じさせたりせず、適切に状況にあった学習コンテンツを提供することが出来る。   In addition, the audio output unit 15 is provided, and the control unit 11 provides learning content that uses only the audio output by the audio output unit 15 when the information acquisition unit acquires information that the user is standing and moving. To do. In other words, it prevents the moving user from looking around and causing danger or inconvenience to the surroundings, and does not cause the necessity to see the screen forcibly in a crowded train etc. Can provide learning content that suits the situation.

また、学習コンテンツは、語学学習コンテンツである。従って、特にリスニングのトレーニングなどにおいて、効率良く学習内容を習得しやすいように提供するコンテンツを切り替えることが出来る。   The learning content is language learning content. Therefore, the content to be provided can be switched so that the learning content can be easily learned efficiently, particularly in listening training or the like.

また、制御部11は、情報取得手段によりユーザが走って移動中であるとの情報が取得された場合に、単語学習コンテンツを提供する。即ち、単語や熟語など、一語、一フレーズなどの要素当たりの長さが短く、また、各要素が独立していて、ユーザが前後関係などを考慮する必要が無く、状況によって多少飛ばしても問題にならないような内容の出力を行うことで、ユーザのジョギング、ランニングなどに係る注意を必要以上に散らさず、危険などを避けながら効率良く学習させることが出来る。   Moreover, the control part 11 provides a word learning content, when the information that a user is running and moving is acquired by the information acquisition means. In other words, the length per element such as a word or idiom is short, each element is independent, the user does not need to consider the context, etc. By outputting contents that do not cause a problem, it is possible to efficiently learn while avoiding danger and the like without displacing the user's attention related to jogging and running more than necessary.

また、制御部11は、音声出力部15によりユーザの学習対象の言語における単語、熟語やフレーズを音声出力させる。走っている場合などは、手を空けておくのが好ましく、このように、音声配信のみで上述のように短く独立した内容を出力することで、ユーザの安全を脅かさずに適切に学習コンテンツを提供することが出来る。   In addition, the control unit 11 causes the voice output unit 15 to output the words, idioms, and phrases in the user's learning target language. When you are running, it is preferable to keep your hands open.In this way, by outputting short and independent contents as described above only by voice delivery, you can appropriately learn content without threatening the safety of the user. Can be provided.

また、制御部11は、情報取得手段によりユーザが歩行中であるとの情報が取得された場合に、センテンス学習コンテンツを提供する。歩行中の場合には、走行中ほど移動速度も速くなく、体力的な影響も少ないので、単語学習よりはもう少し複雑な内容であってもユーザが理解する余裕があり、一文程度の出力が好ましく行われる。   Moreover, the control part 11 provides a sentence learning content, when the information that a user is walking is acquired by the information acquisition means. When walking, the speed of movement is not as fast as running, and there is less physical impact, so there is room for the user to understand even more complicated content than word learning, and output of about one sentence is preferable Done.

また、制御部11は、音声出力部15によりユーザの学習対象の言語による一文を音声出力した後、一文に対する応答文を音声出力させる。このように、シンプルな内容理解確認や受け答えの表現を併せて出力させることで、短時間で効率の良い実用語学の学習コンテンツを提供することが出来る。   Further, the control unit 11 causes the voice output unit 15 to output a sentence in the language that the user is learning, and then outputs a response sentence to the sentence. In this way, efficient simple vocabulary learning content can be provided in a short time by outputting simple content understanding confirmation and answering expressions.

また、応答文は複数であり、当該応答文のうちの少なくとも一つが適切な応答文であり、その他の応答文が不適切なものであることとして、ユーザに何れが適切な応答文であるかを判断させることで、ユーザに短時間で正確な内容理解や受け答えに慣れさせ、習得させ、また習得状況を確認させることが出来る。   In addition, there are a plurality of response sentences, and at least one of the response sentences is an appropriate response sentence, and other response sentences are inappropriate. This makes it possible to allow the user to get used to and understand the accurate content understanding and answering in a short time, and to confirm the acquisition status.

また、制御部11は、音声出力部15により複数の応答文の後に適切な応答文に係る正解情報を音声出力させることで、ユーザが正しく一文や応答文を理解しているか否かを容易に当該ユーザ自身に確認させることが出来る。   In addition, the control unit 11 allows the voice output unit 15 to output the correct answer information related to an appropriate response sentence after a plurality of response sentences, thereby easily determining whether the user correctly understands one sentence or the response sentence. This user can be confirmed by himself / herself.

また、制御部11は、情報取得手段によりユーザが列車やバスなどの移動手段に立って乗っている状態であるとの情報が取得された場合に、複数センテンスからなる文章又は会話の学習コンテンツを提供する。このように、自力で移動する必要ない移動状態であり、且つ、必ずしも両手を自由にすることができないような場合には、比較的学習に思考を集中させることが出来るので、上述の単語学習やセンテンス学習などよりも長い文章や会話などの聞き取り理解に係る学習に時間をかけて取り組ませることで、移動に係る所要時間を有効に利用した学習をユーザに行わせることが出来る。   In addition, when the information that the user is standing on a moving means such as a train or a bus is acquired by the information acquiring means, the control unit 11 can acquire learning contents of sentences or conversations composed of a plurality of sentences. provide. In this way, when it is in a moving state that does not need to be moved by itself and it is not always possible to free both hands, it is possible to concentrate thought relatively on learning. By spending time on learning related to listening comprehension of sentences and conversations longer than sentence learning, it is possible to allow the user to perform learning that effectively uses the time required for movement.

また、制御部11は、音声出力部15によりユーザの学習対象の言語による複数センテンスのナレーション及び会話の何れかを音声出力した後、当該複数センテンスの内容に係る問題を音声出力させる。このように、理解力を問う問題を出力することで、漫然とナレーションや会話を聞き流さずに集中してユーザに聞き取りを行わせ、内容を理解させて学習効率を向上させることが出来る。   In addition, the control unit 11 causes the voice output unit 15 to output a voice of any narration or conversation of a plurality of sentences in the language to be learned by the user, and then causes the problem relating to the contents of the plurality of sentences to be output as a voice. In this way, by outputting a question asking for comprehension ability, it is possible to concentrate on listening without listening to narration or conversation, and to improve the learning efficiency by understanding the contents.

また、制御部11は、問題の音声出力後に当該問題に対する回答文を音声出力させる。これにより、ユーザが複数センテンス及び問題の内容を理解して適切な回答に想到していたか否かを容易に判断して学習の達成度を知得することが出来る。   In addition, the control unit 11 outputs an answer sentence for the question in voice after outputting the voice in question. Thus, it is possible to easily determine whether or not the user has understood a plurality of sentences and the content of the problem and arrived at an appropriate answer, thereby obtaining the learning achievement level.

また、回答文は複数であり、当該回答文のうち少なくとも一つが正解であるとすることで、ユーザ自身が回答文を組み立てて作成しなくても、ユーザが音声出力内容を適切に理解しているか否かを判断することが出来る。   In addition, there are a plurality of answer sentences, and by assuming that at least one of the answer sentences is correct, the user can properly understand the contents of the voice output even if the user does not assemble and prepare the answer sentence. It can be determined whether or not.

また、制御部11は、音声出力部15により複数の回答文を音声出力した後に当該複数の回答文の正解情報を音声出力させる。従って、ユーザは、音声出力内容を正確に理解しているか否かを確実に判断し、また、勘違いの発生点などを知得してより効率良く学習を進めることが出来る。   Further, the control unit 11 outputs a plurality of answer sentences as voices by the voice output unit 15 and then outputs the correct answer information of the plurality of answer sentences as voices. Therefore, the user can surely determine whether or not the voice output content is accurately understood, and can learn more efficiently by knowing the point of misunderstanding.

また、表示部13を備え、制御部11は、情報取得手段によりユーザが列車やバスなどの移動手段に座って乗っている状態であるとの情報が取得された場合に、表示部13により表示を行わせて視覚情報を利用する学習コンテンツを提供する。
このように、移動中であって、且つユーザが揺れ、加減速や周囲の他の乗客との接触トラブルなどをあまり気にせず手を利用することが出来る状況であれば、音声出力に限らず表示出力を同時に行わせてユーザに視聴させ、より効果的に学習を進めさせることが出来る。また、リスニングに限らず、リーディングなどのトレーニングも行うことが出来るので、よりバランス良く学習を進めさせることが出来る。
In addition, the display unit 13 is provided, and the control unit 11 displays the information on the display unit 13 when the information acquisition unit acquires information that the user is sitting on a moving unit such as a train or a bus. To provide learning content that uses visual information.
In this way, if it is a situation where the user is moving and the user shakes and can use his / her hand without worrying too much about acceleration / deceleration or contact troubles with other passengers in the surroundings, it is not limited to audio output. The display output can be performed at the same time to allow the user to view and learn more effectively. Moreover, not only listening but also training such as reading can be performed, so that learning can be advanced in a more balanced manner.

また、制御部11は、情報取得手段によりユーザが移動手段に座って乗っている状態であるとの情報が取得された場合に提供する視覚情報を利用する学習コンテンツでは、表示部13による表示の内容に係る一又は複数のセンテンスを音声出力部15により音声出力させる。このように、視覚情報を併用してナレーションや会話などを聞き取ることで、より学習に集中して効率良く学習を行わせることが出来る。また表示出力を用いることで、音声出力内容をより実際のシチュエーションに即して幅広く設定ことが出来る。   In addition, the control unit 11 displays the display by the display unit 13 in the learning content that uses the visual information provided when the information acquisition unit acquires information that the user is sitting on the moving unit. One or a plurality of sentences related to the contents are output as audio by the audio output unit 15. In this way, listening to narration, conversation, and the like using visual information together makes it possible to concentrate on learning and perform learning efficiently. Further, by using the display output, the audio output content can be set widely according to the actual situation.

また、音声出力させる一又は複数のセンテンスは複数種類あり、当該複数種類のうち少なくとも一種類は表示部13により表示させている内容として適切なものであり、その他のものは、表示部13により表示させている内容として不適切なものである。このような複数種類の音声出力が適切か否かをユーザが判断することで、当該ユーザは、自身が音声出力の内容を的確に理解しているか否かを判断することが出来る。   Also, there are a plurality of types of one or more sentences to be output, and at least one of the plurality of types is appropriate as the content displayed on the display unit 13, and the others are displayed on the display unit 13. The content is inappropriate By determining whether or not such multiple types of audio output are appropriate, the user can determine whether or not he / she accurately understands the content of the audio output.

また、制御部11は、一又は複数のセンテンスを音声出力させた後に、表示部13及び音声出力部15のうち少なくとも一方により適切なものに係る正解情報を出力させるので、これら音声出力された内容を的確に理解したか否かを答え合わせすることで勘違いなどを防止し、また、どのような部分で理解が不十分であるかを知得してより効率的に学習を進めることが出来る。   Moreover, since the control part 11 outputs the correct information which concerns on an appropriate thing by at least one of the display part 13 and the audio | voice output part 15, after outputting one or several sentences as audio | voices, these audio | voice output contents It is possible to prevent misunderstandings by answering whether or not the user understands correctly, and to learn more efficiently by learning what part is insufficiently understood.

また、制御部11は、情報取得手段によりユーザが列車やバスなどの移動手段に座って乗っている状態であるとの情報が取得された場合に、音声出力部15による音声出力内容の書き取りに係る学習コンテンツを提供する。このように、手や視覚を用いるのに問題がない移動中には、上述の表示を用いた学習コンテンツだけでなく、又は表示を用いた学習コンテンツに代えて、ディクテーションを行うことで音声出力内容全体を確実に聞き取るトレーニングを行い、より積極的にユーザに学習内容を定着させることが出来る。   In addition, when the information acquisition unit acquires information that the user is sitting on a moving unit such as a train or a bus, the control unit 11 writes the audio output content by the audio output unit 15. Provide such learning content. In this way, during movement without problems using hands or vision, not only the learning content using the above-described display, but also by using dictation instead of the learning content using the display, the audio output content Training to listen to the whole surely can be performed, and the learning content can be fixed to the user more actively.

また、操作受付部14を備え、制御部11は、音声出力部15にユーザの学習対象の言語による音声出力を行わせるとともに、操作受付部14により学習対象の言語による入力を受け付ける。これにより、ユーザに単一の学習装置(スマートフォン10)上での入力操作を可能とし、また、当該入力操作を考慮しながら音声出力のタイミングを設定して、ユーザにとって適切なペースでディクテーション学習を行わせることが出来る。   In addition, the operation receiving unit 14 is provided, and the control unit 11 causes the audio output unit 15 to perform voice output in the language to be learned by the user, and accepts input in the language to be learned by the operation receiving unit 14. As a result, the user can perform an input operation on a single learning device (smartphone 10), and the dictation learning can be performed at a pace appropriate for the user by setting the timing of voice output while considering the input operation. Can be done.

また、制御部11は、操作受付部14により受け付けられた入力の内容と音声出力部15により出力された内容との比較結果に係る情報を表示部13により表示させる。これにより、ユーザは、ディクテーションが正確に行われているか否かを知得することが出来、聞き取り間違いや、ライティング時の単語のスペルミスなどの間違いの有無、種別や間違い箇所を的確に把握することが出来る。   In addition, the control unit 11 causes the display unit 13 to display information related to the comparison result between the input content received by the operation reception unit 14 and the content output by the audio output unit 15. As a result, the user can know whether dictation is performed correctly, and can accurately grasp the presence / absence, type, and location of mistakes such as mistakes in listening and misspelling of words during writing. I can do it.

また、制御部11は、情報取得手段によりユーザが自転車や自動車などの移動手段を運転動作している状態であるとの情報が取得された場合に、ユーザに学習コンテンツの提供を行わない。従って、移動中であっても、当該移動に係る動作で集中力がそがれると危険な場合には、学習コンテンツの提供を行わないことで安全を確保することが出来る。   The control unit 11 does not provide learning content to the user when the information acquisition unit acquires information that the user is driving a moving unit such as a bicycle or a car. Therefore, even if the user is moving, if it is dangerous to lose his / her concentration due to the movement, the safety can be ensured by not providing the learning content.

また、上述のようなユーザに対する学習コンテンツ提供方法を用いてユーザの行動状態に応じた適切な学習コンテンツを提供することで、ユーザの操作を必要とせずに随時適切な学習コンテンツをユーザに対して提供することが出来るので、ユーザの学習効率を向上させることが出来る。   Also, by providing appropriate learning content according to the user's behavioral state using the learning content providing method for the user as described above, appropriate learning content can be provided to the user at any time without requiring user operation. Since it can provide, a user's learning efficiency can be improved.

また、スマートフォンなどのコンピュータに対して上述の学習コンテンツの提供に係るプログラムである学習アプリ121をインストールして記憶させ、ユーザが必要に応じて実行することで、携帯型の各種汎用電子機器を持ち歩くだけでユーザが効率良く学習を行うことが可能となる。   In addition, the learning application 121, which is a program related to the provision of learning content described above, is installed and stored in a computer such as a smartphone, and is carried as necessary by the user to carry various portable general-purpose electronic devices. Only by this, the user can efficiently learn.

なお、本発明は、上記実施の形態に限られるものではなく、様々な変更が可能である。
例えば、上記実施の形態では、学習コンテンツの複雑さの基準として、音声出力の各要素の長さや表示出力の有無を例に挙げて説明したが、その他、例えば、同じ学習コンテンツに対する問題の有無、問題の正解解説の有無などを基準に含めても良い。即ち、複雑な学習コンテンツを提供できない状況では、単なる聞き流しを目的とする音声出力を行い、複雑な学習コンテンツが提供可能な場合には、丁寧な解説や段階的なヒントなどを付加することとしても良い。
The present invention is not limited to the above-described embodiment, and various modifications can be made.
For example, in the above embodiment, the length of each element of audio output and the presence / absence of display output have been described as examples of the complexity of learning content. However, for example, whether there is a problem with the same learning content, It may be included based on whether or not there is a correct explanation of the problem. In other words, in situations where complex learning content cannot be provided, audio output for simple listening is performed, and when complex learning content can be provided, polite explanations and step-by-step hints can be added. good.

また、会話学習コンテンツなどのやや長い学習コンテンツに係る音声出力の途中でユーザの歩行などによる移動が検出された場合、即座に会話学習コンテンツを終了させても良いし、音声出力途中の内容が終了するまで当該学習コンテンツを継続させても良い。   In addition, if movement due to a user's walk or the like is detected in the middle of audio output related to somewhat long learning content such as conversation learning content, the conversation learning content may be immediately terminated, or the content in the middle of audio output ends The learning content may be continued until it is done.

また、上記実施の形態では、移動手段に立ち乗りしている場合には視覚併用学習コンテンツや書き取り学習コンテンツの提供を行わないこととしたが、混雑があまり想定されない日時、例えば、土休日や平日の昼間11時から16時などには、立ち乗りであってもこれらのコンテンツを提供しても良い。或いは、他のアプリなどにより乗車中の車両の混雑率などが取得可能な場合には、当該混雑率に基づいてこれらのコンテンツの提供可否を定めても良い。また、行動状態の遷移を毎日記憶して学習し、各行動状態の標準的な継続時間の情報などを取得して、当該継続時間を考慮した学習コンテンツの提供を行っても良い。また、これらの学習結果を一時停止の判別、例えば、歩行中の信号待ちと、列車乗車時や下車時の列車移動と歩行との間での切り替わりとの判定の材料などに用いても良い。   Further, in the above embodiment, the visual combined learning content and the writing learning content are not provided when standing on the moving means, but the date and time when congestion is not expected so much, for example, weekends and holidays In the daytime from 11:00 to 16:00, these contents may be provided even when standing. Alternatively, when the congestion rate of the vehicle on board can be acquired by another application or the like, whether or not to provide these contents may be determined based on the congestion rate. Alternatively, the behavior state transitions may be stored and learned every day, information on the standard duration of each behavior state may be acquired, and learning content may be provided in consideration of the duration. Further, these learning results may be used as a material for determination of temporary stop, for example, determination of waiting for a signal during walking and switching between train movement and walking when getting on or off the train.

また、上記実施の形態では、ユーザが運転動作中には学習コンテンツの提供を行わないこととしたが、ユーザの運転動作に係る集中力を削がない範囲で聞き流せる程度の音楽などを流すコンテンツを提供しても良い。また、運転動作であっても、自動車やバイクの運転時には一切コンテンツの提供を行わず、自転車の場合には上述のような簡易な内容のコンテンツを提供することとしても良い。   In the above embodiment, the learning content is not provided during the driving operation of the user. However, the content that plays music or the like that can be heard in a range that does not reduce the concentration of the user's driving operation can be heard. May be provided. In addition, even if it is a driving operation, no content is provided at the time of driving an automobile or a motorcycle, and content having the simple contents as described above may be provided in the case of a bicycle.

また、上記実施の形態では、センテンス学習コンテンツや文章、会話の学習コンテンツにおいて、内容に関する応答文や回答の選択肢を複数音声出力させてユーザに選択させることとしたが、問題のみを出力させて回答をユーザ自身に考え、作成させても良い。或いは、単にセンテンス、文章のナレーションや会話のみを音声出力させて、問題形式とせずにユーザに聞き取り理解のみを行わせても良い。   In the above embodiment, in the sentence learning content, sentence, and conversation learning content, a plurality of response sentences and answer options related to the contents are output by the user and the user selects them. May be considered and created by the user himself / herself. Alternatively, it is also possible to simply output only sentences, narrations and conversations of speech, and let the user only understand and understand without using the problem format.

また、上記実施の形態では、語学学習コンテンツを例に挙げて説明したが、これに限られない。化学反応や反応条件など、法律の条文や当該条文の解説など、或いは各種分野の用語及びその定義など、主に音声出力を用いる種々の学習コンテンツに対して本発明を適用することが出来る。また、行動状態に応じた分類の仕方は、上記実施形態に限られず、これらより少なくても良いし、より詳細に分類されても良い。   In the above embodiment, language learning content has been described as an example. However, the present invention is not limited to this. The present invention can be applied to various learning contents that mainly use audio output, such as chemical reactions and reaction conditions, legal texts, explanations of the texts, terms in various fields, and definitions thereof. Moreover, the method of classification according to the behavior state is not limited to the above-described embodiment, and may be less than these or may be classified in more detail.

また、学習対象の言語の能力が十分に高く、長文のリスニング程度ではそれほど集中力を要さない上級レベルの学習者を対象とした学習コンテンツでは、行動状態と提供されるコンテンツの内容との対応関係が中級レベル以下の学習者に対するものと異なっていても良い。同様に、初級レベルの学習者と中級レベルの学習者とでは、対応関係が異なっていても良い。また、行動状態に拘わらず音声出力のみを用い、当該音声出力内容の複雑さを変更する学習コンテンツが含まれても良い。   In addition, for learning content intended for advanced learners who are sufficiently skilled in the language to be studied and do not require much concentration with long listening, the correspondence between the behavioral state and the content provided The relationship may be different from that for learners of intermediate level or lower. Similarly, the correspondence level may be different between the beginner level learner and the intermediate level learner. In addition, learning content that uses only audio output regardless of the behavior state and changes the complexity of the audio output content may be included.

また、上記実施の形態では、行動状態として主にユーザの移動状態を取得、分類して提供する学習コンテンツを決定したが、行動状態はこれに限られず、その他、例えば、スマートフォン10のユーザによる操作状態やスマートフォン10との通信接続先電子機器などの使用状態などを考慮しても良い。また、行動状態の取得には、自身で計測、計数した情報に限られず、外部から通信部17を介して取得された情報(位置情報など)を用いても良い。また、加速度などの計測結果自体を外部の電子機器から取得しても良い。   Moreover, in the said embodiment, although the learning content which mainly acquires and classifies a user's moving state as a behavioral state, and is provided is determined, a behavioral state is not restricted to this, For example, operation by the user of the smart phone 10 etc. You may consider a use state, such as a state or a communication connection destination electronic device with the smart phone 10. Further, acquisition of the behavior state is not limited to information measured and counted by itself, but information (position information or the like) acquired from the outside via the communication unit 17 may be used. In addition, measurement results such as acceleration may be obtained from an external electronic device.

また、上記実施の形態では、センテンスに続いて音声出力される応答文や、長文や会話の後の質問に対する答えには、1つ適切なものが含まれるとしたが、2つ以上適切なものがあっても良いし、適切なものを異なる表現で複数音声出力させたり、適切な表現の応答文や正解の分のみを複数個音声出力させたりしても良い。   Further, in the above embodiment, one appropriate answer is included in the response sentence that is output as a voice following the sentence, and the answer to the long sentence or the question after the conversation, but two or more appropriate ones are appropriate. It is also possible to output a plurality of appropriate things in different expressions, or to output a plurality of response sentences or correct answers with appropriate expressions.

また、必ずしもユーザの書き取り動作を学習装置で受け付けて検出する必要はなく、音声出力間に書き取り時間を設けるだけであって別途ノートなどにユーザに書き取らせることとしても良い。   In addition, it is not always necessary to receive and detect the user's writing operation by the learning device, and it is also possible to provide the user with a separate note or the like by merely providing a writing time between the audio outputs.

以上の説明のように、本発明の学習装置では、学習を行うユーザの状況に応じて難易度、及び出題形式のうち少なくとも一方を異ならせることにより、学習コンテンツの内容の複雑さを切り替えるので、ユーザの状況に応じてより適切な学習コンテンツを提供することが可能となる。   As described above, in the learning device of the present invention, the complexity of the content of the learning content is switched by changing at least one of the difficulty level and the question format according to the situation of the user who performs learning. It is possible to provide more appropriate learning content according to the user's situation.

また、上記実施の形態では、学習装置としてスマートフォン100を例に挙げて説明したが、これに限られない。その他の携帯型汎用電子機器であったり、反対に専用の電子機器であったり、或いは、電子辞書が学習装置としての機能を有するものであったりしても良い。   Moreover, although the smart phone 100 was mentioned as an example and demonstrated in the said embodiment as a learning apparatus, it is not restricted to this. It may be another portable general-purpose electronic device, on the contrary, a dedicated electronic device, or the electronic dictionary may have a function as a learning device.

また、以上の説明では、本発明の提供コンテンツ選択処理に係る学習アプリ121を記憶するコンピュータ読み取り可能な媒体としてフラッシュメモリなどの不揮発性メモリなどからなる記憶部12を例に挙げて説明したが、これに限定されない。その他のコンピュータ読み取り可能な媒体として、HDD(Hard Disk Drive)、CD−ROMやDVDディスクなどの可搬型記録媒体を適用することが可能である。また、本発明に係るプログラムのデータを通信回線を介して提供する媒体として、キャリアウェーブ(搬送波)も本発明に適用される。
その他、上記実施の形態で示した構成、制御手順や表示例などの具体的な細部は、本発明の趣旨を逸脱しない範囲において適宜変更可能である。
In the above description, the storage unit 12 including a non-volatile memory such as a flash memory is described as an example as a computer-readable medium for storing the learning application 121 related to the provided content selection process of the present invention. It is not limited to this. As other computer-readable media, portable recording media such as a hard disk drive (HDD), a CD-ROM, and a DVD disk can be applied. A carrier wave is also applied to the present invention as a medium for providing program data according to the present invention via a communication line.
In addition, specific details such as the configuration, the control procedure, and the display example shown in the above embodiment can be changed as appropriate without departing from the spirit of the present invention.

本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
Although several embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and equivalents thereof.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.

[付記]
<請求項1>
ユーザの行動状態に係る情報を取得する情報取得手段と、
当該情報取得手段により取得された情報に基づいて学習コンテンツの内容の複雑さを切り替えて前記ユーザに提供するコンテンツ提供手段と、
を備えることを特徴とする学習装置。
<請求項2>
前記コンテンツ提供手段は、前記情報取得手段により取得された情報に基づいて、難易度、及び出題形式のうち少なくとも一方を異ならせることにより前記学習コンテンツの内容の複雑さを切り替えることを特徴とする請求項1記載の学習装置。
<請求項3>
前記コンテンツ提供手段は、前記情報取得手段により取得された情報に基づいて、提供内容の各要素の音声出力の長さ、及び、視覚情報の出力有無を制御することにより前記学習コンテンツの内容の複雑さを切り替えることを特徴とする請求項2記載の学習装置。
<請求項4>
前記情報取得手段は、現在時刻情報及び現在位置情報のうち少なくとも一方を取得し、
前記コンテンツ提供手段は、当該少なくとも一方と前記行動状態に係る情報との組み合わせに応じて前記学習コンテンツの内容の複雑さを切り替えることを特徴とする請求項1〜3の何れか一項に記載の学習装置。
<請求項5>
音声出力部を備え、
前記コンテンツ提供手段は、前記情報取得手段によりユーザが立って移動中であるとの情報が取得された場合に、前記音声出力部による音声出力のみを用いる学習コンテンツを提供することを特徴とする請求項1〜4の何れか一項に記載の学習装置。
<請求項6>
前記学習コンテンツは、語学学習コンテンツであることを特徴とする請求項1〜5の何れか一項に記載の学習装置。
<請求項7>
前記コンテンツ提供手段は、前記情報取得手段によりユーザが走って移動中であるとの情報が取得された場合に、単語学習コンテンツを提供することを特徴とする請求項6記載の学習装置。
<請求項8>
音声出力部を備え、
前記コンテンツ提供手段は、前記音声出力部により前記ユーザの学習対象の言語における単語、熟語やフレーズを音声出力させる
ことを特徴とする請求項7記載の学習装置。
<請求項9>
前記コンテンツ提供手段は、前記情報取得手段によりユーザが歩行中であるとの情報が取得された場合に、センテンス学習コンテンツを提供することを特徴とする請求項6記載の学習装置。
<請求項10>
音声出力部を備え、
前記コンテンツ提供手段は、前記音声出力部により前記ユーザの学習対象の言語による一文を音声出力した後、当該一文に対する応答文を音声出力させる
ことを特徴とする請求項9記載の学習装置。
<請求項11>
前記応答文は複数であり、当該応答文のうちの少なくとも一つが適切な応答文であり、その他の前記応答文が不適切なものであることを特徴とする請求項10記載の学習装置。
<請求項12>
前記コンテンツ提供手段は、前記音声出力部により前記複数の応答文の後に前記適切な応答文に係る正解情報を音声出力させることを特徴とする請求項11記載の学習装置。
<請求項13>
前記コンテンツ提供手段は、前記情報取得手段によりユーザが移動手段に立って乗っている状態であるとの情報が取得された場合に、複数センテンスからなる文章又は会話の学習コンテンツを提供することを特徴とする請求項6記載の学習装置。
<請求項14>
音声出力部を備え、
前記コンテンツ提供手段は、前記音声出力部により前記ユーザの学習対象の言語による前記複数センテンスのナレーション及び会話の何れかを音声出力した後、当該複数センテンスの内容に係る問題を音声出力させる
ことを特徴とする請求項13記載の学習装置。
<請求項15>
前記コンテンツ提供手段は、前記問題の音声出力後に当該問題に対する回答文を音声出力させることを特徴とする請求項14記載の学習装置。
<請求項16>
前記回答文は複数であり、当該回答文のうち少なくとも一つが正解であることを特徴とする請求項15記載の学習装置。
<請求項17>
前記コンテンツ提供手段は、前記音声出力部により前記複数の回答文を音声出力した後に当該複数の回答文の正解情報を音声出力させることを特徴とする請求項16記載の学習装置。
<請求項18>
表示部を備え、
前記コンテンツ提供手段は、前記情報取得手段によりユーザが移動手段に座って乗っている状態であるとの情報が取得された場合に、前記表示部により表示を行わせて視覚情報を利用する学習コンテンツを提供する
ことを特徴とする請求項1〜6の何れか一項に記載の学習装置。
<請求項19>
表示部と、
音声出力部と、
を備え、
前記コンテンツ提供手段は、
前記情報取得手段によりユーザが移動手段に座って乗っている状態であるとの情報が取得された場合に、前記表示部により表示を行わせて視覚情報を利用する学習コンテンツを提供し、
当該視覚情報を利用する学習コンテンツでは、前記表示部による表示の内容に係る一又は複数のセンテンスを前記音声出力部により音声出力させる
ことを特徴とする請求項6記載の学習装置。
<請求項20>
前記音声出力させる一又は複数のセンテンスは複数種類あり、当該複数種類のうち少なくとも一種類は前記表示部により表示させている内容として適切なものであり、その他のものは、前記表示部により表示させている内容として不適切なものであることを特徴とする請求項19記載の学習装置。
<請求項21>
前記コンテンツ提供手段は、前記一又は複数のセンテンスを音声出力させた後に、前記表示部及び前記音声出力部のうち少なくとも一方により前記適切なものに係る正解情報を出力させることを特徴とする請求項20記載の学習装置。
<請求項22>
音声出力部を備え、
前記コンテンツ提供手段は、前記情報取得手段によりユーザが移動手段に座って乗っている状態であるとの情報が取得された場合に、前記音声出力部による音声出力内容の書き取りに係る学習コンテンツを提供する
ことを特徴とする請求項6記載の学習装置。
<請求項23>
入力部を備え、
前記コンテンツ提供手段は、前記音声出力部にユーザの学習対象の言語による音声出力を行わせるとともに、前記入力部により前記学習対象の言語による入力を受け付ける
ことを特徴とする請求項22記載の学習装置。
<請求項24>
表示部を備え、
前記コンテンツ提供手段は、前記入力部により受け付けられた入力の内容と前記音声出力部により出力された内容との比較結果に係る情報を前記表示部により表示させる
ことを特徴とする請求項23記載の学習装置。
<請求項25>
前記コンテンツ提供手段は、前記情報取得手段によりユーザが移動手段を運転動作している状態であるとの情報が取得された場合に、前記ユーザに学習コンテンツの提供を行わないことを特徴とする請求項1〜6の何れか一項に記載の学習装置。
<請求項26>
ユーザに対する学習コンテンツ提供方法であって、
ユーザの行動状態に係る情報を取得する情報取得ステップ、
当該情報取得ステップで取得された情報に基づいて学習コンテンツの内容の複雑さを切り替えて前記ユーザに提供するコンテンツ提供ステップ、
を含むことを特徴とする学習コンテンツ提供方法。
<請求項27>
ユーザに学習コンテンツを提供するコンピュータを、
ユーザの行動状態に係る情報を取得する情報取得手段、
当該情報取得手段により取得された情報に基づいて学習コンテンツの内容の複雑さを切り替えて前記ユーザに提供するコンテンツ提供手段、
として機能させることを特徴とするプログラム。
[Appendix]
<Claim 1>
Information acquisition means for acquiring information relating to the user's behavior state;
Content providing means for switching the complexity of the content of the learning content based on the information acquired by the information acquiring means and providing it to the user;
A learning apparatus comprising:
<Claim 2>
The content providing unit switches the complexity of the content of the learning content by changing at least one of the difficulty level and the question format based on the information acquired by the information acquiring unit. Item 2. The learning device according to Item 1.
<Claim 3>
The content providing means controls the complexity of the content of the learning content by controlling the audio output length of each element of the provided content and the presence / absence of visual information output based on the information acquired by the information acquiring means. The learning device according to claim 2, wherein the learning device is switched.
<Claim 4>
The information acquisition means acquires at least one of current time information and current position information,
The said content provision means switches the complexity of the content of the said learning content according to the combination of the said at least one and the information which concerns on the said action state, The description in any one of Claims 1-3 characterized by the above-mentioned. Learning device.
<Claim 5>
With audio output,
The content providing unit provides learning content that uses only audio output by the audio output unit when information indicating that the user is standing and moving is acquired by the information acquisition unit. Item 5. The learning device according to any one of Items 1 to 4.
<Claim 6>
The learning device according to claim 1, wherein the learning content is a language learning content.
<Claim 7>
The learning apparatus according to claim 6, wherein the content providing unit provides word learning content when the information acquisition unit acquires information that the user is running and moving.
<Claim 8>
With audio output,
The learning apparatus according to claim 7, wherein the content providing unit causes the voice output unit to output a word, an idiom, or a phrase in the language to be learned by the user.
<Claim 9>
The learning apparatus according to claim 6, wherein the content providing unit provides sentence learning content when information indicating that the user is walking is acquired by the information acquisition unit.
<Claim 10>
With audio output,
The learning apparatus according to claim 9, wherein the content providing unit causes the voice output unit to output a sentence in the user's language to be learned, and then outputs a response sentence to the sentence.
<Claim 11>
The learning apparatus according to claim 10, wherein there are a plurality of response sentences, at least one of the response sentences is an appropriate response sentence, and the other response sentences are inappropriate.
<Claim 12>
The learning apparatus according to claim 11, wherein the content providing unit causes the voice output unit to output the correct answer information related to the appropriate response sentence after the plurality of response sentences.
<Claim 13>
The content providing means provides learning content of a sentence or conversation composed of a plurality of sentences when the information acquisition means acquires information that the user is standing on the moving means. The learning device according to claim 6.
<Claim 14>
With audio output,
The content providing means, after the voice output unit outputs a voice of either the narration or conversation of the plurality of sentences in the language to be learned by the user, causes the problem related to the contents of the plurality of sentences to be output by voice. The learning device according to claim 13.
<Claim 15>
The learning apparatus according to claim 14, wherein the content providing unit outputs an answer sentence for the problem after outputting the sound of the problem.
<Claim 16>
16. The learning apparatus according to claim 15, wherein there are a plurality of answer sentences, and at least one of the answer sentences is correct.
<Claim 17>
The learning apparatus according to claim 16, wherein the content providing unit outputs the correct answer information of the plurality of answer sentences by voice after the plurality of answer sentences are voice-output by the voice output unit.
<Claim 18>
With a display,
The content providing unit is a learning content that uses the visual information by displaying on the display unit when information indicating that the user is sitting on the moving unit is acquired by the information acquiring unit. The learning device according to claim 1, wherein the learning device is provided.
<Claim 19>
A display unit;
An audio output unit;
With
The content providing means includes
When the information acquisition means acquires information that the user is sitting on a moving means and is on a ride, providing learning content that uses visual information to display by the display unit,
The learning apparatus according to claim 6, wherein in the learning content using the visual information, one or a plurality of sentences related to the contents displayed by the display unit are output by the audio output unit.
<Claim 20>
There are a plurality of types of one or a plurality of sentences to be output, and at least one of the plurality of types is appropriate as the content displayed on the display unit, and the others are displayed on the display unit. The learning apparatus according to claim 19, wherein the learning content is inappropriate.
<Claim 21>
The content providing means, after outputting the one or more sentences as audio, outputs correct information related to the appropriate one by at least one of the display unit and the audio output unit. 20. The learning device according to 20.
<Claim 22>
With audio output,
The content providing means provides learning content related to the writing of audio output content by the audio output unit when information indicating that the user is sitting on a moving means is acquired by the information acquiring means The learning device according to claim 6, wherein:
<Claim 23>
It has an input part,
23. The learning apparatus according to claim 22, wherein the content providing unit causes the voice output unit to perform voice output in a language to be learned by a user and accepts input in the language to be learned by the input unit. .
<Claim 24>
With a display,
The said content provision means displays the information which concerns on the comparison result of the content of the input received by the said input part, and the content output by the said audio | voice output part on the said display part. Learning device.
<Claim 25>
The content providing unit does not provide learning content to the user when the information acquiring unit acquires information that the user is driving the moving unit. The learning device according to any one of Items 1 to 6.
<Claim 26>
A method for providing learning content to a user,
An information acquisition step of acquiring information related to the user's behavior state;
A content providing step of switching the complexity of the content of the learning content based on the information acquired in the information acquiring step and providing it to the user;
The learning content provision method characterized by including this.
<Claim 27>
A computer that provides learning content to users,
Information acquisition means for acquiring information relating to the user's behavior state;
Content providing means for switching the complexity of the content of the learning content based on the information acquired by the information acquiring means and providing it to the user;
A program characterized by functioning as

11 制御部
111 CPU
112 RAM
12 記憶部
121 学習アプリ
13 表示部
14 操作受付部
15 音声出力部
16 音声入力部
17 通信部
18 計時部
19 測位モジュール
20 計測部
100 スマートフォン
11 Control unit 111 CPU
112 RAM
DESCRIPTION OF SYMBOLS 12 Memory | storage part 121 Learning application 13 Display part 14 Operation reception part 15 Audio | voice output part 16 Audio | voice input part 17 Communication part 18 Time measuring part 19 Positioning module 20 Measuring part 100 Smartphone

Claims (27)

ユーザの行動状態に係る情報を取得する情報取得手段と、
当該情報取得手段により取得された情報に基づいて学習コンテンツの内容の複雑さを切り替えて前記ユーザに提供するコンテンツ提供手段と、
を備えることを特徴とする学習装置。
Information acquisition means for acquiring information relating to the user's behavior state;
Content providing means for switching the complexity of the content of the learning content based on the information acquired by the information acquiring means and providing it to the user;
A learning apparatus comprising:
前記コンテンツ提供手段は、前記情報取得手段により取得された情報に基づいて、難易度、及び出題形式のうち少なくとも一方を異ならせることにより前記学習コンテンツの内容の複雑さを切り替えることを特徴とする請求項1記載の学習装置。   The content providing unit switches the complexity of the content of the learning content by changing at least one of the difficulty level and the question format based on the information acquired by the information acquiring unit. Item 2. The learning device according to Item 1. 前記コンテンツ提供手段は、前記情報取得手段により取得された情報に基づいて、提供内容の各要素の音声出力の長さ、及び視覚情報の出力有無のうち少なくとも一方を制御することにより前記学習コンテンツの内容の複雑さを切り替えることを特徴とする請求項2記載の学習装置。   The content providing unit controls at least one of the length of audio output of each element of the provided content and the presence / absence of visual information output based on the information acquired by the information acquiring unit, thereby controlling the learning content. The learning apparatus according to claim 2, wherein complexity of contents is switched. 前記情報取得手段は、現在時刻情報及び現在位置情報のうち少なくとも一方を取得し、
前記コンテンツ提供手段は、当該少なくとも一方と前記行動状態に係る情報との組み合わせに応じて前記学習コンテンツの内容の複雑さを切り替えることを特徴とする請求項1〜3の何れか一項に記載の学習装置。
The information acquisition means acquires at least one of current time information and current position information,
The said content provision means switches the complexity of the content of the said learning content according to the combination of the said at least one and the information which concerns on the said action state, The description in any one of Claims 1-3 characterized by the above-mentioned. Learning device.
音声出力部を備え、
前記コンテンツ提供手段は、前記情報取得手段によりユーザが立って移動中であるとの情報が取得された場合に、前記音声出力部による音声出力のみを用いる学習コンテンツを提供することを特徴とする請求項1〜4の何れか一項に記載の学習装置。
With audio output,
The content providing unit provides learning content that uses only audio output by the audio output unit when information indicating that the user is standing and moving is acquired by the information acquisition unit. Item 5. The learning device according to any one of Items 1 to 4.
前記学習コンテンツは、語学学習コンテンツであることを特徴とする請求項1〜5の何れか一項に記載の学習装置。   The learning device according to claim 1, wherein the learning content is a language learning content. 前記コンテンツ提供手段は、前記情報取得手段によりユーザが走って移動中であるとの情報が取得された場合に、単語学習コンテンツを提供することを特徴とする請求項6記載の学習装置。   The learning apparatus according to claim 6, wherein the content providing unit provides word learning content when the information acquisition unit acquires information that the user is running and moving. 音声出力部を備え、
前記コンテンツ提供手段は、前記音声出力部により前記ユーザの学習対象の言語における単語、熟語やフレーズを音声出力させる
ことを特徴とする請求項7記載の学習装置。
With audio output,
The learning apparatus according to claim 7, wherein the content providing unit causes the voice output unit to output a word, an idiom, or a phrase in the language to be learned by the user.
前記コンテンツ提供手段は、前記情報取得手段によりユーザが歩行中であるとの情報が取得された場合に、センテンス学習コンテンツを提供することを特徴とする請求項6記載の学習装置。   The learning apparatus according to claim 6, wherein the content providing unit provides sentence learning content when information indicating that the user is walking is acquired by the information acquisition unit. 音声出力部を備え、
前記コンテンツ提供手段は、前記音声出力部により前記ユーザの学習対象の言語による一文を音声出力した後、当該一文に対する応答文を音声出力させる
ことを特徴とする請求項9記載の学習装置。
With audio output,
The learning apparatus according to claim 9, wherein the content providing unit causes the voice output unit to output a sentence in the user's language to be learned, and then outputs a response sentence to the sentence.
前記応答文は複数であり、当該応答文のうちの少なくとも一つが適切な応答文であり、その他の前記応答文が不適切なものであることを特徴とする請求項10記載の学習装置。   The learning apparatus according to claim 10, wherein there are a plurality of response sentences, at least one of the response sentences is an appropriate response sentence, and the other response sentences are inappropriate. 前記コンテンツ提供手段は、前記音声出力部により前記複数の応答文の後に前記適切な応答文に係る正解情報を音声出力させることを特徴とする請求項11記載の学習装置。   The learning apparatus according to claim 11, wherein the content providing unit causes the voice output unit to output the correct answer information related to the appropriate response sentence after the plurality of response sentences. 前記コンテンツ提供手段は、前記情報取得手段によりユーザが移動手段に立って乗っている状態であるとの情報が取得された場合に、複数センテンスからなる文章又は会話の学習コンテンツを提供することを特徴とする請求項6記載の学習装置。   The content providing means provides learning content of a sentence or conversation composed of a plurality of sentences when the information acquisition means acquires information that the user is standing on the moving means. The learning device according to claim 6. 音声出力部を備え、
前記コンテンツ提供手段は、前記音声出力部により前記ユーザの学習対象の言語による前記複数センテンスのナレーション及び会話の何れかを音声出力した後、当該複数センテンスの内容に係る問題を音声出力させる
ことを特徴とする請求項13記載の学習装置。
With audio output,
The content providing means, after the voice output unit outputs a voice of either the narration or conversation of the plurality of sentences in the language to be learned by the user, causes the problem related to the contents of the plurality of sentences to be output by voice. The learning device according to claim 13.
前記コンテンツ提供手段は、前記問題の音声出力後に当該問題に対する回答文を音声出力させることを特徴とする請求項14記載の学習装置。   The learning apparatus according to claim 14, wherein the content providing unit outputs an answer sentence for the problem after outputting the sound of the problem. 前記回答文は複数であり、当該回答文のうち少なくとも一つが正解であることを特徴とする請求項15記載の学習装置。   16. The learning apparatus according to claim 15, wherein there are a plurality of answer sentences, and at least one of the answer sentences is correct. 前記コンテンツ提供手段は、前記音声出力部により前記複数の回答文を音声出力した後に当該複数の回答文の正解情報を音声出力させることを特徴とする請求項16記載の学習装置。   The learning apparatus according to claim 16, wherein the content providing unit outputs the correct answer information of the plurality of answer sentences by voice after the plurality of answer sentences are voice-output by the voice output unit. 表示部を備え、
前記コンテンツ提供手段は、前記情報取得手段によりユーザが移動手段に座って乗っている状態であるとの情報が取得された場合に、前記表示部により表示を行わせて視覚情報を利用する学習コンテンツを提供する
ことを特徴とする請求項1〜6の何れか一項に記載の学習装置。
With a display,
The content providing unit is a learning content that uses the visual information by displaying on the display unit when information indicating that the user is sitting on the moving unit is acquired by the information acquiring unit. The learning device according to claim 1, wherein the learning device is provided.
表示部と、
音声出力部と、
を備え、
前記コンテンツ提供手段は、
前記情報取得手段によりユーザが移動手段に座って乗っている状態であるとの情報が取得された場合に、前記表示部により表示を行わせて視覚情報を利用する学習コンテンツを提供し、
当該視覚情報を利用する学習コンテンツでは、前記表示部による表示の内容に係る一又は複数のセンテンスを前記音声出力部により音声出力させる
ことを特徴とする請求項6記載の学習装置。
A display unit;
An audio output unit;
With
The content providing means includes
When the information acquisition means acquires information that the user is sitting on a moving means and is on a ride, providing learning content that uses visual information to display by the display unit,
The learning apparatus according to claim 6, wherein in the learning content using the visual information, one or a plurality of sentences related to the contents displayed by the display unit are output by the audio output unit.
前記音声出力させる一又は複数のセンテンスは複数種類あり、当該複数種類のうち少なくとも一種類は前記表示部により表示させている内容として適切なものであり、その他のものは、前記表示部により表示させている内容として不適切なものであることを特徴とする請求項19記載の学習装置。   There are a plurality of types of one or a plurality of sentences to be output, and at least one of the plurality of types is appropriate as the content displayed on the display unit, and the others are displayed on the display unit. The learning apparatus according to claim 19, wherein the learning content is inappropriate. 前記コンテンツ提供手段は、前記一又は複数のセンテンスを音声出力させた後に、前記表示部及び前記音声出力部のうち少なくとも一方により前記適切なものに係る正解情報を出力させることを特徴とする請求項20記載の学習装置。   The content providing means, after outputting the one or more sentences as audio, outputs correct information related to the appropriate one by at least one of the display unit and the audio output unit. 20. The learning device according to 20. 音声出力部を備え、
前記コンテンツ提供手段は、前記情報取得手段によりユーザが移動手段に座って乗っている状態であるとの情報が取得された場合に、前記音声出力部による音声出力内容の書き取りに係る学習コンテンツを提供する
ことを特徴とする請求項6記載の学習装置。
With audio output,
The content providing means provides learning content related to the writing of audio output content by the audio output unit when information indicating that the user is sitting on a moving means is acquired by the information acquiring means The learning device according to claim 6, wherein:
入力部を備え、
前記コンテンツ提供手段は、前記音声出力部にユーザの学習対象の言語による音声出力を行わせるとともに、前記入力部により前記学習対象の言語による入力を受け付ける
ことを特徴とする請求項22記載の学習装置。
It has an input part,
23. The learning apparatus according to claim 22, wherein the content providing unit causes the voice output unit to perform voice output in a language to be learned by a user and accepts input in the language to be learned by the input unit. .
表示部を備え、
前記コンテンツ提供手段は、前記入力部により受け付けられた入力の内容と前記音声出力部により出力された内容との比較結果に係る情報を前記表示部により表示させる
ことを特徴とする請求項23記載の学習装置。
With a display,
The said content provision means displays the information which concerns on the comparison result of the content of the input received by the said input part, and the content output by the said audio | voice output part on the said display part. Learning device.
前記コンテンツ提供手段は、前記情報取得手段によりユーザが移動手段を運転動作している状態であるとの情報が取得された場合に、前記ユーザに学習コンテンツの提供を行わないことを特徴とする請求項1〜6の何れか一項に記載の学習装置。   The content providing unit does not provide learning content to the user when the information acquiring unit acquires information that the user is driving the moving unit. The learning device according to any one of Items 1 to 6. ユーザに対する学習コンテンツ提供方法であって、
ユーザの行動状態に係る情報を取得する情報取得ステップ、
当該情報取得ステップで取得された情報に基づいて学習コンテンツの内容の複雑さを切り替えて前記ユーザに提供するコンテンツ提供ステップ、
を含むことを特徴とする学習コンテンツ提供方法。
A method for providing learning content to a user,
An information acquisition step of acquiring information related to the user's behavior state;
A content providing step of switching the complexity of the content of the learning content based on the information acquired in the information acquiring step and providing it to the user;
The learning content provision method characterized by including this.
ユーザに学習コンテンツを提供するコンピュータを、
ユーザの行動状態に係る情報を取得する情報取得手段、
当該情報取得手段により取得された情報に基づいて学習コンテンツの内容の複雑さを切り替えて前記ユーザに提供するコンテンツ提供手段、
として機能させることを特徴とするプログラム。
A computer that provides learning content to users,
Information acquisition means for acquiring information relating to the user's behavior state;
Content providing means for switching the complexity of the content of the learning content based on the information acquired by the information acquiring means and providing it to the user;
A program characterized by functioning as
JP2016098590A 2016-05-17 2016-05-17 Learning device, learning content providing method, and program Active JP6693266B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016098590A JP6693266B2 (en) 2016-05-17 2016-05-17 Learning device, learning content providing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016098590A JP6693266B2 (en) 2016-05-17 2016-05-17 Learning device, learning content providing method, and program

Publications (2)

Publication Number Publication Date
JP2017207571A true JP2017207571A (en) 2017-11-24
JP6693266B2 JP6693266B2 (en) 2020-05-13

Family

ID=60414928

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016098590A Active JP6693266B2 (en) 2016-05-17 2016-05-17 Learning device, learning content providing method, and program

Country Status (1)

Country Link
JP (1) JP6693266B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111079868A (en) * 2019-07-29 2020-04-28 广东小天才科技有限公司 Dictation control method based on electronic equipment and electronic equipment

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1078743A (en) * 1996-09-05 1998-03-24 Omron Corp Learning control device, learning control method, and storage medium for learning control program
JP2005227619A (en) * 2004-02-13 2005-08-25 Nippon Telegr & Teleph Corp <Ntt> Language learning support system
KR20110057434A (en) * 2009-11-24 2011-06-01 주식회사 씨엔엠브이엔오 Method for studying languages by cell phone
JP2012098410A (en) * 2010-10-29 2012-05-24 Brother Ind Ltd Learning apparatus, learning program, and learning system
JP2012159683A (en) * 2011-01-31 2012-08-23 Toshiba Corp Electronic apparatus
JP2015060074A (en) * 2013-09-19 2015-03-30 カシオ計算機株式会社 Speech learning assist device and speech learning assist program
JP2016136233A (en) * 2015-01-19 2016-07-28 株式会社デンソー Audio learning system and audio learning method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1078743A (en) * 1996-09-05 1998-03-24 Omron Corp Learning control device, learning control method, and storage medium for learning control program
JP2005227619A (en) * 2004-02-13 2005-08-25 Nippon Telegr & Teleph Corp <Ntt> Language learning support system
KR20110057434A (en) * 2009-11-24 2011-06-01 주식회사 씨엔엠브이엔오 Method for studying languages by cell phone
JP2012098410A (en) * 2010-10-29 2012-05-24 Brother Ind Ltd Learning apparatus, learning program, and learning system
JP2012159683A (en) * 2011-01-31 2012-08-23 Toshiba Corp Electronic apparatus
JP2015060074A (en) * 2013-09-19 2015-03-30 カシオ計算機株式会社 Speech learning assist device and speech learning assist program
JP2016136233A (en) * 2015-01-19 2016-07-28 株式会社デンソー Audio learning system and audio learning method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111079868A (en) * 2019-07-29 2020-04-28 广东小天才科技有限公司 Dictation control method based on electronic equipment and electronic equipment
CN111079868B (en) * 2019-07-29 2023-11-24 广东小天才科技有限公司 Dictation control method based on electronic equipment and electronic equipment

Also Published As

Publication number Publication date
JP6693266B2 (en) 2020-05-13

Similar Documents

Publication Publication Date Title
Williams et al. Towards leveraging the driver's mobile device for an intelligent, sociable in-car robotic assistant
Chen et al. BlindNavi: A navigation app for the visually impaired smartphone user
JP6339545B2 (en) Information processing apparatus, information processing method, and program
KR20140082771A (en) Automatically adapting user interfaces for hands-free interaction
JP6278641B2 (en) Writing practice system and program
JP2019079345A (en) Information presentation device, information presentation system, and terminal device
WO2014141414A1 (en) Learning process visualization system and visualization processing device, and visualization method
KR102552857B1 (en) Subtitle processing method for language education and apparatus thereof
JP6190857B2 (en) Information processing apparatus, information processing method, and program
US8600667B2 (en) Location based entertainment with a personal navigation device
Tinga et al. Human machine interface design for continuous support of mode awareness during automated driving: An online simulation
JP2014215265A (en) Driving state improvement device
JP6693266B2 (en) Learning device, learning content providing method, and program
JP2017058315A (en) Information processing apparatus, information processing method, and program
Cuřín et al. Dictating and editing short texts while driving: Distraction and task completion
Alvarez et al. Help on the road: Effects of vehicle manual consultation in driving performance across modalities
Chang et al. Usability evaluation of a Volkswagen Group in-vehicle speech system
EP2858054A1 (en) Information system and onboard terminal device
CN111081090B (en) Information output method and learning device in point-to-read scene
JP2013218666A (en) Portable terminal
KR102410939B1 (en) Apparatus and method for showing language list of in-vehicle device
US20240083245A1 (en) Driver support system, driver support method, and storage medium
KR101808716B1 (en) Method for providing English education base on sensing information of movement and system using the same
Al-Aidaroos et al. Multiple input modality mobile application for pilgrims
Olofsson Designing interfaces for the visually impaired: contextual information and analysis of user needs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190314

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200317

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200330

R150 Certificate of patent or registration of utility model

Ref document number: 6693266

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150