JP2017003885A - 情報出力装置、情報出力方法、及びプログラム - Google Patents

情報出力装置、情報出力方法、及びプログラム Download PDF

Info

Publication number
JP2017003885A
JP2017003885A JP2015119786A JP2015119786A JP2017003885A JP 2017003885 A JP2017003885 A JP 2017003885A JP 2015119786 A JP2015119786 A JP 2015119786A JP 2015119786 A JP2015119786 A JP 2015119786A JP 2017003885 A JP2017003885 A JP 2017003885A
Authority
JP
Japan
Prior art keywords
information
sensory
sensory information
feedback
measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015119786A
Other languages
English (en)
Other versions
JP6530975B2 (ja
Inventor
明美 小林
Akiyoshi Kobayashi
明美 小林
良輔 青木
Ryosuke Aoki
良輔 青木
洋一 高嶋
Yoichi Takashima
洋一 高嶋
智広 山田
Tomohiro Yamada
智広 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015119786A priority Critical patent/JP6530975B2/ja
Publication of JP2017003885A publication Critical patent/JP2017003885A/ja
Application granted granted Critical
Publication of JP6530975B2 publication Critical patent/JP6530975B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Electrically Operated Instructional Devices (AREA)

Abstract

【課題】感覚や運動の学習速度を促進したり、より効果的に定着させたりするための情報を出力する情報出力装置を提供することである。【解決手段】感覚情報処理装置は、測定感覚情報を受信する受信部と、第1の感覚に対応する複数の第1の感覚情報と前記第1の感覚より弁別能力の高い第2の感覚に対応する複数の第2の感覚情報を持ち、それらの感覚間の対応関係を示すデータベースに基づき、前記測定感覚情報に対応する第1の感覚情報から第2の感覚情報へ変換する変換部と、前記測定感覚情報に基づきフィードバックの要否を判定し、フィードバックを必要と判定した場合に前記変換された前記第2の感覚情報に基づく出力情報を出力する情報処理部と、を備える。【選択図】図2

Description

体性感覚を始めとする弁別能力の低い感覚を測定し、測定結果に関する情報を出力(提示)する情報出力装置、情報出力方法、及びプログラムに関するものである。
体性感覚は、自分の身体をコントロールして運動を行う際に重要となる感覚である。体性感覚としては、筋緊張度合いや関節位置などが知られている。例えば、1秒を切る早い運動やなめらか運動に対しては、リアルタイムの運動に対してはフィードバック情報を利用せず、内部モデルを利用して制御し、運動後にフィードバック情報から内部モデルを修正して次回の運動精度の改善に活かしている。運動時の内部モデルの学習は、フィードバック誤差学習で学習されると考えられている。フィードバック誤差学習では、目標軌道と実現軌道の間の誤差を誤差信号(教師信号)として内部モデルの修正が行われている。ただし、この誤差に対して、体性感覚の空間・時間分解能が低い場合には、内部モデルの習得には時間がかかる。
従来、単純な基礎運動時(腕の位置や姿勢の制御)に視覚情報や聴覚情報を単体で提示した時の運動学習の学習速度と定着効果の違いについて研究が行われている(非特許文献1参照)。また、複合運動としての動きを聴覚提示する試みが行われている(非特許文献2参照)。
また、上肢運動と姿勢制御において、視覚情報を利用することで習熟効果は高くなるが、保持には聴覚が優れていることが知られている(非特許文献1、3参照)。さらに、押圧力訓練のために視覚情報を利用する場合、リアルタイムでフィードバックすると、力の安定性は向上するが、定着精度は低下することも知られている(非特許文献4参照)。
Ronsse, Renaud, et al. "Motor learning with augmented feedback: modality-dependent behavioral and neural consequences." Cerebral cortex 21.6 (2011): 1283-1294. 宝里直幸, 有田浩之, 阪口豊, 身体運動の可聴化: その概念と運動学習支援への応用, 情報処理学会 インタラクション2011 東口大樹, 大矢敏久, 高橋秀平, 西川大樹, 上 村一樹, 内山靖, 聴覚および視覚フィードバックが運動学習の習熟過程・保持に及ぼす特性の違い, 日本理学 療法学術大会, 2012 道用大介, 押圧力制御訓練における視覚フィードバックに関する基礎研究, 人間工 学 42.4 (2006): 227-233.
弁別能力の低い感覚の弁別能力の向上技術に関する要望が出されている。弁別能力の低い感覚だけで学習しても学習効果は芳しくなく、上記したように、体性感覚の場合において複合運動としての動きを聴覚提示する試みが行われているがその効果は十分ではない。
また、上記学習には、体性感覚に限らず弁別能力の低い感覚(例えば外国語の聞き分けなど)や、運動などの学習があるが、上記学習の速度を促進したり、より効果的に定着させたりすることを目的とした方法(例えば、マルチモーダルインタラクション方法)は未だ十分に確立されていない。
さらに、複数感覚を提示することの効果検証や、複数の押圧力制御に対する検証と、押圧力制御における音の提示方法に対する検証は十分になされていない。
この発明は上記事情に着目してなされたもので、その目的とするところは、弁別能力の低い感覚の学習速度を促進したり、より効果的に定着させたりするための情報を出力する情報出力装置、情報出力方法、及びプログラムを提供することにある。
上記目的を達成するためにこの発明の情報出力装置、情報出力方法、及びプログラムは、以下のように構成されている。
(1)この発明の感覚情報処理装置は、測定感覚情報を受信する受信部と、第1の感覚に対応する複数の第1の感覚情報と前記第1の感覚より弁別能力の高い第2の感覚に対応する複数の第2の感覚情報を持ち、それらの感覚間の対応関係を示すデータベースに基づき、前記測定感覚情報に対応する第1の感覚情報から第2の感覚情報へ変換する変換部と、前記測定感覚情報に基づきフィードバックの要否を判定し、フィードバックを必要と判定した場合に前記変換された前記第2の感覚情報に基づく出力情報を出力する情報処理部と、を備える。
(2)さらに上記(1)の感覚情報処理装置は、前記第1の感覚として、筋緊張度合い、関節角度、力の大きさ、及び身体位置の少なくとも一つを含む体性感覚情報や外国語の聞き分け能力など弁別能力の低い感覚情報を対象とする。
(3)さらに上記(1)の感覚情報処理装置は、前記第2の感覚として視覚情報、聴覚情報、及び力覚刺激のうちの少なくとも一つを対象とし、前記視覚情報は、数値、グラフ、画像、映像、及び色の少なくとも一つを含み、前記聴覚情報は、音の周波数、及び音の大きさ、音色の少なくとも一つを含む。
(4)さらに上記(3)の感覚情報処理装置は、前記情報処理部は、前記変換された前記第2の感覚情報に対応する前記視覚情報、前記聴覚情報、及び前記力覚刺激の内、2つ以上の情報を出力する。
(5)さらに上記(1)の感覚情報処理装置は、前記情報処理部は、前記変換された前記第2の感覚情報に基づく出力情報を離散的な値として出力する。
(6)さらに上記(1)の感覚情報処理装置は、前記情報処理部は、前記測定感覚情報に含まれる測定値の極値や時間変化量から、前記フィードバックの要否を判定する。
(7)この発明の感覚情報処理方法は、測定感覚情報を受信し、第1の感覚に対応する複数の第1の感覚情報と前記第1の感覚より弁別能力の高い第2の感覚に対応する複数の第2の感覚情報を持ち、それらの感覚間の対応関係を示すデータベースに基づき、前記測定感覚情報に対応する第1の感覚情報から第2の感覚情報へ変換し、前記測定感覚情報に基づきフィードバックの要否を判定し、フィードバックを必要と判定した場合に前記変換された前記第2の感覚情報に基づく出力情報を出力する。
(8)この発明のコンピュータプログラムは、測定感覚情報を受信する手順と、第1の感覚に対応する複数の第1の感覚情報と前記第1の感覚より弁別能力の高い第2の感覚に対応する複数の第2の感覚情報を持ち、それらの感覚間の対応関係を示すデータベースに基づき、前記測定感覚情報に対応する第1の感覚情報から第2の感覚情報へ変換する手順と、前記測定感覚情報に基づきフィードバックの要否を判定し、フィードバックを必要と判定した場合に前記変換された前記第2の感覚情報に基づく出力情報を出力する手順と、を実行させる。
すなわちこの発明によれば、学習速度を促進したり、より効果的に定着させたりするための情報を出力する情報出力装置、情報出力方法、及びプログラムを提供することができる。
(1)この発明の感覚情報処理装置によれば、測定感覚情報に対応する第1の感覚情報から第2の感覚情報へ変換され、測定感覚情報に基づきフィードバックが必要と判定された場合に、変換された前記第2の感覚情報に基づく出力情報が出力される。これにより、例えば、第1の感覚情報(体性感覚)よりも空間・時間分解能の高い第2の感覚情報(視覚、聴覚、力覚など)を利用したフィードバックを行うことができる。しかも、測定感覚情報に基づきより効果的なタイミングでのフィードバックを行うことができる。
(2)さらに、この発明の感覚情報処理装置によれば、第1の感覚情報(筋緊張度合い、関節角度、力の大きさ、及び身体位置の少なくとも一つを含む体性感覚情報や外国語の聞き分け能力など弁別能力の低い感覚情報)よりも空間・時間分解能の高い第2の感覚情報(視覚、聴覚、力覚など)を利用したフィードバックを行うことができる。
(3)さらに、この発明の感覚情報処理装置によれば、第2の感覚として視覚情報、聴覚情報、及び力覚刺激のうちの少なくとも一つを対象とすることができ、視覚情報であれば、数値、グラフ、画像、映像、及び色の少なくとも一つによるフィードバックを行うことができ、聴覚情報であれば、音の周波数、及び音の大きさ、音色の少なくとも一つによるフィードバックを行うことができる。
(4)さらに、この発明の感覚情報処理装置によれば、視覚情報、聴覚情報、及び力覚刺激の内、2つ以上の情報によるフィードバックを行うことができる。
(5)さらに、この発明の感覚情報処理装置によれば、第2の感覚情報に基づく出力情報を離散的な値(例えば白盤の音階に対応させた値)として出力することができ、弁別が容易となる。
(6)さらに、この発明の感覚情報処理装置によれば、測定感覚情報に含まれる測定値の極値や時間変化量に応じて、フィードバックを制御することができる。例えば、測定値が初めて極値を超えるまでや変化が大きい場合にはフィードバックを行わず、測定値が初めて極値を超えた後や変化が小さくなってからフィードバックを行うなどで、学習速度を促進したり、より効果的に定着させたりすることができる。
(7)この発明の感覚情報処理方法及びそのプログラムによれば、上記(1)と同様の効果が得られる。
多感覚FB(Feedback)による学習支援処理(基本処理)の一例を示すフローチャートである。 学習支援処理を実行するための情報処理システム(基本構成)の一例を示す概略ブロック図である。 学習支援処理を実行するための情報処理システム(オプション構成あり)の一例を示す概略ブロック図である。 図3に示す情報処理システムの実現例を示す模式図である。 情報処理システムによる全体処理の一例を示すフローチャートである。 図5のフローチャート中の目標値設定処理の一例を説明するフローチャートである。 図5のフローチャート中の目標値提示処理及び感覚間情報変換処理の一例を説明するフローチャートである。 図5のフローチャート中のFB提示処理の一例を説明するフローチャートである。 図5のフローチャート中の感覚間情報変換処理の一例を説明するフローチャートである。 目標値設定処理、目標値提示処理、及び感覚間情報変換処理の一例を説明するための情報処理システムの概略ブロック図である。 感覚間情報変換処理の一例を説明するための情報処理システムの概略ブロック図である。 図5のフローチャート中の継続判定処理の一例を説明するフローチャートである。 継続判定処理の一例を説明するための情報処理システムの概略ブロック図である。 図5及び図12のフローチャート中のFB可否判定処理の一例を説明するフローチャートである。 図14のフローチャート中のt = 0時処理の一例を説明するフローチャートである。 図14のフローチャート中のt ≠ 0時処理の一例を説明するフローチャートである。 FB提示処理の一例を説明するための情報処理システムの概略ブロック図である。 感覚間情報変換処理の一例を説明するための図である。 FB提示処理の一例を説明するための図である。
以下、図面を参照してこの発明に係わる実施形態を説明する。以下では、弁別能力の低い感覚として体性感覚を例に挙げて説明するが、外国語の聞き取りなど弁別能力の低い感覚であれば、これに限定されない。
図1は、多感覚FB(Feedback)による学習支援処理(基本処理)の一例を示すフローチャートである。図2は、学習支援処理を実行するための情報処理システム(基本構成)の一例を示す図である。
図2に示すように、本実施形態に係る情報処理システムは、情報処理装置1、体性感覚データ検出装置2、情報提示装置3を備える。情報処理装置1は、例えば1台又は複数台のコンピュータ(汎用のパーソナルコンピュータ含む)により構成することができる。情報処理装置1は、FB(Feedback)可否判定処理部11、目標値設定部12、継続判定処理部13、感覚間情報変換処理部14、体性感覚データ受信部15、及び感覚間情報対応付けDB(Database)16を備える。
FB可否判定処理部11、目標値設定部12、継続判定処理部13、感覚間情報変換処理部14、及び体性感覚データ受信部15は、例えば、1又は複数のCPU(Central Processing Unit)により構成することができる。これらFB可否判定処理部11、目標値設定部12、継続判定処理部13、感覚間情報変換処理部14、及び体性感覚データ受信部15は相互に通信可能に構成されており、例えば、体性感覚データ受信部15で受信された体性感覚データをFB可否判定処理部11、目標値設定部12、継続判定処理部13、及び感覚間情報変換処理部14の何れに送信することもできる。
また、感覚間情報対応付けDB16は、例えば、コンピュータに内蔵された又は外付けされた記憶装置により構成することができる。感覚間情報対応付けDB16は、感覚間情報対応付けDBを記憶する。例えば、感覚間情報対応付けDB16は、比較的弁別能力の低い第1の感覚に対応する複数の第1の感覚情報と、比較的弁別能力の高い(前記第1の感覚より弁別能力の高い)第2の感覚に対応する複数の第2の感覚情報を持ち、それら複数の感覚間それぞれの対応関係を示す感覚間情報対応付けDBを記憶する。例えば、この感覚間情報対応付けDBに基づき、ある一つの第1の感覚情報に対応する一つの第2の感覚情報を検索することができるので、ある一つの第1の感覚情報を第2の感覚情報へ変換することができる。また、この感覚間情報対応付けDBに基づき、ある一つの第1の感覚情報を複数の第2の感覚情報へ変換することや、ある複数の第1の感覚情報を複数の第2の感覚情報へ変換することができる。
例えば、第1の感覚としてDBが持つ複数の感覚情報の内、筋緊張度合い、関節角度、力の大きさ、及び身体位置の少なくとも一つを含む体性感覚情報を対象とすることができ、第2の感覚としてDBが持つ複数の感覚情報の内、視覚情報、聴覚情報、及び力覚刺激のうちの少なくとも一つを対象とすることができる。視覚情報は、数値、グラフ、画像、映像、及び色の少なくとも一つを含み、聴覚情報は、音の周波数、及び音の大きさ、音色の少なくとも一つを含むことができる。
体性感覚データ検出装置2は、例えば、力加減検出装置であり、圧力センサや光センサ、曲げセンサ(図4参照)等により構成することができる。例えば、曲げセンサは、比較的弁別能力の低い第1の感覚(加圧)を測定し測定結果を示す信号を出力する。体性感覚データ検出装置2は、曲げセンサからの信号に基づき体性感覚データ(測定感覚情報)を検出し、体性感覚データを情報処理装置1の体性感覚データ受信部15へ送信する。
情報提示装置3は、スクリーン及びスピーカ、振動子などの力覚提示デバイスのうちの少なくとも一つにより構成することができる。或いは、情報提示装置3は、プリンタ等で構成するようにしてもよく、上記スクリーンで表示される情報をプリンタ等でプリントするようにしてもよい。例えば、情報提示装置3は出力部31を備え、出力部31は出力値提示部311を備える。出力値提示部311は、情報処理装置1のFB可否判定処理部11からのFB可否判定を受信したり、目標値設定部12からの目標値を受信したりする。情報提示装置3の詳細な動作等については後に詳しく説明する。
図1に示すように、情報処理装置1(目標値設定部12)は、多感覚(視覚、聴覚、力覚など弁別能力が比較的高い感覚)による目標値提示処理を実行し(ST101)、例えば情報提示装置3(出力部31)は目標値を表示する。体性感覚データ検出装置2は、弁別能力が比較的低い第1の感覚(体性感覚(筋緊張度合い、関節角度、関節位置、力の大きさ、身体位置の少なくとも一つ)・運動情報等など)の計測処理を実行する(ST102)。例えば、体性感覚データ検出装置2の曲げセンサは押圧(第1の感覚に基づく押し込み動作に対応する押圧)を検出する。体性感覚データ検出装置2は検出された押圧値から体性感覚データ(測定感覚情報)を計測し、体性感覚データ受信部15は、体性感覚データ検出装置2により計測感覚情報を受信する。感覚間情報変換処理部14は、感覚間情報対応付けDBを参照し、測定感覚情報に対応する計測感覚情報を多感覚(視覚、聴覚、力覚など弁別能力が比較的高い第2の感覚)情報へ変換する変換処理を実行する(ST103)。例えば、感覚間情報対応付けDBが、比較的弁別能力の低い第1の感覚に対応する複数の第1の感覚情報と、比較的弁別能力の高い(前記第1の感覚より弁別能力の高い)第2の感覚に対応する複数の第2の感覚情報と、比較的弁別能力の高い(前記第1の感覚より弁別能力の高い)第3の感覚に対応する複数の第3の感覚情報との対応関係を示す感覚間情報対応付けDBであれば、測定感覚情報に対応する第1の感覚情報を検索し、測定感覚情報をこの検索された第1の感覚情報に対応する第2の感覚情報と第3の感覚情報へ変換することができる。
継続判定処理部13は、体性感覚データ検出装置2により計測された計測感覚情報に基づき、到達度判断処理を実行し(ST104)、目標値設定部12は、目標値設定処理を実行し(ST105)、FB可否判定処理部11は、多感覚(視覚、聴覚、力覚など弁別能力が高い感覚の内、判断処理で設定された感覚)情報でのFB提示処理を実行する(ST106)。目標値設定部12は、目標値到達度(つまり計測感覚情報や経過時間)に応じて目標値を維持したり、目標値を変更したりする。例えば、目標値設定部12は、目標値到達度が不十分であれば目標値を維持し、目標値到達度が十分であれば目標値を更新したりする。
また、FB可否判定処理部11は、FB提示到達度(つまり計測感覚情報や経過時間)に応じて、変換された多感覚情報に基づくFB提示処理を実行したり、FB提示処理を保留したりする。言い換えれば、FB可否判定処理部11は、測定感覚情報に含まれる測定値の極値や時間変化量から、FB提示処理を実行したり、FB提示処理を保留したりする。例えば、FB可否判定処理部11は、FB提示到達度が不十分であれば、FB提示処理を保留し、FB提示到達度が十分であれば、変換された多感覚情報に基づくFB提示処理を実行する。例えば、測定値が初めて極値を超えるまでや変化が大きい場合にはフィードバックを行わず、測定値が初めて極値を超えた後や変化が小さくなってからフィードバックを行うなどで、学習速度を促進したり、より効果的に定着させたりすることができる。
以下、楽器演奏を模した視聴覚FBによる学習支援(体性感覚(力加減)に対する運動学習支援)の一例について説明する。
概要は、次の通りである。
例えば、押圧力の大きさを(比較的弁別能力の低い第1の感覚に基づく動作から測定された値)、弁別能力の高い音の高さ(比較的弁別能力の高い第2の感覚情報)に変換し(楽器に見立てる)、さらに離散的に提示することで複数の押圧力に対する訓練を行う。また、メロディに合わせた提示をして定着率を向上させたり、訓練の継続性を高めるため、本実施形態で説明するシステムにより曲を演奏する。例えば、押圧力の大きさを曲中の一音へ変換し、曲として演奏可能な出力情報を提示する。また、聴覚(第2の感覚情報)によるフィードバックに加えて、視覚(第3の感覚情報)によるフィードバックを加えることにより、定着時の精度を向上させる。フィードバックを与えるタイミングを工夫する。
効果は、次の通りである。
例えば、押圧力制御の学習速度と定着率を向上させることができる。また、複数の押圧力制御の同時訓練として利用できる。また、聴覚フィードバックで定着率を向上させることができるのに加えて、視覚フィードバックで定着時の精度を向上させることが可能である。また、フィードバックを与えるタイミングを工夫することにより、定着時の精度が向上し、安定する。
図3は、学習支援処理を実行するための情報処理システム(オプション構成あり)の一例を示す図である。また、図4は、図3に示す情報処理システムの実現例を示す図である。
図3及び図4に示す情報処理システムは、図2に示す情報処理システムの基本構成をベースに構成されており、共通部分の説明は省略する。図3に示すように、情報処理システムの情報提示装置3は、さらに、入力部32を備える。入力部32は、目標値群選択部321を備える。図4に示すように、例えば、出力部31は、スクリーン及びスピーカであり、入力部32は、キーボードやマウスであり、目標値群選択部321は、キーボードを構成する各キーやマウスである。
また、図4に示すように、体性感覚データ検出装置2を構成する曲げセンサをボール等の内側に貼り付け、ユーザ(指)等によるボールへの加圧を曲げセンサで検出する。即ち、体性感覚データ検出装置2は、曲げセンサからの出力信号に基づき体性感覚データを検出し、体性感覚データを情報処理装置1の体性感覚データ受信部15へ送信する。
また、図3に示す情報処理システムの情報処理装置1は、さらに、目標値群DB17を備える。目標値群DB17は、コンピュータに内蔵された又は外付けされた記憶装置により構成することができる。目標値群DB17は、目標値としての加圧値を記憶する。
図5は、情報処理システムによる全体処理の一例を示すフローチャートである。図5に示すように、情報処理装置1(目標値設定部12)は、目標値提示処理を実行し(ST501)、目標値提示処理を実行する(ST501)。また、情報処理装置1(感覚間情報変換処理部14)は、感覚間情報変換処理を実行し(ST504)、情報処理装置1(継続判定処理部13)は、継続判定処理を実行し(ST505)、情報処理装置1(FB可否判定処理部11)は、FB可否判定処理を実行する(ST506)。情報処理装置1(FB可否判定処理部11)及び情報提示装置3(出力部31)は、FB提示処理を実行する(ST507)。なお、各処理については、この後、詳細に説明する。
続いて、図6及び図10を参照して、図5のフローチャート中の目標値設定処理(ST501)の一例について詳細に説明する。例えば、目標値は、第1の感覚に基づく押圧値である。
例えば、情報提示装置3(出力部31)は、目標値群DB17に基づき目標値群を出力(表示)する。ユーザは、入力部32の目標値群選択部321を介して、表示された目標値群の中から目標値群を選択する。つまり、目標値群選択部321は、ユーザの入力操作に対応した入力信号を受け取り(ST601、YES)、目標値群DB17の目標値群DBから目標値群を一つ選択する(ST602)。もしくは、システムが自動的に目標値群を選択する事も可能である。
目標値設定部12は、目標値が設定された回数nを判定し(n = 0,1,2,…)(ST603)、選択された目標値群の内の(n+1)番目の値を目標値としてFB可否判定処理部11及び感覚間情報変換処理部14へ設定する(ST604)。さらに目標値設定部12は、設定した目標値を出力値提示部311へ出力し(ST605)、回数nを保持する(ST606)。
続いて、図7及び図10を参照して、図5のフローチャート中の目標値提示処理(ST502)及び感覚間情報変換処理(ST504)の一例について詳細に説明する。
情報処理装置1の感覚間情報変換処理部14は、目標値設定部12から目標値を受け取り(ST701)、感覚間情報変換処理を実行する(ST504)。感覚間情報変換処理部14は、受け取った目標値に対応する感覚情報に変換する(ST702)。出力値提示部311は、変換された感覚情報を提示する(ST703)。時刻tを計測開始し(ST704)、目標値設定部12は、FB可否判定処理部11に目標値を渡す(ST706)。
続いて、図8及び図17を参照して、図5のフローチャート中のFB提示処理(ST507)の一例について詳細に説明する。
例えば、情報提示装置3(出力値提示部311)は、FB可否判定処理部11から感覚情報を受け取ると(ST801、YES)、受け取った感覚情報を提示する(ST802)。例えば、FB可否判定処理部11は、目標値設定部12から目標値を受け取り、感覚間情報変換処理部14から体性感覚値を受け取り、目標値に対する達成度(下記判断処理においては体性感覚値のピーク値を超えているか否か)に応じて、体性感覚値に対応する感覚情報を出力する。これにより、情報提示装置の出力値提示部311は、体性感覚値に対応する感覚情報を出力する。
続いて、図9及び図11を参照して、図5のフローチャート中の感覚間情報変換処理(ST504)の一例について詳細に説明する。
体性感覚データ受信部15は、体性感覚データ検出装置2から体性感覚データ(体性感覚値)を受け取り、感覚間情報変換処理部14は、体性感覚データ受信部15から体性感覚値を受け取る(ST901)。例えば、体性感覚データ検出装置2の曲げセンサが、比較的弁別能力の低い第1の感覚(加圧)を測定し測定結果を示す信号を出力し、体性感覚データ検出装置2はこの信号に基づき体性感覚データを検出する。感覚間情報変換処理部14は、FB可否判定処理部11に体性感覚値(時刻tにおける)を渡す(ST902)。
さらに、感覚間情報変換処理部14は、感覚間情報対応付けDB16から、体性感覚値に合致するものを参照し(ST903)、体性感覚値に対応する感覚情報を取得し(ST904)、FB可否判定処理部11に感覚情報を渡す(ST905)。つまり、感覚間情報変換処理部14は、感覚間情報対応付けDB16に基づき、測定結果に対応する第1の感覚値(体性感覚値)から第2の感覚値(視覚、聴覚等の感覚情報)へ変換する。第2の感覚値は1つ以上である。
続いて、図12及び図13を参照して、図5のフローチャート中の継続判定処理(ST505)の一例について詳細に説明する。
継続判定処理部13は、一回の目標値提示の継続時間を超えているか否か判定し(ST1201)、超えていなければ(ST1201、NO)、FB可否判定処理へ移行する(ST1205)。超えていれば(ST1201、YES)、継続判定処理部13は、目標値群DB17に(n+2)番目の目標値が存在するか否か判定する(ST1202)。目標値群DB17に(n+2)番目の目標値が存在しなければ(ST1202、NO)、継続判定処理部13は、処理を終了し、存在すれば(ST1202、YES)、nの値を一つ増やして目標値設定部12に渡し(n = n + 1)(ST1203)、目標値設定処理へ移行する(ST1204)。
続いて、図14を参照して、図5及び図12のフローチャート中のFB可否判定処理(ST506)(ST1205)の一例について詳細に説明する。
FB可否判定処理部11は、目標値設定部12から目標値(n回目)を受け取り(ST1401)、感覚間情報変換処理部14から体性感覚値(時刻tにおける)を受け取る(ST1402)。n = 0 であれば(ST1403、YES)、FB可否判定処理部11は、目標値(n=0)を保持する(ST1404)。時刻t = 0 であれば(ST1405、YES)、FB可否判定処理部11は、t = 0 時処理へ移行し(ST1406)、時刻t ≠ 0 であれば(ST1407、NO)、FB可否判定処理部11は、t ≠ 0 時処理へ移行する(ST1406)。t = 0 時処理及びt ≠ 0 時処理は、後に詳しく説明する。
FB可否判定処理部11は、目標値(n回目)が目標値(n-1)回目よりも大きいか判定し(ST1408)、目標値(n回目)が目標値(n-1)回目よりも大きい場合(ST1408、YES)、時刻t = 0 ならば(ST1409、YES)、t = 0 時処理へ移行し(ST1406)、時刻t ≠ 0 であれば(ST1409、NO)、t ≠ 0 時処理へ移行する(ST1406)。目標値(n回目)が目標値(n-1)回目よりも大きくない場合(ST1408、NO)、FB可否判定処理部11は、時刻t = 0 ならば(ST1410、YES)、t = 0 時処理へ移行し(ST1406)、時刻t ≠ 0 であれば(ST1410、NO)、判定フラグをチェックする(ST1411)。
判定フラグがオンであれば(ST1411、YES)、FB可否判定処理部11は、時刻tでの体性感覚値は時刻(t-1)での体性感覚値よりも小さいか判定し(ST1412)、小さい場合には(ST1412、YES)、時刻tでの体性感覚値を保持し(ST1413)、tの値を一つ増加するか(t = t + 1)(ST1414)、もしくは自動で時刻が取得される場合はtの値を増加する必要はない。FB可否判定処理部11は、時刻tでの体性感覚値は時刻(t-1)での体性感覚値よりも小さくない場合には(ST1412、NO)、時刻tの体性感覚値をピーク値として保持し(ST1415)、判定フラグをオフに設定し(ST1416)、tの値を一つ増加する(t = t + 1)(ST1414)か、もしくは自動で時刻が取得される場合はtの値を増加する必要はない。
続いて、図15を参照して、図14のフローチャート中のt = 0時処理(ST1406)の一例について詳細に説明する。
継続判定処理部13は、判定フラグをチェックし(ST1501)、判定フラグがオンであれば(ST1501、YES)、体性感覚値(t = 0)を保持し(ST1602)、tの値を一つ増加する(t = t + 1)(ST1603)。
続いて、図16を参照して、図14のフローチャート中のt ≠ 0時処理(ST1407)の一例について詳細に説明する。
継続判定処理部13は、判定フラグをチェックし(ST1601)、判定フラグがオンであれば(ST1601、YES)、時刻tでの体性感覚値は時刻(t-1)での体性感覚値よりも大きいか判定し(ST1602)、大きい場合には(ST1602、YES)、時刻tでの体性感覚値を保持し(ST1603)、tの値を一つ増加する(t = t + 1)(ST1605)か、もしくは自動で時刻が取得される場合はtの値を増加する必要はない。FB可否判定処理部11は、時刻tでの体性感覚値は時刻(t-1)での体性感覚値よりも大きくない場合には(ST1602、NO)、時刻tの体性感覚値をピーク値として保持し(ST1604)、判定フラグをオフに設定し(ST1606)、tの値を一つ増加する(t = t + 1)(ST1605)か、もしくは自動で時刻が取得される場合はtの値を増加する必要はない。
続いて、図18を参照し、感覚間情報変換処理部14による感覚間情報変換処理についてさらに詳しく説明する。
目標値提示後に押し込み度(押圧)が一定の割合以上で変化(一つ前の目標値が無い場合、もしくは一つ前の目標値が現在の目標値より低い場合は上昇、一つ前の目標値が現在の目標値より高い場合は下降)している期間を変化期と呼び、一定の割合以上で変化していない(押し込みを維持している)区間を維持期と呼ぶ。また、変化期終了時点の押し込み度をピーク値と呼ぶ。さらに、一回の目標値提示の継続時間をttotと呼ぶ。
tは時間を表し、p[t]はある時間tにおける押し込み度を表す。f[t]は聴覚フィードバックの提示周波数、y[t]は視覚フィードバックの提示位置を表す。k(k = 0, 1, 2, …)は段階数を表し、n(n = 0, 1, 2, …)は目標値提示回数(試行回数)を表す。F[k]、Y[k]はそれぞれのkに応じて定められた周波数、提示位置に対応しており、離散的な値(弁別が容易に可能な値、例えば白盤の音階に対応させている)である。
変換対応式は、C × (k-1) < p[t] < C × k のとき、以下の通りである。
・ f[t] = F[k]
・ y[t] = Y[k]
図18に示す「c」は定数で、同じ音、同じ視聴提示位置の範囲を示す。目標値P[n]において周波数F[k]、位置Y[k]となり、目標値P[n]を含む範囲Cを下回ると、周波数F[k-1]、位置Y[k-1]となり、目標値P[n]を含む範囲Cを上回ると、周波数F[k+1]、位置Y[k+1]となる。
続いて、図19を参照し、フィードバック提示例について説明する。図19に示すポイントAとBにおけるフィードバック提示例を説明する。
音提示例では、目標音提示(周波数F[k])とすると(F[k] = 523.25Hz:ド(C5)の音)、ポイントBではf[t] = F[k-1] = 493.88Hz:シ(B4)の音となり、その後のタイミングで、ポイントAではf[t] = F[k] = 523.25Hz:ド(C5)の音となる。
また、画面表示例では、目標位置提示(位置Y[k])とすると、ポイントBではy[t] = Y[k-1]となり、ポイントAではy[t] = Y[k]となる。
続いて、図18及び図19を参照し、フィードバックのタイミングの一例について説明する。FB可否判定処理部11は、フィードバックのタイミングを制御する。例えば、ピーク値以降の維持期にフィードバックを提示し、変化期にはフィードバックを提示しない。変化期にはフィードバックを提示しないことにより、学習効果の定着精度の向上を期待することができる。学習対象者が目標値と認識している押圧力を認識しないまま学習(訓練)を行うと、実際の目標値との乖離が生じ、学習効果の定着精度の向上が阻害される可能性がある。視覚フィードバック及び聴覚フィードバックともに同様のことが言える。
手指の押圧力訓練の際、目標値に達するまでの変化期(上昇期)にリアルタイムで視覚フィードバックを与えると、定着時の精度の向上が阻害されることがある。一方、目標値に達してからの維持期にリアルタイム視覚フィードバックを与える事で定着時の制御の安定性が向上する。
上記説明した情報処理システムによれば、例えば、体性感覚よりも空間・時間分解能の高い視覚、聴覚、力覚などを利用したフィードバック(例えばマルチモーダルフィードバック)を行うことができる。また、体性感覚よりも空間・時間分解能の高いフィードバックを与えることによって、内部モデルの構築が効果的に進み、運動学習の学習速度と定着率を向上させることができる。
さらに、本情報処理システムによれば、運動学習だけでなく、弁別能力に着目した幅広い学習支援にも利用できる。例えば、英語の聞き分けなどにも利用できる。
なお、上記した情報処理システム(情報処理装置1等)による各処理の手順はソフトウェアによって実行することが可能である。このため、上記処理の手順を実行するプログラムをダウンロードしこのプログラムを汎用のコンピュータにインストールして実行するだけで、上記処理を容易に実現することができる。或いは、上記処理の手順を実行するプログラムを格納したコンピュータ読み取り可能な記憶媒体、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等を通じてこのプログラムを汎用のコンピュータにインストールして実行するだけで、上記処理を容易に実現することができる。
例えば、情報処理システム(情報処理装置1等)は、上記プログラムをダウンロードし、ダウンロードしたプログラムを記憶し、プログラムのインストールを完了することができる。また、情報処理システムは、コンピュータ読み取り可能な記憶媒体から上記プログラムを読み取り、読み取ったプログラムを記憶し、プログラムのインストールを完了することができる。これにより、情報処理システムは、インストールされた上記プログラムに基づき、上記処理を容易に実現することができる。
その他にも、この発明の要旨を逸脱しない範囲で種々変形して実施可能である。
要するにこの発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。
1…情報処理装置、2…体性感覚データ検出装置、3…情報提示装置、11…FB可否判定処理部、12…目標値設定部、13…継続判定処理部、14…感覚間情報変換処理部、15…体性感覚データ受信部、16…感覚間情報対応付けDB、17…目標値群DB、31…出力部、32…入力部、311…出力値提示部、321…目標値群選択部。

Claims (8)

  1. 測定感覚情報を受信する受信部と、
    第1の感覚に対応する複数の第1の感覚情報と前記第1の感覚より弁別能力の高い第2の感覚に対応する複数の第2の感覚情報を持ち、それらの感覚間の対応関係を示すデータベースに基づき、前記測定感覚情報に対応する第1の感覚情報から第2の感覚情報へ変換する変換部と、
    前記測定感覚情報に基づきフィードバックの要否を判定し、フィードバックを必要と判定した場合に前記変換された前記第2の感覚情報に基づく出力情報を出力する情報処理部と、
    を備える感覚情報処理装置。
  2. 前記第1の感覚として、筋緊張度合い、関節角度、力の大きさ、及び身体位置の少なくとも一つを含む体性感覚情報や外国語の聞き分け能力など弁別能力の低い感覚情報を対象とすることを特徴とする請求項1記載の感覚情報処理装置。
  3. 前記第2の感覚として視覚情報、聴覚情報、及び力覚刺激のうちの少なくとも一つを対象とし、
    前記視覚情報は、数値、グラフ、画像、映像、及び色の少なくとも一つを含み、
    前記聴覚情報は、音の周波数、及び音の大きさ、音色の少なくとも一つを含むことを特徴とする請求項1記載の感覚情報処理装置。
  4. 前記情報処理部は、前記変換された前記第2の感覚情報に対応する前記視覚情報、前記聴覚情報、及び前記力覚刺激の内、2つ以上の情報を出力する請求項3記載の感覚情報処理装置。
  5. 前記情報処理部は、前記変換された前記第2の感覚情報に基づく出力情報を離散的な値として出力することを特徴とする請求項1記載の感覚情報処理装置。
  6. 前記情報処理部は、前記測定感覚情報に含まれる測定値の極値や時間変化量から、前記フィードバックの要否を判定する請求項1記載の感覚情報処理装置。
  7. 測定感覚情報を受信し、
    第1の感覚に対応する複数の第1の感覚情報と前記第1の感覚より弁別能力の高い第2の感覚に対応する複数の第2の感覚情報を持ち、それらの感覚間の対応関係を示すデータベースに基づき、前記測定感覚情報に対応する第1の感覚情報から第2の感覚情報へ変換し、
    前記測定感覚情報に基づきフィードバックの要否を判定し、フィードバックを必要と判定した場合に前記変換された前記第2の感覚情報に基づく出力情報を出力する感覚情報処理方法。
  8. コンピュータに、
    測定感覚情報を受信する手順と、
    第1の感覚に対応する複数の第1の感覚情報と前記第1の感覚より弁別能力の高い第2の感覚に対応する複数の第2の感覚情報を持ち、それらの感覚間の対応関係を示すデータベースに基づき、前記測定感覚情報に対応する第1の感覚情報から第2の感覚情報へ変換する手順と、
    前記測定感覚情報に基づきフィードバックの要否を判定し、フィードバックを必要と判定した場合に前記変換された前記第2の感覚情報に基づく出力情報を出力する手順と、
    を実行させるためのプログラム。
JP2015119786A 2015-06-12 2015-06-12 学習支援装置、学習支援方法、及びプログラム Active JP6530975B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015119786A JP6530975B2 (ja) 2015-06-12 2015-06-12 学習支援装置、学習支援方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015119786A JP6530975B2 (ja) 2015-06-12 2015-06-12 学習支援装置、学習支援方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2017003885A true JP2017003885A (ja) 2017-01-05
JP6530975B2 JP6530975B2 (ja) 2019-06-12

Family

ID=57754101

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015119786A Active JP6530975B2 (ja) 2015-06-12 2015-06-12 学習支援装置、学習支援方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP6530975B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019087502A1 (ja) * 2017-10-31 2019-05-09 ソニー株式会社 情報処理装置、情報処理方法およびプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060129059A1 (en) * 2004-12-11 2006-06-15 Samsung Electronics Co., Ltd. Attitude correction apparatus and method
JP2011512208A (ja) * 2008-02-22 2011-04-21 エルンスト,アルネボルグ 筋電位を使用した前庭反射弓の機能診断のための装置
US20110288445A1 (en) * 2010-05-18 2011-11-24 Erik Lillydahl Systems and methods for reducing subconscious neuromuscular tension including bruxism
JP2011237676A (ja) * 2010-05-12 2011-11-24 Prefectural Univ Of Hiroshima 発話訓練装置
JP2012532340A (ja) * 2009-07-02 2012-12-13 ザ ウェイ オブ エイチ, インコーポレイテッド 音楽教育システム
WO2014197443A1 (en) * 2013-06-03 2014-12-11 Kacyvenski Isaiah Motion sensor and analysis

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060129059A1 (en) * 2004-12-11 2006-06-15 Samsung Electronics Co., Ltd. Attitude correction apparatus and method
JP2011512208A (ja) * 2008-02-22 2011-04-21 エルンスト,アルネボルグ 筋電位を使用した前庭反射弓の機能診断のための装置
JP2012532340A (ja) * 2009-07-02 2012-12-13 ザ ウェイ オブ エイチ, インコーポレイテッド 音楽教育システム
JP2011237676A (ja) * 2010-05-12 2011-11-24 Prefectural Univ Of Hiroshima 発話訓練装置
US20110288445A1 (en) * 2010-05-18 2011-11-24 Erik Lillydahl Systems and methods for reducing subconscious neuromuscular tension including bruxism
WO2014197443A1 (en) * 2013-06-03 2014-12-11 Kacyvenski Isaiah Motion sensor and analysis

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
黒澤慎也他3名: "筋電位信号を利用した触力覚提示手法の開発", 第13回日本バーチャルリアリティ学会大会論文集[DVD−ROM], JPN6018029480, 24 September 2008 (2008-09-24), JP, pages 117 - 118, ISSN: 0003849528 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019087502A1 (ja) * 2017-10-31 2019-05-09 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US11169599B2 (en) 2017-10-31 2021-11-09 Sony Corporation Information processing apparatus, information processing method, and program

Also Published As

Publication number Publication date
JP6530975B2 (ja) 2019-06-12

Similar Documents

Publication Publication Date Title
US20190272810A1 (en) Smart detecting and feedback system for smart piano
KR102352652B1 (ko) 언어-관련 장애들의 진단 및 치료를 위한 컴퓨팅 기술들
JP6172417B1 (ja) 語学学習システム及び語学学習プログラム
US20160321953A1 (en) Pronunciation learning support system utilizing three-dimensional multimedia and pronunciation learning support method thereof
Marky et al. Let’s frets! Assisting guitar students during practice via capacitive sensing
US11210964B2 (en) Learning tool and method
GB2584236A (en) A system for recorded e-book digital content playout
KR102225435B1 (ko) Stt 기반 언어구사 학습-훈련 시스템
KR20210070270A (ko) 정보 처리 장치
Allingham et al. Motor performance in violin bowing: Effects of attentional focus on acoustical, physiological and physical parameters of a sound-producing action
KR102542602B1 (ko) 개인화된 발음 평가 문제 제공 방법
KR20080081871A (ko) 외국어 학습 제어방법
KR102410110B1 (ko) 한국어 학습 서비스 제공 방법
JP2017003885A (ja) 情報出力装置、情報出力方法、及びプログラム
CN110890095A (zh) 语音检测方法、推荐方法、装置、存储介质和电子设备
JP2018013625A (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP2006195094A (ja) 発音学習支援装置
JP4626310B2 (ja) 発音評価装置
KR102321141B1 (ko) 발음 평가를 위한 사용자 인터페이스 제공 장치 및 방법
JP4779365B2 (ja) 発音矯正支援装置
Kritsis et al. Design and interaction of 3d virtual music instruments for steam education using web technologies
Żygis et al. Orofacial expressions in German questions and statements in voiced and whispered speech
JP2022550396A (ja) 言語教授機械
坂尻正次 et al. Development of voice pitch control system using two dimensional tactile display for the deafblind or the hearing impaired persons
Slis et al. Lingual Behavior in Clarinet Articulation: A Multiple-Case Study Into Single and Double Tonguing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181002

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190520

R150 Certificate of patent or registration of utility model

Ref document number: 6530975

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150