JP2022097227A - 情報提供装置、情報提供方法、およびプログラム - Google Patents

情報提供装置、情報提供方法、およびプログラム Download PDF

Info

Publication number
JP2022097227A
JP2022097227A JP2020210687A JP2020210687A JP2022097227A JP 2022097227 A JP2022097227 A JP 2022097227A JP 2020210687 A JP2020210687 A JP 2020210687A JP 2020210687 A JP2020210687 A JP 2020210687A JP 2022097227 A JP2022097227 A JP 2022097227A
Authority
JP
Japan
Prior art keywords
sensory
stimulus information
sensory stimulus
time
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020210687A
Other languages
English (en)
Inventor
隆幸 菅原
Takayuki Sugawara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2020210687A priority Critical patent/JP2022097227A/ja
Priority to PCT/JP2021/046592 priority patent/WO2022131343A1/ja
Publication of JP2022097227A publication Critical patent/JP2022097227A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/21Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information

Abstract

【課題】複数の感覚を刺激することで適切に情報を提供すること。【解決手段】情報提供装置は、ユーザの第1感覚を刺激する第1感覚刺激情報を検出する検出部と、第1感覚刺激情報に基づいて、第1感覚とは異なるユーザの第2感覚を刺激する第2感覚刺激情報を生成する生成部と、第1感覚刺激情報と、第2感覚刺激情報とを同期してユーザに提供する提供部と、を備える。【選択図】図2

Description

本発明は、情報提供装置、情報提供方法、およびプログラムに関する。
近年、スマートフォンを中心に、高度な情報処理を実行することのできるCPU(Central Processing Unit)を搭載しているウエラブルデバイスの開発が進められている。このようなウエラブルデバイスとしては、ユーザの頭部に装着されるヘッドマウントディスプレイ方式のウエラブルデバイスが注目されている。例えば、特許文献1には、複数の感覚情報を統合してユーザに提示することによって、仮想物体が実在しているような感覚をユーザに与える技術が記載されている。
特開2011-96171号公報
ここで、ユーザの情報を提供する装置において、複数の感覚を刺激することで適切に情報を提供することが求められている。
本発明は、複数の感覚を刺激することで適切に情報を提供することのできる情報提供装置、情報提供方法、およびプログラムを提供することを目的とする。
本発明に係る情報提供装置は、ユーザの第1感覚を刺激する第1感覚刺激情報を検出する検出部と、前記第1感覚刺激情報に基づいて、前記第1感覚とは異なる前記ユーザの第2感覚を刺激する第2感覚刺激情報を生成する生成部と、前記第1感覚刺激情報と、前記第2感覚刺激情報とを同期して前記ユーザに提供する提供部と、を備える。
本発明に係る情報提供装置は、ユーザの複数種類の感覚を刺激する複数種類の感覚刺激情報を含む第1感覚刺激情報を検出する検出部と、前記第1感覚刺激情報に含まれる複数種類の感覚刺激情報のうち、少なくとも2つの感覚刺激情報に基づいて、前記少なくとも2つの感覚刺激情報とは異なる前記ユーザの第2感覚を刺激する第2感覚刺激情報を生成する生成部と、前記第1感覚刺激情報と、前記第2感覚刺激情報とを同期して前記ユーザに提供する提供部と、を備える。
本発明に係る情報提供方法は、ユーザの第1感覚を刺激する第1感覚刺激情報を検出するステップと、前記第1感覚刺激情報に基づいて、前記第1感覚とは異なる前記ユーザの第2感覚を刺激する第2感覚刺激情報を生成するステップと、前記第1感覚刺激情報と、前記第2感覚刺激情報とを同期して前記ユーザに提供するステップと、を含む。
本発明に係るプログラムは、ユーザの第1感覚を刺激する第1感覚刺激情報を検出するステップと、前記第1感覚刺激情報に基づいて、前記第1感覚とは異なる前記ユーザの第2感覚を刺激する第2感覚刺激情報を生成するステップと、前記第1感覚刺激情報と、前記第2感覚刺激情報とを同期して前記ユーザに提供するステップと、をコンピュータに実行させる。
本発明によれば、複数の感覚を刺激することで適切に情報を提供することができる。
図1は、第1実施形態に係る情報提供装置の模式図である。 図2は、第1実施形態に係る情報提供装置の構成例を示すブロック図である。 図3は、第1実施形態に係る情報提供装置の処理の流れの一例を示すフローチャートである。 図4は、第1実施形態に係る音声信号の音声レベルを説明するための図である。 図5は、第1実施形態に係る第2感覚刺激情報を出力するタイミングを算出する方法を説明するための図である。 図6は、検出した音声に基づいて振動のリズムを生成する方法を説明するための図である。 図7は、第1実施形態の第1変形例に係る情報提供装置の構成例を示すブロック図である。 図8は、第1実施形態の第1変形例に係る情報提供装置の処理の流れの一例を示すフローチャートである。 図9は、第1実施形態の変形例に係る音声信号の音声のパワー値を説明するための図である。 図10は、閾値を変更する方法を説明するための図である。 図11は、第2実施形態に係る情報提供装置の構成例を示すブロック図である。 図12は、第2実施形態に係る情報提供装置の処理の流れの一例を示すフローチャートである。 図13は、動きベクトルの合計値を算出する方法を説明するための図である。 図14は、触覚刺激を出力するタイミングを算出する方法を説明するための図である。 図15は、第3実施形態に係る情報提供装置の構成例を示すブロック図である。 図16は、第3実施形態に係る情報提供装置の処理の流れの一例を示すフローチャートである。 図17は、触覚刺激を出力するタイミングを算出する方法を説明するための図である。
以下に、本発明の実施形態を図面に基づいて詳細に説明する。なお、以下に説明する実施形態により本発明が限定されるものではない。
[概要]
本発明の実施形態を説明する前に、実施形態に係る処理の概要について説明する。
人の大脳新皮質は、前頭葉、頭頂葉、側頭葉、および後頭葉を含む。前頭葉は、大脳新皮質の前方に位置している。前頭葉は、精神活動、運動性言語、および随意運動を司っている。頭頂葉は、前頭葉の後ろに位置している。頭頂葉は、感覚情報の統合と認知、空間認知、視覚認知を司っている。側頭葉は、大脳新皮質の両サイドに位置する。側頭葉は、聴覚、嗅覚、記憶、感覚性言語を司っている。後頭葉は、大脳新皮質の最後部に位置している。後頭葉は、視覚情報の統合と、認知機能を司っている。
人のいわゆる五感の機能は、主として側頭葉に集まっている。側頭葉の中央部には嗅覚、味覚に近接して聴覚、聴覚の上には触覚、触覚に後ろには味覚に対応する連合野が存在する。後頭葉には、視覚に対応する連合野が存在する。
脳の働きの中のうち、聴覚、視覚、および触覚を対象として説明する。音声が発せられると、音声は空気を媒質として、外耳道、中耳、内耳の順に気導音として音が伝搬する。人は、聴覚神経が気導音をとらえることで、発せられた音声を知覚する。感覚器官が働くと、その対応部分には血流が増加するなどの生理現象が起きる。これは、fMRI(functional Magnetic Resonance Imaging)などの検査機により、観察することができる。
本発明の実施形態では、1つの感覚で刺激を受けて、その感覚に対応する脳の対応部分が活性化している際に、その他の感覚に対応する脳の対応部分も活性化させることにより、記憶保持能力を高めることを目的とする。
[第1実施形態]
(情報提供装置)
図1は、第1実施形態に係る情報提供装置の模式図である。本実施形態に係る情報提供装置10は、ユーザUに、視覚刺激と聴覚刺激と感覚刺激とを出力することで、ユーザUに情報を提供する装置である。ここでの感覚刺激は、視覚及び聴覚とは異なる感覚に対する刺激である。本実施形態では、感覚刺激は、触覚刺激であるが、触覚刺激であることに限られず、視覚及び聴覚とは異なる任意の感覚に対する刺激であってよい。例えば、感覚刺激は、味覚に対する刺激であってもよいし、嗅覚に対する刺激であってもよいし、触覚、味覚、及び聴覚のうちの2つ以上に対する刺激であってもよい。図1に示すように、情報提供装置10は、ユーザUの体に装着される、いわゆるウェアラブルデバイスである。本実施形態の例では、情報提供装置10は、ユーザUの目に装着される装置10Aと、ユーザUの耳に装着される装置10Bと、ユーザの目と耳との間に装着される装置10Cとを含む。ユーザUの目に装着される装置10AはユーザUに視覚刺激を出力する(画像を表示する)後述の表示部26Aを含み、ユーザUの耳に装着される装置10Bは、ユーザUに聴覚刺激(音声)を出力する後述の音声出力部16Bを含み、ユーザUの目と耳との間に装着される装置10Cは、ユーザUに感覚刺激を出力する後述の感覚刺激出力部26Cを含む。ただし、図1の構成は一例であり、装置の数や、ユーザUへの装着位置も任意であってよい。例えば、情報提供装置10は、ウェアラブルデバイスに限られず、ユーザUに携帯される装置であってよく、例えばいわゆるスマートフォンやタブレット端末などであってもよい。
図2は、第1実施形態に係る情報提供装置の構成例を示すブロック図である。図2に示すように、情報提供装置10は、第1感覚刺激情報検出部12と、入力部14と、出力部16と、記憶部18と、制御部20と、を備える。
第1感覚刺激情報検出部12は、ユーザUの第1感覚を刺激する第1感覚刺激情報を取得する。第1感覚刺激情報検出部12は、マイク12Aを備える。すなわち、本実施形態では、第1感覚刺激情報検出部12は、ユーザUの聴覚を刺激する聴覚刺激情報を検出する。すなわち、第1感覚刺激情報は、ユーザUの聴覚を刺激する聴覚刺激情報を含む。
マイク12Aは、情報提供装置10(ユーザU)の周辺の音声(音波情報)を検出するマイクである。マイク12Aは、例えば、ユーザUが正面の方向にいる他のユーザの声を検出可能な位置に設けられている。なお、情報提供装置10において、マイク12Aの設けられる位置、向き、及び数などは任意である。マイク12Aが複数ある場合には、マイク12Aが向いている複数の方向の情報も取得される。
入力部14は、ユーザUの操作を受け付ける装置であり、例えば、ボタン、スイッチ、タッチパネルなどであってよい。
出力部16は、ユーザUに対して五感のうちの少なくとも1つに対する刺激を出力する装置である。具体的には、出力部16は、表示部16Aと音声出力部16Bと感覚刺激出力部16Cとを有する。表示部16Aは、画像を表示することでユーザUの視覚刺激を出力するディスプレイであり、視覚刺激出力部と言い換えることもできる。本実施形態では、表示部16Aは、いわゆるHMD(Head Mounted Display)である。音声出力部16Bは、音声を出力することでユーザUの聴覚刺激を出力する装置(スピーカ)であり、聴覚刺激出力部と言い換えることもできる。感覚刺激出力部16Cは、ユーザUの感覚刺激を、本実施形態では触覚刺激を、出力する装置である。例えば、感覚刺激出力部16Cは、バイブレータなどの振動モータであり、振動などの物理的に作動することで、ユーザに触覚刺激を出力するが、触覚刺激の種類は、振動などに限られず任意のものであってよい。感覚刺激出力部16Cが出力する刺激は、ハプティクス技術で実現され得る。
このように、出力部16は、人の五感のうち、視覚、聴覚、及び視覚と聴覚とは異なる感覚(本実施形態では触覚)を刺激する。出力部16は、視覚刺激、聴覚刺激、及び視覚と聴覚とは異なる感覚を出力することに限られない。例えば、出力部16は、視覚刺激、聴覚刺激、及び視覚と聴覚とは異なる感覚の少なくとも1つを出力するものであってもよいし、少なくとも視覚刺激を出力する(画像を表示する)ものであってもよいし、視覚刺激に加えて、聴覚刺激及び触覚のいずれかを出力するものであってもよいし、視覚刺激、聴覚刺激、及び触覚の少なくとも1つに加えて、五感のうちの他の感覚刺激(すなわち味覚刺激及び嗅覚刺激の少なくとも1つ)を出力するものであってもよい。
記憶部18は、制御部20の演算内容やプログラムなどの各種情報を記憶するメモリであり、例えば、RAM(Random Access Memory)と、ROM(Read Only Memory)のような主記憶装置と、HDD(Hard Disk Drive)などの外部記憶装置とのうち、少なくとも1つ含む。
制御部20は、情報提供装置10の各部の動作を制御する。制御部20は、例えば、CPUやMPU(Micro Processing Unit)等によって、記憶部18に記憶されたプログラムがRAM等を作業領域として実行されることにより実現される。制御部20は、本発明に係るプログラムを動作させるコンピュータである。制御部20は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。制御部20は、ハードウェアと、ソフトウェアとの組み合わせで実現されてもよい。
制御部20は、第1感覚刺激情報取得部30と、フィルタ処理部32と、パワー値算出部34と、第2感覚刺激情報生成部36と、出力制御部38と、を備える。
第1感覚刺激情報取得部30は、第1感覚刺激情報検出部12を制御して、第1感覚刺激情報取得部30に第1感覚刺激情報を検出させる。第1感覚刺激情報取得部30は、第1感覚刺激情報検出部12が検出した第1感覚刺激情報を取得する。第1感覚刺激情報取得部30は、音声取得部30Aを有する。
音声取得部30Aは、マイク12Aを制御して、マイク12Aに音声を収音させる。音声取得部30Aは、マイク12Aが収音した音声を取得する。音声取得部30Aは、取得した音声に関する音声信号をフィルタ処理部32に出力する。
フィルタ処理部32は、音声取得部30Aから入力された音声信号に含まれる背景ノイズを除去する。フィルタ処理部32は、背景ノイズを除去した音声信号をパワー値算出部34に出力する。
パワー値算出部34は、フィルタ処理部32から入力された音声信号の大きさを示す音声レベルを算出する。
第2感覚刺激情報生成部36は、第1感覚刺激情報取得部30が取得した第1感覚刺激情報に基づいて、第1感覚刺激情報とは異なる第2感覚刺激情報を生成する。第2感覚刺激情報生成部36は、例えば、パワー値算出部34の算出結果に基づいて、第2感覚刺激情報を出力するタイミングを算出する。すなわち、第2感覚刺激情報生成部36は、刺激を出力するオンとオフとのタイミングを算出する。本実施形態では、第2感覚刺激情報は、例えば、ユーザの触覚を刺激する触覚刺激情報であり得る。第2感覚刺激情報は、例えば、味覚刺激情報および嗅覚刺激情報などであってもよい。
出力制御部38は、出力部16を制御して、出力を行わせる。出力制御部38は、表示部16Aを制御して、表示部16Aに映像の出力を行わせる。出力制御部38は、音声出力部16Bを制御して、音声出力部16Bに音声の出力を行わせる。出力制御部38は、感覚刺激出力部16Cを制御して、感覚刺激出力部16Cに振動の出力を行わせる。出力制御部38は、例えば、第2感覚刺激情報生成部36が算出したタイミングで、感覚刺激出力部16Cに振動の出力を行わせる。出力制御部38は、第2感覚刺激をユーザUに提供するため提供部とも呼ばれ得る。
[処理内容]
図3を用いて、第1実施形態に係る情報提供装置の処理の流れについて説明する。図3は、第1実施形態に係る情報提供装置の処理の流れの一例を示すフローチャートである。
まず、音声取得部30Aは、マイク12Aから音声を取得する(ステップS10)。具体的には、音声取得部30Aは、マイク12Aから人物の音声を取得する。音声取得部30Aは、例えば、情報提供装置10を装着しているユーザUに向かって話しかけている人物の音声を、マイク12Aから取得する。
フィルタ処理部32は、音声取得部30Aが取得した音声に関する音声信号に対してフィルタ処理を行う(ステップS12)。具体的には、フィルタ処理部32は、例えば、フィルタ処理を行い、音声信号に含まれる背景ノイズを除去することで、音声信号を人の声の周波数帯域(100から800Hz)の成分に成形する。言い換えれば、フィルタ処理部32は、音声取得部30Aが取得した音声から人物の音声を抽出する。
パワー値算出部34は、フィルタ処理が行われた音声信号における、時間ごとの音声レベルを算出する(ステップS14)。具体的には、パワー値算出部34は、例えば、時間ごとの音声信号の音声レベルが、予め定められた閾値以上であるか否かを算出する。パワー値算出部34は、例えば、時間ごとに算出された音声レベルのグラフを生成する。なお、音声レベルの閾値は、所定期間の音声レベルに基づいて、設定され得る。
図4を用いて、第1実施形態に係る音声信号の音声レベルを説明する。図4は、第1実施形態に係る音声信号の音声レベルを説明するための図である。
図4に示すグラフG1は時間ごとの音声レベルの変化を示すグラフである。グラフG1の横軸は時間、縦軸は音声レベルを示す。音声レベルには、予め所定の閾値が定められている。グラフG1において、時間t1から時間t2の間の音声レベルは、閾値以上である。時間t2から時間t3の間の音声レベルは、閾値以下である。時間t3から時間t4の間の音声レベルは、閾値以上である、時間t4から時間t5の間の音声レベルは、閾値以下である。時間t5から時間t6の間の音声レベルは、閾値以上である。時間t6から時間t7の間の音声レベルは、閾値以下である。時間t7から時間t8の間の音声レベルは、閾値以下である。時間t8から時間t9の間の音声レベルは、閾値以上である。図4に示すようにパワー値算出部34は、時間ごとの音声レベルを算出することができる。
図3に戻る。第2感覚刺激情報生成部36は、第2感覚刺激情報としての触覚刺激を出力するタイミングを算出する(ステップS16)。具体的には、第2感覚刺激情報生成部36は、パワー値算出部34の算出結果に基づいて、触覚を刺激するリズムを生成する。
図5を用いて、第1実施形態に係る第2感覚刺激情報を出力するタイミングを算出する方法について説明する。図5は、第1実施形態に係る第2感覚刺激情報を出力するタイミングを算出する方法を説明するための図である。
図5に示すように、第2感覚刺激情報生成部36は、音声レベルが閾値以上となるタイミングおよび閾値以下となるタイミングに基づいて、触覚刺激を出力するタイミングを算出する。
時間t1から時間t2の間の期間は、音声レベルが閾値以下となっている期間である。第2感覚刺激情報生成部36は、例えば、音声レベルが閾値以上となる時間t1の時点を、触覚刺激を開始するタイミングであると判定する。第2感覚刺激情報生成部36は、音声レベルが閾値以下となる時間t2の時点を、触覚刺激を終了するタイミングであると判定する。第2感覚刺激情報生成部36は、時間t1から時間t2の間の期間は、継続して振動を発生させる期間であると判定する。
時間t2から時間t3の間の期間は、音声レベルが閾値以下となっている期間である。第2感覚刺激情報生成部36は、時間t2から時間t3の間の期間は、振動を発生させない期間であると判定する。
時間t3から時間t4の間の期間は、音声レベルが閾値以上となっている期間である。第2感覚刺激情報生成部36は、例えば、音声レベルが閾値以上となる時間t3の時点を、触覚刺激を開始するタイミングであると判定する。第2感覚刺激情報生成部36は、音声レベルが閾値以下となる時間t4の時点を、触覚刺激を終了するタイミングであると判定する。第2感覚刺激情報生成部36は、時間t3から時間t4の間の期間は、継続して振動を発生させる期間であると判定する。
時間t4から時間t5の間の期間は、音声レベルが閾値以下となっている期間である。第2感覚刺激情報生成部36は、時間t4から時間t5の間の期間は、振動を発生させない期間であると判定する。
時間t5から時間t6の間の期間は、音声レベルが閾値以上となっている期間である。第2感覚刺激情報生成部36は、例えば、音声レベルが閾値以上となる時間t5の時点を、触覚刺激を開始するタイミングであると判定する。第2感覚刺激情報生成部36は、音声レベルが閾値以下となる時間t6の時点を、触覚刺激を終了するタイミングであると判定する。第2感覚刺激情報生成部36は、時間t5から時間t6の間の期間は、継続して振動を発生させる期間であると判定する。
時間t6から時間t7の間の期間は、音声レベルが閾値以下となっている期間である。第2感覚刺激情報生成部36は、時間t6から時間t7の間の期間は、振動を発生させない期間であると判定する。
時間t7は、音声レベルが閾値に達した後、直ぐに閾値未満となった時点である。この場合、第2感覚刺激情報生成部36は、時間t7では、振動を発生させた後、直ぐに振動の発生を止めると判定する。
時間t7から時間t8の間の期間は、音声レベルが閾値以下となっている期間である。第2感覚刺激情報生成部36は、時間t7から時間t8の間の期間は、振動を発生させない期間であると判定する。
時間t8から時間t9の間の期間は、音声レベルが閾値以上となっている期間である。第2感覚刺激情報生成部36は、例えば音声レベルが閾値以上となる時間t8の時点を、触覚刺激を開始するタイミングであると判定する。第2感覚刺激情報生成部36は、音声レベルが閾値以下となる時間t9の時点を、触覚刺激を終了するタイミングであると判定する。第2感覚刺激情報生成部36は、時間t5から時間t6の間の期間は、継続して振動を発生させる期間であると判定する。
すなわち、第2感覚刺激情報生成部36は、時間t1のタイミングで振動を発生させて、時間t2のタイミングで振動を終了させると判定する。第2感覚刺激情報生成部36は、時間t3のタイミングで振動を発生させて、時間t4のタイミングで振動を終了させると判定する。第2感覚刺激情報生成部36は、時間t5のタイミングで振動を発生させて、時間t6のタイミングで振動を終了させると判定する。第2感覚刺激情報生成部36は、時間t7のタイミングで、一時的な振動を発生させると判定する。第2感覚刺激情報生成部36は、時間t8のタイミングで振動を発生させて、時間t9のタイミングで振動を終了させると判定する。このように、第2感覚刺激情報生成部36は、振動のリズムを生成する。
図6を用いて、検出した音声に基づいて振動のリズムを生成する方法を説明する。図6は、検出した音声に基づいて振動のリズムを生成する方法を説明するための図である。
例えば、音声取得部30Aは、ステップS10において、「お爺ちゃんリンゴを買ってきて」という音声を取得したとする。この場合、「おじーちゃん_りんごをかっ_て_きて」のように音節に分解することができる。第2感覚刺激情報生成部36は、「おじーちゃん_りんごをかっ_て_きて」に基づいて、「〇〇-〇〇・・〇・〇〇・・〇・・〇〇」といったリズムを生成する。ここで、「〇」は、振動を発生させるタイミングを意味する「・」は、待機時間を意味する。第2感覚刺激情報生成部36は、音声取得部30Aが取得した音声に応じたリズムを生成する。
図3に戻る。出力制御部38は、触覚刺激を出力する(ステップS18)。具体的には、出力制御部38は、ステップS16で算出された第2感覚刺激情報のタイミングに従って、感覚刺激出力部16Cを制御して、振動を出力させる。より具体的には、出力制御部38は、音声取得部30Aが取得した音声と、同期するように第2感覚刺激情報のタイミングに従って、感覚刺激出力部16Cを制御して、振動を出力させる。本実施形態では、出力制御部38が感覚刺激出力部16Cを制御することにより、ユーザUのこめかみ部分に触覚として刺激する。
すなわち、出力制御部38は、ユーザUが聴覚刺激として受けている音声を、その音声に同期してタイミングと強度がコントロールされた皮膚への触覚刺激を与えるように、感覚刺激出力部16Cを制御する。本実施形態では、感覚刺激出力部16Cは、例えば、皮膚へ弱電圧信号として、パルスをかけるように構成され得る。感覚刺激出力部16Cは、例えば、金属などの物体の動きをこめかみの骨に振動として直接響かせるように構成されていてもよい。
感覚刺激出力部16Cは、こめかみの表面だけでなく、表面から少し深部を刺激するように構成されていてもよい。この場合、感覚刺激出力部16Cは、直列に接続された1組の渦巻き状のコイルを含み得る。一方のコイルにおいて内側から外側に向かって電流を流し、他方のコイルにおいて外側から内側に向かって電流を流すと、それぞれに磁場が発生する。これにより、皮下部に渦電流が発生し、表面から少し深部が刺激され得る。
図3に戻る。制御部20は、処理を終了するか(ステップS20)。具体的には、制御部20は、処理を終了する操作を受け付けた場合、電源をオフにする操作を受け付けた場合に、処理を終了すると判定する。処理を終了すると判定された場合(ステップS20;Yes)、図3の処理を終了する。処理を終了しないと判定された場合(ステップS20;No)、ステップS10に戻る。
上述のとおり、第1実施形態は、ユーザUが聴取した聴覚刺激に基づいて、触覚刺激情報を生成し、触覚刺激を、聴覚刺激と同時に与える。これにより、本実施形態は、ユーザUの大脳皮質における聴覚連合野部分と、触覚連合野部分との双方を刺激して活性化することができる。これにより、聴覚連合野部分と、触覚連合分野との間の部分にも血流が増加するなどの変化が起き得る。その結果、ユーザUは、聴覚を刺激する音声に対する記憶力を向上させることができる。
[第1実施形態の第1変形例]
図7を用いて、第1実施形態の第1変形例に係る情報提供装置について説明する。図7は、第1実施形態の第1変形例に係る情報提供装置の構成例を示すブロック図である。
図7に示すように、情報提供装置10aは、制御部20aがフィルタ処理部32の代わりに直交変換処理部40を備える点で、図2に示す情報提供装置10とは異なる。
直交変換処理部40は、音声取得部30Aからマイク12Aが収音した音声に関する音声信号を受ける。直交変換処理部40は、音声取得部30Aから入力された音声信号に対してフーリエ変換または直交変換などの直交変換を行い、時間軸信号を周波数信号へ変換する。直交変換処理部40は、周波数信号をパワー値算出部34aに出力する。
パワー値算出部34aは、直交変換処理部40から入力された周波軸の音声信号の大きさを示す音声のパワー値を算出する。
[処理内容]
図8を用いて、第1実施形態の第1変形例に係る情報提供装置の処理の流れについて説明する。図8は、第1実施形態の第1変形例に係る情報提供装置の処理の流れの一例を示すフローチャートである。
ステップS30の処理は、図3に示すステップS10の処理と同一の処理なので、説明を省略する。
ステップS30の後、直交変換処理部40は、音声取得部30Aが取得した音声に関する音声信号に対して直交変換処理を行う(ステップS32)。具体的には、直交変換処理部40は、音声取得部30Aが取得した音声に関する音声信号に対して直交変換処理またはフーリエ変換処理を行い、時間軸の音声信号を周波数軸の音声信号に変換する。直交変換処理部40は、周波数軸に変換した音声信号をパワー値算出部34aに出力する。
パワー値算出部34aは、周波数軸の音声信号の音声のパワー値を算出する(ステップS34)。パワー値算出部34aは、周波数軸の音声信号の振幅の実数部の2乗を音声のパワー値として算出する。具体的には、パワー値算出部34aは、周波数ごとの音声信号の音声のパワー値が、閾値以上であるか否かを算出する。パワー値算出部34aは、周波数ごとに算出された音声のパワー値のグラフを生成する。なお、音声レベルの閾値は、所定期間の音声のパワー値に基づいて、設定され得る。
第2感覚刺激情報生成部36aは、感覚刺激出力部16Cを制御して、第2感覚としての触覚刺激を出力するタイミングを算出する(ステップS36)。具体的には、第2感覚刺激情報生成部36aは、パワー値算出部34の算出結果に基づいて、触覚を刺激するリズムを生成する。
図9を用いて、第1実施形態の変形例に係る音声信号の音声のパワー値を説明する。図9は、第1実施形態の変形例に係る音声信号の音声のパワー値を説明するための図である。
図9において、グラフG11は、周波数ごとの音声のパワーを示すグラフであり、グラフG12は、グラフG11における周波数ごとのパワーにおいて、上方向で凸となる点(グラフ11の接線の傾きが0となる点で、その点に対する前後の傾きが正から負へ切り替わる点)を結んだグラフである。図9の横軸は周波数を示し、縦軸は音声のパワー値を示す。
図9に示すように、第2感覚刺激情報生成部36aは、周波数範囲Fにおける、音声のパワー値に基づいて、触覚を刺激するリズムを生成する。周波数範囲Fは、例えば、人の声の周波数帯域(例えば、100から800Hz付近)であり得る。第2感覚刺激情報生成部36aは、周波数範囲Fにおける、パワー値が所定の閾値を超えたタイミングと、下回ったタイミングとに基づいて、触覚を刺激するリズムを生成する。第2感覚刺激情報生成部36aは、パワー値が所定の閾値を超えたタイミングと、下回ったタイミングとに双方において、感覚刺激出力部16Cの出力のオンとオフとを短い間隔で切り替わるように、リズムを生成する。具体的には、第2感覚刺激情報生成部36aは、周波数範囲Fにおいて、グラフG12が閾値を超えたタイミングの周波数f1、下回ったタイミングの周波数f2で感覚刺激出力部16Cの出力のオンとオフとを短い間隔で切り替わるように、リズムを生成する。また、第2感覚刺激情報生成部36aは、周波数範囲Fにおいて、グラフG12が閾値を超えたタイミングの周波数f3、下回ったタイミングの周波数f4で感覚刺激出力部16Cの出力のオンとオフとを短い間隔で切り替わるように、リズムを生成する。第2感覚刺激情報生成部36aは、生成したリズムを出力制御部38に出力する。
ステップS38と、ステップS40との処理は、それぞれ、図3に示すステップS18と、ステップS20との処理と同一なので、説明を省略する。
上述のとおり、第1実施形態の第1変形例は、ユーザUが音声により受けた聴覚刺激に基づいて、触覚刺激情報を生成し、触覚刺激を、聴覚刺激と同時に与える。これにより、本実施形態は、ユーザUの大脳皮質における聴覚連合野部分と、触覚連合野部分との双方を刺激して活性化することができる。これにより、聴覚連合野部分と、触覚連合分野との間の部分にも血流が増加するなどの変化が起き得る。
[第1実施形態の第2変形例]
次に、第1実施形態の第2変形例について説明する。
第1実施形態および第1実施形態の第1変形例は、それぞれ、時間軸上の音声信号のレベルおよび周波数軸上の音声信号のパワーが、予め定めた所定の閾値を超えるか否かに基づいて、触覚刺激のリズムを生成している。第1実施形態の変形例では、所定の閾値を超えの大きさや、周辺のノイズの大きさによって、変更する。
図10を用いて、閾値を変更する方法について説明する。図10は、閾値を変更する方法を説明するための図である。
図10は、横軸が時間を示し、縦軸が音声レベルを示す。図10は、時間ごとの音声レベルを示すグラフG21を示す。図10の横軸は時間を示し、縦軸は音声レベルを示す。
図10において、時間t11と、時間t12と、時間t13と、時間t14と、時間t15と、時間t16、時間t17とは、閾値を更新するタイミングである。更新タイミングでは、予め所定の時間間隔が定められている。第1実施形態の第2変形例では、更新タイミングから過去所定時間の音声レベルのデータの平均値を算出し、平均値の値に基づいて、次の所定間隔の閾値を算出する。
図10において、平均値D1は、時間t11よりも過去の所定時間に測定された音声レベルの平均値を示す。平均値D2は、時間t12よりも過去の所定時間に測定された音声レベルの平均値を示す。平均値D3は、時間t13よりも過去の所定時間に測定された音声レベルの平均値を示す。平均値D4は、時間t14よりも過去の所定時間に測定された音声レベルの平均値を示す。平均値D5は、時間t15よりも過去の所定時間に測定された音声レベルの平均値を示す。平均値D6は、時間t16よりも過去の所定時間に測定された音声レベルの平均値を示す。平均値D7は、時間t17よりも過去の所定時間に測定された音声レベルの平均値を示す。
図10において、時間t11と、時間t12との間の時間間隔は、区間T1である。時間t12と、時間t13との間の時間間隔は、区間T2である。時間t13と、時間t14との間の時間間隔は、区間T3である。時間t14と、時間t15との間の時間間隔は、区間T4である。時間t15と、時間t16との間の時間間隔は、区間T5である。時間t16と、時間t17との間の時間間隔は、区間T6である。
図10において、例えば、時間t11は、区間T1における閾値を変更するタイミングであり得る。平均値D2は、区間T1の閾値であり得る。
また、図9において、所定の時間間隔において、周波数範囲Fに収まるパワーの合計値を記録し、記録したパワーの値に基づいて閾値を変更してもよい。例えば、過去の所定の時間間隔において測定した周波数範囲Fにおけるパワーの測定値の合計値の、75%の値に閾値を設定してよい。所定の時間間隔内で大きなパワーの変化がなければ、図9に示すグラフG12のハッチングに示す面積が、全体に示す面積の25%に相当するような設定の仕方をする。更新タイミングは、所定時間間隔ごとに設定するとよい。例えば、時間間隔は、数秒程度の範囲であることが好ましい。また、更新する閾値の値としては、過去の所定間隔におけるパワーの合計値の75%として説明したが、例えば、50%から80%の値に設定するようにしてもよい。
上述のとおり、第1実施形態の第2変形例では、音声レベルの閾値または音声パワーの閾値を状況に応じて、変更することができる。これにより、第1実施形態の第2変形例は、より適切に触覚刺激のリズムを生成することができる。
[第1実施形態の第3変形例]
第1実施形態では、時間軸の音声信号の音声レベルに基づいて触覚刺激のリズムを生成し、第1実施形態の第1変形例では周波軸の音声信号の音声パワーに基づいて触覚刺激をそれぞれ出力していたが、本発明はこれに限られない。本発明では、例えば、第1実施形態と、第1実施形態の第1変形例とを組み合わせてもよい。
第1実施形態の第3変形例では、例えば、直交変換処理部40は、音声取得部30Aが取得した音声に関する音声信号に対して直交変換処理を行い、周波数軸の音声信号に変更する。この場合、第1実施形態の第3変形例は、例えば、予め定めた所定の閾値以下の信号部分は無視するようにしてよい。例えば、図9に示す、ハッチングで示した部分以外の信号成分は削除してよい。第1実施形態の第3変形例は、図9のハッチングで示した部分の信号成分を図4および図5に示す時間軸の音声信号に変換してよい。これにより、第1実施形態の第3変形例は、ユーザUに対する音声以外の成分を除去することができるので、より適切に、触覚刺激のリズムを生成することができる。
[第2実施形態]
図11を用いて、第2実施形態に係る情報提供装置について説明する。図11は、第2実施形態に係る情報提供装置の構成例を示すブロック図である。
図11に示すように、第2実施形態に係る情報提供装置10bは、第1感覚刺激情報検出部12aがカメラ12Bを備える点で、図2に示す情報提供装置10と異なる。情報提供装置10bは、第1感覚刺激情報取得部30aが音声取得部30Aの代わりに映像取得部30Bを備える点で、図2に示す情報提供装置10と異なる。情報提供装置10bは、制御部20bがフィルタ処理部32と、パワー値算出部34との代わりに人物検出部42と、動きベクトル算出部44とを備える点で、図2に示す情報提供装置10と異なる。
情報提供装置10bは、第1感覚刺激情報として視覚刺激情報を取得する。情報提供装置10bは、取得した視覚刺激情報に基づいて、触覚刺激情報を生成し、視覚刺激情報に同期して触覚刺激情報を出力する。
人は、言葉を発しながら、ジェスチャーをすることが多い。発言者のジェスチャーは、発言者の表現を聞き手に対して、表現を印象付けるのに有用である。そのため、ジェスチャーは、コミュニケーションの方法の一種として重要視されている。第2実施形態では、発言者のジェスチャーを第1感覚刺激情報として検出する。第2実施形態は、検出した発言者のジェスチャーに基づいて、触覚刺激情報を第2感覚刺激情報として生成する。
カメラ12Bは、撮像装置である。カメラ12Bは、情報提供装置10(ユーザU)の周辺の可視光を検出することで、情報提供装置10の周辺を撮像する。カメラ12Bは、所定のフレームレート毎に撮像するビデオカメラであってよい。情報提供装置10においてカメラ12Bの設けられる位置や向きは任意であるが、例えば、カメラ12Bは、図1に示す装置10Aに設けられており、撮像方向がユーザUの顔が向いている方向であってよい。これにより、カメラ12Bは、ユーザUの視線の先にある対象物を、すなわちユーザUの視野の範囲に入る対象物を、撮像できる。また、カメラ12Bの数は任意であり、単数であっても複数であってもよい。
映像取得部30Bは、カメラ12Bを制御して、カメラ12Bに映像を撮像させる。映像取得部30Bは、カメラ12Bが撮像した映像を取得する。映像取得部30Bは、取得した映像に関する映像信号を人物検出部42に出力する。
人物検出部42は、映像取得部30Bが取得した映像から、人物を検出する。人物検出部42は、例えば、映像取得部30Bが取得した映像に対して、記憶部18が記憶している図示しない認識辞書を用いたパターンマッチングを行って人物を検出する。人物検出部42は、情報提供装置10bが起動している間は、常時処理を行ってもよい。人物検出部42は、任意のタイミングで処理を実行してもよい。
動きベクトル算出部44は、映像取得部30Bが取得した映像から動体の有無を検出する。動きベクトル算出部44は、例えば、人物検出部42が検出した人物が動いているか否かを判定する。動きベクトル算出部44は、例えば、映像取得部30Bが取得した映像から動きベクトルを検出することで動体の有無を検出する。具体的には、動きベクトル算出部44は、例えば、映像取得部30Bが取得した映像におけるピクセル単位、または数ピクセル四方のブロック単位において、輝度または色情報がフレームごとに変化している領域を検出することで、動きベクトルを検出する。動きベクトル算出部44は、例えば、8×8ピクセルのブロック単位において動きベクトルを検出する。動きベクトル算出部44は、動きベクトルの移動量を加算して、動きベクトルの合計値を算出する。
[処理内容]
図12を用いて、第2実施形態に係る情報提供装置の処理の流れについて説明する。図12は、第2実施形態に係る情報提供装置の処理の流れの一例を示すフローチャートである。
まず、映像取得部30Bは、カメラ12Bから映像を取得する(ステップS50)。具体的には、映像取得部30Bは、カメラ12BからユーザUの前方を撮像した映像を取得する。
人物検出部42は、映像取得部30Bが取得した映像に人物が含まれているか否かを判定する(ステップS52)。具体的には、人物検出部42は、映像取得部30Bが取得した映像に対して、認識辞書を用いたパターンマッチングを行って人物を検出できた場合に、映像に人物が含まれていると判定する。人物を含むと判定された場合(ステップS52;Yes)、ステップS54に進む。人物を含まないと判定された場合(ステップS52:No)、ステップS62に進む。
ステップS52でYesと判定された場合、動きベクトル算出部44は、人物に動きがあるか否かを判定する(ステップS54)。具体的には、動きベクトル算出部44は、人物が検出された領域において、動きベクトルが検出できた場合に、人物に動きがあると判定する。人物に動きがあると判定された場合(ステップS54;Yes)、ステップS56に進む。人物に動きがないと判定された場合(ステップS54;No)、ステップS62に進む。
ステップS54でYesと判定された場合、動きベクトルの合計値を算出する(ステップS56)。
図13は、動きベクトルの合計値を算出する方法を説明するための図である。図13は、映像取得部30Bが取得した映像IMを示す。人物検出部42は、映像IM1から人物U1を検出する。動きベクトル算出部44は、人物U1の右手RHと、左手LHの動きを検出する。動きベクトル算出部44は、右手RHと、左手LHの動きベクトルの合計値を算出する。
具体的には、動きベクトル算出部44は、例えば、映像IMの1フレームごとに右手RHと、左手LHの動きベクトルを検出する。動きベクトル算出部44は、映像IMの数フレームごとに右手RHと、左手LHとの動きベクトルを検出してもよい。動きベクトル算出部44は、動きベクトルを検出して、検出したベクトルの大きさのスカラー値の合計値を算出する。これにより、動きベクトル算出部44は、人物U1の右手RHと、左手LHによるジェスチャーの動きの大小をとらえることができる。
動きベクトル算出部44は、例えば、MPEG(Moving Picture Experts Group)などの画像圧縮方式などで動き補償を行うときに所定のブロックごとに、対象のフレームの元の位置から、±10画素分などをパターンマッチングするようにスキャンする。動きベクトル算出部44は、パターンマッチングの結果、差分値の最も小さいところを、ブロックが動いた部分と推定し、元の位置から動いた距離と方向を決定してよい。
また、人物U1の背景に、例えば、大きな画像が描いてあるトラックが通過するなど大きな動体が存在している場合には、全ブロックの動きベクトルが、大きな面積領域で一様に同じ値になると想定される。この場合、動きベクトル算出部44は、人物U1の背景に存在する大きな動体の動きは、キャンセルするようにしてよい。動きベクトル算出部44は、検出対象である人物U1の動きベクトルのみを計算するようにしてよい。動きベクトル算出部44は、例えば、背景に動体が存在している場合には、映像取得部30Bが取得した映像に視差に基づいて、人物U1の動きベクトルを計算するようにしてもよい。例えば、カメラ12Bがステレオカメラである場合には、情報提供装置10bに近い物体ほど視差が大きくなるので、動きベクトル算出部44は、視差に基づいて、人物U1の動きベクトルを算出することができる。また、カメラ12Bが単眼カメラである場合には、情報提供装置10bに近い位置にピントを合わせた状態で、映像取得部30Bは、カメラ12Bから映像を取得すればよい。この場合、動きベクトル算出部44は、情報提供装置10bに近い位置にピントが合った映像に対して、動きベクトルの検出処理を行えばよい。
図12に戻る。ステップS56の後、第2感覚刺激情報生成部36bは、触覚刺激を出力するタイミングを算出する(ステップS58)。具体的には、第2感覚刺激情報生成部36bは、動きベクトルのスカラー値の合計値を時間軸でグラフ化し、グラフに基づいて、触覚刺激を出力するタイミングを算出する。
図14は、触覚刺激を出力するタイミングを算出する方法を説明するための図である。
図14は、グラフG31を示す。グラフG31の横軸は時間、縦軸は動きベクトルのスカラー合計値を示す。図14に示すように、第2感覚刺激情報生成部36bは、動きベクトルのスカラー値の合計値が閾値以上となるタイミングおよび閾値以下となるタイミングに基づいて、触覚刺激を出力するタイミングを算出する。具体的には、第2感覚刺激情報生成部36bは、動きベクトルのスカラー値の合計値が、閾値以上となるタイミングで振動を発生させ、閾値以下となるタイミングで振動を終了させるように判定する。
時間t21から時間t22の間の期間は、動きベクトルのスカラー値の合計値が閾値以下となっている期間である。第2感覚刺激情報生成部36bは、例えば、動きベクトルのスカラー値の合計値が閾値以下となる時間t21の時点を、触覚刺激をオフにするタイミングであると判定する。第2感覚刺激情報生成部36bは、時間t21から時間t22の間の期間は、振動を発生させない期間であると判定する。
時間t22から時間t23の間の期間は、動きベクトルのスカラー値の合計値が閾値以上となっている期間である。第2感覚刺激情報生成部36bは、時間t22の時点を、触覚刺激を開始するタイミングであると判定する。第2感覚刺激情報生成部36bは、時間t23の時点を、触覚刺激を終了するタイミングであると判定する。第2感覚刺激情報生成部36bは、時間t22から時間t23の間の期間は、継続して振動を発生させる期間であると判定する。言い換えれば、第2感覚刺激情報生成部36bは、時間t22から時間t23の間の期間は、連続して触覚刺激を与える期間であると判定する。
時間t23から時間t24の間の期間は、動きベクトルのスカラー値の合計値が閾値以下となっている期間である。第2感覚刺激情報生成部36bは、時間t23から時間t24の間の期間は、振動を発生させない期間であると判定する。
時間t24から時間t25の間の期間は、動きベクトルのスカラー値の合計値が閾値以上となっている期間である。第2感覚刺激情報生成部36bは、時間t24から時間t25の間の期間は、連続して振動を発生させる期間であると判定する。
時間t25から時間t26の間の期間は、動きベクトルのスカラー値の合計値が閾値以下となっている期間である。第2感覚刺激情報生成部36bは、時間t25から時間t26の間の期間は、振動を発生させない期間であると判定する。
時間t23から時間t26の間の期間は、動きベクトルのスカラー値の合計値が閾値以上となるタイミングで閾値以下となるタイミングとが近接している。ここで、時間t23から時間t26の間は、人物U1が右手RHおよび左手LHの少なくとも一方を、早く動かしていると想定される。この場合、第2感覚刺激情報生成部36bは、時間t23から時間t26の間は、通常とは異なる振動パターンで継続して振動を発生させる期間であると判定してもよい。
時間t26から時間t27の間の期間は、動きベクトルのスカラー値の合計値が閾値以上となっている期間である。第2感覚刺激情報生成部36bは、時間t26から時間t27の間の期間は、連続して振動を発生させる期間であると判定する。
時間t27から時間t28の間の期間は、動きベクトルのスカラー値の合計値が閾値以下となっている期間である。第2感覚刺激情報生成部36bは、時間t27から時間t28の間の期間は、振動を発生させない期間であると判定する。
時間t28から時間t29の間の期間は、動きベクトルのスカラー値の合計値が閾値以上となっている期間である。第2感覚刺激情報生成部36bは、時間t28から時間t29の間の期間は、連続して振動を発生させる期間であると判定する。
すなわち、第2感覚刺激情報生成部36bは、時間t22で振動を発生させて、時間t23で振動を終了させると判定する。第2感覚刺激情報生成部36bは、時間t24で振動を発生させて、時間t25で振動を終了させると判定する。第2感覚刺激情報生成部36bは、時間t26で振動を発生させて、時間t27で振動を終了させると判定する。第2感覚刺激情報生成部36bは、時間t28で振動を発生させて、時間t29で振動を終了させると判定する。このように、第2感覚刺激情報生成部36bは、振動のリズムを生成する。
図12に戻る。ステップS60と、ステップS62との処理は、それぞれ、図3に示すステップS18と、ステップS20の処理と同一なので説明を省略する。
上述のとおり、第2実施形態は、ユーザUが視認した視覚刺激に基づいて、触覚刺激情報を生成し、触覚刺激を、視覚刺激と同時に与える。これにより、本実施形態は、ユーザUの大脳皮質における視覚連合野部分と、触覚連合野部分との双方を刺激して活性化することができる。これにより、視覚連合野部分と、触覚連合分野との間の部分にも血流が増加するなどの変化が起き得る。その結果、ユーザUは、視覚を刺激する音声に対する記憶力を向上させることができる。
[第3実施形態]
図15を用いて、第3実施形態に係る情報提供装置について説明する。図15は、第3実施形態に係る情報提供装置の構成例を示すブロック図である。
図15に示すように、第3実施形態に係る情報提供装置10cは、第1感覚刺激情報検出部12bがカメラ12Bを備える点で、図2に示す情報提供装置10と異なる。情報提供装置10cは、制御部20cの第1感覚刺激情報取得部30bが映像取得部30Bを備える点で、図2に示す情報提供装置10と異なる。情報提供装置10cは、制御部20cが人物検出部42と、動きベクトル算出部44とを備える点で、図2に示す情報提供装置10と異なる。すなわち、情報提供装置10cは、第1実施形態に係る情報提供装置10と、第2実施形態に係る情報提供装置10bとの双方の構成を含む。
情報提供装置10cは、複数の第1感覚刺激情報を取得する。情報提供装置10cは、取得した複数の第1感覚刺激情報に基づいて、第2感覚刺激情報を生成する。第3実施形態において、第1感覚刺激情報は聴覚刺激情報と、視覚刺激情報である。第3実施形態において、第2視覚刺激情報は、触覚刺激情報である。
[処理内容]
図16を用いて、第3実施形態に係る情報提供装置の処理の流れについて説明する。図16は、第3実施形態に係る情報提供装置の処理の流れの一例を示すフローチャートである。
ステップS70からステップS74の処理は、それぞれ、図3に示すステップS10からステップS14の処理と同一なので説明を省略する。
ステップS76からステップS82の処理は、それぞれ、図12に示すステップS50からステップS56の処理と同一なので説明を省略する。
第2感覚刺激情報生成部36cは、触覚刺激を出力するタイミングを算出する(ステップS84)。具体的には、第2感覚刺激情報生成部36cは、音声レベルと、動きベクトルのスカラー値の合計値とをそれぞれ時間軸でグラフ化し、グラフに基づいて、触覚刺激を出力するタイミングを算出する。
図17は、触覚刺激を出力するタイミングを算出する方法を説明するための図である。
図17は、グラフG41と、グラフG42とを示す。グラフG41の横軸は時間、縦軸は音声レベルを示す。グラフG42の横軸は時間、縦軸は動きベクトルのスカラー値の合計値を示す。図17に示すように、第2感覚刺激情報生成部36cは、音声レベルが閾値以上となるタイミングおよび閾値以下となるタイミングに基づいて、触覚刺激を出力するタイミングを算出する。具体的には、第2感覚刺激情報生成部36cは、音声レベルが閾値以上となるタイミングで振動を発生させ、閾値以下となるタイミングで振動を終了させるように判定する。
時間t31から時間t32の間の期間は、音声レベルが閾値以上となっている期間である。第2感覚刺激情報生成部36cは、例えば、音声レベルが閾値以上となる時間t31の時点を、触覚刺激を開始するタイミングであると判定する。第2感覚刺激情報生成部36cは、時間t32の時点を、触覚刺激を終了するタイミングであると判定する。第2感覚刺激情報生成部36cは、時間t31から時間t32の間の期間は、継続して振動を発生させる期間であると判定する。
時間t32から時間t33の間の期間は、音声レベルが閾値以下となっている期間である。第2感覚刺激情報生成部36cは、時間t32から時間t33の間の期間は、振動を発生させない期間であると判定する。
時間t33から時間t34の間の期間は、音声レベルが閾値以上となっている期間である。第2感覚刺激情報生成部36cは、時間t33から時間t34の間の期間は、連続して振動を発生させる期間であると判定する。
時間t34から時間t35の間の期間は、音声レベルが閾値以下となっている期間である。第2感覚刺激情報生成部36cは、時間t34から時間t35の間の期間は、振動を発生させない期間であると判定する。
時間t35から時間t36の間の期間は、音声レベルが閾値以上となっている期間である。第2感覚刺激情報生成部36cは、時間t35から時間t36の間の期間は、連続して振動を発生させる期間であると判定する。
時間t36から時間t37の間の期間は、音声レベルが閾値以下となっている期間である。第2感覚刺激情報生成部36cは、時間t36から時間t37の間の期間は、振動を発生させない期間であると判定する。
時間t37は、音声レベルが閾値に達した後、直ぐに閾値未満となった時点である。この場合、第2感覚刺激情報生成部36cは、時間t37では、振動を発生させた後、直ぐに振動の発生を止めると判定する。
時間t37から時間t38の間の期間は、音声レベルが閾値以下となっている期間である。第2感覚刺激情報生成部36cは、時間t37から時間t38の間の期間は、振動を発生させない期間であると判定する。
時間t38から時間t39の間の期間は、音声レベルが閾値以上となっている期間である。第2感覚刺激情報生成部36cは、時間t38から時間t39の間の期間は、連続して振動を発生させる期間であると判定する。
すなわち、第2感覚刺激情報生成部36cは、時間t31で振動を発生させて、時間t32で振動を終了させると判定する。第2感覚刺激情報生成部36cは、時間t33で振動を発生させて、時間t34で振動を終了させると判定する。第2感覚刺激情報生成部36cは、時間t35で振動を発生させて、時間t36で振動を終了させると判定する。第2感覚刺激情報生成部36cは、時間t37のタイミングで振動を発生させて終了させると判定する。第2感覚刺激情報生成部36cは、時間t38で振動を発生させて、時間t39で振動を終了させると判定する。このように、第2感覚刺激情報生成部36cは、振動のリズムを生成する。
また、第2感覚刺激情報生成部36cは、動きベクトルのスカラー値の合計値に基づいて、音声レベルに基づいて生成した振動のリズムとは異なる振動のリズムを生成する。具体的には、第2感覚刺激情報生成部36cは、動きベクトルのスカラー値の合計値に基づいて、音声レベルに基づいて振動のリズムにおける振動を発生させない期間であっても、音声レベルに基づいた触覚刺激とは異なる刺激を与えるように判定する。第2感覚刺激情報生成部36cは、例えば、動きベクトルのスカラー値の合計値が閾値以上となったタイミング、および閾値以下となったタイミングで皮膚刺激としては瞬間的につくような点刺激を発生させると判定する。
図17に示すように、グラフG42において、時間t41は、動きベクトルのスカラー値の合計値が閾値以下となるタイミングである。時間t42は、動きベクトルのスカラー値の合計値が閾値以上となるタイミングである。時間t43は、動きベクトルのスカラー値の合計値が閾値以下となるタイミングである。時間t44は、動きベクトルのスカラー値の合計値が閾値以上となるタイミングである。時間t45は、動きベクトルのスカラー値の合計値が閾値以下となるタイミングである。時間t46は、動きベクトルのスカラー値の合計値が閾値以上となるタイミングである。時間t47は、動きベクトルのスカラー値の合計値が閾値以下となるタイミングである。時間t48は、動きベクトルのスカラー値の合計値が閾値以上となるタイミングである。時間t49は、動きベクトルのスカラー値の合計値が閾値以下となるタイミングである。
第2感覚刺激情報生成部36cは、時間t41から時間t49のそれぞれを、瞬間的につくような点刺激を発生させるタイミングであると判定する。
ステップS86およびステップS88の処理は、それぞれ、ステップS18およびステップS20の処理と同一の処理なので、説明を省略する。
上述のとおり、第3実施形態は、ユーザUが聴取した聴覚刺激情報およびユーザUが視認した視覚刺激に基づいて、触覚刺激情報を生成し、触覚刺激を、視覚刺激と同時に与える。これにより、本実施形態は、ユーザUの大脳皮質における視覚連合野部分と、触覚連合野部分との双方を刺激して活性化することができる。これにより、視覚連合野部分と、触覚連合分野との間の部分にも血流が増加するなどの変化が起き得る。その結果、ユーザUは、視覚を刺激する音声に対する記憶力を向上させることができる。
[その他の実施形態]
なお、上述の各実施形態では、対象を人に起因する音声またはジェスチャーとして説明したが、本発明はこれに限られない。本発明において、聴覚刺激情報は、動物の鳴き声または自然現象で発生する音であってもよい。また、本発明において、視覚刺激情報は、物体の形状の変化および色の変化であってもよい。
また、上述の各実施形態では、触覚刺激情報は、ユーザUのこめかみ部分を刺激するものとして説明したが、本発明はこれに限られない。本発明において、触覚刺激は、例えば、ユーザUの手首に装着されるブレスレット型の装置を用いて、ユーザUの手首に与えてもよい。また、触覚刺激は、ユーザUの全身に装着されるスーツ型の装置を用いて、ユーザの身体のあらゆる部分に与えてもよい。
以上、本発明の実施形態を説明したが、これら実施形態の内容により本発明が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能である。さらに、前述した実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換又は変更を行うことができる。
10,10a,10b,10c 情報提供装置
12 第1感覚刺激情報検出部
12A マイク
12B カメラ
14 入力部
16 出力部
16A 表示部
16B 音声出力部
16C 感覚刺激出力部
18 記憶部
20,20a,20b,20c 制御部
30,30a,30b 第1感覚刺激情報取得部
32 フィルタ処理部
34 パワー値算出部
36,36a,36b,36c 第2感覚刺激情報生成部
38 出力制御部
40 直交変換処理部
42 人物検出部
44 動きベクトル算出部

Claims (9)

  1. ユーザの第1感覚を刺激する第1感覚刺激情報を検出する検出部と、
    前記第1感覚刺激情報に基づいて、前記第1感覚とは異なる前記ユーザの第2感覚を刺激する第2感覚刺激情報を生成する生成部と、
    前記第1感覚刺激情報と、前記第2感覚刺激情報とを同期して前記ユーザに提供する提供部と、
    を備える、情報提供装置。
  2. 前記第1感覚刺激情報は、聴覚を刺激する聴覚刺激情報を含み、
    前記第2感覚刺激情報は、触覚を刺激する触覚刺激情報を含む、
    請求項1に記載の情報提供装置。
  3. 前記提供部は、前記聴覚刺激情報のレベルが予め定められた閾値を超えた場合に、前記第1感覚刺激情報と、前記第2感覚刺激情報とを同期して前記ユーザに提供する、
    請求項2に記載の情報提供装置。
  4. 前記提供部は、前記触覚刺激情報の周波数帯域ごとのパワーが、周波数ごとに予め定められた閾値を超えた場合に、前記第1感覚刺激情報と、前記第2感覚刺激情報とを同期して前記ユーザに提供する、
    請求項2に記載の情報提供装置。
  5. 前記閾値は、所定期間の前記聴覚刺激情報のレベルまたは前記聴覚刺激情報の周波数ごとのパワーに基づいて設定される、
    請求項3または4に記載の情報提供装置。
  6. 前記第1感覚刺激情報は、視覚を刺激する視覚刺激情報を含み、
    前記第2感覚刺激情報は、触覚を刺激する触覚刺激情報を含む、
    請求項1に記載の情報提供装置。
  7. ユーザの複数種類の感覚を刺激する複数種類の感覚刺激情報を含む第1感覚刺激情報を検出する検出部と、
    前記第1感覚刺激情報に含まれる複数種類の感覚刺激情報のうち、少なくとも2つの感覚刺激情報に基づいて、前記少なくとも2つの感覚刺激情報とは異なる前記ユーザの第2感覚を刺激する第2感覚刺激情報を生成する生成部と、
    前記第1感覚刺激情報と、前記第2感覚刺激情報とを同期して前記ユーザに提供する提供部と、
    を備える、情報提供装置。
  8. ユーザの第1感覚を刺激する第1感覚刺激情報を検出するステップと、
    前記第1感覚刺激情報に基づいて、前記第1感覚とは異なる前記ユーザの第2感覚を刺激する第2感覚刺激情報を生成するステップと、
    前記第1感覚刺激情報と、前記第2感覚刺激情報とを同期して前記ユーザに提供するステップと、
    を含む、情報提供方法。
  9. ユーザの第1感覚を刺激する第1感覚刺激情報を検出するステップと、
    前記第1感覚刺激情報に基づいて、前記第1感覚とは異なる前記ユーザの第2感覚を刺激する第2感覚刺激情報を生成するステップと、
    前記第1感覚刺激情報と、前記第2感覚刺激情報とを同期して前記ユーザに提供するステップと、
    をコンピュータに実行させる、プログラム。
JP2020210687A 2020-12-18 2020-12-18 情報提供装置、情報提供方法、およびプログラム Pending JP2022097227A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020210687A JP2022097227A (ja) 2020-12-18 2020-12-18 情報提供装置、情報提供方法、およびプログラム
PCT/JP2021/046592 WO2022131343A1 (ja) 2020-12-18 2021-12-16 情報提供装置、情報提供方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020210687A JP2022097227A (ja) 2020-12-18 2020-12-18 情報提供装置、情報提供方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2022097227A true JP2022097227A (ja) 2022-06-30

Family

ID=82059517

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020210687A Pending JP2022097227A (ja) 2020-12-18 2020-12-18 情報提供装置、情報提供方法、およびプログラム

Country Status (2)

Country Link
JP (1) JP2022097227A (ja)
WO (1) WO2022131343A1 (ja)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7623114B2 (en) * 2001-10-09 2009-11-24 Immersion Corporation Haptic feedback sensations based on audio output from computer devices
US8717152B2 (en) * 2011-02-11 2014-05-06 Immersion Corporation Sound to haptic effect conversion system using waveform
JP6411069B2 (ja) * 2013-05-24 2018-10-24 イマージョン コーポレーションImmersion Corporation 触覚データを符号化及びストリーミングする方法及びシステム
US10600290B2 (en) * 2016-12-14 2020-03-24 Immersion Corporation Automatic haptic generation based on visual odometry
US20200012347A1 (en) * 2018-07-09 2020-01-09 Immersion Corporation Systems and Methods for Providing Automatic Haptic Generation for Video Content

Also Published As

Publication number Publication date
WO2022131343A1 (ja) 2022-06-23

Similar Documents

Publication Publication Date Title
US8068644B2 (en) System for seeing using auditory feedback
CN109585021B (zh) 基于全息投影技术的精神状态评估方法
CN109120790B (zh) 通话控制方法、装置、存储介质及穿戴式设备
CN110575001B (zh) 显示控制装置、显示控制方法及存储显示控制程序的介质
CN109620257B (zh) 基于生物反馈的精神状态干预与调节系统及其工作方法
US20220028406A1 (en) Audio-visual sound enhancement
CN106226903A (zh) 一种虚拟现实头戴设备
US11561757B2 (en) Methods and system for adjusting level of tactile content when presenting audio content
KR101375613B1 (ko) 레이저를 이용하여 촉감을 제공하는 전자 장치 및 이를 이용한 방법
CN115620728B (zh) 音频处理方法、装置、存储介质及智能眼镜
JP2023534154A (ja) 個別化された音プロファイルを使用するオーディオシステム
WO2020153584A1 (ko) 전자 장치 및 이의 수면 유도 방법
EP3058926A1 (en) Method of transforming visual data into acoustic signals and aid device for visually impaired or blind persons
WO2022131343A1 (ja) 情報提供装置、情報提供方法、およびプログラム
CN107533229A (zh) 可影像强化的眼镜结构
US11853472B2 (en) Modify audio based on physiological observations
JP2014030657A (ja) 刺激誘発装置、刺激誘発方法及びプログラム
US11681492B2 (en) Methods and system for controlling tactile content
JP2022063279A (ja) 処理装置、処理方法、及びプログラム
CN105769537A (zh) 一种多功能智能眼部保健仪
CN110928516A (zh) 增强现实的显示方法、装置、终端及计算机可读存储介质
US20230320669A1 (en) Real-time in-ear electroencephalography signal verification
US20230065296A1 (en) Eye-tracking using embedded electrodes in a wearable device
US20230196765A1 (en) Software-based user interface element analogues for physical device elements
US20220230659A1 (en) System for non-verbal hands-free user input

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231130