JP2018010261A - 情報処理装置、情報処理方法および情報処理プログラム - Google Patents

情報処理装置、情報処理方法および情報処理プログラム Download PDF

Info

Publication number
JP2018010261A
JP2018010261A JP2016140863A JP2016140863A JP2018010261A JP 2018010261 A JP2018010261 A JP 2018010261A JP 2016140863 A JP2016140863 A JP 2016140863A JP 2016140863 A JP2016140863 A JP 2016140863A JP 2018010261 A JP2018010261 A JP 2018010261A
Authority
JP
Japan
Prior art keywords
music
data
user
head
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016140863A
Other languages
English (en)
Other versions
JP6801858B2 (ja
Inventor
卓成 桂
Takanari Katsura
卓成 桂
長谷川 清
Kiyoshi Hasegawa
清 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi High Tech Corp
Original Assignee
Hitachi High Technologies Corp
Hitachi High Tech Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi High Technologies Corp, Hitachi High Tech Corp filed Critical Hitachi High Technologies Corp
Priority to JP2016140863A priority Critical patent/JP6801858B2/ja
Priority to CN201710575417.4A priority patent/CN107622802A/zh
Publication of JP2018010261A publication Critical patent/JP2018010261A/ja
Application granted granted Critical
Publication of JP6801858B2 publication Critical patent/JP6801858B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephonic Communication Services (AREA)

Abstract

【課題】ユーザの歌唱中の脳活動に基づく評価を行うことができる情報処理装置を提供する。【解決手段】情報処理装置を、楽曲を再生する再生部と、再生される楽曲とともに歌唱する利用者の頭部の血流状態の変化を計測する頭部装着装置から血流状態の変化に関するデータを取得するデータ取得部と、楽曲の再生終了時に取得したデータを所定の形式で表示する表示部とを備える情報処理装置とする。【選択図】図1

Description

本発明は、情報処理装置、情報処理方法および情報処理プログラムに関する。
従来から、高齢者の介護予防や健康増進を目的とするレクリエーションを提供する機器が実用に供されている(特許文献1)。当該機器を使用する目的として、認知症の改善が挙げられる。また、当該機器にはカラオケ装置が搭載されているものもあり、ユーザが歌唱時に発した声に基づく歌唱の評価結果とユーザの神経心理検査の結果とから、ユーザが次に歌唱するユーザが選択した楽曲が提供される。さらに、被験者が発する声から心的状態を判断する技術も提案されている(特許文献2)。
特開2015−51124号公報 特開2007−296169号公報
一般に、人間の脳の血の巡りが良くなること(血流量が多くなること、血流の状態が変化すること)、すなわち脳活動が活発になることが、健康のために重要であるとされている。例えば、健康の維持と脳活動とは密接な関係があると考えられる。しかしながら、上記の従来技術を用いても、歌唱中のユーザの脳活動に基づく評価を基にユーザの健康の維持あるいは改善を図ることについての提案はなされてこなかった。
本発明は、ユーザの歌唱中の脳活動に基づく評価を行うことができる情報処理装置を提供することを目的とする。
本発明の一側面は、以下の情報処理装置によって例示される。本情報処理装置は、楽曲を再生する再生部と、再生される楽曲とともに歌唱する利用者の頭部の血流状態の変化を計測する頭部装着装置から血流状態の変化に関するデータを取得するデータ取得部と、楽曲の再生終了時に取得したデータを所定の形式で表示する表示部とを備える。
本発明の第2の側面は、コンピュータが、楽曲を再生し、再生される楽曲とともに歌唱する利用者の頭部の血流状態の変化を計測する頭部装着装置から血流状態の変化に関するデータを取得し、楽曲の再生終了時に取得したデータを所定の形式で表示することを実行する情報処理方法として例示できる。
また、本発明の第3の側面は、コンピュータに、楽曲を再生すると、再生される楽曲とともに歌唱する利用者の頭部の血流状態の変化を計測する頭部装着装置から血流状態の変化に関するデータを取得するステップと、楽曲の再生終了時に取得したデータを所定の形式で表示するステップを実行させる情報処理プログラムとして例示できる。
本発明によれば、ユーザの歌唱中の脳活動に基づく評価を行うことができる情報処理装置を提供することができる。
図1は、本発明の一実施形態に係る計測システムの概略構成を例示する図である。 図2は、頭部装着装置を下後方から見た外観を例示する斜視図である。 図3は、頭部装着装置を上方から見た平面図である。 図4は、頭部装着装置を前方から見た正面図である。 図5は、カラオケ装置の動作フローの例を示す図である。 図6は、カラオケ装置の動作フローの例を示す図である。 図7は、脳の血流量の変化を示すグラフの例を示す図である。 図8は、脳の血流量の変化と体動との関係を示すグラフの例を示す図である。 図9は、カラオケ装置の表示部の表示例を示す図である。 図10は、カラオケ装置の表示部に表示されるグラフの例を示す図である。 図11は、カラオケ装置の動作フローの例を示す図である。
以下、図面を参照して一実施形態に係る計測システムについて説明する。図1は、本発明の一実施形態に係る計測システムの概略構成を例示する図である。本計測システムは、利用者の頭部から血流量の変化を示す計測データ(検出値ともいう)を検出し、利用者の脳の活動状態を示す脳活動情報を取得する。なお、血流量が血流状態の一例に相当する。図1に示すように、本計測システムは、頭部装着装置1と利用者端末2とカラオケ装置3を有する。頭部装着装置1は、情報処理の側面としては、制御部11と、無線通信部13と、一対のセンサ115、125とを有する。制御部11は、頭部装着装置1の計測と通信を制御する。制御部11は、例えば、CPU(Central Processing Unit)、あるいは
DSP(Digital Signal Processor)等のプロセッサとメモリとを有し、メモリ上に実行可能に展開されたコンピュータプログラム、ファームウェア等により処理を実行する。ただし、制御部11は、無線通信部13とセンサ115、125を起動し、各構成要素との連携処理を実行する専用のハードウェア回路、FPGA(Field Programmable Gate Array)等であってもよい。また、制御部11は、CPU、DSP、専用のハードウェア回路
等が混在したものであってもよい。
無線通信部13は、所定のインターフェースによって、制御部11およびセンサ115、125と接続される。ただし、無線通信部13は、制御部11を介して、センサ115、125からデータを取得する構成であってもよい。無線通信部13は、ネットワークN1を介して、利用者端末2と通信する。ネットワークN1は、例えば、Bluetooth(登録
商標)、無線LAN(Local Area Network)、ZigBee等の規格に従ったネットワークである。ただし、本計測システムにおいて、無線通信部13の無線インターフェースの規格に限定がある訳ではない。また、ネットワークN1は有線ネットワークでもよい。
また、本計測システムにおいて、無線通信部13に代えて、あるいは、無線通信部13とともに有線で通信を行う通信部を設けてもよい。すなわち、頭部装着装置1と利用者端末2とが有線通信のインターフェースで接続されてもよい。この場合の有線通信のインターフェースに限定がある訳ではなく、計測システムの用途に応じてUSB(Universal Serial Bus)、PCI Express等の各種インターフェースを使用することができる。
センサ115、125は、いずれも近赤外光を頭部に照射し、大脳皮質付近で一部吸収されて散乱された近赤外光を受光し、電気信号に変換する。大脳皮質は、例えば、脳の活動状態に応じて、血流量が変化し、その変化に起因して、大脳皮質付近での近赤外光の吸収特性、あるいは、散乱特性が変化する。センサ115、125は、このような大脳皮質
付近の血流の状態に応じた近赤外光吸収率の変化あるいは透過率の変化により光量が変化する近赤外光を電気信号に変換して出力する。
本計測システムでは、センサ115、125は、0.1秒などの所定の時間間隔で近赤外光の照射および受光した近赤外光の電気信号への変換を行う。これにより、頭部装着装置1を装着したユーザの脳内の血流量の変化に関するデータが当該時間間隔で得られる。さらに、センサ115、125は、一方が右前額部の血流量の変化に関するデータを出力し、他方が左前額部の血流量の変化に関するデータを出力する。
また、センサ115、125は、例えば、近赤外光を照射する近赤外光光源と、近赤外光を受光する受光部を含む。近赤外光光源は、例えば、LED(Light Emitting Diodes
)、赤外光ランプ等である。また、受光部は、フォトダイオード、フォトトランジスタ等の光電素子と、増幅器と、AD(Analog Digital)コンバータとを含む。なお、近赤外光光源と受光部とが対にして設けられなくてもよい。例えば、1つの近赤外光光源に対して、複数の受光部を設けてもよい。
利用者端末2は、例えば、スマートフォン、携帯電話、携帯情報端末、PHS(Personal Handyphone System)、可搬型パーソナルコンピュータ等である。ただし、アプリケーションの機能によっては、利用者端末2は、据え置き型のデスクトップパーソナルコンピュータ、テレビジョン受信機、ゲーム機、健康管理専用の端末、マッサージ器、車載器等であってもよい。
利用者端末2は、頭部装着装置1から、利用者の大脳皮質付近での近赤外光の吸収率または透過率の変化データを取得し、利用者の脳の活動状態に関連する様々な情報処理を含むサービスを提供する。
利用者端末2は、CPU21と、メモリ22と、無線通信部23と、表示部24と、操作部25と、出力部26とを有する。CPU21は、メモリ22に実行可能に展開されたコンピュータプログラムにより、利用者端末2としての処理を実行する。利用者端末2としての処理とは、例えば、上記利用者の脳の活動状態に関連する様々な情報処理を含むサービスである。
メモリ22は、CPU21で実行されるコンピュータプログラム、あるいは、CPU21が処理するデータを記憶する。メモリ22は、揮発性メモリと不揮発性メモリを含んでよい。無線通信部23は、頭部装着装置1の無線通信部13と同様である。また、利用者端末2は、無線通信部23に代えて、あるいは、無線通信部23とともに有線で通信を行う通信部を有してもよい。
無線通信部23は、ネットワークN2を介して、カラオケ装置3と通信する。ネットワークN2は、ネットワークN1と同様、例えば、Bluetooth(登録商標)、無線LAN(Local Area Network)、ZigBee(登録商標)等の規格に従ったネットワークである。ただ
し、本計測システムにおいて、無線通信部23の無線インターフェースの規格に限定がある訳ではない。また、ネットワークN2は有線ネットワークでもよい。
表示部24は、例えば、液晶ディスプレイ、EL(Electro-Luminescence)パネル等であり、CPU21からの出力情報を表示する。操作部25は、例えば、押しボタン、タッチパネル等であり、利用者の操作を受け付ける。出力部26は、例えば、振動を出力するバイブレータ、音響あるいは音声を出力するスピーカ等である。
カラオケ装置3は、例えばMIDI形式の音楽生成データを処理するタイプの音楽再生
装置である。カラオケ装置3が情報処理装置の一例に相当する。カラオケ装置3は、CPU31、メモリ32、無線通信部33、表示部34、入力部35を有する。CPU31は、メモリ32に実行可能に展開されたコンピュータプログラムにより、カラオケ装置3としての処理を実行する。カラオケ装置3としての処理とは、楽曲の再生、再生する楽曲に関する情報の表示、楽曲の歌唱に対する評価、評価の表示などが挙げられる。
メモリ32には、カラオケ装置3において再生可能な楽曲のデータが記憶されている。CPU31は、ユーザのカラオケ装置3の操作に従ってメモリ32から楽曲のデータを取得して当該楽曲を再生する。無線通信部33は、ネットワークN2を介して、利用者端末2と通信する。また、表示部34は、再生する楽曲の歌詞や画像、楽曲の歌唱に対する評価などを表示する。入力部35には、カラオケ装置3が再生する楽曲を歌唱するユーザの声が入力される。ここで、楽曲を歌唱するとは、カラオケ装置3によって再生される曲および歌詞に合わせて歌うことを含む。入力部35としてはマイクなどが例示される。カラオケ装置3は、入力部35に入力されるユーザの声から楽曲の歌唱に対する評価を行う。
図2は、頭部装着装置1を下後方から見た外観を例示する斜視図である。図3は、頭部装着装置1を上方から見た平面図である。また、図4は、頭部装着装置1を前方から見た正面図である。ただし、図3、図4では、図2に例示する固定用部材101が省略されている。ここで、下後方とは、利用者が頭部装着装置1を装着したときの利用者の背後かつ、利用者の頭部を下から見上げる位置をいう。また、前方とは、例えば、利用者が頭部装着装置1を装着したときの利用者(装着者)の前方をいう。さらに、上方とは、例えば、利用者の上方をいう。なお、以下、頭部装着装置1を装着した利用者に向かって右側に位置する頭部装着装置1の部分を右側部分、あるいは右側という。また、頭部装着装置1を装着した利用者に向かって左側に位置する頭部装着装置1の部分を左側部分、あるいは左側という。また、利用者に接触する頭部装着装置1の面を裏面という。裏面の反対面を表面という。表面は、利用者が頭部装着装置1を装着したときに、利用者の周囲から見える面である。
図2に例示するように、頭部装着装置1は、鉢巻き状に利用者の頭部に巻き付けて装着し、固定用部材101を締めつけることで利用者の頭部に固定される構造を有する。そのため、頭部装着装置1は、人の頭部よりやや大きい空間で湾曲するベルト状の基材100と、基材100の両端に固定される固定用部材101を有する。固定部材101は、基材100の両端から延伸する線材110、120と、線材110、120を対にして引き込んで固定する留め具を有する。基材100は、利用者の頭部表面から離れた外側面を形成する。すなわち、頭部装着装置1は、頭部から離れた外側面に形状を保つ部材である基材100を配する構造となっている。基材100は例えば樹脂製である。ただし、基材100の材質に限定がある訳ではない。
なお、本実施の形態において、固定用部材101の構造、形状、材質に限定がある訳ではない。例えば、図2では、固定部材101は、線材110、120を有するが、線材の代わりに帯状の部材を用いてもよい。また、留め具はどのような構造のものでもよい。
図2のように、頭部装着装置1の基材100の右側端部に電池ボックス102が設けられている。電池ボックス102は、扁平な略六面体であり、表面の面積と裏面の面積がいずれも4つの側面の面積よりも大きくなっている。電池ボックス102の裏面には、図示しない溝が設けられている。この溝には、基材100の右側端部から延伸する線材120の途中部分がはめ込まれている。したがって、電池ボックス102は、基材100の右側端部で固定されるとともに、線材120が溝にはめ込まれることで、頭部装着装置1に固定される。
頭部装着装置1の基材100の表側両端近傍には、丸みを帯びた2つのハウジング111、121が設けられている。ハウジング111、121には、信号処理回路、および通信回路を有する制御基板等が収納される。図4のように、頭部装着装置1を正面から見ると、頭部装着装置1の両脇に2つのハウジング111、121が位置して見える。
図4のように、基材100の表側正面付近には、3つのマーカ113、103、123が、マーカ103を中心にして左右対称に、基材100の下縁に沿った位置に直線上に設けられている。マーカ113、103、123は、利用者端末2によって撮影されたときに画像上で、マーカ113、103、123の位置が識別できる構造のものであればどのような構造でもよい。
基材100の表側正面付近で、マーカ113、123の上部には、帯状の開口114、124が形成され、開口114、124にはそれぞれ、つまみ112、122が挿入されている。つまみ112、122は、基材100の裏面に沿って設けられる図示しない、左右のスライダとそれぞれ連結されている。一方、図2に例示するように、基材100の裏面では、センサ115、125がスライダに固定されている。したがって、基材100に対して、つまみ112、あるいは、つまみ122を帯状の開口114、あるいは、開口124に沿って相対移動することで、裏面側でセンサ115、あるいは125をそれぞれ移動することが可能である。さらに、つまみ112、122と同軸でねじが形成されており、センサの位置は、ねじ式にて固定することができる。
図4では、つまみは背の低い円筒形状であるが、つまみの形状に限定がある訳ではない。また、図4では、帯状の開口114、開口124の長手方向に沿って目盛りが刻まれている。目盛りは、中心位置が分かるように、中心位置の目盛りと中心位置以外の目盛りが異なる形状となっている。図4では、中心位置の目盛りは、開口114、124に頂点を向けた三角形の形状であり、一方、中心位置以外の目盛りは、円形状、あるいは点状で形成されている。目盛りの形成の仕方は、マーカ113、103、123の形成の仕方と同様であるが、特に限定がある訳でない。
図2に例示するように、センサ115、125は、平板に、3つの窓部を設けた形状となっている。センサ115、125それぞれの1つの窓部には、近赤外光光源として近LEDが設けられている。また、センサ115、125それぞれの残り2つの窓部には、受光部として、フォトダイオードあるいはフォトトランジスタが設けられている。なお、センサ115、125の受光部の数がそれぞれ2個に限定される訳ではない。例えば、受光部はセンサ115、125にそれぞれ1個ずつ設けてもよいし、3個以上設けてもよい。
また、基材100の上下の縁には、遮光部104、105が設けられる。したがって、センサ115、125は、基材100の裏面で、上下の縁の遮光部104、105に挟まれた空間に設置されている。そして、遮光部104、105は、頭部装着装置1の裏面で額と触れる部分で緩衝材としても作用する。遮光部104、105の材質に限定がある訳ではないが、利用者の頭部に接触するために、軽く柔らかい部材が望ましい。遮光部104、105は、例えば、ウレタン等の樹脂、ゴム等である。
さらに、基材100の裏面では、電池ボックス102、センサ115、125、ハウジング111、121内の基板を接続する配線が敷設されている。ただし、基材100の裏面のセンサ115、125が設けられた部分以外は、カバー106で被覆されている。カバー106は、頭部側に接触する頭部装着装置1の裏面側で、基板・配線等が直接利用者の皮膚に触れないようする遮蔽版として作用する。したがって、配線は、基材100とカバー106との間の空間に敷設されている。
(動作例)
図5に、本実施形態において、カラオケ装置3において実行される処理のフローチャートの一例を示す。カラオケ装置3のCPU31は、電源がオンになると本フローチャートの処理を実行する。なお、カラオケ装置3において本フローチャートの処理が実行される前に、カラオケ装置3が再生する楽曲を歌唱するユーザは、頭部装着装置1を頭部に装着し、センサ115、125とユーザの頭部との相対的な位置決めを完了しているものとする。
OP101では、CPU31は、再生部として機能し、ユーザがカラオケ装置3を操作して指定された楽曲の再生を開始する。CPU31は、楽曲の再生開始を、無線通信部33からネットワークN2を介して利用者端末2に通知する。利用者端末2のCPU21は、カラオケ装置3から再生開始の通知を受信すると、再生開始を無線通信部23からネットワークN1を介して頭部装着装置1に通知する。頭部装着装置1の制御部11は、利用者端末2から再生開始の通知を受信すると、センサ115、125の動作を開始する(OP102)。また、ユーザは、マイクなどを用いてカラオケ装置3が再生する楽曲に合わせて歌唱し、ユーザの声は入力部35を介してカラオケ装置3に入力される。CPU31は、受付部として機能し、ユーザの声の入力を受け付ける。CPU31は、入力されるユーザの声の音量の時間変化のデータをメモリ32に記憶する。
制御部11は、センサ115、125によって所定の時間間隔で計測される脳の血流量のデータを無線通信部13からネットワークN1および利用者端末2を介してカラオケ装置3に送信する。制御部11は、センサ115、125から血流量のデータが生成されるたびにデータをカラオケ装置3に送信する。カラオケ装置3のCPU31は、取得部として機能し、脳の血流量のデータを受信し、受信したデータをメモリ32に記憶する。
OP103では、CPU31は、OP101において開始した楽曲の再生を完了する。さらに、CPU31は、楽曲の再生完了を、無線通信部33からネットワークN2を介して利用者端末2に通知する。利用者端末2のCPU21は、カラオケ装置3から再生完了の通知を受信すると、再生完了を無線通支部23からネットワークN1を介して頭部装着装置1に通知する。頭部装着装置1の制御部11は、利用者端末2から再生完了の通知を受信すると、センサ115、125の動作およびセンサ115、125によって計測される脳の血流量変化のデータの送信を終了する。OP101、OP102の処理によって、ユーザがカラオケ装置3によって再生される楽曲を歌唱しているときの脳内の血流量の変化が所定の時間間隔で頭部装着装置1によって計測される。頭部装着装置1は、計測したデータを出力し、楽曲の頭出しから終了までの期間の血流データを利用者端末2が区切って保存してもよい。
OP104では、CPU31は、メモリ32に記憶したユーザの脳の血流量の変化のデータの解析処理を実行する。図6に、OP104において実行される処理のフローチャートの一例を示す。CPU31は、メモリ32に記憶されているデータを用いて、図6に示す各処理を実行する。OP104の処理によって、右前額部と左前額部それぞれの血流量の変化のデータからさまざまな値を算出することで、ユーザが楽曲を歌唱しているときの脳の状態に対する多面的な評価に役立てることができる。なお、OP104の処理によって得られる各データが、頭部装着装置1から取得された時系列データを所定の手順で加工したデータの一例に相当する。
OP201では、CPU31は、脳の血流量の変化の絶対値の積分値を算出する。図7は、脳の血流量の時間変化の一例を模式的に示すグラフである。図7には、頭部装着装置1のセンサ115、125から出力される脳の血流量の変化のうち、右前額部と左前額部のいずれか一方の変化のグラフの例を示す。すなわち、本実施形態では、センサ115、
125から、右前額部と左前額部のそれぞれについて図7に示す血流量の変化のデータが得られる。CPU31は、右前額部と左前額部のそれぞれの血流量の変化のデータにおいて、所定の時間帯における絶対値の積分値を算出する。
ここで、所定の時間帯の一例として、カラオケ装置3によって再生される楽曲中の盛り上がりの部分、いわゆるサビと呼ばれる部分の時間帯が挙げられる。他に、所定の時間帯としては、再生開始から歌い出しまでの時間帯でもよいし、間奏部分の時間帯でもよい。さらに、楽曲の特定の時間帯ではなく、楽曲全体を所定の時間帯とみなしてもよい。このように、所定の時間帯は任意に決めることができる。図7の場合、CPU31は、時間T1からT2までの時間帯を上記の所定の時間帯として、この時間帯における絶対値の積分値(図中、斜線部の面積)を算出する。
さらに、OP201では、CPU31は、同じ時間帯における右前額部と左前額部それぞれの血流量の変化の絶対値の積分値の差も求める。CPU31は、算出した積分値やその差の値をメモリ32に記憶する。次いで、CPU31は処理をOP202に進める。
OP202では、CPU31は、右前額部と左前額部のそれぞれの血流量の変化のデータにおいて、所定の時間帯における血流量の変動幅を算出する。図7の場合、CPU31は、時間T1からT2までの時間帯を上記の所定の時間帯として、この時間帯における血流量の変動幅(図中、V2−V1の値)を算出する。さらに、CPU31は、同じ時間帯における右前額部と左前額部それぞれの血流量の変化の変動幅の差も求める。CPU31は、算出した変動幅やその差の値をメモリ32に記憶する。次いで、CPU31は処理をOP203に進める。
OP203では、CPU31は、右前額部と左前額部のそれぞれの血流量の変化のデータにおいて、所定の時間帯における血流量の変化の情報エントロピーを算出する。なお、情報エントロピーは、シャノンの平均情報量と呼ばれるものであり、周知のものであるため、ここでは詳細な説明は省略する。血流量の変化の情報エントロピーは、脳血流の変化が緩やかか激しいかを示す1つの指標として用いることができる。さらに、CPU31は、同じ時間帯における右前額部と左前額部それぞれの血流量の変化の情報エントロピーの差も求める。CPU31は、算出した情報エントロピーやその差の値をメモリ32に記憶する。次いで、CPU31は処理をOP204に進める。
OP204では、CPU31は、右前額部と左前額部のそれぞれの血流量の変化のデータにおいて、所定の時間帯における血流量の変化の呼吸周波数帯域のパワーを算出する。ここで、血流量の変化からユーザの呼吸周波数の変動域(帯域)がわかることが知られている。血流量の変化と呼吸周波数の変動域との関係は周知であるため、ここでは詳細な説明は省略する。そして、呼吸周波数帯域のパワーとは、呼吸周波数の変動域の幅を意味する。呼吸周波数帯域のパワーは、ユーザの歌唱中における息継ぎのタイミングや呼吸の深さを示す1つの指標として用いることができる。さらに、CPU31は、同じ時間帯における右前額部と左前額部それぞれの血流量の変化における呼吸周波数帯域のパワーの差も求める。CPU31は、算出した呼吸周波数帯域のパワーやその差の値をメモリ32に記憶する。次いで、CPU31は処理をOP205に進める。
OP205では、CPU31は、右前額部と左前額部のそれぞれの血流量の変化のデータにおいて、体動の発生率を算出する。図8に、頭部装着装置1のセンサ115、125から出力される脳の血流量の変化のうち、右前額部と左前額部のいずれか一方の変化のグラフの例を示す。図8に示すグラフでは、時間T3からT4までの時間帯と時間T5からT6までの時間帯において、血流量が落ち込んでいる。このように血流量が一時的に急峻に落ち込む又は上昇する場合に、ユーザの体動が発生したとみなすことができる。そして
、血流量の変化のデータにおける体動の発生率は、ユーザが歌唱に集中できたか否かを示す1つの指標として、あるいは逆の意味では体を動かす程に楽しんで歌っていたことを示す1つの指標として用いることができる。さらに、CPU31は、同じ時間帯における右前額部と左前額部それぞれの血流量の変化における体動の発生率の差も求める。CPU31は、算出した体動の発生率やその差の値をメモリ32に記憶する。次いで、CPU31は処理をOP206に進める。
OP206では、CPU31は、右前額部と左前額部のそれぞれの血流量の変化のデータにおいて、心拍数の変動幅を算出する。心拍数が高いほど血流量は多くなることが知られている。CPU31は、所定の時間帯における血流量の値から心拍数の値を算出する。そして、CPU31は、当該時間帯における心拍数の最大値および最小値から心拍数の変動幅を算出する。CPU31は、算出した心拍数の変動幅の値をメモリ32に記憶する。次いで、CPU31は処理をOP207に進める。
OP207では、CPU31は、OP206において算出した心拍数の値から心拍数の変動の情報エントロピーを算出する。なお、情報エントロピーは、OP203と同様であるためここでは詳細な説明は省略する。心拍数の変動の情報エントロピーは、ユーザが落ち着いて歌唱することができたか否かを示す1つの指標として用いることができる。CPU31は、算出した心拍数の変動の情報エントロピーの値をメモリ32に記憶する。次いで、CPU31は処理をOP208に進める。
OP208では、CPU31は、OP201〜OP207で算出した各値とメモリ32に記憶したユーザの声の音量の時間変化のデータから、平均相関係数あるいは時間窓相関係数の時間変化のデータを生成する。ここで、平均相関係数および時間窓相関係数は周知であるため、詳細な説明は省略する。本実施形態では、これら平均相関係数および時間窓相関係数を算出することにより、ユーザがカラオケ装置3を使用して歌唱するときの声の音量と脳の血流量との相関関係を示すデータを得ることができる。CPU31は、OP208の処理を終了すると、処理をOP105に進める。
OP105では、CPU31は、評価部として機能し、OP201〜OP208の処理によって得られるデータからユーザの歌唱の評価に関する情報を生成する。例えば、カラオケ装置3のメモリ32に、OP201〜OP208で算出される各値の組合せと楽曲との対応付けを示すデータを記憶しておく。そして、CPU31は、推奨部として機能し、OP201〜OP208の処理によって得られた各値の組合せとメモリ32に記憶されている値の組合せを比較し、互いの値の一致の度合いが所定の高さである場合に、メモリ32に記憶されている値の組合せと対応付けられている楽曲を次の再生曲として表示部34に表示する。これにより、カラオケ装置3によれば、ユーザの歌唱中の脳活動に基づく楽曲をリコメンドすることができる。図9にカラオケ装置3の表示部34に表示されるリコメンド対象の楽曲に関するメッセージの一例を示す。図9に示すように、カラオケ装置3の表示部34には、ユーザにリコメンドする楽曲の情報やユーザの歌唱に対する評価のメッセージなどを表示することができる。
OP105では、上記の楽曲のリコメンドの他に、以下の処理を行うこともできる。図10に示すように、カラオケ装置3の表示部34には、ユーザが楽曲を歌唱しているときに取得された血流量の変化(実測値)を示すグラフL1と、当該楽曲を歌唱する場合の血流量の目標値を示すグラフL2と、当該楽曲と同一の楽曲を歌唱する歌唱者からサンプルとして取得された血流量の変化を示すグラフL3が表示される。一例として、グラフL2により示される目標値は、いわゆる健康な人の脳の血流量を示すものであり、当該楽曲を歌唱する複数の歌唱者から取得した血流量の変化における移動平均や重み付けなどによって求められる値である。なお、目標値は、ユーザ自身が同じ歌を歌ったときに取得した数
回の血流量の変化を移動平均や重み付けなどによって求められる値であってもよい。また、グラフL3により示されるサンプルの血流量は、サンプルとして取得された血流量のうち最大の血流量(最高値)を示すものである。この他にも、同一の楽曲を歌唱する他のユーザの血流量との比較結果や過去に同一ユーザが同一の楽曲を歌唱した際に取得された血流量との比較結果が表示部34に表示されてもよい。
また、例えば、あらかじめ、カラオケ装置3のメモリ32に、カラオケ装置3において再生される楽曲をプロの歌手が歌唱した場合の脳の血流量の時間変化のデータや当該データに対してOP201〜OP208の処理を実行したときに得られるデータが記憶されているとする。そして、CPU31は、ユーザが歌唱したときにOP201〜OP208の処理によって得られるデータとメモリ32に記憶されているプロの歌手が歌唱した場合のデータとの比較から、ユーザの歌唱に対する評価に関する情報を表示部34に表示する。例えば、CPU31は、楽曲中のサビの部分ではプロの歌手の脳の方がより活動していることを伝えるメッセージなどを表示部34に表示する。これにより、カラオケ装置3によれば、よりプロの歌手に近い歌唱ができるようにユーザを支援する情報を提供することができる。
また、CPU31は、OP201〜OP208の処理によって得られるデータから、歌唱中の脳活動の活発さを示す評価値を生成して表示部34に表示する。例えば、あらかじめ、カラオケ装置3のメモリ32に、OP201〜OP208の処理によって算出される値から所定の指数を算出するための数式や値などのデータが記憶されているとする。ここで、所定の指数とは、ユーザが歌唱をどれだけ楽しんだかを示すことを目的として定められる値である。CPU31は、OP201〜OP208の処理によって得られるデータとメモリ32に記憶されているデータとを用いて所定の指数を算出し、算出した指数を表示部34に表示する。これにより、カラオケ装置3によれば、ユーザの脳活動の観点からユーザが楽曲の歌唱をどれだけ楽しんだかを示す情報を提供することができる。
また、CPU31は、OP204において算出した呼吸周波数帯域のパワーからユーザの歌唱中の呼吸の変化や息継ぎの回数およびタイミングなどを特定し、特定した呼吸に対する評価を生成して表示部34に表示する。例えば、あらかじめ、カラオケ装置3のメモリ32に、各楽曲に対して最適とみなされる呼吸に関するデータが記憶されているとする。CPU31は、OP204において得られるユーザの歌唱中の呼吸に関するデータと、メモリ32に記憶されている呼吸に関するデータとを比較し、比較結果を表示部34に表示する。例えば、CPU31は、比較の結果、ユーザの歌唱中の呼吸の変化が激しいと特定した場合は、落ち着いて歌唱するようアドバイスするメッセージを表示部34に表示する。これにより、カラオケ装置3によれば、より上手に歌唱するための息継ぎや呼吸に関するアドバイスをユーザに提供することができる。
脳の前頭葉が担う実行機能(注意、集中、判断、計画、行動などの脳機能を調節する高次認知機能)が、ストレッチ運動などのいわゆる軽い運動でも向上するというエビデンスが存在する。カラオケ装置3によれば、ユーザの脳活動に適切な楽曲や歌唱のアドバイスなどが提供される。したがって、ユーザがカラオケ装置3を使用して継続的に歌を歌唱することで、ユーザの前頭葉の活動が活発になり、いわゆる認知症の予防につながる効果が期待される。
以上が本実施形態に関する説明であるが、上記の計測システムの構成は、上記の実施形態に限定されるものではなく、本発明の技術的思想と同一性を失わない範囲内において種々の変更が可能である。以下に上記の楽曲のリコメンドの処理の変形例について説明する。図11に、カラオケ装置3のCPU31が実行する処理のフローチャートの例を示す。なお、以下の説明において、上記の実施形態と同一の処理については同一の符号を付し、
詳細な説明は省略する。
本変形例では、ユーザ以外の歌唱者がカラオケ装置3によって再生される楽曲を歌唱したときに、当該楽曲の識別情報と頭部装着装置1から取得された血流量の変化のデータ(OP201〜OP208の処理によって得られるデータを含む)とを対応付けたデータベースがカラオケ装置3のメモリ32上に作成されていると想定する。なお、当該データベースは、例えばネットワーク上のクラウドなど、カラオケ装置3の外部に設けられたデータベースとしてもよい。
CPU31は、上記と同様にOP101〜OP104の処理を実行する。そして、CPU31は、OP104の処理を終了すると、処理をOP305の処理を実行する。OP305では、歌唱した楽曲についてユーザからの評価を受け付ける。この評価としては、歌唱した後の現在の気分や心理状態(気持ちよい、気持ち悪い、明るくなれた、暗くなった、など)を示す評価が例示される。ユーザからの評価は、ユーザが利用者端末2を操作することで受け付けてもよいし、ユーザがカラオケ装置3を操作することで受け付けてもよい。次いで、CPU31は、処理をOP306に進める。
OP306では、CPU31は、OP305において受け付けた評価が所定の基準以上であるか否かを判定する。ここで所定の基準とは、OP305において受け付けた評価が、例えばユーザが当該楽曲を歌唱するのが好きであることを示す基準である。CPU31は、評価が所定の基準以上である場合は(OP306:Yes)、処理をOP307に進める。一方、CPU31は、評価が所定の基準未満である場合は(OP306:No)、本フローチャートの処理を終了する。
OP307では、CPU31は、メモリ32に作成された上記のデータベースを参照し、OP201〜OP208によって得られるデータの組合せと類似するとみなせるデータを特定する。ここで、CPU31は、データの類似を、頭部装着装置1から取得された時系列データを所定の手順で加工したデータによって判断すればよい。CPU31は、例えば、時系列データを移動平均して高周波成分を除去したデータ、図6で求めた積分値、血流の変動幅、情報エントロピー、呼吸周波数帯域のパワー、体動の発生率、心拍数の変動幅、心拍数の変動の情報エントロピー、平均相関係数、時間窓相関係数の少なくとも1つを基に、データの類似を判断すればよい。
そして、CPU31は、特定したデータが示す楽曲の識別情報を取得する。次いで、CPU31は、処理をOP308に進める。OP308では、CPU31は、OP307で取得した識別情報から楽曲を特定し、特定した楽曲をユーザにリコメンドする。例えば、CPU31は、図9に示すように特定した楽曲をリコメンドするメッセージをカラオケ装置3の表示部34に表示してもよいし、当該メッセージを利用者端末2の表示部24に表示させてもよい。
したがって、本変形例によれば、ユーザが楽曲を歌唱したときに気分や心理状態が良くなった場合に、歌唱すると同じように脳の血流量が変化するとみなせる別の楽曲を特定してユーザにリコメンドすることができる。
さらに他の変形例として、例えば、上記では、OP105のユーザの歌唱の評価に関する情報がカラオケ装置3の表示部34に表示されるが、CPU31が通信部として機能して当該情報を利用者端末2に送信し、当該情報が利用者端末2の表示部24に表示されてもよい。また、OP105のユーザの歌唱の評価に関する情報がメモリ32に記憶され、任意のタイミングでユーザの履歴情報としてカラオケ装置3の表示部34あるいは利用者端末2の表示部24されてもよい。さらに、カラオケ装置3がCPU31とメモリ32で
演算していた歌唱の評価に関する情報を、利用者端末2のCPU21とメモリ22を用いて演算し、この結果を表示部24に表示するようにしてもよい。
また、ユーザが頭部装着装置1を装着して頭部装着装置1のユーザの頭部に対する位置決めが完了したときに、カラオケ装置3による楽曲の再生および頭部装着装置1のセンサ115、125の動作を開始してもよい。一例として、ユーザがカラオケ装置3を操作して再生する楽曲を決定したときに、ユーザに頭部装着装置1の装着を促すメッセージがカラオケ装置3の表示部34に表示される。そして、ユーザが頭部装着装置1を装着すると、そのことが利用者端末2を経由してカラオケ装置3に通知され、カラオケ装置3は当該通知を受信すると楽曲の再生を開始する。このように、CPU31が同期部として機能し、ユーザが頭部装着装置1を装着するとカラオケ装置3の楽曲の再生が自動的に開始されてもよい。
また、上記では、カラオケ装置3および利用者端末2が別体である場合を想定しているが、上記のカラオケ装置3および利用者端末2の機能を備える家庭用テレビとしても、上記の発明を実現することができる。あるいは、カラオケ装置3および/または利用者端末2の機能を備える専用の機器を周知の家庭用テレビと接続するように構成してもよい。そして、上記の頭部装着装置1のセンサ115、125によって取得される血流量のデータが当該家庭用テレビに送信されるようにすればよい。
また、上記では、カラオケ装置3による楽曲の再生が完了した後に、上記のOP201〜OP208の処理によって得られるデータの解析結果が表示部34に表示されるが、カラオケ装置3による楽曲の再生中に、それまでのユーザの歌唱について得られる脳の血流量のデータに対して上記の解析結果が実行されて評価情報が表示部34に表示されてもよい。例えば、現在から30秒前などの所定時間内に得られる脳の血流量のデータに対する評価が表示部34に表示されることで、ユーザの歌唱中に、もっと落ち着いて歌うよう促すメッセージやもっと声を出して歌うよう促すメッセージなど、ユーザの歌唱に役立つ情報をフィードバックすることができる。
また、上記では、カラオケ装置3を使用して歌唱するユーザは1人である場合を想定したが、複数人のユーザが歌唱した場合でも上記の発明を適用することができる。この場合、各ユーザが頭部装着装置1を装着し、カラオケ装置3が各頭部装着装置1から出力される脳の血流量のデータを各ユーザと対応付けて記憶する。
また、上記では、カラオケ装置3のメモリ32に楽曲のデータが記憶されているが、カラオケ装置3は、いわゆる通信カラオケのように、外部からインターネットやテレビ放送網などを利用して楽曲のデータを受信してもよい。また、カラオケ装置3の表示部34には、再生中の楽曲の歌詞や画像などの歌情報とともに上記の処理によって得られる脳の血流量のデータに対する評価に関する情報を表示してもよい。
1 頭部装着装置
2 利用者端末
3 カラオケ装置
21、31 CPU
32 メモリ
33 無線通信部
34 表示部
35 入力部

Claims (24)

  1. 楽曲を再生する再生部と、
    前記再生される楽曲とともに歌唱する利用者の頭部の血流状態の変化を計測する頭部装着装置から前記血流状態の変化に関するデータを取得するデータ取得部と、
    前記楽曲の再生終了時に前記取得したデータを所定の形式で表示する表示部と
    を備える情報処理装置。
  2. 前記所定の形式は、前記取得したデータと前記取得したデータの目標値との比較、前記取得したデータと前記楽曲と同一の楽曲を歌唱する歌唱者から取得された取得済みサンプルの統計値との比較、前記取得したデータと前記楽曲と同一の楽曲を歌唱する他の利用者の頭部の血流状態の変化に関するデータとの比較、および前記取得したデータと前記楽曲と同一の楽曲を歌唱する前記利用者から過去に取得した取得済みデータとの比較の少なくとも1つを含む請求項1に記載の情報処理装置。
  3. 前記利用者が使用する端末と通信を行う通信部をさらに備え、
    前記通信部は、前記取得したデータを前記所定の形式で表示するためのデータを前記端末に送信する
    請求項1または請求項2に記載の情報処理装置。
  4. 前記頭部装着装置による前記利用者の頭部の血流状態の変化の計測の開始および終了と、前記再生される楽曲の再生の開始および終了とを同期させる同期部をさらに備える、請求項1から3のいずれか1項に記載の情報処理装置。
  5. 楽曲を再生する再生部と、
    前記再生される楽曲とともに歌唱する利用者の頭部の血流状態の変化を計測する頭部装着装置から前記血流状態の変化に関する第1のデータを取得するデータ取得部と、
    前記利用者または前記利用者以外の歌唱者が過去に歌唱したときに前記頭部装着装置から取得された第2のデータと前記第2のデータの取得時に再生された楽曲の識別情報とを対応付けて記憶するデータベースにアクセスするデータベースアクセス部と、
    前記楽曲の再生終了時に前記利用者の気分または心理状態を含む前記利用者からの評価を受け付ける評価受付部と、
    前記受け付けた評価が所定の基準以上の場合に、前記第2のデータのうち前記第1のデータに類似するデータと対応付けて記憶された楽曲の識別情報を前記データベースから取得する識別情報取得部と、
    前記識別情報によって特定される楽曲の再生を推奨する推奨部と
    を備える情報処理装置。
  6. 前記第1のデータおよび前記第2のデータは、前記楽曲の開始から終了までの間に前記頭部装着装置から取得された時系列データを所定の手順で加工したデータである、請求項5に記載の情報処理装置。
  7. 前記利用者が使用する端末と通信を行う通信部をさらに備え、
    前記通信部は、前記識別情報によって特定される楽曲の再生を推奨するためのデータを前記端末に送信する
    請求項5または請求項6に記載の情報処理装置。
  8. 前記頭部装着装置による前記利用者の頭部の血流状態の変化の計測の開始および終了と、前記再生される楽曲の再生の開始および終了とを同期させる同期部をさらに備える、請求項5から7のいずれか1項に記載の情報処理装置。
  9. コンピュータが、
    楽曲を再生し、
    前記再生される楽曲とともに歌唱する利用者の頭部の血流状態の変化を計測する頭部装着装置から前記血流状態の変化に関するデータを取得し、
    前記楽曲の再生終了時に前記取得したデータを所定の形式で表示する
    ことを実行する情報処理方法。
  10. 前記所定の形式は、前記取得したデータと前記取得したデータの目標値との比較、前記取得したデータと前記楽曲と同一の楽曲を歌唱する歌唱者から取得された取得済みサンプルの統計値との比較、前記取得したデータと前記楽曲と同一の楽曲を歌唱する他の利用者の頭部の血流状態の変化に関するデータとの比較、および前記取得したデータと前記楽曲と同一の楽曲を歌唱する前記利用者から過去に取得した取得済みデータとの比較の少なくとも1つを含む請求項9に記載の情報処理方法。
  11. 前記コンピュータがさらに、
    前記取得したデータを前記所定の形式で表示するためのデータを前記利用者が使用する端末に送信する
    請求項9または請求項10に記載の情報処理方法。
  12. 前記コンピュータがさらに、
    前記頭部装着装置による前記利用者の頭部の血流状態の変化の計測の開始および終了と、前記再生される楽曲の再生の開始および終了とを同期させる
    請求項9から11のいずれか1項に記載の情報処理方法。
  13. コンピュータが、
    楽曲を再生し、
    前記再生される楽曲とともに歌唱する利用者の頭部の血流状態の変化を計測する頭部装着装置から前記血流状態の変化に関する第1のデータを取得し、
    前記利用者または前記利用者以外の歌唱者が過去に歌唱したときに前記頭部装着装置から取得された第2のデータと前記第2のデータの取得時に再生された楽曲の識別情報とを対応付けて記憶するデータベースにアクセスし、
    前記楽曲の再生終了時に前記利用者の気分または心理状態を含む前記利用者からの評価を受け付け、
    前記受け付けた評価が所定の基準以上の場合に、前記第2のデータのうち前記第1のデータに類似するデータと対応付けて記憶された楽曲の識別情報を前記データベースから取得し、
    前記識別情報によって特定される楽曲の再生を推奨する
    ことを実行する情報処理方法。
  14. 前記第1のデータおよび前記第2のデータは、前記楽曲の開始から終了までの間に前記頭部装着装置から取得された時系列データを所定の手順で加工したデータである、請求項13に記載の情報処理方法。
  15. 前記コンピュータがさらに、
    前記識別情報によって特定される楽曲の再生を推奨するためのデータを前記利用者が使用する端末に送信する
    請求項13または請求項14に記載の情報処理方法。
  16. 前記コンピュータがさらに、
    前記頭部装着装置による前記利用者の頭部の血流状態の変化の計測の開始および終了と、前記再生される楽曲の再生の開始および終了とを同期させる
    請求項13から15のいずれか1項に記載の情報処理方法。
  17. コンピュータに、
    楽曲を再生すると、前記再生される楽曲とともに歌唱する利用者の頭部の血流状態の変化を計測する頭部装着装置から前記血流状態の変化に関するデータを取得するステップと、
    前記楽曲の再生終了時に前記取得したデータを所定の形式で表示するステップ
    を実行させるための情報処理プログラム。
  18. 前記所定の形式は、前記取得したデータと前記取得したデータの目標値との比較、前記取得したデータと前記楽曲と同一の楽曲を歌唱する歌唱者から取得された取得済みサンプルの統計値との比較、前記取得したデータと前記楽曲と同一の楽曲を歌唱する他の利用者の頭部の血流状態の変化に関するデータとの比較、および前記取得したデータと前記楽曲と同一の楽曲を歌唱する前記利用者から過去に取得した取得済みデータとの比較の少なくとも1つを含む請求項17に記載の情報処理プログラム。
  19. 前記コンピュータにさらに、
    前記取得したデータを前記所定の形式で表示するためのデータを前記利用者が使用する端末に送信するステップ
    を実行させるための請求項17または請求項18に記載の情報処理プログラム。
  20. 前記コンピュータにさらに、
    前記頭部装着装置による前記利用者の頭部の血流状態の変化の計測の開始および終了と、前記再生される楽曲の再生の開始および終了とを同期させるステップ
    を実行させるための請求項17から19のいずれか1項に記載の情報処理プログラム。
  21. コンピュータに、
    楽曲を再生すると、前記再生される楽曲とともに歌唱する利用者の頭部の血流状態の変化を計測する頭部装着装置から前記血流状態の変化に関する第1のデータを取得するステップと、
    前記利用者または前記利用者以外の歌唱者が過去に歌唱したときに前記頭部装着装置から取得された第2のデータと前記第2のデータの取得時に再生された楽曲の識別情報とを対応付けて記憶するデータベースにアクセスするステップと、
    前記楽曲の再生終了時に前記利用者の気分または心理状態を含む前記利用者からの評価を受け付けるステップと、
    前記受け付けた評価が所定の基準以上の場合に、前記第2のデータのうち前記第1のデータに類似するデータと対応付けて記憶された楽曲の識別情報を前記データベースから取得するステップと、
    前記識別情報によって特定される楽曲の再生を推奨するステップ
    を実行させるための情報処理プログラム。
  22. 前記第1のデータおよび前記第2のデータは、前記楽曲の開始から終了までの間に前記頭部装着装置から取得された時系列データを所定の手順で加工したデータである、請求項21に記載の情報処理プログラム。
  23. 前記コンピュータにさらに、
    前記識別情報によって特定される楽曲の再生を推奨するためのデータを前記利用者が使用する端末に送信するステップ
    を実行させるための請求項21または請求項22に記載の情報処理プログラム。
  24. 前記コンピュータにさらに、
    前記頭部装着装置による前記利用者の頭部の血流状態の変化の計測の開始および終了と、前記再生される楽曲の再生の開始および終了とを同期させるステップ
    を実行させるための請求項21から23のいずれか1項に記載の情報処理プログラム。
JP2016140863A 2016-07-15 2016-07-15 情報処理装置、情報処理方法および情報処理プログラム Active JP6801858B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016140863A JP6801858B2 (ja) 2016-07-15 2016-07-15 情報処理装置、情報処理方法および情報処理プログラム
CN201710575417.4A CN107622802A (zh) 2016-07-15 2017-07-14 信息处理装置、信息处理方法及计算机可读记录介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016140863A JP6801858B2 (ja) 2016-07-15 2016-07-15 情報処理装置、情報処理方法および情報処理プログラム

Publications (2)

Publication Number Publication Date
JP2018010261A true JP2018010261A (ja) 2018-01-18
JP6801858B2 JP6801858B2 (ja) 2020-12-16

Family

ID=60995586

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016140863A Active JP6801858B2 (ja) 2016-07-15 2016-07-15 情報処理装置、情報処理方法および情報処理プログラム

Country Status (2)

Country Link
JP (1) JP6801858B2 (ja)
CN (1) CN107622802A (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008532587A (ja) * 2005-02-22 2008-08-21 ヘルス−スマート リミテッド 生理学的及び心理学的/生理学的モニタリングのための方法及びシステム並びにその使用
WO2015177908A1 (ja) * 2014-05-22 2015-11-26 株式会社日立製作所 訓練システム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005134599A (ja) * 2003-10-30 2005-05-26 Daiichikosho Co Ltd バイタル検知機能を有したカラオケシステム
CN101467875B (zh) * 2007-12-28 2012-10-10 周常安 耳戴式生理反馈装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008532587A (ja) * 2005-02-22 2008-08-21 ヘルス−スマート リミテッド 生理学的及び心理学的/生理学的モニタリングのための方法及びシステム並びにその使用
WO2015177908A1 (ja) * 2014-05-22 2015-11-26 株式会社日立製作所 訓練システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
齊藤 忠彦: "歌唱表現におけるカラオケ使用時の大脳皮質前頭部・側頭部の活動の特徴", 音楽教育学, vol. 第41巻第1号, JPN6020028938, 2011, pages 1 - 10, ISSN: 0004320554 *

Also Published As

Publication number Publication date
CN107622802A (zh) 2018-01-23
JP6801858B2 (ja) 2020-12-16

Similar Documents

Publication Publication Date Title
JP6654715B2 (ja) 情報処理システムおよび情報処理装置
US11786163B2 (en) System and method for associating music with brain-state data
US20190387998A1 (en) System and method for associating music with brain-state data
US10512428B2 (en) System and method for facilitating sleep stage transitions
US11202882B2 (en) System and method for facilitating wakefulness
JP2020072800A (ja) 情報処理システム、情報処理装置、情報処理プログラム、および、情報処理方法
US11185281B2 (en) System and method for delivering sensory stimulation to a user based on a sleep architecture model
EP2950867B1 (en) Brain-wave based closed-loop sensory stimulation to induce sleep
US10939866B2 (en) System and method for determining sleep onset latency
US20180220901A1 (en) Methods of controlling biometric parameters via musical audio
CN106999697B (zh) 用于增加小睡的恢复性值的系统和方法
CN101969841A (zh) 修改对象的心理生理状态
TW201546616A (zh) 情緒調控系統及其調控方法
JP2022002802A (ja) 呼吸センサ、呼吸検出装置、生体情報処理装置、生体情報処理方法、コンピュータプログラム及びマインドフルネス支援装置
KR101964463B1 (ko) 스마트 단말 연동 음파 및 진동형 바이노럴 비트를 이용한 수면유도 매트 장치
O'Neill et al. Sleep mode: Mobile apps and the optimisation of sleep-wake rhythms
KR20150137453A (ko) 뇌파를 이용한 제어 방법 및 휴대 장치
JP7018640B2 (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP2005198828A (ja) 生体情報解析装置、生体情報解析方法、制御プログラムおよび記録媒体
JP6801858B2 (ja) 情報処理装置、情報処理方法および情報処理プログラム
Rocha et al. Rate of infant carrying impacts infant spontaneous motor tempo
JP2018161246A (ja) 情報処理装置、情報処理方法および情報処理プログラム
KR20180101927A (ko) 넥밴드 타입 헬스케어 웨어러블 장치 및 그 방법
KR20240042475A (ko) 수면 유도 장치 및 그것의 동작방법
CN111110216A (zh) 智能终端

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190711

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20190711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20190711

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200811

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201009

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201020

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201118

R150 Certificate of patent or registration of utility model

Ref document number: 6801858

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250