JP2004243023A - Laughter detector, information processor and laughter detection method - Google Patents

Laughter detector, information processor and laughter detection method Download PDF

Info

Publication number
JP2004243023A
JP2004243023A JP2003038452A JP2003038452A JP2004243023A JP 2004243023 A JP2004243023 A JP 2004243023A JP 2003038452 A JP2003038452 A JP 2003038452A JP 2003038452 A JP2003038452 A JP 2003038452A JP 2004243023 A JP2004243023 A JP 2004243023A
Authority
JP
Japan
Prior art keywords
information
laughter
unit
sound
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003038452A
Other languages
Japanese (ja)
Other versions
JP4241079B2 (en
Inventor
Masafumi Matsumura
雅史 松村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2003038452A priority Critical patent/JP4241079B2/en
Publication of JP2004243023A publication Critical patent/JP2004243023A/en
Application granted granted Critical
Publication of JP4241079B2 publication Critical patent/JP4241079B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a laughter detector and an information processor capable of accurately detecting the number of times of laughters over a long period of time by detecting the number of times of the laughters by discriminating the laughters and speeches from sound, eliminating the need of a place for installing an imaging devices and miniaturizing the laughter detector. <P>SOLUTION: The laughter detector is provided with a sound acquisition part for acquiring the sound, a signal extraction part for extracting only the signals of a fixed frequency band from the sound acquired by the sound acquisition part, a judgement part for judging whether or not the sound acquired by the sound acquisition part is the laughter on the basis of the signals extracted by the signal extraction part, and a judged result output part for outputting a judged result in the judgement part. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、笑いと発話区間を区別して、笑いの回数を検出する笑い及び発話区間検出装置に関するものである。
【0002】
また、他の本発明は、笑いの回数を含む笑者情報に基づいて、心の健康に関する健康情報を取得する情報処理装置に関するものである。
【0003】
【従来の技術】
第一の従来技術として、顔面の皮膚温を生理指標として、コミュニケーションにおける笑いの情動下での顔色の頬の色相の動的変化に基づいて、笑いを認識する方法がある(非特許文献1参照)。
【0004】
第二の従来技術として、血圧計で測定した血圧値を蓄積して、血圧値を管理する血圧管理システムがある。かかる蓄積された血圧値データに基づいて、医者が被験者の健康状態の診断を行ったり、被験者自身が健康に注意したりするものである(非特許文献2参照)。
【0005】
【非特許文献1】
ヒューマンインターフェイス学会誌、Vol3、No.2、23−30ページ(2001年)記載の「顔画像と顔面皮膚温の同時計測による笑いにおける顔色の動的分析」
【非特許文献2】
松下電工株式会社ホームページインターネット
<URL: http://dmedia.mew.co.jp/wellness/ketsuatsu/b−ew284.html>
【0006】
【発明が解決しようとする課題】
しかしながら、第一の従来技術は、個人間の顔の色相のばらつきを平均化した動的モデルに基づいて、笑いを判断するものであり、顔の色相のばらつきにより、正確に、笑いを判断できなかった。また、顔を撮影するための撮影機器と利用者を固定する必要があり、利用者を拘束して、長時間の笑い検出が困難であるという問題があった。
【0007】
また、第二の従来技術は、蓄積された血圧値に基づいて、医者や被験者本人等が現在の健康状態について診断するものであり、また、血圧値に基づいて血圧値が正常、高血圧、低血圧である等の簡単なコメントを出力するものであり、心の健康状態を判断する指標とはなっていなかった。
【0008】
【課題を解決するための手段】
以上の課題を解決するために、本発明は、音に基づいて、笑いの回数を検出する笑い検出装置であり、かかる笑い検出装置により、音から笑いと発話の区別をして、撮影機器を設置するための場所を必要とせず、また、笑い検出装置が小型化できるため、長時間にわたり、かつ、正確に、笑いの回数を検出できるものである。
【0009】
また、他の本発明は、笑い回数を含む笑者情報に基づいて心の健康情報を構成する情報処理装置であり、かかる情報処理装置により、笑い回数を含む笑者情報に基づいて心の健康の健康情報を構成でき、心の健康状態について診断できるものである。なお、健康情報とは、心の健康に関する情報であり、ストレス、精神状態等、あるいは、脳、心臓、内臓等その他の精神的ストレスから生じる身体機能の状態を含む場合もある。
【0010】
【発明の実施の形態】
以下に、本発明の実施の形態について、図面を用いて詳細に説明する。なお、本実施の形態において、同一の符号を用いた構成要素やフローチャートのステップなどは、同じ機能を果たすので、一度説明したものについて説明を省略する場合がある。
【0011】
(実施の形態1)
【0012】
図1は、本実施の形態に係る笑い検出装置の構成を示すブロック図である。笑い検出装置は、開始受付部101、音取得部102、判断開始受付部103、信号抽出部104、判断部105、判断結果出力部106を有する。
【0013】
開始受付部101は、音声の取得の開始を指示する入力指示を受け付ける。開始受付部101は、通常、スイッチや、ボタン、タッチパネル等の人が入力指示をする手段により実現され得る。また、開始受付部101は、例えば、人が発声したスタートという音声を認識する音声認識手段等でも実現され得る。
【0014】
音取得部102は、音を取得する。この音とは、音声に関する情報であり、例えば、音声、声帯を振動させて生じる声帯振動等である。かかる音の取得は、通常、骨伝道マイクロホンや音声マイクロホン等で実現され得る。また、取得とは、笑い検出装置とは別の外部装置から受信することも含む概念である。
【0015】
また、音取得部102は、音取得部102に内蔵の記録媒体に取得した音信号を記録する。音取得部102は、通常、音信号を記録する記録媒体を含む、ハードウエア(専用回路)で実現されるが、ソフトウエアにより実現しても良い。この記録媒体は、不揮発性の記録媒体でも揮発性の記録媒体でも良い。
【0016】
判断開始受付部103は、入力指示を受け付ける。入力指示とは、音取得部102が記録した音信号から、母音の音声の周波数帯域の信号を抽出する処理を開始する指示である。判断開始受付部103は、通常、スイッチや、ボタン、タッチパネル等の人が入力指示をする手段で実現される。また、判断開始受付部103は、例えば、人が発声した「信号抽出開始」という音声を認識する音声認識手段等や、タイマーが内蔵されて、開始受付部101が入力指示を受け付けた時刻から一定時間経過後(例えば、12時間経過後)に自動的に母音の音声の周波数帯域の信号を抽出する処理を開始する手段でも実現され得る。
【0017】
信号抽出部104は、音取得部102が記録した音信号を読み込む。信号抽出部104は、音信号から一定の音の周波数帯域の信号を抽出する。この信号の抽出は、例えば、音信号をウェーブレット変換の処理をして、母音の音声の周波数帯域を抽出することで実現されうる。詳細は後述する。信号抽出部104は、通常、音信号を記録する記録媒体を含む、ハードウエア(専用回路)で実現されるが、ソフトウエアにより実現しても良い。この記録媒体は、不揮発性の記録媒体でも揮発性の記録媒体でも良い。
【0018】
判断部105は、信号抽出部104で抽出された信号から笑いの区間と発話の区間を区別して、笑いの区間のみを判断し、笑いの回数を検出する。また、開始受付部101が入力指示を受け付けた時刻から判断開始受付部103が入力指示を受け付けた時刻までの単位時間当たりの笑いの回数を算出する。ここで、発話とは、通常の会話を意味している。詳細は後述する。判断部105は、通常、ソフトウェアから構成されるが、ハードウエア(専用回路)により実現しても良い。
【0019】
判断結果報出力部106は、判断部105が検出した笑いの回数と単位時間あたりの笑いの回数を出力する。この笑いの回数は、1日単位の笑いの回数でも良く、月単位の笑いの回数でも良い。この出力とは、ディスプレイ等への表示が好適であるが、スピーカーからの音声出力やプリンタへの印刷でも良く、送信を含む概念である。判断結果出力部106は、例えば、ディスプレイとそのドライバーソフトにより実現され得る。また、判断結果出力部106は、ディスプレイを含まなくても良い。かかる場合、判断結果出力部106は、笑いの回数と単位時間あたりの笑いの回数を外付けのディスプレイに出力指示する。さらに、判断結果出力部106は、笑いの回数を音で出力する場合には、スピーカーとそのドライバーソフトを有しても良い。判断結果出力部106は、笑い検出装置とは別の装置に、笑いの回数に関する情報等を送信する場合、判断結果出力部106は、例えば、ネットワークカードとそのドライバーソフト等から構成されることで実現できる。
【0020】
以下、本実施の形態に係る笑い検出装置の動作について図2と図3のフローチャートを用いて説明する。図2のフローチャートは、音を取得し、母音の音声の周波数帯の信号を抽出し、かかる抽出された信号から包絡線を算出し、一定値以上の振幅ピークを検出する動作について説明している。図3のフローチャートは、検出された振幅ピークから、笑いの区間と発話の区間を区別して、笑い回数と単位時間当たりの笑い回数について検出し、かかる笑い回数と、単位時間あたりの笑い回数を出力する動作について説明している。
【0021】
(ステップS201)開始受付部101は、音の取得の開始を指示する入力指示を受け付けたか否かを判断する。入力指示を受付ければステップS202に行き、入力指示を受付けなければ、ステップS201に戻る。
【0022】
(ステップS202)音取得部102は、音を取得したか否かを判断する。音を取得した場合、ステップS203に行く。音を取得しなかった場合、ステップS202に戻る。
【0023】
(ステップS203)音取得部102は、ステップ202で取得された音信号と、取得された時刻をメモリに記録する。
【0024】
(ステップS204)判断開始受付部103は、ステップ203が記録した音信号から、母音の音声の周波数帯域の信号を抽出する処理を開始する入力指示を受け付けたか否かを判断する。入力指示を受付ければステップS205に行き、入力指示を受付けなければ、ステップS202に戻る。
【0025】
(ステップS205)信号抽出部104は、ステップS203でメモリに記録された音信号が存在するか否かを判断する。音信号が存在すれば、ステップS206に行く。音信号が存在しなければ、ステップS209に行く。信号抽出部104は、読み込んだ後、次の音信号と取得時刻を読み込むためにメモリのポインタを1カウントアップする。
【0026】
(ステップS206)信号抽出部104は、メモリから音信号と取得時刻を読み込む。
【0027】
(ステップS207)信号抽出部104は、ステップ206で読み込まれた音信号を、ウェーブレット変換する。ウェーブレット変換とは、帯域2分割フィルタバンクにより、音信号を低域周波数帯域と高域周波数帯域の2つに分割し、さらに、低域側の周波数帯域を低域周波数帯域と高域周波数帯域の2つに繰り返し分割することである。帯域2分割フィルタバンクとは、ウェーブレット関数から導かれる分割フィルタである。
【0028】
(ステップS208)信号抽出部104は、母音音声の周波数帯域の信号を抽出して、当該信号と当該信号に対応する取得時刻をメモリに記録する。ここで、母音音声の周波数帯域は、0から1000Hzの周波数帯域である。メモリに記録された母音音声の周波数帯域の信号を母音周波数帯信号と呼ぶ。信号抽出部104は、母音周波数帯信号と当該信号に対応する取得時刻をメモリに記録した後、ステップ205に戻る。
【0029】
(ステップS209)判断部105は、ステップS208でメモリに記録された母音周波数帯信号が存在するか否かを判断する。母音周波数帯信号が存在すれば、ステップS210に行く。母音周波数帯信号が存在しなければ、ステップS214に行く。判断部105は、読み込んだ後、次の音信号と取得時刻を読み込むためにメモリのポインタを1カウントアップする。
【0030】
(ステップS210)判断部105は、母音周波数帯信号と取得時刻をメモリから読み込む。
【0031】
(ステップS211)判断部105は、メモリから読み込まれた母音周波数帯信号の振幅の絶対値を求める。
【0032】
(ステップS212)判断部105は、ステップ211で求められた振幅の絶対値をLPF(Low Pass Filer)処理をして、振幅の包絡線を求める。
【0033】
(ステップS213)判断部105は、ステップ212で求めた、振幅の包絡線のデータとそれに対応する取得時刻をメモリに記録する。この記録された振幅の包絡線のデータを、振幅包絡データとする。
【0034】
(ステップS214)判断部105は、振幅ピーク取得時刻T(m)を初期化する。
【0035】
(ステップS215)判断部105は、カウンタiとカウンタmをそれぞれ1にする。カウンタiのi番目とは、振幅包絡データをi番目に記録した記録順序を意味する。つまり、カウンタiが1のときの振幅包絡データとは、1番目に記録した振幅包絡データを意味する。カウンタmのm番目とは、振幅のピークが、一定値以上のときに、振幅ピーク取得時刻T(m)にその振幅ピークに対応する取得時刻をm番目に記録する記録順序を意味する。つまり、カウンタmが1のときの振幅ピーク取得時刻T(m)とは、1番目に記録された振幅ピークが一定値以上のときの振幅ピークに対応する取得時刻を意味する。
【0036】
(ステップS216)判断部105は、ステップS213でメモリに記録されたi番目の振幅包絡データが存在するか否かを判断する。i番目の振幅包絡データが存在すれば、ステップS217に行く。i番目の振幅包絡データが存在しなければ、ステップS301に行く。
【0037】
(ステップS217)判断部105は、振幅包絡データと取得時刻をメモリから読み込む。
【0038】
(ステップS218)判断部105は、ステップ217で読み込まれた振幅包絡データから、振幅のピークを検出する。
【0039】
(ステップS219)判断部105は、ステップ217で求められた振幅のピークが、約0.05以上か否かを判断する。振幅のピークが、約0.05以上であれば、ステップ220に行く。振幅のピークが、約0.05以上でなければ、ステップ222に行く。振幅のピークが、約0.05以上か否かを判断するのは、笑い以外の雑信号を除去するためである。
【0040】
(ステップS220)判断部105は、振幅ピーク取得時刻T(m)にステップ219で判断された約0.05以上の振幅ピークに対応する取得時刻を記録する。
【0041】
(ステップS221)判断部105は、カウンタmを1カウントアップする。
【0042】
(ステップS222)判断部105は、カウンタiを1カウントアップする。判断部105は、カウントアップ後、ステップ216に戻る。
【0043】
(ステップS301)判断部105は、笑い回数Nと、単位時間当たりの笑い回数を初期化する。
【0044】
(ステップS302)判断部105は、カウンタmを1にする。カウンタmは、m番目に記録された振幅ピーク取得時刻T(m)を読み込むために用いられている。
【0045】
(ステップS303)判断部105は、ステップS213で記録されたm+3番目の振幅ピーク取得時刻T(m+3)が存在するか否かを判断する。m+3番目の振幅ピーク取得時刻T(m+3)が存在すれば、ステップS304に行く。i+3番目の振幅ピーク取得時刻T(m+3)が存在しなければ、ステップS315に行く。
【0046】
(ステップS304)判断部105は、振幅ピーク取得時刻T(m)、振幅ピーク取得時刻T(m+1)、振幅ピーク取得時刻T(m+2)、振幅ピーク取得時刻T(m+3)を読み込む。
【0047】
(ステップS305)判断部105は、振幅ピーク取得時刻T(m)と振幅ピーク取得時刻T(m+1)との差を求め、その差をX1とする。次に、振幅ピーク取得時刻T(m+1)と振幅ピーク取得時刻T(m+2)との差を求め、その差をX2とする。次に、振幅ピーク取得時刻T(m+2)と振幅ピーク取得時刻T(m+3)との差を求め、その差をX3とする。
【0048】
(ステップS306)判断部105は、X1、X2、X3の最大値を求め、その最大値をY1とする。次に、X1、X2、X3の最小値を求め、その最小値をY2とする。
【0049】
(ステップS307)判断部105は、Y1とY2との差が、約30ms以下となるか否かを判断する。Y1とY2との差が、約30ms以下であれば、ステップ308に行く。Y1とY2との差が、約30ms以下でなければ、ステップ310に行く。
【0050】
(ステップS308)判断部105は、笑い回数Nに1を加算する。ここで、Y1とY2との差が、約30ms以下であれば、笑いが生じていると判断するのは、実験結果より、連続3回の振幅のピークの時間間隔が、約30m以下であれば、笑いが生じていると判断できるからである。
【0051】
(ステップS309)判断部105は、カウンタmを4カウントアップする。次に、判断部105は、ステップ303に戻る。
【0052】
(ステップS310)判断部105は、Y1がX1と同じであるか否かを判断する。Y1がX1と同じであれば、ステップ311に行く。Y1がX1と同じでなければ、ステップ312に行く。
【0053】
(ステップS311)判断部105は、カウンタmを1カウントアップする。次に、判断部105は、ステップ303に戻る。
【0054】
(ステップS312)判断部105は、Y1がX2と同じであるか否かを判断する。Y1がX2と同じであれば、ステップ313に行く。Y1がX1と同じでなければ、ステップ314に行く。
【0055】
(ステップS313)判断部105は、カウンタmを2カウントアップする。次に、判断部105は、ステップ303に戻る。
【0056】
(ステップS314)判断部105は、カウンタmを3カウントアップする。次に、判断部105は、ステップ303に戻る。
【0057】
(ステップS315)判断部105は、笑い回数Nに基づいて、単位時間当たりの笑い回数を算出する。
【0058】
(ステップS316)判断結果出力部106は、笑い回数Nと単位時間当たりの笑い回数を出力する。この出力後、笑い検出装置の動作は終了する。
【0059】
以上、笑い検出装置が笑い回数と単位時間あたりの笑い回数を検出して、当該笑い回数と単位時間当たりの笑い回数を出力する動作について図2と図3のフローチャートを用いて説明した。
【0060】
以下、本実施の形態における笑い検出装置の具体的な動作について説明する。笑い検出装置の音取得部は骨伝導マイクロホン401を有している。図4は、骨伝導マイクロホン401、利用者に装着した場合の骨伝導マイクロホン402を示す。なお、骨伝導マイクロホンは、喉頭部に密接するように装着する態様でも良く、外耳道または頭頂部等に密接するように装着する態様でも良い。また、骨伝導マイクロホン401は、取得した音信号を、有線を介して音取得部に送っても良いし、無線通信手段で送っても良い。
【0061】
今、利用者は、骨伝導マイクロホン502を喉頭部に密接に装着し、テレビを観覧している。図5は、笑い検出装置501、骨伝導マイクロホン502、開始受付部のプッシュボタン503、判断開始受付部のプッシュボタン504、判断結果出力部の液晶ディスプレイ505を示す。
【0062】
開始受付部のプッシュボタン503は、音の取得の開始を指示する入力指示を受け付ける。
【0063】
次に、骨伝道マイクロホン502が声帯振動を取得して、音声信号に変換して音を取得する。骨伝道マイクロホンが音声を取得することで、利用者の音声を直接取得でき、周りの騒音の影響を少なくできる。また、取得した音声信号と当該音声信号を取得した時刻を対応付けて、音取得部に内蔵のメモリに記録する。
【0064】
次に、判断開始受付部のプッシュボタン504は、取得した音信号に基づいて、母音の音声の周波数帯域の信号を抽出する処理を開始させる入力指示を受け付ける。
【0065】
次に、信号抽出部は、メモリに記録された音声信号と取得時刻を読み込む。次に、音声信号から母音の音声の周波数帯域の信号を抽出する。当該信号の抽出は、まず、0から8000Hzの周波数帯域の音声信号を抽出する。次に、かかる抽出された0から8000Hzの音声信号をウェーブレット変換の処理をして、母音の音声の周波数帯域である0から1000Hzの周波数帯域の音声信号を抽出する。かかる母音の音声の周波数帯域を母音周波数帯信号とする。ウェーブレット変換とは、帯域2分割フィルタバンクにより、音声信号を低域周波数帯域と高域周波数帯域の2つに分割し、さらに、低域側の周波数帯域を低域周波数帯域と高域周波数帯域の2つに繰り返し分割することである。帯域2分割フィルタバンクとは、ウェーブレット関数から導かれる分割フィルタである。つまり、0から8000Hzの音声信号を帯域2分割フィルタバンクにより、0から4000Hzの周波数帯域と4000から8000Hzの周波数帯域の2つに分割し、そして、0から4000Hzの周波数帯域の音声信号を、0から2000Hzの周波数帯域と2000から4000Hzの周波数帯域の2つに分割し、さらに、0から2000Hzの周波数帯域の音声信号を、0から1000Hzの周波数帯域と1000から2000Hzの周波数帯域の2つに分割して、最終的に、0から1000Hzの周波数帯域の音声信号を抽出する。
【0066】
図6は、ウェーブレット変換の結果を示す。図6によれば、0から8000Hz周波数帯域の音声信号601、0から1000Hzの周波数帯域の音声信号602、1000から2000Hzの周波数帯域の音声信号603、2000から4000Hzの周波数帯域の音声信号604、4000から8000Hzの周波数帯域の音声信号605を示す。
【0067】
なお、本実施の形態において、ウェーブレット変換の手段を用いて、音声信号から0から1000Hzの周波数帯域の音声信号を抽出するものだったが、音声信号を0から1000Hzの低周波数帯域パスフィルタ処理をすることで0から1000Hzの周波数帯域の音声信号を抽出しても良く、その他の手段を用いて抽出しても良い。
【0068】
次に、信号抽出部は、信号抽出部に内蔵のメモリに、抽出した母音周波数帯信号と、対応する取得時刻を順次、記録する。
【0069】
次に、判断部は、信号抽出部に内蔵のメモリから、母音周波数帯信号と、対応する取得時刻を順次、読み込む。
【0070】
次に、判断部は、読み込まれた母音周波数帯信号の振幅の絶対値を算出し、5から10HzのLPF処理を行い、母音周波数帯信号の振幅包絡データを求める。図7は、母音周波数帯信号の振幅包絡データの時系列変化を示す。図7によれば、笑いの音声波形の振幅包絡線701、発話の音声波形の振幅包絡線702を示す。
【0071】
なお、本実施の形態において、信号の絶対値を算出し、5から10HzのLPF処理をして振幅包絡データを求めたが、時間区分的に実効値を求める手段等で、振幅の包絡線を求めても良い。
【0072】
次に、判断部は、求めた振幅包絡データとそれに対応する取得時刻をメモリに記録する。
【0073】
次に、判断部は、読み込まれた振幅包絡データから、振幅のピークを検出する。かかる振幅のピークが、約0.05以上であれば、振幅ピーク取得時刻T(m)に、約0.05以上の振幅ピークに対応する取得時刻を記録する。そして、カウンタmを1カウントアップする。振幅のピークが、約0.05以上を判断するのは、笑い以外の雑信号を除去するためである。なお、約0.05は、他の値でも良い。
【0074】
次に、判断部は、カウンタiを1カウントアップして、存在するi番目の振幅包絡データを読み込み、振幅のピークを検出して、振幅ピークが、約0.05以上であれば、振幅ピーク取得時刻T(m)に、約0.05以上の振幅ピークに対応する取得時刻を記録することを繰り返す。かかる処理は、振幅包絡データが存在しなくなるまで繰り返す。
【0075】
次に、判断部は、笑い回数Nを検出する。判断部は、振幅ピーク取得時刻T(m)から振幅ピーク取得時刻T(m+1)、振幅ピーク取得時刻T(m+2)、振幅ピーク取得時刻T(m+3)を読み込む。
【0076】
次に、判断部は、連続する振幅ピークの周期を算出する。振幅ピーク取得時刻T(m)と振幅ピーク取得時刻T(m+1)との差を求め、その差をX1とする。振幅ピーク取得時刻T(m+1)と振幅ピーク取得時刻T(m+2)との差を求め、その差をX2とする。振幅ピーク取得時刻T(m+2)と振幅ピーク取得時刻T(m+3)との差を求め、その差をX3とする。次に、X1、X2、X3の最大値を求め、その最大値をY1とする。X1、X2、X3の最小値を求め、その最小値をY2とする。図7によれば、X1が第1間隔7011, X2が第2間隔7012、X3が第3間隔7013を示し、また、発話の場合の、第1間隔7021、第2間隔7022を示す。
【0077】
次に、判断部は、連続する振幅のピークの周期が一定範囲であるか否かを判断する。笑いの振幅ピークの周期は、通常、約80から約120msの範囲であることが好適である。約80から約120msの範囲の笑いの振幅ピークの周期は、ある程度笑いの大きさをそろえた場合の周期の範囲を意味する。笑いの振幅ピークの周期は、個人差により変動するものであり、大きく笑う場合には、周期が大きい範囲、例えば、150から190msの範囲になり、小さく笑う場合には、周期が小さい範囲になる。また、笑いの振幅ピークが連続して3回繰り返される場合の振幅ピークの間隔のばらつきの範囲は、約30msが好適である。この約30msは、笑いと会話の繰返し周期の測定結果から求めたものである。この約30msは、その他の値でも良い。図8は、笑いの周期と会話の周期を測定した実験結果を示す。図9は、笑いと会話の周期のばらつきを示す。このばらつきは、図8で示した、実験結果から導かれたものである。また、このばらつきの結果から、笑いと会話の繰返し周期が異なることがわかり、笑いと会話を区別する一定範囲901が求められる。つまり、Y1とY2との差を求め、当該差が、約30ms以内であれば、笑いが行われたと判断して、笑い回数Nに1を加算する。そして、カウンタmを4カウントアップして、次の連続した振幅ピークについて笑いであるか否かの判断を繰り返す。
【0078】
また、判断部は、Y1とY2との差が、約30ms以内でない場合、Y1がX1であれば、カウンタmを1カウントアップする。Y1がX2であれば、カウンタmを2カウントアップする。Y1がX3であれば、カウンタmを3カウントアップする。ここでの処理は、連続3回の笑いの振幅ピークの周期間隔のばらつきが、約30ms以内にならない場合に、最大の周期間隔の次の周期間隔から、再度、連続3回の笑いの周期の間隔時間のばらつきを判断するためである。
【0079】
次に、判断部は、メモリに記録されたm+3番目の振幅ピーク取得時刻T(m+3)が存在しなくなるまで、振幅ピーク取得時刻を読み込み、笑いが行われたか否かを判断する動作を繰り返し、笑い回数Nを検出する。
【0080】
次に、判断部は、プッシュボタン503が入力指示を受け付けた時刻から判断開始受付部のプッシュボタン504が入力指示を受け付けた時刻までの時間で、笑い回数Nを除算して、単位時間当たりの笑いの回数を算出する。
【0081】
次に、判断結果報出力部の液晶ディスプレイ505は、判断部が検出した笑いの回数Nと単位時間あたりの笑い回数を出力する。図10は、液晶ディスプレイで出力された笑い回数Nと単位時間あたりの笑い回数の表示例を示す。図10によれば、笑い回数が30回、単位時間あたりの笑い回数が2回、検出日2月7日、検出開始時刻AM8:00と検出終了時刻PM11:00を同時に表示している。検出日は、笑い検出装置がカレンダー機能手段を有することで、笑い回数を検出する日を求めることで実現できる。また、検出開始時刻と検出終了時刻は、開始受付部が受け付けた時刻と、判断開始受付部が受け付けた時刻を表示することで実現できる。
【0082】
以上、本実施の形態によれば、音声信号から笑いの区間と発話の区間を判断して、笑い回数を検出し、笑い回数を出力することができる笑い検出装置であって、かかる笑い検出装置により、個人差による笑い回数の検出の誤差なく、正確に、かつ、長時間にわたり、笑い回数を検出できる。また、コンピュータに、本発明の「笑い」検出機能をもたせることで、「笑い」を正確に認識し、コンピュータが、人間に近いコミュニケーションを実現できる。また、笑い回数を正確に検出することで、ゲームやエンターテインメント等の評価や制作にも役立つものである。また、発話区間と、笑い区間を正確に判断できるため、発話時間を管理することが必要である職業、例えば、歌手、アナウンサー等の人は、容易に、発話時間を管理できるものである。また、笑いの回数が少ない場合には、ストレスが溜まる、うつ病等の精神疾患に発展することや、精神的要因から生じる身体機能の低下、病気等に発展すること等について、医者や利用者等が、笑い回数に基づいて、容易に判断したりできるものである。また、笑うことにより免疫機能を有するNK細胞が活性化するということが、実験結果として報告されており、笑い検出装置を利用して正確な笑い回数を得て、NK細胞活性率を測定する等に役立つものである。
【0083】
なお、本実施の形態において、笑いと発話の区間を区別する手段として、判断部が、母音周波数帯信号の包絡線を求め、当該包絡線の振幅ピークが一定値以上のときの振幅ピークの周期が一定範囲であるか否かを判断するものであったが、包絡線の振幅波形の形状から判断する手段でも良い。つまり、図7によれば、笑いの振幅包絡線の振幅波形がほぼ正弦波形の形状となっている。判断部は、当該ほぼ正弦波形の形状の信号を予めメモリに記録しておき、取得した音声の振幅包絡線の振幅波形の信号とほぼ正弦波形の形状の信号とを比較して、音声の振幅包絡線の波形から、ほぼ正弦波形の形状と近似する波形が検出できた場合に、笑い区間であると判断する。ほぼ正弦波形の形状を検出する手段は、例えば、笑いの振幅波形と音声の振幅包絡線の振幅波形のそれぞれの振幅がピークとなる信号値と当該振幅ピークと時間的に近傍の2箇所の信号値を検出する。次に、当該それぞれの3箇所の信号値を比較して、当該それぞれの3箇所の信号値が、一致する、または、ほぼ近似する場合に、ほぼ正弦波形の形状が検出できる。なお、ほぼ正弦波形の形状を検出する手段は、他の手段でも良い。
【0084】
また、笑いの音声の基本周波数(声の高さ)等から判断する手段でも良い。判断部は、例えば、標準的な笑いの音声の基本周波数である標準基本周波数を格納しており、当該標準基本周波数と、取得した音声信号の周波数とを比較して、取得した音声信号の周波数が、標準基本周波数と一致する、または、ほぼ近似する場合に、笑いであると判断する。
【0085】
また、本実施の形態における判断手段と包絡線の振幅波形の形状から判断する手段と笑いの音声の周波数(声の高さ)等から判断する手段とを、2以上組み合わせて判断する場合には、より精度の高い、笑いの区間の検出ができる。
【0086】
また、本実施の形態において、結果判断出力部は、液晶ディスプレイであり、笑い回数と単位時間あたりの笑い回数を数字で表示するものであったが、音声で笑い回数と単位時間あたりの笑い回数を知らせる態様、または、印刷する態様でも良い。また、他の装置に笑い回数を送信する態様でも良い。かかる出力制御は、他の実施の形態においても同様である。
【0087】
さらに、本実施の形態において説明した笑い検出装置の動作について、ソフトウェアで実現し、当該ソフトウェアを例えば、サーバ上に置いて、ソフトウェアダウンロードにより当該ソフトウェアを配布しても良い。さらにソフトウェアをCD−ROM等の記録媒体に記録して流布しても良い。このことは、すべての他の実施の形態においても同様である。
【0088】
なお、本実施の形態における動作をソフトウェアで実現した場合のプログラムは、以下のようになる。コンピュータに、音を取得する音取得ステップと、音取得ステップで取得した音から一定の周波数帯域の信号のみを抽出する信号抽出ステップと、信号抽出ステップで抽出した信号に基づいて、音取得ステップで取得した音が笑いであるか否かを判断する判断ステップと、判断ステップにおける判断結果を出力する判断結果出力ステップを実行させるためのプログラムである。
【0089】
(実施の形態2)
図11は、本実施の形態に係る情報処理装置と笑い検出装置と健康情報表示装置からなる情報処理システムの構成を示すブロック図である。笑い検出装置1110は、開始受付部101、音取得部102、判断開始受付部103、信号抽出部104、判断部105、判断結果出力部1111を有する。また、情報処理装置1120は、笑者情報受信部1121、健康情報構成部1122、健康情報出力部1123を有する。また、健康情報表示装置1130は、健康情報受信部1131、情報出力部1132を有する。健康情報表示装置1130は、利用者識別子で識別される、予め決められた装置である。
【0090】
図12は、健康情報構成部の構成を示すブロック図である。健康情報構成部1210は、健康情報取得手段1211、健康情報格納手段1212を有する。
【0091】
笑い検出装置1110は、実施の形態1と同様の構成であり、同様の動作で、笑い回数と単位時間あたりの笑い回数を検出する。そして、笑情報と利用者識別子を含む笑者情報を送信する。かかる送信は、判断結果出力部1111が行う。判断結果出力部1111は、例えば、ネットワークカードとそのドライバーソフト等から構成され、笑者情報を情報処理装置に送信することで実現されうる。なお、笑情報とは、笑いに関する情報をいい、例えば、笑い回数や単位時間あたりの笑い回数等である。また、利用者識別子とは、利用者を識別する情報である。利用者識別子とは、例えば、識別番号、氏名等である。また、利用者識別子に応じた利用者の属性情報、例えば、年齢、性別、既往病気等のその他の属性情報は、情報処理装置に内蔵された記録媒体に格納されていても良く、笑い検出装置に内蔵の記録媒体に格納されていても良い。なお、利用者識別子のデータ構造は問わない。なお、利用者識別子の情報は、笑い検出装置が有する記録媒体に記録されている。また、利用者識別子の情報は、笑い検出装置とは別の(外付けの)記録媒体に記録していても良い。この記録媒体は、不揮発性の記録媒体でも揮発性の記録媒体でも良い。
【0092】
情報処理装置1120の笑者情報受信部1121は、笑者情報を受信する。笑者情報受信部1121は、例えば、ネットワークカードとそのドライバーソフト等から構成され、笑者情報を受信することで実現できうる。
【0093】
健康情報取得手段1212は、健康情報格納手段1211が格納している健康情報から、笑者情報受信部1121が受信した笑者情報に基づいて、健康情報を取得する。健康情報取得手段1212は、通常、ソフトウェアから構成されるが、ハードウエア(専用回路)により実現しても良い。
【0094】
健康情報格納手段1211は、心の健康に関する健康情報を格納している。健康情報格納手段1211は、不揮発性の記録媒体が好適であるが、健康情報格納手段1211は、揮発性の記録媒体でも良い。健康情報格納手段1211は、具体的には、DVD(Digital Versatile Disc)などが好適である。
【0095】
健康情報出力部1123は、健康情報構成部1122が取得した健康情報を出力する。健康情報出力部1123は、例えば、ネットワークカードとそのドライバーソフト等から構成され、健康情報を送信することで実現できうる。また、ディスプレイ等への表示が好適であるが、スピーカーからの音声出力やプリンタへの印刷でも良い。健康情報出力部1123は、例えば、ディスプレイとそのドライバーソフトにより実現され得る。また、健康情報出力部1123は、ディスプレイを含まなくても良い。かかる場合、健康情報出力部1123は、外付けのディスプレイに健康情報を出力指示する。さらに、健康情報出力部1123は、健康情報を音で出力する場合には、スピーカーとそのドライバーソフトを有しても良い。
【0096】
健康情報受信部1131は、健康情報を受信する。健康情報受信部1131は、例えば、ネットワークカードとそのドライバーソフト等から構成され、健康情報を受信することで実現されうる。
【0097】
情報出力部1132は、健康情報受信部1132が受信した健康情報を出力する。この出力とは、ディスプレイ等への表示が好適であるが、スピーカーからの音声出力やプリンタへの印刷でも良い。情報出力部1132は、例えば、ディスプレイとそのドライバーソフトにより実現され得る。また、情報出力部1132は、ディスプレイを含まなくても良い。かかる場合、情報出力部1132は、外付けのディスプレイに健康情報を出力指示する。さらに、情報出力部1132は、健康情報を音で出力する場合には、スピーカーとそのドライバーソフトを有しても良い。
【0098】
以下、本実施の形態における情報処理装置の具体的な動作について説明する。
【0099】
図13は、情報処理装置1301、笑い検出装置1302、健康情報表示装置1303を示す。図13によれば、情報処理装置1301、笑い検出装置1302、健康情報表示装置1303は、それぞれ、インターネットを介して接続されている状態にある。
【0100】
笑い検出装置1302は、実施の形態1と同様な動作で笑い回数と単位時間あたりの笑い回数を検出する。次に、笑い検出装置1302の判断結果出力部は、笑い回数と単位時間あたりの笑い回数と利用者識別子等を含む笑者情報を情報処理装置に送信する。図14は、笑者情報のデータの例を示す。
図14によれば、笑者情報のデータは、識別番号「1055」、氏名「京阪花子」、検出日、単位時間当たりの笑い回数、笑い回数等から構成されている。なお、笑者情報のデータ構造は問わない。
【0101】
なお、本実施の形態では、笑い検出装置の判断結果出力部は、一の笑者情報を送信するものであったが、笑い回数の検出を所定回数(例えば、笑い回数の検出を10回)した後に、または、所定の期間(例えば、1週間)を経過した後に、笑者情報を送信するものでも良い。また、複数の利用者の笑者情報を送信するものでも良い。その場合、判断結果出力部は、利用者識別子と当該利用者識別子に応じた笑い回数と単位時間あたりの笑い回数を笑者情報として送信する。
【0102】
笑者情報受信部は、笑者情報を受信し、健康情報取得手段は、笑者情報から識別番号を取得し、識別番号に応じて割り当たられたメモリに笑者情報を順次、格納する。
【0103】
次に、健康情報取得手段は、メモリに格納されている笑者情報のデータから、単月の(例えば、1月1日から1月31日までの)単位時間あたりの笑い回数を順次、読み込み、単月での単位時間あたりの笑い回数の平均値を算出する。
【0104】
次に、健康情報取得手段は、識別番号をキーとして、情報処理装置に内蔵のメモリに予め格納されている年齢、性別、氏名等を含むデータを検索して、識別番号と一致する年齢、性別を取得する。次に、健康情報取得手段は、平均の単位時間あたりの笑い回数と年齢と性別とをキーとして、健康情報格納手段に格納された健康情報のデータを検索して、該当する健康情報のデータを取得する。図15は、識別番号「1055」をキーとして、年齢、性別、氏名等を含むデータ1501を検索して、識別番号「1055」と一致する年齢、性別を取得することを示す。図16は、「平均の単位時間あたりの笑い回数と年齢と性別」をキーとして、健康情報格納手段1603に格納された健康情報のデータ1602を検索して、年齢と性別と平均の単位時間あたりの笑い回数と一致する健康情報のデータを取得することを示す。
【0105】
図15によれば、識別番号「1055」をキーとして、年齢、性別、氏名等を含むデータ1501を検索し、該当する年齢「65」、性別「女」を取得する。また、図16によれば、平均の単位時間あたりの笑い回数「2」、年齢「65」、性別「女」をキーとして、健康情報のデータ1602を検索し、該当する「健康情報」を取得する。
【0106】
なお、本実施の形態において、健康情報のデータ1602は、性別、年齢、平均の単位時間あたりの笑い回数、健康情報から構成されるものであったが、血圧値、コレステロール値、その他の情報等を含む構成でも良いことは言うまでもない。なお、健康情報のデータ構造は問わない。
【0107】
かかる健康情報は、例えば、「正常な笑い回数である。健康状態も問題ないと思われる。今後も、十分な笑いを行うように注意すること。」、また、「笑い回数が少ないです。今後、このままの状態が続くと、精神安定上好ましくなく、うつ病、痴呆症、健忘症等の精神障害に発展する可能性があります。また、精神的要因から生じる身体機能の低下、生活習慣病へ発展する可能性があります。また、笑わないことで、免疫機能が低下し、免疫疾患、がん等の病気に発展する可能性があります。今後、十分な笑いを行うように注意すること。」等である。
【0108】
なお、検索条件に単月の平均の単位時間あたりの笑い回数を用いたが、他の一定期間の平均、例えば、2週間の平均、一ヵ年間の平均の単位時間辺りの笑い回数を用いるものでも良い。また、一定期間毎の(例えば、単月毎の、2ヶ月毎の)、平均の単位時間あたりの笑い回数の変化量をキーとして検索し、健康情報を取得するものでも良い。その場合、健康情報のデータ構造は、単位時間あたりの笑い回数の変化量で検索できるデータを含むものである。
【0109】
なお、本実施の形態において、情報処理装置は、健康情報が予め健康情報格納手段に格納されているものであったが、情報処理装置が健康に関する情報をカスタマイズする手段を有して、健康情報格納手段に格納された健康情報が、最新の健康情報に更新されるものであっても良い。
【0110】
また、健康情報取得手段が予め健康情報格納手段に格納された健康情報を検索して、該当する健康情報を取得するものであったが、健康情報取得手段が、情報処理装置とは別のサーバが有するデータベースから健康情報を取得するものでも良い。かかるサーバは複数のものでも良いことはいうまでもない。
【0111】
次に、健康情報出力部は、健康情報構成部が構成した健康情報を取得して、利用者識別子で識別される健康情報表示装置に健康情報を送信する。つまり、健康情報出力部は、利用者識別子に含まれる識別番号に対応するIPアドレスを有する装置に健康情報を送信する。送信後、情報処理装置の動作は終了する。
【0112】
次に、健康情報表示装置は、かかる健康情報を受信して、健康情報を液晶ディスプレイに出力する。図17は、健康情報の表示例を示す。図17によれば、識別番号、氏名、年齢、性別、単月の平均の単位時間あたりの笑い回数、判定、健康情報が表示される。判定は、健康情報に含まれる情報である。判定は、笑い回数が一定値以上であれば、良好な健康状態であり、一定値以下であれば、不健康である旨を、A,B,C,D、Eの5段階で評価する。この一定値は、本実施の形態では、単月の平均の単位時間あたりの笑い回数が0の場合、評価はEとなり、当該回数が1から2の場合、評価はD、当該回数が3から4の場合、評価はC、当該回数が5から6の場合、評価はB、当該回数が7以上の場合、評価はAとなる。なお、一定値は、健康情報等に応じて、その他の値でもよい。
【0113】
なお、本実施の形態において、健康情報表示装置は、健康情報を液晶ディスプレイに出力するものであったが、当該装置に内蔵の記録媒体に蓄積するものであってもよい。また、笑い検出装置が、健康情報を受信して、健康情報を出力するものであっても良い。かかる場合に、笑い検出装置は、健康情報を受信する受信部と健康情報を出力する出力部を有する。
【0114】
また、情報処理装置は、利用者からの要求に応じて健康情報を送信しても良い。
【0115】
なお、本実施の形態において、笑い回数は、実施の形態1の笑い回数検出手段で検出されたものであったが、利用者自身が笑った回数をメモ等に書き留めておく等して検出しても良いし、音声を録音して、かかる録音された音声から、笑いの回数を検出する手段等、その他の検出手段で笑いを検出しても良い。
【0116】
また、本実施の形態において、健康情報出力部は、健康情報を健康情報表示装置に送信するものであったが、健康情報出力部が液晶ディスプレイ等を有し、健康情報構成部が構成した健康情報を出力するものでも良い。かかる場合の健康情報の表示例を図18に示す。図18によれば、識別番号、氏名、年齢、性別、単月の平均の単位時間あたりの笑い回数、判定、健康情報が表示される。なお、年齢、性別は、情報処理装置に内蔵のメモリに予め記録されているものであり、健康情報出力部が、識別番号をキーとして検索し、年齢、性別を取得して、出力するものである。
【0117】
また、本実施の形態において、健康情報出力部、健康情報受信部、情報出力部は、健康情報をそれぞれ、送信、受信、出力するものであったが、健康情報に加え、笑者情報もそれぞれ送信、受信、出力するものであっても良い。
【0118】
また、本実施の形態において、判断出力部、笑者情報受信部、健康情報出力部、健康情報受信部は、インターネットを介して、それぞれの情報を送信または受信するものであったが、専用線等の手段で情報の送信または受信をしても良い。
【0119】
また、判断結果出力部及び健康情報出力部は、放送手段等から構成され、それぞれの情報を放送し、笑者情報受信部及び健康情報受信部は、それぞれの情報を受信するものでも良い。
【0120】
以上、本実施の形態における、情報処理装置は、笑い検出装置が検出した笑い回数に基づいて、心の健康に関する健康情報を構成し、健康情報を送信するものであって、笑い回数を判断基準として、心の健康状態についての情報を容易に取得しうるものである。かかる健康情報は、QOL(Quality of Life)の判断指標の一つとして利用できうる。また、笑いを行わないことが原因で起こる弊害について、詳細に情報が得られるものであり、利用者は、笑いをすることに十分に注意を払い、良好な健康状態を維持できる。また、
【0121】
さらに、本実施の形態における笑い検出装置の動作をソフトウェアで実現した場合のプログラムは、以下のようになる。コンピュータに、音を取得する音取得ステップと、音取得ステップが取得した音から一定の周波数帯域の信号のみを抽出する信号抽出ステップと、信号抽出ステップが抽出した信号に基づいて、音取得ステップが取得した音が笑いであるか否かを判断する判断ステップと、判断ステップにおける判断結果と利用者識別子等を含む笑者情報を出力する判断結果出力ステップを実行させるためのプログラムである。
【0122】
また、本実施の形態における情報処理装置の動作をソフトウェアで実現した場合のプログラムは、以下のようになる。コンピュータに、笑者情報を受信する笑者情報受信ステップと、笑者情報に基づいて健康情報を構成する健康情報構成ステップと、健康情報を出力する健康情報出力ステップを実行させるためのプログラムである。
【発明の効果】
本発明によれば、正確な笑い回数を検出でき、また、この笑い回数に基づいて、心の健康に関する健康情報を容易に取得することが可能となる。
【図面の簡単な説明】
【図1】本実施の形態1に係る笑い検出装置の構成を示すブロック図
【図2】実施の形態1に係る笑い検出装置の動作について説明するフローチャート
【図3】実施の形態1に係る笑い検出装置の動作について説明するフローチャート
【図4】骨伝導マイクロホン、装着した場合の骨伝導マイクロホンを示す図
【図5】笑い検出装置を示す図
【図6】周波数帯域別の音声信号の例を示す図
【図7】母音周波数帯信号の振幅包絡データの時系列変化を示す図
【図8】笑いの周期と会話の周期を測定した実験結果を示す図
【図9】笑いと会話の周期のばらつきを示す図
【図10】液晶ディスプレイで出力された笑い回数の表示例を示す図
【図11】実施の形態2に係る情報処理システムを示すブロック図
【図12】実施の形態2に係る情報処理装置の健康情報構成部の構成を示すブロック図
【図13】実施の形態2に係る情報処理システムの外観を示す図
【図14】笑者情報の例を示す図
【図15】年齢及び性別を検索する例を示す図
【図16】健康情報を検索する例を示す図
【図17】健康情報の表示例を示す図
【図18】健康情報の表示例を示す図
【符号の説明】
101、503 開始受付部
102、401、402、502 音取得部
103、504 判断開始受付部
104 信号抽出部
105 判断部
106、505、1111 判断結果出力部
501、1110、1302 笑い検出装置
1120、1301 情報処理装置
1121 笑者情報受信部
1122、1101、1210 健康情報構成部
1123 健康情報出力部
1130、1303 健康情報表示装置
1131 健康情報受信部
1132 情報出力部
1211 健康情報格納手段
1212 健康情報取得手段
1501 氏名、年齢、性別等のデータの例
1601 検索キーが平均の単位時間あたりの笑い回数、年齢、性別の例
1602 健康情報のデータの例
1603 健康情報蓄積が蓄積された記録媒体の例
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a laughter and utterance section detection device that distinguishes laughter from an utterance section and detects the number of laughs.
[0002]
Another aspect of the present invention relates to an information processing apparatus that acquires health information regarding mental health based on laughter information including the number of laughs.
[0003]
[Prior art]
As a first conventional technique, there is a method of recognizing laughter based on a dynamic change in a hue of a cheek of a complexion under the laughing emotion in communication using the skin temperature of the face as a physiological index (see Non-Patent Document 1). ).
[0004]
As a second related art, there is a blood pressure management system that stores a blood pressure value measured by a sphygmomanometer and manages the blood pressure value. On the basis of such accumulated blood pressure value data, a doctor diagnoses the health condition of the subject, or the subject himself pays attention to the health (see Non-Patent Document 2).
[0005]
[Non-patent document 1]
Journal of Human Interface Society, Vol3, No. "Dynamic Analysis of Facial Color in Laughter by Simultaneous Measurement of Facial Image and Facial Skin Temperature" described on pages 2, 23-30 (2001)
[Non-patent document 2]
Matsushita Electric Works, Ltd. Website Internet
<URL: http: // dmedia. mew. co. jp / wellness / kestuatsu / b-ew284. html>
[0006]
[Problems to be solved by the invention]
However, the first conventional technique determines laughter based on a dynamic model that averages variations in the hue of a face between individuals.According to the variation in the hue of a face, it is possible to accurately determine laughter. Did not. In addition, it is necessary to fix the photographing device for photographing the face and the user, and there is a problem that it is difficult to detect laughter for a long time by restricting the user.
[0007]
In the second conventional technique, a doctor or the subject himself / herself diagnoses the current health condition based on the accumulated blood pressure value, and the blood pressure value is normal, high blood pressure, low blood pressure based on the blood pressure value. It outputs a simple comment such as blood pressure, and does not serve as an index for determining the state of mental health.
[0008]
[Means for Solving the Problems]
In order to solve the above-described problems, the present invention is a laughter detection device that detects the number of laughter based on sound. Since a place for installation is not required and the laughter detection device can be downsized, the number of times of laughter can be accurately detected over a long period of time.
[0009]
Another aspect of the present invention is an information processing apparatus that configures mental health information based on laughter information including the number of laughs. And health information of the heart can be diagnosed. The health information is information on mental health, and may include a state of stress, a mental state, and the like, or a state of a physical function resulting from other mental stress such as a brain, heart, and internal organs.
[0010]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. Note that, in this embodiment, components using the same reference numerals, steps in a flowchart, and the like have the same function, and therefore, description thereof may be omitted once.
[0011]
(Embodiment 1)
[0012]
FIG. 1 is a block diagram illustrating a configuration of the laughter detection device according to the present embodiment. The laughter detection device includes a start reception unit 101, a sound acquisition unit 102, a determination start reception unit 103, a signal extraction unit 104, a determination unit 105, and a determination result output unit 106.
[0013]
The start accepting unit 101 accepts an input instruction to instruct the start of voice acquisition. The start receiving unit 101 can be generally realized by means such as a switch, a button, a touch panel, and the like, which are input by a person. Further, the start receiving unit 101 may be realized by, for example, a voice recognition unit or the like that recognizes a voice of a start uttered by a person.
[0014]
The sound acquisition unit 102 acquires a sound. The sound is information about a voice, for example, a voice, a vocal cord vibration generated by vibrating a vocal cord, and the like. Acquisition of such a sound can usually be realized by a bone conduction microphone, a voice microphone, or the like. The term “acquisition” is a concept that includes receiving from an external device different from the laughter detection device.
[0015]
Further, the sound acquisition unit 102 records the acquired sound signal on a recording medium built in the sound acquisition unit 102. The sound acquisition unit 102 is generally realized by hardware (dedicated circuit) including a recording medium for recording a sound signal, but may be realized by software. This recording medium may be a nonvolatile recording medium or a volatile recording medium.
[0016]
The determination start receiving unit 103 receives an input instruction. The input instruction is an instruction to start a process of extracting a signal in a frequency band of a vowel sound from a sound signal recorded by the sound acquisition unit 102. The determination start accepting unit 103 is generally realized by means such as a switch, a button, a touch panel, and the like, which are input by a person. Further, the determination start receiving unit 103 includes, for example, a voice recognition unit or the like for recognizing a voice “start of signal extraction” uttered by a human, and a timer built therein, and is fixed from the time when the start receiving unit 101 receives an input instruction. It can also be realized by means for automatically starting a process of extracting a signal of a frequency band of a vowel sound after a lapse of time (for example, after a lapse of 12 hours).
[0017]
The signal extraction unit 104 reads the sound signal recorded by the sound acquisition unit 102. The signal extraction unit 104 extracts a signal in a certain sound frequency band from the sound signal. This signal extraction can be realized by, for example, performing a wavelet transform process on a sound signal and extracting a frequency band of a vowel sound. Details will be described later. The signal extracting unit 104 is generally realized by hardware (dedicated circuit) including a recording medium for recording a sound signal, but may be realized by software. This recording medium may be a nonvolatile recording medium or a volatile recording medium.
[0018]
The determination unit 105 distinguishes between a laughing section and an uttering section from the signal extracted by the signal extracting unit 104, determines only the laughing section, and detects the number of laughs. Further, the number of laughs per unit time from the time when the start receiving unit 101 receives the input instruction to the time when the determination start receiving unit 103 receives the input instruction is calculated. Here, the utterance means a normal conversation. Details will be described later. The determination unit 105 is usually configured by software, but may be realized by hardware (dedicated circuit).
[0019]
The determination result report output unit 106 outputs the number of laughs detected by the determination unit 105 and the number of laughs per unit time. The number of laughs may be the number of laughs per day or the number of laughs per month. The output is preferably displayed on a display or the like, but may be output from a speaker or printed on a printer, and is a concept including transmission. The determination result output unit 106 can be realized by, for example, a display and its driver software. Further, the determination result output unit 106 may not include a display. In such a case, the determination result output unit 106 instructs the external display to output the number of laughs and the number of laughs per unit time. Furthermore, when outputting the number of times of laughter by sound, the determination result output unit 106 may include a speaker and its driver software. When the determination result output unit 106 transmits information or the like regarding the number of times of laughter to a device different from the laughter detection device, the determination result output unit 106 includes, for example, a network card and its driver software. realizable.
[0020]
Hereinafter, the operation of the laughter detection device according to the present embodiment will be described with reference to the flowcharts of FIGS. 2 and 3. The flowchart of FIG. 2 describes an operation of acquiring a sound, extracting a signal in a frequency band of a vowel sound, calculating an envelope from the extracted signal, and detecting an amplitude peak equal to or more than a certain value. . The flow chart of FIG. 3 distinguishes a laughter section and an utterance section from the detected amplitude peak, detects the number of laughs and the number of laughs per unit time, and outputs the number of laughs and the number of laughs per unit time. The following describes the operation to be performed.
[0021]
(Step S201) The start receiving unit 101 determines whether or not an input instruction for starting sound acquisition has been received. If an input instruction has been received, the process proceeds to step S202, and if not, the process returns to step S201.
[0022]
(Step S202) The sound acquisition unit 102 determines whether a sound has been acquired. If a sound has been obtained, the process proceeds to step S203. If no sound has been obtained, the process returns to step S202.
[0023]
(Step S203) The sound acquisition unit 102 records the sound signal acquired in Step 202 and the acquired time in a memory.
[0024]
(Step S204) The determination start receiving unit 103 determines whether or not an input instruction to start a process of extracting a signal in a frequency band of a vowel sound from the sound signal recorded in Step 203 has been received. If an input instruction has been received, the process proceeds to step S205, and if not, the process returns to step S202.
[0025]
(Step S205) The signal extraction unit 104 determines whether or not the sound signal recorded in the memory in Step S203 exists. If there is a sound signal, the process proceeds to step S206. If there is no sound signal, the procedure goes to step S209. After reading, the signal extraction unit 104 increments the pointer of the memory by one to read the next sound signal and the acquisition time.
[0026]
(Step S206) The signal extraction unit 104 reads the sound signal and the acquisition time from the memory.
[0027]
(Step S207) The signal extraction unit 104 performs wavelet transform on the sound signal read in step 206. Wavelet transform means that a sound signal is divided into two parts, a low frequency band and a high frequency band, by a two-band filter bank, and the low frequency band is divided into a low frequency band and a high frequency band. That is, it is repeatedly divided into two. A band-divided filter bank is a divided filter derived from a wavelet function.
[0028]
(Step S208) The signal extraction unit 104 extracts a signal in the frequency band of the vowel sound, and records the signal and the acquisition time corresponding to the signal in the memory. Here, the frequency band of the vowel sound is a frequency band from 0 to 1000 Hz. A signal in the frequency band of the vowel sound recorded in the memory is called a vowel frequency band signal. After recording the vowel frequency band signal and the acquisition time corresponding to the signal in the memory, the signal extraction unit 104 returns to step 205.
[0029]
(Step S209) The determining unit 105 determines whether or not the vowel frequency band signal recorded in the memory in Step S208 exists. If there is a vowel frequency band signal, the procedure goes to step S210. If there is no vowel frequency band signal, the procedure goes to step S214. After reading, the determination unit 105 counts up the memory pointer by one to read the next sound signal and the acquisition time.
[0030]
(Step S210) The determination unit 105 reads the vowel frequency band signal and the acquisition time from the memory.
[0031]
(Step S211) The determination unit 105 determines the absolute value of the amplitude of the vowel frequency band signal read from the memory.
[0032]
(Step S212) The determining unit 105 performs an LPF (Low Pass Filer) process on the absolute value of the amplitude obtained in step 211 to obtain an envelope of the amplitude.
[0033]
(Step S213) The determination unit 105 records the amplitude envelope data obtained in step 212 and the corresponding acquisition time in the memory. The recorded data of the amplitude envelope is used as amplitude envelope data.
[0034]
(Step S214) The determination unit 105 initializes the amplitude peak acquisition time T (m).
[0035]
(Step S215) The determination unit 105 sets the counter i and the counter m to 1 each. The i-th of the counter i means the recording order in which the amplitude envelope data was recorded at the i-th. That is, the amplitude envelope data when the counter i is 1 means the amplitude envelope data recorded first. The m-th counter m indicates a recording order in which the acquisition time corresponding to the amplitude peak is recorded at the m-th time at the amplitude peak acquisition time T (m) when the amplitude peak is equal to or greater than a certain value. That is, the amplitude peak acquisition time T (m) when the counter m is 1 means the acquisition time corresponding to the amplitude peak when the amplitude peak recorded first is equal to or more than a certain value.
[0036]
(Step S216) The determining unit 105 determines whether or not the i-th amplitude envelope data recorded in the memory in step S213 exists. If the i-th amplitude envelope data exists, the process proceeds to step S217. If the i-th amplitude envelope data does not exist, the procedure goes to step S301.
[0037]
(Step S217) The determination unit 105 reads the amplitude envelope data and the acquisition time from the memory.
[0038]
(Step S218) The determining unit 105 detects a peak of the amplitude from the amplitude envelope data read in step 217.
[0039]
(Step S219) The determination unit 105 determines whether the peak of the amplitude obtained in step 217 is about 0.05 or more. If the amplitude peak is about 0.05 or more, go to step 220. If the peak of the amplitude is not greater than about 0.05, the process proceeds to step 222. The reason for determining whether the peak of the amplitude is about 0.05 or more is to remove miscellaneous signals other than laughter.
[0040]
(Step S220) The determination unit 105 records the acquisition time corresponding to the amplitude peak of about 0.05 or more determined in step 219 at the amplitude peak acquisition time T (m).
[0041]
(Step S221) The determining unit 105 increments the counter m by one.
[0042]
(Step S222) The determining unit 105 increments the counter i by one. The determination unit 105 returns to step 216 after counting up.
[0043]
(Step S301) The determination unit 105 initializes the number of laughs N and the number of laughs per unit time.
[0044]
(Step S302) The determination unit 105 sets the counter m to 1. The counter m is used to read the m-th recorded amplitude peak acquisition time T (m).
[0045]
(Step S303) The determination unit 105 determines whether or not the (m + 3) th amplitude peak acquisition time T (m + 3) recorded in step S213 exists. If the (m + 3) th amplitude peak acquisition time T (m + 3) exists, the process proceeds to step S304. If the (i + 3) th amplitude peak acquisition time T (m + 3) does not exist, the process proceeds to step S315.
[0046]
(Step S304) The determination unit 105 reads the amplitude peak acquisition time T (m), the amplitude peak acquisition time T (m + 1), the amplitude peak acquisition time T (m + 2), and the amplitude peak acquisition time T (m + 3).
[0047]
(Step S305) The determination unit 105 obtains a difference between the amplitude peak acquisition time T (m) and the amplitude peak acquisition time T (m + 1), and sets the difference as X1. Next, a difference between the amplitude peak acquisition time T (m + 1) and the amplitude peak acquisition time T (m + 2) is obtained, and the difference is set to X2. Next, a difference between the amplitude peak acquisition time T (m + 2) and the amplitude peak acquisition time T (m + 3) is obtained, and the difference is set to X3.
[0048]
(Step S306) The determination unit 105 determines the maximum value of X1, X2, and X3, and sets the maximum value as Y1. Next, the minimum value of X1, X2, and X3 is obtained, and the minimum value is set as Y2.
[0049]
(Step S307) The determination unit 105 determines whether the difference between Y1 and Y2 is about 30 ms or less. If the difference between Y1 and Y2 is about 30 ms or less, the process proceeds to step 308. If the difference between Y1 and Y2 is not less than about 30 ms, go to step 310.
[0050]
(Step S308) The determination unit 105 adds 1 to the number N of laughter. Here, if the difference between Y1 and Y2 is about 30 ms or less, it is determined that laughter is occurring if the time interval between the peaks of three consecutive amplitudes is about 30 m or less from the experimental results. This is because it can be determined that laughter has occurred.
[0051]
(Step S309) The determination unit 105 increments the counter m by four. Next, the determination unit 105 returns to Step 303.
[0052]
(Step S310) The determining unit 105 determines whether Y1 is the same as X1. If Y1 is the same as X1, go to step 311. If Y1 is not the same as X1, go to step 312.
[0053]
(Step S311) The determining unit 105 increments the counter m by one. Next, the determination unit 105 returns to Step 303.
[0054]
(Step S312) The determination unit 105 determines whether Y1 is the same as X2. If Y1 is the same as X2, go to step 313. If Y1 is not the same as X1, go to step 314.
[0055]
(Step S313) The determination unit 105 increments the counter m by two. Next, the determination unit 105 returns to Step 303.
[0056]
(Step S314) The determination unit 105 increments the counter m by three. Next, the determination unit 105 returns to Step 303.
[0057]
(Step S315) The determination unit 105 calculates the number of laughs per unit time based on the number of laughs N.
[0058]
(Step S316) The determination result output unit 106 outputs the number of laughs N and the number of laughs per unit time. After this output, the operation of the laughter detection device ends.
[0059]
The operation in which the laugh detection device detects the number of laughs and the number of laughs per unit time and outputs the number of laughs and the number of laughs per unit time has been described above with reference to the flowcharts of FIGS. 2 and 3.
[0060]
Hereinafter, a specific operation of the laughter detection device according to the present embodiment will be described. The sound acquisition unit of the laughter detection device has a bone conduction microphone 401. FIG. 4 shows a bone conduction microphone 401 and a bone conduction microphone 402 when worn by a user. The bone conduction microphone may be mounted so as to be in close contact with the larynx, or may be mounted so as to be in close contact with the external auditory meatus or the top of the head. Further, the bone conduction microphone 401 may transmit the acquired sound signal to the sound acquisition unit via a wire or may transmit the acquired sound signal by wireless communication means.
[0061]
Now, the user is wearing the bone conduction microphone 502 closely on the larynx and watching a television. FIG. 5 shows a laughter detection device 501, a bone conduction microphone 502, a push button 503 of a start reception unit, a push button 504 of a judgment start reception unit, and a liquid crystal display 505 of a judgment result output unit.
[0062]
Push button 503 of the start receiving unit receives an input instruction for instructing start of sound acquisition.
[0063]
Next, the bone conduction microphone 502 acquires the vocal cord vibration and converts it into an audio signal to acquire a sound. When the bone transmission microphone acquires the voice, the voice of the user can be directly obtained, and the influence of the surrounding noise can be reduced. Further, the acquired audio signal is associated with the time at which the audio signal was acquired, and is recorded in a memory built in the sound acquisition unit.
[0064]
Next, the push button 504 of the determination start receiving unit receives an input instruction to start a process of extracting a signal of a frequency band of a vowel sound based on the acquired sound signal.
[0065]
Next, the signal extraction unit reads the audio signal and the acquisition time recorded in the memory. Next, a signal in the frequency band of the vowel voice is extracted from the voice signal. In the extraction of the signal, first, an audio signal in a frequency band of 0 to 8000 Hz is extracted. Next, the extracted audio signal of 0 to 8000 Hz is subjected to wavelet transform processing to extract an audio signal of a frequency band of 0 to 1000 Hz which is a frequency band of the vowel sound. The frequency band of the vowel sound is defined as a vowel frequency band signal. The wavelet transform is to divide an audio signal into two parts, a low frequency band and a high frequency band, using a two-band filter bank, and further divide the low frequency band into a low frequency band and a high frequency band. That is, it is repeatedly divided into two. A band-divided filter bank is a divided filter derived from a wavelet function. That is, the audio signal of 0 to 8000 Hz is divided into two of a frequency band of 0 to 4000 Hz and a frequency band of 4000 to 8000 Hz by a two-band filter bank, and the audio signal of the frequency band of 0 to 4000 Hz is The frequency band from 0 to 2000 Hz and the frequency band from 2000 to 4000 Hz are divided into two, and the audio signal from the frequency band from 0 to 2000 Hz is further divided into the frequency band from 0 to 1000 Hz and the frequency band from 1000 to 2000 Hz. Finally, an audio signal in a frequency band of 0 to 1000 Hz is extracted.
[0066]
FIG. 6 shows the result of the wavelet transform. According to FIG. 6, an audio signal 601 in a frequency band from 0 to 8000 Hz, an audio signal 602 in a frequency band from 0 to 1000 Hz, an audio signal 603 in a frequency band from 1000 to 2000 Hz, and an audio signal 604 and 4000 in a frequency band from 2000 to 4000 Hz. 5 shows an audio signal 605 in a frequency band from 8000 Hz to 8000 Hz.
[0067]
In the present embodiment, the audio signal in the frequency band of 0 to 1000 Hz is extracted from the audio signal by using the means of the wavelet transform, but the audio signal is subjected to the low-frequency band pass filter processing of 0 to 1000 Hz. Thus, the audio signal in the frequency band from 0 to 1000 Hz may be extracted, or may be extracted using other means.
[0068]
Next, the signal extraction unit sequentially records the extracted vowel frequency band signal and the corresponding acquisition time in a memory built in the signal extraction unit.
[0069]
Next, the determination unit sequentially reads the vowel frequency band signal and the corresponding acquisition time from a memory built in the signal extraction unit.
[0070]
Next, the determination unit calculates the absolute value of the amplitude of the read vowel frequency band signal, performs LPF processing of 5 to 10 Hz, and obtains amplitude envelope data of the vowel frequency band signal. FIG. 7 shows a time series change of the amplitude envelope data of the vowel frequency band signal. FIG. 7 shows an amplitude envelope 701 of a laughing voice waveform and an amplitude envelope 702 of an uttering voice waveform.
[0071]
In the present embodiment, the absolute value of the signal is calculated, and the amplitude envelope data is obtained by performing LPF processing at 5 to 10 Hz. You may ask.
[0072]
Next, the determining unit records the obtained amplitude envelope data and the corresponding acquisition time in the memory.
[0073]
Next, the determining unit detects a peak of the amplitude from the read amplitude envelope data. If the peak of the amplitude is about 0.05 or more, the acquisition time corresponding to the amplitude peak of about 0.05 or more is recorded at the amplitude peak acquisition time T (m). Then, the counter m is incremented by one. The reason why the peak of the amplitude is about 0.05 or more is to remove miscellaneous signals other than laughter. In addition, about 0.05 may be another value.
[0074]
Next, the determination unit counts up the counter i by one, reads the existing i-th amplitude envelope data, detects the amplitude peak, and if the amplitude peak is about 0.05 or more, the amplitude peak Recording the acquisition time corresponding to the amplitude peak of about 0.05 or more at the acquisition time T (m) is repeated. This process is repeated until the amplitude envelope data no longer exists.
[0075]
Next, the judgment unit detects the number of laughs N. The determination unit reads the amplitude peak acquisition time T (m + 1), the amplitude peak acquisition time T (m + 2), and the amplitude peak acquisition time T (m + 3) from the amplitude peak acquisition time T (m).
[0076]
Next, the determining unit calculates the period of the continuous amplitude peak. The difference between the amplitude peak acquisition time T (m) and the amplitude peak acquisition time T (m + 1) is obtained, and the difference is defined as X1. The difference between the amplitude peak acquisition time T (m + 1) and the amplitude peak acquisition time T (m + 2) is obtained, and the difference is defined as X2. The difference between the amplitude peak acquisition time T (m + 2) and the amplitude peak acquisition time T (m + 3) is obtained, and the difference is defined as X3. Next, the maximum value of X1, X2, and X3 is obtained, and the maximum value is set to Y1. The minimum value of X1, X2, X3 is obtained, and the minimum value is set to Y2. According to FIG. 7, X1 indicates the first interval 7011, X2 indicates the second interval 7012, X3 indicates the third interval 7013, and the first interval 7021 and the second interval 7022 in the case of speech.
[0077]
Next, the determining unit determines whether or not the cycle of the peak of the continuous amplitude is within a certain range. Preferably, the period of the laughter amplitude peak is typically in the range of about 80 to about 120 ms. The cycle of the amplitude peak of laughter in the range of about 80 to about 120 ms means the range of the cycle when the magnitude of laughter is adjusted to some extent. The cycle of the amplitude peak of laughter fluctuates due to individual differences. When laughing large, the cycle is in a large range, for example, in the range of 150 to 190 ms, and when laughing small, the cycle is small. . Further, when the amplitude peak of laughter is repeated three times in succession, the range of the variation of the interval between the amplitude peaks is preferably about 30 ms. This about 30 ms was obtained from the measurement result of the repetition period of laughter and conversation. The value of about 30 ms may be another value. FIG. 8 shows experimental results obtained by measuring the period of laughter and the period of conversation. FIG. 9 shows variations in the cycle of laughter and conversation. This variation is derived from the experimental results shown in FIG. Also, from the result of this variation, it can be seen that the repetition periods of laughter and conversation are different, and a certain range 901 for distinguishing laughter from conversation is obtained. That is, the difference between Y1 and Y2 is obtained, and if the difference is within about 30 ms, it is determined that laughter has been performed, and 1 is added to the number N of laughter. Then, the counter m is incremented by 4 and the determination of whether or not the next continuous amplitude peak is laughing is repeated.
[0078]
When the difference between Y1 and Y2 is not within about 30 ms, if Y1 is X1, the determination unit increments the counter m by one. If Y1 is X2, the counter m is incremented by two. If Y1 is X3, the counter m is incremented by three. In this process, if the variation of the periodic interval between the amplitude peaks of three consecutive laughs does not fall within about 30 ms, the cycle of the three consecutive laughs is repeated from the next periodic interval of the maximum periodic interval. This is to determine the variation in the interval time.
[0079]
Next, the determination unit reads the amplitude peak acquisition time until the m + 3th amplitude peak acquisition time T (m + 3) recorded in the memory no longer exists, and repeats the operation of determining whether or not laughing has been performed. The number of laughs N is detected.
[0080]
Next, the determining unit divides the number of laughs N by the time from the time when the push button 503 receives the input instruction to the time when the push button 504 of the determination start receiving unit receives the input instruction, and Calculate the number of laughs.
[0081]
Next, the liquid crystal display 505 of the judgment result report output unit outputs the number N of laughs detected by the judgment unit and the number of laughs per unit time. FIG. 10 shows a display example of the number of laughs N output on the liquid crystal display and the number of laughs per unit time. According to FIG. 10, the number of laughs is 30 times, the number of laughs per unit time is 2, the detection date is February 7, the detection start time AM 8:00, and the detection end time PM 11:00 are displayed simultaneously. The detection date can be realized by obtaining the date on which the number of laughs is detected by the laughter detection device having the calendar function means. Further, the detection start time and the detection end time can be realized by displaying the time received by the start reception unit and the time received by the determination start reception unit.
[0082]
As described above, according to the present embodiment, a laughter detection device that can determine a laughter interval and an utterance interval from an audio signal, detect the number of laughter times, and output the number of laughter times, Thereby, the number of laughs can be detected accurately and for a long time without errors in the detection of the number of laughs due to individual differences. In addition, by providing the computer with the "laughter" detection function of the present invention, "laughter" is accurately recognized, and the computer can realize communication close to that of a human. In addition, by accurately detecting the number of laughs, it is useful for evaluation and production of games, entertainment, and the like. In addition, since the utterance section and the laughter section can be accurately determined, a profession that needs to manage the utterance time, for example, a singer or an announcer, can easily manage the utterance time. In addition, if the number of laughs is small, doctors and users are advised that stress may accumulate, develop mental illness such as depression, decrease physical function caused by mental factors, develop illness, etc. And the like can be easily determined based on the number of laughs. In addition, it has been reported as an experimental result that NK cells having an immune function are activated by laughing, and an accurate number of laughs is obtained using a laugh detection device to measure the NK cell activity rate. It is useful.
[0083]
Note that, in the present embodiment, as means for distinguishing between a laughter and an utterance section, the determination unit obtains an envelope of the vowel frequency band signal, and determines a period of the amplitude peak when the amplitude peak of the envelope is equal to or more than a certain value. Has been determined to be within a certain range, but means for determining from the shape of the amplitude waveform of the envelope may be used. That is, according to FIG. 7, the amplitude waveform of the laughter amplitude envelope has a substantially sinusoidal waveform. The determination unit records the signal having the substantially sinusoidal waveform in a memory in advance, compares the signal of the amplitude waveform of the amplitude envelope of the acquired voice with the signal having the substantially sinusoidal waveform, and determines the amplitude of the voice. If a waveform that approximates the shape of a sine waveform can be detected from the envelope waveform, it is determined that the section is a laughing interval. The means for detecting the shape of the substantially sinusoidal waveform includes, for example, a signal value at which the amplitude of the laughter amplitude waveform and the amplitude waveform of the audio amplitude envelope peak, and a signal at two points near the amplitude peak in time. Find the value. Next, the signal values at the three locations are compared, and when the signal values at the three locations match or are approximately similar, a substantially sinusoidal waveform shape can be detected. The means for detecting the shape of the substantially sinusoidal waveform may be another means.
[0084]
Alternatively, means for judging from the fundamental frequency (voice pitch) of the laughing voice may be used. The determination unit stores, for example, a standard fundamental frequency that is a fundamental frequency of a standard laughing voice, compares the standard fundamental frequency with the frequency of the acquired audio signal, and determines the frequency of the acquired audio signal. Is determined to be a laugh when it matches or almost approximates the standard fundamental frequency.
[0085]
In the case where the determination is made by combining two or more of the determination means according to the present embodiment, the means for determining from the shape of the amplitude waveform of the envelope, and the means for determining from the frequency (voice pitch) of the laughter voice, etc. The laughter section can be detected with higher accuracy.
[0086]
Further, in the present embodiment, the result determination output unit is a liquid crystal display, which displays the number of laughs and the number of laughs per unit time by numbers, but the number of laughs by voice and the number of laughs per unit time May be notified or printed. Further, a mode in which the number of laughs is transmitted to another device may be used. Such output control is the same in other embodiments.
[0087]
Furthermore, the operation of the laughter detection device described in the present embodiment may be realized by software, and the software may be placed on a server, for example, and the software may be distributed by software download. Further, the software may be recorded on a recording medium such as a CD-ROM and distributed. This is the same in all other embodiments.
[0088]
A program when the operation in the present embodiment is realized by software is as follows. In the computer, a sound acquisition step of acquiring sound, a signal extraction step of extracting only a signal in a certain frequency band from the sound acquired in the sound acquisition step, and a sound acquisition step based on the signal extracted in the signal extraction step. This is a program for executing a determination step of determining whether the acquired sound is laughter and a determination result output step of outputting a determination result in the determination step.
[0089]
(Embodiment 2)
FIG. 11 is a block diagram illustrating a configuration of an information processing system including an information processing device, a laughter detection device, and a health information display device according to the present embodiment. The laughter detection device 1110 includes a start reception unit 101, a sound acquisition unit 102, a determination start reception unit 103, a signal extraction unit 104, a determination unit 105, and a determination result output unit 1111. Further, the information processing device 1120 includes a laughter information receiving unit 1121, a health information forming unit 1122, and a health information output unit 1123. In addition, the health information display device 1130 includes a health information receiving unit 1131 and an information output unit 1132. The health information display device 1130 is a predetermined device identified by a user identifier.
[0090]
FIG. 12 is a block diagram illustrating a configuration of the health information configuration unit. The health information configuration unit 1210 has a health information acquisition unit 1211 and a health information storage unit 1212.
[0091]
Laugh detection device 1110 has the same configuration as that of the first embodiment, and detects the number of laughs and the number of laughs per unit time by the same operation. Then, laughter information including the laugh information and the user identifier is transmitted. This transmission is performed by the determination result output unit 1111. The determination result output unit 1111 includes, for example, a network card and its driver software, and can be realized by transmitting laughter information to the information processing device. The laugh information refers to information about laughter, and is, for example, the number of laughs or the number of laughs per unit time. The user identifier is information for identifying a user. The user identifier is, for example, an identification number, a name, or the like. Further, attribute information of the user according to the user identifier, for example, other attribute information such as age, gender, and past illnesses may be stored in a recording medium incorporated in the information processing device, and the laughter detection device May be stored in a built-in recording medium. The data structure of the user identifier does not matter. The information of the user identifier is recorded on a recording medium included in the laughter detection device. Further, the information of the user identifier may be recorded on a (external) recording medium different from the laughter detection device. This recording medium may be a nonvolatile recording medium or a volatile recording medium.
[0092]
The laughter information receiving unit 1121 of the information processing device 1120 receives laughter information. The laughter information receiving unit 1121 includes, for example, a network card and its driver software, and can be realized by receiving laughter information.
[0093]
The health information acquisition unit 1212 acquires health information from the health information stored in the health information storage unit 1211 based on the laughter information received by the laughter information reception unit 1121. The health information acquisition unit 1212 is usually configured by software, but may be realized by hardware (dedicated circuit).
[0094]
The health information storage unit 1211 stores health information related to mental health. The non-volatile recording medium is suitable for the health information storage unit 1211. However, the health information storage unit 1211 may be a volatile recording medium. Specifically, the health information storage unit 1211 is preferably a DVD (Digital Versatile Disc) or the like.
[0095]
The health information output unit 1123 outputs the health information acquired by the health information configuration unit 1122. The health information output unit 1123 is composed of, for example, a network card and its driver software, and can be realized by transmitting health information. Further, display on a display or the like is preferable, but sound output from a speaker or printing on a printer may be used. The health information output unit 1123 can be realized by, for example, a display and its driver software. Also, the health information output unit 1123 may not include a display. In such a case, the health information output unit 1123 instructs to output health information to an external display. Furthermore, when outputting the health information by sound, the health information output unit 1123 may include a speaker and its driver software.
[0096]
Health information receiving section 1131 receives health information. The health information receiving unit 1131 is composed of, for example, a network card and its driver software, and can be realized by receiving health information.
[0097]
The information output unit 1132 outputs the health information received by the health information receiving unit 1132. This output is preferably displayed on a display or the like, but may be audio output from a speaker or printing on a printer. The information output unit 1132 can be realized by, for example, a display and its driver software. The information output unit 1132 may not include a display. In such a case, the information output unit 1132 instructs the external display to output health information. Further, when outputting the health information by sound, the information output unit 1132 may include a speaker and its driver software.
[0098]
Hereinafter, a specific operation of the information processing apparatus according to the present embodiment will be described.
[0099]
FIG. 13 shows an information processing device 1301, a laughter detection device 1302, and a health information display device 1303. According to FIG. 13, the information processing device 1301, the laughter detection device 1302, and the health information display device 1303 are all connected via the Internet.
[0100]
The laughter detection device 1302 detects the number of laughs and the number of laughs per unit time by the same operation as in the first embodiment. Next, the determination result output unit of the laughter detection device 1302 transmits laughter information including the number of laughs, the number of laughs per unit time, a user identifier, and the like to the information processing device. FIG. 14 shows an example of laughter information data.
According to FIG. 14, the data of the laughter information includes an identification number “1055”, a name “Hanako Keihan”, a detection date, the number of laughs per unit time, the number of laughs, and the like. The data structure of the laughter information does not matter.
[0101]
In the present embodiment, the determination result output unit of the laughter detection device transmits one laughter information. However, the laughter frequency is detected a predetermined number of times (for example, the laughter frequency is detected 10 times). After that, or after a predetermined period (for example, one week) has elapsed, the laughter information may be transmitted. In addition, the laughter information of a plurality of users may be transmitted. In this case, the determination result output unit transmits the user identifier, the number of laughs corresponding to the user identifier, and the number of laughs per unit time as laughter information.
[0102]
The laughter information receiving unit receives the laughter information, and the health information obtaining unit obtains an identification number from the laughter information, and sequentially stores the laughter information in a memory allocated according to the identification number.
[0103]
Next, the health information acquiring means sequentially reads the number of laughs per unit time (for example, from January 1 to January 31) in a single month from the data of the laughter information stored in the memory. Calculate the average value of the number of laughs per unit time in a single month.
[0104]
Next, the health information acquiring means searches for data including the age, gender, name, etc. stored in a memory built in the information processing device in advance using the identification number as a key, and retrieves the age, gender, To get. Next, the health information acquisition means searches the health information data stored in the health information storage means using the average number of laughs per unit time, age and gender as keys, and retrieves the corresponding health information data. get. FIG. 15 shows that, using the identification number “1055” as a key, the data 1501 including the age, gender, name, and the like is searched to acquire the age and gender that matches the identification number “1055”. FIG. 16 shows a search of the health information data 1602 stored in the health information storage means 1603 using “average number of laughs, age, and gender per unit time” as a key, and searching for age, gender, and average unit time. This indicates that data of health information that matches the number of laughs is acquired.
[0105]
According to FIG. 15, using the identification number “1055” as a key, the data 1501 including the age, gender, name, and the like is searched, and the corresponding age “65” and gender “female” are acquired. According to FIG. 16, the health information data 1602 is searched using the average number of laughs per unit time “2”, age “65”, and gender “female” as keys, and the corresponding “health information” is obtained. I do.
[0106]
In this embodiment, the health information data 1602 is composed of gender, age, average number of laughs per unit time, and health information. However, blood pressure value, cholesterol value, other information, etc. Needless to say, a configuration including The data structure of the health information does not matter.
[0107]
Such health information may be, for example, "Normal number of laughs. It seems that there is no problem with your health condition. Care should be taken to laugh enough." If this condition continues, it may be unfavorable for mental stability and may lead to mental disorders such as depression, dementia, amnesia, etc. In addition, there is a decline in physical functions caused by mental factors and lifestyle-related diseases If you don't laugh, your immune function may be reduced and you may develop an immune disease, cancer, or other illness. Be careful to laugh enough. " And so on.
[0108]
Although the average number of laughs per unit time per month was used as the search condition, the average number of laughs per unit time per unit time during other fixed periods, for example, the average for two weeks or the average for one year But it's fine. Alternatively, health information may be obtained by searching using a change amount of the average number of laughs per unit time for each fixed period (for example, every single month, every two months) as a key. In this case, the data structure of the health information includes data that can be searched by the amount of change in the number of laughs per unit time.
[0109]
In the present embodiment, the information processing apparatus has the health information stored in advance in the health information storage means. However, the information processing apparatus has a means for customizing information about health, The health information stored in the storage means may be updated to the latest health information.
[0110]
Further, the health information acquisition means retrieves the health information stored in advance in the health information storage means and acquires the corresponding health information. However, the health information acquisition means is provided on a server different from the information processing apparatus. The health information may be acquired from a database owned by the company. It goes without saying that a plurality of such servers may be used.
[0111]
Next, the health information output unit acquires the health information configured by the health information configuration unit, and transmits the health information to the health information display device identified by the user identifier. That is, the health information output unit transmits the health information to the device having the IP address corresponding to the identification number included in the user identifier. After the transmission, the operation of the information processing device ends.
[0112]
Next, the health information display device receives the health information and outputs the health information to the liquid crystal display. FIG. 17 shows a display example of health information. According to FIG. 17, the identification number, name, age, gender, average number of laughs per unit time per month, judgment, and health information are displayed. The judgment is information included in the health information. If the number of laughs is equal to or more than a certain value, the state of good health is evaluated. In this embodiment, when the average number of laughs per unit time in a single month is 0, the evaluation is E. When the number is 1 to 2, the evaluation is D, and the number is 3 to 3. In the case of 4, the evaluation is C, when the number is 5 to 6, the evaluation is B, and when the number is 7 or more, the evaluation is A. The fixed value may be another value according to the health information or the like.
[0113]
In the present embodiment, the health information display device outputs the health information to the liquid crystal display. However, the health information display device may store the health information in a recording medium built in the device. Further, the laughter detection device may receive the health information and output the health information. In such a case, the laughter detection device includes a receiving unit that receives the health information and an output unit that outputs the health information.
[0114]
Further, the information processing device may transmit health information in response to a request from a user.
[0115]
In the present embodiment, the number of laughs is detected by the laugh count detecting means of the first embodiment. However, the number of laughs of the user himself is detected by writing down the number of laughs in a memo or the like. Alternatively, the sound may be recorded, and laughter may be detected by other detecting means such as a means for detecting the number of laughs from the recorded sound.
[0116]
Further, in the present embodiment, the health information output unit transmits the health information to the health information display device, but the health information output unit has a liquid crystal display or the like, and the health information configuration unit configures the health information output unit. It may output information. FIG. 18 shows a display example of the health information in such a case. According to FIG. 18, the identification number, name, age, gender, average number of laughs per unit time per month, judgment, and health information are displayed. The age and gender are pre-recorded in a memory built in the information processing device, and the health information output unit searches using the identification number as a key, acquires the age and gender, and outputs the acquired information. is there.
[0117]
Also, in the present embodiment, the health information output unit, the health information reception unit, and the information output unit transmit, receive, and output the health information, respectively. It may transmit, receive, and output.
[0118]
Further, in the present embodiment, the judgment output unit, the laughter information receiving unit, the health information output unit, and the health information receiving unit transmit or receive respective information via the Internet. The information may be transmitted or received by such means.
[0119]
Further, the determination result output unit and the health information output unit may be configured by broadcasting means and the like, and may broadcast each information, and the laughter information receiving unit and the health information receiving unit may receive the respective information.
[0120]
As described above, the information processing apparatus according to the present embodiment configures health information relating to mental health based on the number of laughs detected by the laugh detection device and transmits the health information, and determines the number of laughs as a criterion. As a result, it is possible to easily obtain information on a mental health condition. Such health information can be used as one of the determination indices of QOL (Quality of Life). Further, detailed information can be obtained on the adverse effects caused by not laughing, and the user can pay sufficient attention to laughing and maintain a good health condition. Also,
[0121]
Further, a program when the operation of the laughter detection device in the present embodiment is realized by software is as follows. The computer has a sound acquisition step of acquiring sound, a signal extraction step of extracting only a signal in a certain frequency band from the sound acquired by the sound acquisition step, and a sound acquisition step based on the signal extracted by the signal extraction step. This is a program for executing a determination step of determining whether the acquired sound is laughter, and a determination result output step of outputting laughter information including a determination result and a user identifier in the determination step.
[0122]
Further, a program when the operation of the information processing apparatus according to the present embodiment is realized by software is as follows. A program for causing a computer to execute a laughter information receiving step of receiving laughter information, a health information configuration step of configuring health information based on the laughter information, and a health information output step of outputting health information. .
【The invention's effect】
According to the present invention, an accurate number of laughs can be detected, and health information on mental health can be easily acquired based on the number of laughs.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of a laughter detection device according to a first embodiment.
FIG. 2 is a flowchart illustrating an operation of the laughter detection device according to the first embodiment;
FIG. 3 is a flowchart illustrating an operation of the laughter detection device according to the first embodiment;
FIG. 4 is a diagram showing a bone conduction microphone and a bone conduction microphone when worn;
FIG. 5 is a diagram showing a laughter detection device.
FIG. 6 is a diagram showing an example of an audio signal for each frequency band.
FIG. 7 is a diagram showing a time-series change of amplitude envelope data of a vowel frequency band signal.
FIG. 8 is a diagram showing experimental results obtained by measuring a period of laughter and a period of conversation.
FIG. 9 is a diagram showing variations in the cycle of laughter and conversation.
FIG. 10 is a diagram showing a display example of the number of laughs output on the liquid crystal display.
FIG. 11 is a block diagram showing an information processing system according to a second embodiment.
FIG. 12 is a block diagram illustrating a configuration of a health information configuration unit of the information processing apparatus according to the second embodiment.
FIG. 13 is a diagram showing an appearance of an information processing system according to a second embodiment.
FIG. 14 is a diagram showing an example of laughter information;
FIG. 15 is a diagram showing an example of searching for age and gender.
FIG. 16 is a diagram showing an example of searching for health information.
FIG. 17 shows a display example of health information.
FIG. 18 is a diagram showing a display example of health information.
[Explanation of symbols]
101, 503 Start reception unit
102, 401, 402, 502 sound acquisition unit
103, 504 Judgment start reception unit
104 signal extraction unit
105 Judgment unit
106, 505, 1111 judgment result output unit
501, 1110, 1302 laughter detection device
1120, 1301 Information processing device
1121 laughter information receiver
1122, 1101 and 1210 Health information component
1123 Health information output unit
1130, 1303 Health information display device
1131 Health information receiving unit
1132 Information output unit
1211 Health information storage means
1212 Health information acquisition means
1501 Examples of data such as name, age, and gender
1601 Examples of average number of laughs, age, and gender per unit time with search key
1602 Example of health information data
1603 Example of recording medium with accumulated health information

Claims (12)

音を取得する音取得部と、
前記音取得部が取得した音から一定の周波数帯域の信号のみを抽出する信号抽出部と、
前記信号抽出部が抽出した信号に基づいて、前記音取得部が取得した音が笑いであるか否かを判断する判断部と、
前記判断部における判断結果を出力する判断結果出力部を具備する笑い検出装置。
A sound acquisition unit for acquiring sound;
A signal extraction unit that extracts only a signal in a certain frequency band from the sound acquired by the sound acquisition unit,
Based on the signal extracted by the signal extraction unit, a determination unit that determines whether the sound acquired by the sound acquisition unit is laughter,
A laughter detection device comprising a judgment result output unit for outputting a judgment result in the judgment unit.
前記音取得部は、喉頭部に配置された骨伝導マイクロホンにより音を取得する請求項1記載の笑い検出装置。The laughter detection device according to claim 1, wherein the sound acquisition unit acquires sound using a bone conduction microphone arranged on a larynx. 前記信号抽出部は、ウェーブレット変換より、特定の周波数帯域信号のみを抽出する請求項1または請求項2いずれか記載の笑い検出装置。3. The laughter detection device according to claim 1, wherein the signal extraction unit extracts only a specific frequency band signal from the wavelet transform. 4. 前記判断部は、前記信号抽出部が抽出した信号のうち、振幅ピークが一定以上であり、周期的に出現する区間を笑いの区間と判断する請求項1から請求項3いずれか記載の笑い検出装置。4. The laughter detection device according to claim 1, wherein the determination unit determines a period in which the amplitude peak is equal to or more than a predetermined value and which periodically appears in the signals extracted by the signal extraction unit as a laughter period. 5. apparatus. 前記周期が約80msから約120msである請求項4記載の笑い検出装置。5. The laughter detection device according to claim 4, wherein the period is about 80 ms to about 120 ms. 前記判断結果出力部は、前記判断部が笑いであると判断した回数を出力する請求項1から請求項5いずれか記載の笑い検出装置。The laughter detection device according to any one of claims 1 to 5, wherein the determination result output unit outputs the number of times that the determination unit determines that the laugh is performed. 笑いに関する情報である笑情報を有する笑者情報を受信する笑者情報受信部と、
前記笑者情報に基づいて、心の健康に関する情報である健康情報を構成する健康情報構成部と、
前記健康情報を出力する健康情報出力部を具備する情報処理装置。
A laughter information receiving unit that receives laughter information having laugh information that is information about laughter,
Based on the laughter information, a health information configuration unit that configures health information that is information about mental health,
An information processing apparatus comprising a health information output unit that outputs the health information.
前記笑者情報は、単位時間あたりの笑いの回数の情報を含み、前記健康情報構成部は、前記単位時間あたりの笑いの回数の情報が、一定回数以下の笑いの回数を示す情報であれば、不健康である旨を示す情報を健康情報として構成する請求項7記載の情報処理装置。The laughter information includes information on the number of laughs per unit time, and the health information forming unit, if the information on the number of laughs per unit time is information indicating the number of laughs equal to or less than a certain number of times. 8. The information processing apparatus according to claim 7, wherein information indicating that the subject is unhealthy is configured as health information. 前記笑い検出装置と、前記情報処理装置を具備する情報処理システムであって、
前記笑い検出装置は、
笑い回数を検出し、笑いに関する情報である笑情報を有する笑者情報を前記情報処理装置に送信し、
前記情報処理装置は、
笑いに関する情報である笑情報を有する笑者情報を受信し、
前記笑者情報に基づいて、心の健康に関する情報である健康情報を構成し、
前記健康情報を出力する情報処理システム。
The laughter detection device, an information processing system including the information processing device,
The laughter detection device,
Detecting the number of laughter, transmitting laughter information having laugh information that is information about laughter to the information processing device,
The information processing device,
Receiving laughter information having laugh information that is information about laughter,
Based on the laughter information, configure health information that is information about mental health,
An information processing system for outputting the health information;
前記笑い検出装置と、前記情報処理装置を具備する情報処理システムであって、
前記笑い検出装置は、
笑い回数を検出し、笑いに関する情報である笑情報を有する笑者情報を前記情報処理装置に送信し、
前記情報処理装置は、
笑いに関する情報である笑情報を有する笑者情報を受信し、
前記笑者情報に基づいて、心の健康に関する情報である健康情報を予め決められた装置に送信する請求項9記載の情報処理システム。
The laughter detection device, an information processing system including the information processing device,
The laughter detection device,
Detecting the number of laughter, transmitting laughter information having laugh information that is information about laughter to the information processing device,
The information processing device,
Receiving laughter information having laugh information that is information about laughter,
The information processing system according to claim 9, wherein health information that is information on mental health is transmitted to a predetermined device based on the laughter information.
音を取得する音取得ステップと、
前記音取得ステップで取得した音から一定の周波数帯域の信号のみを抽出する信号抽出ステップと、
前記信号抽出ステップで抽出した信号に基づいて、前記音取得ステップで取得した音が笑いであるか否かを判断する判断ステップと、
前記判断ステップにおける判断結果を出力する判断結果出力ステップを具備する笑い検出方法。
A sound acquisition step of acquiring sound;
A signal extraction step of extracting only a signal in a certain frequency band from the sound acquired in the sound acquisition step,
Based on the signal extracted in the signal extraction step, a determination step of determining whether the sound acquired in the sound acquisition step is a laugh,
A laughter detection method comprising a judgment result output step of outputting a judgment result in the judgment step.
コンピュータに、
音を取得する音取得ステップと、
前記音取得ステップで取得した音から一定の周波数帯域の信号のみを抽出する信号抽出ステップと、
前記信号抽出ステップで抽出した信号に基づいて、前記音取得ステップで取得した音が笑いであるか否かを判断する判断ステップと、
前記判断ステップにおける判断結果を出力する判断結果出力ステップを実行させるためのプログラム。
On the computer,
A sound acquisition step of acquiring sound;
A signal extraction step of extracting only a signal in a certain frequency band from the sound acquired in the sound acquisition step,
Based on the signal extracted in the signal extraction step, a determination step of determining whether the sound acquired in the sound acquisition step is a laugh,
A program for executing a judgment result output step of outputting a judgment result in the judgment step.
JP2003038452A 2003-02-17 2003-02-17 Laughter detection apparatus, information processing apparatus, and laughter detection method Expired - Fee Related JP4241079B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003038452A JP4241079B2 (en) 2003-02-17 2003-02-17 Laughter detection apparatus, information processing apparatus, and laughter detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003038452A JP4241079B2 (en) 2003-02-17 2003-02-17 Laughter detection apparatus, information processing apparatus, and laughter detection method

Publications (2)

Publication Number Publication Date
JP2004243023A true JP2004243023A (en) 2004-09-02
JP4241079B2 JP4241079B2 (en) 2009-03-18

Family

ID=33022984

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003038452A Expired - Fee Related JP4241079B2 (en) 2003-02-17 2003-02-17 Laughter detection apparatus, information processing apparatus, and laughter detection method

Country Status (1)

Country Link
JP (1) JP4241079B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006230548A (en) * 2005-02-23 2006-09-07 Matsushita Electric Ind Co Ltd Physical condition judging device and its program
JP2009131362A (en) * 2007-11-29 2009-06-18 Univ Kansai Laugh measuring method and device
US20110201971A1 (en) * 2008-02-19 2011-08-18 Yohji Kimura Laughter measurement method and apparatus
WO2011105003A1 (en) 2010-02-25 2011-09-01 パナソニック株式会社 Signal processing apparatus and signal processing method
JP5662549B1 (en) * 2013-12-18 2015-01-28 佑太 国安 Memory playback device

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006230548A (en) * 2005-02-23 2006-09-07 Matsushita Electric Ind Co Ltd Physical condition judging device and its program
JP4631464B2 (en) * 2005-02-23 2011-02-16 パナソニック株式会社 Physical condition determination device and program thereof
JP2009131362A (en) * 2007-11-29 2009-06-18 Univ Kansai Laugh measuring method and device
US20110201971A1 (en) * 2008-02-19 2011-08-18 Yohji Kimura Laughter measurement method and apparatus
WO2011105003A1 (en) 2010-02-25 2011-09-01 パナソニック株式会社 Signal processing apparatus and signal processing method
US8498435B2 (en) 2010-02-25 2013-07-30 Panasonic Corporation Signal processing apparatus and signal processing method
US8644534B2 (en) 2010-02-25 2014-02-04 Panasonic Corporation Recording medium
US8682012B2 (en) 2010-02-25 2014-03-25 Panasonic Corporation Signal processing method
JP5662549B1 (en) * 2013-12-18 2015-01-28 佑太 国安 Memory playback device

Also Published As

Publication number Publication date
JP4241079B2 (en) 2009-03-18

Similar Documents

Publication Publication Date Title
JP6839818B2 (en) Content provision method, content provision device and content provision program
JP6263308B1 (en) Dementia diagnosis apparatus, dementia diagnosis method, and dementia diagnosis program
US20200012682A1 (en) Biometric-music interaction methods and systems
Kreiman et al. Measures of the glottal source spectrum
CN103561652B (en) Method and system for assisting patients
JP7057462B2 (en) EEG data analysis system, information processing terminal, electronic device, and information presentation device for EEG analysis test
Hartelius et al. Long-term phonatory instability in individuals with multiple sclerosis
Gygi et al. The incongruency advantage for environmental sounds presented in natural auditory scenes.
US20080045805A1 (en) Method and System of Indicating a Condition of an Individual
Schuller et al. Automatic recognition of physiological parameters in the human voice: Heart rate and skin conductance
CN110367934B (en) Health monitoring method and system based on non-voice body sounds
US20030109797A1 (en) Chromatic display-type biofeedback system and method using brain waves
JP4241079B2 (en) Laughter detection apparatus, information processing apparatus, and laughter detection method
Countryman et al. Supraglottal hyperadduction in an individual with Parkinson disease: A clinical treatment note
US20220005494A1 (en) Speech analysis devices and methods for identifying migraine attacks
JP3822796B2 (en) Information processing apparatus, information processing program, and recording medium
JP7307507B2 (en) Pathological condition analysis system, pathological condition analyzer, pathological condition analysis method, and pathological condition analysis program
Toles et al. Acoustic and physiologic correlates of vocal effort in individuals with and without primary muscle tension dysphonia
US7421392B2 (en) Diagnosis device and diagnosis method
CN113764099A (en) Psychological state analysis method, device, equipment and medium based on artificial intelligence
JP7165209B2 (en) Biological information analysis device, biological information analysis method, and biological information analysis system
JPH1189807A (en) Pulse examination supporting device
JP6909733B2 (en) Voice analyzer and voice analysis method
JP6859622B2 (en) EEG signal processing system, EEG signal processing method and program
WO2007094427A1 (en) Content player

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080513

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080901

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081022

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081201

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081222

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120109

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4241079

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120109

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150109

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees