JP2009131362A - 笑い測定方法及び笑い測定装置 - Google Patents

笑い測定方法及び笑い測定装置 Download PDF

Info

Publication number
JP2009131362A
JP2009131362A JP2007308628A JP2007308628A JP2009131362A JP 2009131362 A JP2009131362 A JP 2009131362A JP 2007308628 A JP2007308628 A JP 2007308628A JP 2007308628 A JP2007308628 A JP 2007308628A JP 2009131362 A JP2009131362 A JP 2009131362A
Authority
JP
Japan
Prior art keywords
laughter
subject
vibration
data
type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007308628A
Other languages
English (en)
Inventor
Yoji Kimura
洋二 木村
Koji Nozawa
孝司 野澤
Toshihiko Amamiya
俊彦 雨宮
Toshihiko Sekiya
俊彦 関屋
Akira Yasuda
陽 安田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kansai University
Original Assignee
Kansai University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kansai University filed Critical Kansai University
Priority to JP2007308628A priority Critical patent/JP2009131362A/ja
Publication of JP2009131362A publication Critical patent/JP2009131362A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】被験者が笑ったか否かを正確に判別できる笑い測定装置を提供する。
【解決手段】この発明の笑い測定装置1は、被験者の横隔膜の振動を検出する検出手段2と、前記検出手段2で検出されたデータに基づいて被験者が笑っているか否かを判別する解析手段3とを備えることを特徴とする。また、笑いの身体的直接運動である横隔膜の振動の検出データに基づいて判別するので、笑い声にならないような微小な笑いも検出することができる。
【選択図】図1

Description

この発明は、被験者の横隔膜の振動を検出することによって被験者が笑っているか否かを判別する笑い測定方法及び笑い測定装置に関する。
近年、笑うことが、ストレス解消だけではなく、免疫機能の向上をもたらすことが報告され、注目を集めている。
ところで、人が笑ったことや笑った量を測定する装置は、これまでに殆ど例がないのが実状であり、このような笑いを測定する装置の開発が望まれていた。しかして、特許文献1には、人が笑った時に生じる腹部からの振動や発声による音量変化から、人の笑いを検知すると共に笑いの量を測定する健康度測定装置が開示されている。この装置により、人は、例えば自身の1日の笑いの量を把握することができ、これに基づいて笑いを取り込む努力をすることによって健康の増進を図ることができる。
特開2003−319926号公報
しかしながら、上記従来技術では、人が笑った時の腹部の振動や発声の音量変化により人が笑ったか否かを判別する手法であり、人が笑ったか否かを正確に判別することはできなかった。即ち、腹筋の振動や声帯の振動は、笑っている状態の副次的運動に過ぎず、このために人が笑ったか否かを正確に判別することはできない。
この発明は、かかる技術的背景に鑑みてなされたものであって、被験者が笑ったか否かを正確に判別することのできる笑い測定方法及び笑い測定装置を提供することを目的とする。
前記目的を達成するために、本発明は以下の手段を提供する。
[1]被験者の横隔膜の振動を検出する検出工程と、
検出されたデータに基づいて被験者が笑っているか否かを判別する判別工程と、を含むことを特徴とする笑い測定方法。
[2]前記判別工程において、検出されたデータに基づいて被験者が笑っているか否かを判別すると共にその笑いの種類も判別する前項1に記載の笑い測定方法。
[3]前記判別工程の結果に基づいて被験者が笑った時間又は回数を算出して笑いの量を表示する工程をさらに含むことを特徴とする前項1または2に記載の笑い測定方法。
[4]前記検出工程において、被験者の横隔膜の振動を剣状突起の振動により検出する前項1〜3のいずれか1項に記載の笑い測定方法。
[5]予め笑いの種類毎にそれぞれの笑いの横隔膜の振動の検出データを比較対照用基準データとして取得しておき、これら基準データと被験者の検出データとを比較することによって笑いの種類を判別する前項2に記載の笑い測定方法。
[6]前記比較対照用基準データとして、笑いの種類毎にそれぞれ複数個の基準データを取得しておく前項5に記載の笑い測定方法。
[7]前記比較対照用基準データとして、予め当該被験者が属する群の人から笑いの種類毎に基準データを取得しておく前項5または6に記載の笑い測定方法。
[8]前記群は、人種、国籍、地域、年齢層または性別である前項7に記載の笑い測定方法。
[9]前記比較対照用基準データとして、予め当該被験者から笑いの種類毎に基準データを取得しておく前項5または6に記載の笑い測定方法。
[10]予め笑いの種類毎にそれぞれの笑いの横隔膜の振動の検出データを多数の人から取得してこれら検出データを笑いの種類毎に平均化することによって比較対照用標準データを作成しておき、これら標準データと被験者の検出データとを比較することによって笑いの種類を判別する前項2に記載の笑い測定方法。
[11]被験者の横隔膜の振動を検出する検出手段と、
前記検出手段で検出されたデータに基づいて被験者が笑っているか否かを判別する解析手段と、を備えることを特徴とする笑い測定装置。
[12]前記解析手段は、前記検出手段で検出されたデータに基づいて被験者が笑っているか否かを判別すると共にその笑いの種類も判別するものである前項11に記載の笑い測定装置。
[13]前記解析手段における笑いの種類の判別は、予め笑いの種類毎にそれぞれの笑いの横隔膜の振動の検出データを比較対照用基準データとして取得しておき、これら基準データと被験者の検出データとを比較することによって行われる前項12に記載の笑い測定装置。
[14]前記解析手段で判別された被験者が笑っているか否かの情報に基づいて被験者が笑った時間又は回数を積算して笑い量を算出する積算手段と、前記積算手段で算出された被験者の笑い量を表示する表示手段と、をさらに備えることを特徴とする前項11〜13のいずれか1項に記載の笑い測定装置。
[15]前記検出手段は、振動を検出するセンサ部と、該センサ部で検出された横隔膜の振動を機械的または電気的に計測する計測部と、を備えていることを特徴とする前項11〜14のいずれか1項に記載の笑い測定装置。
[16]前記センサ部は、被験者の心窩部(みぞおち部)又はその近傍位置に装着されて剣状突起の振動を検出することにより横隔膜の振動を検出するものである前項15に記載の笑い測定装置。
[17]前記検出手段は、被験者の横隔膜の振動を光学的または電磁気学的手法により検出するものである前項11〜14のいずれか1項に記載の笑い測定装置。
[1]の発明に係る笑い測定方法では、被験者の横隔膜の振動を検出し、この検出データに基づいて被験者が笑っているか否かを判別するので、被験者が真に笑っているか否かを正確に判別することができる。即ち、笑いの身体的直接運動は横隔膜の振動であるので、この横隔膜の振動の検出データに基づいて判別することで、被験者が真に笑っているか否かを正確に判別することができる。また、笑いの身体的直接運動である横隔膜の振動の検出データに基づいて判別するので、例えば「プッ」「クスッ」といった笑い声にならないような微小な笑いも検出することができる。即ち、思わず漏れ出るこの種の微小な笑いも横隔膜には確実に振動として投射されている。
これに対し、従来技術で着目された腹筋の振動や声帯の振動は、笑いの副次的運動であるので、従来技術では被験者が笑ったか否かを正確に判別するのは困難であった。会話、咳、くしゃみによる腹筋の振動や声帯の振動は、笑いにより生じる腹筋の振動や声帯の振動と極めて類似しているために、従来技術では、これら会話、咳、くしゃみも笑ったとして判断される可能性がある上に、意識的な嘘笑い等は笑ったとして判断されてしまうことから、被験者が真に笑ったか否かを正確に判別することはできなかった。また、従来技術では、「プッ」「クスッ」といった微小な笑いの検出は困難であった。
[2]の発明では、被験者の横隔膜の振動を検出し、この検出データに基づいて被験者が笑っているか否かを判別するものであるので、その笑いの種類(爆笑・大笑い・冷笑・苦笑い等)も判別することができる。なお、従来技術の腹筋の振動や声帯の振動を検出する手法では、笑いの種類を判別することはできなかった。
[3]の発明では、被験者の笑った時間又は回数を算出して笑いの量を表示するので、笑いを定量的に把握することが可能となる。
[4]の発明では、被験者の横隔膜の振動を剣状突起の振動により検出するので、横隔膜の振動をより精度高く検出することができ、これにより被験者が真に笑っているか否かをより正確に判別することができる。また、笑いの種類も判別する場合にはより正確に笑いの種類を判別できる。また、笑いの量を表示する場合には笑いの量をより精度高く表示することができる。
[5]の発明では、予め笑いの種類毎にそれぞれの笑いの横隔膜の振動の検出データを比較対照用基準データとして取得しておき、これら基準データと被験者の検出データとを比較することによって笑いの種類を判別するので、より簡易な測定方法とすることができる。
[6]の発明では、比較対照用基準データとして、笑いの種類毎にそれぞれ複数個の基準データを取得しておくので、被験者が真に笑っているか否かをより精度高く判別することができる。また、笑いの種類も判別する場合には笑いの種類をより精度高く判別することができる。また、笑いの量を表示する場合には笑いの量をより精度高く表示することができる。
[7]の発明では、比較対照用基準データとして、予め当該被験者が属する群の人から笑いの種類毎に基準データを取得しておくので、被験者が真に笑っているか否かをより一層精度高く判別することができる。また、笑いの種類も判別する場合には笑いの種類をより一層精度高く判別することができる。また、笑いの量を表示する場合には笑いの量をより一層精度高く表示することができる。
[8]の発明では、前記群は、人種、国籍、地域、年齢層または性別であるので、判別の精度をさらに向上させることができる。
[9]の発明では、比較対照用基準データとして、当該被験者から基準データを取得しておくので、被験者が真に笑っているか否かをより一層精度高く判別することができる。また、笑いの種類も判別する場合には笑いの種類をより一層精度高く判別することができる。また、笑いの量を表示する場合には笑いの量をより一層精度高く表示することができる。
[10]の発明では、予め笑いの種類毎にそれぞれの笑いの横隔膜の振動の検出データを多数の人から取得してこれら検出データを笑いの種類毎に平均化することによって比較対照用標準データ(普遍化されたデータ)を作成しておき、これら標準データ(普遍化データ)と被験者の検出データとを比較することによって笑いの種類を判別する手法であるので、いかなる人種、国籍、地域、年齢層、性別の被験者に対しても十分に適用できる汎用性に優れた笑い測定方法となし得る。
[11]の発明に係る笑い測定装置では、被験者の横隔膜の振動を検出手段で検出し、この検出データに基づいて被験者が笑っているか否かを解析手段で判別するので、被験者が真に笑っているか否かを正確に判別することができる。即ち、笑いの身体的直接運動は横隔膜の振動であるので、この横隔膜の振動の検出データに基づいて判別することで、被験者が真に笑っているか否かを正確に判別することができる。また、笑いの身体的直接運動である横隔膜の振動の検出データに基づいて判別するので、例えば「プッ」「クスッ」といった笑い声にならないような微小な笑いも検出することができる。即ち、思わず漏れ出るこの種の微小な笑いも横隔膜には確実に振動として投射されている。
これに対し、従来技術で着目された腹筋の振動や声帯の振動は、笑いの副次的運動であるので、従来技術では被験者が笑ったか否かを正確に判別するのは困難であった。会話、咳、くしゃみによる腹筋の振動や声帯の振動は、笑いにより生じる腹筋の振動や声帯の振動と極めて類似しているために、従来技術では、これら会話、咳、くしゃみも笑ったとして判断される可能性がある上に、意識的な嘘笑い等は笑ったとして判断されてしまうことから、被験者が真に笑ったか否かを正確に判別することはできなかった。また、従来技術では、「プッ」「クスッ」といった微小な笑いの検出は困難であった。
[12]の発明では、被験者の横隔膜の振動を検出手段で検出し、この検出データに基づいて被験者が笑っているか否かを判別するものであるので、その笑いの種類(爆笑・大笑い・冷笑・苦笑い等)も判別することができる。なお、従来技術の腹筋の振動や声帯の振動を検出する装置では、笑いの種類を判別することはできなかった。
[13]の発明では、解析手段における笑いの種類の判別は、予め笑いの種類毎にそれぞれの笑いの横隔膜の振動の検出データを比較対照用基準データとして取得しておき、これら基準データと被験者の検出データとを比較することによって行われるから、汎用性の高い笑い測定装置が提供される。
[14]の発明では、解析手段で判別された被験者が笑っているか否かの情報に基づいて被験者が笑った時間又は回数を積算して笑い量を算出する積算手段と、該積算手段で算出された被験者の笑い量を表示する表示手段とをさらに備えるから、被験者の笑いの量を表示することができ、これにより笑いを定量的に把握することができる。
[15]の発明では、検出手段は、振動を検出するセンサ部と、該センサ部で検出された横隔膜の振動を機械的または電気的に計測する計測部とを備えているから、より簡易でコンパクトな装置が提供される。
[16]の発明では、センサ部は、被験者の心窩部(みぞおち部)又はその近傍位置に装着されて剣状突起の振動を検出することにより横隔膜の振動を検出するものとなされているから、横隔膜の振動をより精度高く検出することができ、これにより被験者が真に笑っているか否かをより正確に判別することができる。また、笑いの種類も判別する場合にはより正確に笑いの種類を判別できる。また、笑いの量を表示する場合には笑いの量をより精度高く表示することができる。
[17]の発明では、検出手段は、被験者の横隔膜の振動を光学的または電磁気学的手法により検出するので、横隔膜の振動をより精度高く検出することができる。
この発明に係る笑い測定装置(1)の一実施形態を図1に示す。この図1の概略構成図において、(2)は検出手段、(3)は解析手段、(4)は積算手段、(5)は表示手段である。
前記検出手段(2)は、振動を検出するセンサ部(12)と、該センサ部(12)で検出された横隔膜の振動を機械的または電気的に計測する計測部(11)とを備えている。前記センサ部(12)は、電線コード(13)を介して前記計測部(11)に接続されている。電気的に計測する計測部としては例えば筋電計が挙げられ、機械的に計測する計測部としては例えば加速度センサを例示できる。
前記センサ部(12)は、被験者の心窩部(みぞおち部)又はその近傍位置に装着されることによって胸骨の剣状突起の振動を検出できるように構成されており、この剣状突起の振動の検出により横隔膜の振動を検出する。
前記センサ部(12)で検出された横隔膜の振動は、電線コード(13)を介して計測部(11)に伝達され、この計測部(11)において横隔膜の振動が機械的または電気的に計測される。
前記解析手段(3)は、前記計測部(11)で計測された横隔膜の振動波形等の検出データに基づいて被験者が真に笑っているか否かを判別すると共にその笑いの種類も判別する。この判別に際しては、予め笑いの種類毎にそれぞれの笑いの横隔膜の振動の検出データを比較対照用基準データとして取得しておき、これら基準データと、前記検出手段(2)で検出された被験者の検出データとを比較することによって、被験者が真に笑ったか否かを判別すると共に、笑いの種類も判別する。なお、笑いの種類(笑いの質)としては、特に限定されるものではないが、例えば爆笑、大笑い、冷笑、苦笑、嘲笑、失笑、愉快な笑い、ごまかし笑い、とまどいの笑い、同調の笑い、同意の笑い等が挙げられる。
前記積算手段(4)は、前記解析手段(3)で判別された被験者が笑っているか否かの情報に基づいて被験者が笑った時間又は回数を積算して被験者の笑い量を算出する。本実施形態では、総笑い量(積算時間又は積算回数)を算出すると共に、笑いの種類毎の笑い量(積算時間又は積算回数)も算出するように構成されている。
また、前記表示手段(5)は、前記積算手段(4)で算出された被験者の笑い量を表示するものである。この表示手段(5)としては、特に限定されるものではないが、例えば液晶表示パネル、LED(発光ダイオード)表示器が好適に用いられる。
次に、上記笑い測定装置(1)を用いた笑い測定方法について説明する。まず、笑い測定装置(1)の検出手段(2)のセンサ部(12)を被験者の心窩部(みぞおち部)又はその近傍位置に装着する。この時、センサ部(12)を被験者の心窩部又はその近傍位置の皮膚に直接に装着しても良いし、或いは衣服の上から装着しても良い。また、センサ部(12)を被験者に装着して安定状態に固定する手法としては、特に限定されないが、例えば両面テープで固定する手法や、ベルトで巻き付ける手法等が挙げられる。
しかして、被験者が笑うと、被験者に装着されたセンサ部(12)が剣状突起の振動を検出し、これにより横隔膜の振動を精度高く検出することができる(検出工程)。このセンサ部(12)で検出された横隔膜の振動は、電線コード(13)を介して計測部(11)に伝達されるので、この計測部(11)において横隔膜の振動を機械的または電気的に計測する。電気的に計測された横隔膜の振動の時系列波形(筋電波形)の例を図2に示す。
前記解析手段(3)は、前記計測部(11)で計測された横隔膜の振動波形等の検出データに基づいて被験者が真に笑っているか否かを判別すると共にその笑いの種類も判別する(判別工程)。この判別に際しては、予め笑いの種類毎にそれぞれの笑いの横隔膜の振動の検出データを比較対照用基準データとして取得しておき、これら基準データと、前記検出手段(2)で検出された被験者の検出データとを比較することによって、被験者が真に笑ったか否かを判別すると共に、笑いの種類も判別する。
前記比較対照用基準データとしては次のようなものを予め取得しておくのが好ましい。即ち、例えば、
1)比較対照用基準データとして、予め笑いの種類毎にそれぞれ複数個の基準データを取得しておく
2)比較対照用基準データとして、予め当該被験者が属する群(人種、国籍、地域、年齢層または性別)の人から笑いの種類毎に基準データを取得しておく
3)比較対照用基準データとして、予め当該被験者から笑いの種類毎に基準データを取得しておく(予め当該被験者自身の個人基準データを取得しておく)
4)比較対照用基準データとして、予め笑いの種類毎にそれぞれの笑いの横隔膜の振動の検出データを多数の人から取得してこれら検出データを笑いの種類毎に平均化することによって得た標準データ(普遍化データ)を作成しておく。
前記解析手段(3)における解析手法としては、特に限定されるものではないが、例えば、人工ニューラルネットワーク・アルゴリズムを用いた解析手法を用いる。即ち、例えば、前記各笑いの種類毎の比較対照用基準データに対して、被験者から測定された振動波形が類似しているか否かを識別するために人工ニューラルネットワーク・アルゴリズムを用いて解析する。例えば、時系列振動波形のパターンを周波数、振幅、持続時間等の時間的推移情報を用いて識別、解析する。
前記人工ニューラルネットワーク・アルゴリズムを用いた解析手法の動作例(一例)について説明する。ニューラルネットワークのモデルは、入力データ側から出力データ側に向けて順に入力層と中間層と出力層とからなる。各層のニューロンにn個の入力信号x1〜xnを入力すると、それぞれ重み(結合荷重wn)を付けられた総和の演算処理を行い、出力信号yが出力される。出力信号yは以下の式で表される。
Figure 2009131362
このようなニューラルネットワークのモデルは笑いの種類毎に準備する。予め結合荷重を学習させて前記解析手段(3)に記憶させておく。即ち、既知の笑い波形(教師信号)を用いて笑いの種類毎に最適な結合荷重を決定する。この操作を学習と言う。例えば、大笑いの場合の結合荷重を決定する場合、既知の大笑い波形(大笑いであることが判っている波形)を例えば50回測定し、これを教師信号とする。即ち、教師信号は50パターンある。図2に大笑いの教師信号の一例を示す。各教師信号の波形を、例えば0.2秒でサンプリングして、1000点のデータを入力信号とする。そして、入力層に前記50パターンのどの教師信号を入力しても出力結果が大笑いを示す「1」(または0)になるようにニューラルネットワークを学習させ、結合荷重を決定する。学習方法としては、例えば階層型ニューラルネットワークに一般的なバックプロパゲーション法(誤差逆伝搬法)等が挙げられる。さらに、冷笑、苦笑い等笑いの種類を変えて同様にして結合荷重をそれぞれ決定し、これら笑いの種類毎のニューラルネットワークのモデルを前記解析手段(3)に記憶させる。
より具体的に説明すると、まず入力層1000、中間層100、出力層1のニューラルネットワークをプログラム上で構成する。最初に既知の大笑い波形(教師信号)をn個(例えば2個でも良いし、999個でも良い)用意してニューラルネットワークを学習させる。しかる後、(n+1)個目(例えば3個目、或いは1000個目)の未知波形(被験者から検出された振動波形)をニューラルネットワークに入力し、その出力が「0」であるか「1」であるかをもって「大笑い」であるか否かを判別することができる。
また、笑いの種類も判別する場合には、出力層は複数のニューロンを持たせ、上記と同様に学習させる。しかる後、未知波形(被験者から検出された振動波形)をニューラルネットワークに入力し、例えば、大笑いに相当する出力ニューロンが「1」を出力して他の全ての出力ニューロンが「0」を出力した場合には「大笑い」と判別し、苦笑いに相当する出力ニューロンが「1」を出力して他の全ての出力ニューロンが「0」を出力した場合に「苦笑い」と判別し、複数の出力ニューロンが「1」を出力した場合にそれらの「複合笑い」と判別し、全ての出力ニューロンが「0」を出力した場合に「笑っていない」と判別する。
なお、ニューラルネットワーク・アルゴリズムのみを用いて解析するのが困難な場合には、補助的手段として、被験者から測定された振動波形をウェーブレット変換し、時間−周波数空間上のスペクトル分布をニューラルネットワーク・アルゴリズムを用いて解析するようにしても良い。前記ニューラルネットワーク・アルゴリズムを用いた識別(正か否かの判断、或いは複数種類の分類判断)は、既に広く一般的に利用されている識別手法である。ウェーブレット変換を用いたニューラルネットワーク・アルゴリズム利用の識別の例としては、IEEJ Trans.PE,Vol.123,No.4,2003 第506〜512頁に記載の安田陽らによる論文が挙げられる。
前記積算手段(4)により、前記解析手段(3)で判別された被験者が笑っているか否かの情報に基づいて被験者が笑った時間又は回数を積算して被験者の笑い量を算出する。本実施形態では、総笑い量(積算時間又は積算回数)を算出すると共に、笑いの種類毎の笑い量(積算時間又は積算回数)も算出する。そして、前記積算手段(4)で算出された被験者の笑い量を表示手段(5)によって表示する(表示工程)。表示手段(5)による笑い量の表示例を図3に示す。このような表示内容により、例えば、被験者の総笑い量(例えば1日当たりの笑い積算時間)や、各笑いの種類毎の笑い量(例えば1日当たりの笑い積算回数)を把握することができる。
なお、上記実施形態では、センサ部(12)と計測部(11)とは電線コード(13)で接続された構成が採用されているが、特にこのような構成に限定されるものではなく、例えばセンサ部(12)と計測部(11)とが無線で接続された構成を採用しても良い。具体的には、例えばセンサ部(12)に信号送信部を設けると共に計測部(11)に信号受信部を設けて、センサ部(12)で検出された横隔膜の振動データを信号送信部から計測部(11)の信号受信部に無線送信する構成を採用しても良い。
また、上記実施形態では、センサ部(12)を被験者に装着して測定を行う接触式に構成されていたが、特にこのような接触式に限定されるものではなく、非接触式に構成されていても良い。即ち、例えば、検出手段(2)は、被験者の横隔膜の振動を光学的手法または電磁気学的手法により検出するものであっても良い(被験者に装着するセンサ部は必要としない)。前記光学的手法としては、例えばX線撮影等が挙げられる。また、前記電磁気学的手法としては、例えば核磁気共鳴画像(MRI)撮影等が挙げられる。このような光学的手法または電磁気学的手法により被験者の横隔膜の振動を動画像として検出してこれを検出データとして用いるようにしても良い。
この発明に係る笑い測定装置(1)及び笑い測定方法は、上記実施形態のものに特に限定されるものではなく、請求の範囲内であれば、その精神を逸脱するものでない限りいかなる設計的変更をも許容するものである。
この発明の笑い測定方法及び笑い測定装置は、例えば、
1)被験者が真に笑ったか否かを測定する
2)被験者がどのような種類の笑いをしたかを測定する
3)被験者の笑いの量(例えば1日当たりの笑い積算時間や積算回数)を測定する
4)被験者がどのような種類の笑いをしたか測定すると共に各笑いの種類毎の笑い量(例えば1日当たりの笑い積算時間や積算回数)を測定する
のに好適に用いられるが、特にこれら例示の用途に限定されるものではない。
上記のような各種測定データを、被験者の身体的・心理的な状態(免疫機能、血糖値、ストレス指数等)と比較分析することで、笑いと健康の関連に関する医学的、心理学的分析研究を科学的に行うことが可能になる。
また、この発明の笑い測定装置を小型化すれば、個人的に自己の心身の健康管理に役立てることも可能となる。
この発明に係る笑い測定装置の概略構成図である。 予め当該被験者自身から取得した「大笑い」の個人基準データ(比較対照用基準データ)(教師信号)の一例を示すグラフ(横隔膜の振動波形)である。 表示手段における笑い量の表示例を示す図である。
符号の説明
1…笑い測定装置
2…検出手段
3…解析手段
4…積算手段
5…表示手段
11…計測部
12…センサ部

Claims (17)

  1. 被験者の横隔膜の振動を検出する検出工程と、
    検出されたデータに基づいて被験者が笑っているか否かを判別する判別工程と、を含むことを特徴とする笑い測定方法。
  2. 前記判別工程において、検出されたデータに基づいて被験者が笑っているか否かを判別すると共にその笑いの種類も判別する請求項1に記載の笑い測定方法。
  3. 前記判別工程の結果に基づいて被験者が笑った時間又は回数を算出して笑いの量を表示する工程をさらに含むことを特徴とする請求項1または2に記載の笑い測定方法。
  4. 前記検出工程において、被験者の横隔膜の振動を剣状突起の振動により検出する請求項1〜3のいずれか1項に記載の笑い測定方法。
  5. 予め笑いの種類毎にそれぞれの笑いの横隔膜の振動の検出データを比較対照用基準データとして取得しておき、これら基準データと被験者の検出データとを比較することによって笑いの種類を判別する請求項2に記載の笑い測定方法。
  6. 前記比較対照用基準データとして、笑いの種類毎にそれぞれ複数個の基準データを取得しておく請求項5に記載の笑い測定方法。
  7. 前記比較対照用基準データとして、予め当該被験者が属する群の人から笑いの種類毎に基準データを取得しておく請求項5または6に記載の笑い測定方法。
  8. 前記群は、人種、国籍、地域、年齢層または性別である請求項7に記載の笑い測定方法。
  9. 前記比較対照用基準データとして、予め当該被験者から笑いの種類毎に基準データを取得しておく請求項5または6に記載の笑い測定方法。
  10. 予め笑いの種類毎にそれぞれの笑いの横隔膜の振動の検出データを多数の人から取得してこれら検出データを笑いの種類毎に平均化することによって比較対照用標準データを作成しておき、これら標準データと被験者の検出データとを比較することによって笑いの種類を判別する請求項2に記載の笑い測定方法。
  11. 被験者の横隔膜の振動を検出する検出手段と、
    前記検出手段で検出されたデータに基づいて被験者が笑っているか否かを判別する解析手段と、を備えることを特徴とする笑い測定装置。
  12. 前記解析手段は、前記検出手段で検出されたデータに基づいて被験者が笑っているか否かを判別すると共にその笑いの種類も判別するものである請求項11に記載の笑い測定装置。
  13. 前記解析手段における笑いの種類の判別は、予め笑いの種類毎にそれぞれの笑いの横隔膜の振動の検出データを比較対照用基準データとして取得しておき、これら基準データと被験者の検出データとを比較することによって行われる請求項12に記載の笑い測定装置。
  14. 前記解析手段で判別された被験者が笑っているか否かの情報に基づいて被験者が笑った時間又は回数を積算して笑い量を算出する積算手段と、
    前記積算手段で算出された被験者の笑い量を表示する表示手段と、をさらに備えることを特徴とする請求項11〜13のいずれか1項に記載の笑い測定装置。
  15. 前記検出手段は、振動を検出するセンサ部と、該センサ部で検出された横隔膜の振動を機械的または電気的に計測する計測部と、を備えていることを特徴とする請求項11〜14のいずれか1項に記載の笑い測定装置。
  16. 前記センサ部は、被験者の心窩部(みぞおち部)又はその近傍位置に装着されて剣状突起の振動を検出することにより横隔膜の振動を検出するものである請求項15に記載の笑い測定装置。
  17. 前記検出手段は、被験者の横隔膜の振動を光学的または電磁気学的手法により検出するものである請求項11〜14のいずれか1項に記載の笑い測定装置。
JP2007308628A 2007-11-29 2007-11-29 笑い測定方法及び笑い測定装置 Pending JP2009131362A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007308628A JP2009131362A (ja) 2007-11-29 2007-11-29 笑い測定方法及び笑い測定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007308628A JP2009131362A (ja) 2007-11-29 2007-11-29 笑い測定方法及び笑い測定装置

Publications (1)

Publication Number Publication Date
JP2009131362A true JP2009131362A (ja) 2009-06-18

Family

ID=40863914

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007308628A Pending JP2009131362A (ja) 2007-11-29 2007-11-29 笑い測定方法及び笑い測定装置

Country Status (1)

Country Link
JP (1) JP2009131362A (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04504971A (ja) * 1989-03-20 1992-09-03 ニムズ インコーポレーテッド 心臓容積及び大動脈パルスの変化の非侵襲的検出システム
JP2000350716A (ja) * 1999-06-10 2000-12-19 Hoya Corp 呼吸検出装置
JP2002006874A (ja) * 2000-06-27 2002-01-11 Sharp Corp 音声処理装置、動画像処理装置、音声・動画像処理装置及び音声・動画像処理プログラムを記録した記録媒体
JP2003319926A (ja) * 2002-05-07 2003-11-11 Matsushita Electric Ind Co Ltd 健康度測定装置
JP2004243023A (ja) * 2003-02-17 2004-09-02 Masafumi Matsumura 笑い検出装置、情報処理装置および笑い検出方法
JP2004536654A (ja) * 2001-07-30 2004-12-09 グローヴ メディカル リミテッド 呼吸運動監視装置および方法
JP2006127057A (ja) * 2004-10-27 2006-05-18 Canon Inc 推定装置、及びその制御方法
JP2007229443A (ja) * 2006-02-06 2007-09-13 Toshiba Corp 磁気共鳴イメージング装置および磁気共鳴イメージング装置における撮影条件設定方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04504971A (ja) * 1989-03-20 1992-09-03 ニムズ インコーポレーテッド 心臓容積及び大動脈パルスの変化の非侵襲的検出システム
JP2000350716A (ja) * 1999-06-10 2000-12-19 Hoya Corp 呼吸検出装置
JP2002006874A (ja) * 2000-06-27 2002-01-11 Sharp Corp 音声処理装置、動画像処理装置、音声・動画像処理装置及び音声・動画像処理プログラムを記録した記録媒体
JP2004536654A (ja) * 2001-07-30 2004-12-09 グローヴ メディカル リミテッド 呼吸運動監視装置および方法
JP2003319926A (ja) * 2002-05-07 2003-11-11 Matsushita Electric Ind Co Ltd 健康度測定装置
JP2004243023A (ja) * 2003-02-17 2004-09-02 Masafumi Matsumura 笑い検出装置、情報処理装置および笑い検出方法
JP2006127057A (ja) * 2004-10-27 2006-05-18 Canon Inc 推定装置、及びその制御方法
JP2007229443A (ja) * 2006-02-06 2007-09-13 Toshiba Corp 磁気共鳴イメージング装置および磁気共鳴イメージング装置における撮影条件設定方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CSNG200700044114; 大原 遼 R. Ohara: '対話音声の笑い声や笑い方についての分析 Analysis of a laughing voice and of types of laughter in a d' 日本音響学会2004年秋季研究発表会講演論文集-I- THE 2004 AUTUMN MEETING OF THE ACOUSTICAL SOCI , 社団法人日本音響学会 *
JPN6012042201; 小松奈美子: '教員エッセイ:「笑い」と横隔膜' 東日本国際大学ブログ , 20051201 *
JPN6012042202; '笑いの効用:あるある大辞典8月14日' [online] , 20050814 *
JPN6012045581; 大原 遼 R. Ohara: '対話音声の笑い声や笑い方についての分析 Analysis of a laughing voice and of types of laughter in a d' 日本音響学会2004年秋季研究発表会講演論文集-I- THE 2004 AUTUMN MEETING OF THE ACOUSTICAL SOCI , 社団法人日本音響学会 *

Similar Documents

Publication Publication Date Title
US11850042B2 (en) Brain dysfunction evaluation system, brain dysfunction evaluation method, and program
US7419473B2 (en) Living body inspection apparatus
US7798981B2 (en) Living body inspection apparatus
US8337427B2 (en) Method of estimating finger-tapping force
CN108888277B (zh) 心理测试方法、系统及终端设备
CN106037701A (zh) 生物体信息处理系统和装置、及解析结果信息的生成方法
Trivedy et al. Design and development of smartphone-enabled spirometer with a disease classification system using convolutional neural network
Soltani et al. Real-world gait bout detection using a wrist sensor: An unsupervised real-life validation
KR102046515B1 (ko) 넥밴드 타입 헬스케어 서비스 시스템 및 방법
CN109902574A (zh) 人体表象变化测定人体情绪的高危人员检测装置及方法
Mahesh et al. Requirements for a reference dataset for multimodal human stress detection
CN105982643A (zh) 睡眠事件检测方法与系统
Li et al. Hybrid D1DCnet using forehead iPPG for continuous and noncontact blood pressure measurement
Gomes et al. Respiration frequency rate monitoring using smartphone-integrated polymer optical fibers sensors with cloud connectivity
Donohue et al. Establishing reference values for temporal kinematic swallow events across the lifespan in healthy community dwelling adults using high-resolution cervical auscultation
CN102579058A (zh) 利用脑血流量分析爱情状态的方法
CN106344008B (zh) 睡眠状态分析中清醒状态检测方法和系统
JP2009131362A (ja) 笑い測定方法及び笑い測定装置
CN114983434A (zh) 一种基于多模态脑功能信号识别的系统及方法
Peter et al. Physiological sensing for affective computing
CN106504235A (zh) 基于图像处理的心率监测方法
WO2021045616A1 (en) A computer-implemented method and an apparatus for determining body positions and/or sleep stages of a person during sleep.
De et al. Alz-sense: A novel non-invasive pre-clinical testing to differentiate dementia from mci
KR20190125961A (ko) 넥밴드 타입 헬스케어 서비스 시스템 및 방법
Wu et al. A portable monitoring system with automatic event detection for sleep apnea level-IV evaluation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101129

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20101129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120904

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121102

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20121116

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20121116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121225

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130423