JP6942288B2 - 情報処理装置、サウンドマスキングシステム、制御方法、及び制御プログラム - Google Patents

情報処理装置、サウンドマスキングシステム、制御方法、及び制御プログラム Download PDF

Info

Publication number
JP6942288B2
JP6942288B2 JP2021519971A JP2021519971A JP6942288B2 JP 6942288 B2 JP6942288 B2 JP 6942288B2 JP 2021519971 A JP2021519971 A JP 2021519971A JP 2021519971 A JP2021519971 A JP 2021519971A JP 6942288 B2 JP6942288 B2 JP 6942288B2
Authority
JP
Japan
Prior art keywords
sound
determination
condition
discomfort
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021519971A
Other languages
English (en)
Other versions
JPWO2020235037A1 (ja
Inventor
香 半田
香 半田
木村 勝
勝 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6942288B2 publication Critical patent/JP6942288B2/ja
Publication of JPWO2020235037A1 publication Critical patent/JPWO2020235037A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/1752Masking
    • G10K11/1754Speech masking
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/1752Masking
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4836Diagnosis combined with treatment in closed-loop systems or methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/66Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/01Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02416Detecting, measuring or recording pulse rate or heart rate using photoplethysmograph signals, e.g. generated by infrared radiation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/053Measuring electrical impedance or conductance of a portion of the body
    • A61B5/0531Measuring skin impedance
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/318Heart-related electrical modalities, e.g. electrocardiography [ECG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • A61B5/375Electroencephalography [EEG] using biofeedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/389Electromyography [EMG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/398Electrooculography [EOG], e.g. detecting nystagmus; Electroretinography [ERG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B7/00Instruments for auscultation

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Public Health (AREA)
  • Psychiatry (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Epidemiology (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)
  • Educational Technology (AREA)
  • Developmental Disabilities (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Soundproofing, Sound Blocking, And Sound Damping (AREA)

Description

本発明は、情報処理装置、サウンドマスキングシステム、制御方法、及び制御プログラムに関する。
オフィスなどでは、音が発生する。例えば、音は、声、タイピング音などである。ユーザの集中力は、音により低下する。そこで、サウンドマスキングシステムが用いられる。サウンドマスキングシステムが用いられることで、ユーザの集中力が低下することが防止できる。
ここで、サウンドマスキングシステムに関する技術が提案されている(特許文献1を参照)。
特開2014−154483号公報
ところで、サウンドマスキングシステムは、マイクロフォンが取得した音の音量に基づいて、制御される場合がある。しかし、当該制御は、ユーザの状態を考慮していないという問題がある。
本発明の目的は、ユーザの状態に基づいたサウンドマスキングの制御を実行することである。
本発明の一態様に係る情報処理装置が提供される。情報処理装置は、生体情報取得装置によって取得されたユーザの生体情報を取得する第1の取得部と、前記生体情報に対応する不快の条件である第1の不快条件を規定している第1の不快条件情報と、前記第1の取得部が取得した前記生体情報とに基づいて、前記第1の不快条件が満たされるか否かの第1の判定を実行する第1の判定実行部と、マイクロフォンから出力される音信号を取得する第2の取得部と、前記音信号に基づいて、音特徴量を検出する音特徴量検出部と、前記音特徴量に対応する不快の条件である第2の不快条件を規定している第2の不快条件情報と、前記音特徴量検出部が検出した前記音特徴量とに基づいて、前記第2の不快条件が満たされるか否かの第2の判定を実行する第2の判定実行部と、前記第1の判定の結果と前記第2の判定の結果とに基づいて、第1のマスキング音を出力させるか否かを判定する出力判定部と、を有する。
本発明によれば、ユーザの状態に基づいたサウンドマスキングの制御を実行できる。
実施の形態1のサウンドマスキングシステムを示す図である。 実施の形態1の情報処理装置が有するハードウェアの構成を示す図である。 実施の形態1の情報処理装置の構成を示す機能ブロック図である。 実施の形態1の情報処理装置が実行する処理を示すフローチャートである。 実施の形態1の情報処理装置が実行する処理の具体例を示す図である。 実施の形態2の情報処理装置の構成を示す機能ブロック図である。
以下、図面を参照しながら実施の形態を説明する。以下の実施の形態は、例にすぎず、本発明の範囲内で種々の変更が可能である。
実施の形態1.
図1は、実施の形態1のサウンドマスキングシステムを示す図である。サウンドマスキングシステムは、情報処理装置100とスピーカ13を含む。また、サウンドマスキングシステムは、生体情報取得装置11とマイク12を含んでもよい。ここで、マイクは、マイクロフォンである。以下、マイクロフォンは、マイクと記載する。
例えば、マイク12とスピーカ13は、オフィスに設置される。情報処理装置100は、オフィス又はオフィス以外の場所に設置される。情報処理装置100は、制御方法を実行する装置である。
また、図1は、ユーザU1を示している。以下、ユーザU1は、オフィスにいるものとする。
生体情報取得装置11は、ユーザU1の生体情報を取得する。例えば、生体情報が脳波(単位は、μV)である場合、生体情報取得装置11は、簡易脳波計又は多チャンネル脳波計である。例えば、生体情報が脳血流(単位は、mM又はmm)である場合、生体情報取得装置11は、光トポグラフィである。例えば、生体情報が心電(単位は、mV)である場合、生体情報取得装置11は、心電計である。例えば、生体情報が心拍(単位は、回又はbpm)である場合、生体情報取得装置11は、心拍計又は脈拍計である。例えば、生体情報が心音(単位は、回又はbpm)である場合、生体情報取得装置11は、聴診器又はマイクである。なお、当該マイクは、マイク12と異なってもよい。生体情報が脈波(単位は、振幅値)である場合、生体情報取得装置11は、脈波計である。生体情報が瞬目(単位は、回)又は上瞼と下瞼との間の長さ(単位は、mm)である場合、生体情報取得装置11は、視線計測システム、カメラ、又は眼電計である。例えば、生体情報が眼電位(単位は、μV)である場合、生体情報取得装置11は、眼電計である。例えば、生体情報が瞳孔径(単位は、mm)である場合、生体情報取得装置11は、視線計測システムである。例えば、生体情報がユーザU1の視線である場合、生体情報取得装置11は、視線計測システムである。なお、ユーザU1の視線は、座標で表される。例えば、生体情報が筋電位(単位は、μV)である場合、生体情報取得装置11は、筋電計である。例えば、生体情報が皮膚電位(単位は、V)である場合、生体情報取得装置11は、皮膚電位計である。例えば、生体情報が皮膚コンダクタンス(単位は、μS)である場合、生体情報取得装置11は、皮膚コンダクタンス測定装置である。例えば、生体情報が血圧(単位は、mmHg)である場合、生体情報取得装置11は、血圧計である。例えば、生体情報が体温(単位は、℃)である場合、生体情報取得装置11は、体温計又は皮膚温度計である。例えば、生体情報が発汗(単位は、mg)である場合、生体情報取得装置11は、発汗計である。例えば、生体情報がユーザU1の声である場合、生体情報取得装置11は、マイクである。なお、当該マイクは、マイク12と異なってもよい。例えば、生体情報がユーザU1の歩数などの動作である場合、生体情報取得装置11は、カメラ、モーションキャプチャシステム、又は加速度センサである。例えば、生体情報がユーザU1の位置である場合、生体情報取得装置11は、ビーコン測位器又はWiFi(Wireless Fidelity)測位器である。なお、WiFiは、登録商標である。例えば、生体情報がユーザU1の表情である場合、生体情報取得装置11は、カメラである。例えば、生体情報がユーザU1の臭いである場合、生体情報取得装置11は、臭気測定器である。例えば、生体情報がユーザU1の呼気である場合、生体情報取得装置11は、呼気センサである。例えば、生体情報がユーザU1の呼吸数、呼吸周期、又は呼吸量である場合、生体情報取得装置11は、聴診器である。例えば、生体情報が唾液アミラーゼ(単位は、KIU/L)である場合、生体情報取得装置11は、唾液アミラーゼモニタである。
マイク12は、音を取得する。なお、当該音は、環境音と表現してもよい。スピーカ13は、マスキング音を出力する。
次に、情報処理装置100が有するハードウェアについて説明する。
図2は、実施の形態1の情報処理装置が有するハードウェアの構成を示す図である。情報処理装置100は、プロセッサ101、揮発性記憶装置102、及び不揮発性記憶装置103を有する。
プロセッサ101は、情報処理装置100全体を制御する。例えば、プロセッサ101は、CPU(Central Processing Unit)、又はFPGA(Field Programmable Gate Array)などである。プロセッサ101は、マルチプロセッサでもよい。情報処理装置100は、処理回路によって実現されてもよく、又は、ソフトウェア、ファームウェア若しくはそれらの組み合わせによって実現されてもよい。なお、処理回路は、単一回路又は複合回路でもよい。
揮発性記憶装置102は、情報処理装置100の主記憶装置である。例えば、揮発性記憶装置102は、RAM(Random Access Memory)である。不揮発性記憶装置103は、情報処理装置100の補助記憶装置である。例えば、不揮発性記憶装置103は、HDD(Hard Disk Drive)、又はSSD(Solid State Drive)である。
図3は、実施の形態1の情報処理装置の構成を示す機能ブロック図である。情報処理装置100は、記憶部110、第1の取得部120、第1の判定実行部130、第2の取得部140、音特徴量検出部150、第2の判定実行部160、出力判定部170、及びサウンドマスキング制御部180を有する。また、サウンドマスキング制御部180は、決定部181と出力部182を有する。
記憶部110は、揮発性記憶装置102又は不揮発性記憶装置103に確保した記憶領域として実現してもよい。
第1の取得部120、第1の判定実行部130、第2の取得部140、音特徴量検出部150、第2の判定実行部160、出力判定部170、及びサウンドマスキング制御部180の一部又は全部は、プロセッサ101によって実現してもよい。
第1の取得部120、第1の判定実行部130、第2の取得部140、音特徴量検出部150、第2の判定実行部160、出力判定部170、及びサウンドマスキング制御部180の一部又は全部は、プロセッサ101が実行するプログラムのモジュールとして実現してもよい。例えば、プロセッサ101が実行するプログラムは、制御プログラムとも言う。例えば、制御プログラムは、記録媒体に記録されている。
記憶部110は、第1の不快条件情報と第2の不快条件情報を記憶する。第1の不快条件情報は、生体情報に対応する不快の条件である第1の不快条件を規定している。また、第1の不快条件情報は、生体情報を用いた不快の条件である第1の不快条件を規定していると表現してもよい。例えば、生体情報が皺眉筋の活動量である場合、第1の不快条件情報は、皺眉筋の活動量が閾値以上の場合(つまり、眉間にしわを寄せた場合)、不快であることを示す。
第2の不快条件情報については、後で詳細に説明する。
第1の取得部120は、生体情報取得装置11によって取得されたユーザU1の生体情報を取得する。
第1の判定実行部130は、第1の不快条件情報と、第1の取得部120が取得した生体情報とに基づいて、第1の不快条件が満たされるか否かの第1の判定を実行する。なお、第1の判定は、ユーザU1が不快であるか否かの判定と表現してもよい。
また、例えば、生体情報がユーザU1の声である場合、第1の不快条件情報は、実験など得られた不快を示す特徴量である。第1の判定実行部130は、ユーザU1の声に基づいて感情認識処理を実行する。第1の判定実行部130は、第1の不快条件情報と実行の結果とに基づいて、ユーザU1が不快であるか否かの判定を実行する。
また、例えば、生体情報がユーザU1の表情である場合、第1の不快条件情報は、怒っている顔、眉間に皺を寄せている顔などを示す。第1の判定実行部130は、画像認識技術を用いて、ユーザU1の表情を判定する。第1の判定実行部130は、第1の不快条件情報と判定の結果とに基づいて、ユーザU1が不快であるか否かの判定を実行する。
第2の取得部140は、マイク12から出力される音信号を取得する。音特徴量検出部150は、音信号に基づいて、音特徴量を検出する。例えば、音特徴量は、周波数、音圧、変動強度、音源が存在する方向などである。
ここで、第2の不快条件情報を説明する。第2の不快条件情報は、音特徴量に対応する不快の条件である第2の不快条件を規定している。また、第2の不快条件情報は、音特徴量を用いた不快の条件である第2の不快条件を規定していると表現してもよい。第2の不快条件は、一般的に人が不快と感じる条件である。例えば、音特徴量が音圧である場合、第2の不快条件は、音圧が一定値以上であることを示す。具体的には、第2の不快条件は、音圧が85dB以上であることを示す。
なお、第1の不快条件及び第2の不快条件は、閾値又は範囲を用いた条件でもよい。
第2の判定実行部160は、第2の不快条件情報と、音特徴量検出部150が検出した音特徴量とに基づいて、第2の不快条件が満たされるか否かの第2の判定を実行する。
出力判定部170は、第1の判定の結果と第2の判定の結果とに基づいて、マスキング音を出力させるか否かを判定する。第1の判定の結果が第1の不快条件を満たしていることを示しており、かつ第2の判定の結果が第2の不快条件を満たしていることを示している場合、出力判定部170は、マスキング音を出力させると判定する。
また、出力判定部170が判定処理を実行する際、スピーカ13から既にマスキング音が出力されている場合がある。この場合、出力判定部170は、第1の判定の結果と第2の判定の結果とに基づいて、新たなマスキング音を出力させるか否かを判定すると表現してもよい。
サウンドマスキング制御部180は、マスキング音が出力されると判定された場合、音特徴量に基づいたマスキング音をスピーカ13から出力させる。詳細には、サウンドマスキング制御部180の実行する処理は、決定部181と出力部182が実行する。決定部181と出力部182が実行する処理は、後述する。なお、当該マスキング音は、第1のマスキング音とも言う。
次に、情報処理装置100が実行する処理についてフローチャートを用いて説明する。
図4は、実施の形態1の情報処理装置が実行する処理を示すフローチャートである。図4の処理は、第1の取得部120が生体情報を取得し、かつ第2の取得部140が音信号を取得したときに開始される。すなわち、図4の処理は、スピーカ13がマスキング音を出力していない状態で開始される場合がある。また、図4の処理は、スピーカ13がマスキング音を出力している状態で開始される場合もある。
(ステップS11)第1の判定実行部130は、第1の不快条件情報と、第1の取得部120が取得した生体情報とに基づいて、第1の不快条件が満たされるか否かの第1の判定を実行する。すなわち、第1の判定実行部130は、第1の不快条件情報と、第1の取得部120が取得した生体情報とに基づいて、ユーザU1が不快と感じているか否かを判定する。
(ステップS12)音特徴量検出部150は、第2の取得部140が取得した音信号に基づいて、音特徴量を検出する。
(ステップS13)第2の判定実行部160は、第2の不快条件情報と、音特徴量検出部150が検出した音特徴量とに基づいて、第2の不快条件が満たされるか否かの第2の判定を実行する。
ここで、ステップS12とステップS13は、ステップS11よりも前に実行されてもよい。
(ステップS14)出力判定部170は、音が原因でユーザU1が不快を感じているか否かを判定する。詳細には、第1の判定の結果が第1の不快条件を満たしていることを示しており、かつ第2の判定の結果が第2の不快条件を満たしていることを示している場合、出力判定部170は、音が原因でユーザU1が不快を感じていると判定する。
第1の判定の結果が第1の不快条件を満たしていることを示しており、かつ第2の判定の結果が第2の不快条件を満たしていることを示している場合、処理は、ステップS15に進む。
第1の判定の結果が第1の不快条件を満たしていない、又は第2の判定の結果が第2の不快条件を満たしていないことを示している場合、処理は、終了する。
なお、ステップS14でNo、かつスピーカ13がマスキング音を出力していない場合、サウンドマスキング制御部180は、何もしない。すなわち、サウンドマスキング制御部180は、マスキング音を出力しない制御を行う。そのため、スピーカ13からマスキング音が、出力されない。また、ステップS14でNo、かつスピーカ13がマスキング音を既に出力している場合、サウンドマスキング制御部180は、当該マスキング音の出力を継続させる。
(ステップS15)出力判定部170は、マスキング音をスピーカ13から出力させると判定する。詳細には、スピーカ13がマスキング音を出力していない場合、出力判定部170は、音特徴量に基づいてマスキング音をスピーカ13から出力させると判定する。また、スピーカ13がマスキング音を既に出力している場合、決定部181は、音特徴量に基づいて、既に出力されているマスキング音を新たなマスキング音に変更することを決定する。なお、既に出力されているマスキング音は、第2のマスキング音とも言う。新たなマスキング音は、第1のマスキング音とも言う。
決定部181は、決定処理を実行する。例えば、決定処理では、決定部181は、マスキング音の出力方向、マスキング音の音量、マスキング音の種類などを決定する。
(ステップS16)出力部182は、当該決定処理に基づいて、スピーカ13からマスキング音を出力させる。
このように、情報処理装置100は、マスキング音をスピーカ13から出力させることで、ユーザU1を快適な状態にできる。
上記のように、サウンドマスキング制御部180は、マスキング音が出力されると判定され、かつスピーカ13から既にマスキング音が出力されている場合、既に出力されているマスキング音を新たなマスキング音に変更することを決定し、新たなマスキング音をスピーカ13から出力させる。これにより、情報処理装置100は、ユーザU1を快適な状態にできる。
次に、具体例を用いて、情報処理装置100が実行する処理を説明する。
図5は、実施の形態1の情報処理装置が実行する処理の具体例を示す図である。また、図5は、情報処理装置100が第1の不快条件情報111と第2の不快条件情報112を有していることを示している。第1の不快条件情報111と第2の不快条件情報112は、記憶部110に格納されている。
第1の不快条件情報111は、皺眉筋の活動量が閾値以上の場合(つまり、眉間にしわを寄せた場合)、不快であることを示す。第2の不快条件情報112は、周波数が4kHz以下、音圧が背景騒音より6dB以上大きく、かつ変動強度が大きい場合、不快であることを示す。このように、図5では、第2の不快条件情報112は、第2の不快条件として、3つの要素を例示している。なお、第2の不快条件は、3つの要素のうちの1つ以上の要素でもよい。また、第2の不快条件情報112には、周波数帯域が広帯域であること、音信号が周期的に発生していること、又は時間的揺らぎがあることが不快の条件に加えられてもよい。
図5は、ユーザU1の右前方向で突然会議が始まった場合を示している。これにより、ユーザU1は、不快になる。
生体情報取得装置11は、ユーザU1の皺眉筋の活動量を取得する。第1の取得部120は、ユーザU1の皺眉筋の活動量を生体情報取得装置11から取得する。ユーザU1の皺眉筋の活動量は、第1の不快条件情報111が示す閾値以上であるとする。第1の判定実行部130は、第1の不快条件を満たしていると判定する。すなわち、第1の判定実行部130は、ユーザU1が不快と感じていると判定する。
マイク12は、音を取得する。当該音には、会議に参加している者の声などが含まれている。第2の取得部140は、音信号をマイク12から取得する。音特徴量検出部150は、音信号に基づいて、音特徴量を検出する。検出された音特徴量は、周波数が4kHz以下であることを示している。また、検出された音特徴量は、会議音声の音圧が48dBであることを示している。さらに、検出された音特徴量は、変動強度が大きいことを示している。ここで、音特徴量検出部150は、音特徴量として、背景騒音の音圧を検出してもよい。例えば、音特徴量検出部150は、会議中の無音区間から背景騒音の音圧を検出する。また、背景騒音の音圧は、予め計測されていてもよい。図5では、背景騒音の音圧は、40dBとする。第2の判定実行部160は、検出された音特徴量と第2の不快条件情報とに基づいて、第2の不快条件を満たしていると判定する。
出力判定部170は、音が原因でユーザU1が不快を感じていると判定する。決定部181は、音特徴量検出部150から音特徴量を取得する。決定部181は、音特徴量に基づいて、マスキング音を決定する。例えば、決定部181は、4kHz以下のマスキング音を決定する。また、決定部181は、音特徴量に基づいて、マスキング音の出力方向を決定する。例えば、決定部181は、音源が存在する方向に基づいて、マスキング音を右前方向に出力することを決定する。さらに、決定部181は、音特徴量に基づいて、音圧を決定する。例えば、決定部181は、音特徴量が示す会議音声の音圧よりも小さい音圧に決定してもよい。例えば、決定される音圧は、42dBである。
出力部182は、決定部181の決定内容に基づいてマスキング音をスピーカ13から出力させる。スピーカ13は、マスキング音を出力する。これにより、会議に参加している者の声などが、マスキングされる。そして、ユーザU1は、会議に参加している者の声などが気にならなくなる。
また、例えば、ユーザU1の近くで発生したタイピング音によってユーザU1が不快になっている場合でも、情報処理装置100は、上記のような処理を実行することで、ユーザU1を快適な状態にできる。
実施の形態1によれば、音が原因でユーザU1が不快を感じている場合、情報処理装置100は、マスキング音をスピーカ13から出力させる。このように、情報処理装置100は、ユーザU1の状態に基づいたサウンドマスキングの制御を実行できる。
上記では、第1の判定実行部130が1つの生体情報を用いてユーザU1が不快であるか否かを判定する場合を説明した。しかし、第1の判定実行部130は、複数の生体情報を用いてユーザU1が不快であるか否かを判定してもよい。例えば、複数の生体情報は、脳波、心拍、及び脈波である。詳細に処理を説明する。第1の取得部120は、ユーザU1の複数の生体情報を取得する。ここで、第1の不快条件情報111は、複数の生体情報に対応する複数の不快条件を規定している。この文は、次のように表現してもよい。第1の不快条件情報111は、複数の生体情報を用いた複数の不快条件を規定している。このように、複数の不快条件のそれぞれは、複数の生体情報のそれぞれに対応している。例えば、第1の不快条件情報111は、脳波が第1の閾値以上、心拍数が第2の閾値以上、かつ脈波が第3の閾値以上である場合、不快であることを示す。第1の判定実行部130は、第1の不快条件情報と、第1の取得部120が取得した複数の生体情報とに基づいて、複数の不快条件が満たされるか否かの第3の判定を実行する。出力判定部170は、第2の判定の結果が第2の不快条件を満たしていることを示しており、かつ第3の判定の結果が複数の不快条件を満たしていることを示している場合、マスキング音を出力させると判定する。
このように、情報処理装置100は、複数の生体情報を用いることで、ユーザU1が不快と感じている度合を正確に把握できる。そして、音が原因でユーザU1が不快と感じている場合、情報処理装置100は、マスキング音をスピーカ13から出力させる。このように、情報処理装置100は、ユーザU1の状態に基づいたサウンドマスキングの制御を実行できる。
また、第1の判定実行部130は、生体情報を示すグラフと第1の不快条件を示すグラフとに基づいて、第1の不快条件が満たされているか否かの第1の判定を実行してもよい。第2の判定実行部160は、音特徴量を示すグラフと第2の不快条件を示すグラフとに基づいて、第2の不快条件が満たされているか否かの第2の判定を実行してもよい。
実施の形態2.
次に、実施の形態2を説明する。実施の形態2は、実施の形態1と相違する事項を主に説明し、実施の形態1と共通する事項の説明を省略する。実施の形態2は、図1〜4を参照する。
図6は、実施の形態2の情報処理装置の構成を示す機能ブロック図である。情報処理装置100aは、分析部190と第1の判定実行部130aとを有する。
分析部190と第1の判定実行部130aの一部又は全部は、プロセッサ101によって実現してもよい。分析部190と第1の判定実行部130aの一部又は全部は、プロセッサ101が実行するプログラムのモジュールとして実現してもよい。
分析部190は、生体情報を分析する。例えば、生体情報が心拍である場合、分析部190は、心拍の情報からLF(Low Frequency)とHF(High Frequency)を分析する。
ここで、第1の不快条件は、生体情報から分析される内容に基づく不快の条件を規定している。例えば、第1の不快条件は、LF/HFが閾値以上の場合、不快であることを示す。
第1の判定実行部130aは、分析部190が分析した結果に基づいて、第1の判定を実行する。例えば、第1の判定実行部130aは、分析部190が分析したLFとHFとに基づいてLF/HFを算出する。第1の判定実行部130aは、算出したLF/HFが閾値以上の場合、ユーザU1が不快であると判定する。すなわち、第1の判定実行部130aは、第1の不快条件を満たしていると判定する。
第1の判定実行部130aによる第1の判定の結果は、出力判定部170に取得される。
実施の形態2によれば、音が原因でユーザU1が不快を感じている場合、情報処理装置100aは、マスキング音をスピーカ13から出力させる。このように、情報処理装置100aは、ユーザU1の状態に基づいたサウンドマスキングの制御を実行できる。
U1 ユーザ、 11 生体情報取得装置、 12 マイク、 13 スピーカ、 100,100a 情報処理装置、 101 プロセッサ、 102 揮発性記憶装置、 103 不揮発性記憶装置、 110 記憶部、 111 第1の不快条件情報、 112 第2の不快条件情報、 120 第1の取得部、 130,130a 第1の判定実行部、 140 第2の取得部、 150 音特徴量検出部、 160 第2の判定実行部、 170 出力判定部、 180 サウンドマスキング制御部、 181 決定部、 182 出力部、 190 分析部。

Claims (9)

  1. 生体情報取得装置によって取得されたユーザの生体情報を取得する第1の取得部と、
    前記生体情報に対応する不快の条件である第1の不快条件を規定している第1の不快条件情報と、前記第1の取得部が取得した前記生体情報とに基づいて、前記第1の不快条件が満たされるか否かの第1の判定を実行する第1の判定実行部と、
    マイクロフォンから出力される音信号を取得する第2の取得部と、
    前記音信号に基づいて、音特徴量を検出する音特徴量検出部と、
    前記音特徴量に対応する不快の条件である第2の不快条件を規定している第2の不快条件情報と、前記音特徴量検出部が検出した前記音特徴量とに基づいて、前記第2の不快条件が満たされるか否かの第2の判定を実行する第2の判定実行部と、
    前記第1の判定の結果と前記第2の判定の結果とに基づいて、第1のマスキング音を出力させるか否かを判定する出力判定部と、
    を有する情報処理装置。
  2. 前記出力判定部は、前記第1の判定の結果が前記第1の不快条件を満たしていることを示しており、かつ前記第2の判定の結果が前記第2の不快条件を満たしていることを示している場合、前記第1のマスキング音を出力させると判定する、
    請求項1に記載の情報処理装置。
  3. 前記第1の取得部は、前記ユーザの複数の生体情報を取得し、
    前記第1の不快条件情報は、前記複数の生体情報に対応する複数の不快条件を規定しており、
    前記第1の判定実行部は、前記第1の不快条件情報と、前記第1の取得部が取得した前記複数の生体情報とに基づいて、前記複数の不快条件が満たされるか否かの第3の判定を実行し、
    前記出力判定部は、前記第2の判定の結果が前記第2の不快条件を満たしていることを示しており、かつ前記第3の判定の結果が前記複数の不快条件を満たしていることを示している場合、前記第1のマスキング音を出力させると判定する、
    請求項1又は2に記載の情報処理装置。
  4. 前記生体情報を分析する分析部をさらに有し、
    前記第1の不快条件は、前記生体情報から分析される内容に基づく不快の条件を規定しており、
    前記第1の判定実行部は、前記分析部が分析した結果に基づいて、前記第1の判定を実行する、
    請求項1又は2に記載の情報処理装置。
  5. 前記第1のマスキング音が出力されると判定された場合、前記音特徴量に基づいた前記第1のマスキング音をスピーカから出力させるサウンドマスキング制御部をさらに有する、
    請求項1から4のいずれか1項に記載の情報処理装置。
  6. 前記サウンドマスキング制御部は、前記第1のマスキング音が出力されると判定され、かつ前記スピーカから第2のマスキング音が出力されている場合、前記第2のマスキング音を前記第1のマスキング音に変更することを決定し、前記第1のマスキング音を前記スピーカから出力させる、
    請求項5に記載の情報処理装置。
  7. スピーカと、
    情報処理装置と、
    を含み、
    前記情報処理装置は、
    生体情報取得装置によって取得されたユーザの生体情報を取得する第1の取得部と、
    前記生体情報に対応する不快の条件である第1の不快条件を規定している第1の不快条件情報と、前記第1の取得部が取得した前記生体情報とに基づいて、前記第1の不快条件が満たされるか否かの第1の判定を実行する第1の判定実行部と、
    マイクロフォンから出力される音信号を取得する第2の取得部と、
    前記音信号に基づいて、音特徴量を検出する音特徴量検出部と、
    前記音特徴量に対応する不快の条件である第2の不快条件を規定している第2の不快条件情報と、前記音特徴量検出部が検出した前記音特徴量とに基づいて、前記第2の不快条件が満たされるか否かの第2の判定を実行する第2の判定実行部と、
    前記第1の判定の結果と前記第2の判定の結果とに基づいて、第1のマスキング音を前記スピーカから出力させるか否かを判定する出力判定部と、
    を有する、
    サウンドマスキングシステム。
  8. 情報処理装置が、
    生体情報取得装置によって取得されたユーザの生体情報を取得し、前記生体情報に対応する不快の条件である第1の不快条件を規定している第1の不快条件情報と、取得された前記生体情報とに基づいて、前記第1の不快条件が満たされるか否かの第1の判定を実行し、マイクロフォンから出力される音信号を取得し、前記音信号に基づいて、音特徴量を検出し、前記音特徴量に対応する不快の条件である第2の不快条件を規定している第2の不快条件情報と、検出された前記音特徴量とに基づいて、前記第2の不快条件が満たされるか否かの第2の判定を実行し、
    前記第1の判定の結果と前記第2の判定の結果とに基づいて、第1のマスキング音を出力させるか否かを判定する、
    制御方法。
  9. 情報処理装置に、
    生体情報取得装置によって取得されたユーザの生体情報を取得し、前記生体情報に対応する不快の条件である第1の不快条件を規定している第1の不快条件情報と、取得された前記生体情報とに基づいて、前記第1の不快条件が満たされるか否かの第1の判定を実行し、マイクロフォンから出力される音信号を取得し、前記音信号に基づいて、音特徴量を検出し、前記音特徴量に対応する不快の条件である第2の不快条件を規定している第2の不快条件情報と、検出された前記音特徴量とに基づいて、前記第2の不快条件が満たされるか否かの第2の判定を実行し、
    前記第1の判定の結果と前記第2の判定の結果とに基づいて、第1のマスキング音を出力させるか否かを判定する、
    処理を実行させる制御プログラム。
JP2021519971A 2019-05-22 2019-05-22 情報処理装置、サウンドマスキングシステム、制御方法、及び制御プログラム Active JP6942288B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/020243 WO2020235037A1 (ja) 2019-05-22 2019-05-22 情報処理装置、サウンドマスキングシステム、制御方法、及び制御プログラム

Publications (2)

Publication Number Publication Date
JP6942288B2 true JP6942288B2 (ja) 2021-09-29
JPWO2020235037A1 JPWO2020235037A1 (ja) 2021-10-14

Family

ID=73459324

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021519971A Active JP6942288B2 (ja) 2019-05-22 2019-05-22 情報処理装置、サウンドマスキングシステム、制御方法、及び制御プログラム

Country Status (5)

Country Link
US (1) US11594208B2 (ja)
EP (1) EP3961619B1 (ja)
JP (1) JP6942288B2 (ja)
AU (1) AU2019446488B2 (ja)
WO (1) WO2020235037A1 (ja)

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5755674A (en) * 1995-10-25 1998-05-26 Watson; Steven R. Abdominal exerciser
JP2000205615A (ja) * 1999-01-11 2000-07-28 Kawai Musical Instr Mfg Co Ltd 空気清浄器
JP2002323898A (ja) * 2001-04-26 2002-11-08 Matsushita Electric Ind Co Ltd 環境制御機器
JP4736981B2 (ja) 2006-07-05 2011-07-27 ヤマハ株式会社 オーディオ信号処理装置およびホール
DE102010004468A1 (de) * 2010-01-13 2011-07-14 Maschinenfabrik Spaichingen GmbH, 78549 Verfahren und Vorrichtung zur Ultraschallbearbeitung
JP5610229B2 (ja) 2011-06-24 2014-10-22 株式会社ダイフク 音声マスキングシステム
JP6140469B2 (ja) 2013-02-13 2017-05-31 株式会社イトーキ 執務環境調整システム
WO2016172446A1 (en) * 2015-04-24 2016-10-27 Rensselaer Polytechnic Institute Sound masking in open-plan spaces using natural sounds
US9966056B2 (en) * 2015-08-24 2018-05-08 Plantronics, Inc. Biometrics-based dynamic sound masking
US10434279B2 (en) * 2016-09-16 2019-10-08 Bose Corporation Sleep assistance device
US10607590B2 (en) * 2017-09-05 2020-03-31 Fresenius Medical Care Holdings, Inc. Masking noises from medical devices, including dialysis machines
EP3727134B8 (en) * 2017-12-22 2023-03-08 ResMed Sensor Technologies Limited Processor readable medium and corresponding method for health and medical sensing
WO2020235039A1 (ja) * 2019-05-22 2020-11-26 三菱電機株式会社 情報処理装置、サウンドマスキングシステム、制御方法、及び制御プログラム
EP3991167B1 (en) * 2019-06-28 2023-12-27 ResMed Sensor Technologies Limited Systems and methods for triggering sounds to mask noise from respiratory systems and their components

Also Published As

Publication number Publication date
AU2019446488A1 (en) 2021-12-16
EP3961619A4 (en) 2022-04-13
WO2020235037A1 (ja) 2020-11-26
EP3961619A1 (en) 2022-03-02
AU2019446488B2 (en) 2023-02-02
US11594208B2 (en) 2023-02-28
JPWO2020235037A1 (ja) 2021-10-14
EP3961619B1 (en) 2023-11-01
US20220059067A1 (en) 2022-02-24

Similar Documents

Publication Publication Date Title
CN111867475B (zh) 次声生物传感器系统和方法
JP6909741B2 (ja) 融合アプローチを用いた人の冠動脈疾患の検出のためのシステムおよびその機械可読情報記憶媒体
CN108577830B (zh) 一种面向用户的体征信息动态监护方法和动态监护系统
US11800996B2 (en) System and method of detecting falls of a subject using a wearable sensor
KR20130010207A (ko) 무구속 무자각 생체신호 획득을 통한 워치타입 건강상태 분석시스템
US11793453B2 (en) Detecting and measuring snoring
Akar et al. Analysis of heart rate variability during auditory stimulation periods in patients with schizophrenia
Francis et al. Listener characteristics differentially affect self-reported and physiological measures of effort associated with two challenging listening conditions
Ne et al. Hearables, in-ear sensing devices for bio-signal acquisition: a narrative review
WO2016047494A1 (ja) 生体情報測定装置及びシステム
JP6831382B2 (ja) 血圧測定の信頼性を評価する方法およびこれを実装する装置
JP6942288B2 (ja) 情報処理装置、サウンドマスキングシステム、制御方法、及び制御プログラム
US20220211286A1 (en) Methods and apparatus for dynamically identifying and selecting the best photoplethysmography sensor channel during monitoring
KR102569058B1 (ko) 패치형 수면다원검사 장치 및 방법
WO2023199839A1 (ja) 内面状態推定装置、内面状態推定方法及び記憶媒体
JP2020076923A5 (ja)
JP7224032B2 (ja) 推定装置、推定プログラムおよび推定方法
US20230309839A1 (en) Systems and methods for estimating cardiac arrythmia
Almazaydeh et al. A highly Reliable and Fully Automated Classification System for Sleep Apnea Detection
KR102097558B1 (ko) 전자 장치 및 그의 레이블링 방법
KR20030029660A (ko) 태아 정서 인식을 이용한 태교 장치 및 방법
KR20220151401A (ko) 뇌파를 이용한 인체 진단 시스템
KR20240062493A (ko) 생체 신호 획득 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210528

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210528

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210810

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210907

R150 Certificate of patent or registration of utility model

Ref document number: 6942288

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150