JP2020202977A - 情報処理装置及び情報処理プログラム - Google Patents

情報処理装置及び情報処理プログラム Download PDF

Info

Publication number
JP2020202977A
JP2020202977A JP2019112561A JP2019112561A JP2020202977A JP 2020202977 A JP2020202977 A JP 2020202977A JP 2019112561 A JP2019112561 A JP 2019112561A JP 2019112561 A JP2019112561 A JP 2019112561A JP 2020202977 A JP2020202977 A JP 2020202977A
Authority
JP
Japan
Prior art keywords
head
information processing
movement
processing device
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019112561A
Other languages
English (en)
Inventor
正 須藤
Tadashi Sudo
正 須藤
努 木村
Tsutomu Kimura
努 木村
青木 康祐
Kosuke Aoki
康祐 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2019112561A priority Critical patent/JP2020202977A/ja
Priority to US16/726,934 priority patent/US20200397381A1/en
Publication of JP2020202977A publication Critical patent/JP2020202977A/ja
Priority to JP2024020528A priority patent/JP2024054337A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1123Discriminating type of movement, e.g. walking or running
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/42Detecting, measuring or recording for evaluating the gastrointestinal, the endocrine or the exocrine systems
    • A61B5/4205Evaluating swallowing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/6803Head-worn items, e.g. helmets, masks, headphones or goggles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7203Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
    • A61B5/7207Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal of noise induced by motion artifacts
    • A61B5/721Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal of noise induced by motion artifacts using a separate sensor to detect motion or using motion information derived from signals other than the physiological signal to be measured
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7425Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/206Drawing of charts or graphs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/053Measuring electrical impedance or conductance of a portion of the body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/15Biometric patterns based on physiological signals, e.g. heartbeat, blood flow

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Physiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Psychiatry (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Cardiology (AREA)
  • Endocrinology (AREA)
  • Gastroenterology & Hepatology (AREA)
  • Artificial Intelligence (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pulmonology (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

【課題】生体情報と頭部の動きを別々のセンサーで測定した場合に比べ、生体情報と頭部の動きを同じ画面上で比較可能に表示することができる情報処理装置を提供する。【解決手段】情報処理装置の抽出手段は、人体の頭部における電位を測定した結果である電位測定結果から生体情報と頭部の動きを抽出し、制御手段は、前記抽出手段によって抽出された前記生体情報と前記頭部の動きを同じ画面上で紐付けて通知可能に制御する。【選択図】図1

Description

本発明は、情報処理装置及び情報処理プログラムに関する。
特許文献1には、レム睡眠中における脳波を高周波まで計測できるようにした脳波データ取得装置を提供することを課題とし、脳波や筋電図(EMG)、眼電図(EOG)を採集するための電極やセンサーからの信号は、増幅器を介して、A/D変換器において、サンプリング制御部からの定まったサンプリング・レートでデジタル・データに変換されて、波形記憶部に記憶され、これらの動作は情報処理部により制御されており、波形記憶部に記憶されている波形データは、例えば、インターフェース部を介して、波形データとして、記録部でプリントアウトされ、サンプリング制御部は、筋電図(EMG)からのデータがフラットとなり、レム睡眠であることを検出されると、サンプリング・レートを高くすることが開示されている。
特開2001−008915号公報
生体情報を測定するセンサーと、そのセンサーとは別に頭部の動きを測定するセンサーがある構成では、別々に測定結果を取得することになる。そのため、生体情報と頭部の動きが関連付いている可能性があるにもかかわらず、それぞれの測定結果を表示することになる。そこで本発明は、生体情報と頭部の動きを別々のセンサーで測定した場合に比べ、生体情報と頭部の動きを同じ画面上で比較可能に通知することができる情報処理装置及び情報処理プログラムを提供することを目的としている。
かかる目的を達成するための本発明の要旨とするところは、次の各項の発明に存する。
請求項1の発明は、人体の頭部における電位を測定した結果である電位測定結果から生体情報と頭部の動きを抽出する抽出手段と、前記抽出手段によって抽出された前記生体情報と前記頭部の動きを同じ画面上で紐付けて通知可能に制御する制御手段を有する情報処理装置である。
請求項2の発明は、前記抽出手段は、前記電位測定結果から複数の周波数帯域の波を抽出し、前記制御手段は、前記抽出手段が抽出した複数の波と前記頭部の動きを前記画面上に比較可能に表示するように制御する、請求項1に記載の情報処理装置である。
請求項3の発明は、前記頭部の動きとして、咀嚼を含み、前記抽出手段は、前記電位測定結果が予め定められたパターンに合致する箇所を咀嚼箇所として抽出し、前記制御手段は、生体情報と、前記電位測定結果を示すグラフ上に前記咀嚼箇所を比較可能に表示するように制御する、請求項1に記載の情報処理装置である。
請求項4の発明は、前記予め定められたパターンとして、前記グラフの第1ピークが予め定められた第1閾値より高い又は以上であって、該第1ピークの後にある第2ピークが該第1閾値未満又は以下であり、予め定められた第2閾値より高い又は以上であり、該第2閾値は該第1閾値よりも低いこととする、請求項3に記載の情報処理装置である。
請求項5の発明は、前記頭部の動きとして、嚥下を含み、前記電位測定結果が予め定められたパターンに合致する箇所を嚥下箇所であると解析する解析手段をさらに有し、前記制御手段は、生体情報と、前記電位測定結果を示すグラフ上に前記嚥下箇所を比較可能に表示するように制御する、請求項1に記載の情報処理装置である。
請求項6の発明は、前記予め定められたパターンとして、咀嚼の後であって、前記グラフの第3ピークが予め定められた第3閾値より高い又は以上であることとする、請求項5に記載の情報処理装置である。
請求項7の発明は、前記解析手段は、さらに前記頭部に装着された加速度センサーの測定結果を用いて、該頭部が予め定められた動きである場合は、前記嚥下を飲み物の嚥下であるとして抽出する、請求項6に記載の情報処理装置である。
請求項8の発明は、前記予め定められた動きとして、首を後方に傾ける動きとする、請求項7に記載の情報処理装置である。
請求項9の発明は、前記制御手段は、前記電位測定結果を、複数種の変換処理した結果を同じ画面上に表示する、請求項1に記載の情報処理装置である。
請求項10の発明は、前記制御手段は、低域通過濾波器、高域通過濾波器を用いて予め定められた期間をスペクトル分析した結果と、周期性を持たないそれ以外のデータとを表示する、請求項1に記載の情報処理装置である。
請求項11の発明は、前記人体の頭部を撮影する撮影手段をさらに有し、前記制御手段は、さらに、前記撮影手段が撮影した画像を表示するように制御する、請求項1に記載の情報処理装置である。
請求項12の発明は、前記撮影した画像と前記生体情報を紐付けて利用者の状態を通知する、請求項11に記載の情報処理装置である。
請求項13の発明は、前記生体情報が抽出できない場合、前記画像を解析して前記利用者の状態を通知する、請求項12に記載の情報処理装置である。
請求項14の発明は、コンピュータを、人体の頭部における電位を測定した結果である電位測定結果から生体情報と頭部の動きを抽出する抽出手段と、前記抽出手段によって抽出された前記生体情報と前記頭部の動きを同じ画面上で紐付けて通知可能に制御する制御手段として機能させるための情報処理プログラムである。
請求項1の情報処理装置によれば、生体情報と頭部の動きを別々のセンサーで測定した場合に比べ、生体情報と頭部の動きを同じ画面上で比較可能に通知することができる。
請求項2の情報処理装置によれば、複数の波と頭部の動きを画面上に比較可能に表示するように制御することができる。
請求項3の情報処理装置によれば、生体情報と、電位測定結果を示すグラフ上に咀嚼箇所を比較可能に表示するように制御することができる。
請求項4の情報処理装置によれば、グラフの第1ピークが予め定められた第1閾値より高い又は以上であって、その第1ピークの後にある第2ピークがその第1閾値未満又は以下であり、予め定められた第2閾値より高い又は以上であり、その第2閾値はその第1閾値よりも低い場合に、咀嚼として抽出することができる。
請求項5の情報処理装置によれば、生体情報と、電位測定結果を示すグラフ上に嚥下箇所を比較可能に表示するように制御することができる。
請求項6の情報処理装置によれば、咀嚼の後であって、グラフの第3ピークが予め定められた第3閾値より高い又は以上である場合に、嚥下として抽出することができる。
請求項7の情報処理装置によれば、嚥下のうち、飲み物の嚥下を抽出することができる。
請求項8の情報処理装置によれば、首を後方に傾ける動きがあった場合に、飲み物の嚥下として抽出することができる。
請求項9の情報処理装置によれば、複数種の変換処理した結果を同じ画面上で確認することができる。
請求項10の情報処理装置によれば、低域通過濾波器、高域通過濾波器を用いて予め定められた期間をスペクトル分析した結果と、周期性を持たないそれ以外のデータとを確認することができる。
請求項11の情報処理装置によれば、生体情報と頭部の動きと頭部を撮影した画像を同じ画面上で確認することができる。
請求項12の情報処理装置によれば、撮影した画像と生体情報を関連付けて通知することができる。
請求項13の情報処理装置によれば、生体情報が抽出できない場合であっても、利用者の状態を通知することができる。
請求項14の情報処理プログラムによれば、生体情報と頭部の動きを別々のセンサーで測定した場合に比べ、生体情報と頭部の動きを同じ画面上で比較可能に通知することができる。
本実施の形態の構成例についての概念的なモジュール構成図である。 本実施の形態を利用したシステム構成例を示す説明図である。 本実施の形態を利用したシステム構成例を示す説明図である。 本実施の形態を利用したシステム構成例を示す説明図である。 本実施の形態を利用した具体的なシステム構成例を示す説明図である。 本実施の形態による処理例を示すフローチャートである。 本実施の形態による処理例を示すフローチャートである。 本実施の形態による処理例を示すフローチャートである。 本実施の形態による処理例を示すフローチャートである。 本実施の形態による処理例を示す説明図である。 本実施の形態による処理例を示す説明図である。 本実施の形態による処理例を示す説明図である。 本実施の形態による処理例を示す説明図である。 本実施の形態による処理例を示す説明図である。 本実施の形態による処理例を示す説明図である。 本実施の形態による処理例を示す説明図である。 本実施の形態による処理例を示す説明図である。 本実施の形態による処理例を示す説明図である。 本実施の形態による処理例を示す説明図である。 本実施の形態を実現するコンピュータのハードウェア構成例を示すブロック図である。
以下、図面に基づき本発明を実現するにあたっての好適な一実施の形態の例を説明する。
図1は、本実施の形態の構成例についての概念的なモジュール構成図を示している。
なお、モジュールとは、一般的に論理的に分離可能なソフトウェア(「ソフトウェア」の解釈として、コンピュータ・プログラムを含む)、ハードウェア等の部品を指す。したがって、本実施の形態におけるモジュールはコンピュータ・プログラムにおけるモジュールのことだけでなく、ハードウェア構成におけるモジュールも指す。それゆえ、本実施の形態は、それらのモジュールとして機能させるためのコンピュータ・プログラム(例えば、コンピュータにそれぞれの手順を実行させるためのプログラム、コンピュータをそれぞれの手段として機能させるためのプログラム、コンピュータにそれぞれの機能を実現させるためのプログラム)、システム及び方法の説明をも兼ねている。ただし、説明の都合上、「記憶する」、「記憶させる」、これらと同等の文言を用いるが、これらの文言は、実施の形態がコンピュータ・プログラムの場合は、記憶装置に記憶させる、又は記憶装置に記憶させるように制御するという意味である。また、モジュールは機能に一対一に対応していてもよいが、実装においては、1モジュールを1プログラムで構成してもよいし、複数モジュールを1プログラムで構成してもよく、逆に1モジュールを複数プログラムで構成してもよい。また、複数モジュールは1コンピュータによって実行されてもよいし、分散又は並列環境におけるコンピュータによって1モジュールが複数コンピュータで実行されてもよい。なお、1つのモジュールに他のモジュールが含まれていてもよい。また、以下、「接続」とは物理的な接続の他、論理的な接続(例えば、データの授受、指示、データ間の参照関係、ログイン等)の場合にも用いる。「予め定められた」とは、対象としている処理の前に定まっていることをいい、本実施の形態による処理が始まる前はもちろんのこと、本実施の形態による処理が始まった後であっても、対象としている処理の前であれば、そのときの状況・状態にしたがって、又はそれまでの状況・状態にしたがって定まることの意を含めて用いる。「予め定められた値」が複数ある場合は、それぞれ異なった値であってもよいし、2以上の値(「2以上の値」には、もちろんのことながら、全ての値も含む)が同じであってもよい。また、「Aである場合、Bをする」という記載は、「Aであるか否かを判断し、Aであると判断した場合はBをする」の意味で用いる。ただし、Aであるか否かの判断が不要である場合を除く。また、「A、B、C」等のように事物を列挙した場合は、断りがない限り例示列挙であり、その1つのみを選んでいる場合(例えば、Aのみ)を含む。
また、システム又は装置とは、複数のコンピュータ、ハードウェア、装置等がネットワーク(「ネットワーク」には、一対一対応の通信接続を含む)等の通信手段で接続されて構成されるほか、1つのコンピュータ、ハードウェア、装置等によって実現される場合も含まれる。「装置」と「システム」とは、互いに同義の用語として用いる。もちろんのことながら、「システム」には、人為的な取り決めである社会的な「仕組み」(つまり、社会システム)にすぎないものは含まない。
また、各モジュールによる処理毎に又はモジュール内で複数の処理を行う場合はその処理毎に、対象となる情報を記憶装置から読み込み、その処理を行った後に、処理結果を記憶装置に書き出すものである。したがって、処理前の記憶装置からの読み込み、処理後の記憶装置への書き出しについては、説明を省略する場合がある。なお、ここでの記憶装置としては、ハードディスクドライブ、RAM(Random Access Memoryの略)、外部記憶媒体、通信回線を介した記憶装置、CPU(Central Processing Unitの略)内のレジスタ等を含んでいてもよい。
本実施の形態である情報処理装置100は、生体情報と頭部の動きを同じ画面上で紐付けて通知する機能を有しており、図1の例に示すように、生体情報抽出モジュール105、頭部情報抽出モジュール110、解析モジュール115、表示制御モジュール120、表示モジュール125を有している。なお、「紐付け」とは、関連付けることである。
ここで「生体情報」とは、人体の生命活動を測定することによって得られる情報であって、生体情報として、例えば、心電図、心拍数、血圧、体温、脳波、筋電、網膜(眼底)電位等の情報がある。本実施の形態では、主に脳波情報を例として示す。
また、「頭部」とは、首から上の部分をいう。例えば、耳、口、喉、目、鼻、額、頬等のいずれか1つ以上を含む。
また、「頭部の動き」とは、頭部全体、又は、頭部の一部の動きをいう。例えば、うなずき、首振り、咀嚼、嚥下、まばたき、呼吸、口角の動き等がある。具体的には、口角の動きを筋電情報と顔画像で判定するようにしてもよい。そのために、生体情報の測定と同時に顔を撮影して、それらを連動して、電位のデータと顔の表示を紐付けて表示・通知するようにしてもよい。
生体情報抽出モジュール105は、解析モジュール115と接続されている。生体情報抽出モジュール105は、人体の頭部における電位を測定した結果である電位測定結果から生体情報を抽出する。
また、生体情報抽出モジュール105は、電位測定結果から複数の周波数帯域の波を抽出するようにしてもよい。
ここで「周波数帯域の波」として、例えば、α波(アルファ波)、β波(ベータ波)、γ波(ガンマ波)、θ波(シータ波)、δ波(デルタ波)があり、「複数の周波数帯域の波」は、これらのうち2以上の波をいう。
また、生体情報抽出モジュール105の処理として、電位測定結果に対してFFT(Fast Fourier Transformの略、高速フーリエ変換)を行うことによって脳波を抽出するようにしてもよい。
頭部情報抽出モジュール110は、解析モジュール115と接続されている。頭部情報抽出モジュール110は、頭部の動きを抽出する。
また、頭部情報抽出モジュール110は、人体の頭部における電位を測定した結果である電位測定結果から頭部の動きを抽出するようにしてもよい。
解析モジュール115は、生体情報抽出モジュール105、頭部情報抽出モジュール110、表示制御モジュール120と接続されている。解析モジュール115は、生体情報抽出モジュール105が抽出した生体情報である脳波情報と、頭部情報抽出モジュール110が抽出した頭部の動きを用いて、脳波情報と頭部の動きの関係を解析する。
また、解析モジュール115は、ユーザーの行動を解析するようにしてもよい。
表示制御モジュール120は、解析モジュール115、表示モジュール125と接続されている。表示制御モジュール120は、生体情報抽出モジュール105によって抽出された生体情報と頭部情報抽出モジュール110によって抽出された頭部の動きを同じ画面上で紐付けて通知可能に制御する。
また、表示制御モジュール120は、生体情報抽出モジュール105が抽出した複数の波と頭部の動きを表示モジュール125の画面上に比較可能に表示するよう制御するようにしてもよい。
表示モジュール125は、表示制御モジュール120と接続されている。表示モジュール125は、表示制御モジュール120の制御にしたがって、液晶ディスプレイ、有機ELディスプレイ等の画面上に表示を行う。
例えば、頭部の動きとして、咀嚼を含めてもよい。
その場合、生体情報抽出モジュール105は、電位測定結果が予め定められたパターンに合致する箇所を咀嚼箇所として抽出するようにしてもよい。
ここでの「予め定められたパターン」として、グラフの第1ピークが予め定められた第1閾値より高い又は以上であって、その第1ピークの後にある第2ピークがその第1閾値未満又は以下であり、予め定められた第2閾値より高い又は以上であり、その第2閾値はその第1閾値よりも低いこととするようにしてもよい。
そして、表示制御モジュール120は、生体情報と、電位測定結果を示すグラフ上に咀嚼箇所を比較可能に表示するよう制御するようにしてもよい。
また、例えば、頭部の動きとして、嚥下を含めてもよい。
その場合、解析モジュール115は、電位測定結果が予め定められたパターンに合致する箇所を嚥下箇所であると解析するようにしてもよい。
ここで「予め定められたパターン」として、咀嚼の後であって、グラフの第3ピークが予め定められた第3閾値より高い又は以上であることとしてもよい。
そして、表示制御モジュール120は、生体情報と、電位測定結果を示すグラフ上に嚥下箇所を比較可能に表示するよう制御するようにしてもよい。
この場合、解析モジュール115は、さらに頭部に装着された加速度センサーの測定結果を用いて、その頭部が予め定められた動きである場合は、電位測定結果が予め定められたパターンに合致する箇所の嚥下を飲み物の嚥下であるとして抽出するようにしてもよい。
ここでの「予め定められた動き」として、首を後方に傾ける動きとしてもよい。
そして、表示制御モジュール120は、飲み物の嚥下であることを表示するように制御してもよい。
また、表示制御モジュール120は、電位測定結果を、複数種の変換処理した結果を同じ画面上に表示するようにしてもよい。例えば、取得した電位測定結果を、FFT、ウェーブレット変換、Stockwell変換、経験的モード分解(使用者が任意で設定した関数)等の複数種で処理をした結果を同一画面に表示するようにしてもよい。
また、表示制御モジュール120は、周波数分析した結果の強度比をそのままグラフにする表示と、周波数分析した全体の強度比率を表示するようにしてもよい。
また、表示制御モジュール120は、低域通過濾波器、高域通過濾波器を用いて予め定められた期間をスペクトル分析した結果と、周期性を持たないそれ以外のデータとを表示するようにしてもよい。
ここで「低域通過濾波器」は、一般的には、LPF(Low−Pass Filterの略)と言われているものである。また「高域通過濾波器」は、一般的には、HPF(High−Pass Filterの略)と言われているものである。
また、表示制御モジュール120は、FFT等で変換処理した結果の各グラフを重複して表示し、そのグラフをユーザーによって選択可能とし、ユーザーによって選択されたグラフを強調表示するようにしてもよい。強調表示として、例えば、グラフの色、形状等を異ならせたり、ハイライト表示したりすること等がある。
また、表示制御モジュール120は、グラフの縦軸スケールとして、値の最大又は/及び最小に合わせて調整するモード、ユーザーの操作に合わせて任意で値の表示範囲を固定するモード、値の最大又は/及び最小でスケールをアクティブに固定するモードを選択可能とするようにしてもよい。
図2Aは、本実施の形態を利用したシステム構成例を示す説明図である。情報処理装置200Aと装置250とが通信を行うシステム構成例を示すものである。なお、情報処理装置200A内に、情報処理装置100の構成を有している。前述の図に示した部位と同種の部位には同一符号を付し、重複した説明を省略する(以下、同様)。
装置250は、通信モジュール255、生体情報検知モジュール260を有している。
通信モジュール255は、生体情報検知モジュール260と接続されており、また、通信回線を介して、情報処理装置200Aの通信モジュール230と接続されている。通信モジュール255は、情報処理装置200Aと通信を行う。通信回線として、無線、有線、これらの組み合わせであってもよい。例えば、無線回線として、Wi−Fi、ブルートゥース(登録商標)等の近距離無線通信を行うようにしてもよい。
生体情報検知モジュール260は、通信モジュール255と接続されている。装置250は、例えば、ユーザーの頭部に取り付けられている。装置250を身につけているユーザーの頭部における電位を測定する。例えば、特開2019−024758号公報に記載の電極(発泡材料によって構成され、少なくとも生体に接触する部分が導電性を有し、生体に接触して脳波を検出する電極)を用いるようにしてもよい。
そして、生体情報検知モジュール260は、その測定結果である電位測定結果を通信モジュール255に渡し、情報処理装置200Aに送信する。
情報処理装置200Aは、生体情報抽出モジュール105、頭部情報抽出モジュール110、解析モジュール115、表示制御モジュール120、表示モジュール125、通信モジュール230を有している。
通信モジュール230は、生体情報抽出モジュール105、頭部情報抽出モジュール110と接続されており、また、通信回線を介して装置250の通信モジュール255と接続されている。通信モジュール230は、装置250と通信を行って、電位測定結果を受信する。装置250から受信した電位測定結果を、生体情報抽出モジュール105と頭部情報抽出モジュール110に渡す。
生体情報抽出モジュール105は、解析モジュール115、通信モジュール230と接続されている。生体情報抽出モジュール105は、装置250から受信した、人体の頭部における電位を測定した結果である電位測定結果から生体情報を抽出する。
頭部情報抽出モジュール110は、解析モジュール115、通信モジュール230と接続されている。頭部情報抽出モジュール110は、装置250から受信した、人体の頭部における電位を測定した結果である電位測定結果から頭部の動きを抽出する。
図2Bは、本実施の形態を利用したシステム構成例を示す説明図である。情報処理装置200Bと装置250とが通信を行うシステム構成例を示すものである。なお、情報処理装置200B内に、情報処理装置100の構成を有している。
情報処理装置200Bは、生体情報抽出モジュール105、頭部情報抽出モジュール110、解析モジュール115、表示制御モジュール120、表示モジュール125、通信モジュール230を有している。
通信モジュール230は、生体情報抽出モジュール105と接続されており、また、通信回線を介して装置250の通信モジュール255と接続されている。通信モジュール230は、装置250と通信を行って、電位測定結果を受信する。装置250から受信した電位測定結果を、生体情報抽出モジュール105に渡す。
生体情報抽出モジュール105は、解析モジュール115、通信モジュール230と接続されている。生体情報抽出モジュール105は、装置250から受信した、人体の頭部における電位を測定した結果である電位測定結果から生体情報を抽出する。
頭部情報抽出モジュール110は、撮影モジュール235を有しており、解析モジュール115と接続されている。撮影モジュール235は、情報処理装置200Bを所持しているユーザー(なお、このユーザーは、装置250を身につけているユーザーでもある)の頭部を撮影する。静止画であってもよいし、動画であってもよい。なお、静止画である場合は、時間をずらして2枚以上の静止画を撮影することが好ましい。
頭部情報抽出モジュール110は、撮影モジュール235が撮影したユーザーの頭部の画像から、頭部の動きを抽出する。例えば、機械学習を行って生成した学習モデルを用いて、画像から頭部の動きを抽出するようにしてもよい。
そして、表示制御モジュール120は、さらに、撮影モジュール235が撮影した画像を表示するように制御する。その際に、生体情報と頭部の動きを示すグラフを、撮影モジュール235が撮影した画像とともに表示するようにしてもよい。また、頭部の動きがあった場合の画像を連動して表示するようにしてもよい。
図2Cは、本実施の形態を利用したシステム構成例を示す説明図である。情報処理装置200Cと装置250とが通信を行うシステム構成例を示すものである。なお、情報処理装置200C内に、情報処理装置100の構成を有している。
情報処理装置200Cは、生体情報抽出モジュール105、頭部情報抽出モジュール110、解析モジュール115、表示制御モジュール120、表示モジュール125、通信モジュール230を有している。
通信モジュール230は、生体情報抽出モジュール105、頭部情報抽出モジュール110と接続されており、また、通信回線を介して装置250の通信モジュール255と接続されている。通信モジュール230は、装置250と通信を行って、電位測定結果を受信する。装置250から受信した電位測定結果を、生体情報抽出モジュール105と頭部情報抽出モジュール110に渡す。
生体情報抽出モジュール105は、解析モジュール115、通信モジュール230と接続されている。生体情報抽出モジュール105は、装置250から受信した、人体の頭部における電位を測定した結果である電位測定結果から生体情報を抽出する。
頭部情報抽出モジュール110は、撮影モジュール235を有しており、解析モジュール115、通信モジュール230と接続されている。頭部情報抽出モジュール110は、装置250から受信した電位測定結果及び撮影モジュール235が撮影したユーザーの頭部の画像から、頭部の動きを抽出する。図2Aの例に示した頭部情報抽出モジュール110と図2Bの例に示した頭部情報抽出モジュール110の両方の機能を有している。例えば、装置250から受信した電位測定結果から抽出した頭部の動きと、頭部の画像から抽出した頭部の動きが、一致している場合に、頭部の動きとして抽出するようにしてもよい。異なる場合は、頭部の動きとして抽出できなかったとしてもよいし、いずれか一方の結果である頭部の動きを採用してもよい。
図3は、本実施の形態を利用した具体的なシステム構成例を示す説明図である。
スマートフォン300は、情報処理装置200(特に、情報処理装置200B又は情報処理装置200C)の具体例であり、ウェアラブルデバイス350は、装置250の具体例である。スマートフォン300は、カメラ335を有しており、ユーザー390の頭部を撮影する。カメラ335は、撮影モジュール235の具体例である。
ユーザー390は、スマートフォン300を所持しており、ウェアラブルデバイス350を頭部に着用している。スマートフォン300とウェアラブルデバイス350は、近距離無線通信を用いて通信を行う。
スマートフォン300とウェアラブルデバイス350によって、ユーザー390自身の生体情報と頭部の動きを、スマートフォン300画面上で関連付けて表示する。例えば、ユーザー390の咀嚼と嚥下をセンシングする。
ウェアラブルデバイス350として、センサーを外耳道に配設し、そのウェアラブルデバイス350は、脳波と筋電の合成波形のデータ(いわゆる生データ(Rawデータ)であり、以下、生データともいう)を検出する。生データをスマートフォン300に送信する。スマートフォン300では、生データそのものを筋電のデータとし、生データに対してFFTを施して、脳波データに変換する。つまり、1つの波形データ(生データ)から2つの情報、つまり、生体情報である脳波データと頭部の動きを示す筋電データを取得する。例えば、スマートフォン300は、筋電データから咀嚼と嚥下を検知し、筋電データのグラフにマーク付けを行い、また、筋電データのグラフと同じ時系列で脳波データのグラフを表示して、ユーザー390は、咀嚼と嚥下が行われた際の脳波データの状態を知ることができるようになる。
具体的には、筋電データのグラフ上でのピークを抽出し、閾値との比較によって、咀嚼と嚥下を検出する。そして、筋電データのグラフ上に咀嚼と嚥下のマーク付けを行う。また、生データをFFT解析し、ノイズの周波数成分を排除して、脳波を解析して脳波のグラフを生成し、筋電データのグラフと揃えた時系列で表示する。
また、スマートフォン300のカメラ335を用いて、ユーザー390の頭部、主に顔を撮影して、顔の動きと脳波の関係を関連付けて表示するようにしてもよい。顔の動きとして、例えば、美容用の顔体操、表情筋のトレーニング等が該当する。
前述した特開2019−024758号公報に記載の電極をウェアラブルデバイス350のセンサーに用いた場合、そのセンサーは、微小な電位(例えば、数μVレベル)を測定する電位計であり、わずかな電位の変化でもS/N比が高い信号を取得することが求められる。
しかしながら、わずかな電位の変化も取得できるために、電極の周囲の筋肉から発生する筋電も、ノイズとして信号にのってしまう。
本実施の形態では、通常ノイズとして扱う筋電情報を用いて、頭部の動作を検出している。頭部の動作として、例えば、咀嚼、嚥下等がある。
脳波測定の電極を外耳道、グランド(GND)を耳の周辺部位に配置し計測するウェアラブルデバイス350は、近くに顎、頬や喉の大きな筋肉があり、咀嚼や嚥下等の動作により筋電の信号を取得することが可能である。
特開2019−024758号公報に記載の電極を用いた場合、本実施の形態では、以下のような処理を行う。
(1)ウェアラブルデバイス350の脳波電極を、ユーザー390の外耳道に配設する。
(2)生データを筋電データとし、生データにFFTの処理を施して脳波データを得て、1つの波形データから2つの生体情報を取得する。
図4は、本実施の形態(ウェアラブルデバイス350)による処理例を示すフローチャートである。
ステップS402では、ウェアラブルデバイス350は、ユーザー390の生体情報を検出する。前述の生データとなる。
ステップS404では、スマートフォン300へ送信するためのデータを生成する。
ステップS406では、スマートフォン300へデータを送信する。前述したように、例えば、スマートフォン300とウェアラブルデバイス350は近距離無線通信を行う。
図5は、本実施の形態(スマートフォン300)による処理例を示すフローチャートである。
ステップS502では、ウェアラブルデバイス350からデータを受信する。
ステップS504では、受信したデータから脳波に関する情報を抽出する。
ステップS506では、受信したデータから頭部の動きに関する情報を抽出する。
ステップS508では、脳波に関する情報と頭部の動きに関する情報の両方のグラフを同一画面上に表示する。もちろんのことながら、2つのグラフの時系列をそろえている。具体的には、2つのグラフの時を示すX軸を一致させて表示するようにしてもよいし、2つのグラフを1つの領域内に重複して表示するようにしてもよい。
図6は、本実施の形態(スマートフォン300)による処理例を示すフローチャートである。
ステップS602では、ウェアラブルデバイス350からデータを受信する。
ステップS604では、スマートフォン300のカメラ335が撮影した画像を取得する。
ステップS606では、受信したデータから脳波に関する情報を抽出する。
ステップS608では、画像を解析して、頭部の動きに関する情報を抽出する。
ステップS610では、脳波に関する情報と頭部の動きに関する情報の両方のグラフを同一画面上に表示する。例えば、脳波のグラフ上に頭部の動きが発生した時点にマーク付けするようにしてもよい。
図7は、本実施の形態(スマートフォン300)による処理例を示すフローチャートである。図5の例に示した処理例と図6の例に示した処理例を組み合わせたものである。
ステップS702では、ウェアラブルデバイス350からデータを受信する。
ステップS704では、カメラ335が撮影した画像を取得する。
ステップS706では、受信したデータから脳波に関する情報を抽出する。
ステップS708では、受信したデータから頭部の動きに関する情報を抽出する。
ステップS710では、画像を解析して、頭部の動きに関する情報を抽出する。
ステップS712では、ステップS708とステップS710で抽出した頭部の動きに関する情報を合成する。
ステップS714では、脳波に関する情報と頭部の動きに関する情報の両方のグラフを同一画面上に表示する。
図8は、本実施の形態による処理例を示す説明図である。
例えば、スマートフォン300の画面800に、生データ欄802、FFT欄804、ウェーブレット変換欄806、Stockwell変換欄808、経験的モード分解欄810を表示する。
ウェアラブルデバイス350から取得した信号を、FFT、ウェーブレット変換、Stockwell変換、経験的モード分解(使用者が任意で設定した関数)等の複数種類の処理をした結果を、画面800上に表示している。ここでは、時間軸である横軸を同じにし、生データ欄802、FFT欄804、ウェーブレット変換欄806、Stockwell変換欄808、経験的モード分解欄810に分けて、各グラフを表示している。
また、周波数分析した結果の強度比をそのままグラフにする表示と、周波数分析した全体の強度比率を表示するようにしてもよい。
図9は、本実施の形態による処理例を示す説明図である。この例は、生体情報の生データと、生体情報を解析したデータと、生体情報を加工したデータ(生データから周期的な成分を除去したデータ)を表示するようにしたものである。
画面900には、生データ欄902、周波数解析欄904、周期的な周波数波形生成欄906、加工した波形データ欄908を表示する。
周波数解析欄904内のグラフには、周期的な周波数成分が現れる。図9では、周波数解析欄904内のグラフでピークとなっている部分が該当する。
加工した波形データ欄908には、例えば、生データ欄902のグラフと周期的な周波数波形生成欄906のグラフから生成したグラフを表示している。つまり、生データから周期的な周波数成分を取り除くことで、筋電などの周期性のない波形が見えやすくなる。
図10は、本実施の形態による処理例を示す説明図である。
グラフ上に咀嚼と嚥下の箇所をマーク付けした例を示すものである。
画面1000には、生データ欄1002、δ波欄1004、θ波欄1006、α波欄1008、筋電データ欄1010を表示する。δ波欄1004、θ波欄1006、α波欄1008内のグラフは、生データに対してFFT等の処理を施して、δ波、θ波、α波に分解したものである。また、筋電データ欄1010には、生データから脳波の成分を除去して抽出した筋電データのグラフを表示している。そして、このグラフ上に咀嚼と嚥下が行われた箇所についてマーク付けを行っている。
咀嚼については、グラフの第1ピークが予め定められた第1閾値より高い又は以上であって、その第1ピークの後にある第2ピークがその第1閾値未満又は以下であり、予め定められた第2閾値より高い又は以上である箇所を咀嚼が行われた箇所としている。なお、第2閾値は第1閾値よりも低いこととする。図10の例では、咀嚼のマークがついている第1ピークである箇所は、第1閾値より高いピークであって、その後に続く第2ピークは第1閾値より低くかつ第2閾値より高い関係を満たしている。
嚥下については、咀嚼の後であって、第3ピークが予め定められた第3閾値より高い又は以上である箇所を嚥下が行われた箇所としている。図10の例では、嚥下のマークがついている第3ピークである箇所は、第1ピークよりも後であって、第3閾値より高い関係を満たしている。なお、第1ピークよりも後であって、そして、第2ピークよりも後であって、第3閾値より高い関係を満たしている箇所を嚥下が行われた箇所としてもよい。
このような表示を行うことによって、筋電データから咀嚼と嚥下が検出された場合、各脳波との関係が一つの画面で確認できるため、仮説や検証が容易になる。
図11は、本実施の形態による処理例を示す説明図である。
図11(a)の例に示すグラフは、生データのグラフである。つまり、脳波データと筋電データが合成されたものである。
生データを、脳波データと筋電データに分離する。例えば、生データにFFT処理を施して脳波データを生成してもよい。そして、生データそのものを筋電データとして扱ってもよい。つまり、ウェアラブルデバイス350から取得した一つの生データから2つの情報を取得する。
図11(b)の例に示すグラフは、筋電データのグラフである。ここで、咀嚼箇所1150と咀嚼箇所1152は、閾値1110よりも高く、その直後にあるピークは閾値1120よりも高いので、咀嚼の箇所であると判断している。
図11(c)の例に示すグラフは、生データをFFT解析し、ノイズの周波数成分を除去した脳波データのグラフである。
図12は、本実施の形態による処理例を示す説明図である。ウェアラブルデバイス350は、節電センサーだけでなく、加速度センサーも有していてもよい。その場合、加速度センサーによる検知結果をも用いて、情報を表示するようにしてもよい。
加速度データグラフ1210のデータは、ユーザー390の頭部に設置したウェアラブルデバイス350内の加速度センサーによって取得したものである。この加速度センサーとして、例えば、6軸センサー等を用いればよい。
生データグラフ1220のデータは、そのウェアラブルデバイス350内の節電センサーによって取得したものである。
ウェアラブルデバイス350内の加速度センサーによる検知結果を用いて、頭部の動作と顎の筋電の情報を関連づけることで、より詳細な動作に分類することができる。例えば、嚥下であって頭を後ろに倒したという情報が得られれば、飲み物を飲んだ動作と判断する。
図12の例では、生データグラフ1220における咀嚼箇所1250、咀嚼箇所1252の直前に、加速度データグラフ1210においてピークがあることから、嚥下の直前に首を後方に傾ける動きがあったことがわかる。なお、このグラフは、前後方向における加速度を示している。また、横方向における加速度を用いれば、顔を傾けること等の判断を行うことができる。
図13は、本実施の形態による処理例を示す説明図である。
画面1300に、生データグラフ1310、脳波(α波)グラフ1320、脳波(β波)グラフ1330を重複して表示したものである。もちろんのことながら、時間軸である横軸は一致させている。
この例では、ユーザーがグラフを選択して、そのグラフを強調表示させることができる。例えば、脳波(α波)グラフ1320がユーザーによって選択された場合は、脳波(α波)グラフ1320を赤色に表示するようにしてもよい。
そして、咀嚼箇所1350、咀嚼箇所1352のように、咀嚼が行われた箇所にマーク付けを行うことによって、その咀嚼が行われている場合の脳波の状態を観察することができるようにしている。
図14は、本実施の形態による処理例を示す説明図である。
スマートフォン300は、画面325、カメラ335を有している。カメラ335は、インカメラとも言われ、スマートフォン300を有しているユーザー390の顔を撮影するのに用いられている。このカメラ335でユーザー390の顔を撮影して、ウェアラブルデバイス350が検知した情報をグラフ表示する例を示す。
図14の例は、美容用の顔体操、表情筋のトレーニング等に用いるようにした例を示すものである。ユーザー390の顔画像と生体情報の測定結果を連動して表示する例を示したものである。
画面325には、撮影画像表示領域1410、残り回数表示領域1420、残り時間表示領域1430、コメント表示領域1440、グラフ表示領域1450を表示する。
ウェアラブルデバイス350の初期設定時に、個々人の電位にあわせてイニシャライズ(初期化)を実施する。イニシャライズする際には、電位と画像のデータの両方もしくは片方を用いる。
電位が測定できない場合は、画像情報のみからトレーニング回数をカウントする。トレーニングとして、例えば、眼輪筋トレーニング等がある。なお、「電位が測定できない場合」は、生体情報が抽出できない場合の一例である。
スマートフォン300の画面325は、トレーニング用アプリケーションによって表示され、ユーザー390である使用者の顔と電位データとアクティビティの情報を関連付けて表示する。アクティビティの情報として、例えば、もっと目を開くなどのアドバイス、トレーニング回数、トレーニング時間等がある。例えば残り回数表示領域1420に「残り回数:5回」と表示し、残り時間表示領域1430に「残り時間:00:32」と表示し、コメント表示領域1440に「もっと頬を上げて下さい」と表示する。
また、ウェアラブルデバイス350からの筋電データを解析して、リフトアップ等が行われたことを検知する。さらに、顔画像を解析して、リフトアップ等が行われたことを検知するようにしてもよい。即ち、筋電といった生体電位から情報が取得できない異常事態であっても、アプリケーションを止めることなく、効果推定をしてユーザー390にトレーニング効果を通知するようにしてもよい。同様に、顔画像が取得できない場合は、生体電位からの情報のみで効果結果を推定してユーザー390に通知するようにしてもよい。なお、両方が正常に計測して解析できている場合にあっては、一方のみが計測できている場合に較べて、より精度高くトレーニング効果を推定して通知することができる。
図15は、本実施の形態による処理例を示す説明図である。
トレーニング前後の顔画像を比較可能に表示したものである。図15(a)に示す画面325aは、トレーニング前の顔画像を表示しており、図15(b)に示す画面325bは、トレーニング後の顔画像を表示している。この例では、トレーニングによって、頬線1412a、頬線1414aが、上がって頬線1412b、頬線1414bに変化していることがわかるようになる。
なお、画像の比較として、例えば、一画面内で左右並びに表示、一枚ずつの表示、2枚を透過して合成、トレーニング前後左右半分ずつの表示、一部拡大等を選べるようにしてもよい。
また、リフトアップ等が行われた時に撮影された顔画像を表示するようにしてもよい。さらに、その前後の顔画像を含めて表示するようにしてもよい。
図16は、本実施の形態による処理例を示す説明図である。図16に示す例は、美容用の顔体操、表情筋のトレーニング等に用いるようにした例を示すものである。ユーザー390の顔画像と生体情報の測定結果を連動して表示する例を示したものである。
画面325には、撮影画像表示領域1610、残り回数表示領域1620、残り時間表示領域1630、コメント表示領域1640、グラフ表示領域1650を表示する。
図14に示した例と同様であるが、図16に示す例は、眼輪筋のトレーニングに関するものである。
例えば残り回数表示領域1620に「残り回数:5回」と表示し、残り時間表示領域1630に「残り時間:00:32」と表示し、コメント表示領域1640に「もっと目を開いて下さい」と表示する。
図17は、本実施の形態による処理例を示す説明図である。
トレーニング前後の顔画像を比較可能に表示したものである。図17(a)に示す画面325aは、トレーニング前の顔画像を表示しており、画面325aには、撮影画像表示領域1710a、トレーニング対象表示領域1720aを表示する。図17(b)に示す画面325bは、トレーニング後の顔画像を表示しており、画面325bには、撮影画像表示領域1710b、トレーニング対象表示領域1720bを表示する。
この例では、トレーニングによって、目の大きさが大きく変化していることがわかるようになる。特に、トレーニング対象の箇所を拡大表示している。この例では、トレーニング対象表示領域1720a内の目の画像とトレーニング対象表示領域1720b内の目の画像を比較できるようにしている。
なお、画像の比較として、例えば、一画面内で左右並びに表示、一枚ずつの表示、2枚を透過して合成、トレーニング前後左右半分ずつの表示、一部拡大等を選べるようにしてもよい。
また、目の見開き等が行われた時に撮影された顔画像を表示するようにしてもよい。さらに、その前後の顔画像を含めて表示するようにしてもよい。
なお、本実施の形態としてのプログラムが実行されるコンピュータのハードウェア構成は、図18に例示するように、一般的なコンピュータであり、具体的にはパーソナルコンピュータ、サーバーとなり得るコンピュータ等である。つまり、具体例として、処理部(演算部)としてCPU1801を用い、記憶装置としてRAM1802、ROM1803、HDD1804を用いている。HDD1804として、例えば、HDD(Hard Disk Driveの略)、フラッシュ・メモリであるSSD(Solid State Driveの略)等を用いてもよい。生体情報抽出モジュール105、頭部情報抽出モジュール110、解析モジュール115、表示制御モジュール120、表示モジュール125、通信モジュール230、通信モジュール255、生体情報検知モジュール260等のプログラムを実行するCPU1801と、そのプログラムやデータを記憶するRAM1802と、本コンピュータを起動するためのプログラム等が格納されているROM1803と、脳波情報、頭部情報等を記憶する補助記憶装置であるHDD1804と、キーボード、マウス、タッチスクリーン、マイク、カメラ(視線検知カメラ等を含む)等に対する利用者の操作(動作、音声、視線等を含む)に基づいてデータを受け付ける受付装置1806と、CRT、液晶ディスプレイ、スピーカー等の出力装置1805と、ネットワークインタフェースカード等の通信ネットワークと接続するための通信回線インターフェース1807、そして、それらをつないでデータのやりとりをするためのバス1808により構成されている。これらのコンピュータが複数台互いにネットワークによって接続されていてもよい。
前述の実施の形態のうち、コンピュータ・プログラムによるものについては、本ハードウェア構成のシステムにソフトウェアであるコンピュータ・プログラムを読み込ませ、ソフトウェアとハードウェア資源とが協働して、前述の実施の形態が実現される。
なお、図18に示すハードウェア構成は、1つの構成例を示すものであり、本実施の形態は、図18に示す構成に限らず、本実施の形態において説明したモジュールを実行可能な構成であればよい。例えば、一部のモジュールを専用のハードウェア(例えば特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)や再構成可能な集積回路(field−programmable gate array:FPGA)等)で構成してもよく、一部のモジュールは外部のシステム内にあり通信回線で接続している形態でもよく、さらに図18に示すシステムが複数互いに通信回線によって接続されていて互いに協調動作するようにしてもよい。また、特に、携帯情報通信機器(携帯電話、スマートフォン、モバイル機器、ウェアラブルコンピュータ等を含む)、情報家電、ロボットなどに組み込まれていてもよい。
なお、説明したプログラムについては、記録媒体に格納して提供してもよく、また、そのプログラムを通信手段によって提供してもよい。その場合、例えば、前記説明したプログラムについて、「プログラムを記録したコンピュータ読み取り可能な記録媒体」の発明として捉えてもよい。
「プログラムを記録したコンピュータ読み取り可能な記録媒体」とは、プログラムのインストール、実行、プログラムの流通等のために用いられる、プログラムが記録されたコンピュータで読み取り可能な記録媒体をいう。
なお、記録媒体としては、例えば、デジタル・バーサタイル・ディスク(DVD)であって、DVDフォーラムで策定された規格である「DVD−R、DVD−RW、DVD−RAM等」、DVD+RWで策定された規格である「DVD+R、DVD+RW等」、コンパクトディスク(CD)であって、読出し専用メモリ(CD−ROM)、CDレコーダブル(CD−R)、CDリライタブル(CD−RW)等、ブルーレイ・ディスク(Blu−ray(登録商標) Disc)、光磁気ディスク(MO)、フレキシブルディスク(FD)、磁気テープ、ハードディスク、読出し専用メモリ(ROM)、電気的消去及び書換可能な読出し専用メモリ(EEPROM(登録商標))、フラッシュ・メモリ、ランダム・アクセス・メモリ(RAM)、SD(Secure Digitalの略)メモリーカード等が含まれる。
そして、前記のプログラムの全体又はその一部は、前記記録媒体に記録して保存や流通等させてもよい。また、通信によって、例えば、ローカル・エリア・ネットワーク(LAN)、メトロポリタン・エリア・ネットワーク(MAN)、ワイド・エリア・ネットワーク(WAN)、インターネット、イントラネット、エクストラネット等に用いられる有線ネットワーク、又は無線通信ネットワーク、さらにこれらの組み合わせ等の伝送媒体を用いて伝送させてもよく、また、搬送波に乗せて搬送させてもよい。
さらに、前記のプログラムは、他のプログラムの一部分若しくは全部であってもよく、又は別個のプログラムと共に記録媒体に記録されていてもよい。また、複数の記録媒体に分割して記録されていてもよい。また、圧縮や暗号化等、復元可能であればどのような態様で記録されていてもよい。
100…情報処理装置
105…生体情報抽出モジュール
110…頭部情報抽出モジュール
115…解析モジュール
120…表示制御モジュール
125…表示モジュール
200…情報処理装置
230…通信モジュール
235…撮影モジュール
250…装置
255…通信モジュール
260…生体情報検知モジュール
300…スマートフォン
325…画面
335…カメラ
350…ウェアラブルデバイス
390…ユーザー

Claims (14)

  1. 人体の頭部における電位を測定した結果である電位測定結果から生体情報と頭部の動きを抽出する抽出手段と、
    前記抽出手段によって抽出された前記生体情報と前記頭部の動きを同じ画面上で紐付けて通知可能に制御する制御手段
    を有する情報処理装置。
  2. 前記抽出手段は、前記電位測定結果から複数の周波数帯域の波を抽出し、
    前記制御手段は、前記抽出手段が抽出した複数の波と前記頭部の動きを前記画面上に比較可能に表示するように制御する、
    請求項1に記載の情報処理装置。
  3. 前記頭部の動きとして、咀嚼を含み、
    前記抽出手段は、前記電位測定結果が予め定められたパターンに合致する箇所を咀嚼箇所として抽出し、
    前記制御手段は、生体情報と、前記電位測定結果を示すグラフ上に前記咀嚼箇所を比較可能に表示するように制御する、
    請求項1に記載の情報処理装置。
  4. 前記予め定められたパターンとして、前記グラフの第1ピークが予め定められた第1閾値より高い又は以上であって、該第1ピークの後にある第2ピークが該第1閾値未満又は以下であり、予め定められた第2閾値より高い又は以上であり、該第2閾値は該第1閾値よりも低いこととする、
    請求項3に記載の情報処理装置。
  5. 前記頭部の動きとして、嚥下を含み、
    前記電位測定結果が予め定められたパターンに合致する箇所を嚥下箇所であると解析する解析手段
    をさらに有し、
    前記制御手段は、生体情報と、前記電位測定結果を示すグラフ上に前記嚥下箇所を比較可能に表示するように制御する、
    請求項1に記載の情報処理装置。
  6. 前記予め定められたパターンとして、咀嚼の後であって、前記グラフの第3ピークが予め定められた第3閾値より高い又は以上であることとする、
    請求項5に記載の情報処理装置。
  7. 前記解析手段は、さらに前記頭部に装着された加速度センサーの測定結果を用いて、該頭部が予め定められた動きである場合は、前記嚥下を飲み物の嚥下であるとして抽出する、
    請求項6に記載の情報処理装置。
  8. 前記予め定められた動きとして、首を後方に傾ける動きとする、
    請求項7に記載の情報処理装置。
  9. 前記制御手段は、前記電位測定結果を、複数種の変換処理した結果を同じ画面上に表示する、
    請求項1に記載の情報処理装置。
  10. 前記制御手段は、低域通過濾波器、高域通過濾波器を用いて予め定められた期間をスペクトル分析した結果と、周期性を持たないそれ以外のデータとを表示する、
    請求項1に記載の情報処理装置。
  11. 前記人体の頭部を撮影する撮影手段
    をさらに有し、
    前記制御手段は、さらに、前記撮影手段が撮影した画像を表示するように制御する、
    請求項1に記載の情報処理装置。
  12. 前記撮影した画像と前記生体情報を紐付けて利用者の状態を通知する、
    請求項11に記載の情報処理装置。
  13. 前記生体情報が抽出できない場合、前記画像を解析して前記利用者の状態を通知する、
    請求項12に記載の情報処理装置。
  14. コンピュータを、
    人体の頭部における電位を測定した結果である電位測定結果から生体情報と頭部の動きを抽出する抽出手段と、
    前記抽出手段によって抽出された前記生体情報と前記頭部の動きを同じ画面上で紐付けて通知可能に制御する制御手段
    として機能させるための情報処理プログラム。
JP2019112561A 2019-06-18 2019-06-18 情報処理装置及び情報処理プログラム Pending JP2020202977A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019112561A JP2020202977A (ja) 2019-06-18 2019-06-18 情報処理装置及び情報処理プログラム
US16/726,934 US20200397381A1 (en) 2019-06-18 2019-12-26 Information processing device and non-transitory computer readable medium
JP2024020528A JP2024054337A (ja) 2019-06-18 2024-02-14 情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019112561A JP2020202977A (ja) 2019-06-18 2019-06-18 情報処理装置及び情報処理プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024020528A Division JP2024054337A (ja) 2019-06-18 2024-02-14 情報処理方法

Publications (1)

Publication Number Publication Date
JP2020202977A true JP2020202977A (ja) 2020-12-24

Family

ID=73837138

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019112561A Pending JP2020202977A (ja) 2019-06-18 2019-06-18 情報処理装置及び情報処理プログラム
JP2024020528A Pending JP2024054337A (ja) 2019-06-18 2024-02-14 情報処理方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024020528A Pending JP2024054337A (ja) 2019-06-18 2024-02-14 情報処理方法

Country Status (2)

Country Link
US (1) US20200397381A1 (ja)
JP (2) JP2020202977A (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012085747A (ja) * 2010-10-18 2012-05-10 Panasonic Corp 注意状態判別システム、方法、コンピュータプログラムおよび注意状態判別装置
JP2012200397A (ja) * 2011-03-25 2012-10-22 Midori Anzen Co Ltd 居眠り検知装置
US20140018694A1 (en) * 2010-03-31 2014-01-16 National Health-Care Group Pte Ltd. Method and system for motor rehabilitation
JP2015002808A (ja) * 2013-06-19 2015-01-08 株式会社プロアシスト 睡眠状態判定装置及び判定方法
WO2018027141A1 (en) * 2016-08-05 2018-02-08 The Regents Of The University Of Colorado, A Body Corporate In-ear sensing systems and methods for biological signal monitoring
JP2018512982A (ja) * 2015-03-18 2018-05-24 ティ・オ・ドォッブルビィ・エンジニアリング・アー/エス Eegモニタ

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160073953A1 (en) * 2014-09-11 2016-03-17 Board Of Trustees Of The University Of Alabama Food intake monitor

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140018694A1 (en) * 2010-03-31 2014-01-16 National Health-Care Group Pte Ltd. Method and system for motor rehabilitation
JP2012085747A (ja) * 2010-10-18 2012-05-10 Panasonic Corp 注意状態判別システム、方法、コンピュータプログラムおよび注意状態判別装置
JP2012200397A (ja) * 2011-03-25 2012-10-22 Midori Anzen Co Ltd 居眠り検知装置
JP2015002808A (ja) * 2013-06-19 2015-01-08 株式会社プロアシスト 睡眠状態判定装置及び判定方法
JP2018512982A (ja) * 2015-03-18 2018-05-24 ティ・オ・ドォッブルビィ・エンジニアリング・アー/エス Eegモニタ
WO2018027141A1 (en) * 2016-08-05 2018-02-08 The Regents Of The University Of Colorado, A Body Corporate In-ear sensing systems and methods for biological signal monitoring

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
安村 真一 他: "「食塊形成時における顎運動および咀嚼筋活動の微細協調運動」", 岐阜歯科学会雑誌, vol. 41, no. 2, JPN6023022882, 20 November 2014 (2014-11-20), pages 118 - 127, ISSN: 0005076031 *
虫本 栄子 他: "「大連結子のデザインの違いが口腔感覚に及ぼす影響に関する脳波学的検討」", 日本補綴歯科学会雑誌, vol. 49, no. 3, JPN6023022885, 10 June 2005 (2005-06-10), pages 478 - 487, ISSN: 0005076033 *
虫本 栄子 他: "「開・閉口筋筋電図による嚥下動作の評価法」", 日本補綴歯科学会雑誌, vol. 44, no. 2, JPN6023022884, 10 April 2000 (2000-04-10), pages 292 - 299, ISSN: 0005076032 *
都築裕 他: "高齢の要食事被介護者の飲み込み検出に関する研究", 計測自動制御学会論文集, vol. 51, no. 8, JPN6022043573, 2015, pages 520 - 527, ISSN: 0005021461 *

Also Published As

Publication number Publication date
JP2024054337A (ja) 2024-04-16
US20200397381A1 (en) 2020-12-24

Similar Documents

Publication Publication Date Title
Stopczynski et al. The smartphone brain scanner: a portable real-time neuroimaging system
US20180103917A1 (en) Head-mounted display eeg device
CA2886095C (en) Systems and methods for sensory and cognitive profiling
JP6641298B2 (ja) 多肢選択式の解答の直接選択及び状態変更の特定を容易にするためのブレインコンピュータインターフェース
Bulling et al. Recognition of visual memory recall processes using eye movement analysis
Kirchner et al. Multimodal movement prediction-towards an individual assistance of patients
US20170344706A1 (en) Systems and methods for the diagnosis and treatment of neurological disorders
US20180184964A1 (en) System and signatures for a multi-modal physiological periodic biomarker assessment
US12011281B2 (en) Quantifying motor function using eeg signals
Cai et al. Machine-learning approaches for recognizing muscle activities involved in facial expressions captured by multi-channels surface electromyogram
JP2023520573A (ja) Eegの記録および分析
Hamedi et al. Comparison of different time-domain feature extraction methods on facial gestures' EMGs
IL268575B2 (en) A system and method for monitoring a patient
Marandi et al. Using eye movement analysis to study auditory effects on visual memory recall
Mehmood et al. Multimodal integration for data-driven classification of mental fatigue during construction equipment operations: Incorporating electroencephalography, electrodermal activity, and video signals
Hsiao et al. EEG-based Classification between individuals with mild cognitive impairment and healthy controls using conformal kernel-based fuzzy support vector machine
Sun et al. Validation of SOBI‐DANS method for automatic identification of horizontal and vertical eye movement components from EEG
Kanagasabai et al. Brain-computer interface learning system for Quadriplegics
Vahid et al. Human identification with EEG signals in different emotional states
JP2020202977A (ja) 情報処理装置及び情報処理プログラム
US10786192B2 (en) System and method for determining amount of volition in a subject
Rupanagudi et al. A simplified approach to assist motor neuron disease patients to communicate through video oculography
KR101306922B1 (ko) 뇌파 측정 장치 및 뇌파 측정 방법
Molavi et al. Comparison of different methods for emotion classification
Wipperman et al. A pilot study of the Earable device to measure facial muscle and eye movement tasks among healthy volunteers

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210316

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20210416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210316

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231205