JP2020202977A - 情報処理装置及び情報処理プログラム - Google Patents
情報処理装置及び情報処理プログラム Download PDFInfo
- Publication number
- JP2020202977A JP2020202977A JP2019112561A JP2019112561A JP2020202977A JP 2020202977 A JP2020202977 A JP 2020202977A JP 2019112561 A JP2019112561 A JP 2019112561A JP 2019112561 A JP2019112561 A JP 2019112561A JP 2020202977 A JP2020202977 A JP 2020202977A
- Authority
- JP
- Japan
- Prior art keywords
- head
- information processing
- movement
- processing device
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 75
- 230000033001 locomotion Effects 0.000 claims abstract description 73
- 238000000605 extraction Methods 0.000 claims abstract description 67
- 238000005259 measurement Methods 0.000 claims abstract description 53
- 239000000284 extract Substances 0.000 claims abstract description 16
- 238000012545 processing Methods 0.000 claims description 44
- 230000009747 swallowing Effects 0.000 claims description 38
- 230000001055 chewing effect Effects 0.000 claims description 22
- 230000001133 acceleration Effects 0.000 claims description 12
- 230000004886 head movement Effects 0.000 claims description 9
- 238000006243 chemical reaction Methods 0.000 claims description 8
- 238000010183 spectrum analysis Methods 0.000 claims description 4
- 210000003128 head Anatomy 0.000 description 99
- 238000004891 communication Methods 0.000 description 46
- 238000012549 training Methods 0.000 description 24
- 210000004556 brain Anatomy 0.000 description 19
- 238000010586 diagram Methods 0.000 description 17
- 230000018984 mastication Effects 0.000 description 17
- 238000010077 mastication Methods 0.000 description 17
- 230000003183 myoelectrical effect Effects 0.000 description 16
- 238000000034 method Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 10
- 238000001514 detection method Methods 0.000 description 9
- 230000001815 facial effect Effects 0.000 description 9
- 230000000694 effects Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000004590 computer program Methods 0.000 description 6
- 230000000737 periodic effect Effects 0.000 description 6
- 238000000354 decomposition reaction Methods 0.000 description 4
- 210000003205 muscle Anatomy 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 239000002537 cosmetic Substances 0.000 description 3
- 210000000613 ear canal Anatomy 0.000 description 3
- 210000001097 facial muscle Anatomy 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000036385 rapid eye movement (rem) sleep Effects 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 239000006261 foam material Substances 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 230000002207 retinal effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
- A61B5/0205—Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1123—Discriminating type of movement, e.g. walking or running
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1126—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1126—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
- A61B5/1128—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/369—Electroencephalography [EEG]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/42—Detecting, measuring or recording for evaluating the gastrointestinal, the endocrine or the exocrine systems
- A61B5/4205—Evaluating swallowing
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6801—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
- A61B5/6802—Sensor mounted on worn items
- A61B5/6803—Head-worn items, e.g. helmets, masks, headphones or goggles
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7203—Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
- A61B5/7207—Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal of noise induced by motion artifacts
- A61B5/721—Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal of noise induced by motion artifacts using a separate sensor to detect motion or using motion information derived from signals other than the physiological signal to be measured
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/742—Details of notification to user or communication with user or patient ; user input means using visual displays
- A61B5/7425—Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/20—Drawing from basic elements, e.g. lines or circles
- G06T11/206—Drawing of charts or graphs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
- A61B5/053—Measuring electrical impedance or conductance of a portion of the body
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/15—Biometric patterns based on physiological signals, e.g. heartbeat, blood flow
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Biomedical Technology (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Physiology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Psychiatry (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Multimedia (AREA)
- Cardiology (AREA)
- Endocrinology (AREA)
- Gastroenterology & Hepatology (AREA)
- Artificial Intelligence (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Pulmonology (AREA)
- Psychology (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Medical Treatment And Welfare Office Work (AREA)
Abstract
Description
請求項1の発明は、人体の頭部における電位を測定した結果である電位測定結果から生体情報と頭部の動きを抽出する抽出手段と、前記抽出手段によって抽出された前記生体情報と前記頭部の動きを同じ画面上で紐付けて通知可能に制御する制御手段を有する情報処理装置である。
図1は、本実施の形態の構成例についての概念的なモジュール構成図を示している。
なお、モジュールとは、一般的に論理的に分離可能なソフトウェア(「ソフトウェア」の解釈として、コンピュータ・プログラムを含む)、ハードウェア等の部品を指す。したがって、本実施の形態におけるモジュールはコンピュータ・プログラムにおけるモジュールのことだけでなく、ハードウェア構成におけるモジュールも指す。それゆえ、本実施の形態は、それらのモジュールとして機能させるためのコンピュータ・プログラム(例えば、コンピュータにそれぞれの手順を実行させるためのプログラム、コンピュータをそれぞれの手段として機能させるためのプログラム、コンピュータにそれぞれの機能を実現させるためのプログラム)、システム及び方法の説明をも兼ねている。ただし、説明の都合上、「記憶する」、「記憶させる」、これらと同等の文言を用いるが、これらの文言は、実施の形態がコンピュータ・プログラムの場合は、記憶装置に記憶させる、又は記憶装置に記憶させるように制御するという意味である。また、モジュールは機能に一対一に対応していてもよいが、実装においては、1モジュールを1プログラムで構成してもよいし、複数モジュールを1プログラムで構成してもよく、逆に1モジュールを複数プログラムで構成してもよい。また、複数モジュールは1コンピュータによって実行されてもよいし、分散又は並列環境におけるコンピュータによって1モジュールが複数コンピュータで実行されてもよい。なお、1つのモジュールに他のモジュールが含まれていてもよい。また、以下、「接続」とは物理的な接続の他、論理的な接続(例えば、データの授受、指示、データ間の参照関係、ログイン等)の場合にも用いる。「予め定められた」とは、対象としている処理の前に定まっていることをいい、本実施の形態による処理が始まる前はもちろんのこと、本実施の形態による処理が始まった後であっても、対象としている処理の前であれば、そのときの状況・状態にしたがって、又はそれまでの状況・状態にしたがって定まることの意を含めて用いる。「予め定められた値」が複数ある場合は、それぞれ異なった値であってもよいし、2以上の値(「2以上の値」には、もちろんのことながら、全ての値も含む)が同じであってもよい。また、「Aである場合、Bをする」という記載は、「Aであるか否かを判断し、Aであると判断した場合はBをする」の意味で用いる。ただし、Aであるか否かの判断が不要である場合を除く。また、「A、B、C」等のように事物を列挙した場合は、断りがない限り例示列挙であり、その1つのみを選んでいる場合(例えば、Aのみ)を含む。
また、システム又は装置とは、複数のコンピュータ、ハードウェア、装置等がネットワーク(「ネットワーク」には、一対一対応の通信接続を含む)等の通信手段で接続されて構成されるほか、1つのコンピュータ、ハードウェア、装置等によって実現される場合も含まれる。「装置」と「システム」とは、互いに同義の用語として用いる。もちろんのことながら、「システム」には、人為的な取り決めである社会的な「仕組み」(つまり、社会システム)にすぎないものは含まない。
また、各モジュールによる処理毎に又はモジュール内で複数の処理を行う場合はその処理毎に、対象となる情報を記憶装置から読み込み、その処理を行った後に、処理結果を記憶装置に書き出すものである。したがって、処理前の記憶装置からの読み込み、処理後の記憶装置への書き出しについては、説明を省略する場合がある。なお、ここでの記憶装置としては、ハードディスクドライブ、RAM(Random Access Memoryの略)、外部記憶媒体、通信回線を介した記憶装置、CPU(Central Processing Unitの略)内のレジスタ等を含んでいてもよい。
ここで「生体情報」とは、人体の生命活動を測定することによって得られる情報であって、生体情報として、例えば、心電図、心拍数、血圧、体温、脳波、筋電、網膜(眼底)電位等の情報がある。本実施の形態では、主に脳波情報を例として示す。
また、「頭部」とは、首から上の部分をいう。例えば、耳、口、喉、目、鼻、額、頬等のいずれか1つ以上を含む。
また、「頭部の動き」とは、頭部全体、又は、頭部の一部の動きをいう。例えば、うなずき、首振り、咀嚼、嚥下、まばたき、呼吸、口角の動き等がある。具体的には、口角の動きを筋電情報と顔画像で判定するようにしてもよい。そのために、生体情報の測定と同時に顔を撮影して、それらを連動して、電位のデータと顔の表示を紐付けて表示・通知するようにしてもよい。
また、生体情報抽出モジュール105は、電位測定結果から複数の周波数帯域の波を抽出するようにしてもよい。
ここで「周波数帯域の波」として、例えば、α波(アルファ波)、β波(ベータ波)、γ波(ガンマ波)、θ波(シータ波)、δ波(デルタ波)があり、「複数の周波数帯域の波」は、これらのうち2以上の波をいう。
また、生体情報抽出モジュール105の処理として、電位測定結果に対してFFT(Fast Fourier Transformの略、高速フーリエ変換)を行うことによって脳波を抽出するようにしてもよい。
また、頭部情報抽出モジュール110は、人体の頭部における電位を測定した結果である電位測定結果から頭部の動きを抽出するようにしてもよい。
また、解析モジュール115は、ユーザーの行動を解析するようにしてもよい。
また、表示制御モジュール120は、生体情報抽出モジュール105が抽出した複数の波と頭部の動きを表示モジュール125の画面上に比較可能に表示するよう制御するようにしてもよい。
その場合、生体情報抽出モジュール105は、電位測定結果が予め定められたパターンに合致する箇所を咀嚼箇所として抽出するようにしてもよい。
ここでの「予め定められたパターン」として、グラフの第1ピークが予め定められた第1閾値より高い又は以上であって、その第1ピークの後にある第2ピークがその第1閾値未満又は以下であり、予め定められた第2閾値より高い又は以上であり、その第2閾値はその第1閾値よりも低いこととするようにしてもよい。
そして、表示制御モジュール120は、生体情報と、電位測定結果を示すグラフ上に咀嚼箇所を比較可能に表示するよう制御するようにしてもよい。
その場合、解析モジュール115は、電位測定結果が予め定められたパターンに合致する箇所を嚥下箇所であると解析するようにしてもよい。
ここで「予め定められたパターン」として、咀嚼の後であって、グラフの第3ピークが予め定められた第3閾値より高い又は以上であることとしてもよい。
そして、表示制御モジュール120は、生体情報と、電位測定結果を示すグラフ上に嚥下箇所を比較可能に表示するよう制御するようにしてもよい。
この場合、解析モジュール115は、さらに頭部に装着された加速度センサーの測定結果を用いて、その頭部が予め定められた動きである場合は、電位測定結果が予め定められたパターンに合致する箇所の嚥下を飲み物の嚥下であるとして抽出するようにしてもよい。
ここでの「予め定められた動き」として、首を後方に傾ける動きとしてもよい。
そして、表示制御モジュール120は、飲み物の嚥下であることを表示するように制御してもよい。
また、表示制御モジュール120は、周波数分析した結果の強度比をそのままグラフにする表示と、周波数分析した全体の強度比率を表示するようにしてもよい。
ここで「低域通過濾波器」は、一般的には、LPF(Low−Pass Filterの略)と言われているものである。また「高域通過濾波器」は、一般的には、HPF(High−Pass Filterの略)と言われているものである。
通信モジュール255は、生体情報検知モジュール260と接続されており、また、通信回線を介して、情報処理装置200Aの通信モジュール230と接続されている。通信モジュール255は、情報処理装置200Aと通信を行う。通信回線として、無線、有線、これらの組み合わせであってもよい。例えば、無線回線として、Wi−Fi、ブルートゥース(登録商標)等の近距離無線通信を行うようにしてもよい。
生体情報検知モジュール260は、通信モジュール255と接続されている。装置250は、例えば、ユーザーの頭部に取り付けられている。装置250を身につけているユーザーの頭部における電位を測定する。例えば、特開2019−024758号公報に記載の電極(発泡材料によって構成され、少なくとも生体に接触する部分が導電性を有し、生体に接触して脳波を検出する電極)を用いるようにしてもよい。
そして、生体情報検知モジュール260は、その測定結果である電位測定結果を通信モジュール255に渡し、情報処理装置200Aに送信する。
頭部情報抽出モジュール110は、解析モジュール115、通信モジュール230と接続されている。頭部情報抽出モジュール110は、装置250から受信した、人体の頭部における電位を測定した結果である電位測定結果から頭部の動きを抽出する。
通信モジュール230は、生体情報抽出モジュール105と接続されており、また、通信回線を介して装置250の通信モジュール255と接続されている。通信モジュール230は、装置250と通信を行って、電位測定結果を受信する。装置250から受信した電位測定結果を、生体情報抽出モジュール105に渡す。
頭部情報抽出モジュール110は、撮影モジュール235を有しており、解析モジュール115と接続されている。撮影モジュール235は、情報処理装置200Bを所持しているユーザー(なお、このユーザーは、装置250を身につけているユーザーでもある)の頭部を撮影する。静止画であってもよいし、動画であってもよい。なお、静止画である場合は、時間をずらして2枚以上の静止画を撮影することが好ましい。
頭部情報抽出モジュール110は、撮影モジュール235が撮影したユーザーの頭部の画像から、頭部の動きを抽出する。例えば、機械学習を行って生成した学習モデルを用いて、画像から頭部の動きを抽出するようにしてもよい。
そして、表示制御モジュール120は、さらに、撮影モジュール235が撮影した画像を表示するように制御する。その際に、生体情報と頭部の動きを示すグラフを、撮影モジュール235が撮影した画像とともに表示するようにしてもよい。また、頭部の動きがあった場合の画像を連動して表示するようにしてもよい。
通信モジュール230は、生体情報抽出モジュール105、頭部情報抽出モジュール110と接続されており、また、通信回線を介して装置250の通信モジュール255と接続されている。通信モジュール230は、装置250と通信を行って、電位測定結果を受信する。装置250から受信した電位測定結果を、生体情報抽出モジュール105と頭部情報抽出モジュール110に渡す。
頭部情報抽出モジュール110は、撮影モジュール235を有しており、解析モジュール115、通信モジュール230と接続されている。頭部情報抽出モジュール110は、装置250から受信した電位測定結果及び撮影モジュール235が撮影したユーザーの頭部の画像から、頭部の動きを抽出する。図2Aの例に示した頭部情報抽出モジュール110と図2Bの例に示した頭部情報抽出モジュール110の両方の機能を有している。例えば、装置250から受信した電位測定結果から抽出した頭部の動きと、頭部の画像から抽出した頭部の動きが、一致している場合に、頭部の動きとして抽出するようにしてもよい。異なる場合は、頭部の動きとして抽出できなかったとしてもよいし、いずれか一方の結果である頭部の動きを採用してもよい。
スマートフォン300は、情報処理装置200(特に、情報処理装置200B又は情報処理装置200C)の具体例であり、ウェアラブルデバイス350は、装置250の具体例である。スマートフォン300は、カメラ335を有しており、ユーザー390の頭部を撮影する。カメラ335は、撮影モジュール235の具体例である。
ユーザー390は、スマートフォン300を所持しており、ウェアラブルデバイス350を頭部に着用している。スマートフォン300とウェアラブルデバイス350は、近距離無線通信を用いて通信を行う。
スマートフォン300とウェアラブルデバイス350によって、ユーザー390自身の生体情報と頭部の動きを、スマートフォン300画面上で関連付けて表示する。例えば、ユーザー390の咀嚼と嚥下をセンシングする。
ウェアラブルデバイス350として、センサーを外耳道に配設し、そのウェアラブルデバイス350は、脳波と筋電の合成波形のデータ(いわゆる生データ(Rawデータ)であり、以下、生データともいう)を検出する。生データをスマートフォン300に送信する。スマートフォン300では、生データそのものを筋電のデータとし、生データに対してFFTを施して、脳波データに変換する。つまり、1つの波形データ(生データ)から2つの情報、つまり、生体情報である脳波データと頭部の動きを示す筋電データを取得する。例えば、スマートフォン300は、筋電データから咀嚼と嚥下を検知し、筋電データのグラフにマーク付けを行い、また、筋電データのグラフと同じ時系列で脳波データのグラフを表示して、ユーザー390は、咀嚼と嚥下が行われた際の脳波データの状態を知ることができるようになる。
具体的には、筋電データのグラフ上でのピークを抽出し、閾値との比較によって、咀嚼と嚥下を検出する。そして、筋電データのグラフ上に咀嚼と嚥下のマーク付けを行う。また、生データをFFT解析し、ノイズの周波数成分を排除して、脳波を解析して脳波のグラフを生成し、筋電データのグラフと揃えた時系列で表示する。
しかしながら、わずかな電位の変化も取得できるために、電極の周囲の筋肉から発生する筋電も、ノイズとして信号にのってしまう。
本実施の形態では、通常ノイズとして扱う筋電情報を用いて、頭部の動作を検出している。頭部の動作として、例えば、咀嚼、嚥下等がある。
脳波測定の電極を外耳道、グランド(GND)を耳の周辺部位に配置し計測するウェアラブルデバイス350は、近くに顎、頬や喉の大きな筋肉があり、咀嚼や嚥下等の動作により筋電の信号を取得することが可能である。
特開2019−024758号公報に記載の電極を用いた場合、本実施の形態では、以下のような処理を行う。
(1)ウェアラブルデバイス350の脳波電極を、ユーザー390の外耳道に配設する。
(2)生データを筋電データとし、生データにFFTの処理を施して脳波データを得て、1つの波形データから2つの生体情報を取得する。
ステップS402では、ウェアラブルデバイス350は、ユーザー390の生体情報を検出する。前述の生データとなる。
ステップS404では、スマートフォン300へ送信するためのデータを生成する。
ステップS406では、スマートフォン300へデータを送信する。前述したように、例えば、スマートフォン300とウェアラブルデバイス350は近距離無線通信を行う。
ステップS502では、ウェアラブルデバイス350からデータを受信する。
ステップS504では、受信したデータから脳波に関する情報を抽出する。
ステップS506では、受信したデータから頭部の動きに関する情報を抽出する。
ステップS508では、脳波に関する情報と頭部の動きに関する情報の両方のグラフを同一画面上に表示する。もちろんのことながら、2つのグラフの時系列をそろえている。具体的には、2つのグラフの時を示すX軸を一致させて表示するようにしてもよいし、2つのグラフを1つの領域内に重複して表示するようにしてもよい。
ステップS602では、ウェアラブルデバイス350からデータを受信する。
ステップS604では、スマートフォン300のカメラ335が撮影した画像を取得する。
ステップS606では、受信したデータから脳波に関する情報を抽出する。
ステップS608では、画像を解析して、頭部の動きに関する情報を抽出する。
ステップS610では、脳波に関する情報と頭部の動きに関する情報の両方のグラフを同一画面上に表示する。例えば、脳波のグラフ上に頭部の動きが発生した時点にマーク付けするようにしてもよい。
ステップS702では、ウェアラブルデバイス350からデータを受信する。
ステップS704では、カメラ335が撮影した画像を取得する。
ステップS706では、受信したデータから脳波に関する情報を抽出する。
ステップS708では、受信したデータから頭部の動きに関する情報を抽出する。
ステップS710では、画像を解析して、頭部の動きに関する情報を抽出する。
ステップS712では、ステップS708とステップS710で抽出した頭部の動きに関する情報を合成する。
ステップS714では、脳波に関する情報と頭部の動きに関する情報の両方のグラフを同一画面上に表示する。
例えば、スマートフォン300の画面800に、生データ欄802、FFT欄804、ウェーブレット変換欄806、Stockwell変換欄808、経験的モード分解欄810を表示する。
ウェアラブルデバイス350から取得した信号を、FFT、ウェーブレット変換、Stockwell変換、経験的モード分解(使用者が任意で設定した関数)等の複数種類の処理をした結果を、画面800上に表示している。ここでは、時間軸である横軸を同じにし、生データ欄802、FFT欄804、ウェーブレット変換欄806、Stockwell変換欄808、経験的モード分解欄810に分けて、各グラフを表示している。
また、周波数分析した結果の強度比をそのままグラフにする表示と、周波数分析した全体の強度比率を表示するようにしてもよい。
画面900には、生データ欄902、周波数解析欄904、周期的な周波数波形生成欄906、加工した波形データ欄908を表示する。
周波数解析欄904内のグラフには、周期的な周波数成分が現れる。図9では、周波数解析欄904内のグラフでピークとなっている部分が該当する。
加工した波形データ欄908には、例えば、生データ欄902のグラフと周期的な周波数波形生成欄906のグラフから生成したグラフを表示している。つまり、生データから周期的な周波数成分を取り除くことで、筋電などの周期性のない波形が見えやすくなる。
グラフ上に咀嚼と嚥下の箇所をマーク付けした例を示すものである。
画面1000には、生データ欄1002、δ波欄1004、θ波欄1006、α波欄1008、筋電データ欄1010を表示する。δ波欄1004、θ波欄1006、α波欄1008内のグラフは、生データに対してFFT等の処理を施して、δ波、θ波、α波に分解したものである。また、筋電データ欄1010には、生データから脳波の成分を除去して抽出した筋電データのグラフを表示している。そして、このグラフ上に咀嚼と嚥下が行われた箇所についてマーク付けを行っている。
咀嚼については、グラフの第1ピークが予め定められた第1閾値より高い又は以上であって、その第1ピークの後にある第2ピークがその第1閾値未満又は以下であり、予め定められた第2閾値より高い又は以上である箇所を咀嚼が行われた箇所としている。なお、第2閾値は第1閾値よりも低いこととする。図10の例では、咀嚼のマークがついている第1ピークである箇所は、第1閾値より高いピークであって、その後に続く第2ピークは第1閾値より低くかつ第2閾値より高い関係を満たしている。
嚥下については、咀嚼の後であって、第3ピークが予め定められた第3閾値より高い又は以上である箇所を嚥下が行われた箇所としている。図10の例では、嚥下のマークがついている第3ピークである箇所は、第1ピークよりも後であって、第3閾値より高い関係を満たしている。なお、第1ピークよりも後であって、そして、第2ピークよりも後であって、第3閾値より高い関係を満たしている箇所を嚥下が行われた箇所としてもよい。
このような表示を行うことによって、筋電データから咀嚼と嚥下が検出された場合、各脳波との関係が一つの画面で確認できるため、仮説や検証が容易になる。
図11(a)の例に示すグラフは、生データのグラフである。つまり、脳波データと筋電データが合成されたものである。
生データを、脳波データと筋電データに分離する。例えば、生データにFFT処理を施して脳波データを生成してもよい。そして、生データそのものを筋電データとして扱ってもよい。つまり、ウェアラブルデバイス350から取得した一つの生データから2つの情報を取得する。
図11(b)の例に示すグラフは、筋電データのグラフである。ここで、咀嚼箇所1150と咀嚼箇所1152は、閾値1110よりも高く、その直後にあるピークは閾値1120よりも高いので、咀嚼の箇所であると判断している。
図11(c)の例に示すグラフは、生データをFFT解析し、ノイズの周波数成分を除去した脳波データのグラフである。
加速度データグラフ1210のデータは、ユーザー390の頭部に設置したウェアラブルデバイス350内の加速度センサーによって取得したものである。この加速度センサーとして、例えば、6軸センサー等を用いればよい。
生データグラフ1220のデータは、そのウェアラブルデバイス350内の節電センサーによって取得したものである。
ウェアラブルデバイス350内の加速度センサーによる検知結果を用いて、頭部の動作と顎の筋電の情報を関連づけることで、より詳細な動作に分類することができる。例えば、嚥下であって頭を後ろに倒したという情報が得られれば、飲み物を飲んだ動作と判断する。
図12の例では、生データグラフ1220における咀嚼箇所1250、咀嚼箇所1252の直前に、加速度データグラフ1210においてピークがあることから、嚥下の直前に首を後方に傾ける動きがあったことがわかる。なお、このグラフは、前後方向における加速度を示している。また、横方向における加速度を用いれば、顔を傾けること等の判断を行うことができる。
画面1300に、生データグラフ1310、脳波(α波)グラフ1320、脳波(β波)グラフ1330を重複して表示したものである。もちろんのことながら、時間軸である横軸は一致させている。
この例では、ユーザーがグラフを選択して、そのグラフを強調表示させることができる。例えば、脳波(α波)グラフ1320がユーザーによって選択された場合は、脳波(α波)グラフ1320を赤色に表示するようにしてもよい。
そして、咀嚼箇所1350、咀嚼箇所1352のように、咀嚼が行われた箇所にマーク付けを行うことによって、その咀嚼が行われている場合の脳波の状態を観察することができるようにしている。
スマートフォン300は、画面325、カメラ335を有している。カメラ335は、インカメラとも言われ、スマートフォン300を有しているユーザー390の顔を撮影するのに用いられている。このカメラ335でユーザー390の顔を撮影して、ウェアラブルデバイス350が検知した情報をグラフ表示する例を示す。
図14の例は、美容用の顔体操、表情筋のトレーニング等に用いるようにした例を示すものである。ユーザー390の顔画像と生体情報の測定結果を連動して表示する例を示したものである。
ウェアラブルデバイス350の初期設定時に、個々人の電位にあわせてイニシャライズ(初期化)を実施する。イニシャライズする際には、電位と画像のデータの両方もしくは片方を用いる。
電位が測定できない場合は、画像情報のみからトレーニング回数をカウントする。トレーニングとして、例えば、眼輪筋トレーニング等がある。なお、「電位が測定できない場合」は、生体情報が抽出できない場合の一例である。
スマートフォン300の画面325は、トレーニング用アプリケーションによって表示され、ユーザー390である使用者の顔と電位データとアクティビティの情報を関連付けて表示する。アクティビティの情報として、例えば、もっと目を開くなどのアドバイス、トレーニング回数、トレーニング時間等がある。例えば残り回数表示領域1420に「残り回数:5回」と表示し、残り時間表示領域1430に「残り時間:00:32」と表示し、コメント表示領域1440に「もっと頬を上げて下さい」と表示する。
また、ウェアラブルデバイス350からの筋電データを解析して、リフトアップ等が行われたことを検知する。さらに、顔画像を解析して、リフトアップ等が行われたことを検知するようにしてもよい。即ち、筋電といった生体電位から情報が取得できない異常事態であっても、アプリケーションを止めることなく、効果推定をしてユーザー390にトレーニング効果を通知するようにしてもよい。同様に、顔画像が取得できない場合は、生体電位からの情報のみで効果結果を推定してユーザー390に通知するようにしてもよい。なお、両方が正常に計測して解析できている場合にあっては、一方のみが計測できている場合に較べて、より精度高くトレーニング効果を推定して通知することができる。
トレーニング前後の顔画像を比較可能に表示したものである。図15(a)に示す画面325aは、トレーニング前の顔画像を表示しており、図15(b)に示す画面325bは、トレーニング後の顔画像を表示している。この例では、トレーニングによって、頬線1412a、頬線1414aが、上がって頬線1412b、頬線1414bに変化していることがわかるようになる。
なお、画像の比較として、例えば、一画面内で左右並びに表示、一枚ずつの表示、2枚を透過して合成、トレーニング前後左右半分ずつの表示、一部拡大等を選べるようにしてもよい。
また、リフトアップ等が行われた時に撮影された顔画像を表示するようにしてもよい。さらに、その前後の顔画像を含めて表示するようにしてもよい。
画面325には、撮影画像表示領域1610、残り回数表示領域1620、残り時間表示領域1630、コメント表示領域1640、グラフ表示領域1650を表示する。
図14に示した例と同様であるが、図16に示す例は、眼輪筋のトレーニングに関するものである。
例えば残り回数表示領域1620に「残り回数:5回」と表示し、残り時間表示領域1630に「残り時間:00:32」と表示し、コメント表示領域1640に「もっと目を開いて下さい」と表示する。
トレーニング前後の顔画像を比較可能に表示したものである。図17(a)に示す画面325aは、トレーニング前の顔画像を表示しており、画面325aには、撮影画像表示領域1710a、トレーニング対象表示領域1720aを表示する。図17(b)に示す画面325bは、トレーニング後の顔画像を表示しており、画面325bには、撮影画像表示領域1710b、トレーニング対象表示領域1720bを表示する。
この例では、トレーニングによって、目の大きさが大きく変化していることがわかるようになる。特に、トレーニング対象の箇所を拡大表示している。この例では、トレーニング対象表示領域1720a内の目の画像とトレーニング対象表示領域1720b内の目の画像を比較できるようにしている。
なお、画像の比較として、例えば、一画面内で左右並びに表示、一枚ずつの表示、2枚を透過して合成、トレーニング前後左右半分ずつの表示、一部拡大等を選べるようにしてもよい。
また、目の見開き等が行われた時に撮影された顔画像を表示するようにしてもよい。さらに、その前後の顔画像を含めて表示するようにしてもよい。
なお、図18に示すハードウェア構成は、1つの構成例を示すものであり、本実施の形態は、図18に示す構成に限らず、本実施の形態において説明したモジュールを実行可能な構成であればよい。例えば、一部のモジュールを専用のハードウェア(例えば特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)や再構成可能な集積回路(field−programmable gate array:FPGA)等)で構成してもよく、一部のモジュールは外部のシステム内にあり通信回線で接続している形態でもよく、さらに図18に示すシステムが複数互いに通信回線によって接続されていて互いに協調動作するようにしてもよい。また、特に、携帯情報通信機器(携帯電話、スマートフォン、モバイル機器、ウェアラブルコンピュータ等を含む)、情報家電、ロボットなどに組み込まれていてもよい。
「プログラムを記録したコンピュータ読み取り可能な記録媒体」とは、プログラムのインストール、実行、プログラムの流通等のために用いられる、プログラムが記録されたコンピュータで読み取り可能な記録媒体をいう。
なお、記録媒体としては、例えば、デジタル・バーサタイル・ディスク(DVD)であって、DVDフォーラムで策定された規格である「DVD−R、DVD−RW、DVD−RAM等」、DVD+RWで策定された規格である「DVD+R、DVD+RW等」、コンパクトディスク(CD)であって、読出し専用メモリ(CD−ROM)、CDレコーダブル(CD−R)、CDリライタブル(CD−RW)等、ブルーレイ・ディスク(Blu−ray(登録商標) Disc)、光磁気ディスク(MO)、フレキシブルディスク(FD)、磁気テープ、ハードディスク、読出し専用メモリ(ROM)、電気的消去及び書換可能な読出し専用メモリ(EEPROM(登録商標))、フラッシュ・メモリ、ランダム・アクセス・メモリ(RAM)、SD(Secure Digitalの略)メモリーカード等が含まれる。
そして、前記のプログラムの全体又はその一部は、前記記録媒体に記録して保存や流通等させてもよい。また、通信によって、例えば、ローカル・エリア・ネットワーク(LAN)、メトロポリタン・エリア・ネットワーク(MAN)、ワイド・エリア・ネットワーク(WAN)、インターネット、イントラネット、エクストラネット等に用いられる有線ネットワーク、又は無線通信ネットワーク、さらにこれらの組み合わせ等の伝送媒体を用いて伝送させてもよく、また、搬送波に乗せて搬送させてもよい。
さらに、前記のプログラムは、他のプログラムの一部分若しくは全部であってもよく、又は別個のプログラムと共に記録媒体に記録されていてもよい。また、複数の記録媒体に分割して記録されていてもよい。また、圧縮や暗号化等、復元可能であればどのような態様で記録されていてもよい。
105…生体情報抽出モジュール
110…頭部情報抽出モジュール
115…解析モジュール
120…表示制御モジュール
125…表示モジュール
200…情報処理装置
230…通信モジュール
235…撮影モジュール
250…装置
255…通信モジュール
260…生体情報検知モジュール
300…スマートフォン
325…画面
335…カメラ
350…ウェアラブルデバイス
390…ユーザー
Claims (14)
- 人体の頭部における電位を測定した結果である電位測定結果から生体情報と頭部の動きを抽出する抽出手段と、
前記抽出手段によって抽出された前記生体情報と前記頭部の動きを同じ画面上で紐付けて通知可能に制御する制御手段
を有する情報処理装置。 - 前記抽出手段は、前記電位測定結果から複数の周波数帯域の波を抽出し、
前記制御手段は、前記抽出手段が抽出した複数の波と前記頭部の動きを前記画面上に比較可能に表示するように制御する、
請求項1に記載の情報処理装置。 - 前記頭部の動きとして、咀嚼を含み、
前記抽出手段は、前記電位測定結果が予め定められたパターンに合致する箇所を咀嚼箇所として抽出し、
前記制御手段は、生体情報と、前記電位測定結果を示すグラフ上に前記咀嚼箇所を比較可能に表示するように制御する、
請求項1に記載の情報処理装置。 - 前記予め定められたパターンとして、前記グラフの第1ピークが予め定められた第1閾値より高い又は以上であって、該第1ピークの後にある第2ピークが該第1閾値未満又は以下であり、予め定められた第2閾値より高い又は以上であり、該第2閾値は該第1閾値よりも低いこととする、
請求項3に記載の情報処理装置。 - 前記頭部の動きとして、嚥下を含み、
前記電位測定結果が予め定められたパターンに合致する箇所を嚥下箇所であると解析する解析手段
をさらに有し、
前記制御手段は、生体情報と、前記電位測定結果を示すグラフ上に前記嚥下箇所を比較可能に表示するように制御する、
請求項1に記載の情報処理装置。 - 前記予め定められたパターンとして、咀嚼の後であって、前記グラフの第3ピークが予め定められた第3閾値より高い又は以上であることとする、
請求項5に記載の情報処理装置。 - 前記解析手段は、さらに前記頭部に装着された加速度センサーの測定結果を用いて、該頭部が予め定められた動きである場合は、前記嚥下を飲み物の嚥下であるとして抽出する、
請求項6に記載の情報処理装置。 - 前記予め定められた動きとして、首を後方に傾ける動きとする、
請求項7に記載の情報処理装置。 - 前記制御手段は、前記電位測定結果を、複数種の変換処理した結果を同じ画面上に表示する、
請求項1に記載の情報処理装置。 - 前記制御手段は、低域通過濾波器、高域通過濾波器を用いて予め定められた期間をスペクトル分析した結果と、周期性を持たないそれ以外のデータとを表示する、
請求項1に記載の情報処理装置。 - 前記人体の頭部を撮影する撮影手段
をさらに有し、
前記制御手段は、さらに、前記撮影手段が撮影した画像を表示するように制御する、
請求項1に記載の情報処理装置。 - 前記撮影した画像と前記生体情報を紐付けて利用者の状態を通知する、
請求項11に記載の情報処理装置。 - 前記生体情報が抽出できない場合、前記画像を解析して前記利用者の状態を通知する、
請求項12に記載の情報処理装置。 - コンピュータを、
人体の頭部における電位を測定した結果である電位測定結果から生体情報と頭部の動きを抽出する抽出手段と、
前記抽出手段によって抽出された前記生体情報と前記頭部の動きを同じ画面上で紐付けて通知可能に制御する制御手段
として機能させるための情報処理プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019112561A JP2020202977A (ja) | 2019-06-18 | 2019-06-18 | 情報処理装置及び情報処理プログラム |
US16/726,934 US20200397381A1 (en) | 2019-06-18 | 2019-12-26 | Information processing device and non-transitory computer readable medium |
JP2024020528A JP2024054337A (ja) | 2019-06-18 | 2024-02-14 | 情報処理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019112561A JP2020202977A (ja) | 2019-06-18 | 2019-06-18 | 情報処理装置及び情報処理プログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024020528A Division JP2024054337A (ja) | 2019-06-18 | 2024-02-14 | 情報処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020202977A true JP2020202977A (ja) | 2020-12-24 |
Family
ID=73837138
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019112561A Pending JP2020202977A (ja) | 2019-06-18 | 2019-06-18 | 情報処理装置及び情報処理プログラム |
JP2024020528A Pending JP2024054337A (ja) | 2019-06-18 | 2024-02-14 | 情報処理方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024020528A Pending JP2024054337A (ja) | 2019-06-18 | 2024-02-14 | 情報処理方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20200397381A1 (ja) |
JP (2) | JP2020202977A (ja) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012085747A (ja) * | 2010-10-18 | 2012-05-10 | Panasonic Corp | 注意状態判別システム、方法、コンピュータプログラムおよび注意状態判別装置 |
JP2012200397A (ja) * | 2011-03-25 | 2012-10-22 | Midori Anzen Co Ltd | 居眠り検知装置 |
US20140018694A1 (en) * | 2010-03-31 | 2014-01-16 | National Health-Care Group Pte Ltd. | Method and system for motor rehabilitation |
JP2015002808A (ja) * | 2013-06-19 | 2015-01-08 | 株式会社プロアシスト | 睡眠状態判定装置及び判定方法 |
WO2018027141A1 (en) * | 2016-08-05 | 2018-02-08 | The Regents Of The University Of Colorado, A Body Corporate | In-ear sensing systems and methods for biological signal monitoring |
JP2018512982A (ja) * | 2015-03-18 | 2018-05-24 | ティ・オ・ドォッブルビィ・エンジニアリング・アー/エス | Eegモニタ |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160073953A1 (en) * | 2014-09-11 | 2016-03-17 | Board Of Trustees Of The University Of Alabama | Food intake monitor |
-
2019
- 2019-06-18 JP JP2019112561A patent/JP2020202977A/ja active Pending
- 2019-12-26 US US16/726,934 patent/US20200397381A1/en not_active Abandoned
-
2024
- 2024-02-14 JP JP2024020528A patent/JP2024054337A/ja active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140018694A1 (en) * | 2010-03-31 | 2014-01-16 | National Health-Care Group Pte Ltd. | Method and system for motor rehabilitation |
JP2012085747A (ja) * | 2010-10-18 | 2012-05-10 | Panasonic Corp | 注意状態判別システム、方法、コンピュータプログラムおよび注意状態判別装置 |
JP2012200397A (ja) * | 2011-03-25 | 2012-10-22 | Midori Anzen Co Ltd | 居眠り検知装置 |
JP2015002808A (ja) * | 2013-06-19 | 2015-01-08 | 株式会社プロアシスト | 睡眠状態判定装置及び判定方法 |
JP2018512982A (ja) * | 2015-03-18 | 2018-05-24 | ティ・オ・ドォッブルビィ・エンジニアリング・アー/エス | Eegモニタ |
WO2018027141A1 (en) * | 2016-08-05 | 2018-02-08 | The Regents Of The University Of Colorado, A Body Corporate | In-ear sensing systems and methods for biological signal monitoring |
Non-Patent Citations (4)
Title |
---|
安村 真一 他: "「食塊形成時における顎運動および咀嚼筋活動の微細協調運動」", 岐阜歯科学会雑誌, vol. 41, no. 2, JPN6023022882, 20 November 2014 (2014-11-20), pages 118 - 127, ISSN: 0005076031 * |
虫本 栄子 他: "「大連結子のデザインの違いが口腔感覚に及ぼす影響に関する脳波学的検討」", 日本補綴歯科学会雑誌, vol. 49, no. 3, JPN6023022885, 10 June 2005 (2005-06-10), pages 478 - 487, ISSN: 0005076033 * |
虫本 栄子 他: "「開・閉口筋筋電図による嚥下動作の評価法」", 日本補綴歯科学会雑誌, vol. 44, no. 2, JPN6023022884, 10 April 2000 (2000-04-10), pages 292 - 299, ISSN: 0005076032 * |
都築裕 他: "高齢の要食事被介護者の飲み込み検出に関する研究", 計測自動制御学会論文集, vol. 51, no. 8, JPN6022043573, 2015, pages 520 - 527, ISSN: 0005021461 * |
Also Published As
Publication number | Publication date |
---|---|
JP2024054337A (ja) | 2024-04-16 |
US20200397381A1 (en) | 2020-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Stopczynski et al. | The smartphone brain scanner: a portable real-time neuroimaging system | |
US20180103917A1 (en) | Head-mounted display eeg device | |
CA2886095C (en) | Systems and methods for sensory and cognitive profiling | |
JP6641298B2 (ja) | 多肢選択式の解答の直接選択及び状態変更の特定を容易にするためのブレインコンピュータインターフェース | |
Bulling et al. | Recognition of visual memory recall processes using eye movement analysis | |
Kirchner et al. | Multimodal movement prediction-towards an individual assistance of patients | |
US20170344706A1 (en) | Systems and methods for the diagnosis and treatment of neurological disorders | |
US20180184964A1 (en) | System and signatures for a multi-modal physiological periodic biomarker assessment | |
US12011281B2 (en) | Quantifying motor function using eeg signals | |
Cai et al. | Machine-learning approaches for recognizing muscle activities involved in facial expressions captured by multi-channels surface electromyogram | |
JP2023520573A (ja) | Eegの記録および分析 | |
Hamedi et al. | Comparison of different time-domain feature extraction methods on facial gestures' EMGs | |
IL268575B2 (en) | A system and method for monitoring a patient | |
Marandi et al. | Using eye movement analysis to study auditory effects on visual memory recall | |
Mehmood et al. | Multimodal integration for data-driven classification of mental fatigue during construction equipment operations: Incorporating electroencephalography, electrodermal activity, and video signals | |
Hsiao et al. | EEG-based Classification between individuals with mild cognitive impairment and healthy controls using conformal kernel-based fuzzy support vector machine | |
Sun et al. | Validation of SOBI‐DANS method for automatic identification of horizontal and vertical eye movement components from EEG | |
Kanagasabai et al. | Brain-computer interface learning system for Quadriplegics | |
Vahid et al. | Human identification with EEG signals in different emotional states | |
JP2020202977A (ja) | 情報処理装置及び情報処理プログラム | |
US10786192B2 (en) | System and method for determining amount of volition in a subject | |
Rupanagudi et al. | A simplified approach to assist motor neuron disease patients to communicate through video oculography | |
KR101306922B1 (ko) | 뇌파 측정 장치 및 뇌파 측정 방법 | |
Molavi et al. | Comparison of different methods for emotion classification | |
Wipperman et al. | A pilot study of the Earable device to measure facial muscle and eye movement tasks among healthy volunteers |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20210316 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20210416 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20210316 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220124 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221014 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221018 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221212 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230328 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230518 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230606 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20231205 |