JP7269585B2 - 食生活推定装置 - Google Patents

食生活推定装置 Download PDF

Info

Publication number
JP7269585B2
JP7269585B2 JP2019234444A JP2019234444A JP7269585B2 JP 7269585 B2 JP7269585 B2 JP 7269585B2 JP 2019234444 A JP2019234444 A JP 2019234444A JP 2019234444 A JP2019234444 A JP 2019234444A JP 7269585 B2 JP7269585 B2 JP 7269585B2
Authority
JP
Japan
Prior art keywords
information
user
mastication
jaw
analysis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019234444A
Other languages
English (en)
Other versions
JP2021103434A (ja
Inventor
嘉則 新井
利光 飯沼
冬樹 山田
英基 吉川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nihon University
J Morita Manufaturing Corp
Original Assignee
Nihon University
J Morita Manufaturing Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nihon University, J Morita Manufaturing Corp filed Critical Nihon University
Priority to JP2019234444A priority Critical patent/JP7269585B2/ja
Priority to PCT/JP2020/046769 priority patent/WO2021131906A1/ja
Priority to EP20906578.8A priority patent/EP4084006A4/en
Priority to CN202080083571.XA priority patent/CN114746949A/zh
Publication of JP2021103434A publication Critical patent/JP2021103434A/ja
Priority to US17/846,013 priority patent/US20220323189A1/en
Application granted granted Critical
Publication of JP7269585B2 publication Critical patent/JP7269585B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C19/00Dental auxiliary appliances
    • A61C19/04Measuring instruments specially adapted for dentistry
    • A61C19/045Measuring instruments specially adapted for dentistry for recording mandibular movement, e.g. face bows
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/22Ergometry; Measuring muscular strength or the force of a muscular blow
    • A61B5/224Measuring muscular strength
    • A61B5/228Measuring muscular strength of masticatory organs, e.g. detecting dental force
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/486Bio-feedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6814Head
    • A61B5/682Mouth, e.g., oral cavity; tongue; Lips; Teeth
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7203Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
    • A61B5/7207Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal of noise induced by motion artifacts
    • A61B5/7214Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal of noise induced by motion artifacts using signal cancellation, e.g. based on input of two identical physiological sensors spaced apart, or based on two signals derived from the same sensor, for different optical wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/02Operational features
    • A61B2560/0204Operational features of power management
    • A61B2560/0209Operational features of power management adapted for power saving
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/02Operational features
    • A61B2560/0204Operational features of power management
    • A61B2560/0214Operational features of power management of power generation or supply
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/04Constructional details of apparatus
    • A61B2560/0456Apparatus provided with a docking unit
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/02Food

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Epidemiology (AREA)
  • Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Primary Health Care (AREA)
  • Dentistry (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Physiology (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Psychiatry (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Evolutionary Computation (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • General Business, Economics & Management (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Description

本開示は、食生活推定装置に関する。
従来、ヒトを含む動物の口腔内に設けられた口腔内センサから得られた情報を用いて、当該動物の行動解析を行う装置が知られている(例えば特許文献1参照)。
特開2012-191994号公報
ここで、ユーザの摂食時の顎運動からユーザが摂取(咀嚼)した食べ物の情報を解析結果として得ることができれば、例えば当該解析結果に基づく食生活のアドバイスをユーザに提供すること等が可能となる。一方、上記特許文献1に記載の手法では、口腔内センサから得られた情報(口腔動作に関する情報、口腔内で発生する振動に関する情報、生体で発生する振動に関する情報等)と照合するための種々の情報が予め必要となる。このような種々の情報を予め取得及び蓄積しておくことは、困難であり、手間がかかる。
そこで、本開示は、簡易かつ精度良くユーザが摂取した食べ物の情報を取得することができる食生活推定装置を提供することを目的とする。
本開示の一側面に係る食生活推定装置は、ユーザの摂食時の一口分の顎運動を示す時系列情報である咀嚼情報を取得し、機械学習により生成された解析モデルに咀嚼情報を入力し、解析モデルから出力される、一口分の顎運動によりユーザが咀嚼したと推定される食べ物の属性を取得する解析部を備え、解析モデルは、ユーザについて取得された過去の一口分の顎運動を示す時系列情報である第1情報と過去の一口分の顎運動によりユーザが咀嚼した食べ物の属性を示す第2情報とを含む教師データを用いて機械学習された学習済みモデルである。
上記食生活推定装置では、機械学習により生成された解析モデルを用いることにより、ユーザが咀嚼したと推定される食べ物の属性が取得される。また、解析モデルは、解析対象のユーザ自身の過去の食事から得られる教師データを用いて機械学習されている。従って、上記食生活推定装置によれば、ユーザの摂食時における顎運動の特徴を学習した解析モデルを用いて、簡易かつ精度良く解析結果(ユーザが咀嚼したと推定される食べ物の属性)を取得することができる。
本開示の他の側面に係る食生活推定装置は、ユーザの摂食時の一口分の顎運動を示す時系列情報である咀嚼情報を取得し、機械学習により生成された解析モデルに咀嚼情報を入力し、解析モデルから出力される、一口分の顎運動によりユーザが咀嚼したと推定される食べ物の属性を取得する解析部を備え、解析モデルは、不特定のユーザについて取得された過去の一口分の顎運動を示す時系列情報である第1情報と過去の一口分の顎運動により不特定のユーザが咀嚼した食べ物の属性を示す第2情報とを含む教師データを用いて機械学習された学習済みモデルである。
上記食生活推定装置では、機械学習により生成された解析モデルを用いることにより、ユーザが咀嚼したと推定される食べ物の属性が取得される。また、解析モデルは、不特定のユーザの過去の食事から得られる教師データを用いて機械学習されている。上記食生活推定装置によれば、解析モデルを用いて、簡易かつ精度良く解析結果(ユーザが咀嚼したと推定される食べ物の属性)を取得することができる。また、解析モデルを複数のユーザ間で共通化でき、解析モデルをユーザ毎に作成及び管理する必要がなくなるという利点がある。また、解析モデルのための教師データを収集し易いという利点もある。
解析部は、解析モデルに対してユーザの属性を示すプロファイル情報を更に入力し、解析モデルは、不特定のユーザのプロファイル情報を更に含む教師データを用いて機械学習された学習済みモデルであってもよい。ユーザの摂食時の顎運動は、ユーザの属性(例えば、性別、年代、健康状態等)によって異なると考えられる。従って、上記構成によれば、ユーザの属性を特徴量に含めることにより、ユーザが咀嚼したと推定される食べ物の属性をより精度良く取得することができる。
解析モデルは、第1情報のうち1回目の噛み動作に対応する顎運動を示す時系列情報である第1咀嚼情報に対応するデータと、第1情報のうち2回目の噛み動作に対応する顎運動を示す時系列情報である第2咀嚼情報に対応するデータと、第2情報とを含む教師データを用いて機械学習された学習済みモデルであり、解析部は、咀嚼情報から第1咀嚼情報と第2咀嚼情報とを抽出し、抽出された情報を解析モデルに入力することにより、一口分の顎運動によりユーザが咀嚼したと推定される食べ物の属性を取得してもよい。特に1回目の噛み動作及び2回目の噛み動作に対応する顎運動には、咀嚼された食べ物の属性に応じた特徴が現れやすい。従って、上記構成によれば、1回目の噛み動作及び2回目の噛み動作に対応する顎運動を特徴量として用いて機械学習された解析モデルを用いることにより、ユーザが咀嚼したと推定される食べ物の属性をより精度良く取得することができる。
上記食生活推定装置は、ユーザの下顎に装着される義歯に設けられたセンサによって検出された顎運動情報を取得する取得部を更に備え、解析部は、顎運動情報に基づいて、咀嚼情報を取得してもよい。この構成によれば、日常的にユーザの下顎に装着される義歯に設けられたセンサにより、咀嚼情報の基となる顎運動情報を取得することができる。また、ユーザが摂食時を含む日常生活時に装着する義歯に設けられたセンサを利用することにより、ユーザに過度の負担をかけることなく、顎運動情報を適切に取得することができる。
顎運動情報は、センサによって検出される3軸方向の加速度及び3軸方向の角速度の少なくとも一方の時間変化を示す情報を含んでもよい。また、顎運動情報は、ユーザの上顎に装着される義歯に設けられたセンサによって検出される、3軸方向の加速度及び3軸方向の角速度の少なくとも一方の時間変化を示す情報を更に含んでもよい。例えば、ユーザが車、電車等の乗り物に乗車している際に、当該乗り物からの振動成分がセンサにより検出されてしまい、ユーザの摂食時の顎運動であると誤検出されるおそれがある。また、ユーザが乗り物に乗車している際に食事を行った場合には、ユーザの摂食時の顎運動に乗り物からの振動成分がノイズとして混入してしまうことになる。一方、上記構成によれば、解析部は、ユーザの下顎に装着される義歯に設けられたセンサの検出結果だけでなく、ユーザの上顎に装着される義歯に設けられたセンサの検出結果を利用して、ユーザの顎運動を示す運動成分のみを咀嚼情報として取得することができる。例えば、解析部は、上顎のセンサの検出結果に対する下顎のセンサの検出結果の相対値を得ることにより、乗り物からの振動成分(すなわち、上顎のセンサ及び下顎のセンサの両方に共通して含まれる成分)をキャンセルすることができる。その結果、上述した問題を解消することができる。
上記食生活推定装置において、食べ物の属性は、食べ物の大きさ、硬さ、及び種類の少なくとも1つを含んでもよい。
上記食生活推定装置は、ユーザの下顎から取り外された義歯を保管するベース装置を更に備え、ベース装置は、センサと通信することによりセンサから顎運動情報を取得してもよい。上記構成によれば、ユーザは義歯をベース装置にセットするだけで、顎運動情報がベース装置から当該顎運動情報を解析する装置へと自動的に送信される。これにより、義歯に設けられたセンサからの顎運動情報の取得(吸い上げ)に関して、ユーザの利便性を高めることができる。
ベース装置は、センサを充電する充電部を更に有してもよい。上記構成によれば、通信部による通信と共に充電部による充電を実施することができる。これにより、通信部による通信動作中に消費されるセンサの電力を適切に補うことができる。
ベース装置は、義歯を洗浄する洗浄部を更に有してもよい。上記構成によれば、ユーザは義歯をベース装置にセットするだけで、顎運動情報を解析する装置への顎運動情報の送信と義歯の洗浄とを合わせて行うことができる。これにより、ユーザの利便性を高めることができる。
本開示によれば、簡易かつ精度良くユーザが摂取した食べ物の情報を取得することができる食生活推定装置を提供することができる。
一実施形態に係る食生活推定装置の構成を示すブロック図である。 義歯及びベース装置の概略構成を示すブロック図である。 解析モデルの概要を模式的に示す図である。 提案モデルの概要を模式的に示す図である。 解析部及び生成部の処理の一例を示す図である。 咀嚼区間特定モジュールにより特定される咀嚼区間の一例を示す図である。 一口分の咀嚼情報の一例を示す図である。 一口分の咀嚼情報における1回目及び2回目の噛み動作に対応する区間の一例を示す図である。 (A)はアーモンドを咀嚼した場合のシミュレーション結果を示すグラフである。(B)はごはんを咀嚼した場合のシミュレーション結果を示すグラフである。(C)はいちごを咀嚼した場合のシミュレーション結果を示すグラフである。 食生活推定装置の処理フローの一例を示す図である。 変形例に係る食生活推定装置の構成を示すブロック図である。 変形例に係る解析モデルの概要を模式的に示す図である。 変形例に係る食生活推定装置の構成を示すブロック図である。
以下、本開示の実施形態について図面を参照しながら説明する。各図において同一又は相当の部分には同一の符号を付し、重複する説明を省略する。
[食生活推定装置の全体構成]
図1に示されるように、一実施形態に係る食生活推定装置1は、義歯2と、ベース装置3と、ユーザ端末4と、サーバ5と、を備える。義歯2は、義歯装着者(以下「ユーザ」)の下顎に装着される有床義歯である。義歯2は、ユーザの摂食時の顎運動に関する測定データ(顎運動情報)を取得する機能を有する。ベース装置3は、ユーザの下顎から取り外された義歯2を保管する装置である。ユーザ端末4は、当該ユーザによって利用される端末である。ユーザ端末4は、例えば、当該ユーザが所有するスマートフォン、タブレット等の携帯端末である。或いは、ユーザ端末4は、当該ユーザの自宅等に設置されるパーソナルコンピュータ等であってもよい。ユーザ端末4は、主に、義歯2が取得した測定データを解析する機能と、解析結果に基づいてユーザに対する摂食に関連する提案情報を生成する機能と、を有する。サーバ5は、ユーザ端末4が測定データを解析する際に利用する解析モデル及びユーザ端末4が提案情報を生成する際に利用する提案モデルを生成し、生成した解析モデル及び提案モデルをユーザ端末4に提供する装置である。
[義歯の構成]
図1に示されるように、義歯2は、ユーザの下顎に取り付けられる床部分2aと、床部分に対して着脱可能に設けられた歯部分2b(歯牙)と、を有している。また、図2に示されるように、義歯2には、センサ20が内蔵されている。センサ20は、例えば、図示しない基板上に実装されたプロセッサ(例えばCPU等)及びメモリ(例えば、ROM及びRAM等)等の回路によって構成される。センサ20は、センサ部21と、演算部22と、記憶部23と、通信部24と、電池25と、無線充電用アンテナ26と、を備える。1つの構成例として、演算部22は、図示しない基板上に実装されたプロセッサ(例えばCPU等)及びメモリ(例えば、ROM及びRAM等)等の回路によって構成され、記憶部23はメモリチップ等の電子的記憶要素等で構成される。
センサ部21は、ユーザの上下顎の動き又は下顎の動きを検出するための各種センサを含む。上下顎又は下顎の動きの検出には、上下顎又は下顎の運動の加速度及び角速度の少なくとも一方を検出するセンサ、すなわち加速度センサ及び角速度センサの少なくとも一方を用いることができる。上記加速度センサとしては、3軸方向の加速度を計測可能なセンサが好適である。また、下顎の動きには、単純な1軸回動以外の回動要素が混入することが多いので、上記角速度センサについても、3軸方向の角速度を計測可能なセンサが好適である。本実施形態では、センサ部21は、3軸方向(X軸方向、Y軸方向、及びZ軸方向)の各々の加速度を検出する加速度センサを含む。この場合、センサ部21により、ユーザの下顎の動き(顎運動)に応じた加速度が継続的に検出される。ただし、センサ部21の構成は上記に限られない。例えば、センサ部21は、上記加速度センサに代えて3軸方向の各々の角速度を検出する角速度センサ(ジャイロセンサ)を含んでもよいし、上記加速度センサ及び上記角速度センサの両方を含んでもよい。
演算部22は、センサ部21が継続的に取得する測定データ(本実施形態では、3軸方向の各々の加速度を示す3軸加速度データ)を取得し、当該測定データを記憶部23に保存する。本実施形態では、当該測定データは、ユーザの顎運動に応じた加速度(センサ部21が角速度センサを含む場合には角速度)の時間変化を示す時系列情報である。記憶部23は、例えば、上述したメモリによって構成される。ただし、測定データは、上記例に限られず、例えば顎運動の速度の時間変化を示す時系列情報であってもよい。また、演算部22は、タイムカウント機能を備えてもよい。例えば、演算部22をプロセッサ等で構成する場合、多くのプロセッサが備えるように、タイマ・カウンタを内蔵するように構成できる。このタイマ・カウンタを時系列情報の時刻割付に用いることができる。
演算部22は、例えば上述したタイマ・カウンタにより、センサ部21により取得された各時点の測定データに対して当該測定データの取得時刻を付加する。そして、演算部22は、取得時刻が付加された測定データを記憶部23に保存する。これにより、記憶部23には、各時点の測定データを取得時刻順に並べた時系列情報が記憶される。
また、義歯2がユーザの下顎から取り外され、ベース装置3に設けられた保管スペース34にセットされると、演算部22は、ベース装置3から送信される制御信号に応じた処理を実行する。例えば、演算部22は、記憶部23に保存された測定データを読み出して通信部24を介してベース装置3に送信したり、記憶部23に保存された測定データを消去したりする。
また、演算部22は、センサ部21の動作モードを以下のように制御してもよい。例えば、演算部22は、ユーザの摂食動作に応じた加速度のパターンを予め記憶しておく。このようなパターンは、例えば記憶部23に記憶されてもよい。そして、演算部22は、初期モードとして、サンプリングレートが比較的低い(すなわち、サンプリング周期が比較的長い)省電力モードでセンサ部21を動作させてもよい。また、演算部22は、センサ部21により継続的に取得される測定データを常時監視し、ユーザの摂食動作に応じた加速度のパターン(例えば、予め定められた閾値以上の加速度等)を検知したことをトリガとして、省電力モードよりもサンプリングレートが高い(すなわち、サンプリング周期が短い)データ取得モードでセンサ部21を動作させてもよい。その後、演算部22は、例えばユーザの摂食動作に応じた加速度のパターンが検知されなくなった時点から予め定められた設定時間(例えば30秒等)が経過したことをトリガとして、センサ部21の動作モードを再度省電力モードに切り替えてもよい。
このように、ユーザの摂食時以外の期間におけるセンサ部21の動作モードを省電力モードに設定することにより、センサ部21の電力消費量を低減できる。その結果、ユーザが義歯2を長時間継続して装着する場合であっても、測定データを継続して取得することができる。また、ユーザの摂食時にはセンサ部21の動作モードをデータ取得モードに設定することにより、ユーザの摂食時におけるユーザの顎運動を示す精度の高い測定データを取得することができる。
或いは、演算部22は、予めユーザの食事予定時間帯(例えば、朝食、昼食、おやつ、及び夕食の各々に対応する時間帯)を記憶しておき、当該食事予定時間帯以外の時間帯においてセンサ部21を省電力モードで動作させ、当該食事予定時間帯においてセンサ部21をデータ取得モードで動作させてもよい。このような動作モードの制御によっても、上述した効果と同様の効果が得られる。なお、食事予定時間に関する上記制御には、前述したタイマ・カウンタ等を利用することができる。
通信部24は、義歯2がベース装置3の保管スペース34にセットされた状態で、無線通信によりベース装置3と通信する機能を有する。通信部24は、例えば情報送受信用のアンテナ等によって構成される。無線通信は、例えば、電波通信、光通信、及び音波通信等である。電波通信は、例えばBluetooth(登録商標)、Wi-Fi(登録商標)等を用いた通信である。光通信は、例えば可視光又は赤外線等を用いた通信である。音波通信は、例えば超音波等を用いた通信である。通信部24は、ベース装置3から制御信号を受信すると、当該制御信号を演算部22へと送信する。また、通信部24は、演算部22から測定データを受信すると、当該測定データをベース装置3へと送信する。
電池25は、センサ部21、演算部22,及び記憶部23等に電力を供給する蓄電池である。無線充電用アンテナ26は、電池25を充電するための部品である。義歯2がベース装置3の保管スペース34にセットされた状態で、ベース装置3から無線充電用アンテナ26を介して電池25に電力が供給される。すなわち、電池25は、ワイヤレス充電によって充電される。このように、本実施形態の義歯2では、電池25を非接触で充電できるため、電池25を充電するための回路(充電端子)を義歯2の外部に露出させる必要がない。
通信部24によるベース装置3との通信動作は、電池25の充電動作と共に実行されてもよい。上述したように、本実施形態では、上記通信動作及び上記充電動作は、いずれも、義歯2がベース装置3の保管スペース34にセットされた状態で行われる。ここで、通信部24による通信動作は、上記いずれの無線通信方式を採用したとしても相応の電力を消費することになるが、通信動作と同時に充電動作が行われる場合には、通信動作に必要となる電力を適切に補うことができる。
上述したセンサ20が備える各部(特に交換頻度が高いセンサ部21及び電池25等)の少なくとも一部は、特定の歯部分2bに埋め込まれてもよい。この場合、センサ20が備える各部間の電気的な接続、すなわち、歯部分2bに埋め込まれた部分(例えば歯部分2bのうちの個別歯牙部2b1に埋め込まれた電池25)と他の部分(床部分2aに埋め込まれた部分又は他の歯部分2bに埋め込まれた部分)との電気的な接続は、例えば、歯部分2bと床部分2aとの境界部において確保されればよい。上記構成によれば、センサ20が備える各部の交換作業が容易となる。例えば、センサ部21が埋め込まれた歯部分2b(例えば個別歯牙部2b2)を床部分2aから取り外し、新しい歯部分2b(新しいセンサ部21を含む歯部分(個別歯牙部2b2))を床部分2aに装着するだけで、簡単にセンサ部21の交換を行うことが可能となる。
[ベース装置の構成]
図2に示されるように、ベース装置3は、無線充電用アンテナ31と、通信部32と、洗浄部33と、を備える。ベース装置3は、例えばユーザの自宅等に設けられる。ベース装置3の保管機能に着目した場合、ベース装置3は、更に義歯2を保管するための保管スペース34を備える。
無線充電用アンテナ31は、義歯2がベース装置3の保管スペース34にセットされた状態で、当該義歯2の電池25をワイヤレス充電する。具体的には、無線充電用アンテナ31は、上述した無線充電用アンテナ26を介して、電池25に電力を供給する。無線充電用アンテナ31は、充電部を構成する。詳細には、無線充電用アンテナ31は、ベース装置3側の充電部31Aを構成し、無線充電用アンテナ26は、センサ20側の充電部26Aを構成する。充電部31A及び充電部26Aが、充電部CHを構成する。
通信部32は、義歯2のセンサ20及びユーザ端末4と通信する機能を有する。具体的には、通信部32は、義歯2がベース装置3の保管スペース34にセットされた状態で、無線通信により当該義歯2の通信部24と通信する。また、通信部32は、有線通信又は無線通信により、ユーザ端末4と通信する。例えば、通信部32は、ユーザ端末4から測定データの要求を示す制御信号を受信すると、ベース装置3にセットされた義歯2の通信部24に対して当該制御信号を送信する。そして、通信部32は、通信部24から測定データを受信すると、当該測定データをユーザ端末4へと送信する。これにより、義歯2のセンサ20によって取得された測定データが、ベース装置3を介して、ユーザ端末4へと送信される。そして、ユーザ端末4において、当該測定データが解析され、解析結果に応じた提案情報が生成される。通信部32は、ベース装置3側の通信部であり、通信部24は、センサ20側の通信部である。通信部32及び通信部24が、通信部TRを構成する。
洗浄部33は、義歯2がベース装置3の保管スペース34にセットされた状態で、義歯2を洗浄する機能を有する。洗浄部33は、例えば、保管スペース34に専用の薬剤を含む液体を導入する処理、義歯2を当該液体に浸すことによって義歯2の表面を洗浄する処理、及び洗浄後に当該液体を保管スペース34から抜き取って義歯2を乾燥させる処理等を実行する。すなわち、保管スペース34は、義歯2を洗浄することが可能な洗浄スペースを兼ねている。
以上説明したように、ベース装置3は、義歯2の保管、センサ20の充電、センサ20との通信(センサ20からの測定データの取得、演算部22への制御信号の伝達等)、及び義歯2の洗浄を行う機能を有している。これにより、ユーザは、例えば就寝前等に義歯2をユーザの下顎から取り外し、ベース装置3の保管スペース34に義歯2をセットするだけで、義歯2の保管、センサ20の充電、センサ20からの測定データの取得(及びユーザ端末4への送信)、及び義歯2の洗浄を行うことができる。このようなベース装置3によれば、ユーザに過度の負担をかけることなく、ユーザの日常生活における顎運動に関する測定データを取得することができる。
[ユーザ端末の構成]
図1に示されるように、ユーザ端末4は、取得部41と、解析部42と、解析モデル記憶部43と、生成部44と、提案モデル記憶部45と、出力部46と、表示部47と、を備える。ユーザ端末4は、プロセッサ(例えばCPU等)及びメモリ(例えば、ROM及びRAM等)等を備えるコンピュータ装置である。なお、ユーザ端末4は、センサ20の演算部22と同様に、タイマ・カウンタを備えてもよい。取得部41、解析部42、生成部44、出力部46、及び表示部47は、それぞれ回路によって構成されてもよく、プロセッサがそれらの回路の一部又は全部を構成してもよい。取得部41、解析部42、生成部44、出力部46、及び表示部47のそれぞれがプロセッサの一部又は全部を構成してもよく、各回路がメモリを含んでもよい。
取得部41は、ユーザの摂食時の顎運動に関する測定データを取得する。上述したように、取得部41は、義歯2のセンサ20において取得及び保存された測定データを、ベース装置3を介して取得する。ただし、取得部41が測定データを取得する方法は上記に限られない。例えば、取得部41は、ベース装置3を介さずに、センサ20(通信部24)と直接通信することによって、測定データを取得してもよい。
本実施形態では、測定データは、ユーザの下顎に装着される義歯2に設けられたセンサ20によって検出された3軸方向の各々の加速度の時間変化を示す時系列情報(3軸加速度データ)である。3軸加速度データは、センサ部21において所定のサンプリング周期で継続的に取得された各時刻の加速度のX軸成分、Y軸成分、及びZ軸成分を示す情報である。
例えば、ユーザが就寝中に義歯2をベース装置3の保管スペース34にセットする場合、取得部41は、毎晩、ユーザの一日分(すなわち、ユーザが起床して義歯2を装着してから就寝前に義歯2を取り外すまでの期間)の測定データを取得することができる。ここで、取得部41は、センサ20の記憶部23に保存された全ての測定データ(すなわち、一日分のデータ)を取得してもよいし、センサ部21がデータ取得モード時に取得した測定データのみ(すなわち、ユーザの摂食時の測定データ)を取得してもよい。例えば、取得部41は、ベース装置3を介して、データ取得モード時に取得された測定データのみを要求する制御信号をセンサ20(演算部22)に送信し、データ取得モード時に取得された測定データのみをセンサ20から取得してもよい。後者によれば、後述する解析部42による解析に必要なデータ(すなわち、ユーザの摂食時の測定データ)のみを効率的に取得できる。このように不要な測定データの通信を省略することにより、データ通信量を削減できると共に解析に必要な測定データを短時間で取得することが可能となる。
解析部42は、取得部41により取得された測定データに基づいて解析を行い、摂食時におけるユーザの摂食状況の解析結果を取得する。本実施形態では、解析結果は、摂食時にユーザが咀嚼(摂取)したと推定される食べ物の属性を示す属性情報を含む。食べ物の属性とは、食べ物の大きさ、硬さ、及び種類の少なくとも1つを含む。食べ物の種類とは、例えばアーモンド、ごはん(米)、いちご等の食品を特定する情報である。本実施形態では、解析結果は、ユーザが咀嚼したと推定される食べ物の大きさ、硬さ、及び種類の全てを含む属性情報と、摂食時におけるユーザの咀嚼筋活動量の推定値と、を含む。また、解析結果は、上記以外にも、例えば統計的手法等を用いて測定データを分析することにより得られる種々の情報(例えば、一口毎の咀嚼回数、一口毎の咬合力、一口毎の姿勢(摂食時の頭部の姿勢)等の情報)を含み得る。なお、推定される食べ物の属性情報は、少なくとも硬さを含む情報であってもよい。詳しくは後述するが、咀嚼対象物の第1の噛み動作時及び第2の噛み動作時の下顎の動きの加速度及び/又は角速度の検出により、咀嚼対象物の硬さ属性が好適に推定される。咀嚼対象物の硬さが推定できることにより、より硬い食べ物を摂取することを勧めることを含む食生活改善提案を行うこと等が容易となる。
解析部42は、解析モデル記憶部43に記憶された解析モデル(解析モデルM1)を用いることにより、測定データから上記解析結果の一部又は全部を取得する。本実施形態では、解析部42は、測定データからユーザの一口分の顎運動を示す時系列情報である咀嚼情報(図7及び図8に示される時系列データD1,D2)を抽出する。そして、解析部42は、一口分の咀嚼情報を解析モデルに入力し、解析モデルから出力される情報を上記解析結果の一部として取得する。本実施形態では、解析モデルから出力される情報は、一口分の顎運動によりユーザが咀嚼したと推定される食べ物の属性(本実施形態では、食べ物の大きさ、硬さ、及び種類)を示す属性情報と、一口分の咀嚼筋活動量の推定値と、を含む。このような解析モデルの詳細については後述する。
ここで、一口分の顎運動とは、ユーザが口腔内に一口分の食べ物を入れるために口を開き、当該食べ物を口に入れてから、次の食べ物を口腔内に入れるために再度口を開くまでの期間の顎運動である。或いは、通常、ユーザは、口腔内に一口分の食べ物を入れるために口を開き、当該食べ物を口に入れてから咀嚼し、嚥下を挟んで、次の食べ物を口腔内に入れるために再度口を開くので、一口分の顎運動を、口腔内に一口分の食べ物を入れるために口を開いてから、咀嚼が終了するまでの期間の顎運動としてもよい。すなわち、一口分の顎運動とは、一口分の食べ物を口腔内に入れた後、新たな食べ物を口に入れることなく当該一口分の食べ物を咀嚼する期間の顎運動である。一口分の顎運動を、一回の食事の間において、一口分の食べ物を咀嚼するために口を開いた後、次の食べ物を咀嚼するために口を開くまでの間の、当該口腔内に入れた一口分の食べ物の咀嚼開始から終了までの期間を少なくとも含む期間の顎運動と考えてもよい。一回の食事は通常一口分の食べ物の咀嚼が複数回繰り返されるので、上記のように定義することができる。咀嚼が終了してから顎運動が無くなった状態で一定時間が過ぎると咀嚼終了と判定するようにして、最後の一口分の顎運動の情報を処理できるようにしてもよい。また、一口分の顎運動を、一口分の食べ物を咀嚼するために口を開いた後、新たな食べ物を口に入れずに当該口腔内に入れた一口分の食べ物を嚥下するまでの咀嚼期間の顎運動と考えてもよい。
生成部44は、解析部42により取得された解析結果に基づいて、ユーザに対する摂食に関連する提案情報を生成する。提案情報は、例えば、食事内容に対するアドバイス(例えば咀嚼回数が少ない、ご飯を食べていない等の注意喚起)、最近の食事の傾向についての評価(標準的な食生活と比較した評価)、食生活をより良くするためのアドバイス(例えば、咀嚼回数を増やした方がよい、食事時刻を一定にした方がよい、食事時間を長くした方がよい、最近硬いものをあまり食べていないので、硬いものを摂取する頻度を増やした方がよい等の積極的な提案)等である。提案情報は、例えば、予め用意された複数のテンプレート(例えば提案内容に応じたテキストを含むデータ)から選択される一のテンプレートであってもよいし、いくつかのテンプレートを組み合わせたもの(すなわち、複合的な提案内容)であってもよい。食事内容に対するアドバイス又は食生活をより良くするためのアドバイスは、直接的により良い摂食行動をユーザに提案する摂食行動改善提案(直接的摂食行動改善提案)であるといえる。最近の食事の傾向についての評価も、評価が悪いときは良くなるように動機付ける作用があるので、間接的により良い摂食行動をユーザに促す摂食行動改善提案(間接的摂食行動改善提案)であるといえる。
生成部44は、提案モデル記憶部45に記憶された提案モデル(提案モデルM2)を用いることにより、解析部42により取得された解析結果の一部又は全部から上記提案情報の一部又は全部を生成(取得)する。一例として、生成部44は、所定期間に対応する解析結果を提案モデルに入力し、提案モデルから出力される情報を上述した提案情報の一部として取得する。ここで、所定期間とは、例えば一食分の食事期間、一日分の食事期間(すなわち、朝食、昼食、おやつ、及び夕食を含む期間)等である。このような提案モデルの詳細については後述する。
出力部46は、生成部44により生成された提案情報を出力する。本実施形態では、出力部46は、提案情報を表示部47に出力する。具体的には、出力部46は、提案情報の内容を画面に表示するための表示用データを生成し、当該表示用データを表示部47に出力する。
表示部47は、提案情報を表示する。表示部47は、例えばユーザ端末4が備えるディスプレイ装置により構成される。表示部47は、出力部46から取得した表示用データを表示することにより、提案情報の内容をユーザに提示する。これにより、ユーザは、義歯2のセンサ20により取得された測定データの解析結果に応じた提案内容を確認することができる。
以下に、取得部41、解析部42、解析モデル用教師データ記憶部52、解析モデル記憶部43、生成部44、及び出力部46の機械的構成例を述べる。取得部41は、測定データを取得するインターフェースからなる。測定データを加工する場合には、取得部41は、インターフェース及び回路からなる。当該回路は、プロセッサの一部又は全部によって構成されてもよい。解析部42は、解析を行うプログラムと、当該プログラムを実行する回路と、からなる。当該回路は、プロセッサの一部又は全部によって構成されてもよい。解析を行うプログラムはメモリに記憶される電気的信号からなる。解析モデル用教師データ記憶部52はメモリからなる。解析モデル記憶部43はメモリからなる。生成部44は、生成を行うプログラムと、当該プログラムを実行する回路と、からなる。当該回路は、プロセッサの一部又は全部によって構成されてもよい。生成を行うプログラムはメモリに記憶される電気的信号からなる。出力部46は、出力を行うプログラムと、当該プログラムを実行する回路と、からなる。当該回路は、プロセッサの一部又は全部によって構成されてもよい。出力を行うプログラムはメモリに記憶される電気的信号からなる。
[サーバの構成]
図1に示されるように、サーバ5は、上述した解析モデルを生成するための機能要素として、解析モデル用教師データ生成部51と、解析モデル用教師データ記憶部52と、解析モデル学習部53と、を備える。また、サーバ5は、上述した提案モデルを生成するための機能要素として、提案モデル用教師データ生成部54と、提案モデル用教師データ記憶部55と、提案モデル学習部56と、を備える。サーバ5は、プロセッサ(例えばCPU等)及びメモリ(例えば、ROM及びRAM等)等を備えるコンピュータ装置である。サーバ5は、例えばクラウド上に設けられた一以上の装置によって構成され得る。
解析モデル用教師データ生成部51は、解析モデルの学習のための教師データを生成する。解析モデル用教師データ記憶部52は、解析モデル用教師データ生成部51により生成された教師データを記憶する。解析モデル学習部53は、解析モデル用教師データ記憶部52に記憶された教師データを用いた機械学習を実行することにより、学習済みモデルである解析モデルを生成する。
図3は、解析モデルの概要を模式的に示す図である。図3に示されるように、まず、解析モデル用教師データ生成部51は、ユーザについて取得された過去の一口分の顎運動を示す時系列情報である咀嚼情報(第1情報)と当該過去の一口分の顎運動に対応するユーザの実際の食事内容の情報とを含む教師データを複数セット生成する。ユーザの実際の食事内容の情報は、当該過去の一口分の顎運動によりユーザが実際に咀嚼した食べ物の属性(第2情報)を含む情報である。本実施形態では、実際の食事内容の情報として、当該過去の一口分の顎運動に対応する咀嚼筋活動量も含まれる。この咀嚼筋活動量は、ユーザの実際の食事の際に測定されたものである。なお、実際の食事内容の情報は、上記以外にも、摂食動作時の咬合力、頭部の姿勢等を測定した結果を含んでもよい。
このような教師データは、例えば、ユーザに様々な食べ物を食べてもらい、その際の測定データから抽出される一口毎の咀嚼情報とユーザの実際の食事内容とを対応付けることによって得ることができる。ただし、教師データの取得方法は上記に限られない。教師データは、例えば、ユーザの口元の映像を記録することができるスマートグラスをユーザに装着してもらい、当該スマートグラスでユーザの実際の食事の様子をロギングすることにより取得されてもよい。具体的には、義歯2のセンサ20により取得された測定データから食事中における一口毎の咀嚼情報を取得すると共に、スマートグラスによって取得された映像からユーザの実際の食事内容を把握する。そして、一口毎に、スマートグラスによって取得された映像から把握されるユーザの実際の食事内容と咀嚼情報とを対応付けることにより、上述した教師データを得ることができる。このように生成された教師データは、解析モデル用教師データ記憶部52に蓄積される。
続いて、解析モデル学習部53は、解析モデル用教師データ記憶部52に蓄積された教師データを用いた機械学習を実行することにより、学習済みモデルである解析モデルM1を生成する。解析モデル学習部53が実行する機械学習の手法は、特定の手法に限られず、例えば、SVM、ニューラルネットワーク、ディープラーニング等の様々な手法を用いることができる。例えば、解析モデルM1がニューラルネットワークによって構成される場合には、ニューラルネットワークの中間層のパラメータが教師データによってチューニングされた学習済みモデルが解析モデルM1として得られる。
このような機械学習により得られる解析モデルM1は、ユーザの一口分の咀嚼情報を入力して、当該一口分の咀嚼情報に対応するユーザの食事内容の推定結果を出力するように構成された学習済みモデルである。ここで、ユーザの食事内容の推定結果は、一口分の食べ物の大きさ、硬さ、及び種類のような食べ物の属性の推定結果と、一口分の咀嚼筋活動量の推定値と、を含む。解析モデル学習部53により生成された解析モデルM1は、サーバ5からユーザ端末4へと提供され、ユーザ端末4の解析モデル記憶部43に記憶される。
提案モデル用教師データ生成部54は、提案モデルの学習のための教師データを生成する。提案モデル用教師データ記憶部55は、提案モデル用教師データ生成部54により生成された教師データを記憶する。提案モデル学習部56は、提案モデル用教師データ記憶部55に記憶された教師データを用いた機械学習を実行することにより、学習済みモデルである提案モデルを生成する。
図4は、提案モデルの概要を模式的に示す図である。図4に示されるように、まず、提案モデル用教師データ生成部54は、ユーザについて取得された過去の所定期間に対応する解析結果と、当該解析結果に応じた摂食に関する提案情報とを含む教師データを複数セット生成する。ここでは一例として、所定期間は一食分(例えば、朝食等)の食事期間である。また、所定期間に対応する解析結果は、所定期間にユーザが咀嚼した食べ物の属性情報(大きさ、硬さ、及び種類)、所定期間における咀嚼筋活動量、所定期間における咀嚼回数の総数、所定期間における咬合力、所定期間における摂食動作時の頭部の姿勢等を含み得る。咬合力は実測されてもよいが、例えば性別、年齢、体格等に基づく標準的な平均値から解析されてもよい。すなわち、提案モデルに入力される所定期間に対応する解析結果は、上述した解析モデルM1を用いて得られる情報(ユーザが咀嚼したと推定される食べ物の属性情報及び咀嚼筋活動量の推定値等)だけでなく、解析モデルM1を用いずに統計的手法等によって得られる情報を含み得る。なお、頭部の姿勢は、センサ部21の検出結果に基づいて測定されてもよい。
上記の教師データに含まれる摂食に関する提案情報は、上述した摂食行動改善提案であってもよい。或いは、提案情報は、例えば、上記過去の所定期間におけるユーザの健康状態(例えば、風邪、胃痛、頭痛等)に応じた提案情報であってもよい。提案モデル用教師データ生成部54により生成された教師データは、提案モデル用教師データ記憶部55に蓄積される。ユーザの健康状態は、ユーザの食事動作に反映されると考えられる。ユーザ毎に個人差があると考えられるものの、例えば、ユーザが風邪、胃痛等を患っているときは、食事量が普段よりも少なくなったり、摂取される食べ物に偏りが生じたり、咬合力が普段よりも小さくなったりする可能性がある。また、ユーザが頭痛を患っているときは、頭部の姿勢が普段よりも悪くなる(例えば斜めになっている)可能性もある。このように、ユーザの健康状態とユーザの食事動作との間には一定の相関関係があるといえる。このため、ユーザの健康状態に応じた提案情報(すなわち、ユーザの健康状態に基づいてユーザにとって有用と考えられる提案情報)とユーザの食事動作との間にも、一定の相関関係があるといえる。従って、上述した教師データに基づく機械学習によれば、所定期間に対応する解析結果を入力し、当該解析結果から推定されるユーザの健康状態に応じた提案情報を出力するように構成された提案モデルを生成することができる。提案の例としては、疾病が疑われる場合に、その原因をユーザに提示して適切なメニュー提案をすること、受診の勧告をすること等の治癒支援に関する提案等が考えられる。受診の勧告等は、摂食に関連して、ユーザをより良い健康状態に向かわせるための提案(健全化提案)である。
続いて、提案モデル学習部56は、提案モデル用教師データ記憶部55に蓄積された教師データを用いた機械学習を実行することにより、学習済みモデルである提案モデルM2を生成する。提案モデル学習部56が実行する機械学習の手法は、特定の手法に限られず、例えば、SVM、ニューラルネットワーク、ディープラーニング等の様々な手法を用いることができる。例えば、提案モデルM2がニューラルネットワークによって構成される場合には、ニューラルネットワークの中間層のパラメータが教師データによってチューニングされた学習済みモデルが提案モデルM2として得られる。
このような機械学習により得られる提案モデルM2は、ユーザの所定期間に対応する解析結果を入力して、当該解析結果に対応する提案情報を出力するように構成された学習済みモデルである。提案モデル学習部56により生成された提案モデルM2は、サーバ5からユーザ端末4へと提供され、ユーザ端末4の提案モデル記憶部45に記憶される。
以下に、解析モデル用教師データ生成部51、解析モデル学習部53、提案モデル用教師データ生成部54、提案モデル用教師データ記憶部55、及び提案モデル学習部56の機械的構成例を述べる。解析モデル用教師データ生成部51は、解析モデル用教師データ生成を行うプログラムと、当該プログラムを実行する回路と、からなる。当該回路は、プロセッサの一部又は全部によって構成されてもよい。解析モデル用教師データ生成を行うプログラムはメモリに記憶される電気的信号からなる。解析モデル学習部53は、解析モデル学習を行うプログラムと、当該プログラムを実行する回路と、からなる。当該回路は、プロセッサの一部又は全部によって構成されてもよい。解析モデル学習を行うプログラムはメモリに記憶される電気的信号からなる。提案モデル用教師データ生成部54は、提案モデル用教師データ生成を行うプログラムと、当該プログラムを実行する回路と、からなる。当該回路は、プロセッサの一部又は全部によって構成されてもよい。提案モデル用教師データ生成を行うプログラムはメモリに記憶される電気的信号からなる。提案モデル用教師データ記憶部55はメモリからなる。提案モデル学習部56は、提案モデル学習を行うプログラムと、当該プログラムを実行する回路と、からなる。当該回路は、プロセッサの一部又は全部によって構成されてもよい。提案モデル学習を行うプログラムはメモリに記憶される電気的信号からなる。
[解析部及び生成部の処理]
図5~図8を参照して、解析部42及び生成部44の処理の一例について説明する。図5は、摂食時の測定データ(取得部41により取得された測定データ)から提案情報を生成するまでの処理フローの一例を示す図である。図5に示されるように、本実施形態では、解析部42は、咀嚼区間特定モジュール42aと、フィルタリング・演算モジュール42bと、解析モジュール42cと、を含む。また、生成部44は、提案モジュール44aを含む。これらのモジュールは、各種処理を実行するためのプログラム等によって構成されている。図5においては、解析モジュール42c中に解析モデルM1があるように図示されている。これは、解析モジュール42c中のメモリに解析モデルM1が格納されている場合、解析モデル記憶部43中の解析モデルM1にアクセスしにいく場合、解析モデル記憶部43から解析モデルM1を解析モジュール42c中のメモリに取り込む場合等、何らかの形で解析モデルM1を利用する構成を示している。
[咀嚼区間特定モジュール]
まず、解析部42は、咀嚼区間特定モジュール42aにより、一定期間分(例えばユーザが起床後に義歯2を装着してから就寝前に義歯2を取り外すまでの一日分。ユーザの日常生活における、義歯2の装着から義歯2の取り外しまでの期間を義歯装着期間と呼んでもよい。)の測定データ(ここでは3軸加速度データ)から、一口毎の3軸加速度データを抽出する。具体的には、咀嚼区間特定モジュール42aは、測定データ中に含まれる一口毎の咀嚼区間(すなわち、ユーザが一口分の食べ物を口に入れて咀嚼動作を行っている区間)を特定する。一口毎の咀嚼区間中には、腔内で食べ物を粉砕するための複数回の噛み動作(咀嚼動作)が含まれる。そして、咀嚼区間特定モジュール42aは、特定された各咀嚼区間に対応する測定データを、一口分のデータとして抽出する。
図6は、咀嚼区間特定モジュール42aにより特定される咀嚼区間CSの一例を示す図である。図中のX、Y、Zは、それぞれX軸方向、Y軸方向、Z軸方向の加速度を示している。ここで、あるユーザの咀嚼時の顎運動のパターンは、食べ物の種類等に関わらずほぼ一定であることが知られている。このことを利用することにより、咀嚼区間特定モジュール42aは、例えば以下のようにして咀嚼区間を特定する。
まず、咀嚼区間特定モジュール42aは、予めユーザの咀嚼時の顎運動の周期(以下「顎運動周期」)を取得しておく。例えば、顎運動周期は、事前の予備測定(例えば、ユーザの咀嚼運動のビデオ観察等)に基づいて取得(算出)され得る。また、例えば、測定データ中においてユーザが咀嚼動作を行っていることが判明している区間がある場合には、当該区間において観測される周期的な運動成分を抽出することにより、当該運動成分の周期を上記顎運動周期として取得することができる。顎運動周期中には、実際に顎を動かす動作のほか、顎を動かさない維持動作が含まれることがある。以下では、顎運動周期中、顎を動かす動作を積極的顎運動と表し、顎を動かさない維持動作を消極的顎運動と表す。周期的な顎運動は、積極的顎運動からなる場合も、積極的顎運動と消極的顎運動との組合せからなる場合もあり得る。従って、前述の一口分の顎運動は、積極的顎運動からなる場合も、積極的顎運動と消極的顎運動との組合せからなる場合もあり得る。
続いて、咀嚼区間特定モジュール42aは、測定データの中から、顎運動周期と一致又は類似する周期での周期的な運動成分が観測される区間を、咀嚼区間として特定する。例えば、咀嚼区間特定モジュール42aは、当該周期的な運動成分が予め定められた閾値時間(例えば数秒)以上続く区間を検出すると、当該検出された区間を咀嚼区間として特定する。そして、このように特定された咀嚼区間に対応する測定データが、一口分のデータとして抽出される。このような咀嚼区間特定モジュール42aの処理により、図6に示されるように、測定データ(ここでは3軸加速度データ)から、咀嚼区間CSが特定される。このようにして、測定データに含まれるユーザの食事期間(例えば、朝食、昼食、おやつ、夕食等の期間)毎に、一口毎の咀嚼区間CSが特定される。つまり、測定データに含まれる食事期間毎に、複数の咀嚼区間CSが特定される。そして、各咀嚼区間CSに含まれる測定データが、一口毎の3軸加速度データとして抽出される。咀嚼区間特定モジュール42aは、ユーザの顎運動のうち、咀嚼のための顎運動を抽出し、咀嚼の開始期を特定してもよい。また、咀嚼区間特定モジュール42aは、咀嚼が終了してから顎運動が無くなった状態で一定時間が過ぎると咀嚼終了と判定してもよい。そして、咀嚼区間特定モジュール42aは、1回分の食事の開始と終了とを区切って、1回分の食事の間を食事区間とし、食事区間中の咀嚼区間CSを特定してもよい。
[フィルタリング・演算モジュール]
次に、解析部42は、フィルタリング・演算モジュール42bにより、一口分の3軸加速度データに含まれるノイズ成分及び重力加速度の影響を除去する。本実施形態では、フィルタリング・演算モジュール42bは、例えばローパスフィルタによって一口分の3軸加速度データに含まれる高周波成分のノイズ除去を行うと共に、一口分の3軸加速度データについてオフセット補正を行う。オフセット補正とは、加速度センサにより取得される重力加速度による信号成分を除去する処理である。このように解析に悪影響を及ぼすおそれのあるノイズ成分を除去又は低減させる処理を「悪影響成分対抗処理」と呼んでもよい。フィルタリング・演算モジュール42bを悪影響成分対抗処理を行う「悪影響成分対抗モジュール」と呼んでもよい。
図7に示されるように、フィルタリング・演算モジュール42bは、ノイズ除去及びオフセット補正がされた後の一口分の3軸加速度データに基づいて、加速度のノルムを示す時系列データD1を取得する。続いて、フィルタリング・演算モジュール42bは、加速度のノルムから重力加速度(1g)を減算し、減算結果を積分する。これにより、時系列データD2が得られる。時系列データD2は、ユーザの顎運動(下顎の角速度)に類似する波形データとなる。
時系列データD1,D2は、解析モデルM1に入力される一口分の咀嚼情報として用いられる。すなわち、解析部42は、上述した咀嚼区間特定モジュール42a及びフィルタリング・演算モジュール42bにより、取得部41により取得された測定データから、ユーザの一口分の顎運動を示す咀嚼情報である時系列データD1,D2を抽出する。上述したように、当該咀嚼情報(時系列データD1,D2)は、咀嚼区間特定モジュール42aにより特定された咀嚼区間CS毎に抽出される。
時系列データD1,D2から、ユーザの開口の大きさ(すなわち、食べ物を噛むために上顎に対して下顎を開く大きさ)及び咬合運動(噛み動作)の情報を把握することができる。例えば、時系列データD1,D2の波形の特徴から、ユーザが大きく口を開いた状態(すなわち、上顎に対して下顎を離した状態)から、口を閉じて食べ物を噛み砕いた後、嚥下がなされ、次の一口分の食べ物を口内に入れるために再度口を大きく開くまでの区間を抽出することができる。当該区間は、1回の噛み動作(本実施形態では、口を一旦開いてから食べ物を噛み、次の噛み動作のために再度口を開く動作)が行われる区間である。
図8は、時系列データD1,D2から抽出される1回目の噛み動作に対応する区間B1及び2回目の噛み動作に対応する区間B2を示す図である。このような1回目の噛み動作の咬合運動(区間B1におけるデータ)と2回目の噛み動作の咬合運動(区間B2におけるデータ)は、食べ物(咀嚼物)の種類(硬度、凝集性等から特定される食品の種類)、大きさ、及び咀嚼筋活動量との関連性が特に高い部分である。すなわち、区間B1,B2におけるデータは、食べ物の種類、大きさ、及び咀嚼筋活動量に応じた特徴が現れやすい部分である。
図9は、実際の人の咀嚼時の顎運動をシミュレーションしたロボットに義歯2を装着し、義歯2のセンサ20により得られたデータの一例を示している。ここでは、センサ20のセンサ部21は、3軸方向の加速度センサに加えて、下顎の基準ポイントを結ぶ軸の軸周りの下顎の回転運動の角速度を検出する角速度センサを備えている。このような角速度センサの具体例としては、下顎の左右下顎頭の運動論的顆頭点を結ぶ軸の軸周りの下顎の回転運動の角速度を検出する角速度センサが挙げられる。角速度センサとしては、3軸方向の角速度センサが好適に用いられる。ロボットを用いる場合は、いずれの箇所を基準ポイントにするか、設定しやすい。時系列データD3は、3軸方向の角速度センサにより取得されたデータから得られる角速度のノルムを積分することにより得られたデータである。すなわち、時系列データD3は、各時点における上顎に対する下顎の角度に対応するデータである。時系列データD4は、上述した時系列データD2に対応するデータ(すなわち、加速度のノルムから重力加速度を減算した結果を積分することにより得られたデータ)である。図9に示されるグラフにおいて、時系列データD3の値が小さい(下方にある)程、口の開き(上顎に対する下顎の開き)が大きいことを示している。なお、図5~図8の例では、解析部42は3軸加速度データのみから一口分の咀嚼情報(ここでは時系列データD1,D2)を取得したが、センサ部21が3軸方向の角速度センサを備える場合には、解析部42は上記時系列データD3に相当するデータを一口分の咀嚼情報として取得してもよい。
図9の(A)は、アーモンドを咀嚼した場合のシミュレーション結果を示すグラフである。図9の(B)は、一口分のごはん(米)を咀嚼した場合のシミュレーション結果を示すグラフである。図9の(C)は、いちごを咀嚼した場合のシミュレーション結果を示すグラフである。ここで、それぞれの食べ物の物理的特徴は以下の通りである。
・アーモンド:比較的小さく、比較的硬い。
・ごはん:比較的小さく、比較的柔らかい。
・いちご:比較的大きく、比較的柔らかい。
図9に示されるように、時系列データD3,D4の全体波形において、食べ物間の差(すなわち、上記の物理的特徴の違いに応じた差)が現れている。特に、時系列データD3,D4のうち1回目の噛み動作(区間B1)及び2回目の噛み動作(区間B2)に対応する部分において、食べ物間の差が顕著に現れている。例えば、アーモンドについての2回目の噛み動作において、いったん顎の動きが止まった後にさらにかみ砕く動作の特徴が現れている。また、粘着性の高いごはんについては、単位時間当たりの咀嚼回数(噛み動作の回数)が他の2つと比較して多い。また、いちごについては、2回目以降の噛み動作における開口の大きさが比較的小さい。これは、食塊を舌で動かしながら食べているためと推測される。
このように、ユーザの一口分の咀嚼情報には、咀嚼される食べ物の物理的特徴に応じた特徴が現れることがわかる。なお、咀嚼時の顎運動には個人差があると考えられるが、上述したようにユーザの過去の食事から得られた複数の教師データ(正解データ)を用いて解析モデルM1を学習させることにより、ユーザに特有の咀嚼時の顎運動の特徴に応じた解析モデルM1を得ることができると考えられる。
解析モデルM1に対する入力データには、1回目の噛み動作に対応する顎運動を示す時系列情報(第1咀嚼情報)と2回目の噛み動作に対応する顎運動を示す時系列情報(第2咀嚼情報)とが含まれてもよい。第1咀嚼情報は、区間B1に含まれるデータであり、第2咀嚼情報は、区間B2に含まれるデータである。すなわち、解析モデルM1に対して、区間B1に含まれるデータが明示的に1回目の噛み動作に対応するデータとして入力されると共に、区間B2に含まれるデータが明示的に2回目の噛み動作に対応するデータとして入力されてもよい。この場合、上述した解析モデル用教師データ生成部51は、ユーザについて取得された過去の一口分の咀嚼情報のうちから1回目の噛み動作に対応するデータ(すなわち、第1咀嚼情報に対応する情報)と2回目の噛み動作に対応するデータ(すなわち、第2咀嚼情報に対応する情報)とを抽出し、抽出されたこれらのデータを解析モデル用の教師データに含めればよい。このように、好適には、教師データに1回目の噛み動作に対応するデータと2回目の噛み動作に対応するデータとを少なくとも含める。この場合、解析モデルM1は、第1咀嚼情報及び第2咀嚼情報に対する解析結果(例えばユーザが咀嚼したと推定される食べ物の属性情報、一口分の咀嚼筋活動量の推定値等)を出力するように学習される。1回目の噛み動作に対応するデータを「第1咀嚼情報解析教育データ」、2回目の噛み動作に対応するデータを「第2咀嚼情報解析教育データ」と呼んでもよい。
[解析モジュール]
次に、解析部42は、解析モジュール42cにより、一口分の咀嚼情報から、上述した解析結果を取得する。解析部42は、解析モデル記憶部43に記憶された解析モデルM1に一口分の咀嚼情報を入力する。上述したように、解析モデルM1に入力される一口分の咀嚼情報には、咀嚼区間CSにおける時系列データD1,D2(以下「全体区間データ」)のみが含まれてもよいし、咀嚼区間CSのうち区間B1,B2に含まれる時系列データD1,D2(以下「特定区間データ」)のみが含まれてもよいし、全体区間データ及び特定区間データの両方が含まれてもよい。また、解析モデルM1に入力される一口分の咀嚼情報には、時系列データD1,D2のうちの一方のデータのみが含まれてもよい。また、上述したように、一口分の咀嚼情報に、上述した時系列データD3に対応する時系列データ(すなわち、下顎の角度を示すデータ)が含まれる場合には、解析モデルM1に入力される一口分の咀嚼情報に当該時系列データが含まれてもよい。なお、1回目の噛み動作と2回目の噛み動作に特に注目するのは、1回目の噛み動作と2回目の噛み動作とが咀嚼対象物の特徴を顕著に示すからであるが、他の任意の複数回数(n回目)までの噛み動作に注目してもよい。すなわち、1回目からn回目までの噛み動作に対応する咀嚼情報を、解析モデルM1に対する入力データとして用いてもよい。言うまでもないが、上記のn回は、咀嚼区間CS中の総噛み動作回数よりも小さい回数となるように設定される。
そして、解析部42は、解析モジュール42cにより、解析モデルM1から出力される、一口分の顎運動によりユーザが咀嚼したと推定される食べ物の属性(本実施形態では、食べ物の大きさ、硬さ、及び種類)を、上述した属性情報として取得する。すなわち、解析部42(解析モジュール42c)は、解析モデルM1を用いて属性の推定を実行する。解析モデルM1から出力される食べ物の属性情報を「推定属性情報」、咀嚼したと推定される食べ物の属性を「推定属性」と呼んでもよい。また、本実施形態のように、解析モデルM1は、上記食べ物の属性と共に、一口分の咀嚼筋活動量の推定値を出力してもよい。また、解析モデルM1は、上記以外の情報を更に出力するように構成されていてもよい。
また、解析部42は、解析モデルM1を用いずに得られる情報を、解析結果の一部として取得してもよい。解析モデルM1を用いずに得られる情報は、例えば、一口毎の咬合力、一口毎の姿勢(摂食動作時におけるユーザの頭部の姿勢)等の情報である。解析モデルM1を用いずに情報を得る方法としては、例えば統計的手法等を用いて測定データを分析すること、センサ部21を当該情報を取得するために用いること等がある。
例えば、摂食動作時におけるユーザの頭部の姿勢は、3軸加速度データから導出することができる。具体的には、解析部42は、予め以下の手順によって、3軸加速度データからユーザの頭部の姿勢(顔の向き)を推定するための推定式を導出しておく。
1.互いに直交する第1方向、第2方向、及び第3方向の各々を向くように義歯2を静止させる。
2.第1方向を向くように義歯2を静止させたときにセンサ部21の加速度センサにより測定された3軸方向の第1加速度データ、第2方向を向くように義歯2を静止させたときにセンサ部21の加速度センサにより測定された3軸方向の第2加速度データ、及び第3方向を向くように義歯2を静止させたときにセンサ部21の加速度センサにより測定された3軸方向の第3加速度データを取得する。
3.3通りの義歯2の向き(第1方向、第2方向、第3方向)とそれぞれの向きに対応する3軸加速度データ(第1加速度データ、第2加速度データ、第3加速度データ)との関係に基づいて、ユーザの頭部(下顎を含む)が静止した任意の状態に対応する3軸加速度データからユーザの頭部の姿勢を推定するための計算式を導出する。
そして、解析部42は、時系列データD1,D2のうちユーザが瞬間的に静止している状態(例えば、上の歯と下の歯とをかみ合わせた咬合時)の3軸加速度データと上記計算式とに基づいて、ユーザの頭部の姿勢を推定(算出)することができる。
解析部42は、所定期間(本実施形態では、一食分の食時間)に含まれる全ての咀嚼情報に対して、上述したように、解析モデルM1及び/又は統計的手法等を用いることにより、所定期間に対応する解析結果(すなわち、所定期間に含まれる各咀嚼区間CSに対応する解析結果を集約した情報)を取得することができる。
[提案モジュール]
次に、生成部44は、提案モジュール44aにより、所定期間に対応する解析結果の一部又は全部を提案モデルM2に入力する。これにより、生成部44は、提案モデルM2から出力される情報を提案情報として取得する。また、生成部44は、提案モデルM2を用いずに、上記所定期間に対応する解析結果を統計的手法等を用いて分析することにより、一食分の量、栄養バランス、咀嚼回数、食事時間、咬合力等の情報を取得し、取得された情報と予め定められた提案生成ルールとに基づいて、提案情報を生成してもよい。例えば、生成部44は、一食分の量について予め好ましい範囲を定めておき、上記解析結果から得られた一食分の量(推定値)が当該範囲外である場合に、一食分の量を当該範囲に収めるように促す提案情報を生成してもよい。例えば、生成部44は、一食分の量(推定値)が当該範囲よりも少ない場合には、予め用意されたテンプレート情報のうちから「もう少し食事量を増やしましょう。」といったテキストデータを抽出し、当該テキストデータを提案情報として生成してもよい。上述した提案生成ルールは、このようなルールを予め規定した情報である。なお、提案情報は、音声データであってもよい。例えば、出力部46としてスピーカーのような音発生器が設けられる場合、提案情報は、音声データとして出力されてもよい。
また、生成部44により生成される提案情報は、上述した内容の情報に加えて、解析結果に対する統計的処理等によって把握された情報、過去のユーザの食事(解析結果から把握された情報)の履歴等、ユーザにとって有用と考えられる種々の情報を含んでもよい。下表に、生成部44により生成される提案情報(表示項目)の一例を示す。
Figure 0007269585000001
[食生活推定装置の処理フロー]
図10は、食生活推定装置1の処理フローの一例を示す図である。図10に示されるように、まず、義歯2がユーザによって装着される(ステップS1)。そして、ユーザが、義歯2を装着したまま日常生活を実施する(ステップS2)。日常生活には、ユーザが食べ物を摂取する食事期間が含まれる。これにより、義歯2のセンサ20において、食事期間におけるユーザの顎運動情報(本実施形態では、センサ部21により取得される3軸加速度データ及び/又は3軸角速度データ)が測定データとして取得及び保存される。ユーザは、例えば就寝前等のタイミングで、義歯2をユーザの下顎から取り外して、ベース装置3の保管スペース34に入れる(ステップS3)。
続いて、ベース装置3は、通信部32により義歯2のセンサ20から測定データを取得する。また、ベース装置3は、無線充電用アンテナ31によりセンサ20を充電すると共に、洗浄部33により義歯2を洗浄する(ステップS4)。ユーザは、ステップS4の処理が完了した後(例えば、起床後等のタイミング)に、義歯2をベース装置3から取り出し(ステップS5)、再度義歯2を装着する(ステップS1)。一方、ベース装置3は、ステップS4において保管スペース34に義歯2がセットされた状態で取得した測定データを、ユーザ端末4に送信する(ステップS6)。
続いて、ユーザ端末4において、取得部41が、ベース装置3から測定データを取得する(ステップS7)。続いて、解析部42が、測定データを解析する(ステップS8)。具体的には、図5に示されるように、解析部42は、咀嚼区間特定モジュール42aにより一口毎の咀嚼区間CS(図6参照)を特定し、フィルタリング・演算モジュール42bにより咀嚼区間CS毎にノイズ除去等を行う。これにより、一口毎の咀嚼情報(本実施形態では一例として、時系列データD1,D2)が得られる。そして、解析部42は、解析モジュール42cにより、一口毎の咀嚼情報から一口毎の解析結果を取得する。解析結果は、解析モデルM1を用いて得られる情報を含んでいるが、解析モデルM1を用いずに得られる情報を更に含んでもよい。本実施形態では、解析モデルM1を用いて得られる情報は、一口毎のユーザが咀嚼したと推定される食べ物の属性と一口毎の咀嚼筋活動量の推定値とを含む。解析モデルM1を用いずに得られる情報は、一口毎の咀嚼情報に対する統計的手法等により得られる情報であり、例えば、一口毎の咀嚼回数、一口毎の咬合力、一口毎の姿勢(摂食時の頭部の姿勢)等の情報である。
続いて、生成部44が、解析部42による解析結果に基づいて、上述したような提案情報を生成する(ステップS9)。続いて、出力部46が、生成部44により生成された提案情報を出力する(ステップS10)。本実施形態では、出力部46は、表示用データを表示部47に出力する。表示部47は、出力部46から取得した表示用データ(提案情報)を表示する(ステップS11)。これにより、提案情報がユーザに提示される。
[作用効果]
食生活推定装置1(本実施形態では、特にユーザ端末4)は、解析部42を備える。このようなユーザ端末4では、機械学習により生成された解析モデルM1を用いることにより、ユーザが咀嚼したと推定される食べ物の属性が取得される。また、解析モデルM1は、解析対象のユーザ自身の過去の食事から得られる教師データを用いて機械学習されている。従って、ユーザ端末4によれば、ユーザの摂食時における顎運動の特徴を学習した解析モデルM1を用いて、簡易かつ精度良く解析結果(ユーザが咀嚼したと推定される食べ物の属性)を取得することができる。
また、上述したように、解析モデルM1は、ユーザについて取得された過去の一口分の顎運動を示す時系列情報である咀嚼情報(第1情報)のうち1回目の噛み動作に対応する顎運動を示す時系列情報である第1咀嚼情報(本実施形態では、図8における区間B1におけるデータ)と、上記第1情報のうち2回目の噛み動作に対応する顎運動を示す時系列情報である第2咀嚼情報(本実施形態では、図8における区間B2におけるデータ)と、当該過去の一口分の顎運動によりユーザが咀嚼した食べ物の属性を示す情報(第2情報)とを含む教師データを用いて機械学習された学習済みモデルであってもよい。解析部42(解析モジュール42c)は、咀嚼情報から第1咀嚼情報に対応する情報と第2咀嚼情報に対応する情報とを抽出し、抽出された情報を解析モデルM1に入力することにより、一口分の顎運動によりユーザが咀嚼したと推定される食べ物の属性を取得してもよい。特に1回目の噛み動作及び2回目の噛み動作に対応する顎運動には、咀嚼された食べ物の属性に応じた特徴が現れやすい。従って、上記構成によれば、1回目の噛み動作及び2回目の噛み動作に対応する顎運動を特徴量として用いて機械学習された解析モデルM1を用いることにより、ユーザが咀嚼したと推定される食べ物の属性をより精度良く取得することができる。
また、ユーザ端末4は、ユーザの下顎に装着される義歯に設けられたセンサによって検出された3軸方向の加速度及び3軸方向の角速度の少なくとも一方の時間変化を示す顎運動情報を取得する取得部41を備える。そして、解析部42(咀嚼区間特定モジュール42a及びフィルタリング・演算モジュール42b)は、当該顎運動情報に基づいて、咀嚼情報を取得する。この構成によれば、日常的にユーザの下顎に装着される義歯2に設けられたセンサ20により、咀嚼情報の基となる顎運動情報を取得することができる。また、ユーザが摂食時を含む日常生活時に装着する義歯2に設けられたセンサ20を利用することにより、ユーザに過度の負担をかけることなく、顎運動情報を適切に取得することができる。
また、ユーザ端末4は、取得部41と、解析部42と、生成部44と、出力部46と、を備える。また、食生活推定装置1は、義歯2と、センサ20により取得された測定データを解析するユーザ端末4と、を備える。このような食生活推定装置1及びユーザ端末4では、ユーザの摂食時の顎運動の解析結果から、ユーザに対する摂食に関連する提案情報が生成及び出力される。これにより、解析結果に基づく摂食関連提案をユーザ等に適切に提示することが可能となる。従って、食生活推定装置1及びユーザ端末4によれば、ユーザに有益な情報を適切に提供することができる。
また、本実施形態では、測定データの解析、提案情報の生成、及び提案情報の表示がローカル(すなわち、ユーザ端末4上)で行われるため、ユーザに対してリアルタイムでのフィードバック(提案情報の提示)が可能となる。また、例えば測定データを解析するためのサーバ(例えばクラウドサービスを提供するデータセンター等に設置された装置)に測定データを送信したり、当該サーバに解析処理を実行させたりする必要がない。このため、通信負荷及び上記サーバの処理負荷等を抑えることができる。
また、測定データ(顎運動情報)は、ユーザの下顎に装着される義歯2に設けられたセンサ20によって検出された3軸方向の加速度及び3軸方向の角速度の少なくとも一方の時間変化を示す情報を含んでいる。本実施形態では、測定データは、3軸方向の加速度の時間変化を示す情報(3軸加速度データ)である。この構成によれば、ユーザが摂食時を含む日常生活時に装着する義歯2に設けられたセンサ20を利用することにより、ユーザに過度の負担をかけることなく、センサ20により検出された加速度及び/又は角速度の時間変化を示す情報を測定データとして適切に取得することができる。例えば、従来、咀嚼筋活動量の測定は、ユーザの腔内ではなく外側の皮膚に電極を取り付けて測定されているが、本実施形態では、義歯2に設けられたセンサ20を利用することにより、このような電極の取り付けを不要にすることができる。
また、測定データは、ユーザの摂食時の顎運動の時系列情報であり、解析部42による解析結果は、摂食時にユーザが咀嚼したと推定される食べ物の属性を示す属性情報を含んでいる。本実施形態では、食べ物の属性は、食べ物の大きさ、硬さ、及び種類である。これにより、ユーザが摂取したと推定される食べ物の属性に応じた提案情報をユーザに提示することが可能となる。
また、解析部42は、測定データから、一口分の顎運動を示す時系列情報である咀嚼情報(本実施形態では時系列データD1,D2)を抽出する。そして、解析部42は、機械学習により生成された解析モデルM1に咀嚼情報を入力し、解析モデルM1から出力される、一口分の顎運動によりユーザが咀嚼したと推定される食べ物の属性を、属性情報として取得する。解析モデルM1は、ユーザについて取得された過去の一口分の顎運動を示す時系列情報である咀嚼情報(第1情報)と当該過去の一口分の顎運動によりユーザが咀嚼した食べ物の属性を示す情報(第2情報)とを含む教師データを用いて機械学習された学習済みモデルである。上記構成により、ユーザに特有の摂食時における顎運動の特徴を学習した解析モデルM1を用いて、簡易かつ精度良く解析結果(ユーザが咀嚼したと推定される食べ物の属性)を取得することができる。なお、本実施形態では一例として、解析モデルM1は、上記食べ物の属性に加えて、一口分の咀嚼筋活動量の推定値も出力するように構成されている。すなわち、解析モデルM1は、上記過去の一口分の咀嚼筋活動量を更に含む教師データを用いて機械学習された学習済みモデルである。つまり、解析モデルM1の出力対象及び解析部42の取得対象は、食べ物の属性情報のみでもよいが、食べ物の属性情報と上述の一口分の咀嚼筋活動量の推定値とを更に含んでもよい。解析部42が一口分の咀嚼筋活動量の推定値も取得する場合、教師データは第2情報として一口分の咀嚼筋活動量も含むように構成される。
また、ユーザ端末4は、出力部46により出力された提案情報を表示する表示部47を備えている。表示部47に提案情報(例えば、上記表1に示した表示項目に対応する情報の一部又は全部)を表示させることにより、解析結果に応じた提案内容を適切にユーザに提示することができる。
また、食生活推定装置1は、ユーザの下顎から取り外された義歯2を保管するベース装置3を備える。そして、ベース装置3は、センサ20と通信することによりセンサ20から測定データを取得すると共に、ユーザ端末4と通信することによりユーザ端末4に当該測定データを送信する通信部32を有する。上記構成によれば、ユーザは義歯2をベース装置3にセットするだけで、測定データがベース装置3からユーザ端末4へと自動的に送信される。これにより、義歯2に設けられたセンサ20からの測定データの取得(吸い上げ)に関して、ユーザの利便性を高めることができる。
また、ベース装置3は、センサ20を充電する無線充電用アンテナ31を更に有する。上記構成によれば、通信部32による通信と共に無線充電用アンテナ31による充電を実施することができる。これにより、通信部32による通信動作中に消費されるセンサの電力を適切に補うことができる。
また、ベース装置3は、義歯2を洗浄する洗浄部33を更に有する。上記構成によれば、ユーザは義歯2をベース装置3にセットするだけで、ユーザ端末4への測定データの送信と義歯2の洗浄とを合わせて行うことができる。これにより、ユーザの利便性を高めることができる。
[変形例]
以上、本開示の一実施形態について説明したが、本開示は、上述した実施形態に限定されるものではない。
例えば、上記実施形態では、義歯2を装着するユーザの端末(ユーザ端末4)が食生活推定装置として構成されたが、食生活推定装置は、ユーザ端末4とは異なる端末上に構成されてもよい。例えば、上述した食生活推定装置(ユーザ端末4)は、ユーザの主治医の端末(例えば病院内の端末等)であってもよい。この場合、ベース装置3は、病院内に設けられてもよい。この場合、ユーザが定期的に病院を受診する際に、義歯2をベース装置3にセットすることにより、主治医の端末に測定データを吸い上げることができる。また、診察時において、主治医は、端末上で測定データの解析結果と解析結果に応じた提案情報とを参照しながら、ユーザに摂食に関するアドバイス等を行うことができる。
また、図11に示される変形例に係る食生活推定装置1Aのように、上述した食生活推定装置(特にユーザ端末4)の機能はサーバ上に構成されてもよい。食生活推定装置1Aは、ユーザ端末4及びサーバ5の代わりにユーザ端末4A及びサーバ5Aを備える点で、食生活推定装置1と相違している。具体的には、食生活推定装置1Aでは、ユーザ端末4が備えていた機能の一部(取得部41、解析部42、解析モデル記憶部43、生成部44、及び提案モデル記憶部45)をサーバ5Aが備えている。サーバ5Aは、出力部46Aを備えている。ユーザ端末4Aは、表示部47と同様の表示部47Aを備えている。
ユーザ端末4Aは、ベース装置3から測定データを取得すると、当該測定データに対する解析処理を自装置では実施することなく、当該測定データをサーバ5Aに送信するように構成されている。サーバ5Aは、上述したユーザ端末4と同様に、測定データの解析と、解析結果に基づく提案情報の生成と、を実行するように構成されている。
出力部46Aは、義歯2を装着するユーザが所有するユーザ端末4Aに提案情報を通知してもよい。これにより、ユーザ端末4Aの表示部47Aに、出力部46Aから通知された提案情報が表示される。上記構成によれば、本変形例のように食生活推定装置が例えばクラウド上のサーバ5Aとして構成される場合において、提案情報を適切にユーザに提示することができる。
また、出力部46Aは、義歯2を装着するユーザとは異なる他ユーザが所有する端末であって予め通知先として設定された端末にも提案情報を通知してもよい。例えば、サーバ5Aは、ユーザ毎に、当該ユーザに関連付けられる他ユーザの連絡先(例えばメールアドレス等)を予め登録及び保存しておけばよい。本変形例では、端末4B及び端末4Cが通知先として設定されている。端末4Bは、ユーザの家族又は近親者である他ユーザが所有する端末である。端末4Cは、ユーザの主治医である他ユーザが所有する端末である。これにより、端末4Bの表示部47B及び端末4Cの表示部47Cの各々に、出力部46Aから通知された提案情報が表示される。上記構成によれば、他ユーザがユーザの摂食状況を把握することができる。これにより、ユーザの家族・近親者、主治医等によるユーザの摂食状況の見守りを実現することができる。
なお、ユーザが義歯2を長期間付けたままにしてしまうことも考えられる。この場合、サーバ5Aによる測定データの解析及び提案情報の生成が実行されず、ユーザの家族・近親者、主治医等への提案情報の通知が行われないため、上記の見守りが適切に実現されない。そこで、例えばサーバ5A(例えば出力部46A)は、あるユーザについての提案情報が生成されない状態が予め定められた期間以上継続した場合に、当該ユーザに対して予め関連付けられた他ユーザの端末4B,4Cにその旨を通知してもよい。また、このような通知は、ベース装置3又はユーザ端末4Aによって行われてもよい。例えば、ベース装置3は、義歯2がベース装置3の保管スペース34に前回セットされて通信、充電、及び洗浄等が実施されてから、義歯2がベース装置3の保管スペース34にセットされない状態が予め定められた期間以上経過した場合に、他ユーザの端末4B,4Cにその旨を通知してもよい。同様に、ユーザ端末4Aは、ベース装置3から測定データを取得できない状態が予め定められた期間以上継続した場合に、他ユーザの端末4B,4Cにその旨を通知してもよい。また、ユーザ端末4Aは、ユーザに対して義歯2をベース装置3にセットすることを促すための通知情報を、表示部47Aに表示してもよい。
また、上記実施形態では、解析モデルM1はユーザ毎に用意された。すなわち、解析モデルM1は、解析対象となるユーザが過去に行った摂食動作から得られた教師データのみを基づいて生成された。しかし、解析モデルM1は、不特定のユーザ(義歯2と同様にセンサが設けられた義歯を装着したユーザ)について取得された過去の一口分の顎運動を示す咀嚼情報(第1情報)と過去の一口分の顎運動により当該不特定のユーザが咀嚼した食べ物の属性(第2情報)とを含む教師データを用いて機械学習された学習済みモデルであってもよい。つまり、解析モデルM1の学習のために用いられる教師データは、不特定の複数のユーザが過去に行った摂食動作から得られたものであってもよい。不特定の複数のユーザが過去に行った摂食動作から教師データを得た場合、あるユーザが解析対象になったときに、第1情報中、最も当該ユーザにあてはまる第2情報に対応した解析結果を出力するように学習されてもよい。この場合、解析モデルM1を複数のユーザ間で共通化できる。これにより、解析モデルM1をユーザ毎に作成及び管理する必要がなくなるという利点がある。また、上記実施形態のように解析モデルM1をユーザ毎に用意する場合と比較して、解析モデルM1のための教師データを収集し易いという利点もある。
更に、図12に示されるように、解析モデルM1は、不特定のユーザの属性を示すユーザプロファイルを更に含む教師データを用いて機械学習された学習済みモデルであってもよい。この場合、解析部42は、解析モデルM1に対してユーザ(解析対象となるユーザ)の属性を示すユーザプロファイル(プロファイル情報)を更に入力するように構成される。ここで、ユーザの属性は、例えば、性別、年齢(又は年代)、健康状態等である。ユーザの摂食時の顎運動は、このようなユーザの属性によって異なると考えられる。従って、上記構成によれば、ユーザの属性を特徴量に含めることにより、ユーザが咀嚼したと推定される食べ物の属性をより精度良く取得することができる。
また、解析結果は、摂食時においてユーザの口を開く大きさを示す開口量を含んでもよい。このような開口量は、例えば上述した咀嚼情報(図9の時系列データD3)の波形から把握することができる。そして、生成部44は、開口量に基づいて、顎関節症の診断要否に関する情報を含む提案情報を生成してもよい。例えば、生成部44は、所定期間(例えば、一日分)に対応する解析結果から、当該所定期間におけるユーザの開口量の最大値(或いは平均値等)を取得し、当該最大値と予め定められた閾値とを比較する。そして、生成部44は、当該最大値が閾値よりも小さい場合に、顎関節症の疑いがあると判断し、顎関節症の診断を促す提案情報を生成してもよい。このような構成によれば、ユーザが摂食時に口を開く大きさに基づいて、顎関節症の疑いがあるユーザ等に対して早期の診断を促す提案を行うことができる。
また、生成部44は、予めユーザの普段の食事量に関する情報を保持しておき、所定期間に対応する解析結果(主に一口毎に推定される食べ物の大きさ)から当該所定期間におけるユーザの総食事量を算出し、当該総食事量と上記普段の食事量とを比較し、比較結果に応じた提案情報を生成してもよい。例えば、生成部44は、上記総食事量が上記普段の食事量よりも予め定められた閾値以上少ないときには、胃又は腸の疾患の疑いがあると判断して、胃又は腸の調子を確認するように促す提案情報を生成してもよい。或いは、生成部44は、上記総食事量が上記普段の食事量よりも予め定められた閾値以上多いときには、食べ過ぎと判断して、食事量を抑えるように促す提案情報を生成してもよい。
また、例えばユーザが総義歯を装着する場合等には、上顎に装着される義歯にも、上述した下顎に装着される義歯2のセンサ20と同様のセンサが設けられてもよい。そして、取得部41により取得される測定データは、センサ20によって検出される測定データ(以下「下顎測定データ」)と共に、ユーザの上顎に装着される義歯に設けられたセンサによって検出される、3軸方向の加速度及び3軸方向の角速度の少なくとも一方の時間変化を示す情報(以下「上顎測定データ」)を含んでもよい。例えば、ユーザが車、電車等の乗り物に乗車している際に、当該乗り物からの振動成分がセンサ20により検出されてしまい、ユーザの摂食時の顎運動であると誤検出されるおそれがある。また、ユーザが乗り物に乗車している際に食事を行った場合には、ユーザの摂食時の顎運動に乗り物からの振動成分がノイズとして混入してしまうことになる。一方、上記構成によれば、解析部42は、ユーザの下顎に装着される義歯2に設けられたセンサ20の検出結果だけでなく、ユーザの上顎に装着される義歯に設けられたセンサの検出結果を利用して解析を行うことができる。具体的には、咀嚼区間特定モジュール42aは、下顎測定データだけでなく上顎測定データを用いることにより、下顎測定データのうちユーザの顎運動を示す運動成分のみを咀嚼情報として取得(抽出)することができる。例えば、咀嚼区間特定モジュール42aは、上顎のセンサの検出結果(すなわち、上顎測定データ)に対する下顎のセンサの検出結果(すなわち、下顎測定データ)の相対値を得ることにより、乗り物からの振動成分(すなわち、上顎のセンサ及び下顎のセンサの両方に共通して含まれる成分)をキャンセルすることができる。その結果、上述した問題を解消することができる。
また、上記実施形態では、一実施形態の食生活推定装置としてのユーザ端末4又はサーバ5Aは、測定データを解析することによりユーザが咀嚼したと推定される食べ物の属性を解析結果として取得する解析機能を備えると共に、当該解析結果に基づく提案を行う提案機能を備えていた。しかし、食生活推定装置としてのユーザ端末4又はサーバ5Aにおいて、上記提案機能(すなわち、生成部44、提案モデル記憶部45、出力部46、及び表示部47等)は必須ではない。すなわち、上記実施形態で説明した提案機能を実行する部分は、ユーザ端末4又はサーバ5Aから別の装置として切り出されてもよい。
また、図13に示される変形例に係る食生活推定装置1Bのように、食生活推定装置1Bは、図1に示されるユーザ端末4にサーバ5の機能を付加したユーザ用デバイス4Dを備えることにより、サーバを省略してもよい。ユーザ用デバイス4Dは、例えばユーザの自宅等に独立して設けられてもよい。或いは、ユーザ用デバイス4Dは、図11に示される端末4Bと同様の端末4E、図11に示される端末4Cと同様の端末4F等に対して、電話線及びインターネット回線等の任意の通信ネットワークを経由して情報(例えば、出力部46により出力される情報)を通知可能とされてもよい。ユーザ用デバイス4D、端末4E、及び端末4Fが備える各機能は、上述したユーザ端末4、サーバ5、端末4B、及び端末4Cが備える各機能と同様であるため、詳細な説明を省略する。ユーザ用デバイス4Dが端末4E及び端末4Fと接続される場合、提案情報及び警告等をユーザの関係者(例えば、家族、主治医等)に適切に通知することが可能となる。特に、ユーザの関係者がユーザと別居している場合において、ユーザに生じた不具合の早期発見及び早期対応が可能となる。
1,1A,1B…食生活推定装置、2…義歯、4…ユーザ端末、5A…サーバ、20…センサ、41…取得部、42…解析部、42a…咀嚼区間特定モジュール、42b…フィルタリング・演算モジュール、42c…解析モジュール、M1…解析モデル。

Claims (11)

  1. ユーザの摂食時の一口分の顎運動を示す時系列情報である咀嚼情報を取得し、機械学習により生成された解析モデルに前記咀嚼情報を入力し、前記解析モデルから出力される、前記一口分の顎運動により前記ユーザが咀嚼したと推定される食べ物の属性を取得する解析部を備え、
    前記解析モデルは、前記ユーザについて取得された過去の一口分の顎運動を示す時系列情報である第1情報のうち1回目の噛み動作に対応する顎運動を示す時系列情報である第1咀嚼情報に対応するデータと、前記第1情報のうち2回目の噛み動作に対応する顎運動を示す時系列情報である第2咀嚼情報に対応するデータ前記過去の一口分の顎運動により前記ユーザが咀嚼した食べ物の属性を示す第2情報とを含む教師データを用いて機械学習された学習済みモデルであり、
    前記解析部は、前記咀嚼情報から前記第1咀嚼情報と前記第2咀嚼情報とを抽出し、抽出された情報を前記解析モデルに入力することにより、前記一口分の顎運動により前記ユーザが咀嚼したと推定される食べ物の属性を取得する、食生活推定装置。
  2. ユーザの摂食時の一口分の顎運動を示す時系列情報である咀嚼情報を取得し、機械学習により生成された解析モデルに前記咀嚼情報を入力し、前記解析モデルから出力される、前記一口分の顎運動により前記ユーザが咀嚼したと推定される食べ物の属性を取得する解析部を備え、
    前記解析モデルは、不特定のユーザについて取得された過去の一口分の顎運動を示す時系列情報である第1情報のうち1回目の噛み動作に対応する顎運動を示す時系列情報である第1咀嚼情報に対応するデータと、前記第1情報のうち2回目の噛み動作に対応する顎運動を示す時系列情報である第2咀嚼情報に対応するデータ前記過去の一口分の顎運動により前記不特定のユーザが咀嚼した食べ物の属性を示す第2情報とを含む教師データを用いて機械学習された学習済みモデルであり、
    前記解析部は、前記咀嚼情報から前記第1咀嚼情報と前記第2咀嚼情報とを抽出し、抽出された情報を前記解析モデルに入力することにより、前記一口分の顎運動により前記ユーザが咀嚼したと推定される食べ物の属性を取得する、食生活推定装置。
  3. 前記解析部は、前記解析モデルに対して前記ユーザの属性を示すプロファイル情報を更に入力し、
    前記解析モデルは、前記不特定のユーザのプロファイル情報を更に含む前記教師データを用いて機械学習された学習済みモデルである、請求項2に記載の食生活推定装置。
  4. 前記解析モデルは、前記第1情報のうち1回目からn回目(n≧3)までの各々の噛み動作に対応する前記第1咀嚼情報から第n咀嚼情報までのデータを含む前記教師データを用いて機械学習された学習済みモデルであり、
    前記解析部は、前記咀嚼情報から、前記第1咀嚼情報から前記第n咀嚼情報までの各々の情報を抽出し、抽出された情報を前記解析モデルに入力することにより、前記一口分の顎運動により前記ユーザが咀嚼したと推定される食べ物の属性を取得する、請求項1~3のいずれか一項に記載の食生活推定装置。
  5. 前記ユーザの下顎に装着される義歯に設けられたセンサによって検出された顎運動情報を取得する取得部を更に備え、
    前記解析部は、前記顎運動情報に基づいて、前記咀嚼情報を取得する、請求項1~4のいずれか一項に記載の食生活推定装置。
  6. 前記顎運動情報は、前記センサによって検出される3軸方向の加速度及び3軸方向の角速度の少なくとも一方の時間変化を示す情報を含む、請求項5に記載の食生活推定装置。
  7. 前記顎運動情報は、前記ユーザの上顎に装着される義歯に設けられたセンサによって検出される、3軸方向の加速度及び3軸方向の角速度の少なくとも一方の時間変化を示す情報を更に含む、請求項6に記載の食生活推定装置。
  8. 前記食べ物の属性は、食べ物の大きさ、硬さ、及び種類の少なくとも1つを含む、請求項1~7のいずれか一項に記載の食生活推定装置。
  9. 前記ユーザの下顎から取り外された前記義歯を保管するベース装置を更に備え、
    前記ベース装置は、前記センサと通信することにより前記センサから前記顎運動情報を取得する、請求項5に記載の食生活推定装置。
  10. 前記ベース装置は、前記センサを充電する充電部を更に有する、請求項9に記載の食生活推定装置。
  11. 前記ベース装置は、前記義歯を洗浄する洗浄部を更に有する、請求項9又は10に記載の食生活推定装置。
JP2019234444A 2019-12-25 2019-12-25 食生活推定装置 Active JP7269585B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2019234444A JP7269585B2 (ja) 2019-12-25 2019-12-25 食生活推定装置
PCT/JP2020/046769 WO2021131906A1 (ja) 2019-12-25 2020-12-15 食生活推定装置
EP20906578.8A EP4084006A4 (en) 2019-12-25 2020-12-15 DEVICE FOR ESTIMATING FOOD HABITS
CN202080083571.XA CN114746949A (zh) 2019-12-25 2020-12-15 饮食生活推定装置
US17/846,013 US20220323189A1 (en) 2019-12-25 2022-06-22 Jaw movement analysis system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019234444A JP7269585B2 (ja) 2019-12-25 2019-12-25 食生活推定装置

Publications (2)

Publication Number Publication Date
JP2021103434A JP2021103434A (ja) 2021-07-15
JP7269585B2 true JP7269585B2 (ja) 2023-05-09

Family

ID=76576078

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019234444A Active JP7269585B2 (ja) 2019-12-25 2019-12-25 食生活推定装置

Country Status (5)

Country Link
US (1) US20220323189A1 (ja)
EP (1) EP4084006A4 (ja)
JP (1) JP7269585B2 (ja)
CN (1) CN114746949A (ja)
WO (1) WO2021131906A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023127042A1 (ja) * 2021-12-27 2023-07-06 日本電気株式会社 動物飼育支援装置、動物飼育支援方法、及び、記録媒体

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012191994A (ja) 2011-03-15 2012-10-11 Japan Science & Technology Agency 行動解析装置、行動解析プログラム、及び、情報検出装置
JP2014131426A (ja) 2012-12-28 2014-07-10 Fujitsu Ltd 歯科補綴装置、生体情報取得装置、生体情報取得システム
JP2018151578A (ja) 2017-03-14 2018-09-27 ヤフー株式会社 決定装置、決定方法および決定プログラム
JP2019067281A (ja) 2017-10-04 2019-04-25 株式会社ビズオーシャン 情報処理装置、情報処理方法及び情報処理プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101189099B1 (ko) * 2010-02-10 2012-10-10 동국대학교 산학협력단 음식물 섭취 측정장치 및 이를 이용한 음식물 섭취 모니터링 시스템
US20120172677A1 (en) * 2010-12-30 2012-07-05 Logan Robert J Systems and methods for monitoring and processing biometric data

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012191994A (ja) 2011-03-15 2012-10-11 Japan Science & Technology Agency 行動解析装置、行動解析プログラム、及び、情報検出装置
JP2014131426A (ja) 2012-12-28 2014-07-10 Fujitsu Ltd 歯科補綴装置、生体情報取得装置、生体情報取得システム
JP2018151578A (ja) 2017-03-14 2018-09-27 ヤフー株式会社 決定装置、決定方法および決定プログラム
JP2019067281A (ja) 2017-10-04 2019-04-25 株式会社ビズオーシャン 情報処理装置、情報処理方法及び情報処理プログラム

Also Published As

Publication number Publication date
CN114746949A (zh) 2022-07-12
EP4084006A4 (en) 2024-01-24
WO2021131906A1 (ja) 2021-07-01
JP2021103434A (ja) 2021-07-15
US20220323189A1 (en) 2022-10-13
EP4084006A1 (en) 2022-11-02

Similar Documents

Publication Publication Date Title
EP3148435B1 (en) System for monitoring health related information for individuals
CN109068983B (zh) 用于跟踪食物摄入和其它行为并提供相关反馈的方法和设备
US10456078B2 (en) Wearable device and system for preventative health care for repetitive strain injuries
JP2022506115A (ja) 身体挙動イベントの自動検出及びこれに対応する薬剤投与システムの調整
CN109887568B (zh) 基于医嘱的健康管理系统
Schiboni et al. Automatic dietary monitoring using wearable accessories
US20060183980A1 (en) Mental and physical health status monitoring, analyze and automatic follow up methods and its application on clothing
CN108852283A (zh) 基于生理信息的睡眠评分
Fontana et al. Detection and characterization of food intake by wearable sensors
EP3656343B1 (en) Wearable apparatus attaching on tooth and the sensing device fixing at tooth
JP2022024098A (ja) 健康寿命延長の支援システム
JP7113387B2 (ja) 治療検査システムの作動方法、並びに治療検査システムの治療検査プログラム、及び、その記憶媒体
Sanei et al. Body sensor networking, design and algorithms
WO2021070472A1 (ja) 情報処理装置、情報処理システム及び情報処理方法
JP2016131604A (ja) 生体情報測定システム、生体情報測定装置および生体情報測定方法
CA3186796A1 (en) Wearable infection monitor
Fontana et al. Evaluation of chewing and swallowing sensors for monitoring ingestive behavior
JP7269585B2 (ja) 食生活推定装置
CN206183247U (zh) 一种摄食吞咽行为监测与管理装置
Wang et al. Enhancing nutrition care through real-time, sensor-based capture of eating occasions: A scoping review
WO2018128056A1 (ja) ユーザ端末装置
JP7286093B2 (ja) 摂食関連提案装置及び摂食関連提案システム
Nguyen et al. An instrumented measurement scheme for the assessment of upper limb function in individuals with Friedreich Ataxia
JP7395423B2 (ja) 食事と睡眠・運動に係る情報を提供可能な生活モニタ装置、システム、プログラム及び方法
JP2024061019A (ja) 歯磨き補助装置、歯磨き補助システムおよび歯磨き補助プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230411

R150 Certificate of patent or registration of utility model

Ref document number: 7269585

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150