JPWO2019116679A1 - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JPWO2019116679A1
JPWO2019116679A1 JP2019558923A JP2019558923A JPWO2019116679A1 JP WO2019116679 A1 JPWO2019116679 A1 JP WO2019116679A1 JP 2019558923 A JP2019558923 A JP 2019558923A JP 2019558923 A JP2019558923 A JP 2019558923A JP WO2019116679 A1 JPWO2019116679 A1 JP WO2019116679A1
Authority
JP
Japan
Prior art keywords
information
user
information processing
sensor
processing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019558923A
Other languages
English (en)
Inventor
菅谷 茂
茂 菅谷
由幸 小林
由幸 小林
岩村 厚志
厚志 岩村
昌一 浮田
昌一 浮田
佐藤 直之
直之 佐藤
諒司 宮崎
諒司 宮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2019116679A1 publication Critical patent/JPWO2019116679A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/30ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/60ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to nutrition control, e.g. diets
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H80/00ICT specially adapted for facilitating communication between medical practitioners or patients, e.g. for collaborative diagnosis, therapy or health monitoring

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Nutrition Science (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

【課題】ユーザ固有の身体状況の未来予想とアドバイスを的確に行うことが可能な情報処理装置、情報処理方法、およびプログラムを提供する。【解決手段】ユーザ周辺のセンサから取得した前記ユーザに関わる情報を含むセンサ情報履歴に基づいて、前記ユーザの将来の身体状況を予測する予測部と、前記予測した前記身体状況と、前記センサ情報履歴から得た前記ユーザの生活習慣情報および嗜好情報とに基づいて、前記身体状況を前記ユーザにより指定された理想身体に近付けるためのアドバイスを生成する生成部と、を備える、情報処理装置。【選択図】図1

Description

本開示は、情報処理装置、情報処理方法、およびプログラムに関する。
従来のヘルスケアアプリケーションは、ユーザの一時的な入力情報を用いて、現在の状況から将来の健康状態を推測する方法が用いられてきた。また、未来予測を行うヘルスケアの従来技術としては、血糖値情報や肥満度情報に基づいて健康状態を改善すべきと診断された個人にアドバイスを行うものが一般的であった。
また、従来の健康状態の推測方法は、過去に収集した一般的な統計情報の平均値を用いて、ユーザの身長、体重、および血液情報といった極めて限られた数値から予測するものであった。
このような従来のヘルスケアシステムに関し、例えば下記特許文献1では、ユーザ毎のヘルス状態に応じたメッセージを端末に出力するサーバとユーザ端末によるシステムが開示されている。
また、下記特許文献2では、ユーザのプロファイルから特定行動の発生時刻のデータに基づいて、その傾向を表したプロファイルを設定し、プロファイルに応じた情報をユーザに提供する情報処理装置が開示されている。
特開2016−139310号公報 特開2015−087957号公報
しかしながら、従来のヘルスケアシステムでは、平均的な統計情報に基づく予測しか行われないため、ユーザ個人がどのような生活習慣であっても、一時的に入力した身長や体重等の少ない情報から健康状態が一意に判断され、的確な未来予想やアドバイスが困難であった。
また、上記特許文献1では、過去に得られた個人のデータから、1ヵ月程度の周期的なイベントの予想を記載した簡易な情報が個人情報として届くものであった。
また、上記特許文献2では、在宅する時間ごとの確率に応じて必要な情報を提供していたために、将来にわたってヘルスケアに役立つ情報を提供することができないという問題があった。
そこで、本開示では、ユーザ固有の身体状況の未来予想とアドバイスを的確に行うことが可能な情報処理装置、情報処理方法、およびプログラムを提案する。
本開示によれば、ユーザ周辺のセンサから取得した前記ユーザに関わる情報を含むセンサ情報履歴に基づいて、前記ユーザの将来の身体状況を予測する予測部と、前記予測した前記身体状況と、前記センサ情報履歴から得た前記ユーザの生活習慣情報および嗜好情報とに基づいて、前記身体状況を前記ユーザにより指定された理想身体に近付けるためのアドバイスを生成する生成部と、を備える、情報処理装置を提案する。
本開示によれば、プロセッサが、ユーザ周辺のセンサから取得した前記ユーザに関わる情報を含むセンサ情報履歴に基づいて、前記ユーザの将来の身体状況を予測することと、前記予測した前記身体状況と、前記センサ情報履歴から得た前記ユーザの生活習慣情報および嗜好情報とに基づいて、前記身体状況を前記ユーザにより指定された理想身体に近付けるためのアドバイスを生成することと、を含む、情報処理方法を提案する。
本開示によれば、コンピュータを、ユーザ周辺のセンサから取得した前記ユーザに関わる情報を含むセンサ情報履歴に基づいて、前記ユーザの将来の身体状況を予測する予測部と、前記予測した前記身体状況と、前記センサ情報履歴から得た前記ユーザの生活習慣情報および嗜好情報とに基づいて、前記身体状況を前記ユーザにより指定された理想身体に近付けるためのアドバイスを生成する生成部と、として機能させるための、プログラムを提案する。
以上説明したように本開示によれば、ユーザ固有の身体状況の未来予想とアドバイスを的確に行うことが可能となる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態の全体的な構成の例を示すブロック図である。 本開示の一実施形態の全体的な構成の別の例を示すブロック図である。 本開示の一実施形態の全体的な構成の別の例を示すブロック図である。 本開示の一実施形態の全体的な構成の別の例を示すブロック図である。 本開示の一実施形態に係る情報処理システムの概要を説明する図である。 本開示の一実施形態に係る処理部の機能構成例を示すブロック図である。 本開示の一実施形態に係る情報処理システムの全体の処理の流れを示すフローチャートである。 本開示の一実施形態において、趣味嗜好情報の取得処理の一例を示すシーケンス図である。 本開示の一実施形態において、行動記録情報の取得処理の一例を示すシーケンス図である。 本開示の一実施形態に係るLPWAシステムを用いた行動解析について説明する図である。 本開示の一実施形態において、摂取カロリー情報の取得処理の一例を示すシーケンス図である。 本開示の一実施形態において、プロポーション情報の取得処理の一例を示すシーケンス図である。 本開示の一実施形態において、予測処理の一例を示すシーケンス図である。 本開示の一実施形態において、理想身体に近付くためのアドバイスを提示する処理の一例を示すシーケンス図である。 本開示の一実施形態に係る嗜好品摂取のアドバイスの提示について説明する図である。 本開示の実施形態に係るシステム構成の第1の例を示すブロック図である。 本開示の実施形態に係るシステム構成の第2の例を示すブロック図である。 本開示の実施形態に係るシステム構成の第3の例を示すブロック図である。 本開示の実施形態に係るシステム構成の第4の例を示すブロック図である。 本開示の実施形態に係るシステム構成の第5の例を示すブロック図である。 本開示の実施形態に係るシステム構成のより具体的な例の一つとして、クライアント−サーバシステムを示す図である。 本開示の実施形態に係るシステム構成の他の具体的な例の一つとして、分散型システムを示す図である。 本開示の実施形態に係るシステム構成の第6の例を示すブロック図である。 本開示の実施形態に係るシステム構成の第7の例を示すブロック図である。 本開示の実施形態に係るシステム構成の第8の例を示すブロック図である。 本開示の実施形態に係るシステム構成の第9の例を示すブロック図である。 本開示の実施形態に係るシステム構成のより具体的な例の一つとして、中間サーバを含むシステムの例を示す図である。 本開示の実施形態に係るシステム構成のより具体的な例の一つとして、ホストとして機能する端末装置を含むシステムの例を示す図である。 本開示の実施形態に係るシステム構成のより具体的な例の一つとして、エッジサーバを含むシステムの例を示す図である。 本開示の実施形態に係るシステム構成のより具体的な例の一つとして、フォグコンピューティングを含むシステムの例を示す図である。 本開示の実施形態に係るシステム構成の第10の例を示すブロック図である。 本開示の実施形態に係るシステム構成の第11の例を示すブロック図である。 本開示の実施形態に係る情報処理装置のハードウェア構成例を示すブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、説明は以下の順序で行うものとする。
1.全体的な構成
1−1.入力部
1−2.処理部
1−3.出力部
2.情報処理システムの概要
3.処理部の機能構成
4.処理フロー
4−1.全体の処理の流れ
4−2.各種情報の取得処理
4−3.未来予測処理
4−4.アドバイス提示処理
5.システム構成
6.ハードウェア構成
7.補足
(1.全体的な構成)
図1は、本開示の一実施形態の全体的な構成の例を示すブロック図である。図1を参照すると、システム10は、入力部100と、処理部200と、出力部300とを含む。入力部100、処理部200、および出力部300は、後述するシステム10の構成例に示されるように、1または複数の情報処理装置によって実現される。
(1−1.入力部)
入力部100は、例えば、操作入力装置、センサ、または外部サービスから情報を取得するソフトウェアなどを含み、ユーザ、周辺環境、または他のサービスから、さまざまな情報の入力を受け付ける。
操作入力装置は、例えば、ハードウェアボタン、キーボード、マウス、タッチパネル、タッチセンサ、近接センサ、加速度センサ、角速度センサ、温度センサなどを含み、ユーザによる操作入力を受け付ける。また、操作入力装置は、ユーザのジェスチャまたは音声によって表現される操作入力を受け付ける、カメラ(撮像素子)またはマイクロフォンなどを含んでもよい。
なお、入力部100には、操作入力装置によって取得される信号またはデータを操作コマンドに変換するプロセッサまたは処理回路が含まれてもよい。あるいは、入力部100は、操作入力装置が取得した信号またはデータを、操作コマンドに変換することなくインターフェース150に出力してもよい。その場合、操作入力装置が取得した信号またはデータは、例えば処理部200で操作コマンドに変換される。
センサは、加速度センサ、角速度センサ、地磁気センサ、照度センサ、温度センサ、または気圧センサなどを含み、装置にかかる加速度や角速度、方位、照度、温度、気圧などを検出する。上記の各種センサは、例えばセンサを含む装置がユーザによって携帯または装着されている場合に、各種情報をユーザに関する情報、例えばユーザの運動や向きなどを示す情報として検出することができる。また、センサは、他にも、脈拍、発汗、脳波、触覚、嗅覚、味覚など、ユーザの生体情報を検出するセンサを含んでもよい。入力部100には、これらのセンサによって検出された情報、および/または後述するカメラやマイクによって検出された画像または音声のデータを解析することによってユーザの感情を示す情報を取得する処理回路が含まれてもよい。あるいは、上記の情報および/またはデータは解析を経ずにインターフェース150に出力され、例えば処理部200において解析が実行されてもよい。
さらに、センサは、カメラ、マイク、上述した各種センサなどにより、ユーザまたは装置の近傍の画像または音声をデータとして取得してもよい。また、センサは、屋内または屋外の位置を検出する位置検出手段を含んでもよい。位置検出手段は、具体的には、GNSS(Global Navigation Satellite System)受信機、例えばGPS(Global Positioning System)受信機、GLONASS(Global Navigation
Satellite System)受信機、BDS(BeiDou Navigation Satellite System)受信機および/または通信装置などを含みうる。通信装置は、例えばWi−fi(登録商標)、MIMO(Multi-Input Multi-Output)、セルラー通信(例えば携帯基地局を使った位置検出、フェムトセル)、または近距離無線通信(例えばBLE(Bluetooth Low Energy)、Bluetooth(登録商標))、LPWA(Low Power Wide Area)などの技術を利用して位置を検出する。
上記のようなセンサがユーザの位置や状況(生体情報を含む)を検出する場合、センサを含む装置は、例えばユーザによって携帯または装着されている。あるいは、センサを含む装置がユーザの生活環境に設置されているような場合にも、ユーザの位置や状況(生体情報を含む)を検出することが可能でありうる。例えば、室内などに固定して設置されたカメラによって取得されたユーザの顔を含む画像を解析することによって、ユーザの脈拍を検出することができる。
なお、入力部100には、センサによって取得される信号またはデータを所定の形式に変換する(例えば、アナログ信号をデジタル信号に変換したり、画像または音声のデータをエンコードしたりする)プロセッサまたは処理回路が含まれてもよい。あるいは、入力部100は、取得された信号またはデータを、所定の形式に変換することなくインターフェース150に出力してもよい。その場合、センサが取得した信号またはデータは、処理部200で操作コマンドに変換される。
外部サービスから情報を取得するソフトウェアは、例えば、外部サービスのAPI(Application Program Interface)を利用して、外部サービスによって提供される各種の情報を取得する。ソフトウェアは、例えば外部サービスのサーバから情報を取得してもよいし、クライアント装置で実行されているサービスのアプリケーションソフトウェアから情報を取得してもよい。ソフトウェアによって、例えば、ユーザまたは他のユーザがソーシャルメディアなどの外部サービスに投稿したテキストや画像などの情報が取得されうる。取得される情報は、必ずしもユーザまたは他のユーザによって意図的に投稿されたものでなくてもよく、例えばユーザまたは他のユーザが実行した操作のログなどであってもよい。また、取得される情報は、ユーザまたは他のユーザの個人的な情報には限らず、例えばニュース、天気予報、交通情報、POI(Point Of Interest)、または広告などのように、不特定多数のユーザに向けて配信される情報であってもよい。
また、外部サービスから取得される情報には、上述した各種センサによって取得された情報、例えば加速度、角速度、方位、高度、照度、温度、気圧、脈拍、発汗、脳波、触覚、嗅覚、味覚、その他の生体情報、感情、位置情報などが、外部サービスと連携する他のシステムに含まれるセンサによって検出され、外部サービスに投稿されることによって生成された情報が含まれてもよい。
インターフェース150は、入力部100と処理部200との間のインターフェースである。例えば、入力部100と処理部200とが別個の装置で実現される場合、インターフェース150は、有線または無線の通信インターフェースを含みうる。また、インターネットが入力部100と処理部200の間に介在することもありうる。より具体的には、有線または無線の通信インターフェースは、3G/LTE/5Gなどのセルラー通信、Wi−Fi(登録商標)などの無線LAN(Local Area Network)通信、Bluetooth(登録商標)などの無線PAN(Personal Area Network)通信、NFC(Near Field Communication)、イーサネット(登録商標)、HDMI(登録商標)(High-Definition Multimedia Interface)、USB(Universal Serial Bus)などを含みうる。また、入力部100と処理部200の少なくとも一部とが同一の装置で実現される場合、インターフェース150は、装置内のバスや、プログラムモジュール内でのデータ参照などを含みうる(以下、これらを装置内のインターフェースともいう)。また、入力部100が複数の装置に分散して実現される場合、インターフェース150は、それぞれの装置のための異なる種類のインターフェースを含みうる。例えば、インターフェース150は、通信インターフェースと装置内のインターフェースとの両方を含んでもよい。
(1−2.処理部)
処理部200は、入力部100によって取得された情報に基づいてさまざまな処理を実行する。より具体的には、例えば、処理部200は、CPU(Central Processing Unit)、GPU(Graphics processing unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、またはFPGA(Field-Programmable Gate Array)などのプロセッサまたは処理回路を含む。また、処理部200は、プロセッサまたは処理回路において実行されるプログラム、および処理において読み書きされるデータを一時的または永続的に格納するメモリまたはストレージ装置を含んでもよい。
なお、処理部200は、単一の装置内の単一のプロセッサまたは処理回路によって実現されてもよいし、複数の装置、または同一の装置内の複数のプロセッサもしくは処理回路に分散して実現されてもよい。処理部200が分散して実現される場合、図2および図3に示す例のように、処理部200の分割された部分の間にはインターフェース250が介在する。インターフェース250は、上記のインターフェース150と同様に、通信インターフェース、または装置内のインターフェースを含みうる。なお、後述する処理部200の詳細な説明では、処理部200を構成する個々の機能ブロックを例示するが、インターフェース250は、任意の機能ブロックの間に介在しうる。つまり、処理部200が複数の装置、または複数のプロセッサもしくは処理回路に分散して実現される場合、機能ブロックをどのように各装置、各プロセッサまたは各処理回路に振り分けるかは、別途の記載がない限り任意である。
このような処理部200により行われる処理の一例として、例えば機械学習が挙げられる。図4に、処理部200の機能ブロック図の一例を示す。図4に示すように、処理部200は、学習部210および識別部220を備える。学習部210は、入力された情報(学習データ)に基づいて機械学習を行い、学習結果を出力する。また、識別部220は、入力された情報と学習結果に基づいて、当該入力された情報の識別(判断や予測等)を行う。
学習部210における学習手法には、例えばニューラルネットワークやディープラーニングが用いられる。ニューラルネットワークとは、人間の脳神経回路を模倣したモデルであって、入力層、中間層(隠れ層)、出力層の3種類の層から成る。また、ディープラーニングとは、多層構造のニューラルネットワークを用いたモデルであって、各層で特徴的な学習を繰り返し、大量データの中に潜んでいる複雑なパターンを学習することができる。ディープラーニングは、例えば画像内のオブジェクトや音声内の単語を識別する用途として用いられる。
また、このような機械学習を実現するハードウェア構造としては、ニューラルネットワークの概念を組み込まれたニューロチップ/ニューロモーフィック・チップが用いられ得る。
また、機械学習の問題設定には、教師あり学習、教師なし学習、半教師学習、強化学習、逆強化学習、能動学習、転移学習等がある。例えば教師あり学習は、与えられたラベル付きの学習データ(教師データ)に基づいて特徴量を学習する。これにより、未知のデータのラベルを導くことが可能となる。
また、教師なし学習は、ラベルが付いていない学習データを大量に分析して特徴量を抽出し、抽出した特徴量に基づいてクラスタリングを行う。これにより、膨大な未知のデータに基づいて傾向の分析や未来予測を行うことが可能となる。
また、半教師学習は、教師あり学習と教師なし学習を混在させたものであって、教師あり学習で特徴量を学ばせた後、教師なし学習で膨大な訓練データを与え、自動的に特徴量を算出させながら繰り返し学習を行う方法である。
また、強化学習は、ある環境内におけるエージェントが現在の状態を観測して取るべき行動を決定する問題を扱うものである。エージェントは、行動を選択することで環境から報酬を習得し、一連の行動を通じて報酬が最も多く得られるような方策を学習する。このように、ある環境における最適解を学習することで、人間の判断力を再現し、また、人間を超える判断力をコンピュータに習得させることが可能となる。
以上説明したような機械学習によって、処理部200は、仮想的なセンシングデータを生成することも可能である。例えば、処理部200は、入力された画像情報から位置情報を生成するなど、あるセンシングデータから別のセンシングデータを予測して入力情報として使用することが可能である。また、処理部200は、複数のセンシングデータから別のセンシングデータを生成することも可能である。また、処理部200は、必要な情報を予測し、センシングデータから所定の情報を生成することも可能である。
(1−3.出力部)
出力部300は、処理部200から提供された情報を、ユーザ(入力部100のユーザと同じユーザであってもよいし、異なるユーザであってもよい)、外部装置、または他のサービスに出力する。例えば、出力部300は、出力装置、制御装置、または外部サービスに情報を提供するソフトウェアなどを含みうる。
出力装置は、処理部200から提供された情報を、ユーザ(入力部100のユーザと同じユーザであってもよいし、異なるユーザであってもよい)の視覚や聴覚、触覚、嗅覚、味覚などの感覚によって知覚される形式で出力する。例えば、出力装置はディスプレイであり、情報を画像によって出力する。なお、ディスプレイは、LCD(Liquid Crystal Display)や有機EL(Electro-Luminescence)ディスプレイなどの反射型または自発光型のディスプレイには限らず、ウェアラブル装置などで用いられるような、ユーザの眼に画像表示光を導光する導光部材と光源との組み合わせをも含む。また、出力装置はスピーカを含み、情報を音声によって出力してもよい。その他にも、出力装置は、プロジェクタやバイブレータなどを含んでもよい。
制御装置は、処理部200から提供された情報に基づいて装置を制御する。制御される装置は、出力部300を実現する装置に含まれてもよいし、外部装置であってもよい。より具体的には、例えば、制御装置は制御コマンドを生成するプロセッサまたは処理回路を含む。外部装置が制御される場合、出力部300は、さらに、制御コマンドを外部装置に送信する通信装置を含みうる。制御装置は、例えば、処理部200から提供された情報を印刷物として出力するプリンタを制御する。制御装置は、処理部200から提供された情報の、ストレージ装置またはリムーバブル記録媒体への書き込みを制御するドライバを含んでもよい。あるいは、制御装置は、処理部200から提供された情報を出力または記録する装置以外の装置を制御してもよい。例えば、制御装置は、照明装置を制御して照明を点灯させたり、テレビを制御して画像を消したり、オーディオ装置を制御して音量を調節したり、ロボットを制御してその動き等を制御したりしてもよい。
また、制御装置は、入力部100に含まれる入力装置を制御してもよい。すなわち、制御装置は、入力装置により所定の情報を取得するよう制御することができる。また、制御装置が入力装置と同一の装置で実現されてもよい。これにより、入力装置が、他の入力装置を制御することも可能となる。例えば、複数台のカメラ装置がある場合に、通常は省電力目的で一つだけ起動しているが、人物を認識した際には、起動している一つのカメラ装置が、接続する他のカメラ装置を起動するよう制御する。
外部サービスに情報を提供するソフトウェアは、例えば、外部サービスのAPIを利用して、処理部200から提供された情報を外部サービスに提供する。ソフトウェアは、例えば外部サービスのサーバに情報を提供してもよいし、クライアント装置で実行されているサービスのアプリケーションソフトウェアに情報を提供してもよい。提供される情報は、必ずしもすぐに外部サービスに反映されるものでなくてよく、例えばユーザが外部サービスに投稿または送信するための候補として提供されてもよい。より具体的には、例えば、ソフトウェアは、クライアント装置で実行されているブラウザソフトウェアにおいて、ユーザが入力する検索キーワードやURL(Uniform Resource Locator)の候補として用いられるテキストを提供してもよい。また、例えば、ソフトウェアは、ユーザに代わって、ソーシャルメディアなどの外部サービスに、テキスト、画像、動画、音声などを投稿してもよい。
インターフェース350は、処理部200と出力部300との間のインターフェースである。例えば、処理部200と出力部300とが別個の装置で実現される場合、インターフェース350は、有線または無線の通信インターフェースを含みうる。また、処理部200の少なくとも一部と出力部300とが同一の装置で実現される場合、インターフェース350は、上述した装置内のインターフェースを含みうる。また、出力部300が複数の装置に分散して実現される場合、インターフェース350は、それぞれの装置のための異なる種類のインターフェースを含みうる。例えば、インターフェース350は、通信インターフェースと装置内のインターフェースとの両方を含んでもよい。
(2.情報処理システムの概要)
図5は、本開示の一実施形態による情報処理システム(ヘルスケアシステム)の概要を説明する図である。本実施形態による情報処理システムでは、まず、ユーザ個人の健康状態や趣味嗜好、行動履歴等の様々な情報を、ユーザ周辺のセンサ、すなわち、ユーザが所有する情報処理端末に設けられている各種センサや周囲に存在する環境センサ、また、SNS(Social Networking Service)や投稿サイト、ブログ等のインターネット上から、日常的、継続的に大量に取得している。また、取得するユーザに関する様々な情報には、ユーザの周囲に存在する他ユーザから受けたユーザに関する評価(ユーザの趣味嗜好に関する情報や、ユーザの行動に関する情報等)を含んでもよい。
環境センサは、近年街中に設置されている多数の環境センサであって、IoT(Internet of Things)の技術により、日常的に大量のセンシングデータを取得することが可能である。環境センサは、例えば、カメラ、マイクロフォン、赤外線センサ(赤外線カメラ)、温度センサ、湿度センサ、気圧センサ、照度計、紫外線量計、騒音計、振動計、圧力センサ、または重さセンサ等であって、駅、公園、道路、商店街、施設内、ビル内、家庭内等の様々な場所に無数に存在している。環境センサからは、例えばユーザの現在の姿を撮像した全身の撮像画像や、飲食店での飲食の様子を撮像した撮像画像、また、スポーツジムや公園等においてユーザが運動している様子を撮像した撮像画像等が取得され得る。
また、環境センサは、ユーザの周辺を走行中の自動車のドライブレコーダーに搭載されたカメラであってもよい。また、環境センサは、個人が所有するスマートフォン等の情報処理端末に設けられているセンサであってもよい。例えば、ユーザの周辺に存在する他ユーザが所有するスマートフォン等の情報処理端末により無意識に撮影された撮像画像(例えば、他ユーザがスマートフォン等を操作している際に外側カメラにより無意識に撮影された撮像画像)も、ユーザの歩行時における周囲の環境センサ情報として取得され得る。
また、環境センサの一例である集音マイクからは、雑踏の騒音レベルの情報が取得でき、ユーザが置かれている環境を把握する客観的なデータとなる。
また、環境センサ情報として、ユーザが乗車した交通機関(鉄道やバスなど)の車内の様子を映したカメラからの画像情報や、乗車人数などの混雑状況を測定した結果の情報も取得され得る。
また、環境センサは、交通機関やオフィス等の施設や建物の入り口にあるゲートに取り付けられ、当該ゲートを通過したユーザの体重や腹囲を測定し、プロポーション情報が取得されてもよい。これらの環境センサ情報は、例えばゲート通過時にユーザが所持する情報処理端末に送信され得る。これにより、ユーザの毎日の体重の変化を統計的に把握し、急激な体重の変化が生じた場合に、ユーザに対してアドバイスを生成することも可能となる。なお体重計センサは、交通機関等のゲートの他、ユーザが利用する自転車、トイレ、エレベータ、電車等に設けられ、その都度体重情報がユーザの情報処理端末に送信またはサーバに送信されるようにしてもよい。
また、環境センサとして、靴底に圧力センサを配置し、圧力センサからの検知情報に基づいて、歩数やスピードを算出し、走っている場合や、歩いている場合、立っている場合や座っている場合などの検出を行うことも可能である。
また、環境センサの情報には、広くIoT環境のデータとして入手可能な情報が含まれる。例えば、飲食店におけるPOS端末からのPOS情報を環境センサ情報として取得してもよい。飲食店におけるPOS情報には、ユーザが当該飲食店で注文したデータ情報が含まれ、飲食に関する情報として、後述する摂取カロリーの算出に用いることが可能である。摂取カロリーの算出は、サーバ側で行われてもよいし、ユーザが所有する情報処理端末側で行われてもよい。
また、ユーザが所有する情報処理端末とは、例えば、スマートフォン、携帯電話端末、ウェアラブル端末(HMD(Head Mounted Display)、スマートアイグラス、スマートバンド、スマートイヤホン、スマートネックレスなど)、タブレット端末、PC(Personal Computer)、ゲーム機、音楽再生装置等が挙げられる。このような情報処理端末に設けられた各種センサにより、ユーザに関する情報が日常的に大量に取得され得る。センサは、加速度センサ、角速度センサ、地磁気センサ、照度センサ、温度センサ、気圧センサ、生体センサ(脈拍、心拍、発汗、体温、血圧、呼吸、静脈、脳波、触覚、嗅覚、味覚など、ユーザの生体情報を検出するセンサ)、カメラ、マイクロフォン、屋内または屋外の位置を検出する位置検出部を含み得る。また、さらに、ユーザが利用する自転車や、ユーザが着用する洋服や履物に設けられたカメラ、生体センサ、マイクロフォン、重さセンサ等の各種センサにより、ユーザに関する情報が取得されるようにしてもよい。
また、ユーザが所有する情報処理端末からは、インターネットでの検索履歴や、アプリケーションの操作履歴、また、Webサイトの閲覧履歴、インターネットを介した商品の購入履歴、スケジュール情報等の、様々なユーザに関する情報が収集し得る。
また、インターネット上からは、ユーザのつぶやき情報や、発言、コメント、返信等、ユーザが投稿した情報が取得される。
本実施形態による情報処理システムでは、日常的に取得されるユーザ個人に関する様々に基づいて、ユーザの現在の健康状態、趣味嗜好、生活習慣、およびプロポーションに関する情報に基づいて現在のユーザの身体状況を取得し得る。また、本実施形態による情報処理システムは、現在のユーザの身体状況をユーザに通知することが可能である。身体状況とは、ユーザの身体の内面の状況および外面の状況を含む意味である。身体の内面の状況とは、主に健康状態に関する要素の状況であり、また、外面の状況とは、主に体型に関する要素の状況である。
また、現在のユーザの身体状況を取得する際に用いる、ユーザの現在の健康状態に関する情報とは、例えば、情報処理端末に搭載された生体センサや、環境センサの赤外線画像等を解析して取得される、ユーザの体温、呼吸の状態、発汗量、心拍数、血圧、体脂肪、コレステロール値等の情報である。
趣味嗜好に関する情報とは、例えば、ユーザの嗜好品(酒、煙草、コーヒー、菓子等)の好み、嗜好品の摂取量等に関する情報や、ユーザの趣味(何のスポーツが好きか、身体を動かすことが好きか、部屋の中に居ることが好きか等)に関する情報である。趣味嗜好情報は、例えば、情報処理端末に搭載されたカメラや、環境センサのカメラ、購入履歴、インターネット上のユーザのつぶやき等を解析して取得される。また、趣味嗜好情報は、ユーザが自ら情報処理端末を用いて入力してもよい。
生活習慣に関する情報とは、日頃の食事と運動に関する情報であって、ユーザの行動履歴(移動履歴、移動時間、通勤経路、通勤時間帯等の情報、生体情報)や、飲食に関する情報(購入品、飲食店に訪れたこと、飲食店で注文した内容、飲食時の撮像画像、生体情報等)を解析して取得される。運動に関する情報は、例えば行動履歴や運動時の撮像画像、生体情報に基づいて算出された、日頃の活動量や消費カロリー等が想定される。また、食事に関する情報は、例えば飲食に関する各種情報から算出された、日頃の摂取カロリーや、日頃どのくらいのペースで摂取しているか等の情報が想定される。生活習慣情報は、ユーザが自ら情報処理端末を用いて入力してもよい。
プロポーションに関する情報とは、ユーザの体型に関する情報であって、例えば、身長、体重、胸囲、腕の太さ(二の腕)、ウエスト、足の太さ(太もも、ふくらはぎ、足首)、ヒップ高、体脂肪率、筋肉率等である。プロポーション情報は、例えば環境センサにより取得された撮像画像を解析して得られてもよい。また、プロポーション情報は、ユーザが自ら情報処理端末を用いて入力してもよい。
そして、本実施形態による情報処理システムは、ユーザの現在のプロポーションと、ユーザ個人の生活習慣や嗜好情報に基づいて、ユーザの未来の身体状況を予測し、ユーザに通知することができる。すなわち、本実施形態による情報処理システムでは、現在の生活(運動パターン、食事パターン、嗜好品の摂取等)を続けた場合に、5年後、10年後にユーザがどのような身体状況(内面における健康状態、および外面における体型の状態)になっているかを、平均的な統計情報としてではなく、ユーザ個別に予測することで、より正確な未来予測を可能とする。
また、本実施形態による情報処理システムは、予測結果に基づいて、ユーザが理想とする身体状況に近付くためのアドバイスを提示することが可能である。アドバイスは、例えば現在のユーザの生活習慣や趣味嗜好を考慮し、普段の生活の中における運動量や食事量、嗜好品摂取の改善をアドバイスすることで、より効果的なアドバイスを行うことが可能となる。
(3.処理部の機能構成)
続いて、上述した本実施形態による情報処理システム(ヘルスケアシステム)を実現する処理部の機能構成について図6を参照して説明する。
図6は、本開示の一実施形態に係る処理部の機能構成例を示すブロック図である。図6を参照すると、処理部200(制御部)は、予測部203と、出力制御部205と、アドバイス生成部207とを含む。以下、それぞれの機能構成についてさらに説明する。
予測部203は、ユーザ周辺のセンサから取得したユーザに関わる情報を含む、ユーザ情報DB201に蓄積されたセンサ情報履歴に基づいて、ユーザの将来の身体状況を予測する処理を行う。ユーザ情報DB201に蓄積された情報は、入力部100からインターフェース150を介して収集されたユーザに関する各種の情報である。ユーザ周辺のセンサとは、より具体的には、例えば、入力部100に含まれるセンサであって、上述した環境センサおよびユーザ所有の情報処理端末に設けられたセンサが含まれる。また、例えば、ユーザ情報DB201には、入力部100に含まれる入力装置、または外部サービスから情報を取得するソフトウェアから取得された情報、より具体的には、例えばインターネット上から取得したユーザのSNSへのつぶやき情報、発言、投稿、送信メール、および情報処理端末においてユーザが自ら入力した情報も蓄積され得る。
より具体的には、ユーザ情報DB201には、例えば、ユーザの趣味嗜好情報、現在の健康状態情報(身長、体重、体脂肪率、心拍数、呼吸の状態、血圧、発汗、コレステロール値等)、現在のプロポーション情報(体型が分かる撮像画像、シルエット、胸囲、ウエスト、腕の太さや長さ等のパラメータ)、行動履歴情報、検索履歴情報、購入商品情報(飲食物、服飾品、洋服のサイズ、価格)、摂取カロリー情報、消費カロリー情報、生活習慣情報等が蓄積されている。これらの情報は、センサやインターネット上、またはユーザの情報処理端末から取得した情報や、取得した情報を解析して得た情報である。
例えば摂取カロリー情報は、ユーザの行動履歴情報、飲食店や自宅等における飲食時の撮像画像、生体情報、および飲食物の購入情報等から算出され得る。また、摂取カロリーの他、摂取した栄養素の分布情報等も解析して取得される。
また、消費カロリー情報は、例えばユーザの行動履歴情報、公園やスポーツジムにおけるユーザの運動時の撮像画像、生体情報等から算出され得る。また、消費カロリー情報は、ユーザ所有の情報処理端末が通信事業者等から得た位置情報や、環境センサである温度センサや湿度センサ、監視カメラ等からの情報に基づいて、ユーザの毎日の移動における消費カロリーを算出してもよい。例えば、ユーザの毎日の移動に掛かった歩数の情報を算出して消費カロリーを算出してもよい。
また、プロポーション情報は、自宅の玄関や、温泉施設や銭湯等の入口に設置されたカメラにより撮像された全身画像を解析することで得られる、体型やシルエット、腕の太さ、ウエスト、足の太さ等のパラメータである。また、プロポーション情報は、ユーザが最近購入した洋服のサイズ等から算出することも可能である。
また、生活習慣情報は、例えばユーザの行動履歴情報や趣味嗜好情報、環境センサから得られたユーザの撮像画像、情報処理端末から得られた各種センサ情報等を解析して得られるユーザの日々の運動や食事に関する情報である。
本実施形態による予測部203は、ユーザの現在のプロポーション情報や現在の健康状態を基準に、ユーザの嗜好情報(酒、コーヒー、煙草等の摂取)や生活習慣(運動(消費カロリーの状況)、食生活(摂取カロリーの状況))等の情報に基づいて、1年後、5年後、または10年後等の所定時間経過後のプロポーション(外面の身体状況)や健康状態(内面の身体状況)を、所定のアルゴリズムを用いて予測する。これにより、身長や体重といった限られた情報と平均的な統計情報に基づく従来の予測よりも、より正確に未来予測を行うことが可能となる。アルゴリズムについては特に限定しないが、例えば予測部203は、ユーザの直近数か月の運動や消費カロリーの状況と、食事や摂取カロリーの状況、また、さらには睡眠等の状況を把握し、その間における健康状態やプロポーションの変化(差分)に基づいて傾向を取得し、かかる傾向に基づいて、現在の生活習慣(運動、食事等)が継続した場合における1年後や5年後の変化を予測する。
また、予測部203は、ユーザのプロポーション情報や健康状態情報と、行動履歴、食事の内容、運動の内容、趣味嗜好情報(嗜好品の摂取)等を対応付けて蓄積し、運動や食事、嗜好品、行動履歴等がユーザの健康やプロポーションに与えるユーザ個別の影響を学習し、予測時に利用することも可能である。
アドバイス生成部207は、予測した将来の身体状況と、ユーザの生活習慣および嗜好情報とに基づいて、予測した将来の身体状況をユーザが指定した理想身体(理想の身体状況(内面および外面の身体状況を含む))に近付けるためのアドバイス情報を生成する。本実施形態では、ユーザに、将来なりたい姿のパラメータを入力させて、現時点から取り組むべきヘルスケアを紹介することができる。例えば、ユーザへのアドバイスは、現在のユーザの生活習慣(運動および食事の傾向)や嗜好品の摂取量や摂取タイミングに関するものであって、ユーザ個別にパーソナライズした、より効果的なアドバイスを生成することが可能である。
また、アドバイス生成部207は、継続的に取得して蓄積された、ユーザのプロポーション情報や健康状態情報、行動履歴、食事の内容、運動の内容、趣味嗜好情報(嗜好品の摂取)等に基づいて、ユーザ個別の嗜好品の摂取や食事内容、運動、行動履歴等が健康やプロポーションに与えるユーザ固有の影響を学習し、アドバイス生成時に利用することも可能である。
出力制御部205は、予測部203により予測された将来のユーザの身体状況、または、現在の身体状況(現在のありのままの姿)に関する情報を出力する制御を行う。また、出力制御部205は、アドバイス生成部207により生成されたアドバイスを出力する制御を行う。出力制御部205は、現在の身体状況と将来の身体状況、また、ユーザが理想とする身体に近付くためのアドバイスを示す画面を生成し、生成した画面情報を出力してもよい。また、出力制御部205は、ユーザに対するアドバイスを、ユーザの投稿情報や趣味嗜好、行動履歴等に基づいて、ユーザが好きなキャラクターや芸能人、アーティスト、尊敬する人物等からのアドバイスという形で提示することも可能である。
出力制御部205によって生成された情報は、出力部300に含まれるディスプレイ、またはスピーカなどの出力装置から、画像、または音声などによって出力されてもよい。また、出力制御部205によって生成された情報は、出力部300に含まれる制御装置によって制御されたプリンタから印刷物として出力されたり、ストレージ装置またはリムーバブル記録媒体に電子データとして記録されたりしてもよい。あるいは、出力制御部205によって生成された情報は、出力部300に含まれる制御装置よる装置の制御に利用されてもよい。また、出力制御部205によって生成された情報は、出力部300に含まれる、外部サービスに情報を提供するソフトウェアを介して、外部サービスに提供されてもよい。
(4.処理フロー)
(4−1.全体の処理の流れ)
図7は、本開示の一実施形態に係る情報処理システム(ヘルスケアシステム)の全体の処理の流れを示すフローチャートである。図7を参照すると、まず、処理部200は、ユーザの趣味嗜好情報を取得する(ステップS103)。ユーザの趣味嗜好情報は、上記のように、入力部100に含まれるセンサ、入力装置、またはソフトウェアなどの入力手段から取得される。例えばユーザ自身が趣味や嗜好の情報を情報処理端末から入力して処理部200を有するサーバに送信してもよい。また、処理部200は、ユーザのネットショッピングでの購入履歴や、購入金額等の情報を、ユーザの趣味や嗜好を示す情報として取得してもよい。取得した趣味嗜好情報は、ユーザ情報DB201に蓄積される。
次に、処理部200は、ユーザの行動記録を取得する(ステップS106)。ユーザの行動記録情報も、上記のように、入力部100に含まれるセンサ、入力装置、またはソフトウェアなどの入力手段から取得される。例えば、処理部200は、ユーザの移動履歴や移動時間、通勤経路や通勤時間帯等の情報を、通信事業者におけるユーザの追跡動作や、交通事業者からの乗車券購入履歴等の情報から取得してもよい。また、処理部200は、ユーザの移動の途上に存在する、無数の環境センサの情報から、ユーザが経路として通ったルートにおける環境情報を入手してもよい。また、処理部200は、ユーザが所有する情報処理端末に設けられた生体センサ、加速度センサ、位置検出部等により検出された各種センサ情報や、ユーザ周辺に設置された監視カメラからの撮像画像等に基づいて、ユーザの運動状況、リラックス状況、ストレス状況、または睡眠等の情報も、行動記録情報として取得する。取得した行動記録情報は、行動履歴としてユーザ情報DB201に蓄積される。
次いで、処理部200は、ユーザの摂取カロリーを取得する(ステップS109)。ユーザの摂取カロリー情報は、上記のように、入力部100に含まれるセンサ、入力装置、またはソフトウェアなどの入力手段から取得されたユーザの飲食に関する情報に基づいて算出され得る。例えば、処理部200は、飲食店に設けられた環境センサの情報(例えば撮像画像)から、ユーザが実際に飲食した分量をモニターし、摂取したカロリー量を算出してもよい。また、併せて食事に掛かった時間や、食事のタイミング、摂取した料理、栄養素等の情報を取得してもよい。取得した摂取したカロリー情報、栄養素、また、飲食に関する情報は、ユーザ情報DB201に蓄積される。
次に、処理部200は、ユーザの現在のプロポーション情報を取得する(ステップS115)。ユーザの現在のプロポーション情報は、上記のように、入力部100に含まれるセンサ、入力装置、またはソフトウェアなどの入力手段から取得される。例えば、処理部200は、ユーザ本人の全身画像情報を、ユーザ個人宅のセキュリティカメラや、温泉施設や銭湯等に設けられた環境センサからの撮像画像を解析し、ユーザの現時点の体型等のプロポーション情報を取得する。取得した摂取したプロポーション情報は、ユーザ情報DB201に蓄積される。また、全身画像は、少なくとも体型の分かるシルエットを取得するようにしてもよい。また、全身画像は、正面のみからではなく、横向きや後ろ姿の画像も取得することが好ましい。
以上説明したステップS103〜S115に示す処理は、日常的に継続して行われ得る。具体的には、例えばユーザが所望する期間に渡って、繰り返し実施され、例えばユーザの経年変化をモニターする観点から、数年間に渡るデータが取得、蓄積されてもよい。また、ステップS103〜S115に示す各処理は、それぞれ並行して行われてもよい。また、ステップS103〜S115に示す情報取得の処理は一例であって、本実施形態はこれに限定されない。例えば、ユーザの行動記録からユーザの消費カロリーを算出してユーザ情報DB201に蓄積してもよいし、ユーザの行動記録や飲食の記録からユーザの生活習慣(日常の運動量、および食生活)を抽出してユーザ情報DB201に蓄積してもよい。
続いて、ユーザから要求があった場合に(ステップS118/Yes)、予測部203は、ユーザの将来の身体状況の予測を実施する(ステップS121)。予測部203は、ユーザ情報DB201に蓄積されている情報を利用し、現在のユーザのプロポーション情報や健康状態を基準に、ユーザの生活習慣(行動記録、摂取カロリー情報)や趣味嗜好情報を加味して、ユーザが指定した時点(1年後、5年後、10年後等)の身体状況(内面の健康状態、外面のプロポーション)を予測する。
次に、出力制御部205は、予測結果をユーザに提示する(ステップS124)。例えば、出力制御部205は、予測結果を示す情報(例えば予測されたユーザの将来の身体状況を説明するテキスト、パラメータ、将来プロポーションのシルエットや合成画像等)を、ユーザのスマートフォン等の情報処理端末に表示する制御を行う。
次いで、ユーザからアドバイス要求があった場合(ステップS127/Yes)、処理部200は、ユーザの将来願望(ユーザが理想とする身体状況のパラメータ等)を取得する(ステップS130)。ユーザの将来願望は、例えばプロポーションに関する事項(ウエストを細くしたい、足を細くしたい等)や、健康状態に関する事項(体脂肪率を下げたい、血圧を下げたい等)である。
そして、サービス事業者サーバは、アドバイス生成部207により、ユーザが将来なりたい姿に近付くためのアドバイスを生成し、出力制御部205によりユーザに提示する処理を行う(ステップS133)。アドバイス生成部207が生成するアドバイスは、ユーザ個別の生活習慣や嗜好情報に基づき、ユーザの体質改善や生活改善につながるヘルスケアのアドバイス情報である。例えばユーザが普段からラーメンの汁を全て飲んでいる場合、塩分の過剰摂取を控えるため、ラーメンの汁は飲まないようにアドバイスすることが想定される。単に「塩分の過剰摂取を控えるように」とアドバイスするよりも、ユーザの普段の生活環境に即したアドバイスを提示することで、より効果的にユーザの体質改善を実施することができる。
以上、本実施形態に係る情報処理システムの全体の処理の流れについて説明した。上述した処理は、処理部200による動作処理として説明したが、処理部200は、ユーザが所有する情報処理端末に含まれていてもよいし、情報処理端末とインターネットを介して接続するサーバに含まれていてもよい。また、図7を参照して説明した処理が、複数の装置により実行されてもよい。
続いて、上述した各処理の詳細フローについて、図面を参照して説明する。ここでは、本実施形態の構成が、一例としてユーザ端末(情報処理端末)とサービス事業者サーバ(処理部200を有するサーバ)がネットワークを介して接続された情報処理システムである場合について説明する。ユーザ端末とサーバとの通信は、Wi−Fi(登録商標)のアクセスポイントを介して無線LANで接続されてもよいし、携帯電話の通信網を介して接続されてもよい。また、ユーザ端末は、周辺に存在している多数の環境センサから様々な情報を受信することが可能であって、これら環境センサからの情報として、例えばユーザが歩いてきた道筋や経過時間、温度情報、湿度情報等の様々なデータを収集することができる。
(4−2.各種情報の取得処理)
図8は、趣味嗜好情報の取得処理の一例を示すシーケンス図である。図8に示すように、まず、ユーザ端末において、ユーザによる趣味嗜好情報の入力が行われると(ステップS203)、ユーザ端末は、入力されたユーザ趣味嗜好情報をサービス事業者サーバに送信する(ステップS206)。ユーザ端末には、例えばサーバ事業者のアプリケーションが格納され、当該アプリケーションにより処理が実行され得る。
そして、サービス事業者サーバは、受信した趣味嗜好情報をユーザ情報DB201に記憶する(ステップS209)。
なお、サービス事業者サーバでは、ユーザの趣味嗜好情報を、上記のように、ユーザ個人が購入した商品などの購入履歴、購入した品物のサイズ情報、商品の色彩情報、割引情報などの購入価格の情報、購入に掛かった時間(サイズで悩んでいる等)などの購入商品の情報等から取得してもよい。また、サービス事業者サーバは、ユーザの趣味に基づく検索情報や、イベントのチケット購入情報、音楽のダウンロード情報等から、ユーザの趣味や嗜好のデータを逐次取得してもよい。
また、ユーザ端末から送信される趣味嗜好情報は、通信事業者サーバや、インターネット接続事業者の回線網を介して、サービス事業者サーバに送信されてもよい。
図9は、行動記録情報の取得処理の一例を示すシーケンス図である。図9に示すように、まず、ユーザ端末において、ユーザにより行動記録の許諾が行われると(ステップS213)、ユーザ端末は、ユーザ行動記録の許諾通知を通信事業者サーバに対して行う(ステップS216)。
次に、通信事業者サーバは、サービス事業者サーバに、ユーザ行動記録の開始を行う旨を通知すると共に(ステップS219)、ユーザの位置周辺の環境センサに対して、ユーザ捕捉の要求を行う(ステップS222)。
次いで、環境センサは、指定されたユーザを捕捉した場合(ステップS225)、当該ユーザを捕捉し続けて、ユーザの移動情報等を、通信事業者サーバに送信する(ステップS228)。例えば環境センサの一例である監視カメラは、ユーザの顔認識等によりユーザを捕捉した後、ユーザの行動を追跡し、ユーザがどこに向かったか、どの店に入ったか、何をしているか等を示す移動に伴う情報(若しくは撮像画像)を取得し、通信事業者サーバに送信する。
次に、通信事業者サーバは、取得したユーザの移動情報等を、サービス事業者サーバに送信する(ステップS231)。
そして、サービス事業者サーバは、取得したユーザの移動情報から移動軌跡を解析し、行動記録としてユーザ情報DB201に蓄積する(ステップS233)。
以上説明した図9に示す例では、サービス事業者サーバにユーザの移動情報を逐一記憶する処理を示しているが、本実施形態はこれに限定されず、通信事業者サーバに移動情報を逐一記憶し、必要に応じてサービス事業者サーバに転送する処理を行ってもよい。
また、ここでは、ユーザ周辺の環境センサから取得した情報(撮像画像等)に基づいてユーザの行動解析を行い、行動記録情報を取得する実施例について説明したが、本実施形態はこれに限定されず、ユーザの移動に伴う位置情報を通信事業者サーバが収集し、移動情報としてサービス事業者サーバに送信してもよい。
近年、LPWA(Low Power Wide Area)と称される、位置情報をサーバに格納する通信システムが実用化されており、例えばユーザが移動した位置情報と、何らかのデータ併せて、数分単位の時間間隔で周期的に収集することができる。つまり、ユーザが所持する通信端末(ユーザが身に着けているアクセサリーであってもよいし、所持品に設けられていてもよいし、情報処理端末であってもよい。)にセンサの情報や位置情報を付加してIoTセンサデータを構築した上で、ライセンス不要周波数帯である900MHz近辺の周波数帯の無線信号として、間欠的に情報処理端末からそのシステムの基地局に対して送信することで、基地局が各情報処理端末からのセンサデータとその位置情報を収集し、収集したデータをサーバに蓄積して利用することが可能である。図10は、LPWAシステムを用いた行動解析について説明する図である。図10に示すように、対象ユーザが所持する情報処理端末(ユーザ端末)から位置情報が周辺の基地局に数分単位の時間間隔で周期的に送信され、通信事業者サーバに蓄積される。通信事業者サーバでは、このように収集した位置情報を、ユーザからの行動記録の許諾があった場合にサービス事業者サーバに送信する。サービス事業者サーバでは、位置情報の解析により、ユーザの移動軌跡を取得し、どこからどこへ移動した等の行動情報を把握することができる。また、このような行動解析を通信事業者サーバにおいて行って解析結果をサービス事業者サーバに送信するようにしてもよい。
LPWAシステムは、現在までは、ライセンス不要周波数帯での利用を想定したシステムとして実現されているが、これを、LTE(Long Term Evolution)などのライセンスバンドの周波数帯で運用することも可能である。
なお、ユーザの位置情報の収集は、LPWAシステムを利用する他にも、ユーザが所持するスマートフォン等の情報処理端末に設けられた位置検出機能(例えば、GPS(Global Positioning System)機能)を利用して、ユーザの現在位置をリアルタイムで捕捉することも可能である。
また、サービス事業者サーバは、このように収集したユーザの位置情報から、ユーザの周辺に存在する監視カメラなどの環境センサに直接アクセスし、ユーザがその場所に居た時の撮像画像等の情報を収集し、行動解析を行うことも可能である。
図11は、摂取カロリー情報の取得処理の一例を示すシーケンス図である。図11に示すように、まず、ユーザ端末は、ユーザにより摂取カロリーの取得が許諾された場合(ステップS243)、ユーザが摂取したカロリー算定の基準になる情報、例えば飲食物の撮像画像を、サービス事業者サーバに送信する(ステップS246)。ユーザは例えば飲食を始める前に、飲食物を撮像してサービス事業者サーバに送信する操作を行ってもよい。
次いで、ユーザ端末は、ユーザ周辺の環境センサに対し、飲食情報の要求を送信する(ステップS249)。ユーザ周辺の環境センサとは、例えば監視カメラであって、ユーザの飲食時の様子が撮像され得る。
次に、環境センサは、ユーザの飲食時の状態(例えば飲食時の撮像画像)を収集し(ステップS252)、飲食時の情報としてサービス事業者サーバに送信する(ステップS255)。
そして、サービス事業者サーバは、飲食時の情報を記憶すると共に、飲食時の情報(撮像画像等)を解析してユーザの摂取カロリーを算出したり、ユーザが摂取した栄養素を判断し、ユーザ情報DB201に記憶する(ステップS258)。飲食時の撮像画像を解析することで、ユーザが実際に何をどの程度食べたかをより正確に判断することができる。例えば、大皿から料理を取り分けて食べる場合や、同席者とシェアして食べている場合、食べ残しがある場合等、最初の飲食物の撮像画像だけでは実際にユーザがどの程度飲食したかが不明であるため、飲食時や飲食後の飲食物の撮像画像を解析することで、より正確に摂取カロリーを算出することが可能となる。
なお、環境センサは周辺に設置されている監視カメラに限定されず、例えばユーザが所有する情報処理端末やユーザ周辺の情報処理端末(例えば他ユーザが所有するスマートフォンやスマートアイグラス、HMD等)に設けられたカメラであってもよく、サービス事業者サーバは、これらのカメラにより撮像されたユーザの飲食時の撮像画像を収集してもよい。また、摂取カロリーの算出は、上記のように、ユーザがオーダーした飲食物の情報(すなわちPOS情報)を用いて行ってもよい。
また、摂取カロリーの算出は、環境センサ側で行い、算出した摂取カロリーをサービス事業者サーバまたはユーザ端末に送信してもよい。また、ユーザ端末は、周辺の環境センサから受信したユーザの飲食時の撮像画像、算出された摂取カロリー、またはユーザがオーダーした飲食物を示すPOS情報を受信し、サービス事業者サーバに送信してもよい。
図12は、プロポーション情報の取得処理の一例を示すシーケンス図である。図12に示すように、まず、ユーザ端末は、ユーザから全身画像取得の許諾を得ると(ステップS263)、ユーザ周辺の環境センサに対し、全身画像の要求を行う(ステップS266)。ここで、ユーザの全身画像を取得する環境センサは、例えば温泉施設や銭湯などの入口に設けられたカメラや、ユーザの自宅に設けられたカメラ等が想定される。撮像される全身画像は、ユーザの正面に限定されず、左右の側面や後ろ側等、複数の全身画像が撮像され得る。あるいは、赤外線センサによって、全身のシルエットとして認識された画像情報を利用してもよい。
次に、環境センサは、ユーザの全身画像およびシルエットの画像を取得し(ステップS269)、ユーザ端末に全身画像を送信する(ステップS272)。
次いで、ユーザ端末は、現在の状況としてユーザの全身画像(シルエットに変換したものであってもよい)を表示する(ステップS275)。これによりユーザは、自身の現在の体型等を認識することができる。
次に、ユーザ端末は、現在の全身画像を記録する(ステップS278)。
次いで、ユーザ端末は、必要に応じて、現在の全身画像をサービス事業者サーバに送信する(ステップS281)。ユーザの全身画像は、個人が特定できるセキュリティレベルの高い情報であるため、ユーザ端末は、まずは内部で記憶し、ユーザにより身体の未来予測の要求が外部サーバに対して行われた場合等、必要な時点で適宜外部に送信するようにしてもよい。
そして、サービス事業者サーバは、全身画像を解析し、ユーザの現在のプロポーション情報(体型、腕や胸囲、ウエストのサイズ等)を算出し、ユーザ情報DB201に記憶する(ステップS284)。なお、サービス事業者サーバは、ユーザの全身画像および算出したプロポーション情報は、個人が特定できるセキュリティレベルの高い情報であるため、厳密に管理を行うと共に、ユーザからの開示請求がない限り第三者に開示しないことが望ましい。
なお、プロポーション情報の算出は全身画像の解析に限定されず、ユーザが最近購入した洋服のサイズ情報や、ユーザ購入時に迷っていたサイズ情報(MサイズとLサイズで迷っていた場合はその間のサイズであることが想定される)が参照されてもよい。また、プロポーション情報には、直近の健康診断における測定結果等が参照されてもよい。
(4−3.未来予測処理)
図13は、本発明による未来予測を実施するシーケンスを示した図である。図13に示すように、まず、ユーザ端末は、ユーザにより未来予測(すなわち、将来の身体状況の予測)の要求があった場合(ステップS303)、現在状況および未来予測の要求をサービス事業者サーバに対して行う(ステップS306)。この際、ユーザ端末は、必要に応じて保存済みの現在のユーザの全身画像を併せて送信してもよい。
次に、サービス事業者サーバは、現在の身体状況の解析を行う(ステップS309)。具体的には、予測部203が、ユーザの現在の情報をユーザ情報DB201から取得し、ユーザの現在の健康状態やプロポーションを解析する。
次いで、サービス事業者サーバは、ユーザの現在の状況を基準として、将来の身体状況の予測を行う(ステップS312)。具体的には、予測部203が、ユーザの現在の嗜好情報と、最近の(例えば直近数か月の)行動履歴や摂取カロリー等の生活習慣情報とに基づいて、現在の嗜好状況や生活習慣を続けた場合の将来の(例えば1年後、5年後、10年後等)健康状態やプロポーションを予測する。
次に、サービス事業者サーバは、現在状況および予測結果をユーザ端末に送信する(ステップS315)。
そして、ユーザ端末は、受信した現在状況および予測結果を表示する(ステップS318)。これによりユーザは、現在の自身の状況を把握すると共に、将来の身体状況の予測結果を確認することができる。
以上説明した動作処理では、サービス事業者サーバ側において、格納された所定のアルゴリズムに基づいて将来予測が実施されるが、本実施形態はこれに限定されず、所定のアルゴリズムを、サービス事業者サーバがユーザ端末に送信し、ユーザ端末側で未来予測を実施するようにしてもよい。
(4−4.アドバイス提示処理)
図14は、理想身体に近付くためのアドバイスを提示する処理の一例を示すシーケンス図である。図14に示すように、まず、ユーザ端末は、ユーザにより将来の理想身体の情報の入力があった場合(ステップS323)、理想身体情報をサービス事業者サーバに送信する(ステップS326)。ユーザは、上記ステップS318で、自身の現状と将来の予測結果を確認した際に、将来なりたい姿を入力して、嗜好品の摂取状況や生活習慣改善のアドバイスを求めることが可能である。理想身体の情報は、予め入力していてもよいし、予測結果確認画面から入力できるようにしてもよい。また、理想身体の情報の入力は、具体的なパラメータを入力するようにしてもよいし、所定のアンケートの回答に基づいて自動的に入力してもよい。また、ユーザが憧れのモデルや芸能人、目標とする人物(インストラクター等、身近な人物であってもよい)を選択した場合、これらの人物のプロポーションのパラメータを提示し、ユーザの現在のプロポーションのパラメータとの違いを考慮した上で、ユーザ自身が理想プロポーションのパラメータを調整できるようにしてもよい。また、本システムでは、ユーザの身長体重および現状から、目指せそうなモデルや芸能人のプロポーション情報を提示するようにしてもよい。
次に、サービス事業者サーバは、予測身体状況と理想身体状況を比較し、所定のアルゴリズムに従って、ユーザの将来願望の状況を把握する(ステップS329)。具体的には、アドバイス生成部207が、ユーザの将来願望として、1年後にウエストのパラメータをマイナス何センチにするか、5年後に全身のスタイルをどのように変化させるかといった、予測身体状況と理想身体状況の差を把握する。
次いで、サービス事業者サーバは、アドバイスを生成し(ステップS332)、生成したアドバイスをユーザ端末に送信する(ステップS335)。具体的には、アドバイス生成部207が、現状の生活習慣に関しての改善点(理想の姿に近付くための改善)を生成する。例えば、アドバイス生成部207は、ユーザの生活習慣として通勤時に1駅分歩いているが、消費カロリーが理想身体状況に到達するには少ない場合、2駅分歩く提案を行う。また、アドバイス生成部207は、ユーザが生活習慣として2日に1回は菓子を食べており、摂取カロリーが理想身体状況に到達するには多くなっている場合、菓子を食べる回数を減らす、菓子は1週間に1回にしましょう、といったアドバイスを生成する。
そして、ユーザ端末は、受信したアドバイスを表示してユーザに提示する(ステップS338)。アドバイスは、ユーザの趣味嗜好情報を参照してユーザの記憶に残りやすい方法で提示するようにしてもよい。例えばユーザが好きなアイドルやキャラクターからのアドバイスとして画面に提示したり合成音声で出力したりしてもよい。これによりユーザが興味を持って、より積極的にアドバイスに従った改善に取り組むことが期待できる。例えば将来予測が悪い方向に向かっており、ユーザに運動を促す場合、「私のコンサートに走って来てね!」「私のコンサートまでに1〜2kg減らしてね!」といったユーザへの提案をユーザの好きなキャラクター等により提示するようにしてもよい。また、将来予測が良い方向である場合にも、「この調子だよ!かっこいい!」「今の体型、好きだな〜」等、ユーザが現状を維持するようユーザの好きなキャラクター等により提示するようにしてもよい。
また、生成されるアドバイスは、生活習慣の改善に限定されず、ユーザの日頃の嗜好品の摂取に関するアドバイスも生成され得る。嗜好品としては、例えば、酒、コーヒー、煙草等が想定され、本実施形態では、個人として嗜好品をどれくらいのペースでどの程度摂取しているのかを記録し、健康状態と対応付けて、ユーザ毎に最適な摂取量、摂取タイミング等を把握することが可能である。例えば、ワイン1杯を夕食時に摂取している場合は体調が良いが(血圧、心拍、睡眠等のデータから体調を判断)、ワイン3杯を摂取した場合には翌日具合が悪くなっているといったユーザ個人の嗜好品摂取と健康状態との対応付けを解析し、ユーザ毎の最適摂取量や摂取タイミング(朝/昼/夜、週1、毎日等)を把握する。そして、アドバイス生成部207は、これらのユーザ個別の嗜好品の最適摂取量を基準とし、ユーザの現状が不足状態にあるか、また、過剰摂取状態にあるか等を把握することができ、嗜好品摂取に関して適切なアドバイスを生成することが可能となる。
例えば、毎日2〜3杯のワインを飲用することで健康状態が維持できているユーザの場合、4杯以上のワインを飲用した場合に、そのペースを続けると将来的にアルコールを過剰に摂取する可能性があると予測できるため、現在のペースは健康状態に悪影響を及ぼすことをアドバイスするようにしてもよい。
図15は、嗜好品摂取のアドバイスの提示について説明する図である。図15に示す例では、嗜好品の購入履歴から未来予測とアドバイスの生成を行っている。具体的には、図15に示すように、例えば毎月1本のワインを購入していた時に健康な状態が維持されていたユーザが、毎月3本購入するようになってしまった場合、予測部203は、現在の状況が継続されると将来アルコールの過剰摂取となり、健康状態に悪影響を及ぼすと予測する。このため、アドバイス生成部207は、「飲み過ぎには注意しましょう」といったアドバイスや、「(ワインは)月に1本が最適です」といったアドバイスを生成することで、過剰摂取を防止することが可能となる。
また、摂取量が不足している場合には、その嗜好品の購入を促すアドバイスを生成することで、ユーザの健康状態を管理することが可能となる。
また、摂取量不足や過剰摂取に関するアドバイスは、嗜好品の摂取に限定されず、広く食品の摂取について行ってもよい。例えば、普段から野菜を摂取して健康が維持されているユーザの直近1ヵ月間の緑黄色野菜の摂取が不足している場合、アドバイス生成部207は、緑黄色野菜の摂取が不足するとビタミン類が欠乏して健康状態に悪影響を及ぼす可能性がある予測を示し、野菜を摂取するようアドバイスを生成するようにしてもよい。
(5.システム構成)
以上、本開示の一実施形態について説明した。上述したように、本実施形態に係るシステム10は、入力部100と、処理部200と、出力部300とを含み、これらの構成要素は、1または複数の情報処理装置によって実現される。以下では、システム10を実現する情報処理装置の組み合わせの例について、より具体的な例とともに説明する。
(第1の例)
図16は、本開示の実施形態に係るシステム構成の第1の例を示すブロック図である。図16を参照すると、システム10は、情報処理装置11を含む。入力部100、処理部200、および出力部300は、いずれも情報処理装置11において実現される。情報処理装置11は、以下で説明するように端末装置またはサーバでありうる。この第1の例において、情報処理装置11は、本開示の実施形態に係る機能の実現のためにネットワークを介して外部装置と通信しない、スタンドアロンの装置であってもよい。なお、情報処理装置11は、他の機能のために外部装置と通信してもよく、従って必ずしもスタンドアロンの装置でなくてもよい。入力部100と処理部200との間のインターフェース150a、および処理部200と出力部300との間のインターフェース350aは、いずれも装置内のインターフェースでありうる。
第1の例において、情報処理装置11は、例えば端末装置でありうる。この場合、入力部100は、入力装置、センサ、外部サービスから情報を取得するソフトウェアなどを含みうる。外部サービスから情報を取得するソフトウェアは、例えば、端末装置で実行されているサービスのアプリケーションソフトウェアからデータを取得する。処理部200は、端末装置が備えるプロセッサまたは処理回路がメモリまたはストレージ装置に格納されたプログラムに従って動作することによって実現される。出力部300は、出力装置、制御装置、外部サービスに情報を提供するソフトウェアなどを含みうる。外部サービスに情報を提供するソフトウェアは、例えば、端末装置で実行されているサービスのアプリケーションソフトウェアに情報を提供しうる。
あるいは、第1の例において、情報処理装置11は、サーバであってもよい。この場合、入力部100は、外部サービスから情報を取得するソフトウェアを含みうる。外部サービスから情報を取得するソフトウェアは、例えば、外部サービスのサーバ(情報処理装置11自身であってもよい)からデータを取得する。処理部200は、端末装置が備えるプロセッサがメモリまたはストレージ装置に格納されたプログラムに従って動作することによって実現される。出力部300は、外部サービスに情報を提供するソフトウェアなどを含みうる。外部サービスに情報を提供するソフトウェアは、例えば、外部サービスのサーバ(情報処理装置11自身であってもよい)に情報を提供する。
(第2の例)
図17は、本開示の実施形態に係るシステム構成の第2の例を示すブロック図である。図17を参照すると、システム10は、情報処理装置11,13を含む。入力部100および出力部300は、情報処理装置11において実現される。一方、処理部200は、情報処理装置13において実現される。情報処理装置11と情報処理装置13とは、本開示の実施形態に係る機能を実現するために、ネットワークを介して通信する。入力部100と処理部200との間のインターフェース150bおよび処理部200と出力部300との間のインターフェース350bは、いずれも装置間の通信インターフェースでありうる。
第2の例において、情報処理装置11は、例えば端末装置でありうる。この場合、入力部100は、上記の第1の例と同様に、入力装置、センサ、外部サービスから情報を取得するソフトウェアなどを含みうる。出力部300も、上記の第1の例と同様に、出力装置、制御装置、外部サービスに情報を提供するソフトウェアなどを含みうる。あるいは、情報処理装置11は、外部サービスとの間で情報をやりとりするためのサーバであってもよい。この場合、入力部100は、外部サービスから情報を取得するソフトウェアを含みうる。また、出力部300は、外部サービスに情報を提供するソフトウェアを含みうる。
また、第2の例において、情報処理装置13は、サーバまたは端末装置でありうる。処理部200は、情報処理装置13が備えるプロセッサまたは処理回路がメモリまたはストレージ装置に格納されたプログラムに従って動作することによって実現される。情報処理装置13は、例えばサーバとして専用される装置であってもよい。この場合、情報処理装置13は、データセンタなどに設置されてもよいし、家庭内に設置されてもよい。あるいは、情報処理装置13は、他の機能については端末装置として利用可能であるが、本開示の実施形態に係る機能に関しては入力部100および出力部300を実現しない装置であってもよい。以下の例において、情報処理装置13は、上記のような意味において、サーバであってもよいし、端末装置であってもよい。
一例として、情報処理装置11がウェアラブルデバイスであり、情報処理装置13がウェアラブルデバイスにBluetooth(登録商標)などで接続されたモバイルデバイスであるような場合を考える。ウェアラブルデバイスがユーザによる操作入力を受け付け(入力部100)、当該操作入力に基づいて送信されたリクエストに基づいてモバイルデバイスが処理を実行し(処理部200)、処理の結果をウェアラブルデバイスから出力する(出力部300)ような場合、ウェアラブルデバイスは上記の第2の例における情報処理装置11として、モバイルデバイスは情報処理装置13として、それぞれ機能しているといえる。
(第3の例)
図18は、本開示の実施形態に係るシステム構成の第3の例を示すブロック図である。図18を参照すると、システム10は、情報処理装置11a,11b,13を含む。入力部100は、情報処理装置11aにおいて実現される。出力部300は、情報処理装置11bにおいて実現される。また、処理部200は、情報処理装置13において実現される。情報処理装置11a,11bと情報処理装置13とは、本開示の実施形態に係る機能を実現するために、ネットワークを介してそれぞれ通信する。入力部100と処理部200との間のインターフェース150bおよび処理部200と出力部300との間のインターフェース350bは、いずれも装置間の通信インターフェースでありうる。ただし、第3の例では、情報処理装置11aと情報処理装置11bとが別個の装置であるために、インターフェース150b,350bは、それぞれ異なる種類のインターフェースを含みうる。
第3の例において、情報処理装置11a,11bは、例えば端末装置でありうる。この場合、入力部100は、上記の第1の例と同様に、入力装置、センサ、外部サービスから情報を取得するソフトウェアなどを含みうる。出力部300も、上記の第1の例と同様に、出力装置、制御装置、外部サービスに情報を提供するソフトウェアなどを含みうる。あるいは、情報処理装置11a,11bのうちの一方または両方は、外部サービスからの情報の取得、および外部サービスへの情報の提供のためのサーバであってもよい。この場合、入力部100は、外部サービスから情報を取得するソフトウェアを含みうる。また、出力部300は、外部サービスに情報を提供するソフトウェアを含みうる。
また、第3の例において、情報処理装置13は、上記の第2の例と同様に、サーバまたは端末装置でありうる。処理部200は、情報処理装置13が備えるプロセッサまたは処理回路がメモリまたはストレージ装置に格納されたプログラムに従って動作することによって実現される。
上記の第2の例では、入力部100を実現する情報処理装置11aと、出力部300を実現する情報処理装置11bとが別個の装置である。従って、例えば、第1のユーザが所持または使用する端末装置である情報処理装置11aによって取得された入力に基づく処理の結果を、第1のユーザとは異なる第2のユーザが所持または使用する端末装置である情報処理装置11bから出力するといったような機能が実現できる。また、第1のユーザが所持または使用する端末装置である情報処理装置11aによって取得された入力に基づく処理の結果を、その時点では第1のユーザの手元にない(例えば留守中の自宅に設置されている)端末装置である情報処理装置11bから出力するといったような機能も実現できる。あるいは、情報処理装置11aと情報処理装置11bは、いずれも同じユーザによって所持または使用される端末装置であってもよい。例えば、情報処理装置11a,11bが、ユーザの異なる部位に装着されるウェアラブルデバイスである場合や、ウェアラブルデバイスとモバイルデバイスとの組み合わせであるような場合、これらのデバイスを連携させた機能をユーザに提供することができる。
(第4の例)
図19は、本開示の実施形態に係るシステム構成の第4の例を示すブロック図である。図19を参照すると、システム10は、情報処理装置11,13を含む。第4の例において、入力部100および出力部300は、情報処理装置11において実現される。一方、処理部200は、情報処理装置11および情報処理装置13に分散して実現される。情報処理装置11と情報処理装置13とは、本開示の実施形態に係る機能を実現するために、ネットワークを介して通信する。
上記のように、この第4の例では、処理部200が、情報処理装置11と情報処理装置13との間で分散して実現される。より具体的には、処理部200は、情報処理装置11で実現される処理部200a,200cと、情報処理装置13で実現される処理部200bとを含む。処理部200aは、入力部100からインターフェース150aを介して提供される情報に基づいて処理を実行し、処理の結果を処理部200bに提供する。この意味において、処理部200aは、前処理を実行するともいえる。一方、処理部200cは、処理部200bから提供される情報に基づいて処理を実行し、処理の結果をインターフェース350aを介して出力部300に提供する。この意味において、処理部200cは、後処理を実行するともいえる。
なお、図示された例では、前処理を実行する処理部200aと後処理を実行する処理部200cとが両方示されているが、実際にはこのうちのいずれか一方だけが存在してもよい。つまり、情報処理装置11は、前処理を実行する処理部200aを実現するが、後処理を実行する処理部200cを実現せず、処理部200bから提供される情報は、そのまま出力部300に提供されてもよい。同様に、情報処理装置11は、後処理を実行する処理部200cを実現するが、前処理を実行する処理部200aを実現しなくてもよい。
処理部200aと処理部200bとの間、および処理部200bと処理部200cとの間には、それぞれインターフェース250bが介在する。インターフェース250bは、装置間の通信インターフェースである。一方、情報処理装置11が処理部200aを実現する場合、インターフェース150aは、装置内のインターフェースである。同様に、情報処理装置11が処理部200cを実現する場合、インターフェース350aは、装置内のインターフェースである。
なお、上述した第4の例は、処理部200aまたは処理部200cのうちの一方または両方が情報処理装置11が備えるプロセッサまたは処理回路によって実現される点を除いては、上記の第2の例と同様である。つまり、情報処理装置11は、端末装置、または外部サービスとの間で情報をやり取りするためのサーバでありうる。また、情報処理装置13は、サーバまたは端末装置でありうる。
(第5の例)
図20は、本開示の実施形態に係るシステム構成の第5の例を示すブロック図である。図20を参照すると、システム10は、情報処理装置11a,11b,13を含む。入力部100は、情報処理装置11aにおいて実現される。出力部300は、情報処理装置11bにおいて実現される。また、処理部200は、情報処理装置11a,11bおよび情報処理装置13に分散して実現される。情報処理装置11a,11bと情報処理装置13とは、本開示の実施形態に係る機能を実現するために、ネットワークを介してそれぞれ通信する。
図示されているように、この第5の例では、処理部200が、情報処理装置11a,11bと情報処理装置13との間で分散して実現される。より具体的には、処理部200は、情報処理装置11aで実現される処理部200aと、情報処理装置13で実現される処理部200bと、情報処理装置11bで実現される処理部200cとを含む。このような処理部200の分散については、上記の第4の例と同様である。ただし、この第5の例では、情報処理装置11aと情報処理装置11bとが別個の装置であるために、インターフェース250b1,250b2は、それぞれ異なる種類のインターフェースを含みうる。
なお、第5の例は、処理部200aまたは処理部200cのうちの一方または両方が情報処理装置11aまたは情報処理装置11bが備えるプロセッサまたは処理回路によって実現される点を除いては、上記の第3の例と同様である。つまり、情報処理装置11a,11bは、端末装置、または外部サービスとの間で情報をやり取りするためのサーバでありうる。また、情報処理装置13は、サーバまたは端末装置でありうる。また、以降の例では、入力部と出力部を有する端末またはサーバにおける処理部は省略して記載するが、いずれの例においても、いずれかまたは全ての装置が処理部を有していてもよい。
(クライアント−サーバシステムの例)
図21は、本開示の実施形態に係るシステム構成のより具体的な例の一つとして、クライアント−サーバシステムを示す図である。図示された例では、情報処理装置11(または情報処理装置11a,11b)が端末装置であり、情報処理装置13がサーバである。
図示されているように、端末装置には、例えば、スマートフォン、タブレット、もしくはノートPC(Personal Computer)のようなモバイルデバイス11−1、アイウェアまたはコンタクトレンズ型端末、腕時計型端末、腕輪型端末、指輪型端末、ヘッドセット、衣服取付型または衣服一体型端末、靴取付型または靴一体型端末、もしくはネックレス型端末のようなウェアラブルデバイス11−2、カーナビゲーションシステムやリアシートエンターテインメントシステムのような車載デバイス11−3、テレビ11−4、デジタルカメラ11−5、レコーダ、ゲーム機、エアコンディショナー、冷蔵庫、洗濯機、もしくはデスクトップPCのようなCE(Consumer Electronics)デバイス11−6、ロボット装置、設備に付帯して設置されるセンサなどを含むデバイス、または街頭に設置されるデジタルサインボード(デジタルサイネージ)11−7などが含まれうる。これらの情報処理装置11(端末装置)は、ネットワークを介して情報処理装置13(サーバ)と通信する。端末装置とサーバとの間のネットワークは、上記の例におけるインターフェース150b、インターフェース250b、またはインターフェース350bにあたる。さらに、これらの装置は、装置相互間で個別に連係動作してもよいし、すべての装置が連係動作可能なシステムが構築されていてもよい。
なお、図21に示した例は、システム10がクライアント−サーバシステムにおいて実現される例を理解しやすくするために示されたものであり、システム10がこのようなクライアント−サーバシステムに限定されないのは、上記のそれぞれの例で説明された通りである。つまり、例えば、情報処理装置11,13の両方が端末装置であってもよいし、情報処理装置11,13の両方がサーバであってもよい。情報処理装置11が情報処理装置11a,11bを含む場合、情報処理装置11a,11bのうちの一方が端末装置であり、他方がサーバであってもよい。また、情報処理装置11が端末装置である場合も、端末装置の例は、上記の端末装置11−1〜11−7には限られず、他の種類の端末装置が含まれてもよい。
(分散型システムの例)
システム10の他の構成例について、図22を参照して説明する。図22は、本開示の実施形態に係るシステム構成の他の具体的な例の一つとして、分散型システムを示す図である。図示された例では、情報処理装置11(または、情報処理装置11a、11b)がノードであって、これらの情報処理装置11は、ネットワークを介して互いに接続している。
図22に示す分散型システムでは、装置相互間で個別に連携動作したり、データを分散管理したり、処理を分散したりすることが可能である。これにより、処理負担の軽減、リアルタイム性の向上(応答時間や処理速度の向上)、セキュリティの担保を実現することが可能となる。
また、分散型システムは、分散協調的に機械学習を行うことも可能であって、大量のデータを処理することができる。
また、図22に示す分散型システムでは、集中型システムにおけるサーバを必要とせず、互いにデータの監視を行ってその信憑性を確保することも可能である。具体的には、例えば、取引情報(台帳)を参加者全員(各情報処理装置11)で共有して正当性を厳密に維持することができる(所謂ブロックチェーン)。ブロックチェーンにおいては、参加者全員の台帳を全て改ざんすることは実質的に不可能なため、より確実に信憑性を確保可能となる。また、ブロックチェーンにおいて、過去のブロックに含まれるデータを改ざんする場合、そのブロック以降のブロックに含まれるハッシュ値を全て再計算する必要があるため、処理負荷が高く実質的に不可能であるため、より確実に信憑性を確保可能となる。
また、ブロックチェーンでは、参加者全員が取引情報を共有し(分散データベース)、かかる分散データベースへの書き込みを特定の合意形成により行うため、特定の参加者による不正を防ぎ、公平性が保たれる。
(第6の例)
図23は、本開示の実施形態に係るシステム構成の第6の例を示すブロック図である。図23を参照すると、システム10は、情報処理装置11,12,13を含む。入力部100および出力部300は、情報処理装置11において実現される。一方、処理部200は、情報処理装置12および情報処理装置13に分散して実現される。情報処理装置11と情報処理装置12、および情報処理装置12と情報処理装置13とは、本開示の実施形態に係る機能を実現するために、ネットワークを介してそれぞれ通信する。
上記のように、この第6の例では、処理部200が、情報処理装置12と情報処理装置13との間で分散して実現される。より具体的には、情報処理装置12で実現される処理部200a,200cと、情報処理装置13で実現される処理部200bとを含む。処理部200aは、入力部100からインターフェース150bを介して提供される情報に基づいて処理を実行し、処理の結果をインターフェース250bを介して処理部200bに提供する。一方、処理部200cは、処理部200bからインターフェース250bを介して提供される情報に基づいて処理を実行し、処理の結果をインターフェース350bを介して出力部300に提供する。なお、図示された例では、前処理を実行する処理部200aと後処理を実行する処理部200cとが両方示されているが、実際にはこのうちのいずれか一方だけが存在してもよい。
第6の例において、情報処理装置12は、情報処理装置11と情報処理装置13との間に介在する。より具体的には、例えば、情報処理装置12は、端末装置である情報処理装置11と、サーバである情報処理装置13との間に介在する端末装置またはサーバでありうる。情報処理装置12が端末装置である例としては、情報処理装置11がウェアラブルデバイスであり、情報処理装置12がウェアラブルデバイスとBluetooth(登録商標)などで接続されたモバイルデバイスであり、情報処理装置13がモバイルデバイスとインターネットで接続されたサーバであるような場合がある。また、情報処理装置12がサーバである例としては、情報処理装置11が各種の端末装置であり、情報処理装置12が端末装置とネットワークで接続された中間サーバであり、情報処理装置13が中間サーバとネットワークで接続されたサーバであるような場合がある。
(第7の例)
図24は、本開示の実施形態に係るシステム構成の第7の例を示すブロック図である。図24を参照すると、システム10は、情報処理装置11a,11b,12,13を含む。図示された例において、入力部100は、情報処理装置11aにおいて実現される。出力部300は、情報処理装置11bにおいて実現される。一方、処理部200は、情報処理装置12および情報処理装置13に分散して実現される。情報処理装置11a,11bと情報処理装置12、および情報処理装置12と情報処理装置13とは、本開示の実施形態に係る機能を実現するために、ネットワークを介してそれぞれ通信する。
この第7の例は、上記の第3の例と第6の例とを組み合わせた例である。つまり、第7の例では、入力部100を実現する情報処理装置11aと、出力部300を実現する情報処理装置11bとが別個の装置である。より具体的には、この第7の例には、情報処理装置11a,11bが、ユーザの異なる部位に装着されるウェアラブルデバイスであり、情報処理装置12がこれらのウェアラブルデバイスとBluetooth(登録商標)などで接続されたモバイルデバイスであり、情報処理装置13がモバイルデバイスとインターネットで接続されたサーバであるような場合が含まれる。また、この第7の例には、情報処理装置11a,11bが複数の端末装置(同じユーザによって所持または使用されてもよいし、異なるユーザによって所持または使用されてもよい)であり、情報処理装置12がそれぞれの端末装置とネットワークで接続された中間サーバであり、情報処理装置13が中間サーバとネットワークで接続されたサーバであるような場合も含まれる。
(第8の例)
図25は、本開示の実施形態に係るシステム構成の第8の例を示すブロック図である。図25を参照すると、システム10は、情報処理装置11,12a,12b,13を含む。入力部100および出力部300は、情報処理装置11において実現される。一方、処理部200は、情報処理装置12a,12bおよび情報処理装置13に分散して実現される。情報処理装置11と情報処理装置12a,12b、および情報処理装置12a,12bと情報処理装置13とは、本開示の実施形態に係る機能を実現するために、ネットワークを介してそれぞれ通信する。
この第8の例は、上記の第6の例において、前処理を実行する処理部200aと、後処理を実行する処理部200cとが、別個の情報処理装置12a,12bによってそれぞれ実現されるようにした例である。従って、情報処理装置11および情報処理装置13については、上記の第6の例と同様である。また、情報処理装置12a,12bは、それぞれ、サーバであってもよいし、端末装置であってもよい。例えば、情報処理装置12a,12bがいずれもサーバである場合、システム10では、処理部200が、3つのサーバ(情報処理装置12a,12b,13)に分散して実現されているともいえる。なお、処理部200を分散的に実現するサーバの数は、3つには限らず、2つであってもよいし、4つ以上であってもよい。これらの例については、例えばこの第8の例、または次に説明する第9の例から理解することが可能であるため、図示は省略する。
(第9の例)
図26は、本開示の実施形態に係るシステム構成の第9の例を示すブロック図である。図26を参照すると、システム10は、情報処理装置11a,11b,12a,12b,13を含む。この第9の例において、入力部100は、情報処理装置11aにおいて実現される。出力部300は、情報処理装置11bにおいて実現される。一方、処理部200は、情報処理装置12a,12bおよび情報処理装置13に分散して実現される。情報処理装置11aと情報処理装置12a、情報処理装置11bと情報処理装置12b、および情報処理装置12a,12bと情報処理装置13とは、本開示の実施形態に係る機能を実現するために、ネットワークを介してそれぞれ通信する。
この第9の例は、上記の第7の例と第8の例とを組み合わせた例である。つまり、第9の例では、入力部100を実現する情報処理装置11aと、出力部300を実現する情報処理装置11bとが別個の装置である。情報処理装置11a,11bは、それぞれ別個の中間ノード(情報処理装置12a,12b)と通信する。従って、この第9の例では、上記の第8の例と同様に処理部200が3つのサーバ(情報処理装置12a,12b,13)に分散して実現されるとともに、同じユーザによって所持または使用される、または異なるユーザによって所持または使用される端末装置でありうる情報処理装置11a,11bを利用して、本開示の実施形態に係る機能を実現することができる。
(中間サーバを含むシステムの例)
図27は、本開示の実施形態に係るシステム構成のより具体的な例の一つとして、中間サーバを含むシステムの例を示す図である。図示された例では、情報処理装置11(または情報処理装置11a,11b)が端末装置であり、情報処理装置12が中間サーバであり、情報処理装置13がサーバである。
上記で図21を参照して説明した例と同様に、端末装置には、モバイルデバイス11−1、ウェアラブルデバイス11−2、車載デバイス11−3、テレビ11−4、デジタルカメラ11−5、CEデバイス11−6、ロボットデバイス、またはサインボード11−7などが含まれうる。これらの情報処理装置11(端末装置)は、ネットワークを介して情報処理装置12(中間サーバ)と通信する。端末装置と中間サーバとの間のネットワークは、上記の例におけるインターフェース150b,350bにあたる。また、情報処理装置12(中間サーバ)は、ネットワークを介して情報処理装置13(サーバ)と通信する。中間サーバとサーバとの間のネットワークは、上記の例におけるインターフェース250bにあたる。
なお、図27に示した例は、システム10が中間サーバを含むシステムにおいて実現される例を理解しやすくするために示されたものであり、システム10がこのようなシステムに限定されないのは、上記のそれぞれの例で説明された通りである。
(ホストとして機能する端末装置を含むシステムの例)
図28は、本開示の実施形態に係るシステム構成のより具体的な例の一つとして、ホストとして機能する端末装置を含むシステムの例を示す図である。図示された例では、情報処理装置11(または情報処理装置11a,11b)が端末装置であり、情報処理装置12がホストとして機能する端末装置であり、情報処理装置13がサーバである。
図示された例において、端末装置には、例えば、ウェアラブルデバイス11−2、車載デバイス11−3、デジタルカメラ11−5、ロボットデバイス、設備に付帯して設置されるセンサなどを含むデバイス、およびCEデバイス11−6が含まれうる。これらの情報処理装置11(端末装置)は、例えばBluetooth(登録商標)やWi−Fiのようなネットワークを介して情報処理装置12と通信する。図では、ホストとして機能する端末装置として、モバイルデバイス12−1を例示している。端末装置とモバイルデバイスとの間のネットワークは、上記の例におけるインターフェース150b,350bにあたる。情報処理装置12(モバイルデバイス)は、例えばインターネットなどのネットワークを介して情報処理装置13(サーバ)と通信する。モバイルデバイスとサーバとの間のネットワークは、上記の例におけるインターフェース250bにあたる。
なお、図28に示した例は、システム10がホストとして機能する端末装置を含むシステムにおいて実現される例を理解しやすくするために示されたものであり、システム10がこのようなシステムに限定されないのは、上記のそれぞれの例で説明された通りである。また、ホストとして機能する端末装置は、図示された例におけるモバイルデバイス12−1には限られず、適切な通信機能および処理機能を有する各種の端末装置が、ホストとして機能しうる。また、端末装置の例として図示したウェアラブルデバイス11−2、車載デバイス11−3、デジタルカメラ11−5、およびCEデバイス11−6は、これらの装置以外の端末装置をこの例から除外するものではなく、情報処理装置12がモバイルデバイス12−1である場合の情報処理装置11としてありうる典型的な端末装置の例を示しているにすぎない。
(エッジサーバを含むシステムの例)
図29は、本開示の実施形態に係るシステム構成のより具体的な例の一つとして、エッジサーバを含むシステムの例を示す図である。図示された例では、情報処理装置11(または情報処理装置11a、11b)が端末装置であり、情報処理装置12がエッジサーバであり、情報処理装置13がサーバである。
上記で図21を参照して説明した例と同様に、端末装置には、モバイルデバイス11−1、ウェアラブルデバイス11−2、車載デバイス11−3、テレビ11−4、デジタルカメラ11−5、CEデバイス11−6、ロボットデバイス、またはサインボード11−7などが含まれうる。これらの情報処理装置11(端末装置)は、ネットワークを介して情報処理装置12(エッジサーバ12−2)と通信する。端末装置とエッジサーバとの間のネットワークは、上記の例におけるインターフェース150b,350bにあたる。情報処理装置12(エッジサーバ)は、例えばインターネットなどのネットワークを介して情報処理装置13(サーバ)と通信する。エッジサーバとサーバとの間のネットワークは、上記の例におけるインターフェース250bにあたる。
図29に示す例では、サーバ13よりも端末装置(情報処理装置11)の近くにエッジサーバ12−2(例えば、エッジサーバ12−2a〜12−2d)を分散させることで、通信遅延の短縮、処理の高速化、およびリアルタイム性の向上を実現し得る。
なお、図29に示した例は、システム10がエッジサーバを含むシステムにおいて実現される例を理解しやすくするために示されたものであり、システム10がこのようなシステムに限定されないのは、上記のそれぞれの例で説明された通りである。
(フォグコンピューティングを含むシステムの例)
図30は、本開示の実施形態に係るシステム構成のより具体的な例の一つとして、フォグコンピューティングを含むシステムの例を示す図である。図示された例では、情報処理装置11(または情報処理装置11a、11b)が端末装置であり、情報処理装置12がフォグコンピューティングであり、情報処理装置13がサーバである。
上記で図21を参照して説明した例と同様に、端末装置には、モバイルデバイス11−1、ウェアラブルデバイス11−2、車載デバイス11−3、テレビ11−4、デジタルカメラ11−5、CEデバイス11−6、ロボットデバイス、またはサインボード11−7などが含まれうる。これらの情報処理装置11(端末装置)は、ネットワークを介して情報処理装置12(フォグコンピューティング12−3)と通信する。端末装置とフォグコンピューティングとの間のネットワークは、上記の例におけるインターフェース150b,350bにあたる。情報処理装置12(フォグコンピューティング)は、例えばインターネットなどのネットワークを介して情報処理装置13(サーバ)と通信する。フォグコンピューティングとサーバとの間のネットワークは、上記の例におけるインターフェース250bにあたる。
フォグコンピューティング12−3は、クラウドとデバイスの間にある分散処理環境で、クラウド(サーバ13)よりデバイス(情報処理装置11)に近い位置に広く分散している。具体的には、フォグコンピューティング12−3は、処理のためのコンピューティングリソースを分野別や地域別に分散化して最適に配置する仕組みによりエッジコンピューティングを包含したシステム構成となる。
図30に示す例では、一例として、フォグコンピューティング12−3として、モバイル端末11−1のデータ管理および処理を行うモビリティフォグ12−3a、ウェアラブルデバイス11−2のデータ管理および処理を行うウェアラブルフォグ12−3b、車載デバイス11−3のデータ管理および処理を行う車載デバイスフォグ12−3c、テレビ11−4のデータ管理および処理を行うテレビ端末フォグ12−3d、デジタルカメラ11−5のデータ管理および処理を行うカメラ端末フォグ12−3e、CEデバイス11−6のデータ管理および処理を行うCEフォグ12−3f、サインボード11−7のデータ管理および処理を行うサインボードフォグ12−3gが想定される。各フォグ同士でのデータ流通も行われ得る。
フォグコンピューティングでは、コンピューティングリソースをデバイスに近い位置で分散し、データ管理や蓄積、変換等の各種処理を行うことができ、通信遅延の短縮、処理の高速化、およびリアルタイム性の向上を実現し得る。
なお、図30に示した例は、システム10がフォグコンピューティングを含むシステムにおいて実現される例を理解しやすくするために示されたものであり、システム10がこのようなシステムに限定されないのは、上記のそれぞれの例で説明された通りである。
(第10の例)
図31は、本開示の実施形態に係るシステム構成の第10の例を示すブロック図である。図31を参照すると、システム10は、情報処理装置11a,12a,13を含む。この第10の例において、入力部100は、情報処理装置11aにおいて実現される。また、処理部200は、情報処理装置12aおよび情報処理装置13に分散して実現される。出力部300は、情報処理装置13において実現される。情報処理装置11aと情報処理装置12a、および情報処理装置12aと情報処理装置13とは、本開示の実施形態に係る機能を実現するために、ネットワークを介してそれぞれ通信する。
この第10の例は、上記の第9の例において、情報処理装置11b,12bが情報処理装置13に取り込まれた例である。つまり、第10の例では、入力部100を実現する情報処理装置11a、および処理部200aを実現する情報処理装置12aはそれぞれが独立した装置であるが、処理部200bと出力部300とは、同じ情報処理装置13によって実現される。
第10の例によって、例えば、端末装置である情報処理装置11aにおいて入力部100によって取得された情報が、中間的な端末装置またはサーバである情報処理装置12aでの処理部200aによる処理を経て、サーバまたは端末である情報処理装置13に提供され、処理部200bによる処理を経て出力部300から出力される、といったような構成が実現される。なお、情報処理装置12aによる中間的な処理は、省略されてもよい。このような構成は、例えば、端末装置11aから提供される情報に基づいて、サーバまたは端末13にて所定の処理を実行した上で、処理結果をサーバまたは端末13において蓄積または出力するようなサービスにおいて採用されうる。蓄積された処理結果は、例えば別のサービスによって利用されうる。
(第11の例)
図32は、本開示の実施形態に係るシステム構成の第11の例を示すブロック図である。図32を参照すると、システム10は、情報処理装置11b,12b,13を含む。この第11の例において、入力部100は、情報処理装置13において実現される。また、処理部200は、情報処理装置13および情報処理装置12bに分散して実現される。出力部300は、情報処理装置11bにおいて実現される。情報処理装置13と情報処理装置12b、および情報処理装置12bと情報処理装置11bとは、本開示の実施形態に係る機能を実現するために、ネットワークを介してそれぞれ通信する。
この第11の例は、上記の第9の例において、情報処理装置11a,12aが情報処理装置13に取り込まれた例である。つまり、第11の例では、出力部300を実現する情報処理装置11b、および処理部200cを実現する情報処理装置12bはそれぞれが独立した装置であるが、入力部100と処理部200bとは、同じ情報処理装置13によって実現される。
第11の例によって、例えば、サーバまたは端末装置である情報処理装置13において入力部100によって取得された情報が、処理部200bによる処理を経て、中間的な端末装置またはサーバである情報処理装置12bに提供され、処理部200cによる処理を経て、端末装置である情報処理装置11bにおいて出力部300から出力される、といったような構成が実現される。なお、情報処理装置12bによる中間的な処理は、省略されてもよい。このような構成は、例えば、サーバまたは端末13において取得された情報に基づいて、サーバまたは端末13にて所定の処理を実行した上で、処理結果を端末装置11bに提供するようなサービスにおいて採用されうる。取得される情報は、例えば別のサービスによって提供されうる。
(6.ハードウェア構成)
次に、図33を参照して、本開示の実施形態に係る情報処理装置のハードウェア構成について説明する。図33は、本開示の実施形態に係る情報処理装置のハードウェア構成例を示すブロック図である。
情報処理装置900は、CPU(Central Processing unit)901、ROM(Read Only Memory)903、およびRAM(Random Access Memory)905を含む。また、情報処理装置900は、ホストバス907、ブリッジ909、外部バス911、インターフェース913、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923、通信装置925を含んでもよい。さらに、情報処理装置900は、必要に応じて、撮像装置933、およびセンサ935を含んでもよい。情報処理装置900は、CPU901に代えて、またはこれとともに、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、またはFPGA(Field-Programmable Gate Array)などの処理回路を有してもよい。
CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置900内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一次記憶する。CPU901、ROM903、およびRAM905は、CPUバスなどの内部バスにより構成されるホストバス907により相互に接続されている。さらに、ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチおよびレバーなど、ユーザによって操作される装置である。入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置900の操作に対応した携帯電話などの外部接続機器929であってもよい。入力装置915は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置915を操作することによって、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりする。
出力装置917は、取得した情報をユーザに対して視覚や聴覚、触覚などの感覚を用いて通知することが可能な装置で構成される。出力装置917は、例えば、LCD(Liquid Crystal Display)または有機EL(Electro-Luminescence)ディスプレイなどの表示装置、スピーカまたはヘッドフォンなどの音声出力装置、もしくはバイブレータなどでありうる。出力装置917は、情報処理装置900の処理により得られた結果を、テキストもしくは画像などの映像、音声もしくは音響などの音声、またはバイブレーションなどとして出力する。
ストレージ装置919は、情報処理装置900の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)などの磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。ストレージ装置919は、例えばCPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
ドライブ921は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927のためのリーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ921は、装着されているリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されているリムーバブル記録媒体927に記録を書き込む。
接続ポート923は、機器を情報処理装置900に接続するためのポートである。接続ポート923は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどでありうる。また、接続ポート923は、RS−232Cポート、光オーディオ端子、HDMI(登録商標)(High-Definition Multimedia Interface)ポートなどであってもよい。接続ポート923に外部接続機器929を接続することで、情報処理装置900と外部接続機器929との間で各種のデータが交換されうる。
通信装置925は、例えば、通信ネットワーク931に接続するための通信デバイスなどで構成された通信インターフェースである。通信装置925は、例えば、LAN(Local Area Network)、Bluetooth(登録商標)、Wi−Fi、またはWUSB(Wireless USB)用の通信カードなどでありうる。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置925は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置925に接続される通信ネットワーク931は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などを含みうる。
撮像装置933は、例えば、CMOS(Complementary Metal Oxide Semiconductor)またはCCD(Charge Coupled Device)などの撮像素子、および撮像素子への被写体像の結像を制御するためのレンズなどの各種の部材を用いて実空間を撮像し、撮像画像を生成する装置である。撮像装置933は、静止画を撮像するものであってもよいし、また動画を撮像するものであってもよい。
センサ935は、例えば、加速度センサ、角速度センサ、地磁気センサ、照度センサ、温度センサ、気圧センサ、または音センサ(マイクロフォン)などの各種のセンサである。センサ935は、例えば情報処理装置900の筐体の姿勢など、情報処理装置900自体の状態に関する情報や、情報処理装置900の周辺の明るさや騒音など、情報処理装置900の周辺環境に関する情報を取得する。また、センサ935は、GPS(Global Positioning System)信号を受信して装置の緯度、経度および高度を測定するGPS受信機を含んでもよい。
以上、情報処理装置900のハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更されうる。
(7.補足)
本開示の実施形態は、例えば、上記で説明したような情報処理装置、システム、情報処理装置またはシステムで実行される情報処理方法、情報処理装置を機能させるためのプログラム、およびプログラムが記録された一時的でない有形の媒体を含みうる。
また、本実施形態による情報処理システムは、ユーザの健康面やプロポーションに関する未来予測を、ユーザの情報処理端末で捕捉した情報のみならず、周囲に存在する環境センサから得られた情報を含めて、より的確に行うことができる。
また、ユーザが将来なりたい姿の願望情報を入力し、その願望を実現するために必要なアドバイスを実施することで、ユーザにより効果的なアドバイスを告知することができる。
また、ユーザの趣味嗜好情報を、インターネット検索情報や閲覧履歴、購入履歴等から得ることで、より正確なユーザの趣味嗜好に合致したヘルスケアのアドバイスを実施することができる。
また、ユーザが摂取したカロリーを、周囲に存在する環境センサから得られた情報を加味して算出することで、従来のユーザの自己申告による入力に頼らず、客観的なデータに基づいて、より的確な未来予想を実施することができる。
また、ユーザの最新のプロポーション情報に基づいて未来予想を実施することで、実態に即した生活改善方法の提案をすることができる。
また、本実施形態で用いる個人情報は、ユーザの情報処理端末側に格納し、必要に応じて事業者側のサーバに送信することで、個人情報が無暗に第三者に盗み見られる危険性が減少する。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上述した入力部100、処理部200、または出力部300に内蔵されるCPU、ROM、およびRAM等のハードウェアに、・入力部100、処理部200、または出力部300の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、本技術は以下のような構成も取ることができる。
(1)
ユーザ周辺のセンサから取得した前記ユーザに関わる情報を含むセンサ情報履歴に基づいて、前記ユーザの将来の身体状況を予測する予測部と、
前記予測した前記身体状況と、前記センサ情報履歴から得た前記ユーザの生活習慣情報および嗜好情報とに基づいて、前記身体状況を前記ユーザにより指定された理想身体に近付けるためのアドバイスを生成する生成部と、
を備える、情報処理装置。
(2)
前記身体状況は、身体の内面要素および外面要素の少なくともいずれかを含む、前記(1)に記載の情報処理装置。
(3)
前記理想身体は、身体の内面要素および外面要素の少なくともいずれかを含む、前記(1)または(2)に記載の情報処理装置。
(4)
前記内面要素は、健康状態に関する要素であって、
前記外面要素は、体型に関する要素である、前記(2)または(3)に記載の情報処理装置。
(5)
前記予測部は、前記センサ情報履歴から得た前記ユーザの前記生活習慣情報および前記嗜好情報の少なくともいずれかに基づいて、前記身体状況を予測する、前記(1)〜(4)のいずれか1項に記載の情報処理装置。
(6)
前記生活習慣情報は、前記ユーザの運動および食事に関する情報であって、前記センサ情報履歴に含まれる前記ユーザの行動履歴および飲食に関する情報から取得される、前記(5)に記載の情報処理装置。
(7)
前記嗜好情報は、前記ユーザが摂取する嗜好品の摂取量および摂取タイミングに関する情報である、前記(5)に記載の情報処理装置。
(8)
前記予測部は、
前記センサ情報履歴から得た前記ユーザの現在の全身画像を解析して前記ユーザの現在の身体の外面要素を取得し、
前記現在の身体の外面要素を基準として、前記ユーザの前記生活習慣情報および前記嗜好情報に基づいて、指定された所定の時間経過後の前記身体状況を予測する、前記(5)〜(7)のいずれか1項に記載の情報処理装置。
(9)
前記ユーザ周辺のセンサは、
前記ユーザが所有する情報処理端末に設けられたセンサ、または周囲に存在する環境センサを含む、前記(2)〜(8)のいずれか1項に記載の情報処理装置。
(10)
前記ユーザ周辺のセンサは、カメラ、マイクロフォン、重さセンサ、生体センサ、加速度センサ、赤外線センサ、または位置検出部である、前記(9)に記載の情報処理装置。
(11)
前記センサ情報履歴は、前記ユーザにより入力された情報、インターネット上から取得した情報、または、前記ユーザが所有する情報処理端末から取得した情報を含む、前記(2)〜(10)のいずれか1項に記載の情報処理装置。
(12)
前記生成部は、前記理想身体に近付けるためのアドバイスとして、前記ユーザの前記嗜好情報に基づいて、嗜好品の過剰摂取または摂取不足に関するアドバイスを生成する、前記(2)〜(11)のいずれか1項に記載の情報処理装置。
(13)
前記アドバイスは、前記ユーザの趣味嗜好に基づいて、前記ユーザが好む特定のキャラクターまたは人物からの助言として前記ユーザに提示される、前記(2)〜(12)のいずれか1項に記載の情報処理装置。
(14)
前記理想身体は、前記ユーザによりパラメータとして入力される、前記(2)〜(13)のいずれ1項に記載の情報処理装置。
(15)
プロセッサが、
ユーザ周辺のセンサから取得した前記ユーザに関わる情報を含むセンサ情報履歴に基づいて、前記ユーザの将来の身体状況を予測することと、
前記予測した前記身体状況と、前記センサ情報履歴から得た前記ユーザの生活習慣情報および嗜好情報とに基づいて、前記身体状況を前記ユーザにより指定された理想身体に近付けるためのアドバイスを生成することと、
を含む、情報処理方法。
(16)
コンピュータを、
ユーザ周辺のセンサから取得した前記ユーザに関わる情報を含むセンサ情報履歴に基づいて、前記ユーザの将来の身体状況を予測する予測部と、
前記予測した前記身体状況と、前記センサ情報履歴から得た前記ユーザの生活習慣情報および嗜好情報とに基づいて、前記身体状況を前記ユーザにより指定された理想身体に近付けるためのアドバイスを生成する生成部と、
として機能させるための、プログラム。
10 システム
11、12、13 情報処理装置
100 入力部
150、250、350 インターフェース
200 処理部
201 ユーザ情報DB
203 予測部
205 出力制御部
207 アドバイス生成部
300 出力部

Claims (16)

  1. ユーザ周辺のセンサから取得した前記ユーザに関わる情報を含むセンサ情報履歴に基づいて、前記ユーザの将来の身体状況を予測する予測部と、
    前記予測した前記身体状況と、前記センサ情報履歴から得た前記ユーザの生活習慣情報および嗜好情報とに基づいて、前記身体状況を前記ユーザにより指定された理想身体に近付けるためのアドバイスを生成する生成部と、
    を備える、情報処理装置。
  2. 前記身体状況は、身体の内面要素および外面要素の少なくともいずれかを含む、請求項1に記載の情報処理装置。
  3. 前記理想身体は、身体の内面要素および外面要素の少なくともいずれかを含む、請求項1に記載の情報処理装置。
  4. 前記内面要素は、健康状態に関する要素であって、
    前記外面要素は、体型に関する要素である、請求項2に記載の情報処理装置。
  5. 前記予測部は、前記センサ情報履歴から得た前記ユーザの前記生活習慣情報および前記嗜好情報の少なくともいずれかに基づいて、前記身体状況を予測する、請求項1に記載の情報処理装置。
  6. 前記生活習慣情報は、前記ユーザの運動および食事に関する情報であって、前記センサ情報履歴に含まれる前記ユーザの行動履歴および飲食に関する情報から取得される、請求項5に記載の情報処理装置。
  7. 前記嗜好情報は、前記ユーザが摂取する嗜好品の摂取量および摂取タイミングに関する情報である、請求項5に記載の情報処理装置。
  8. 前記予測部は、
    前記センサ情報履歴から得た前記ユーザの現在の全身画像を解析して前記ユーザの現在の身体の外面要素を取得し、
    前記現在の身体の外面要素を基準として、前記ユーザの前記生活習慣情報および前記嗜好情報に基づいて、指定された所定の時間経過後の前記身体状況を予測する、請求項5に記載の情報処理装置。
  9. 前記ユーザ周辺のセンサは、
    前記ユーザが所有する情報処理端末に設けられたセンサ、または周囲に存在する環境センサを含む、請求項2に記載の情報処理装置。
  10. 前記ユーザ周辺のセンサは、カメラ、マイクロフォン、重さセンサ、生体センサ、加速度センサ、赤外線センサ、または位置検出部である、請求項9に記載の情報処理装置。
  11. 前記センサ情報履歴は、前記ユーザにより入力された情報、インターネット上から取得した情報、または、前記ユーザが所有する情報処理端末から取得した情報を含む、請求項2に記載の情報処理装置。
  12. 前記生成部は、前記理想身体に近付けるためのアドバイスとして、前記ユーザの前記嗜好情報に基づいて、嗜好品の過剰摂取または摂取不足に関するアドバイスを生成する、請求項2に記載の情報処理装置。
  13. 前記アドバイスは、前記ユーザの趣味嗜好に基づいて、前記ユーザが好む特定のキャラクターまたは人物からの助言として前記ユーザに提示される、請求項2に記載の情報処理装置。
  14. 前記理想身体は、前記ユーザによりパラメータとして入力される、請求項2に記載の情報処理装置。
  15. プロセッサが、
    ユーザ周辺のセンサから取得した前記ユーザに関わる情報を含むセンサ情報履歴に基づいて、前記ユーザの将来の身体状況を予測することと、
    前記予測した前記身体状況と、前記センサ情報履歴から得た前記ユーザの生活習慣情報および嗜好情報とに基づいて、前記身体状況を前記ユーザにより指定された理想身体に近付けるためのアドバイスを生成することと、
    を含む、情報処理方法。
  16. コンピュータを、
    ユーザ周辺のセンサから取得した前記ユーザに関わる情報を含むセンサ情報履歴に基づいて、前記ユーザの将来の身体状況を予測する予測部と、
    前記予測した前記身体状況と、前記センサ情報履歴から得た前記ユーザの生活習慣情報および嗜好情報とに基づいて、前記身体状況を前記ユーザにより指定された理想身体に近付けるためのアドバイスを生成する生成部と、
    として機能させるための、プログラム。
JP2019558923A 2017-12-13 2018-09-28 情報処理装置、情報処理方法、およびプログラム Pending JPWO2019116679A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017238615 2017-12-13
JP2017238615 2017-12-13
PCT/JP2018/036159 WO2019116679A1 (ja) 2017-12-13 2018-09-28 情報処理装置、情報処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
JPWO2019116679A1 true JPWO2019116679A1 (ja) 2021-01-14

Family

ID=66819675

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019558923A Pending JPWO2019116679A1 (ja) 2017-12-13 2018-09-28 情報処理装置、情報処理方法、およびプログラム

Country Status (7)

Country Link
US (1) US20200357503A1 (ja)
EP (1) EP3726534A4 (ja)
JP (1) JPWO2019116679A1 (ja)
KR (1) KR20200097704A (ja)
CN (1) CN111465991A (ja)
RU (1) RU2020115063A (ja)
WO (1) WO2019116679A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023101204A (ja) * 2022-01-07 2023-07-20 日本コンピュータビジョン株式会社 情報処理プログラム、情報処理装置及び情報処理方法

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017132690A1 (en) 2016-01-28 2017-08-03 Savor Labs, Inc. Method and apparatus for tracking of food intake and other behaviors and providing relevant feedback
US20200289373A1 (en) * 2018-10-31 2020-09-17 Medtronic Minimed, Inc. Automated detection of a physical behavior event and corresponding adjustment of a physiological characteristic sensor device
US11363986B2 (en) * 2018-10-31 2022-06-21 Medtronic Minimed, Inc. Automated detection of a physical behavior event and corresponding adjustment of a medication dispensing system
US11367516B2 (en) * 2018-10-31 2022-06-21 Medtronic Minimed, Inc. Automated detection of a physical behavior event and corresponding adjustment of a medication dispensing system
US11367517B2 (en) * 2018-10-31 2022-06-21 Medtronic Minimed, Inc. Gesture-based detection of a physical behavior event based on gesture sensor data and supplemental information from at least one external source
JP7336292B2 (ja) * 2019-07-25 2023-08-31 株式会社第一興商 カラオケ装置
JP7380691B2 (ja) 2019-09-05 2023-11-15 日本電信電話株式会社 情報提示装置、学習装置、情報提示方法、学習方法、情報提示プログラム、及び学習プログラム
JP7312721B2 (ja) * 2020-04-03 2023-07-21 任天堂株式会社 情報処理システム、情報処理プログラム、情報処理装置、および情報処理方法
CN111462867B (zh) * 2020-04-05 2021-01-05 深圳市优必爱信息科技有限公司 基于5g网络和区块链的智能移动医疗方法及系统
CN111968367B (zh) * 2020-08-12 2021-12-14 上海宝通汎球电子有限公司 一种物联网通信管理系统和管理方法
CN111951640B (zh) * 2020-08-22 2022-01-25 湖南大学 一种光子衰减传感器辅助声乐气息练习装置及使用方法
US20220310246A1 (en) * 2021-03-24 2022-09-29 Danmarks Tekniske Universitet Systems and methods for quantitative assessment of a health condition
KR102546256B1 (ko) * 2021-05-21 2023-06-22 주식회사 베니페 체외진단기를 이용한 딥러닝 헬스케어 서비스 플랫폼 및 이를 이용한 헬스케어 추천방법
JP7431196B2 (ja) * 2021-06-04 2024-02-14 株式会社Zozo 情報処理装置、情報処理方法及び情報処理プログラム
JP7241126B2 (ja) * 2021-06-04 2023-03-16 株式会社Zozo 情報処理装置、情報処理方法及び情報処理プログラム
JP7285886B2 (ja) 2021-07-13 2023-06-02 飯田グループホールディングス株式会社 健康増進プログラム提供システム及び健康増進プログラム提供方法
WO2023085434A1 (ja) * 2021-11-15 2023-05-19 旭化成ホームズ株式会社 情報処理システム、情報処理方法およびプログラム
WO2023175797A1 (ja) * 2022-03-16 2023-09-21 日本電気株式会社 情報処理装置、情報処理システム、情報処理方法及び非一時的なコンピュータ可読媒体

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003084393A1 (fr) * 2002-04-09 2003-10-16 Matsushita Electric Industrial Co., Ltd. Systeme et procede de gestion de sante
JP2007122182A (ja) * 2005-10-25 2007-05-17 Matsushita Electric Ind Co Ltd 生活習慣改善支援装置
JP2008242963A (ja) * 2007-03-28 2008-10-09 Fujifilm Corp 健康分析表示方法及び健康分析表示装置
US20120289789A1 (en) * 2011-05-13 2012-11-15 Fujitsu Limited Continuous Monitoring of Stress Using Environmental Data
US20140114677A1 (en) * 2012-10-23 2014-04-24 Theranos, Inc. Assisted Medical and Associated Lifestyle Decision Making
US20140316811A1 (en) * 2010-09-29 2014-10-23 Dacadoo Ag Automated health data acquisition, processing and communication system
JP2015103248A (ja) * 2013-11-25 2015-06-04 パロ・アルト・リサーチ・センター・インコーポレーテッドPalo Alto Research Center Incorporated インテリジェントなディジタルセルフ表現を作成する方法及びシステム
JP2016031569A (ja) * 2014-07-28 2016-03-07 カシオ計算機株式会社 生活活動解析装置、生活活動解析システム、生活活動解析方法及びプログラム
JP2017054163A (ja) * 2015-09-07 2017-03-16 大和ハウス工業株式会社 食事アドバイスシステム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002001317A2 (en) * 2000-06-23 2002-01-03 Nicanor Padron Health services delivery system with incentives
JP2002032009A (ja) * 2000-07-14 2002-01-31 Sharp Corp 仮想キャラクタ育成サーバ、仮想キャラクタ育成方法およびその方法を実現するプログラムを記録した機械読取可能な記録媒体
US7063665B2 (en) * 2003-03-04 2006-06-20 Tanita Corporation Health care system
CN102685311A (zh) * 2011-03-18 2012-09-19 上海华勤通讯技术有限公司 具有角色扮演功能的手机及其实现方法
EP2788909A4 (en) * 2011-12-06 2015-08-12 Dianovator Ab MEDICAL ARRANGEMENTS AND METHOD FOR PREDICTING A VALUE ASSOCIATED WITH A MEDICAL CONDITION
CN104053396B (zh) * 2011-12-15 2016-12-21 贝克顿·迪金森公司 用于改进的生理数据的解释和生理状况管理信息的呈现的系统
US9189764B2 (en) * 2013-02-05 2015-11-17 International Business Machines Corporation Usage of quantitative information gain to support decisions in sequential clinical risk assessment examinations
JP2015087957A (ja) 2013-10-30 2015-05-07 株式会社東芝 情報提供装置およびその方法、ならびにプログラム
US20160055760A1 (en) * 2014-03-28 2016-02-25 Christopher Mirabile System and method for generating health & lifestyle observations and recommendations for an individual
US20160147960A1 (en) * 2014-11-25 2016-05-26 Electronics And Telecommunications Research Institute Apparatus and method for providing customized personal health service
JP6608142B2 (ja) 2015-01-28 2019-11-20 株式会社野村総合研究所 サーバ装置
KR20170061222A (ko) * 2015-11-25 2017-06-05 한국전자통신연구원 건강데이터 패턴의 일반화를 통한 건강수치 예측 방법 및 그 장치
WO2017132690A1 (en) * 2016-01-28 2017-08-03 Savor Labs, Inc. Method and apparatus for tracking of food intake and other behaviors and providing relevant feedback
US20170308671A1 (en) * 2016-04-20 2017-10-26 Bionous, LLC Personal health awareness system and methods
WO2017187270A1 (en) * 2016-04-25 2017-11-02 Samsung Electronics Co., Ltd. System and method for providing aggregation and continuous learning to improve health outcomes
US20170337341A1 (en) * 2016-05-20 2017-11-23 Hcl Technologies Limited System and method for mitigating a medical risk
US20200058408A1 (en) * 2016-10-17 2020-02-20 Koninklijke Philips N.V. Systems, methods, and apparatus for linking family electronic medical records and prediction of medical conditions and health management
US20180322253A1 (en) * 2017-05-05 2018-11-08 International Business Machines Corporation Sensor Based Monitoring

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003084393A1 (fr) * 2002-04-09 2003-10-16 Matsushita Electric Industrial Co., Ltd. Systeme et procede de gestion de sante
JP2007122182A (ja) * 2005-10-25 2007-05-17 Matsushita Electric Ind Co Ltd 生活習慣改善支援装置
JP2008242963A (ja) * 2007-03-28 2008-10-09 Fujifilm Corp 健康分析表示方法及び健康分析表示装置
US20140316811A1 (en) * 2010-09-29 2014-10-23 Dacadoo Ag Automated health data acquisition, processing and communication system
US20120289789A1 (en) * 2011-05-13 2012-11-15 Fujitsu Limited Continuous Monitoring of Stress Using Environmental Data
US20140114677A1 (en) * 2012-10-23 2014-04-24 Theranos, Inc. Assisted Medical and Associated Lifestyle Decision Making
JP2016504057A (ja) * 2012-10-23 2016-02-12 セラノス, インコーポレイテッド 支援された医学的および関連したライフスタイルの意思決定
JP2015103248A (ja) * 2013-11-25 2015-06-04 パロ・アルト・リサーチ・センター・インコーポレーテッドPalo Alto Research Center Incorporated インテリジェントなディジタルセルフ表現を作成する方法及びシステム
JP2016031569A (ja) * 2014-07-28 2016-03-07 カシオ計算機株式会社 生活活動解析装置、生活活動解析システム、生活活動解析方法及びプログラム
JP2017054163A (ja) * 2015-09-07 2017-03-16 大和ハウス工業株式会社 食事アドバイスシステム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023101204A (ja) * 2022-01-07 2023-07-20 日本コンピュータビジョン株式会社 情報処理プログラム、情報処理装置及び情報処理方法

Also Published As

Publication number Publication date
US20200357503A1 (en) 2020-11-12
KR20200097704A (ko) 2020-08-19
RU2020115063A (ru) 2021-10-29
CN111465991A (zh) 2020-07-28
RU2020115063A3 (ja) 2022-02-09
EP3726534A4 (en) 2021-01-20
WO2019116679A1 (ja) 2019-06-20
EP3726534A1 (en) 2020-10-21

Similar Documents

Publication Publication Date Title
WO2019116679A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US11030708B2 (en) Method of and device for implementing contagious illness analysis and tracking
US11397997B2 (en) Device for implementing body fluid analysis and social networking event planning
US11587457B1 (en) System, method, and program product for interactively prompting user decisions
US10387898B2 (en) Crowd-based personalized recommendations of food using measurements of affective response
US11494390B2 (en) Crowd-based scores for hotels from measurements of affective response
US11722737B1 (en) System, method, and program product for interactively prompting user decisions
US11269891B2 (en) Crowd-based scores for experiences from measurements of affective response
JP6969048B2 (ja) 対話式健康促進システム、対話式学習促進システム、対話式購入促進システム
US8446275B2 (en) General health and wellness management method and apparatus for a wellness application using data from a data-capable band
Chung et al. Real‐world multimodal lifelog dataset for human behavior study
WO2019021575A1 (ja) 情報処理システム、情報処理装置、情報処理方法、および記録媒体
US20140129239A1 (en) General health and wellness management method and apparatus for a wellness application using data associated with a data-capable band
US10839444B2 (en) Coaching method and system considering relationship type
WO2019116658A1 (ja) 情報処理装置、情報処理方法、およびプログラム
CA2795978A1 (en) General health and wellness management method and apparatus for a wellness application using data associated with a data-capable band
JPWO2016189908A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US20230219586A1 (en) Technique for providing a user-adapted service to a user
CN110809489B (zh) 信息处理装置、信息处理方法和存储介质
Hong et al. The quantified self
Kaddachi Technological Approach for Early and Unobtrusive Detection of Possible Health Changes toward Better Adaptation of Services for Elderly People
Loveday Advancing the objective measurement of physical activity and sedentary behaviour context

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221027

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230214