JPWO2018012071A1 - 情報処理システム、記録媒体及び情報処理方法 - Google Patents

情報処理システム、記録媒体及び情報処理方法 Download PDF

Info

Publication number
JPWO2018012071A1
JPWO2018012071A1 JP2018527400A JP2018527400A JPWO2018012071A1 JP WO2018012071 A1 JPWO2018012071 A1 JP WO2018012071A1 JP 2018527400 A JP2018527400 A JP 2018527400A JP 2018527400 A JP2018527400 A JP 2018527400A JP WO2018012071 A1 JPWO2018012071 A1 JP WO2018012071A1
Authority
JP
Japan
Prior art keywords
user
task
information processing
processing system
terminal device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018527400A
Other languages
English (en)
Other versions
JP6981412B2 (ja
Inventor
顕博 小森
顕博 小森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2018012071A1 publication Critical patent/JPWO2018012071A1/ja
Application granted granted Critical
Publication of JP6981412B2 publication Critical patent/JP6981412B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1118Determining activity level
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/215Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/216Input arrangements for video game devices characterised by their sensors, purposes or types using geographical information, e.g. location of the game device or player using GPS
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/424Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving acoustic input signals, e.g. by using the results of pitch or rhythm extraction or voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/44Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment involving timing of operations, e.g. performing an action within a time slot
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • A63F13/79Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/825Fostering virtual characters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N99/00Subject matter not provided for in other groups of this subclass
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/66Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Human Computer Interaction (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Psychiatry (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Signal Processing (AREA)
  • Physiology (AREA)
  • Business, Economics & Management (AREA)
  • Artificial Intelligence (AREA)
  • Acoustics & Sound (AREA)
  • Epidemiology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Primary Health Care (AREA)
  • Theoretical Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Hospice & Palliative Care (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Marketing (AREA)

Abstract

【課題】長期的な衰えの進行を抑制することが可能な仕組みを提供する。【解決手段】ユーザに関するユーザ関連情報を取得する取得部と、前記ユーザ関連情報に基づいて前記ユーザの通常状態を学習する学習部と、取得された前記ユーザ関連情報を学習された前記通常状態に参照することで前記ユーザの異常状態を検出すると、検出された前記異常状態を抑制するためのタスクを提供するよう制御する出力制御部と、を備える情報処理システム。【選択図】図1

Description

本開示は、情報処理システム、記録媒体及び情報処理方法に関する。
近年、食生活の改善及び医療技術の進歩等により、人の長寿化が進んでいる。そのため、老人の健康的な生活をサポートするための技術の開発が望まれている。そのような技術のひとつとして、例えば老人のコミュニケーションを促進する技術が考えられる。
例えば、下記特許文献1及び2には、ユーザとコミュニケーションを行う仮想的なペットに関する技術が開示されている。下記特許文献1では、仮想的なペットをネットワークを介して飼育するシステムにおいて、ユーザからのアクセス履歴に応じて、「近ごろ、会いに来てくれないので、さみしい」といったメッセージをペットが送る技術が開示されている。下記特許文献2では、利用者の行動に応じて育成される仮想的なペットに関し、仮想ペットの成長状態の変化を利用して、利用者の運動量をふやすように移動速度を早くする等のアドバイスを行ったり、利用者の健康管理を行ったりする技術が開示されている。
特開平10−328416号公報 特開2010−214009号公報
ここで、人は加齢と共に、身体能力及び知的能力が長い時間をかけて徐々に衰えていくものである。老化による衰えの進行を放置しておくと、段差で蹴つまずいて怪我をしたり、ガスの火をつけっぱなしにしたりして火災を引き起こしたりする危険がある。このような危険は、特に一人暮らしの老人にとっては切実である。家族と共に住む老人の場合は、家族が老化による衰えの進行に気付いて適切に支援できる場合もあるためである。ただし、家族の支援が困難な場合もあることを考慮すれば、家族と共に住む老人にとってもこのような危険は無視できない。老化以外にも、例えば病気又は運動不足等により長期的に衰えが進行していく場合も同様である。
この点、上記特許文献等に開示された技術では、アクセスが無い、運動量が少ない、といったユーザの短期的な行動自体を改善することが可能であったとしても、長期的な衰えの進行を抑制することは困難であった。長期的な衰えの進行が抑制されれば、それに起因する危険の発生も未然に防止される。そこで、本開示では、長期的な衰えの進行を抑制することが可能な仕組みを提案する。
本開示によれば、ユーザに関するユーザ関連情報を取得する取得部と、前記ユーザ関連情報に基づいて前記ユーザの通常状態を学習する学習部と、取得された前記ユーザ関連情報を学習された前記通常状態に参照することで前記ユーザの異常状態を検出すると、検出された前記異常状態を抑制するためのタスクを提供するよう制御する出力制御部と、を備える情報処理システムが提供される。
また、本開示によれば、コンピュータを、ユーザに関するユーザ関連情報を取得する取得部と、前記ユーザ関連情報に基づいて前記ユーザの通常状態を学習する学習部と、取得された前記ユーザ関連情報を学習された前記通常状態に参照することで前記ユーザの異常状態を検出すると、検出された前記異常状態を抑制するためのタスクを提供するよう制御する出力制御部と、として機能させるためのプログラムを記録した記録媒体が提供される。
また、本開示によれば、ユーザに関するユーザ関連情報を取得することと、前記ユーザ関連情報に基づいて前記ユーザの通常状態を学習することと、取得された前記ユーザ関連情報を学習された前記通常状態に参照することで前記ユーザの異常状態を検出すると、検出された前記異常状態を抑制するためのタスクを提供するようプロセッサにより制御することと、を含む情報処理方法が提供される。
以上説明したように本開示によれば、長期的な衰えの進行を抑制することが可能な仕組みが提供される。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本実施形態に係る情報処理システムのコンセプトを説明するための図である。 本実施形態に係る情報処理システムの概要を説明するための図である。 本実施形態に係る端末装置の論理的な構成の一例を示すブロック図である。 本実施形態に係る端末装置のCPUにおける処理の流れを説明するための図である。 本実施形態に係る端末装置による事前学習処理の流れの一例を示すフローチャートである。 本実施形態に係る端末装置による事前学習処理の流れの一例を示すフローチャートである。 本実施形態に係る端末装置による事前学習処理の流れの一例を示すフローチャートである。 本実施形態に係る端末装置による事前学習処理の流れの一例を示すフローチャートである。 本実施形態に係る端末装置による異常状態の検出処理の流れの一例を示すフローチャートである。 本実施形態に係る端末装置による異常状態の検出処理の流れの一例を示すフローチャートである。 本実施形態に係る端末装置による異常状態の検出処理の流れの一例を示すフローチャートである。 本実施形態に係る端末装置により提供されるタスクのUIの一例を説明するための図である。 本実施形態に係る端末装置により提供されるタスクのUIの一例を説明するための図である。 本実施形態に係る端末装置により提供されるタスクのUIの一例を説明するための図である。 本実施形態に係る端末装置による第三者への通知処理の流れの一例を示すフローチャートである。 本実施形態に係る端末装置により提供されるタスクのUIの一例を説明するための図である。 本実施形態に係る端末装置による第三者への通知処理の流れの一例を示すフローチャートである。 本実施形態に係る端末装置により第三者へ通知される情報の一例を説明するための図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.概要
2.構成例
3.技術的特徴
3.1.ユーザ関連情報
3.2.事前学習
3.3.タスクの提供
4.まとめ
<<1.概要>>
まず、図1及び図2を参照して、本開示の一実施形態に係る情報処理システムの概要を説明する。
図1は、本実施形態に係る情報処理システムのコンセプトを説明するための図である。図1に示すように、人は、老化と共に腰が曲がって杖が必要になる等衰えていく。その一方で、本実施形態に係る端末装置10と共に生活するユーザ20は、老化による衰えの進行が抑制されて、例えば腰が曲がって杖が必要になるまで通常よりも長い時間がかかる。即ち、本実施形態に係る情報処理システムは、老化による衰えの進行を抑制することが可能である。なお、本明細書では、老化とは単に年齢を重ねることを指し、老化による衰えの概念は含まないものとする。
ここで、本明細書では、端末装置10の機能は、端末装置10上で動作する仮想ペット(即ち、仮想生物)11を介して提供されるものとする。即ち、ユーザ20は、仮想ペット11とのインタラクションを行うことで、老化による衰えの進行を抑制するためのサービスの提供を受ける。もちろん、端末装置10の機能は、仮想ペット11を介さずに提供されてもよいし、逆に端末装置10がペット型ロボット等の専用の装置として実現されてもよい。
図2は、本実施形態に係る情報処理システムの概要を説明するための図である。図1に示すように、情報処理システム1は、端末装置10、端末装置30及びサーバ60を含む。
端末装置10は、ユーザ20を見守り、ユーザ20の関する情報を遠隔地に送信する機能を有する装置である。端末装置10は、ユーザ20に関する情報をセンサ等により取得して、取得した情報に基づくサービスをユーザ20へ提供したり、取得した情報をネットワーク50を介して遠隔地の第三者40の端末装置30へ送信したりする。例えば、ユーザ20は一人暮らしの老人であり、第三者40はユーザ20の家族である。このような機能により、家族40は、例えばユーザ20が健康であること、又は老化による衰えが進行しつつあることを遠隔地から確認することが可能である。なお、上述したように、このような機能は仮想ペット11を介して提供される。例えば、端末装置10は、スマートフォン、タブレット端末、又は活動量計等により実現される。
端末装置30は、端末装置10からユーザ20に関する情報を受信し、受信した情報を家族40へ出力する装置である。例えば、端末装置30は、スマートフォン、タブレット端末、又はPC(Personal Computer)等により実現される。
サーバ60は、例えばクラウド上に設けられ、情報処理システム1に含まれる端末装置10を管理する。例えば、サーバ60は、端末装置10の動作を支援するために、医者等の専門機関への問い合わせ、健康に関するデータベースへのアクセス、必要な情報の蓄積等を行う。
ネットワーク50は、ネットワーク50に接続されている装置から送信される情報の有線又は無線の伝送路である。ネットワーク50は、例えばLAN(Local Area Network)、無線LAN、Bluetooth(登録商標)、LTE(Long Term Evolution)網等を含み得る。
<<2.構成例>>
以上、本実施形態に係る情報処理システム1の概要を説明した。続いて、図3及び図4を参照して、本実施形態に係る端末装置10の構成例を説明する。
図3は、本実施形態に係る端末装置10の論理的な構成の一例を示すブロック図である。図3に示すように、端末装置10は、マイク101、GPS102、加速度センサ103、時計104、タッチパネル105、CPU111、ROM112、RAM113、タスクDB121、特徴量DB122、運動特徴量DB123、特定文字列発話時刻DB124、スピーカ131、ディスプレイ132及び通信I/F141を含む。
(1)入力部
図3に示すように、端末装置10は、マイク101、GPS(Global Positioning System)102、加速度センサ103、時計104及びタッチパネル105を含む。これらの構成要素は、情報を入力する入力部として捉えることが可能である。入力部は、これら以外にも、例えばカメラ、ジャイロセンサ、生体センサ、ボタン、及びキーボード等の任意の構成要素を含み得る。入力部は、後述するユーザ関連情報を入力する機能を有する。
マイク(マイクロホン)101は、周囲の音を収音する。例えば、マイク101は、ユーザの音声、又は周囲の音声を収音する。マイク101は、マイクで得られた音声信号を増幅処理するマイクアンプ回路、A/D(Analog to Digital)変換器、並びに音声データに対してノイズ除去、及び音源分離等の処理を行う信号処理回路を有していてもよい。
GPS102は、端末装置10の位置情報を検出する。GPS102は、例えばGPS衛星からのGPS信号を受信して装置の緯度、経度及び高度から成る位置情報を検出し、検出した位置情報を出力する。なお、端末装置10は、GPS102に代えて又は共に、他の任意の技術を用いて位置情報を検出する装置を有していてもよい。例えば、端末装置10は、GPS102に代えて又は共に、Wi−Fi(登録商標)、携帯電話・PHS・スマートフォン等との送受信、または近距離通信等により位置情報を検出する装置を有していてもよい。
加速度センサ103は、端末装置10の加速度を検出する。加速度センサ103は、光学方式、又は半導体方式等の任意の方式により加速度を検出する。加速度を検出する軸数は任意であり、例えば3軸であってもよい。
時計104は、時刻情報を検出する。時計104は、クォーツ式、又は電波式の任意の方式により時刻情報を検出する。
タッチパネル105は、ユーザによるタッチ操作を検出する。典型的には、タッチパネル105は、後述するディスプレイ132と一体的に構成されて、ディスプレイ132に表示された画像へのタッチ操作を検出する。
(2)制御部
図3に示すように、端末装置10は、CPU(Central Processing Unit)111、ROM(Read Only Memory)112、及びRAM(Random Access Memory)113を含む。これらの構成要素は、端末装置10内の動作全般を制御する制御部として捉えることが可能である。制御部は、これら以外にも、他の任意の構成要素を含み得る。制御部は、端末装置10に含まれる各構成要素を制御する機能を有し、とりわけユーザ関連情報を処理する機能を有する。なお、端末装置10に含まれる各構成要素は、制御部による制御に基づいて動作するものとし、以下ではこのことに関する説明を省略する。例えば、制御部が情報を出力するよう出力部を制御することを、単に端末装置10が情報を出力する、と記載する。
CPU111は、演算処理装置及び制御装置として機能し、各種プログラムに従って端末装置10内の動作全般を制御する。端末装置10は、CPU111に代えて又は共に、マイクロプロセッサ等により実現されてもよく、より簡易には電子回路によって実現されてもよい。ROM112は、使用するプログラム及び演算パラメータ等を記憶する。RAM113は、適宜変化するパラメータ等を一時記憶する。ここで、図4を参照して、CPU111における処理の流れをより詳しく説明する。
図4は、本実施形態に係る端末装置10のCPU111における処理の流れを説明するための図である。図4に示すように、CPU111による処理は、取得部151、学習部152、及び出力制御部153による処理を含む。これらの構成要素の動作は後に詳しく説明するので、ここでは簡易に説明する。取得部151は、ユーザ関連情報を取得して、学習部152及び出力制御部153に出力する。学習部152は、ユーザ関連情報に基づいて、ユーザの通常状態を示す通常状態情報を生成して出力する。通常状態情報は、典型的にはユーザ関連情報から得られる特徴量であり、後述する特徴量DB122により記憶される。出力制御部153は、ユーザ関連情報、特徴量DB122に記憶された通常状態情報、及びタスクDB121に記憶されたタスク情報に基づいて出力情報を生成して出力する。出力情報は、画像データ、テキストデータ、及び音データ等の任意のデータを含み得る。出力情報は、後述するスピーカ131又はディスプレイ132により出力され、又は後述する通信I/F141により送信される。
(3)記憶部
図3に示すように、端末装置10は、タスクDB(Data Base)121、及び特徴量DB122を含む。これらの構成要素は、端末装置10により利用される情報を一時的に又は恒久的に記憶する、記憶部として捉えることが可能である。記憶部は、これら以外にも、任意の情報を記憶するためのDBを含み得る。記憶部は、通常状態情報及びタスク情報を記憶する機能を有する。
タスクDB121は、ユーザに提供するタスクを記憶する。特徴量DB122は、通常状態情報として、典型的にはユーザ関連情報から得られる特徴量を記憶する。特徴量DB122は、運動特徴量を記憶する運動特徴量DB123、及び特定文字列が発話された時刻である特定文字列発話時刻を記憶する特定文字列発話時刻DB124等の任意の特徴量を記憶するDBを含む。
(4)出力部
図3に示すように、端末装置10は、スピーカ131、及びディスプレイ132を含む。これらの構成要素は、情報を出力する出力部として捉えることが可能である。出力部は、これら以外にも、振動装置及びランプ等の任意の構成要素を含み得る。出力部は、出力情報を出力する機能を有する。
スピーカ131は、音を出力する。スピーカ131は、D/A(Digital to Analog)変換器及びアンプを有していてもよく、これらを介して音データをアナログ信号に変換して出力(即ち、再生)する。
ディスプレイ132
ディスプレイ132は、画像(静止画像/動画像)を出力する。ディスプレイ132は、例えばLCD(Liquid Crystal Display)またはOLED(Organic Light−Emitting Diode)、などにより実現される。
(5)通信部
図3に示すように、端末装置10は、通信I/F141を含む。通信I/F141は、情報を送受信するための通信部として捉えることが可能である。通信部は、端末装置30又はサーバ60と通信する機能を有する。
通信I/F141は、有線/無線により他の装置との間で情報の送受信を行うための通信モジュールである。通信I/F141は、例えばLAN、無線LAN、Wi−Fi、Bluetooth、LTE等の通信方式により通信する。
<<3.技術的特徴>>
以上、端末装置10の構成例を説明した。続いて、端末装置10の技術的特徴を説明する。
<3.1.ユーザ関連情報>
端末装置10(例えば、取得部151)は、ユーザに関するユーザ関連情報を取得する。ユーザ関連情報とは、例えばユーザの生体情報、行動を示す行動情報、及び音声情報等の、ユーザをセンシングすることで得られる情報の少なくともいずれかを含む。他に、ユーザ関連情報は、ユーザの家族(特に親)に関する情報を含んでいてもよい。また、ユーザ関連情報は、後述するタスクの遂行状況を示す情報で含んでいてもよい。
<3.2.事前学習>
端末装置10(例えば、学習部152)は、ユーザ関連情報に基づいてユーザの通常状態を学習する。例えば、端末装置10は、ユーザ関連情報に基づいて抽出された特徴量を、ユーザの通常状態として学習する。他にも、端末装置10は、特徴量の時系列変化を、通常状態として学習してもよい。後者の例は、後に詳しく説明する。学習結果(例えば、抽出された特徴量又は特徴量の時系列変化)は、通常状態情報として特徴量DB122に記憶される。学習される通常状態は多様に考えられる。以下、その一例を詳しく説明する。なお、学習のために用いられるユーザ関連情報が取得されるタイミング(より詳しくは、時刻又は期間)を、第1の時と称する。
(1)運動に関する通常状態
例えば、端末装置10は、ユーザの運動に関する第1の時の通常状態を学習する。より具体的には、端末装置10は、加速度情報、位置情報、又は音声等のユーザの行動を示す情報に基づいて、ユーザの運動能力(又は身体能力、体力)に関する特徴量(以下、運動特徴量とも称する)を計算する。一例として、加速度情報に関する通常状態の学習について、図5を参照して説明する。
図5は、本実施形態に係る端末装置10による事前学習処理の流れの一例を示すフローチャートである。図5に示すように、まず、端末装置10は、時刻情報及び加速度情報とを取得する(ステップS102)。次いで、端末装置10は、特徴量を計算する(ステップS104)。そして、端末装置10は、計算した特徴量を運動特徴量DB123に記録する(ステップS106)。
運動特徴量は多様に考えられる。例えば、運動特徴量は、瞬発力を示す情報を含んでいてもよい。瞬発力を示す情報は、例えば、単位時間内の加速度の絶対値の最大値として表現され得る。端末装置10は、単位時間ごとの瞬発力を示す情報を、時刻情報と対応付けて運動特徴量DB123に記録する。運動特徴量DB123の瞬発力テーブルの一例を下記の表1に示す。
Figure 2018012071
このようなテーブルを学習するための処理の流れを、図6を参照して以下に説明する。
図6は、本実施形態に係る端末装置10による事前学習処理の流れの一例を示すフローチャートである。図6に示すように、まず、端末装置10は、最大値を0で初期化する(ステップS202)。次いで、端末装置10は、時刻情報を取得し(ステップS204)、加速度情報を取得する(ステップS206)。次に、端末装置10は、加速度の絶対値を計算する(ステップS208)。次いで、端末装置10は、計算した絶対値が過去の最大値より大きいか否かを判定し(ステップS210)、同じか少ない場合は再度ステップS204に戻り(ステップS210/NO)、大きい場合は最大値を更新する(ステップS210/YES、S212)。次に、端末装置10は、単位時間を経過したか否かを判定し(ステップS214)、経過していない場合は再度ステップS204に戻り(ステップS214/NO)、経過した場合は時刻と最大値とを運動特徴量DB123に記録する(ステップS214/YES、S216)。次いで、端末装置10は、処理を終了するか否かを判定し(ステップS218)、終了しない場合は再度ステップS202に戻り(ステップS218/NO)、終了する場合は処理を終了する(ステップS218/YES)。
以上、瞬発力に関する特徴量について説明した。
他にも、運動特徴量は、活動量を示す情報を含んでいてもよい。活動量を示す情報は、例えば、単位時間当たりの加速度の絶対値の積算値として表現され得る。端末装置10は、単位時間ごとの活動量を示す情報を、時刻情報と対応付けて運動特徴量DB123に記録する。運動特徴量DB123の活動量テーブルの一例を下記の表2に示す。
Figure 2018012071
このようなテーブルを学習するための処理の流れを、図7を参照して以下に説明する。
図7は、本実施形態に係る端末装置10による事前学習処理の流れの一例を示すフローチャートである。図7に示すように、まず、端末装置10は、積算値を0で初期化する(ステップS302)。次いで、端末装置10は、時刻情報を取得し(ステップS304)、加速度情報を取得する(ステップS306)。次に、端末装置10は、加速度の絶対値を計算する(ステップS308)。次いで、端末装置10は、計算した絶対値を積算値に積算する(ステップS310)。次に、端末装置10は、単位時間を経過したか否かを判定し(ステップS312)、経過していない場合は再度ステップS304に戻り(ステップS312/NO)、経過した場合は時刻と積算値とを運動特徴量DB123に記録する(ステップS312/YES、S314)。次いで、端末装置10は、処理を終了するか否かを判定し(ステップS316)、終了しない場合は再度ステップS302に戻り(ステップS316/NO)、終了する場合は処理を終了する(ステップS316/YES)。
(2)音声に関する通常状態
例えば、端末装置10は、ユーザの音声に関する第1の時の通常状態を学習する。より具体的には、端末装置10は、ユーザの音声が示すユーザの記憶力に関する特徴量を計算する。計算される特徴量としては、例えば何かを忘れたときに自然と発話される特定の文字列の発話頻度が考えられる。そのような特定文字列の一例を、下記の表3に示す。
Figure 2018012071
例えば、端末装置10は、特定文字列が検出された時刻情報(例えば、発話時刻)を特定文字列発話時刻DB124に記録する。特定文字列発話時刻DB124のテーブルの一例を下記の表4に示す。
Figure 2018012071
このようなテーブルを学習するための処理の流れを、図8を参照して以下に説明する。
図8は、本実施形態に係る端末装置10による事前学習処理の流れの一例を示すフローチャートである。まず、端末装置10は、音声情報を取得する(ステップS402)。次いで、端末装置10は、音声認識を行い(ステップS404)、さらに構文解析を行う(ステップS406)。次に、端末装置10は、特定文字列と一致する文字列があるか否かを判定し(ステップS408)、ない場合は再度ステップS402に戻り(ステップS408/NO)、ある場合は検出時刻を特定文字列発話時刻DB124に記録する(ステップS410)。
(3)その他
他にも、端末装置10は、多様な情報に基づいて通常状態を学習し得る。
例えば、端末装置10は、ユーザが世話する仮想ペットとユーザとのインタラクションに基づいて第1の時の通常状態を学習してもよい。より具体的には、端末装置10は、仮想ペットの世話の状況が示すユーザの記憶力及び注意力に関する特徴量を計算し得る。計算される特徴量としては、例えば仮想ペットの世話を予定時刻に行っているか否か、及び予定時刻と実際に行った時刻との差分等が考えられる。
<3.3.タスクの提供>
端末装置10(例えば、出力制御部153)は、取得されたユーザ関連情報を学習された通常状態に参照することでユーザの異常状態を検出する。そして、端末装置10は、異常状態が検出されると、検出された異常状態を抑制するためのタスクを提供する。より詳しくは、端末装置10は、過去の第1の時の通常状態と第1の時よりも後の第2の時(例えば、現在)のユーザ関連情報に基づく第2の時の通常状態とを比較することで、第1の時の通常状態からの所定レベル以上の異常への進行を異常状態として検出する。そして、出力制御部153は、検出された進行を抑制するためのタスクを提供する。ここでの異常への進行とは、例えば老化による衰えの進行を指す。また、所定レベルとは、例えば老化による衰えの進行が許容されるレベル(例えば、同年代の平均値等)を指す。即ち、本明細書における異常状態とは、単にあるタイミングでユーザ関連情報が異常値を示すことを指すものではなく、過去の通常状態と現在の通常状態との比較により検出される、老化による衰えの進行を指すものである。端末装置10は、老化による衰えの進行を検出して、検出された衰えの進行を抑制するためのタスクを提供することが可能である。そして、ユーザは、提供されたタスクを遂行することで、老化による衰えの進行を抑制することが可能である。また、現状、老化とともに進行する身体能力及び知的能力の衰えは、専門家による体力測定及び記憶力テストの実施等の多大なコストを経てはじめて評価可能であったことと比較すると、端末装置10は、老化による衰えをより簡易に評価することが可能である。なお、タスクを提供するとは、ユーザに何らかの行動(例えば、動作及び発話等)を行うよう依頼することを指す。
(1)異常状態検出ステージ
以下では、異常状態を検出する処理について説明する。上述したように、端末装置10は、第1の時の通常状態と第2の時の通常状態とを比較することで、老化による衰えの進行を検出する。以下では一例として、第1の時の通常状態及び第2の時の通常状態が、瞬発力等の運動特徴量である場合の例を説明する。
・運動特徴量の場合
例えば、第2の時を「2017/10/1」とし、その前年同日の上記表1に示した「2016/10/1」を第1の時とする。第2の時で記録される運動特徴量DB123の瞬発力テーブルの一例を下記の表5に示す。
Figure 2018012071
第1の時の表1と第2の時の表5とを比較すると、「6:00」「7:00」「8:00」「18:00」「19:00」「20:00」において、表1より表5の方が瞬発力が低い。その低下量が閾値を超える場合、端末装置10は、ユーザの体力の衰えを異常状態として検出する。なお、ここでは、第1の時の通常状態が前年同日に学習された通常状態である例を示したが、本技術はかかる例に限定されない。第1の時と第2の時との間隔は任意であるし、比較される第1の時の通常状態として、その前後の時の通常状態との平均等の統計処理がされたものが用いられてもよい。以下、図9を参照して、瞬発力等の運動特徴量に関する異常状態を検出するための処理の流れを説明する。
図9は、本実施形態に係る端末装置10による異常状態の検出処理の流れの一例を示すフローチャートである。図9に示すように、まず、端末装置10は、運動特徴量DB123を参照して、過去24時間の運動特徴量の最大値を抽出する(ステップS502)。次いで、端末装置10は、運動特徴量DB123を参照して、前年同日同時刻から過去24時間の運動特徴量の最大値を抽出する(ステップS504)。次に、端末装置10は、今年の最大値から前年の最大値を減算した減算値を計算する(ステップS506)。次いで、端末装置10は、減算値が閾値より低いか否かを判定し(ステップS508)、低いと判定した場合に異常状態を検出して対応するイベントを実行し(ステップS508/YES、S510)、低くはないと判定した場合はそのまま処理を終了する。
なお、対応するイベントを実行することは、典型的には異常状態を抑制するためのタスクを提供することを指す。他にも、後述する第三者への通知等が行われてもよい。
・特定文字列発話時刻の場合
以上、運動特徴量に関する異常状態を検出する例を説明した。続いて、以下、一例として、特定文字列発話時刻に関する異常状態を検出する例を説明する。
例えば、第2の時を「2017/10/1」とし、第1の時をその前年同日の上記表4に示した「2016/10/1」とする。第2の時で記録される特定文字列発話時刻DB124のテーブルの一例を下記の表6に示す。
Figure 2018012071
第1の時の表4と第2の時の表6とを比較すると、表4よりも表6の方がエントリ数(即ち、特定文字列の発話回数)が多い。その増加量が閾値を超える場合、端末装置10は、ユーザの記憶力の衰えを異常状態として検出する。以下、図10を参照して、特定文字列発話時刻に関する異常状態を検出するための処理の流れを説明する。
図10は、本実施形態に係る端末装置10による異常状態の検出処理の流れの一例を示すフローチャートである。図10に示すように、まず、端末装置10は、特定文字列発話時刻DB124を参照して、過去24時間のエントリ数をカウントする(ステップS602)。次いで、端末装置10は、特定文字列発話時刻DB124を参照して、前年同日同時刻から過去24時間のエントリ数をカウントする(ステップS604)。次に、端末装置10は、今年のエントリ数から前年のエントリ数を減算した減算値を計算する(ステップS606)。次いで、端末装置10は、減算値が閾値より高いか否かを判定し(ステップS608)、高いと判定した場合に異常状態を検出して対応するイベントを実行し(ステップS608/YES、S610)、高くはないと判定した場合はそのまま処理を終了する。
・特徴量の時系列変化の場合
以上、第1の時の通常状態及び第2の時の通常状態が、特徴量である場合の例を説明した。続いて、第1の時の通常状態及び第2の時の通常状態が、特徴量の時系列変化である場合の例を説明する。
例えば、端末装置10は、第1の時のユーザ関連情報に基づいて計算される特徴量の時系列変化と第2の時のユーザ関連情報に基づいて計算される特徴量の時系列変化とを比較することで、異常状態を検出する。ユーザ関連情報に基づいて計算される特徴量の時系列変化は、老化による衰えの進行度合いを表現し得る。即ち、端末装置10は、第1の時における老化による衰えの進行度合いと、第2の時における老化による衰えの進行度合いとを比較する。これにより、端末装置10は、例えば老化による衰えの進行度合いがより早くなったことを異常状態として検出することが可能となる。より詳しくは、端末装置10は、老化による衰えの進行度合いが非線形に大きくなっていることを、異常状態として検出することが可能である。老化による衰えを完全に無くすことは一般的には困難であることを考慮すれば、衰えの進行度合いがより早くなったことを異常状態として検出することは、合理的であると言える。
以下、一例として、図11を参照して、第1の時の通常状態及び第2の時の通常状態が、瞬発力等の運動特徴量の時系列変化である場合の例を説明する。なお、図11では、第2の時を1日前から当日とし、第1の時を2日前から1日前として、運動特徴量の時系列変化が計算される例が示されている。
図11は、本実施形態に係る端末装置10による異常状態の検出処理の流れの一例を示すフローチャートである。図11に示すように、まず、端末装置10は、運動特徴量DB123を参照して、過去24時間の運動特徴量の最大値Xを抽出する(ステップS702)。次いで、端末装置10は、運動特徴量DB123を参照して、1日前同時刻から過去24時間の運動特徴量の最大値Yを抽出する(ステップS704)。次に、端末装置10は、最大値Xから最大値Yを減算して、減算値S1を計算する(ステップS706)。次いで、端末装置10は、減算値S1が0より小さいか否かを判定する(ステップS708)。減算値S1が0より小さくないと判定された場合(ステップS708/NO)、処理は終了する。減算値S1が0より小さいと判定された場合(ステップS708/YES)、端末装置10は、運動特徴量DB123を参照して、2日前同時刻から過去24時間の運動特徴量の最大値Zを抽出する(ステップS710)。次に、端末装置10は、最大値Yから最大値Zを減算して、減算値S2を計算する(ステップS712)。次いで、端末装置10は、減算値S1が減算値S2より小さいか否かを判定する(ステップS714)。減算値S1が減算値S2より小さくないと判定された場合(ステップS714/NO)、処理は終了する。減算値S1が減算値S2より小さいと判定された場合(ステップS714/YES)、異常状態を検出して対応するイベントを実行する(ステップS716)。
・補足
上記では、異常状態は、瞬発力の低下、活動量の低下、及び特定文字列発話頻度の増加等の、定量的に検出されるものであった。その他、異常状態は、定性的に検出されるものであってもよい。即ち、端末装置10は、ユーザの定性的な変化に基づいて異常状態を検出してもよい。ユーザの定性的な変化とは、例えば重心が変化したこと、かばう動作が出現したこと、より柔らかい物を好んで食べるようになったこと等を指す。このような定性的な変化の検出により、ユーザの異常状態をより広く検出することが可能となる。
また、端末装置10は、後述するタスクの遂行状況に基づいて、異常状態を検出してもよい。例えば、タスクの遂行度合い(例えば、クイズの正答率)の低下、又は低下度合いに基づいて異常状態が検出され得る。また、タスクは、老化による衰えの進行を抑制するためのものであるが、その他にも、単なるイベントを含む概念であってもよい。例えば、仮想ペットの世話は、老化による衰えの進行を抑制するためのものであってもよいし、所定の条件下(例えば、予定時刻になる等)で発生するイベントとして捉えられてもよい。
また、端末装置10は、ユーザの家族に関する情報に基づいて、異常状態を検出してもよい。例えば、端末装置10は、ユーザの親の体力の傾向、体力の衰えの傾向等に基づいて、異常状態を検出するための判断基準(例えば、閾値)を設定してもよい。遺伝を考慮すれば、このような家族の情報に基づく設定により、ユーザの異常状態をより適切に検出することが可能となる。
(2)タスク提供ステージ
以下では、タスクを提供する処理について説明する。上述したように、端末装置10は、老化による衰えの進行が検出された場合に、老化による衰えの進行を抑制するためのタスクを提供する。
例えば、端末装置10は、ユーザの運動に関する通常状態に基づいてユーザの体力の衰えの進行を異常状態として検出すると、体力の衰えの進行を抑制するためのタスクを提供する。具体的には、端末装置10は、例えば図9又は図11を参照して上記説明した処理により異常状態を検出した場合に、体力の衰えの進行を抑制するためのタスクを提供する。ユーザは、提供されたタスクを遂行することで、老化による体力の衰えの進行を抑制することが可能である。
例えば、端末装置10は、ユーザの音声に関する通常状態に基づいてユーザの記憶力の衰えの進行を前記異常状態として検出すると、記憶力の衰えの進行を抑制するためのタスクを提供する。具体的には、端末装置10は、例えば図10を参照して上記説明した処理により異常状態を検出した場合に、記憶力の衰えの進行を抑制するためのタスクを提供する。また、例えば、端末装置10は、ユーザが世話する仮想ペットとユーザとのインタラクションに基づく通常状態に基づいてユーザの記憶力の衰えの進行を異常状態として検出すると、記憶力の衰えの進行を抑制するためのタスクを提供する。具体的には、端末装置10は、例えば図14又は図16を参照して後に説明するタスクの遂行状況に基づいて異常状態を検出した場合に、記憶力の衰えの進行を抑制するためのタスクを提供する。ユーザは、提供されたタスクを遂行することで、老化による記憶力の衰えの進行を抑制することが可能である。
ここで、端末装置10は、ユーザへタスクを提供するようユーザが世話する仮想ペットを制御する。これにより、ユーザは、普段世話している仮想ペットとのインタラクションにより、タスクの提供を受けることができる。愛着のある仮想ペットからタスクが提供される場合、ユーザは楽しみながらタスクを遂行することができると考えられるので、老化による衰えの進行を効果的に抑制することが可能となる。
・タスクの内容
以下、タスクの内容について具体的に説明する。まず、図12を参照して、散歩のタスクの一例を説明する。
図12は、本実施形態に係る端末装置10により提供されるタスクのUI(User Interface)の一例を説明するための図である。図12に示すように、端末装置10上で動作する仮想ペット11は、ユーザに散歩のタスクが提供されたことを通知するためのメッセージ211を音声出力する。メッセージ211は、例えば「散歩に行こうよ。」である。次いで、端末装置10は、散歩コースを示す情報212を表示して、ユーザに散歩コースを通知する。そして、仮想ペット11は、ユーザに散歩の開始を通知するためのメッセージ213を音声出力して、散歩コースのナビゲーションを開始する。メッセージ213は、例えば「10分のコースだよ。僕が案内するよ。」である。散歩コースを示す情報212について詳しく説明する。散歩コースを示す情報212は、ユーザの現在地214の周囲のマップ情報、及び散歩コース215を含む。散歩コース215は、例えばユーザの現在の体力にとって最適な(即ち、必要十分な負荷の)コースである。なお、コース検索は、バックグラウンドで行われ得る。
タスクは、異常状態を抑制するためのものであることが、直接的に推定できるものではないタスクであってもよい。別の観点から言えば、タスクは、異常状態を抑制するためのものであることが暗示的に示されるタスクであってもよい。これにより、ユーザは、老化による衰えが進行していることを直接的に通知されないので、ショックを受けることなくタスクを遂行することが可能である。さらに、タスクの遂行のためにユーザが感じる義務感が低減されると考えられるので、ユーザは楽しみながらタスクを遂行することができ、老化による衰えの進行を効果的に抑制することが可能となる。
例えば、タスクは、ユーザが通常行う動作より負荷の高い動作を示唆するタスクであってもよい。通常の動作よりも負荷の高い動作を示唆するタスクは、ユーザにとっては、例えば普段と同じ目的を達成するための動作を単に別の方法で行うものに過ぎないので、自然と老化の衰えの進行を抑制することが可能となる。
より具体的には、タスクは、ユーザが通常用いる移動経路より運動負荷の高い移動経路を示唆するタスクであってもよい。例えば、ユーザが、普段散歩をしている場合を想定する。その場合、端末装置10は、普段の散歩コースよりも、距離が長い又は勾配がきつい等の運動負荷の高い散歩コースを示唆するタスクを提供する。このようなタスクにより、体力の衰えの進行を抑制することが可能であると考えられる。他にも多様なタスクが考えられる。例えば、普段よりも指先を使う動作を示唆するタスクが提供されてもよい。このようなタスクにより、記憶力の衰えの進行を抑制することが可能であると考えられる。例えば、例えば、記憶力の衰えの進行の抑制のための、図14を参照して後に説明するクイズのタスク、図16を参照して後に説明する餌やりのタスクが考えられる。また、記憶力及び言語能力の衰えの進行を抑制するための、新しい歌を歌うタスク、普段より難しい言葉を使った会話のタスク等も考えられる。
また、端末装置10は、老化による衰えの進行の度合いに応じてタスクの負荷を制御してもよい。例えば、端末装置10は、衰えの進行の度合いが低い場合は低い負荷のタスクを提供し、衰えの進行の度合いが高い場合は高い負荷のタスクを提供する。このような制御により、衰えの進行の度合いに応じて、適切な負荷のタスクを提供することが可能となり、衰えの進行を効率的に抑制することが可能となる。
以下、図13を参照して、普段の散歩コースよりも運動負荷が高く、かつ衰えの進行の度合いに応じた負荷の散歩コースを示唆するタスクについて具体的に説明する。
図13は、本実施形態に係る端末装置10により提供されるタスクのUIの一例を説明するための図である。図13に示すように、端末装置10上で動作する仮想ペット11は、ユーザに散歩のタスクが提供されたことを通知するためのメッセージ221を音声出力する。メッセージ221は、例えば「散歩に行こうよ。」である。次いで、端末装置10は、散歩コースを示す情報222を表示して、ユーザに散歩コースを通知する。そして、仮想ペット11は、ユーザに散歩の開始を通知するためのメッセージ223を音声出力して、散歩コースのナビゲーションを開始する。メッセージ223は、例えば「10分のコースだよ。僕が案内するよ。」である。散歩コースを示す情報222について詳しく説明する。散歩コースを示す情報222は、ユーザの現在地224の周囲のマップ情報、及び散歩コース225、負荷の高い散歩コース226、及びさらに負荷の高い散歩コース227を含む。図13では、散歩コース225、226及び227が同時に表示されているが、選択的に表示されてもよい。散歩コース225は、例えばユーザの現在の体力にとって最適な(即ち、必要十分な負荷の)コースである。散歩コース226は、例えば散歩コース225よりも負荷の高い散歩コースであって、運動能力の衰えの軽度の進行が検出された場合に選択される。散歩コース227は、例えば散歩コース226よりもさらに負荷の高い散歩コースであって、運動能力の衰えの強度の進行が検出された場合に選択される。例えば、散歩コース227は、散歩コース226が選択される場合よりも、2倍の運動能力の低下が検出された場合に選択され(即ち、図11に示した例において、S1/S2≒2)、散歩コース226よりも2倍の距離があってもよい。なお、コース検索は、バックグラウンドで行われ得る。
なお、上記では、散歩コースが予め提示される例を示したが、本技術はかかる例に限定されない。例えば、普段の散歩コース225を散歩中に、寄り道することが提案されてもよい。また、例えばユーザがトイレに行くことを忘れてしまった場合にトイレを経由する散歩コースが提案される等、ユーザの状況に応じて提供されるタスクが変化してもよい。
提供されるタスクの内容は、タスク情報としてタスクDB121に記憶される。端末装置10は、タスクDB121に記憶されたタスク情報に基づいてタスクを提供する。端末装置10は、人工知能機能を有していてもよく、独自のタスクを提供してもよい。また、端末装置10は、例えばサーバ60を介して専門機関に問い合わせることで得たタスク情報に基づいてタスクを提供してもよい。
(3)他のイベント
異常状態を検出した場合にタスクが提供される以外にも、異常状態に対応するその他のイベントが実行されてもよい。
・異常状態の検出方法の制御
例えば、端末装置10は、異常状態の検出結果に応じて、異常状態の検出方法を制御してもよい。具体的には、端末装置10は、老化による衰えの進行の度合いに応じて、第1の時と第2の時との間隔を制御してもよい。例えば、進行の度合いが大きい場合に第1の時と第2の時との間隔を短くすることで、衰えの急激な進行を検出することが可能となる。
・タスクの提供頻度の制御
例えば、端末装置10は、異常状態の検出結果に応じて、タスクの提供方法を制御してもよい。具体的には、端末装置10は、老化による衰えの進行の度合いに応じて、タスクの提供頻度を制御してもよい。例えば、進行の度合の度合が大きい場合に提供頻度を高くすることで、衰えの進行をより強く抑制することが可能となる。
・第三者への通知
例えば、端末装置10は、第三者への通知を行ってもよい。比較的緩やかな衰えの進行がタスクの提供により抑制される一方、急激な衰えに関しては早期に第三者(典型的には、家族)に通知することで、第三者に衰えの進行の抑制を支援してもらうことが可能となる。また、ユーザの普段の生活の様子を第三者と共有することも可能となる。
(第1の通知)
例えば、端末装置10は、提供されたタスクのユーザによる遂行状況に関する情報を第三者へ送信してもよい。例えば、端末装置10は、タスクの遂行度合いが低下した場合に、その旨を示す情報をユーザの家族(即ち、保護者)に送信する。情報の送信は、例えばメール又はSMS(Short Message Service)により行われ得る。これにより、衰えの急激な進行等の憂慮すべき情報を早期に家族に通知することが可能となる。
例えば、記憶力の衰えの進行を抑制するためのタスクとして、クイズのタスクが想定され得る。以下、図14を参照してクイズのタスクの一例を説明し、次いで図15を参照してクイズのタスクの遂行状況に関する情報を第三者に通知する処理を説明する。
図14は、本実施形態に係る端末装置10により提供されるタスクのUIの一例を説明するための図である。図14に示すように、端末装置10上で動作する仮想ペット11は、ユーザにクイズのタスクが提供されたことを通知するためのメッセージ231を音声出力し、端末装置10は仮想ペット11を含む画面232を表示する。メッセージ231は、例えば「クイズを出すよ」である。次いで、端末装置10は、クイズの説明を含む画面233を表示して、ユーザにクイズの内容を説明する。クイズの説明を含む画面233は、例えば「次の画面でさっきと違う部分にタッチしてね」といったテキストを含む。次に、端末装置10は、クイズ画面234を表示して、ユーザからの回答を受け付ける。例えば、ユーザは、画面232から変化したと考えた領域235にタッチする。そして、仮想ペット11は、ユーザからの回答の評価結果を示すメッセージ236を音声出力する。メッセージ236は、例えば「惜しい!」である。
図15は、本実施形態に係る端末装置10による第三者への通知処理の流れの一例を示すフローチャートである。図15に示すように、まず、端末装置10は、タスクDB121からクイズのタスクを選択する(ステップS802)。次いで、端末装置10は、クイズ画面を表示して(ステップS804)、ユーザからの回答の入力を受け付ける(ステップS806)。次に、端末装置10は、正答率を計算し(ステップS808)、正答率は第1の閾値以下であるか否かを判定する(ステップS810)。第1の閾値以下ではないと判定された場合(ステップS810/NO)、端末装置10は、記憶力の衰えの進行を抑制するためのタスクを提供する(ステップS812)。かかるタスクとして、例えば異なるクイズのタスクが選択され得る。一方で、第1の閾値以下であると判定された場合(ステップS810/YES)、端末装置10は、正答率は第2の閾値以下であるか否かを判定する(ステップS814)。第2の閾値は、第1の閾値よりも低い閾値であり、第2の閾値よりも正答率が低いことは、例えば記憶力の衰えが憂慮すべきものであることを示す。第2の閾値以下ではないと判定された場合(ステップS814/NO)、処理はそのまま終了する。一方で、第2の閾値以下であると判定された場合(ステップS814/YES)、端末装置10は、記憶力の衰えに関する情報を家族へ送信する(ステップS816)。
また、記憶力の衰えの進行を抑制するためのタスクとして、仮想ペットの世話のタスクも想定され得る。以下、図16を参照して仮想ペットの世話のタスクの一例を説明し、次いで図17を参照して仮想ペットの世話のタスクの遂行状況に関する情報を第三者に通知する処理を説明する。
図16は、本実施形態に係る端末装置10により提供されるタスクのUIの一例を説明するための図である。図16に示すように、朝食時に、端末装置10上で動作する仮想ペット11は、ユーザに餌やりのタスクが提供されたことを通知するためのメッセージ241を音声出力し、端末装置10は餌やり画面242を表示する。メッセージ241は、例えば「朝ごはんちょうだい!」である。餌やり画面242においては、時刻情報、仮想ペット11、餌のアイコン243及び餌やり実行ボタン244が含まれ、ユーザが餌やり実行ボタン244をタッチすると餌やりのタスクが遂行完了となる。次いで、昼食時に、仮想ペット11は、ユーザに餌やりのタスクが提供されたことを通知するためのメッセージ245を音声出力し、端末装置10は餌やり画面246を表示する。メッセージ245は、例えば「お昼ごはんちょうだい!」である。餌やり画面246は、時刻の変化以外、餌やり画面242と同様であり、ユーザが餌やり実行ボタンをタッチすると餌やりのタスクが遂行完了となる。次に、夕食時に、仮想ペット11は、ユーザに餌やりのタスクが提供されたことを通知するためのメッセージ247を音声出力し、端末装置10は餌やり画面248を表示する。メッセージ247は、例えば「晩ごはんちょうだい!」である。餌やり画面248は、時刻の変化以外、餌やり画面242と同様であり、ユーザが餌やり実行ボタンをタッチすると餌やりのタスクが遂行完了となる。
図17は、本実施形態に係る端末装置10による第三者への通知処理の流れの一例を示すフローチャートである。図17に示すように、まず、端末装置10は、時刻情報を取得し(ステップS902)、餌やりタスクの予定時刻であるか否かを判定する(ステップS904)。予定時刻でないと判定された場合(ステップS904/NO)、処理は再度ステップS902に戻る。一方で、予定時刻であると判定された場合(ステップS904/YES)、端末装置10は、餌やり画面を表示して(ステップS906)、餌やり実行ボタンへのタッチを受け付ける(ステップS908)。次いで、端末装置10は、餌やり実行ボタンがタッチされたか否かを判定する(ステップS910)。タッチされていないと判定された場合(ステップS910/NO)、処理は再度ステップS902に戻る。一方で、タッチされたと判定された場合(ステップS910/YES)、端末装置10は、餌やりの予定時刻と実行時刻との差を計算し(ステップS912)、差が閾値以下であるか否かを判定する(ステップS914)。閾値以下であると判定された場合(ステップS914/YES)、端末装置10は、特徴量DB122に餌やり実行時刻を記録する(ステップS916)。一方で、閾値以下ではないと判定された場合(ステップS914/NO)、端末装置10は、記憶力の衰えに関する情報を家族へ送信する(ステップS918)。なお、端末装置10は、これに代えて又はこれと共に、特徴量DB122に餌やり実行時刻を記録してもよい。そして、端末装置10は、記憶力の衰えの進行を抑制するためのタスクを提供する(ステップS920)。かかるタスクは、例えば図14を参照して説明したクイズのタスクであってもよい。
(第2の通知)
例えば、端末装置10は、ユーザ関連情報に関する要約を第三者へ送信してもよい。例えば、端末装置10は、ユーザ関連情報に基づいて計算される、瞬発力及び活動量等の特徴量を、グラフ化したり、統計処理したり、コメントを付したりした情報を、ユーザの家族へ送信する。これにより、いつもの行動又は癖といった、ユーザの普段の生活の様子を家族と共有することが可能となる。通知される情報の一例を、図18を参照して説明する。
図18は、本実施形態に係る端末装置10により第三者へ通知される情報の一例を説明するための図である。図18に示すように、家族の端末装置30において、ユーザの仮想ペット11が報告するユーザ関連情報に関する要約を含む画面251が表示される。画面251には、ユーザ関連情報に関するグラフ251及びメッセージ253が含まれる。グラフ251は、要約対象の「2016/10」、その1月前の「2016/9」、及びその前年同月の「2015/10」における、1月間の活動量の推移を表している。メッセージ253は、例えば、ユーザの活動量に関する、「去年の同じ月よりも活動量が7%程度減っているよ。先月よりも1%程度減っているよ。もっと外に出かけたりするようにしてね。」である。他にも、ユーザ関連情報に関する要約として、ユーザの記憶力に関する、「Aさんは先月あたりから、「あれなんだっけ」ということが多くなってきたよ。少し忘れっぽくなってきたみたい」といったメッセージが含まれてもよい。ここで、「Aさん」とはユーザの名前である。また、ユーザ関連情報に関する要約として、ユーザの記憶力に関する、「Aさんは2日に1回ぐらい餌をくれるのを忘れるよ。特に晩御飯を忘れることが多いよ。でもぼくが催促するとくれるから、ぼくのことは覚えてくれているみたいだよ。」といったメッセージが含まれてもよい。
なお、端末装置10は、人工知能機能を有していてもよく、上記の要約を単独で生成してもよい。その他、端末装置10は、ユーザ関連情報を送信してサーバ60に生成させてもよいし、専門機関に生成させてもよい。
(補足)
他にも、例えば、ユーザの運動能力等が改善したことが第三者に通知されてもよい。また、上述した情報は、ユーザ自身に通知されてもよい。
<<4.まとめ>>
以上、図1〜図18を参照して、本開示の一実施形態について詳細に説明した。上記説明したように、本実施形態に係る情報処理システム1は、ユーザに関するユーザ関連情報を取得し、ユーザ関連情報に基づいてユーザの通常状態を学習し、取得されたユーザ関連情報を学習された通常状態に参照することでユーザの異常状態を検出すると、検出された異常状態を抑制するためのタスクを提供する。通常状態に基づくユーザ関連情報の評価により、より具体的には第1の時の通常状態と第2の時の通常状態との比較により、長期的な衰えの進行が異常状態として検出される。この長期的な衰えの進行を抑制するためのタスクが提供されるので、ユーザは、タスクを遂行することで長期的な衰えの進行を抑制することが可能である。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上記実施形態では、主に老化による衰えの進行を抑制するためのタスクが提供される例を説明したが、本技術はかかる例に限定されない。例えば、病気又は運動不足等により長期的に衰えが進行する場合に、その進行を抑制するためのタスクが提供されてもよい。即ち、本技術は広く健康維持のために有用である。さらには、能力の低下を抑制するだけでなく、能力を向上させるためのタスクが提供されてもよい。
本明細書において説明した各装置は、単独の装置として実現されてもよく、一部または全部が別々の装置として実現されても良い。例えば、図3及び図4に示した端末装置10の機能構成例のうち、タスクDB121及び特徴量DB122、並びに取得部151、学習部152、及び出力制御部153が、サーバ60に備えられてもよい。その場合、端末装置10は、ユーザ関連情報をサーバ60に送信し、サーバ60は、ユーザ関連情報に基づいて学習、タスクの選択、UIの生成等を行い、その結果を端末装置10に送信して端末装置10に出力させる。即ち、本実施形態に係る情報処理システム1が提供する上記機能は、情報処理システム1に含まれる複数の装置の協働により提供されてもよい。逆に、本実施形態に係る情報処理システム1が提供する上記機能は、端末装置10単体により提供されてもよい。
なお、本明細書において説明した各装置による一連の処理は、ソフトウェア、ハードウェア、及びソフトウェアとハードウェアとの組合せのいずれを用いて実現されてもよい。ソフトウェアを構成するプログラムは、例えば、各装置の内部又は外部に設けられる記録媒体(非一時的な媒体:non-transitory media)に予め格納される。そして、各プログラムは、例えば、コンピュータによる実行時にRAMに読み込まれ、CPUなどのプロセッサにより実行される。
また、本明細書においてフローチャート及びシーケンス図を用いて説明した処理は、必ずしも図示された順序で実行されなくてもよい。いくつかの処理ステップは、並列的に実行されてもよい。また、追加的な処理ステップが採用されてもよく、一部の処理ステップが省略されてもよい。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
ユーザに関するユーザ関連情報を取得する取得部と、
前記ユーザ関連情報に基づいて前記ユーザの通常状態を学習する学習部と、
取得された前記ユーザ関連情報を学習された前記通常状態に参照することで前記ユーザの異常状態を検出すると、検出された前記異常状態を抑制するためのタスクを提供するよう制御する出力制御部と、
を備える情報処理システム。
(2)
前記出力制御部は、第1の時の前記通常状態と前記第1の時よりも後の第2の時の前記ユーザ関連情報に基づく前記第2の時の前記通常状態とを比較することで、前記第1の時の前記通常状態からの所定レベル以上の異常への進行を前記異常状態として検出し、前記進行を抑制するための前記タスクを提供するよう制御する、前記(1)に記載の情報処理システム。
(3)
前記出力制御部は、前記第1の時の前記ユーザ関連情報に基づいて計算される特徴量の時系列変化と前記第2の時の前記ユーザ関連情報に基づいて計算される特徴量の時系列変化とを比較することで、前記異常状態を検出する、前記(2)に記載の情報処理システム。
(4)
前記出力制御部は、前記ユーザの定性的な変化に基づいて前記異常状態を検出する、前記(2)又は(3)に記載の情報処理システム。
(5)
前記学習部は、前記ユーザの運動に関する前記通常状態を学習し、
前記出力制御部は、前記ユーザの運動に関する前記通常状態に基づいて前記ユーザの体力の衰えの進行を前記異常状態として検出すると、体力の衰えの進行を抑制するための前記タスクを提供するよう制御する、前記(2)〜(4)のいずれか一項に記載の情報処理システム。
(6)
前記学習部は、前記ユーザの音声に関する前記通常状態を学習し、
前記出力制御部は、前記ユーザの音声に関する前記通常状態に基づいて前記ユーザの記憶力の衰えの進行を前記異常状態として検出すると、記憶力の衰えの進行を抑制するための前記タスクを提供するよう制御する、前記(2)〜(5)のいずれか一項に記載の情報処理システム。
(7)
前記学習部は、前記ユーザが世話する仮想生物と前記ユーザとのインタラクションに基づいて前記通常状態を学習し、
前記出力制御部は、前記ユーザが世話する仮想生物と前記ユーザとのインタラクションに基づく前記通常状態に基づいて前記ユーザの記憶力の衰えの進行を前記異常状態として検出すると、記憶力の衰えの進行を抑制するための前記タスクを提供するよう制御する、前記(2)〜(6)のいずれか一項に記載の情報処理システム。
(8)
前記出力制御部は、前記進行の度合いに応じて前記タスクの負荷を制御する、前記(2)〜(7)のいずれか一項に記載の情報処理システム。
(9)
前記出力制御部は、前記進行の度合いに応じて前記第1の時と前記第2の時との間隔を制御する、前記(2)〜(8)のいずれか一項に記載の情報処理システム。
(10)
前記出力制御部は、前記進行の度合いに応じて前記タスクの提供頻度を制御する、前記(2)〜(9)のいずれか一項に記載の情報処理システム。
(11)
前記タスクは、前記異常状態を抑制するためのものであることが、直接的に推定できるものではないタスクである、前記(1)〜(10)のいずれか一項に記載の情報処理システム。
(12)
前記タスクは、前記ユーザが通常行う動作より負荷の高い動作を示唆するタスクである、前記(11)に記載の情報処理システム。
(13)
前記タスクは、前記ユーザが通常用いる移動経路より運動負荷の高い移動経路を示唆するタスクである、前記(12)に記載の情報処理システム。
(14)
前記出力制御部は、前記ユーザへ前記タスクを提供するよう前記ユーザが世話する仮想生物を制御する、前記(1)〜(13)のいずれか一項に記載の情報処理システム。
(15)
前記情報処理システムは、通信部をさらに備え、
前記出力制御部は、提供した前記タスクの前記ユーザによる遂行状況に関する情報を第三者へ送信するよう前記通信部を制御する、前記(1)〜(14)のいずれか一項に記載の情報処理システム。
(16)
前記情報処理システムは、通信部をさらに備え、
前記出力制御部は、前記ユーザ関連情報に関する要約を第三者へ送信するよう前記通信部を制御する、前記(1)〜(15)のいずれか一項に記載の情報処理システム。
(17)
コンピュータを、
ユーザに関するユーザ関連情報を取得する取得部と、
前記ユーザ関連情報に基づいて前記ユーザの通常状態を学習する学習部と、
取得された前記ユーザ関連情報を学習された前記通常状態に参照することで前記ユーザの異常状態を検出すると、検出された前記異常状態を抑制するためのタスクを提供するよう制御する出力制御部と、
として機能させるためのプログラムを記録した記録媒体。
(18)
ユーザに関するユーザ関連情報を取得することと、
前記ユーザ関連情報に基づいて前記ユーザの通常状態を学習することと、
取得された前記ユーザ関連情報を学習された前記通常状態に参照することで前記ユーザの異常状態を検出すると、検出された前記異常状態を抑制するためのタスクを提供するようプロセッサにより制御することと、
を含む情報処理方法。
1 情報処理システム
10 端末装置
11 仮想ペット
20 ユーザ
30 端末装置
40 家族
50 ネットワーク
60 サーバ
101 マイク
102 GPS
103 加速度センサ
104 時計
105 タッチパネル
111 CPU
112 ROM
113 RAM
121 タスクDB
122 特徴量DB
123 運動特徴量DB
124 特定文字列発話時刻DB
131 スピーカ
132 ディスプレイ
141 通信I/F
151 取得部
152 学習部
153 出力制御部

Claims (18)

  1. ユーザに関するユーザ関連情報を取得する取得部と、
    前記ユーザ関連情報に基づいて前記ユーザの通常状態を学習する学習部と、
    取得された前記ユーザ関連情報を学習された前記通常状態に参照することで前記ユーザの異常状態を検出すると、検出された前記異常状態を抑制するためのタスクを提供するよう制御する出力制御部と、
    を備える情報処理システム。
  2. 前記出力制御部は、第1の時の前記通常状態と前記第1の時よりも後の第2の時の前記ユーザ関連情報に基づく前記第2の時の前記通常状態とを比較することで、前記第1の時の前記通常状態からの所定レベル以上の異常への進行を前記異常状態として検出し、前記進行を抑制するための前記タスクを提供するよう制御する、請求項1に記載の情報処理システム。
  3. 前記出力制御部は、前記第1の時の前記ユーザ関連情報に基づいて計算される特徴量の時系列変化と前記第2の時の前記ユーザ関連情報に基づいて計算される特徴量の時系列変化とを比較することで、前記異常状態を検出する、請求項2に記載の情報処理システム。
  4. 前記出力制御部は、前記ユーザの定性的な変化に基づいて前記異常状態を検出する、請求項2に記載の情報処理システム。
  5. 前記学習部は、前記ユーザの運動に関する前記通常状態を学習し、
    前記出力制御部は、前記ユーザの運動に関する前記通常状態に基づいて前記ユーザの体力の衰えの進行を前記異常状態として検出すると、体力の衰えの進行を抑制するための前記タスクを提供するよう制御する、請求項2に記載の情報処理システム。
  6. 前記学習部は、前記ユーザの音声に関する前記通常状態を学習し、
    前記出力制御部は、前記ユーザの音声に関する前記通常状態に基づいて前記ユーザの記憶力の衰えの進行を前記異常状態として検出すると、記憶力の衰えの進行を抑制するための前記タスクを提供するよう制御する、請求項2に記載の情報処理システム。
  7. 前記学習部は、前記ユーザが世話する仮想生物と前記ユーザとのインタラクションに基づいて前記通常状態を学習し、
    前記出力制御部は、前記ユーザが世話する仮想生物と前記ユーザとのインタラクションに基づく前記通常状態に基づいて前記ユーザの記憶力の衰えの進行を前記異常状態として検出すると、記憶力の衰えの進行を抑制するための前記タスクを提供するよう制御する、請求項2に記載の情報処理システム。
  8. 前記出力制御部は、前記進行の度合いに応じて前記タスクの負荷を制御する、請求項2に記載の情報処理システム。
  9. 前記出力制御部は、前記進行の度合いに応じて前記第1の時と前記第2の時との間隔を制御する、請求項2に記載の情報処理システム。
  10. 前記出力制御部は、前記進行の度合いに応じて前記タスクの提供頻度を制御する、請求項2に記載の情報処理システム。
  11. 前記タスクは、前記異常状態を抑制するためのものであることが、直接的に推定できるものではないタスクである、請求項1に記載の情報処理システム。
  12. 前記タスクは、前記ユーザが通常行う動作より負荷の高い動作を示唆するタスクである、請求項11に記載の情報処理システム。
  13. 前記タスクは、前記ユーザが通常用いる移動経路より運動負荷の高い移動経路を示唆するタスクである、請求項12に記載の情報処理システム。
  14. 前記出力制御部は、前記ユーザへ前記タスクを提供するよう前記ユーザが世話する仮想生物を制御する、請求項1に記載の情報処理システム。
  15. 前記情報処理システムは、通信部をさらに備え、
    前記出力制御部は、提供した前記タスクの前記ユーザによる遂行状況に関する情報を第三者へ送信するよう前記通信部を制御する、請求項1に記載の情報処理システム。
  16. 前記情報処理システムは、通信部をさらに備え、
    前記出力制御部は、前記ユーザ関連情報に関する要約を第三者へ送信するよう前記通信部を制御する、請求項1に記載の情報処理システム。
  17. コンピュータを、
    ユーザに関するユーザ関連情報を取得する取得部と、
    前記ユーザ関連情報に基づいて前記ユーザの通常状態を学習する学習部と、
    取得された前記ユーザ関連情報を学習された前記通常状態に参照することで前記ユーザの異常状態を検出すると、検出された前記異常状態を抑制するためのタスクを提供するよう制御する出力制御部と、
    として機能させるためのプログラムを記録した記録媒体。
  18. ユーザに関するユーザ関連情報を取得することと、
    前記ユーザ関連情報に基づいて前記ユーザの通常状態を学習することと、
    取得された前記ユーザ関連情報を学習された前記通常状態に参照することで前記ユーザの異常状態を検出すると、検出された前記異常状態を抑制するためのタスクを提供するようプロセッサにより制御することと、
    を含む情報処理方法。
JP2018527400A 2016-07-14 2017-04-14 情報処理システム、プログラム及び情報処理方法 Active JP6981412B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016139779 2016-07-14
JP2016139779 2016-07-14
PCT/JP2017/015348 WO2018012071A1 (ja) 2016-07-14 2017-04-14 情報処理システム、記録媒体及び情報処理方法

Publications (2)

Publication Number Publication Date
JPWO2018012071A1 true JPWO2018012071A1 (ja) 2019-04-25
JP6981412B2 JP6981412B2 (ja) 2021-12-15

Family

ID=60952927

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018527400A Active JP6981412B2 (ja) 2016-07-14 2017-04-14 情報処理システム、プログラム及び情報処理方法

Country Status (3)

Country Link
US (1) US20230190137A1 (ja)
JP (1) JP6981412B2 (ja)
WO (1) WO2018012071A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7331349B2 (ja) * 2018-02-13 2023-08-23 カシオ計算機株式会社 会話出力システム、サーバ、会話出力方法及びプログラム
JP7019796B2 (ja) * 2018-03-30 2022-02-15 株式会社日立製作所 身体機能自立支援装置およびその方法
TWI655960B (zh) * 2018-05-03 2019-04-11 生茂系統開發有限公司 結合觸摸式互動電子寵物的照護裝置、系統與方法
KR102363627B1 (ko) * 2018-12-21 2022-02-16 강지영 진료 데이터 통합 관리시스템
CN113473901B (zh) * 2019-04-09 2024-09-13 松下知识产权经营株式会社 行动支持系统及行动支持方法
WO2024034889A1 (ko) * 2022-08-12 2024-02-15 삼성전자주식회사 보행 상태 결정 방법 및 그 방법을 수행하는 장치

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005284535A (ja) * 2004-03-29 2005-10-13 Sanyo Electric Co Ltd 生活監視システム
JP2006031433A (ja) * 2004-07-16 2006-02-02 Mitsubishi Electric Life Service Corp 高齢者の日常生活・運動支援システム
JP2016077723A (ja) * 2014-10-21 2016-05-16 株式会社タニタ 筋状態変化判定装置、筋状態変化判定方法およびプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8083675B2 (en) * 2005-12-08 2011-12-27 Dakim, Inc. Method and system for providing adaptive rule based cognitive stimulation to a user
JP4415946B2 (ja) * 2006-01-12 2010-02-17 ソニー株式会社 コンテンツ再生装置および再生方法
US20080242947A1 (en) * 2007-03-30 2008-10-02 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Configuring software for effective health monitoring or the like
US9907962B2 (en) * 2009-10-29 2018-03-06 Medtronic, Inc. Arrhythmia prediction based on heart rate turbulence
AU2010357179A1 (en) * 2010-07-06 2013-02-14 Rmit University Emotional and/or psychiatric state detection
US20130337420A1 (en) * 2012-06-19 2013-12-19 International Business Machines Corporation Recognition and Feedback of Facial and Vocal Emotions
US20140204115A1 (en) * 2013-01-23 2014-07-24 Honeywell International Inc. System and method for automatically and dynamically varying the feedback to any operator by an automated system
RU2581785C2 (ru) * 2013-12-30 2016-04-20 ХЕРЕ Глобал Б.В. Способ и устройство для различения связанных со здоровьем состояний пользователя на основании информации о взаимодействии с пользователем
US20150279226A1 (en) * 2014-03-27 2015-10-01 MyCognition Limited Adaptive cognitive skills assessment and training
US20160042648A1 (en) * 2014-08-07 2016-02-11 Ravikanth V. Kothuri Emotion feedback based training and personalization system for aiding user performance in interactive presentations
US20160063874A1 (en) * 2014-08-28 2016-03-03 Microsoft Corporation Emotionally intelligent systems

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005284535A (ja) * 2004-03-29 2005-10-13 Sanyo Electric Co Ltd 生活監視システム
JP2006031433A (ja) * 2004-07-16 2006-02-02 Mitsubishi Electric Life Service Corp 高齢者の日常生活・運動支援システム
JP2016077723A (ja) * 2014-10-21 2016-05-16 株式会社タニタ 筋状態変化判定装置、筋状態変化判定方法およびプログラム

Also Published As

Publication number Publication date
JP6981412B2 (ja) 2021-12-15
US20230190137A1 (en) 2023-06-22
WO2018012071A1 (ja) 2018-01-18

Similar Documents

Publication Publication Date Title
JP6981412B2 (ja) 情報処理システム、プログラム及び情報処理方法
US10621478B2 (en) Intelligent assistant
US10978064B2 (en) Contextually relevant spoken device-to-device communication between IoT devices
US9202360B1 (en) Methods for remote assistance of disabled persons having at least two remote individuals which receive different indications
US8933801B2 (en) Fall detection system and method
US20180056130A1 (en) Providing insights based on health-related information
US7787869B2 (en) Device, method, and computer program product for providing enhanced blogging features on a mobile phone
US20180107943A1 (en) Periodic stress tracking
EP3394738A1 (en) Emotionally intelligent chat engine
US20110050428A1 (en) Medical device having an intelligent alerting scheme, and related operating methods
US20210272585A1 (en) Server for providing response message on basis of user's voice input and operating method thereof
JP2021507366A (ja) ユーザの健康状態を監視するためのシステムおよび方法
CN110720100A (zh) 信息处理设备、信息处理方法和程序
JP2020154459A (ja) 将来における生活に対する満足度を予測するシステム、方法、およびプログラム
US11184311B2 (en) Communication system and communication control method
US20180271410A1 (en) Systems, methods, and apparatuses for activity monitoring
JP2019053676A (ja) 情報処理装置、情報処理方法、プログラム、及び情報処理システム
JP7432249B2 (ja) 携帯端末、携帯端末による報知方法、携帯端末用報知プログラム、及び、携帯端末システム
JP7379996B2 (ja) 情報処理システム、情報処理装置、方法およびプログラム
WO2018172410A1 (en) Method and apparatus for sending a message to a subject
US11615793B1 (en) Voice assistant configured to leverage information from sensing devices
WO2021260844A1 (ja) 音声生成装置、音声生成方法及び音声生成プログラム
US12050854B1 (en) Audio-based patient surveys in a health management platform
US20240087737A1 (en) Wearable device healthcare system
JP6538097B2 (ja) 情報提供装置、システム及びプログラム

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200406

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210709

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211019

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211101

R151 Written notification of patent or utility model registration

Ref document number: 6981412

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151