JP6997035B2 - Information provision system, information processing equipment and programs - Google Patents

Information provision system, information processing equipment and programs Download PDF

Info

Publication number
JP6997035B2
JP6997035B2 JP2018084523A JP2018084523A JP6997035B2 JP 6997035 B2 JP6997035 B2 JP 6997035B2 JP 2018084523 A JP2018084523 A JP 2018084523A JP 2018084523 A JP2018084523 A JP 2018084523A JP 6997035 B2 JP6997035 B2 JP 6997035B2
Authority
JP
Japan
Prior art keywords
information
user
analysis
unit
detection information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018084523A
Other languages
Japanese (ja)
Other versions
JP2019191970A (en
Inventor
稔公 武内
彰朗 正角
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sekisui Chemical Co Ltd
Original Assignee
Sekisui Chemical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sekisui Chemical Co Ltd filed Critical Sekisui Chemical Co Ltd
Priority to JP2018084523A priority Critical patent/JP6997035B2/en
Publication of JP2019191970A publication Critical patent/JP2019191970A/en
Application granted granted Critical
Publication of JP6997035B2 publication Critical patent/JP6997035B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Medical Treatment And Welfare Office Work (AREA)

Description

本発明は、情報提供システム、情報処理装置及びプログラムに関する。 The present invention relates to an information providing system, an information processing device and a program.

以下のような生体情報管理システムが知られている。つまり、生体情報管理システムは、家庭内外に設けられた複数の生体情報測定手段により測定された生体情報と被験者とを対応付けて記録する。生体情報管理システムは、記録された生体情報に基づいて、被験者の食事メニュー、運動メニュー、入浴メニューを提案する(例えば、特許文献1参照)。 The following biometric information management systems are known. That is, the biometric information management system records the biometric information measured by a plurality of biometric information measuring means provided inside and outside the home in association with the subject. The biometric information management system proposes a subject's meal menu, exercise menu, and bathing menu based on the recorded biometric information (see, for example, Patent Document 1).

特開2000-126138号公報Japanese Unexamined Patent Publication No. 2000-126138

例えば同じ居住空間に家族が同居している場合、家族の構成人員は、父、母、子供、さらには祖父や祖母などのように性別、世代等が異なる。このため、生活のなかで構成人員に関して必要な情報は、構成人員ごとに異なる。このようなことを考慮すると、例えば家族等のような複数の構成人員による集団に向けて情報を提供するサービスのもとでは、構成人員ごとに対応して個別に必要な情報が提供されるようにすることが好ましい。
しかしながら、特許文献1の構成では、食事メニュー、運動メニュー、入浴メニュー等といった共通の項目について構成人員ごとに提案が行われるに留まっている。
For example, when a family lives together in the same living space, the members of the family are different in gender, generation, etc., such as father, mother, children, and grandfather and grandmother. For this reason, the information required for the members in daily life differs for each member. Considering this, under a service that provides information to a group of multiple members, such as a family member, the necessary information is individually provided for each member. Is preferable.
However, in the configuration of Patent Document 1, common items such as a meal menu, an exercise menu, a bathing menu, and the like are only proposed for each member.

本発明は、このような事情に鑑みてなされたもので、複数の構成人員による集団に向けて、構成人員に関して検出した情報に基づいて情報を提供するサービスのもとで、構成人員ごとに対応して個別に必要な情報が提供されるようにすることを目的とする。 The present invention has been made in view of such circumstances, and is supported for each member under the service of providing information based on the information detected regarding the members to a group of a plurality of members. The purpose is to provide the necessary information individually.

上述した課題を解決するための本発明の一態様は、一定の空間において備えられ、所定の対象を検出する1以上のセンサと、情報処理装置と、前記一定の空間に対応するユーザに対応するユーザ端末装置とを備え、前記情報処理装置は、前記センサから出力される検出情報を取得する検出情報取得部と、前記検出情報取得部により取得された検出情報に基づいて、複数の前記ユーザごとに個別に設定された解析項目に対応する解析を実行する解析部と、ユーザごとの前記解析項目についての解析結果に基づく提供情報を所定のユーザ端末装置に出力する情報出力部とを備え、前記ユーザ端末装置は、前記情報出力部から出力された提供情報をユーザに提示するように出力する情報提示部を備える情報提供システムである。 One aspect of the present invention for solving the above-mentioned problems is provided in a certain space, and corresponds to one or more sensors for detecting a predetermined object, an information processing apparatus, and a user corresponding to the certain space. The information processing device includes a user terminal device, and the information processing device includes a detection information acquisition unit that acquires detection information output from the sensor, and a plurality of users based on the detection information acquired by the detection information acquisition unit. It is provided with an analysis unit that executes analysis corresponding to the analysis item individually set in the above, and an information output unit that outputs information provided based on the analysis result of the analysis item for each user to a predetermined user terminal device. The user terminal device is an information providing system including an information presenting unit that outputs the provided information output from the information output unit to the user.

本発明の一態様は、一定の空間において備えられ、所定の対象を検出する1以上のセンサから出力される検出情報を取得する検出情報取得部と、前記検出情報取得部により取得された検出情報に基づいて、複数のユーザごとに個別に設定された解析項目に対応する解析を実行する解析部と、ユーザごとの前記解析項目についての解析結果に基づく提供情報を、前記一定の空間に対応するユーザに対応するユーザ端末装置のうちの所定のユーザ端末装置に出力する情報出力部とを備える情報処理装置である。 One aspect of the present invention includes a detection information acquisition unit that is provided in a certain space and acquires detection information output from one or more sensors that detect a predetermined target, and detection information acquired by the detection information acquisition unit. The analysis unit that executes the analysis corresponding to the analysis item individually set for each of a plurality of users and the information provided based on the analysis result for the analysis item for each user correspond to the certain space. It is an information processing device including an information output unit that outputs to a predetermined user terminal device among the user terminal devices corresponding to the user.

本発明の一態様は、コンピュータを、一定の空間において備えられ、所定の対象を検出する1以上のセンサから出力される検出情報を取得する検出情報取得部、前記検出情報取得部により取得された検出情報に基づいて、複数のユーザごとに個別に設定された解析項目に対応する解析を実行する解析部、ユーザごとの前記解析項目についての解析結果に基づく提供情報を、前記一定の空間に対応するユーザに対応するユーザ端末装置のうちの所定のユーザ端末装置に出力する情報出力部として機能させるためのプログラムである。 One aspect of the present invention is a detection information acquisition unit, which is equipped with a computer in a certain space and acquires detection information output from one or more sensors that detect a predetermined target, and is acquired by the detection information acquisition unit. An analysis unit that executes analysis corresponding to analysis items individually set for each of a plurality of users based on the detection information, and information provided based on the analysis results for the analysis items for each user corresponds to the certain space. It is a program for functioning as an information output unit to be output to a predetermined user terminal device among the user terminal devices corresponding to the user.

以上説明したように、本発明によれば、複数の構成人員による集団に向けて、構成人員に関して検出した情報に基づいて情報を提供するサービスのもとで、構成人員ごとに対応して個別に必要な情報を提供可能になるという効果が得られる。 As described above, according to the present invention, under the service of providing information based on the information detected regarding the member members to a group of a plurality of member members, each member member can be individually dealt with individually. The effect of being able to provide the necessary information can be obtained.

本実施形態における情報提供システムの構成例を示す図である。It is a figure which shows the configuration example of the information provision system in this embodiment. 本実施形態におけるセンサの構成例を示す図である。It is a figure which shows the structural example of the sensor in this embodiment. 本実施形態における情報処理装置の構成例を示す図である。It is a figure which shows the structural example of the information processing apparatus in this embodiment. 本実施形態におけるユーザ情報の一例を示す図である。It is a figure which shows an example of the user information in this embodiment. 本実施形態におけるユーザ端末装置の構成例を示す図である。It is a figure which shows the configuration example of the user terminal apparatus in this embodiment. 本実施形態における情報処理装置が実行する処理手順例を示すフローチャートである。It is a flowchart which shows the example of the processing procedure executed by the information processing apparatus in this embodiment. 本実施形態における情報処理装置が実行する処理手順例を示すフローチャートである。It is a flowchart which shows the example of the processing procedure executed by the information processing apparatus in this embodiment.

[情報提供システムの全体構成例]
図1は、本実施形態における情報提供システム1の全体的な構成例を示している。同図の情報提供システム1は、居住空間10(一定の空間の一例)において備えられるn個のセンサ100(100-1~100-n)、情報処理装置200、及び入出力装置300を備える。また、情報提供システム1は、居住空間10に居住するユーザU(U-1~U-4)がそれぞれ所持するユーザ端末装置400(400-1~400-4)を備える。
[Overall configuration example of information provision system]
FIG. 1 shows an overall configuration example of the information providing system 1 in the present embodiment. The information providing system 1 in the figure includes n sensors 100 (100-1 to 100-n), an information processing device 200, and an input / output device 300 provided in a living space 10 (an example of a constant space). Further, the information providing system 1 includes user terminal devices 400 (400-1 to 400-4) possessed by users U (U-1 to U-4) residing in the living space 10.

本実施形態における居住空間10は、具体的には住宅であればよい。この場合の居住空間10としての住宅は、家屋内だけではなく、例えば住宅としての敷地内であれば、家屋の外の庭やエントランス等も含まれてよい。 Specifically, the living space 10 in the present embodiment may be a house. In this case, the house as the living space 10 may include not only the inside of the house but also a garden outside the house, an entrance, and the like, for example, in the case of the site as a house.

同図では、居住空間10に居住するユーザUが、ユーザU-1~U-4の4人である例を示している。具体的に、以下の説明では、4人のユーザUは家族であって、ユーザU-1は父、ユーザU-2は母、ユーザU-3は子供、ユーザU-4は祖父(祖母でもよい)である場合を例に挙げる。
なお、同図では、ユーザU-2、ユーザU-4が居住空間10内に存在しており、ユーザU-1、ユーザU-3が居住空間10の外に存在している場合が示されている。これは、ユーザUは、日常の生活において居住空間10を出入りしており、かつ、ユーザ端末装置400を所持していれば、居住空間10の外であっても後述の提供情報の提供を受けることが可能であることを表している。
The figure shows an example in which four users U-1 to U-4 live in the living space 10. Specifically, in the following description, the four users U are family members, user U-1 is a father, user U-2 is a mother, user U-3 is a child, and user U-4 is a grandfather (even a grandmother). Good) is taken as an example.
In the figure, the case where the user U-2 and the user U-4 exist in the living space 10 and the user U-1 and the user U-3 exist outside the living space 10 is shown. ing. This means that if the user U goes in and out of the living space 10 in daily life and possesses the user terminal device 400, he / she will be provided with the information provided later even outside the living space 10. It shows that it is possible.

センサ100は、それぞれ、居住空間における所定の場所に設置され、所定の検出項目についての検出を行う。具体的に、センサ100-1~100-nのうちには、カメラ、マイクロフォン、各種の生体情報センサが含まれる。 Each of the sensors 100 is installed at a predetermined place in the living space and detects a predetermined detection item. Specifically, the sensors 100-1 to 100-n include cameras, microphones, and various biometric information sensors.

カメラとしてのセンサ100は、一定の撮像範囲の周囲環境を対象に撮像を行う。つまり、カメラとしてのセンサ100は、設置された位置と方向に応じた視野範囲を検出対象として検出を行い、検出情報として撮像画像を得る。カメラとしてのセンサ100は、良質な撮像画像を得るために、例えばデュアルカメラ等のように複数のカメラにより撮像された画像を利用して撮像画像を出力するようにされたものが使用されてよい。また、カメラとしてのセンサ100には、例えば高精細の撮像画像が得られるラインセンサが使用されてもよい。 The sensor 100 as a camera takes an image of the surrounding environment in a certain imaging range. That is, the sensor 100 as a camera detects the field of view range corresponding to the installed position and direction as a detection target, and obtains a captured image as detection information. As the sensor 100 as a camera, in order to obtain a high-quality captured image, a sensor 100 that outputs a captured image using images captured by a plurality of cameras, such as a dual camera, may be used. .. Further, as the sensor 100 as a camera, for example, a line sensor that can obtain a high-definition captured image may be used.

マイクロフォンとしてのセンサ100は、周囲の音を対象に収音を行う。つまり、カメラとしてのセンサ100は、設置された位置と設定された指向性に応じた周囲の音を検出対象として検出を行い、検出情報として音声信号を得る。 The sensor 100 as a microphone collects ambient sound. That is, the sensor 100 as a camera detects the ambient sound according to the installed position and the set directivity as the detection target, and obtains an audio signal as the detection information.

生体情報センサとしてのセンサ100は、それぞれが所定の生体情報を検出する。生体情報センサとしてのセンサ100には、体重や体脂肪率等を測定する体組成センサ、においを検出するにおいセンサ等が含まれる。
さらに、生体情報センサとしてのセンサ100には、例えばサーモグラフィ等を用いて体温を測定する体温センサ、ミリ波レーダを用いて単位時間あたりの心拍数を検出する心拍センサ、赤外線を用いて血中酸素濃度を検出する血中酸素濃度センサ、ミリ波レーダを用いて単位時間あたりの呼吸数を検出する呼吸数センサが含まれてよい。さらに、生体情報センサとしてのセンサ100には、尿や便から所定の検査項目を検出する尿便センサが含まれてよい。
Each of the sensors 100 as a biometric information sensor detects predetermined biometric information. The sensor 100 as a biological information sensor includes a body composition sensor for measuring body weight, body fat percentage, and the like, an odor sensor for detecting odor, and the like.
Further, the sensor 100 as a biological information sensor includes a body temperature sensor that measures body temperature using, for example, thermography, a heart rate sensor that detects heart rate per unit time using a millimeter-wave radar, and blood oxygen using infrared rays. A blood oxygen concentration sensor for detecting the concentration and a respiratory rate sensor for detecting the respiratory rate per unit time using a millimeter-wave radar may be included. Further, the sensor 100 as a biological information sensor may include a urine / stool sensor that detects a predetermined test item from urine or stool.

センサ100は、それぞれ、自己が検出して得られた検出情報を、情報処理装置200に送信(出力)する。センサ100と情報処理装置200との通信は、有線であってもよいし、近距離無線通信であってもよい。 Each of the sensors 100 transmits (outputs) the detection information obtained by the sensor 100 to the information processing apparatus 200. The communication between the sensor 100 and the information processing device 200 may be wired or short-range wireless communication.

情報処理装置200は、センサ100から送信された検出情報に基づいて、ユーザUごとに所定の項目に対応する解析を行う。情報処理装置200は、解析結果に基づいて、所定のユーザUに提供情報を生成する。
提供情報は、少なくとも1の所定のユーザUに提供すべき情報である。提供情報の具体例については後述する。
The information processing apparatus 200 performs an analysis corresponding to a predetermined item for each user U based on the detection information transmitted from the sensor 100. The information processing apparatus 200 generates information provided to a predetermined user U based on the analysis result.
The provided information is information to be provided to at least one predetermined user U. Specific examples of the provided information will be described later.

情報処理装置200は、生成した提供情報を所定のユーザ端末装置400に送信(出力)する。
情報処理装置200からユーザ端末装置400への提供情報の送信は、ゲートウェイGWを介して行われる。同図のゲートウェイGWは、無線LANルータと、外部のネットワークNWとの間で通信を行うための中継器を有する。
例えば、ユーザ端末装置400が居住空間10内に存在している場合には、情報処理装置200から送信された提供情報は、ゲートウェイGWが有する無線LANルータを経由して、居住空間10内のユーザ端末装置400に送信される。また、ユーザ端末装置400が居住空間10の外に存在している場合には、情報処理装置200から送信された提供情報は、ゲートウェイGWが有する中継器からネットワークNWを介して、居住空間10の外のユーザ端末装置400に送信される。
The information processing device 200 transmits (outputs) the generated provided information to a predetermined user terminal device 400.
The information provided from the information processing device 200 to the user terminal device 400 is transmitted via the gateway GW. The gateway GW in the figure has a repeater for communicating between the wireless LAN router and the external network NW.
For example, when the user terminal device 400 exists in the living space 10, the provided information transmitted from the information processing device 200 is transmitted to the user in the living space 10 via the wireless LAN router of the gateway GW. It is transmitted to the terminal device 400. Further, when the user terminal device 400 exists outside the living space 10, the provided information transmitted from the information processing device 200 is transmitted from the repeater of the gateway GW to the living space 10 via the network NW. It is transmitted to the outside user terminal device 400.

また、情報処理装置200は入出力装置300と接続される。入出力装置300は、情報処理装置200に対してユーザが入力操作を行うことのできる入力装置として機能する。また、入出力装置300は、情報処理装置200から送信された提供情報を居住空間10内のユーザUに向けて提示するように出力してもよい。入出力装置300による提供情報の提示は、表示や音声によって行われてよい。
入出力装置300は、例えばマウス、キーボード、タッチパネル、マイクロフォンなどの入力装置、表示装置、音出力装置(音声信号増幅回路、スピーカ等を含む)等であってもよい。また、入出力装置300は、スマートスピーカー等であってもよい。
Further, the information processing device 200 is connected to the input / output device 300. The input / output device 300 functions as an input device capable of performing an input operation on the information processing device 200 by the user. Further, the input / output device 300 may output the provided information transmitted from the information processing device 200 so as to be presented to the user U in the living space 10. The information provided by the input / output device 300 may be presented by display or voice.
The input / output device 300 may be, for example, an input device such as a mouse, a keyboard, a touch panel, a microphone, a display device, a sound output device (including a voice signal amplifier circuit, a speaker, etc.) and the like. Further, the input / output device 300 may be a smart speaker or the like.

ユーザ端末装置400は、情報処理装置200から送信される提供情報を受信し、受信された提供情報を表示、音声等により出力する。これにより、ユーザUに対して情報の提供が行われる。また、ユーザUは、ユーザ端末装置400に対する操作によって、情報提供システムにおいて必要な各種設定に関する操作を行うことができる。このようなユーザ端末装置400の提供情報の出力や、各種設定に関する操作等の機能は、ユーザ端末装置400にインストールされた情報提供アプリケーションによって実現される。 The user terminal device 400 receives the provided information transmitted from the information processing device 200, displays the received provided information, and outputs the received provided information by voice or the like. As a result, information is provided to the user U. Further, the user U can perform operations related to various settings required in the information providing system by operating the user terminal device 400. Functions such as output of information provided by the user terminal device 400 and operations related to various settings are realized by the information providing application installed in the user terminal device 400.

[センサの構成例]
図2は、センサ100の構成例を示している。同図のセンサ100は、検出部101、通信部102を備える。
[Sensor configuration example]
FIG. 2 shows a configuration example of the sensor 100. The sensor 100 in the figure includes a detection unit 101 and a communication unit 102.

検出部101は、検出対象を検出し、検出結果を示す検出情報を出力する。センサ100がカメラである場合、検出部101は、レンズ、撮像素子等を備え、撮像を行って撮像画像としての検出情報を得る。この場合において、検出部101は、前述のように、デュアルカメラやラインセンサ等を備えてよい。
また、センサ100がマイクロフォンである場合、検出部101は、収音を行って音声信号としての検出情報を得る。
The detection unit 101 detects the detection target and outputs the detection information indicating the detection result. When the sensor 100 is a camera, the detection unit 101 includes a lens, an image pickup element, and the like, and performs image pickup to obtain detection information as an image pickup image. In this case, the detection unit 101 may include a dual camera, a line sensor, or the like, as described above.
Further, when the sensor 100 is a microphone, the detection unit 101 collects sound and obtains detection information as an audio signal.

通信部102は、情報処理装置200と通信を行うことで、検出部101から出力された検出信号を、情報処理装置200に送信する。通信部102は、有線による通信に対応する構成であってもよいし、無線通信に対応する構成であってもよい。無線通信としては、例えば、Bluetooth(登録商標)等をはじめとする所定の近距離無線通信を採用してよい。 The communication unit 102 communicates with the information processing device 200 to transmit the detection signal output from the detection unit 101 to the information processing device 200. The communication unit 102 may be configured to support wired communication or may be configured to support wireless communication. As the wireless communication, for example, a predetermined short-range wireless communication such as Bluetooth (registered trademark) may be adopted.

[情報処理装置の構成例]
図3は、情報処理装置200の構成例を示している。同図の情報処理装置200は、センサ対応通信部201、ネットワーク対応通信部202、入出力インターフェース部203、制御部204、及び記憶部205を備える。
[Configuration example of information processing device]
FIG. 3 shows a configuration example of the information processing apparatus 200. The information processing device 200 in the figure includes a sensor-compatible communication unit 201, a network-compatible communication unit 202, an input / output interface unit 203, a control unit 204, and a storage unit 205.

センサ対応通信部201は、センサ100と通信を行う。
ネットワーク対応通信部202は、ゲートウェイGWを介してネットワークNWに対応する通信を行う。
The sensor-compatible communication unit 201 communicates with the sensor 100.
The network-compatible communication unit 202 performs communication corresponding to the network NW via the gateway GW.

センサ対応通信部201とネットワーク対応通信部202は、それぞれの通信に対応する回路を備える。
入出力インターフェース部203は、ユーザインターフェースに対応して情報処理装置200と外部装置との間で情報の入出力を行う。図1との対応では、入出力インターフェース部203は、入出力装置300と接続される。
The sensor-compatible communication unit 201 and the network-compatible communication unit 202 include circuits corresponding to their respective communications.
The input / output interface unit 203 inputs / outputs information between the information processing device 200 and the external device corresponding to the user interface. In correspondence with FIG. 1, the input / output interface unit 203 is connected to the input / output device 300.

制御部204は、情報処理装置200における各種制御を実行する。制御部204としての機能は、情報処理装置200において備えられるCPU(Central Processing Unit)がプログラムを実行することにより実現される。
同図の制御部204は、検出情報取得部241、検出情報加工部242、個人認識部243、解析部244、及び情報出力部245を備える。
The control unit 204 executes various controls in the information processing apparatus 200. The function as the control unit 204 is realized by executing a program by a CPU (Central Processing Unit) provided in the information processing apparatus 200.
The control unit 204 in the figure includes a detection information acquisition unit 241, a detection information processing unit 242, an individual recognition unit 243, an analysis unit 244, and an information output unit 245.

検出情報取得部241は、センサ100から出力される検出情報を取得する。センサ100から送信された検出情報は、センサ対応通信部201にて受信される。検出情報取得部241は、センサ対応通信部201にて受信された検出情報を取得する。 The detection information acquisition unit 241 acquires the detection information output from the sensor 100. The detection information transmitted from the sensor 100 is received by the sensor-compatible communication unit 201. The detection information acquisition unit 241 acquires the detection information received by the sensor-compatible communication unit 201.

検出情報加工部242は、検出情報取得部241により取得された検出情報のうちの所定の検出情報について加工を行う。
加工の具体例として、検出情報加工部242は、撮像画像としての検出情報については、解析部244による解析の対象となる被写体(人物、食物等)の抽出を行ってよい。また、検出情報加工部242は、被写体の抽出にあたり、例えば異なるカメラ(センサ100)により得られた複数の撮像画像や、異なる時刻に撮像して得られた複数の撮像画像から、良質な画像の被写体を抽出するようにしてよい。
また、検出情報加工部242は、音声信号としての検出情報については、例えばノイズの除去、解析部244による解析の対象となる音声信号成分の抽出等を行ってよい。
また、検出情報加工部242は、生体情報センサとしてのセンサ100からの検出情報についてもノイズの除去等を行ってよい。
The detection information processing unit 242 processes the predetermined detection information among the detection information acquired by the detection information acquisition unit 241.
As a specific example of processing, the detection information processing unit 242 may extract the subject (person, food, etc.) to be analyzed by the analysis unit 244 for the detection information as the captured image. Further, when extracting the subject, the detection information processing unit 242 extracts a high-quality image from, for example, a plurality of captured images obtained by different cameras (sensor 100) and a plurality of captured images obtained by capturing images at different times. The subject may be extracted.
Further, the detection information processing unit 242 may, for example, remove noise and extract an audio signal component to be analyzed by the analysis unit 244 for the detection information as an audio signal.
Further, the detection information processing unit 242 may also remove noise from the detection information from the sensor 100 as the biological information sensor.

個人認識部243は、検出情報取得部241により取得された検出情報、(検出情報加工部242による加工後の検出情報も含む)のうちの所定の検出情報を利用して個人認識を実行する。ここでの個人認識は、居住空間10に居住するユーザUごとの個人を認識する処理となる。個人認識部243は、撮像画像としての検出情報から抽出された人物の画像に基づいて個人認識を行うことができる。人物の画像に基づく個人認識は、顔画像に基づく個人認識であってもよいし、全身画像に基づく個人認識であってもよい。
また、個人認識部243は、音声信号としての検出情報から抽出された人の音声の成分に基づいて個人認識を行うことができる。また、個人認識部243は、においセンサとしてのセンサ100により検出されたにおいについての検出情報に基づいて個人認識を行うことができる。図1の例では、個人認識部243は、4人のユーザU-1~U-4ごとに対応する個人を認識する。
The personal recognition unit 243 executes personal recognition using the detection information acquired by the detection information acquisition unit 241 and the predetermined detection information (including the detection information after processing by the detection information processing unit 242). The individual recognition here is a process of recognizing an individual for each user U residing in the living space 10. The personal recognition unit 243 can perform personal recognition based on an image of a person extracted from the detection information as a captured image. The individual recognition based on the image of a person may be the individual recognition based on the face image or the individual recognition based on the whole body image.
Further, the personal recognition unit 243 can perform personal recognition based on the component of the human voice extracted from the detection information as the voice signal. Further, the personal recognition unit 243 can perform personal recognition based on the detection information about the odor detected by the sensor 100 as the odor sensor. In the example of FIG. 1, the individual recognition unit 243 recognizes an individual corresponding to each of the four users U-1 to U-4.

個人認識部243は、個人認識にあたり、例えば個人ごとの性別、身長、年齢層等も認識してよい。この場合、個人認識部243は、認識した個人ごとの性別、年齢層等に基づいて、父、母、子供(息子、娘)、祖父等のように、認識した個人のそれぞれを、家族を構成する人員のいずれに該当するのかについても認識するようにされてよい。 In individual recognition, the individual recognition unit 243 may also recognize, for example, the gender, height, age group, etc. of each individual. In this case, the individual recognition unit 243 constitutes a family for each recognized individual, such as a father, mother, child (son, daughter), grandfather, etc., based on the gender, age group, etc. of each recognized individual. You may also be aware of which of the personnel you are in.

解析部244は、検出情報取得部241により取得された検出情報(検出情報加工部242による加工後の検出情報も含む)に基づいて、複数のユーザUごとに個別に設定された解析項目に対応する解析を実行する。
情報出力部245は、ユーザUごとの解析項目についての解析結果に基づく提供情報を所定のユーザ端末装置400に出力する。
ユーザごとに個別に対応付けられる解析項目と、解析結果に基づいて情報出力部245が出力する提供情報は、例えば健康等に関連するものを挙げることができるが、具体例については後述する。
The analysis unit 244 corresponds to analysis items individually set for each of a plurality of users U based on the detection information acquired by the detection information acquisition unit 241 (including the detection information after processing by the detection information processing unit 242). Perform the analysis.
The information output unit 245 outputs the provided information based on the analysis result of the analysis item for each user U to the predetermined user terminal device 400.
Examples of the analysis items individually associated with each user and the provided information output by the information output unit 245 based on the analysis result may be related to health or the like, and specific examples will be described later.

記憶部205は、記憶装置を備えて構成され、情報処理装置200に対応する各種の情報を記憶する。同図の記憶部205は、検出情報記憶部251、解析情報記憶部252、ユーザ情報記憶部253、及び検出解析履歴記憶部254を備える。 The storage unit 205 is configured to include a storage device, and stores various types of information corresponding to the information processing device 200. The storage unit 205 in the figure includes a detection information storage unit 251, an analysis information storage unit 252, a user information storage unit 253, and a detection analysis history storage unit 254.

検出情報記憶部251は、検出情報取得部241により取得された検出情報(検出情報加工部242による加工により得られる検出情報も含む)を記憶する。検出情報記憶部251により、時系列に応じた検出情報が蓄積されることで、解析部244は、検出情報取得部241により随時取得される検出情報に基づくリアルタイム性を有する解析だけではなく、過去から現在までにおける検出情報を利用した解析も実行することができる。
解析情報記憶部252は、解析部244による解析結果の情報を記憶する。
The detection information storage unit 251 stores the detection information (including the detection information obtained by processing by the detection information processing unit 242) acquired by the detection information acquisition unit 241. By accumulating the detection information according to the time series by the detection information storage unit 251, the analysis unit 244 not only performs the analysis having real-time property based on the detection information acquired at any time by the detection information acquisition unit 241 but also the past. It is also possible to perform analysis using the detection information from to the present.
The analysis information storage unit 252 stores the information of the analysis result by the analysis unit 244.

ユーザ情報記憶部253は、ユーザUごとのユーザ情報を記憶する。
図4は、ユーザ情報記憶部253が記憶するユーザ情報の一例を示している。同図には、ユーザU-1~U-4ごとに対応するユーザ情報の例が示されている。同図における1レコード(1行)が1のユーザUに対応するユーザ情報である。1のユーザUに対応するユーザ情報は、ユーザ識別子、ユーザ特徴量、ユーザプロフィール、及びフィードバック設定情報の各領域を含む。
ユーザ識別子の領域は、対応のユーザを示すユーザ識別子を格納する。
ユーザ特徴量の領域は、対応のユーザについての個人認識に対応する特徴量を格納する。
The user information storage unit 253 stores user information for each user U.
FIG. 4 shows an example of user information stored in the user information storage unit 253. The figure shows an example of user information corresponding to each user U-1 to U-4. One record (one line) in the figure is user information corresponding to one user U. The user information corresponding to one user U includes each area of a user identifier, a user feature amount, a user profile, and feedback setting information.
The area of the user identifier stores the user identifier indicating the corresponding user.
The area of the user feature amount stores the feature amount corresponding to the personal recognition of the corresponding user.

個人認識部243は、例えばセンサ100により検出された撮像画像、音声、におい等から抽出した特徴量に基づいて個人認識処理を実行した結果、或るユーザUとしての個人を認識すると、認識した個人についてユーザ識別子を付与する。ユーザ情報におけるユーザ識別子の領域には、対応のユーザUについて認識を行った際に付与したユーザ識別子が格納され、特徴量の領域には、対応のユーザUについて認識を行った際に抽出された特徴量が格納される。なお、特徴量の領域に格納される特徴量の情報については、ユーザUの加齢等に応じた変化に応じて適宜更新されてよい。 The personal recognition unit 243 recognizes an individual as a user U as a result of executing personal recognition processing based on feature quantities extracted from, for example, captured images, sounds, odors, etc. detected by the sensor 100. A user identifier is given for. The user identifier given when the corresponding user U is recognized is stored in the user identifier area in the user information, and the feature amount area is extracted when the corresponding user U is recognized. Features are stored. The feature amount information stored in the feature amount area may be appropriately updated according to changes according to the aging of the user U and the like.

また、同図において、ユーザプロフィールの領域は、ユーザプロフィールの情報を格納する。ユーザプロフィールの領域に格納されるユーザプロフィールの情報には、例えば家族構成におけるいずれの人員であるのかを示す人員区分(即ち、父、母、子供(息子、娘)、祖父等のいずれであるのかを示す情報)、性別、年齢(もしくは年齢層)等のユーザUに関する基本的な情報が格納されてよい。
このようなユーザプロフィールの情報における人員区分、性別、年齢等の情報は、ユーザUによる入出力装置300に対する操作やユーザ端末装置400に対する操作によって入力が行われることにより取得されてよい。この場合には、例えば入出力装置300あるいはユーザ端末装置400にて、個人認識部243により認識されたユーザUの顔画像を表示するとともに、表示された顔画像に対応するユーザUのユーザプロフィールを入力する入力画面を表示する。ユーザUは、入力画面に対して人員区分、性別、年齢等の情報を入力する操作を行う。また、この場合には、ユーザプロフィールの情報の1つとして、ユーザUの名前(ニックネームでもよい)等も入力可能なようにできる。
Further, in the figure, the user profile area stores the user profile information. The user profile information stored in the user profile area is, for example, a personnel classification indicating which member in the family structure (that is, father, mother, child (son, daughter), grandfather, etc.). Information indicating), gender, age (or age group), and other basic information about the user U may be stored.
Information such as personnel classification, gender, and age in such user profile information may be acquired by inputting by an operation on the input / output device 300 by the user U or an operation on the user terminal device 400. In this case, for example, the input / output device 300 or the user terminal device 400 displays the face image of the user U recognized by the personal recognition unit 243, and displays the user profile of the user U corresponding to the displayed face image. Display the input screen for input. The user U performs an operation of inputting information such as personnel classification, gender, and age on the input screen. Further, in this case, the name (may be a nickname) of the user U can be input as one of the user profile information.

フィードバック設定情報の領域は、対応のユーザUに対応する提供情報の提示の設定に関する情報(フィードバック設定情報)を格納する。フィードバック設定情報は、例えば対応のユーザUに関して、どのような解析項目が設定されており、解析項目ごとに対応する提供情報の通知(提供)を、いずれのユーザ端末装置400に対して行うべきかを示す情報である。 The area of the feedback setting information stores information (feedback setting information) regarding the setting of the presentation of the provided information corresponding to the corresponding user U. As for the feedback setting information, for example, what kind of analysis items are set for the corresponding user U, and which user terminal device 400 should be notified (provided) of the provided information corresponding to each analysis item. This is information indicating.

同図においては、1のユーザUに対応するフィードバック設定情報の一例が示される。同図においては、解析項目1、解析項目2、解析項目3ごとに対応する3つのフィードバック設定情報が格納された例を示している。1つのフィードバック設定情報は、解析項目に通知先情報が対応付けられている。なお、1つのフィードバック設定情報における通知先情報は、複数のユーザ端末装置400が通知先として示されていてもよい。 In the figure, an example of feedback setting information corresponding to one user U is shown. The figure shows an example in which three feedback setting information corresponding to each of the analysis item 1, the analysis item 2, and the analysis item 3 is stored. In one feedback setting information, the notification destination information is associated with the analysis item. The notification destination information in one feedback setting information may be indicated by a plurality of user terminal devices 400 as notification destinations.

説明を図3に戻す。検出解析履歴記憶部254は、検出解析履歴を記憶する。検出解析履歴には、過去に得られた検出情報と解析結果に関連する情報(解析結果関連情報)を記憶する。解析結果関連情報としては、解析部244による解析結果を示す情報であってもよいし、解析結果に基づく提供情報であってもよい。
検出解析履歴記憶部254は、例えばこれまでに得られた検出情報や解析結果関連情報の全てを蓄積してもよい。しかしながら、記憶部205に対応する記憶装置の記憶容量の制限などで、これまでに得られた検出情報や解析結果関連情報の全てを蓄積することが難しい場合がある。
そこで、制御部204(記憶制御部の一例)は、例えば、検出情報や解析結果関連情報についての代表値の情報(代表検出解析履歴)を検出解析履歴記憶部254に記憶させてもよい。このような代表検出解析履歴としては、一定期間ごとの平均値、移動平均値、一定期間ごとにおいて顕著な変化を示した時点での値等であってよい。このような代表値に相当する情報を検出解析履歴として記憶するようにすれば、検出解析履歴記憶部254に対応する記憶装置の記憶容量の節約を図ることができる。
制御部204は、例えばユーザ端末装置400からの要求に応じて、検出解析履歴記憶部254に記憶された代表検出解析履歴を、ユーザ端末装置400に送信してよい。ユーザ端末装置400は、受信された代表検出解析履歴を、例えば時系列に応じた変化が提示されるように出力してよい。一例として、ユーザUは、自分もしくは他のユーザの過去の健康状態に関する状態を示す検出解析履歴を要求するための操作をユーザ端末装置400に行って、ユーザ端末装置400にて過去の健康状態に関する状態を表示させることができる。これにより、ユーザは、自分もしくは他のユーザに関する過去の健康状態を手軽に把握できる。
The explanation is returned to FIG. The detection analysis history storage unit 254 stores the detection analysis history. In the detection analysis history, the detection information obtained in the past and the information related to the analysis result (analysis result-related information) are stored. The analysis result-related information may be information indicating the analysis result by the analysis unit 244, or may be information provided based on the analysis result.
The detection / analysis history storage unit 254 may accumulate, for example, all the detection information and the analysis result-related information obtained so far. However, it may be difficult to store all of the detection information and analysis result-related information obtained so far due to the limitation of the storage capacity of the storage device corresponding to the storage unit 205.
Therefore, the control unit 204 (an example of the storage control unit) may store, for example, representative value information (representative detection analysis history) of the detection information and the analysis result-related information in the detection analysis history storage unit 254. Such a representative detection analysis history may be an average value at regular intervals, a moving average value, a value at a time when a remarkable change is shown at regular intervals, and the like. If the information corresponding to such a representative value is stored as the detection / analysis history, the storage capacity of the storage device corresponding to the detection / analysis history storage unit 254 can be saved.
The control unit 204 may transmit the representative detection analysis history stored in the detection analysis history storage unit 254 to the user terminal device 400, for example, in response to a request from the user terminal device 400. The user terminal device 400 may output the received representative detection analysis history so that, for example, a change according to a time series is presented. As an example, the user U performs an operation for requesting a detection analysis history indicating a state related to the past health state of himself / herself or another user to the user terminal device 400, and the user terminal device 400 relates to the past health state. The status can be displayed. As a result, the user can easily grasp the past health condition of himself / herself or other users.

図5は、ユーザ端末装置400は、通信部401、制御部402、記憶部403、入力インターフェース部404、及び出力インターフェース部405を備える。 In FIG. 5, the user terminal device 400 includes a communication unit 401, a control unit 402, a storage unit 403, an input interface unit 404, and an output interface unit 405.

通信部401は、ネットワークNW経由で通信を実行する。 The communication unit 401 executes communication via the network NW.

制御部402は、ユーザ端末装置400における各種の制御を実行する。制御部402としての機能は、ユーザ端末装置400が備えるCPUがプログラムを実行することにより実現される。
同図の制御部402は、アプリケーション対応処理部421(情報提示部の一例)を備える。アプリケーション対応処理部421は、ユーザ端末装置400にインストールされた情報提供アプリケーションに対応する各種機能を実行する。即ち、アプリケーション対応処理部421としての機能は、ユーザ端末装置400が備えるCPUが、インストールされた情報提供アプリケーションのプログラムを実行することによって実現される。
The control unit 402 executes various controls in the user terminal device 400. The function as the control unit 402 is realized by the CPU included in the user terminal device 400 executing a program.
The control unit 402 in the figure includes an application-corresponding processing unit 421 (an example of an information presentation unit). The application correspondence processing unit 421 executes various functions corresponding to the information providing application installed in the user terminal device 400. That is, the function as the application-corresponding processing unit 421 is realized by the CPU included in the user terminal device 400 executing the program of the installed information providing application.

アプリケーション対応処理部421は、情報処理装置200から受信した提供情報を表示や音声等によってユーザUに向けて出力する。また、アプリケーション対応処理部421は、情報提供システムにおいて必要な各種設定に関して行われる操作を受け付ける。アプリケーション対応処理部421は、受け付けた操作に応じた設定内容を示す情報を情報処理装置200に送信する。情報処理装置200は受信した情報が示す設定内容を記憶部205に記憶させる。このようにして設定される情報には、例えばユーザ情報記憶部253が記憶するユーザプロフィールにおける所定の項目の情報等が含まれる。また、アプリケーション対応処理部421は、受け付けた操作に応じた設定内容によっては、自己の記憶部403に記憶させてよい。 The application correspondence processing unit 421 outputs the provided information received from the information processing apparatus 200 to the user U by display, voice, or the like. Further, the application correspondence processing unit 421 accepts operations performed regarding various settings required in the information providing system. The application correspondence processing unit 421 transmits information indicating the setting contents corresponding to the received operation to the information processing apparatus 200. The information processing apparatus 200 stores the setting contents indicated by the received information in the storage unit 205. The information set in this way includes, for example, information of a predetermined item in the user profile stored in the user information storage unit 253. Further, the application-corresponding processing unit 421 may store the application-corresponding processing unit 421 in its own storage unit 403 depending on the setting contents according to the received operation.

記憶部403は、情報提供アプリケーションのプログラム等をはじめ、ユーザ端末装置400に対応する各種の情報を記憶する。 The storage unit 403 stores various information corresponding to the user terminal device 400, including a program of an information providing application.

入力インターフェース部404は、ユーザインターフェースにおける入出力のうち、入力に対応する部位である。入力インターフェース部404は、例えばユーザ端末装置400が備える各種の物理的なキーや入力デバイスを含む。入力デバイスには、タッチパネル、マイクロフォン、カメラ等が含まれてよい。 The input interface unit 404 is a part of the input / output in the user interface corresponding to the input. The input interface unit 404 includes, for example, various physical keys and input devices included in the user terminal device 400. The input device may include a touch panel, a microphone, a camera and the like.

出力インターフェース部405は、ユーザインターフェースにおける入出力のうち、入力に対応する部位である。出力インターフェース部405は、例えばユーザ端末装置400が備える表示装置、音声出力部(音声信号増幅回路、スピーカ、イヤホン端子等)が含まれてよい。 The output interface unit 405 is a part of the input / output in the user interface corresponding to the input. The output interface unit 405 may include, for example, a display device included in the user terminal device 400 and an audio output unit (audio signal amplification circuit, speaker, earphone terminal, etc.).

[処理手順例]
図6のフローチャートを参照して、情報処理装置200がセンサ100から送信された検出情報の受信に応じて実行する処理手順例を示すフローチャートである。なお、同図の処理は、居住空間10に対応する家族を構成する全ての人員ごとに対応するユーザ情報がユーザ情報記憶部253に記憶済みとされている状態のもとで行われる。また、同図の処理は、例えば予め定められた一定時間ごとに実行される。
[Processing procedure example]
With reference to the flowchart of FIG. 6, it is a flowchart showing an example of a processing procedure executed by the information processing apparatus 200 in response to the reception of the detection information transmitted from the sensor 100. The process shown in the figure is performed under the condition that the user information corresponding to each member of the family corresponding to the living space 10 is stored in the user information storage unit 253. Further, the process of the figure is executed, for example, at predetermined fixed time intervals.

ステップS101:情報処理装置200において、検出情報取得部241は、各センサ100から送信された検出情報を取得する。 Step S101: In the information processing apparatus 200, the detection information acquisition unit 241 acquires the detection information transmitted from each sensor 100.

ステップS102:個人認識部243は、ステップS102により取得された検出情報が個人を認識可能なものである場合には、取得された検出情報に基づく個人認識を実行する。具体例として、取得された検出情報が撮像画像である場合には、撮像画像に人物の画像が含まれていれば個人認識が可能である。また、音声信号に人の発した声が含まれていれば個人認識が可能である。また、においセンサにより検出された人のにおいに基づいて個人認識が可能である。
ステップS102における個人認識は、取得された検出情報に対応するユーザUが、ユーザ情報記憶部253に記憶されたユーザ情報において示される家族の人員のいずれであるのかを認識する処理となる。このために、個人認識部243は、取得された検出情報から抽出した特徴量と、ユーザ情報に格納されるユーザUごとのユーザ特徴量との類似度を求め、一定以上の類似度が得られたユーザ特徴量に対応する人員が、今回取得された検出情報に対応するユーザUであると認識する。なお、ステップS102においては、同時に複数のユーザUが認識されてよい。
Step S102: When the detection information acquired in step S102 is recognizable by an individual, the individual recognition unit 243 executes personal recognition based on the acquired detection information. As a specific example, when the acquired detection information is a captured image, personal recognition is possible if the captured image includes an image of a person. In addition, personal recognition is possible if the voice signal includes a voice uttered by a person. In addition, personal recognition is possible based on the odor of a person detected by the odor sensor.
The personal recognition in step S102 is a process of recognizing which of the family members indicated in the user information stored in the user information storage unit 253 is the user U corresponding to the acquired detection information. For this purpose, the personal recognition unit 243 obtains the similarity between the feature amount extracted from the acquired detection information and the user feature amount for each user U stored in the user information, and obtains a certain degree of similarity or more. It is recognized that the person corresponding to the user feature amount is the user U corresponding to the detection information acquired this time. In step S102, a plurality of users U may be recognized at the same time.

ステップS103:検出情報取得部241は、ステップS101により取得された検出情報が、ステップS102にて認識された個人に応じた解析に必要な情報であるか否かの弁別を行う。
例えば、検出情報取得部241は、ユーザ情報記憶部253が記憶するユーザUごとのフィードバック設定情報を参照することで、ユーザUごとに対応して行うべき解析に必要な検出情報の種別を特定する。検出情報取得部241は、ステップS102により検出された検出情報のうち、ステップS102にて認識した個人に対応して行うべき解析に必要な検出情報と同じものについては必要であると弁別し、異なるものについては不要であると弁別する。
そのうえで、検出情報取得部241は、不要であると判定した検出情報については廃棄してよい。
Step S103: The detection information acquisition unit 241 discriminates whether or not the detection information acquired in step S101 is the information necessary for the analysis according to the individual recognized in step S102.
For example, the detection information acquisition unit 241 specifies the type of detection information required for analysis corresponding to each user U by referring to the feedback setting information for each user U stored in the user information storage unit 253. .. The detection information acquisition unit 241 discriminates that among the detection information detected in step S102, the same detection information necessary for the analysis to be performed corresponding to the individual recognized in step S102 is necessary, and is different. Discriminate that things are unnecessary.
Then, the detection information acquisition unit 241 may discard the detection information determined to be unnecessary.

ステップS104:検出情報加工部242は、ステップS103にて必要であると弁別した検出情報のうちで加工が必要なものについて加工を行う。検出情報の加工としては、例えば前述のように、撮像画像からの解析に必要な被写体の抽出、良質な画像の抽出、尾解析対象となる音声信号成分の抽出、ノイズ除去、生体情報センサとしてのセンサ100からの検出情報についてのノイズ除去等を挙げることができる。 Step S104: The detection information processing unit 242 processes the detection information discriminated as necessary in step S103 that needs to be processed. As for the processing of the detection information, for example, as described above, extraction of the subject necessary for analysis from the captured image, extraction of a high-quality image, extraction of the voice signal component to be tail-analyzed, noise removal, and as a biometric information sensor. Noise removal and the like for the detection information from the sensor 100 can be mentioned.

ステップS105:検出情報取得部241は、ステップS103により必要であると弁別された検出情報を、ステップS102にて認識された個人に対応させて検出情報記憶部251に記憶させる。なお、検出情報取得部241は、ステップS105において、ステップS103により不要であると弁別された検出情報についても破棄することなく、検出情報記憶部251に記憶させてよい。 Step S105: The detection information acquisition unit 241 stores the detection information discriminated as necessary in step S103 in the detection information storage unit 251 in correspondence with the individual recognized in step S102. The detection information acquisition unit 241 may store the detection information discriminated as unnecessary in step S105 in the detection information storage unit 251 without discarding it.

なお、検出情報加工部242による検出情報の加工は、ステップS102による個人認識に利用する検出情報を対象として、ステップS104より前のステップS102にて事前に実行してよい。 The processing of the detection information by the detection information processing unit 242 may be executed in advance in step S102 before step S104, targeting the detection information used for personal recognition in step S102.

図7のフローチャートを参照して、情報処理装置200が提供情報の出力に関連して実行する処理手順例について説明する。同図の処理は、1のユーザUに対応する提供情報のうち、所定の1つの解析項目(図4)に対応する提供情報の出力に関連して実行される処理となる。
ステップS201:まず、解析部244は、ユーザ情報記憶部253が記憶するフィードバック設定情報のうちから、対象となるユーザのフィードバック設定情報を参照する。
ステップS202:解析部244は、ステップS201により参照したフィードバック設定情報に基づいて、今回において対象のユーザUに対応して、今回、解析部244が対象とすべき解析項目の解析に必要な検出情報の種別を判定する。解析部244は、検出情報記憶部251に記憶されている、対象のユーザに対応付けられている検出情報のうちから、解析に必要であると判定した種別の検出情報を取得する。
ステップS203:解析部244は、ステップS202により取得された検出情報を利用して解析を実行する。
ステップS204:解析部244は、ステップS203による解析結果を示す情報を、解析情報記憶部252に記憶させる。
ステップS205:情報出力部245は、提供情報を出力する。つまり、情報出力部245は、ステップS204により記憶された解析結果に基づいて、対象のユーザについての提供情報を生成する。情報出力部245は、生成した提供情報を、所定のユーザ端末装置400に送信する。ここで、情報出力部245は、ステップS201により参照したフィードバック設定情報において、今回解析の対象とされた解析項目に対応付けられた通知先情報により示されるユーザ端末装置400に対して提供情報を送信する。
An example of a processing procedure executed by the information processing apparatus 200 in connection with the output of the provided information will be described with reference to the flowchart of FIG. 7. The process shown in the figure is a process executed in connection with the output of the provided information corresponding to a predetermined analysis item (FIG. 4) among the provided information corresponding to one user U.
Step S201: First, the analysis unit 244 refers to the feedback setting information of the target user from the feedback setting information stored in the user information storage unit 253.
Step S202: The analysis unit 244 corresponds to the target user U in this time based on the feedback setting information referred to in step S201, and the analysis unit 244 is required to analyze the analysis item to be the target this time. Judge the type of. The analysis unit 244 acquires the detection information of the type determined to be necessary for the analysis from the detection information associated with the target user stored in the detection information storage unit 251.
Step S203: The analysis unit 244 executes the analysis using the detection information acquired in step S202.
Step S204: The analysis unit 244 stores the information indicating the analysis result in step S203 in the analysis information storage unit 252.
Step S205: The information output unit 245 outputs the provided information. That is, the information output unit 245 generates the provided information about the target user based on the analysis result stored in step S204. The information output unit 245 transmits the generated provided information to a predetermined user terminal device 400. Here, the information output unit 245 transmits the provided information to the user terminal device 400 indicated by the notification destination information associated with the analysis item targeted for analysis this time in the feedback setting information referred to in step S201. do.

[提供情報出力の具体例]
(第1例)
図6及び図7に示される処理によっては、情報処理装置200における解析部244は、例えば、ユーザUごとについて、健康状態、食事状態、ストレス状態、成長状態、美容状態等を解析することができる。そのうえで、情報出力部245は、健康状態、食事状態、ストレス状態、成長状態、美容状態等の解析結果を示す情報を提供情報として出力できる。また、情報出力部245は、上記の各種状態の解析結果に基づいて、状態を改善するための提案に関する情報を提供情報として出力できる。
[Specific example of providing information output]
(1st example)
Depending on the process shown in FIGS. 6 and 7, the analysis unit 244 in the information processing apparatus 200 can analyze, for example, a health state, a dietary state, a stress state, a growth state, a beauty state, and the like for each user U. .. Then, the information output unit 245 can output information indicating analysis results such as a health state, a dietary state, a stress state, a growth state, and a beauty state as provided information. Further, the information output unit 245 can output information regarding a proposal for improving the state as provided information based on the analysis results of the various states described above.

具体例の1つとして、父であるユーザU-1に関して、フィードバック設定情報について、健康状態として、特に生活習慣病に関する診断に応じた解析項目が設定された場合を例に挙げる。また、同じフィードバック設定情報における通知先情報が示す通知先は、例えば父であるユーザU-1本人のユーザ端末装置400-1として設定されている場合を例に挙げる。 As one specific example, regarding the user U-1 who is a father, the case where the analysis items according to the diagnosis of the health condition, especially the lifestyle-related disease, are set for the feedback setting information will be given as an example. Further, the notification destination indicated by the notification destination information in the same feedback setting information is set as, for example, the user terminal device 400-1 of the user U-1 who is the father.

このようなフィードバック設定情報は、例えば父であるユーザU-1が自己の生活習慣病予防に意識的であったために、ユーザU-1自信が、ユーザ端末装置400-1や入出力装置300に対する操作を行うことによって設定することができる。あるいは、情報処理装置200が、ユーザU-1に対応して記憶されたユーザ情報におけるユーザプロフィールの情報において示される年齢層等の情報に基づいて、このようなフィードバック設定情報を設定してもよい。あるいは、情報処理装置200が、学習処理等に基づいて、これまでのユーザU-1に対応して得られた検出情報に基づいて判定した生活習慣が良質なものでないと判定したことに対応して、このようなフィードバック設定情報を設定してもよい。 Such feedback setting information, for example, because the user U-1 who is the father was conscious of the prevention of his / her own lifestyle-related disease, the self-confidence of the user U-1 with respect to the user terminal device 400-1 and the input / output device 300. It can be set by performing an operation. Alternatively, the information processing apparatus 200 may set such feedback setting information based on the information such as the age group shown in the user profile information in the user information stored corresponding to the user U-1. .. Alternatively, it corresponds to the case where the information processing apparatus 200 determines that the lifestyle determined based on the detection information obtained corresponding to the user U-1 so far is not of good quality based on the learning process or the like. Then, such feedback setting information may be set.

この場合、情報処理装置200の検出情報取得部241は、父であるユーザU-1であると認識された個人に対応して、体組成(体重、体脂肪率等)、心拍数、血圧計により測定された血圧、等の検出情報を解析に必要な検出情報として検出情報記憶部251に記憶させる。
また、この場合の検出情報取得部241は、生活習慣病予防のための食生活改善に対応して、ユーザU-1の食事を撮像した撮像画像も取得してよい。
In this case, the detection information acquisition unit 241 of the information processing apparatus 200 corresponds to the individual recognized as the user U-1 who is the father, and has a body composition (weight, body fat ratio, etc.), heart rate, and blood pressure monitor. The detection information storage unit 251 stores the detection information such as the blood pressure measured by the above as the detection information necessary for the analysis.
Further, the detection information acquisition unit 241 in this case may also acquire an image captured by capturing the meal of the user U-1 in response to the improvement of eating habits for preventing lifestyle-related diseases.

そのうえで、解析部244は、上記のように記憶された検出情報について解析を行い、例えば、生活習慣病としての症状の程度等について判定する。
また、解析部244は、食事の撮像画像を利用して、食事のメニュー内容、カロリー、栄養素バランス、水分量、塩分量等についても解析を行ってよい。本実施形態において、撮像画像として、例えば前述のようにデュアルカメラやラインセンサにより撮像されたものを利用したり、加工を行うなどして良質なものを得ることで、解析部244が行う食事の内容の特定等についての精度を高めることが可能になる。このような食事に関する解析結果は、例えば食生活の側面からの生活習慣病への影響を判定することができる。
情報出力部245は、解析部244の解析結果に基づいて、判定された症状の程度と、症状の程度に応じた改善提案の内容(食事内容等も含まれてよい)とを提示する提供情報を生成する。情報出力部245は、生成した提供情報を、対応のフィードバック設定情報における通知先情報が示す通知先である、ユーザU-1(父)のユーザ端末装置400-1に対して送信する。
ユーザU-1(父)は、受信された提供情報をユーザ端末装置400-1にて表示させ、表示された内容を確認することで、自分の症状や改善策などを手軽に知ることができる。
Then, the analysis unit 244 analyzes the detection information stored as described above, and determines, for example, the degree of symptoms as a lifestyle-related disease.
In addition, the analysis unit 244 may analyze the menu contents, calories, nutrient balance, water content, salt content, etc. of the meal by using the captured image of the meal. In the present embodiment, as the captured image, for example, an image captured by a dual camera or a line sensor as described above is used, or a high-quality image is obtained by processing, so that the meal prepared by the analysis unit 244 is prepared. It is possible to improve the accuracy of specifying the content. From the analysis result regarding such a diet, for example, the influence on lifestyle-related diseases from the aspect of eating habits can be determined.
The information output unit 245 provides information that presents the degree of the determined symptom based on the analysis result of the analysis unit 244 and the content of the improvement proposal (including the meal content) according to the degree of the symptom. To generate. The information output unit 245 transmits the generated provided information to the user terminal device 400-1 of the user U-1 (father), which is the notification destination indicated by the notification destination information in the corresponding feedback setting information.
The user U-1 (father) can easily know his / her symptoms and improvement measures by displaying the received provided information on the user terminal device 400-1 and checking the displayed contents. ..

(第2例)
また、例えばユーザU-1(父)などは、仕事などでストレスが与えられやすい環境にある。
そこで、具体例の1つとして、ユーザU-1(父)に対応するフィードバック設定情報として、ユーザU-1(父)のストレス状態の診断に関する解析項目を設定することができる。また、この場合のフィードバック設定情報における通知先情報としては、ユーザU-2(母)である場合を例に挙げる。つまり、この場合のフィードバック設定情報は、ユーザU-1(父)のストレス状態を、妻であるユーザU-2(母)が看視するという状況に対応して設定されたものである。
(2nd example)
Further, for example, user U-1 (father) is in an environment where stress is likely to be given at work or the like.
Therefore, as one of the specific examples, the analysis item related to the diagnosis of the stress state of the user U-1 (father) can be set as the feedback setting information corresponding to the user U-1 (father). Further, as the notification destination information in the feedback setting information in this case, the case of the user U-2 (mother) is taken as an example. That is, the feedback setting information in this case is set in response to the situation where the stress state of the user U-1 (father) is observed by the wife user U-2 (mother).

この場合、情報処理装置200の検出情報取得部241は、ユーザU-1(父)であると認識された個人に対応して、ユーザU-1が含まれる撮像画像、ユーザU-1の音声信号、ユーザU-1について検出された心拍数、呼吸数等のように、ストレス状態の判定材料として利用する検出情報を検出情報記憶部251に記憶させる。
この場合、撮像画像については、ユーザU-1の顔画像から抽出される表情からストレス状態を判定できる。また、音声信号については、ユーザU-1の声の調子などからストレス状態を判定できる。また、心拍数、呼吸数等についての乱れの状態などによりストレス状態を判定できる。
In this case, the detection information acquisition unit 241 of the information processing apparatus 200 corresponds to the individual recognized as the user U-1 (father), and the captured image including the user U-1 and the voice of the user U-1. The detection information storage unit 251 stores detection information used as a material for determining a stress state, such as a signal, a heart rate detected for the user U-1, a respiratory rate, and the like.
In this case, for the captured image, the stress state can be determined from the facial expression extracted from the face image of the user U-1. Further, for the voice signal, the stress state can be determined from the tone of the voice of the user U-1. In addition, the stress state can be determined based on the state of disorder regarding the heart rate, the respiratory rate, and the like.

そのうえで、解析部244は、上記のように記憶された検出情報について解析を行い、ストレス状態を判定する。
情報出力部245は、解析部244の解析結果に基づいて、例えば判定されたストレス状態(さらにストレス解消のための対策を示す情報が含まれてよい)を示す提供情報を生成する。情報出力部245は、生成した提供情報を、対応のフィードバック設定情報における通知先情報が示す通知先である、ユーザU-2(母)のユーザ端末装置400-2に対して送信する。
ユーザU-1(母)は、受信された提供情報をユーザ端末装置400-2にて表示させ、表示された内容を確認することで、自分の夫であるユーザU-2(父)のストレス状態を手軽に把握することができる。
Then, the analysis unit 244 analyzes the detection information stored as described above and determines the stress state.
The information output unit 245 generates provided information indicating, for example, a determined stress state (which may further include information indicating measures for stress relief) based on the analysis result of the analysis unit 244. The information output unit 245 transmits the generated provided information to the user terminal device 400-2 of the user U-2 (mother), which is the notification destination indicated by the notification destination information in the corresponding feedback setting information.
The user U-1 (mother) displays the received provided information on the user terminal device 400-2, and confirms the displayed contents to stress the user U-2 (father) who is her husband. You can easily grasp the state.

(第3例)
また、家族において、親にとっては、子供の身体的成長が順調であるかどうかが気になる。そこで、具体例の1つとして、ユーザU-3(子供)に対応するフィードバック設定情報として、ユーザU-3(子供)の成長状態の診断に関する解析項目を設定することができる。また、この場合のフィードバック設定情報における通知先情報としては、親であるユーザU-1(父)及びユーザU-2(母)である場合を例に挙げる。
(3rd example)
Also, in the family, parents are concerned about whether their children are growing physically. Therefore, as one of the specific examples, the analysis item related to the diagnosis of the growth state of the user U-3 (child) can be set as the feedback setting information corresponding to the user U-3 (child). Further, as the notification destination information in the feedback setting information in this case, the case where the parent user U-1 (father) and the user U-2 (mother) are taken as an example.

この場合、情報処理装置200の検出情報取得部241は、ユーザU-3(子供)であると認識された個人に対応して、ユーザU-3が含まれる撮像画像、ユーザU-1の体重等のように、身体的成長の判定材料として利用する検出情報を検出情報記憶部251に記憶させる。この場合、解析部244は、撮像画像におけるユーザU-3の全身の画像に基づいて身長を推定できる。 In this case, the detection information acquisition unit 241 of the information processing apparatus 200 corresponds to the individual recognized as the user U-3 (child), the captured image including the user U-3, and the weight of the user U-1. The detection information storage unit 251 stores the detection information used as a material for determining physical growth. In this case, the analysis unit 244 can estimate the height based on the image of the whole body of the user U-3 in the captured image.

解析部244は、上記のように記憶された検出情報に基づいて推定した身長、体重と、過去において推定された身長、体重と、ユーザ情報におけるユーザプロフィールの情報が示す年齢等の情報に基づいて、ユーザU-3(子供)の成長に関する解析を行う。例えば、解析部244は、日数経過に応じた成長状態が順調であるかどうかを判定することができる。また、解析部244は、成長に関する解析と併せて、撮像画像に基づいてユーザU-3(子供)の食事に関する情報(メニュー内容、カロリー、栄養素バランス、水分量、塩分量、食事の摂取時間)等を判定し、成長の状態と関連付けてもよい。 The analysis unit 244 is based on information such as the height and weight estimated based on the detection information stored as described above, the height and weight estimated in the past, and the age indicated by the user profile information in the user information. , Perform an analysis on the growth of user U-3 (children). For example, the analysis unit 244 can determine whether or not the growth state according to the passage of days is favorable. In addition, the analysis unit 244, together with the analysis on growth, provides information on the diet of the user U-3 (child) based on the captured image (menu content, calories, nutrient balance, water content, salt content, meal intake time). Etc. may be determined and associated with the state of growth.

情報出力部245は、解析部244の解析結果に基づいて、子供の成長に関する情報を示す提供情報を生成する。情報出力部245は、生成した提供情報を、対応のフィードバック設定情報における通知先情報が示す通知先である、ユーザU-1(父)のユーザ端末装置400-1と、ユーザU-2(母)のユーザ端末装置400-2に対して送信する。
両親であるユーザU-1(父)とユーザU-1(母)は、受信された提供情報をユーザ端末装置400-1にて表示させ、表示された内容を確認することで、子供の成長の様子を手軽に確認できる。また、提供情報において、食事に関する内容が関連付けられて提示されている場合には、ユーザU-1(父)とユーザU-1(母)が、子供の成長に関連して、子供の食生活が適切かどうかを確認し、食生活を向上させることもできる。
The information output unit 245 generates provided information indicating information on the growth of the child based on the analysis result of the analysis unit 244. The information output unit 245 sends the generated provided information to the user terminal device 400-1 of the user U-1 (father) and the user U-2 (mother), which are the notification destinations indicated by the notification destination information in the corresponding feedback setting information. ) Is transmitted to the user terminal device 400-2.
The parents, user U-1 (father) and user U-1 (mother), display the received provided information on the user terminal device 400-1, and confirm the displayed contents to grow the child. You can easily check the state of. In addition, when the contents related to meals are associated and presented in the provided information, the user U-1 (father) and the user U-1 (mother) are related to the growth of the child, and the eating habits of the child. You can also check if it is appropriate and improve your eating habits.

(第4例)
また、ユーザU-2(母)にとっては、自分に関する肌や体型等の美容に関して関心がある。そこで、本例としては、ユーザU-2(母)に対応して、美容に関する解析項目のフィードバック設定情報が設定されてよい。この場合のフィードバック設定情報における通知先情報が示す通知先は、例えばユーザU-2(母)のユーザ端末装置400-2である場合を例に挙げる。
(4th example)
In addition, the user U-2 (mother) is interested in beauty such as skin and body shape related to herself. Therefore, as an example, feedback setting information of analysis items related to beauty may be set corresponding to the user U-2 (mother). The notification destination indicated by the notification destination information in the feedback setting information in this case is, for example, the case where the user terminal device 400-2 of the user U-2 (mother) is taken as an example.

この場合の検出情報取得部241は、ユーザU-2(母)に対応する撮像画像、体重、体脂肪率などの検出情報を取得し、検出情報記憶部251に記憶させる。
解析部244は、記憶された検出情報における撮像画像を利用して、ユーザU-2(母)の肌の状態を判定する。また、解析部244は、記憶された検出情報における撮像画像、体重、体脂肪率等の情報を利用して、ユーザU-2(母)の体型に関する状態を判定する。このような体型に関する状態の判定のうちには、例えば年齢等に応じた標準体型(もしくは手動または自動で設定された目標体型)に対するユーザU-2(母)の体型の乖離度や、ユーザU-2(母)の日数経過に応じた変化等が含まれてよい。また、解析部244は、例えば、ユーザU-2(母)の食事の撮像画像から、ユーザの食事の内容(メニュー内容、カロリー、栄養素バランス、水分量、塩分量)等を認識し、認識した食事の内容を評価してよい。
そして、情報出力部245は、解析部244により判定された体型に関する情報や、食事の内容の評価結果や改善案等が反映された提供情報を生成し、生成された提供情報を、通知先情報が示すユーザU-2(母)のユーザ端末装置400-2に送信する。これにより、ユーザU-2(母)は、日常生活において、自分の美容に関する情報を手軽に得て、自分の美容を高めることに役立てることができる。
In this case, the detection information acquisition unit 241 acquires the detection information such as the captured image, the body weight, and the body fat percentage corresponding to the user U-2 (mother), and stores the detection information in the detection information storage unit 251.
The analysis unit 244 determines the skin condition of the user U-2 (mother) by using the captured image in the stored detection information. Further, the analysis unit 244 determines the state related to the body shape of the user U-2 (mother) by using the information such as the captured image, the body weight, and the body fat percentage in the stored detection information. Among the determinations of the state related to such a body shape, for example, the degree of deviation of the body shape of the user U-2 (mother) from the standard body shape (or the target body shape set manually or automatically) according to the age, etc., and the user U -2 (Mother) may include changes according to the passage of days. Further, the analysis unit 244 recognizes and recognizes, for example, the contents of the user's meal (menu contents, calories, nutrient balance, water content, salt content), etc. from the captured image of the meal of the user U-2 (mother). You may evaluate the content of the meal.
Then, the information output unit 245 generates information on the body shape determined by the analysis unit 244, provision information reflecting the evaluation result of the meal content, an improvement plan, and the like, and notifies the generated provision information to the notification destination information. Is transmitted to the user terminal device 400-2 of the user U-2 (mother) indicated by. As a result, the user U-2 (mother) can easily obtain information on his / her beauty in daily life and use it to enhance his / her beauty.

(第5例)
また、ユーザU-4(祖父)に関しては、突然の体調不良や、転んで骨折などのけがを負ったことで、動けなくなってしまうようなことが心配される。そこで、1つの具体例として、ユーザU-4(祖父)が居住空間10において動けなくなった状態にあるかどうかの判定を解析項目とするフィードバック設定情報を設定してよい。また、このフィードバック設定情報における通知先情報においては、例えばユーザU-4(祖父)息子、娘にあたるユーザU-1(父)やユーザU-2(母)等のユーザ端末装置400-1、400-2等が通知先として設定される。
(5th example)
In addition, the user U-4 (grandfather) is worried that he may not be able to move due to sudden illness or injury such as a fall and a broken bone. Therefore, as one specific example, feedback setting information may be set with the analysis item of determining whether or not the user U-4 (grandfather) is in a state of being stuck in the living space 10. Further, in the notification destination information in this feedback setting information, for example, user terminal devices 400-1, 400 such as user U-4 (grandfather) son, user U-1 (father) and user U-2 (mother) who are daughters. -2 etc. is set as the notification destination.

この場合、検出情報取得部241は、ユーザU-4(祖父)が含まれる撮像画像、ユーザU-4(祖父)についての心拍数等をはじめとする生体情報としての検出情報を取得し、検出情報記憶部251に記憶する。
そのうえで、解析部244は、記憶された撮像画像としての検出情報を利用して、例えば、ユーザU-4についての異常の有無を判定する。例えば、ユーザU-4(祖父)がこれまで居住空間10内を移動していた状態から、床に横臥するような状態となり、この際の脈拍等の生体情報が異常であると判定された。このような場合、解析部244は、ユーザU-4(祖父)に異常が発生したと判定する。また、この際、解析部244は、撮像画像からユーザU-4(祖父)の顔の表情について、例えば苦しそうな表情、あるいは痛みを感じていそうな表情であるか否かについて判定した結果についても、ユーザU-4(祖父)に異常が発生したか否かの判定に利用してよい。
In this case, the detection information acquisition unit 241 acquires and detects detection information as biological information such as an image captured by the user U-4 (grandfather), a heart rate of the user U-4 (grandfather), and the like. It is stored in the information storage unit 251.
Then, the analysis unit 244 determines, for example, the presence or absence of an abnormality in the user U-4 by using the detected information as the stored captured image. For example, the user U-4 (grandfather) has changed from being in a state of moving in the living space 10 to being lying on the floor, and it is determined that the biological information such as the pulse at this time is abnormal. In such a case, the analysis unit 244 determines that an abnormality has occurred in the user U-4 (grandfather). At this time, the analysis unit 244 determines from the captured image whether or not the facial expression of the user U-4 (grandfather) is, for example, a painful facial expression or a painful facial expression. May also be used to determine whether or not an abnormality has occurred in the user U-4 (grandfather).

解析部244によりユーザU-4(祖父)に異常が発生したと判定された場合、情報出力部245は、直ちに、通知先であるユーザU-1(父)及びユーザU-2(母)の各ユーザ端末装置400-1、400-2に対して、ユーザU-4(祖父)に異常が発生したことを通知する提供情報を送信する。ユーザU-1(父)及びユーザU-2(母)は、送信された提供情報としての通知を受けることで、迅速に対応することができる。 When the analysis unit 244 determines that an abnormality has occurred in the user U-4 (grandfather), the information output unit 245 immediately determines that the user U-1 (father) and the user U-2 (mother) who are the notification destinations have an abnormality. The provided information notifying the user U-4 (grandfather) that an abnormality has occurred is transmitted to the user terminal devices 400-1 and 400-2. User U-1 (father) and user U-2 (mother) can respond promptly by receiving the notification as the transmitted provided information.

(第6例)
また、例えばユーザU-3(子供)が未だ新生児、乳児などのような場合(この場合、ユーザU-3はユーザ端末装置400-3を所持しなくともよい)、ユーザU-3(子供)は泣き声、喃語、笑い声等により自分の欲求を外に伝えているといえる。例えば、このようなユーザU-3(子供)が泣く場合としては、例えばお腹が空いていたり、おむつがぬれていたり、抱っこしてもらいたいような場合を挙げることができる。
(6th example)
Further, for example, when the user U-3 (child) is still a newborn baby, an infant, etc. (in this case, the user U-3 does not have to possess the user terminal device 400-3), the user U-3 (child). Can be said to convey one's desires to the outside by crying, babbling, laughing, etc. For example, such a case where the user U-3 (child) cries may be, for example, a case where the user is hungry, the diaper is wet, or the user wants to be held.

そこで、ユーザU-3(子供)が新生児や乳児である場合、ユーザU-3(子供)に対応して、ユーザU-3(子供)の欲求の推定を解析項目とするフィードバック設定情報が設定されてもよい。このようなフィードバック設定情報における通知先情報は、母親であるユーザU-2のユーザ端末装置400-2を通知先として示すようにされてよい。さらには、家族における他の人員のユーザ端末装置400も通知先として示すようにされてよい。あるいは、この場合の通知先情報が示す通知先は、居住空間10において現在存在していることが確認されているユーザUのユーザ端末装置400とされてもよい。 Therefore, when the user U-3 (child) is a newborn baby or an infant, feedback setting information is set corresponding to the user U-3 (child) with the estimation of the desire of the user U-3 (child) as an analysis item. May be done. The notification destination information in such feedback setting information may be set to indicate the user terminal device 400-2 of the user U-2 who is the mother as the notification destination. Furthermore, the user terminal device 400 of another person in the family may also be indicated as a notification destination. Alternatively, the notification destination indicated by the notification destination information in this case may be the user terminal device 400 of the user U whose existence is confirmed to currently exist in the living space 10.

この場合、検出情報取得部241は、ユーザU-3(子供)の音声信号を検出情報として取得し、検出情報記憶部251に記憶させる。また、検出情報取得部241は、ユーザU-3(子供)の撮像画像も検出情報として取得し、検出情報記憶部251に記憶させてもよい。撮像画像の検出情報は、例えばユーザU-3(子供)の動きや表情などの解析を行って、欲求の推定に利用できる。
解析部244は、上記のように得られた検出情報を利用して、ユーザU-3(子供)の欲求を推定する。また、ユーザU-3(子供)の欲求に応じた声の出し方、表情、動き方等は、個人ごとにパターンが異なる。そこで、この場合の解析部244は、学習により、対象のユーザU-3(子供)に応じた欲求の判定を行うようにすることが好ましい。
情報出力部245は、解析部244により判定されたユーザU-3(子供)の欲求を通知する内容の提供情報を生成し、通知先のユーザ端末装置400に送信する。これにより、提供情報の通知を受けたユーザUは、ユーザU-3(子供)の欲求を把握するにあたり、自分が現在確認しているユーザU-3(子供)の状態に加え、情報提供システムにより提供された欲求についての推定結果を参考にして判断することができる。
In this case, the detection information acquisition unit 241 acquires the audio signal of the user U-3 (child) as detection information and stores it in the detection information storage unit 251. Further, the detection information acquisition unit 241 may also acquire the captured image of the user U-3 (child) as detection information and store it in the detection information storage unit 251. The detected information of the captured image can be used for estimating the desire by analyzing the movement and facial expression of the user U-3 (child), for example.
The analysis unit 244 estimates the desire of the user U-3 (child) by using the detection information obtained as described above. In addition, the pattern of how to make a voice, facial expression, how to move, etc. according to the desire of the user U-3 (child) differs for each individual. Therefore, it is preferable that the analysis unit 244 in this case determines the desire according to the target user U-3 (child) by learning.
The information output unit 245 generates the provision information of the content notifying the desire of the user U-3 (child) determined by the analysis unit 244, and transmits it to the user terminal device 400 of the notification destination. As a result, the user U who has been notified of the provided information can grasp the desire of the user U-3 (child) in addition to the state of the user U-3 (child) that he / she is currently confirming, as well as the information providing system. It can be judged by referring to the estimation result about the desire provided by.

本実施形態の情報提供システムにおける提供情報の内容は、上記の各例のほかにも多様に考えられる。上記の各例において挙げられた提供情報は、広くはユーザの健康に関連する情報であるといえる。しかしながら、提供情報は、例えば、健康に関する以外の情報であってよい。例えば、ユーザUについて解析した行動パターン等に応じて判定される趣味や嗜好等に応じた内容の提供情報であってもよい。 The contents of the provided information in the information providing system of the present embodiment can be considered in various ways in addition to the above examples. It can be said that the provided information given in each of the above examples is broadly related to the health of the user. However, the information provided may be, for example, information other than health. For example, the information may be provided according to a hobby, a preference, or the like, which is determined according to the behavior pattern or the like analyzed for the user U.

また、例えば居住空間10における温度、湿度、空気清浄度等の空間環境を測定するセンサ100を備え、これらのセンサ100によって検出された空間環境の測定結果も、ユーザUを対象とする解析に反映させてよい。 Further, for example, a sensor 100 for measuring the spatial environment such as temperature, humidity, and air cleanliness in the living space 10 is provided, and the measurement result of the spatial environment detected by these sensors 100 is also reflected in the analysis for the user U. You may let me.

また、上記の各例では、人であるユーザUを対象にして検出情報の取得、解析、提供情報の出力を行っている。しかしながら、例えば人以外のペット等の動物を対象にして検出情報の取得、所定の解析項目に対応する解析、提供情報の出力を行ってもよい。また、この場合のペットに対応するフィードバック設定情報の通知先情報によって示される通知先は、家族の人員のいずれかの1名以上のユーザUのユーザ端末装置400であればよい。
例えば、解析部244は、ペットとしての犬あるいは猫等の動物を対象とする場合、撮像画像や音声信号等の検出情報に基づいて、ペットの感情(飼い主に訴えたい内容)やペットの健康状態等を判定する。情報出力部245は、解析部244により判定されたペットの感情(飼い主に訴えたい内容)、あるいはペットの健康状態をユーザに知らせる内容の提供情報を生成し、ペットに対応するフィードバック設定情報の通知先情報により指定されたユーザ端末装置400に提供情報を送信してよい。
Further, in each of the above examples, the detection information is acquired, analyzed, and the provided information is output for the user U who is a human being. However, for example, an animal such as a pet other than a human may be targeted for acquisition of detection information, analysis corresponding to a predetermined analysis item, and output of provided information. Further, the notification destination indicated by the notification destination information of the feedback setting information corresponding to the pet in this case may be the user terminal device 400 of one or more users U of any one of the family members.
For example, when the analysis unit 244 targets an animal such as a dog or a cat as a pet, the analysis unit 244 determines the emotion of the pet (contents that the owner wants to appeal to) and the health condition of the pet based on the detection information such as the captured image and the voice signal. Etc. are judged. The information output unit 245 generates information provided to inform the user of the pet's emotions (contents to be appealed to the owner) or the pet's health condition determined by the analysis unit 244, and notifies the feedback setting information corresponding to the pet. The provided information may be transmitted to the user terminal device 400 designated by the destination information.

なお、上記の例は、一定の空間が居住空間10であり、家族の居住する戸建てまたはマンション等の住宅に対応する場合について説明した。しかしながら、本実施形態における一定の空間は、例えば、社員寮やシェアハウス等であってもよい。また、一定の空間は、オフィスなどであってもよい。 In the above example, a case where a certain space is a living space 10 and corresponds to a house such as a detached house or a condominium in which a family lives is described. However, the certain space in the present embodiment may be, for example, an employee dormitory, a share house, or the like. Further, the certain space may be an office or the like.

なお、上述の情報処理装置200、ユーザ端末装置400等としての機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより上述の情報処理装置200、ユーザ端末装置400等としての処理を行ってもよい。ここで、「記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行する」とは、コンピュータシステムにプログラムをインストールすることを含む。ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、インターネットやWAN、LAN、専用回線等の通信回線を含むネットワークを介して接続された複数のコンピュータ装置を含んでもよい。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。このように、プログラムを記憶した記録媒体は、CD-ROM等の非一過性の記録媒体であってもよい。また、記録媒体には、当該プログラムを配信するために配信サーバからアクセス可能な内部または外部に設けられた記録媒体も含まれる。配信サーバの記録媒体に記憶されるプログラムのコードは、端末装置で実行可能な形式のプログラムのコードと異なるものでもよい。すなわち、配信サーバからダウンロードされて端末装置で実行可能な形でインストールができるものであれば、配信サーバで記憶される形式は問わない。なお、プログラムを複数に分割し、それぞれ異なるタイミングでダウンロードした後に端末装置で合体される構成や、分割されたプログラムのそれぞれを配信する配信サーバが異なっていてもよい。さらに「コンピュータ読み取り可能な記録媒体」とは、ネットワークを介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、上述した機能の一部を実現するためのものであってもよい。さらに、上述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。 A program for realizing the functions of the information processing device 200, the user terminal device 400, and the like described above is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into the computer system. By executing the process, the above-mentioned information processing device 200, user terminal device 400, or the like may be processed. Here, "loading and executing a program recorded on a recording medium into a computer system" includes installing the program in the computer system. The term "computer system" as used herein includes hardware such as an OS and peripheral devices. Further, the "computer system" may include a plurality of computer devices connected via a network including a communication line such as the Internet, WAN, LAN, and a dedicated line. Further, the "computer-readable recording medium" refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, or a CD-ROM, and a storage device such as a hard disk built in a computer system. As described above, the recording medium in which the program is stored may be a non-transient recording medium such as a CD-ROM. The recording medium also includes an internal or external recording medium accessible from the distribution server for distributing the program. The code of the program stored in the recording medium of the distribution server may be different from the code of the program in a format that can be executed by the terminal device. That is, the format stored in the distribution server does not matter as long as it can be downloaded from the distribution server and installed in a form that can be executed by the terminal device. It should be noted that the configuration in which the program is divided into a plurality of parts and downloaded at different timings and then combined by the terminal device, or the distribution server for distributing each of the divided programs may be different. Furthermore, a "computer-readable recording medium" is a volatile memory (RAM) inside a computer system that serves as a server or client when a program is transmitted via a network, and holds the program for a certain period of time. It shall include things. Further, the above program may be for realizing a part of the above-mentioned functions. Further, it may be a so-called difference file (difference program) that can realize the above-mentioned function in combination with a program already recorded in the computer system.

1 情報提供システム、10 居住空間、100(100-1~100-n) センサ、101 検出部、102 通信部、200 情報処理装置、201 センサ対応通信部、202 ネットワーク対応通信部、203 入出力インターフェース部、204 制御部、205 記憶部、241 検出情報取得部、242 検出情報加工部、243 個人認識部、244 解析部、245 情報出力部、251 検出情報記憶部、252 解析情報記憶部、253 ユーザ情報記憶部、254 検出解析履歴記憶部、300 入出力装置、400(400-1~400-n) ユーザ端末装置、401 通信部、402 制御部、403 記憶部、404 入力インターフェース部、405 出力インターフェース部、421 アプリケーション対応処理部 1 Information provision system, 10 Living space, 100 (100-1 to 100-n) sensor, 101 detection unit, 102 communication unit, 200 information processing device, 201 sensor compatible communication unit, 202 network compatible communication unit, 203 input / output interface Unit, 204 control unit, 205 storage unit, 241 detection information acquisition unit, 242 detection information processing unit, 243 personal recognition unit, 244 analysis unit, 245 information output unit, 251 detection information storage unit, 252 analysis information storage unit, 253 user Information storage unit, 254 detection and analysis history storage unit, 300 input / output device, 400 (400-1 to 400-n) user terminal device, 401 communication unit, 402 control unit, 403 storage unit, 404 input interface unit, 405 output interface Department, 421 Application support processing department

Claims (8)

一定の空間において備えられ、所定の対象を検出する1以上のセンサと、情報処理装置と、前記一定の空間に対応するユーザに対応するユーザ端末装置とを備え、
前記情報処理装置は、
前記センサから出力される検出情報を取得する検出情報取得部と、
前記検出情報取得部により取得された検出情報に基づいて、複数の前記ユーザごとに個別に設定された解析項目に対応する解析を実行する解析部と、
ユーザごとの前記解析項目についての解析結果に基づく提供情報を所定のユーザ端末装置に出力する情報出力部とを備え、
前記ユーザ端末装置は、
前記情報出力部から出力された提供情報をユーザに提示するように出力する情報提示部を備える
情報提供システム。
It is provided in a certain space and includes one or more sensors for detecting a predetermined object, an information processing device, and a user terminal device corresponding to a user corresponding to the certain space.
The information processing device is
A detection information acquisition unit that acquires detection information output from the sensor,
Based on the detection information acquired by the detection information acquisition unit, the analysis unit that executes the analysis corresponding to the analysis items individually set for each of the plurality of users, and the analysis unit.
It is provided with an information output unit that outputs information provided based on the analysis result of the analysis item for each user to a predetermined user terminal device.
The user terminal device is
An information providing system including an information presenting unit that outputs the provided information output from the information output unit so as to present it to the user.
前記情報出力部は、
前記解析部が解析した前記解析項目についての解析結果に基づく提供情報を、前記解析部が解析した前記解析項目が対応するユーザとは異なるユーザのユーザ端末装置に出力する
請求項1に記載の情報提供システム。
The information output unit is
The information according to claim 1, wherein the information provided based on the analysis result of the analysis item analyzed by the analysis unit is output to a user terminal device of a user different from the user to which the analysis item analyzed by the analysis unit corresponds. Offering system.
前記検出情報取得部は、一定の撮像範囲の周囲環境を対象に撮像による検出を行うカメラを備える前記センサから出力される撮像画像を前記検出情報として取得する
請求項1または2に記載の情報提供システム。
The information provision according to claim 1 or 2, wherein the detection information acquisition unit acquires an image captured by the sensor including a camera that detects an ambient environment in a certain imaging range by imaging as the detection information. system.
前記検出情報取得部は、収音による検出を行うマイクロフォンを備える前記センサから出力される音声信号を前記検出情報として取得する
請求項1から3のいずれか一項に記載の情報提供システム。
The information providing system according to any one of claims 1 to 3, wherein the detection information acquisition unit acquires an audio signal output from the sensor including a microphone that detects by collecting sound as the detection information.
前記検出情報取得部は、所定の生体情報を対象として検出する前記センサから出力される検出情報を取得する
請求項1から4のいずれか一項に記載の情報提供システム。
The information providing system according to any one of claims 1 to 4, wherein the detection information acquisition unit acquires detection information output from the sensor that detects predetermined biological information.
前記検出情報取得部により取得された検出情報と、前記解析部による解析結果を示す情報との少なくともいずれか一方についての代表値の情報を記憶部に記憶させる記憶制御部を備える
請求項1から5のいずれか一項に記載の情報提供システム。
Claims 1 to 5 include a storage control unit that stores representative value information for at least one of the detection information acquired by the detection information acquisition unit and the information indicating the analysis result by the analysis unit in the storage unit. The information provision system described in any one of the above.
一定の空間において備えられ、所定の対象を検出する1以上のセンサから出力される検出情報を取得する検出情報取得部と、
前記検出情報取得部により取得された検出情報に基づいて、複数のユーザごとに個別に設定された解析項目に対応する解析を実行する解析部と、
ユーザごとの前記解析項目についての解析結果に基づく提供情報を、前記一定の空間に対応するユーザに対応するユーザ端末装置のうちの所定のユーザ端末装置に出力する情報出力部と
を備える情報処理装置。
A detection information acquisition unit that is provided in a certain space and acquires detection information output from one or more sensors that detect a predetermined target.
An analysis unit that executes analysis corresponding to analysis items individually set for each of a plurality of users based on the detection information acquired by the detection information acquisition unit.
An information processing device including an information output unit that outputs information provided based on the analysis result of the analysis item for each user to a predetermined user terminal device among the user terminal devices corresponding to the user corresponding to the certain space. ..
コンピュータを、
一定の空間において備えられ、所定の対象を検出する1以上のセンサから出力される検出情報を取得する検出情報取得部、
前記検出情報取得部により取得された検出情報に基づいて、複数のユーザごとに個別に設定された解析項目に対応する解析を実行する解析部、
ユーザごとの前記解析項目についての解析結果に基づく提供情報を、前記一定の空間に対応するユーザに対応するユーザ端末装置のうちの所定のユーザ端末装置に出力する情報出力部
として機能させるためのプログラム。
Computer,
A detection information acquisition unit, which is provided in a certain space and acquires detection information output from one or more sensors that detect a predetermined target.
An analysis unit that executes analysis corresponding to analysis items individually set for each of a plurality of users based on the detection information acquired by the detection information acquisition unit.
A program for functioning as an information output unit that outputs information provided based on the analysis result of the analysis item for each user to a predetermined user terminal device among the user terminal devices corresponding to the user corresponding to the certain space. ..
JP2018084523A 2018-04-25 2018-04-25 Information provision system, information processing equipment and programs Active JP6997035B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018084523A JP6997035B2 (en) 2018-04-25 2018-04-25 Information provision system, information processing equipment and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018084523A JP6997035B2 (en) 2018-04-25 2018-04-25 Information provision system, information processing equipment and programs

Publications (2)

Publication Number Publication Date
JP2019191970A JP2019191970A (en) 2019-10-31
JP6997035B2 true JP6997035B2 (en) 2022-01-17

Family

ID=68390466

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018084523A Active JP6997035B2 (en) 2018-04-25 2018-04-25 Information provision system, information processing equipment and programs

Country Status (1)

Country Link
JP (1) JP6997035B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000041952A (en) 1998-08-03 2000-02-15 Omron Corp Biological information detector
JP2000126138A (en) 1998-10-22 2000-05-09 Toto Ltd Organism information administration system
JP2004133669A (en) 2002-10-10 2004-04-30 Matsushita Electric Ind Co Ltd Health information service device
JP2005074107A (en) 2003-09-02 2005-03-24 Fuji Photo Film Co Ltd Life management system
JP2005218492A (en) 2004-02-03 2005-08-18 Omron Healthcare Co Ltd Electronic sphygmomanometer
JP2005279051A (en) 2004-03-30 2005-10-13 Yamaha Corp Device and system for managing biological information
JP2010217948A (en) 2009-03-13 2010-09-30 Keeper-Smith Llp Health check system, health check apparatus and method thereof

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000041952A (en) 1998-08-03 2000-02-15 Omron Corp Biological information detector
JP2000126138A (en) 1998-10-22 2000-05-09 Toto Ltd Organism information administration system
JP2004133669A (en) 2002-10-10 2004-04-30 Matsushita Electric Ind Co Ltd Health information service device
JP2005074107A (en) 2003-09-02 2005-03-24 Fuji Photo Film Co Ltd Life management system
JP2005218492A (en) 2004-02-03 2005-08-18 Omron Healthcare Co Ltd Electronic sphygmomanometer
JP2005279051A (en) 2004-03-30 2005-10-13 Yamaha Corp Device and system for managing biological information
JP2010217948A (en) 2009-03-13 2010-09-30 Keeper-Smith Llp Health check system, health check apparatus and method thereof

Also Published As

Publication number Publication date
JP2019191970A (en) 2019-10-31

Similar Documents

Publication Publication Date Title
US20160345832A1 (en) System and method for monitoring biological status through contactless sensing
US20160224750A1 (en) Monitoring system for assessing control of a disease state
JP2021191502A (en) Evaluation device
JP2008131862A (en) Pet diagnosing system
US20200046262A1 (en) Method and apparatus for determining a fall risk
EP3432772B1 (en) Using visual context to timely trigger measuring physiological parameters
JP2020135132A (en) Information processing device, information processing method and program
JP2019058227A (en) IoT measuring instrument, health SNS platform, and health service system
KR102188076B1 (en) method and apparatus for using IoT technology to monitor elderly caregiver
JP5526306B2 (en) Social affective behavior evaluation system, social affective behavior evaluation method, social affective behavior evaluation program, and computer-readable recording medium recording the same
JP6997035B2 (en) Information provision system, information processing equipment and programs
US11848096B2 (en) Home visit assessment and decision support system
KR102171742B1 (en) Senior care system and method therof
Biswas et al. Agitation monitoring of persons with dementia based on acoustic sensors, pressure sensors and ultrasound sensors: a feasibility study
KR102434203B1 (en) Metaverse platform networking based online pet sitter system for real-time monitoring and care of companion animal
KR102547155B1 (en) Apparatus and method for detecting bio-information of companion animals
KR102424120B1 (en) Apparatus for Providing Information of Infant by Using Growth Capsule and Driving Method Thereof
JP2022189528A (en) Information processor and method for processing information
WO2022074828A1 (en) Information processing device, information processing method, and recording medium
WO2020003954A1 (en) Program executed by computer, information processing device, and method executed by computer
JP2021174189A (en) Method of assisting in creating menu of service, method of assisting in evaluating user of service, program causing computer to execute the method, and information providing device
TWI647651B (en) Pushing notification system
JP2020177383A (en) Watching system for elderly person or the like
WO2022014253A1 (en) Treatment assistance device, treatment assistance method, and treatment assistance program
KR20190021953A (en) Apparatus, system method for providing status information of care target person based on statistical information

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210105

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211119

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211216

R151 Written notification of patent or utility model registration

Ref document number: 6997035

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151