JPWO2019146200A1 - Information processing equipment, information processing methods, and recording media - Google Patents

Information processing equipment, information processing methods, and recording media Download PDF

Info

Publication number
JPWO2019146200A1
JPWO2019146200A1 JP2019567860A JP2019567860A JPWO2019146200A1 JP WO2019146200 A1 JPWO2019146200 A1 JP WO2019146200A1 JP 2019567860 A JP2019567860 A JP 2019567860A JP 2019567860 A JP2019567860 A JP 2019567860A JP WO2019146200 A1 JPWO2019146200 A1 JP WO2019146200A1
Authority
JP
Japan
Prior art keywords
information processing
behavior
conduct
code
specific community
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019567860A
Other languages
Japanese (ja)
Other versions
JP7367530B2 (en
Inventor
宮島 靖
靖 宮島
敦 塩野崎
敦 塩野崎
宏 岩波
宏 岩波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2019146200A1 publication Critical patent/JPWO2019146200A1/en
Application granted granted Critical
Publication of JP7367530B2 publication Critical patent/JP7367530B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/101Collaborative creation, e.g. joint development of products or services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9032Query formulation
    • G06F16/90332Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Human Resources & Organizations (AREA)
  • Tourism & Hospitality (AREA)
  • Strategic Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Primary Health Care (AREA)
  • General Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Developmental Disabilities (AREA)
  • Operations Research (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Child & Adolescent Psychology (AREA)
  • Epidemiology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Quality & Reliability (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Computing Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】コミュニティの行動規範を自動生成し、自発的行動変容を促すことが可能な情報処理装置、情報処理方法、および記録媒体を提供する。【解決手段】特定コミュニティに属するメンバーをセンシングすることにより得られたセンサデータを取得し、前記取得されたセンサデータに基づき、前記特定コミュニティにおける行動規範を自動生成し、前記行動規範に基づき、前記メンバーが行動変容するように促す、制御を行う制御部を備える、情報処理装置。【選択図】図1PROBLEM TO BE SOLVED: To provide an information processing device, an information processing method, and a recording medium capable of automatically generating a code of conduct of a community and promoting spontaneous behavior change. SOLUTION: Sensor data obtained by sensing a member belonging to a specific community is acquired, a code of conduct in the specific community is automatically generated based on the acquired sensor data, and the code of conduct is based on the code of conduct. An information processing device equipped with a control unit that controls and encourages members to change their behavior. [Selection diagram] Fig. 1

Description

本開示は、情報処理装置、情報処理方法、および記録媒体に関する。 The present disclosure relates to information processing devices, information processing methods, and recording media.

近年、スマートフォンやタブレット端末、ホームエージェント等の専用端末を用いて、ユーザの質問や要求、コンテキストに応じてコンテンツや行動の推薦をしてくれるエージェントが提供されている。かかるエージェントは、利用者の現時点における短期的な利便性や快適性を向上するためのものであった。例えば、質問をすると天気を答えてくれる、目覚ましをセットしてくれる、スケジュール管理をしてくれるエージェントは、質問や課題に対する応答が直接的で短期的な1セッション(要求と応答で完結)で閉じている。 In recent years, agents have been provided that recommend contents and actions according to user's questions, requests, and contexts using dedicated terminals such as smartphones, tablet terminals, and home agents. Such agents were intended to improve the current short-term convenience and comfort of users. For example, an agent who answers a question, answers the weather, sets an alarm clock, and manages a schedule closes the response to a question or task in one short-term session (complete with request and response). ing.

一方、長期的な視野に立って徐々に課題解決に近付けていくための行動変容を促す先行技術としては次のものがある。 On the other hand, there are the following prior arts that promote behavior change to gradually approach problem solving from a long-term perspective.

例えば下記特許文献1では、健康管理、教育、リハビリ、自閉症治療などの分野において、目標と対象者の行動データから、対象者が行動変容ステージのどれに対応するか判定し、判定に基づいて、対象者の行動を変容させる介入の仕方を選定する手段を備えた行動支援システムが開示されている。 For example, in Patent Document 1 below, in fields such as health management, education, rehabilitation, and autism treatment, it is determined from the target and the behavior data of the subject, which of the behavior change stages the subject corresponds to, and based on the determination. Therefore, a behavior support system equipped with a means for selecting an intervention method that changes the behavior of the subject is disclosed.

また、下記特許文献2では、学習用データを用いて自動生成された、評価ルールの評定条件を有する評価部により行動変容ステージを自動判定する支援装置が開示されている。具体的には、メタボリック保険指導の指導者と対象者との会話から行動変容ステージを判定可能である。 Further, Patent Document 2 below discloses a support device for automatically determining a behavior change stage by an evaluation unit having evaluation conditions for evaluation rules, which is automatically generated using learning data. Specifically, the behavior change stage can be determined from the conversation between the instructor of the metabolic insurance guidance and the target person.

特開2016−85703号公報Japanese Unexamined Patent Publication No. 2016-85703 特開2010−102643号公報Japanese Unexamined Patent Publication No. 2010-102643

しかしながら、上記の先行技術はいずれも特定の課題が予め決められており、課題そのものが判断されていなかった。また、行動変容もステージが予め決められており、ルールベースによる特定の事象の判断しかできていなかった。 However, in each of the above-mentioned prior arts, a specific problem is predetermined, and the problem itself has not been determined. In addition, the stage of behavior change was predetermined, and it was only possible to judge a specific event based on the rules.

また、家族などの特定コミュニティにおいては、小集団であればあるほどコミュニティ間で行動規範の違いが生じる可能性が高まるが、特定コミュニティ毎に行動規範を生成することは行われていなかった。 Moreover, in a specific community such as a family, the smaller the group, the more likely it is that the code of conduct will differ between the communities, but the code of conduct has not been generated for each specific community.

そこで、本開示では、コミュニティの行動規範を自動生成し、自発的行動変容を促すことが可能な情報処理装置、情報処理方法、および記録媒体を提案する。 Therefore, this disclosure proposes an information processing device, an information processing method, and a recording medium capable of automatically generating a code of conduct for a community and promoting spontaneous behavior change.

本開示によれば、特定コミュニティに属するメンバーをセンシングすることにより得られたセンサデータを取得し、前記取得されたセンサデータに基づき、前記特定コミュニティにおける行動規範を自動生成し、前記行動規範に基づき、前記メンバーが行動変容するように促す、制御を行う制御部を備える、情報処理装置を提案する。 According to the present disclosure, sensor data obtained by sensing a member belonging to a specific community is acquired, a code of conduct in the specific community is automatically generated based on the acquired sensor data, and the code of conduct is based on the code of conduct. , Propose an information processing device provided with a control unit that controls the members to encourage them to change their behavior.

本開示によれば、特定コミュニティに属するメンバーをセンシングすることにより得られたセンサデータに基づき予め自動生成された前記特定コミュニティにおける行動規範に応じて、前記特定コミュニティに属する前記メンバーをセンシングすることにより得られたセンサデータに従って、前記メンバーが行動変容するように働きかける、制御を行う制御部を備える、情報処理装置を提案する。 According to the present disclosure, by sensing the member belonging to the specific community according to the code of conduct in the specific community automatically generated in advance based on the sensor data obtained by sensing the member belonging to the specific community. We propose an information processing device provided with a control unit that controls and encourages the members to change their behavior according to the obtained sensor data.

本開示によれば、プロセッサが、特定コミュニティに属するメンバーをセンシングすることにより得られたセンサデータを取得することと、前記取得されたセンサデータに基づき、前記特定コミュニティにおける行動規範を自動生成することと、前記行動規範に基づき、前記メンバーが行動変容するように促すことと、を含む、情報処理方法を提案する。 According to the present disclosure, a processor acquires sensor data obtained by sensing a member belonging to a specific community, and automatically generates a code of conduct in the specific community based on the acquired sensor data. And, based on the code of conduct, we propose an information processing method including encouraging the members to change their behavior.

本開示によれば、コンピュータを、特定コミュニティに属するメンバーをセンシングすることにより得られたセンサデータを取得し、前記取得されたセンサデータに基づき、前記特定コミュニティにおける行動規範を自動生成し、前記行動規範に基づき、前記メンバーが行動変容するように促す、制御を行う制御部として機能させるためのプログラムが記録された、記録媒体を提案する。 According to the present disclosure, a computer acquires sensor data obtained by sensing a member belonging to a specific community, automatically generates a code of conduct in the specific community based on the acquired sensor data, and performs the action. Based on the norms, we propose a recording medium in which a program for functioning as a control unit that controls the members to change their behavior is recorded.

以上説明したように本開示によれば、コミュニティの行動規範を自動生成し、自発的行動変容を促すことが可能となる。 As described above, according to the present disclosure, it is possible to automatically generate a code of conduct for the community and promote voluntary behavior change.

なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。 It should be noted that the above effects are not necessarily limited, and together with or in place of the above effects, any of the effects shown herein, or any other effect that can be grasped from this specification. May be played.

本開示の一実施形態による情報処理システムの概要について説明する図である。It is a figure explaining the outline of the information processing system by one Embodiment of this disclosure. 本開示の一実施形態による情報処理システムの構成の一例を示すブロック図である。It is a block diagram which shows an example of the structure of the information processing system by one Embodiment of this disclosure. 本開示の一実施形態による情報処理システムの動作処理を示すフローチャートである。It is a flowchart which shows the operation process of the information processing system by one Embodiment of this disclosure. 本実施形態による第1の実施例のマスターシステムの概要について説明する図である。It is a figure explaining the outline of the master system of 1st Example by this Embodiment. 本実施形態による第1の実施例のマスターシステムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the master system of 1st Example by this Embodiment. 本実施形態による第1の実施例の課題指標の一例を示す図である。It is a figure which shows an example of the problem index of 1st Example by this Embodiment. 本実施形態による第1の実施例の因果分析について説明する図である。It is a figure explaining the causal analysis of the 1st Example by this Embodiment. 本実施形態による第1の実施例の因果分析結果に基づく因果パスの探索について説明する図である。It is a figure explaining the search of the causal path based on the causal analysis result of the 1st Example by this Embodiment. 本実施形態による第1の実施例における朝食開始時刻と団らん時間(時間/週)の確率分布を示す表である。It is a table which shows the probability distribution of the breakfast start time and the grouping time (hour / week) in the 1st Example by this Embodiment. 本実施形態による第1の実施例における起床時刻と朝食開始時刻の確率分布を示す表である。It is a table which shows the probability distribution of the wake-up time and the breakfast start time in the 1st Example by this Embodiment. 本実施形態による第1の実施例における起床時刻と団らん時間の間の確率分布を求める行列演算について説明する図である。It is a figure explaining the matrix operation which obtains the probability distribution between the wake-up time and the grouping time in the 1st Example by this Embodiment. 図11に示す行列演算の結果得られた起床時刻と団らん時間の間の確率分布の表を示す図である。It is a figure which shows the table of the probability distribution between the wake-up time and the grouping time obtained as a result of the matrix operation shown in FIG. 本実施形態による第1の実施例の動作処理の全体の流れを示すフローチャートである。It is a flowchart which shows the whole flow of the operation process of 1st Example by this Embodiment. 本実施形態による第1の実施例の課題推定処理を示すフローチャートである。It is a flowchart which shows the problem estimation process of 1st Example by this Embodiment. 本実施形態による第1の実施例の介入予約処理を示すフローチャートである。It is a flowchart which shows the intervention reservation process of 1st Example by this Embodiment. 本実施形態による第1の実施例の介入処理を示すフローチャートである。It is a flowchart which shows the intervention process of 1st Example by this Embodiment. 本実施形態による第1の実施例の価値観の違いの因果パスの一例を示す図である。It is a figure which shows an example of the causal path of the difference in the sense of values of the 1st Example by this Embodiment. 本実施形態による第2の実施例のマスターシステムの構成の一例を示すブロック図である。It is a block diagram which shows an example of the structure of the master system of 2nd Example by this Embodiment. 本実施形態による第2の実施例の動作処理の基本フローチャートである。It is a basic flowchart of the operation process of 2nd Example by this Embodiment. 本実施形態による第2の実施例の食のしつけに関する行動変容処理を示すフローチャートである。It is a flowchart which shows the behavior change processing about the food discipline of the 2nd Example by this Embodiment. 本実施形態による第2の実施例の皿の片付けに関する行動変容処理を示すフローチャートである。It is a flowchart which shows the behavior change processing about the dish cleanup of the 2nd Example by this Embodiment. 本実施形態による第2の実施例のオフィスの机の片付けに関する行動変容処理を示すフローチャートである。It is a flowchart which shows the behavior change processing about the cleanup of the office desk of the 2nd Example by this Embodiment. 本実施形態による第2の実施例の部屋の片付けに関する行動変容処理を示すフローチャートである。It is a flowchart which shows the behavior change processing about the room tidying up of the 2nd Example by this Embodiment. 図23に示す例における行動変容を促す情報提示の一例について説明する図である。It is a figure explaining an example of the information presentation which promotes the behavior change in the example shown in FIG. 本実施形態による第2の実施例の赤ちゃんの泣き声に関する行動変容処理を示すフローチャートである。It is a flowchart which shows the behavior change processing about the baby crying of the 2nd Example by this Embodiment. 本実施形態による第2の実施例のおもちゃに関する行動変容処理を示すフローチャートである。It is a flowchart which shows the behavior change processing about a toy of 2nd Example by this Embodiment. 本実施形態による第2の実施例の総合価値観に関する行動変容処理を示すフローチャートである。It is a flowchart which shows the behavior change processing about the total value of the 2nd Example by this Embodiment. 本実施形態による第2の実施例の総合価値観の各候補の算出例を示す表である。It is a table which shows the calculation example of each candidate of the total value of the 2nd Example by this Embodiment. 本実施形態による第3の実施例のマスターシステムの構成の一例を示すブロック図である。It is a block diagram which shows an example of the structure of the master system of 3rd Example by this Embodiment. 本実施形態による第3の実施例の食事記録の一例を示すグラフである。It is a graph which shows an example of the meal record of the 3rd Example by this Embodiment. 本実施形態による第3の実施例の生活リズムのかい離について説明する図である。It is a figure explaining the separation of the life rhythm of the 3rd Example by this embodiment. 本実施形態による第3の実施例の夕食時間のリズムを生成する動作処理を示すフローチャートである。It is a flowchart which shows the operation process which generates the rhythm of the dinner time of 3rd Example by this Embodiment. 本実施形態による第3の実施例の曜日ごとの累積平均時刻の算出式の一例を示す図である。It is a figure which shows an example of the calculation formula of the cumulative average time for each day of the week of the 3rd Example by this Embodiment. 本実施形態による第3の実施例の生活リズムに基づいてアドバイスを生成するフローチャートである。It is a flowchart which generates advice based on the life rhythm of 3rd Example by this Embodiment. 本実施形態による第3の実施例の変形例による事象の重複に応じて生活リズムの調整(行動変容)を促すフローチャートである。It is a flowchart which promotes the adjustment (behavior change) of a life rhythm according to the overlap of the event by the modification of the 3rd Example by this Embodiment. 本実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware composition of the information processing apparatus which concerns on this embodiment.

以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Preferred embodiments of the present disclosure will be described in detail below with reference to the accompanying drawings. In the present specification and the drawings, components having substantially the same functional configuration are designated by the same reference numerals, so that duplicate description will be omitted.

また、説明は以下の順序で行うものとする。
1.本開示の一実施形態による情報処理システムの概要
2.第1の実施例(課題の推定と行動変容)
2−1.構成例
2−2.動作処理
2−3.補足
3.第2の実施例(価値基準の生成と行動変容)
3−1.構成例
3−2.動作処理
4.第3の実施例(生活リズムの調整)
4−1.構成例
4−2.動作処理
4−3.変形例
5.ハードウェア構成例
6.まとめ
In addition, the explanation shall be given in the following order.
1. 1. Outline of the information processing system according to the embodiment of the present disclosure 2. First Example (problem estimation and behavior change)
2-1. Configuration example 2-2. Operation processing 2-3. Supplement 3. Second Example (Generation of Value Standards and Behavior Modification)
3-1. Configuration example 3-2. Operation processing 4. Third Example (Adjustment of Life Rhythm)
4-1. Configuration example 4-2. Operation processing 4-3. Modification example 5. Hardware configuration example 6. Summary

<<1.本開示の一実施形態による情報処理システムの概要>>
図1は、本開示の一実施形態による情報処理システムの概要について説明する図である。図1に示すように、本実施形態による情報処理システムでは、家族等のコミュニティ2A〜2Cごとに、所定の行動規範に従って仮想的なエージェント(特定コミュニティのマスター的存在。本明細書では、以下、「マスター」と称する)により行動変容を促すマスターシステム10A〜10Cが存在する。図1では、マスターシステム10A〜10Cを擬人化して図示している。マスターシステム10A〜10Cは、特定コミュニティ内の各ユーザの行動記録に基づいて、行動規範を自動生成し、行動規範に基づいて行動変容を間接的に促すことで、コミュニティの課題解決等を行い得る。ユーザ側としては、マスターの言葉に従って行動しているうちに、行動規範(課題や価値基準)を意識せずとも、いつの間にかコミュニティ内の課題が解決していたり、価値基準を合わせることができ、コミュニティの状況を改善することが可能となる。
<< 1. Outline of information processing system according to one embodiment of the present disclosure >>
FIG. 1 is a diagram illustrating an outline of an information processing system according to an embodiment of the present disclosure. As shown in FIG. 1, in the information processing system according to the present embodiment, a virtual agent (a master existence of a specific community. In the present specification, hereinafter, the following, in accordance with a predetermined code of conduct, for each community 2A to 2C such as a family member. There are master systems 10A to 10C that promote behavioral change by (referred to as "master"). In FIG. 1, the master systems 10A to 10C are anthropomorphized and illustrated. The master systems 10A to 10C can solve community problems by automatically generating a code of conduct based on the behavior record of each user in a specific community and indirectly promoting behavior change based on the code of conduct. .. On the user side, while acting according to the words of the master, problems in the community can be solved or the value standards can be adjusted without being aware of the code of conduct (issues and value standards). It will be possible to improve the situation in the community.

(背景)
上述したように、従来のマスターシステムでは、いずれも特定の課題が予め決められており、課題そのものが判断されていなかった。また、従来のマスターシステムは、要求と応答で完結する短期的な1セッションで閉じているが、実生活においては複数の要因が複雑に絡み合った課題が多く存在し、このような課題は直接的または短期的には解決できないものである。
(background)
As described above, in each of the conventional master systems, a specific problem is predetermined, and the problem itself is not determined. In addition, the conventional master system is closed in one short session that is completed by request and response, but in real life, there are many problems in which multiple factors are intricately intertwined, and such problems are direct. Or it cannot be solved in the short term.

また、課題の内容や解決方法は一通りではなく、例えば家庭の問題の場合にはその過程の行動規範や環境によって課題の深刻さや解決方法が異なることが考えられる。そのために、複数の要因の関係性を分析して、短期的ではない長期的な解決方法を探ったり、どこに介入するのかを探ることが重要となる。行動規範一つを取ってみても、家族などの特定コミュニティにおいては、小集団であればあるほどコミュニティ間で行動規範の違いが生じる可能性が増えて、そのコミュニティの独自の「倫理」が存在する可能性も増えてくる。従って、行動規範を汎用のモノ一つに限定したり、ビッグデータを全部集めたものを標準とするようなことには無理が生じてくるため、家族などの特定コミュニティに注目してデータを収集し、特定コミュニティにおける行動規範を明確にすることが重要になってくる。 In addition, the content and solution of the problem are not the same. For example, in the case of a family problem, the seriousness of the problem and the solution may differ depending on the code of conduct and the environment of the process. To that end, it is important to analyze the relationships between multiple factors to find long-term, non-short-term solutions, and where to intervene. Even if one code of conduct is taken, in a specific community such as a family, the smaller the group, the more likely it is that the code of conduct will differ between communities, and that community's own "ethics" exists. The possibility of doing so also increases. Therefore, it will be impossible to limit the code of conduct to one general-purpose item or to standardize the collection of all big data, so collect data by paying attention to a specific community such as a family. However, it is important to clarify the code of conduct in a specific community.

そこで、本実施形態では、図1に示すように、特定コミュニティ毎に行動規範を自動生成し、自発的行動変容を促すことが可能なマスターシステム10を提供する。 Therefore, in the present embodiment, as shown in FIG. 1, a master system 10 capable of automatically generating a code of conduct for each specific community and promoting spontaneous behavior change is provided.

図2は、本開示の一実施形態による情報処理システム(マスターシステム10)の構成の一例を示すブロック図である。図2に示すように、本実施形態によるマスターシステム10は、データ解析部11と、行動規範生成部12と、行動変容指示部13とを含む。マスターシステム10は、ネットワーク上のサーバにより構成されてもよいし、ホームエージェント等の専用端末やスマートフォン、タブレット端末等のクライアント装置により構成されてもよい。 FIG. 2 is a block diagram showing an example of the configuration of the information processing system (master system 10) according to the embodiment of the present disclosure. As shown in FIG. 2, the master system 10 according to the present embodiment includes a data analysis unit 11, a code of conduct generation unit 12, and a behavior change instruction unit 13. The master system 10 may be configured by a server on the network, or may be configured by a dedicated terminal such as a home agent or a client device such as a smartphone or tablet terminal.

データ解析部11は、家族などの特定のコミュニティに属するユーザの行動をセンシングしたセンシングデータの解析を行う。 The data analysis unit 11 analyzes the sensing data that senses the behavior of a user belonging to a specific community such as a family.

行動規範生成部12は、データ解析部11による解析結果に基づいて、特定コミュニティの行動規範を生成する。ここで「行動規範」とは、その特定コミュニティが抱える課題を解決するための手段(例えば、団らん時間が少ないという課題を推定し、団らん時間を増やすという行動規範を自動生成する)、若しくは、その特定コミュニティにおける価値基準の生成(推定)が挙げられる。 The code of conduct generation unit 12 generates a code of conduct for a specific community based on the analysis result by the data analysis unit 11. Here, the "code of conduct" is a means for solving the problems of the specific community (for example, estimating the problem of short grouping time and automatically generating a code of conduct to increase the grouping time), or its. The generation (estimation) of value standards in a specific community can be mentioned.

行動変容指示部13は、行動規範生成部12により生成した行動規範に従って、特定コミュニティのユーザに行動変容を促す通知等の制御を行う。 The behavior change instruction unit 13 controls notifications and the like for urging users in a specific community to change their behavior according to the code of conduct generated by the code of conduct generation unit 12.

かかる構成を有するマスターシステム10の動作処理を、図3に示す。図3に示すように、まず、マスターシステム10は、特定コミュニティのセンサデータを収集し(ステップS103)、データ解析部11によりセンサデータの解析を行う(ステップS106)。 The operation processing of the master system 10 having such a configuration is shown in FIG. As shown in FIG. 3, first, the master system 10 collects the sensor data of the specific community (step S103), and the data analysis unit 11 analyzes the sensor data (step S106).

次に、行動規範生成部12は、データ解析部11による解析結果に基づいて、特定コミュニティの行動規範を生成し(ステップS109)、生成できた場合は(ステップS109/Yes)、行動規範の情報を蓄積する(ステップS112)。 Next, the code of conduct generation unit 12 generates a code of conduct for a specific community based on the analysis result by the data analysis unit 11 (step S109), and if it can be generated (step S109 / Yes), information on the code of conduct. (Step S112).

次いで、行動変容指示部13は、行動規範に基づいて行動変容することが可能な介入すべき事象を判断する(ステップS115/Yes)。例えば、行動規範を実現するために行動変容が可能な事象(起床時刻、運動頻度等、若しくは、生活リズム)の判断や、価値基準からずれた状況を、介入すべき事象として判断する。 Next, the behavior change instruction unit 13 determines an event to be intervened that can change the behavior based on the code of conduct (step S115 / Yes). For example, judgment of an event (wake-up time, exercise frequency, etc., or life rhythm) that can change behavior in order to realize a code of conduct, or a situation that deviates from the value standard is judged as an event to be intervened.

そして、行動変容することが可能な介入すべき事象が見つかった際(ステップS115/Yes)、行動変容指示部13は、特定コミュニティ内のユーザに対して間接的に行動変容を促す(ステップS118)。具体的には、行動変容指示部13は、行動の変化、生活リズムの調整、若しくは、価値基準からの逸脱を解消する行動を、間接的に促す。このように行動規範を自動生成した上で、行動変容を間接的に促すことで、特定コミュニティ内の各ユーザは、行動規範(課題や価値基準)を意識せずとも、マスターに従って行動しているうちに、いつの間にか特定コミュニティ内の課題を解決したり、価値基準に従った行動を取ることができ、特定コミュニティの状況を改善することが可能となる。 Then, when an event to be intervened that can change the behavior is found (step S115 / Yes), the behavior change instruction unit 13 indirectly urges the user in the specific community to change the behavior (step S118). .. Specifically, the behavior change instruction unit 13 indirectly encourages behavioral changes, adjustment of life rhythms, or actions to eliminate deviations from value standards. By automatically generating a code of conduct in this way and indirectly promoting behavioral change, each user in a specific community acts according to the master without being aware of the code of conduct (issues and value standards). Before you know it, you will be able to solve problems within a specific community and take actions according to value standards, and you will be able to improve the situation in a specific community.

以上、本開示の一実施形態による情報処理システムの概要について説明した。なお、本実施形態の構成は、図2に示す例に限定されない。例えば、特定コミュニティに属するメンバーをセンシングすることにより得られたセンサデータに基づき予め自動生成された特定コミュニティにおける行動規範を既に有している場合、特定コミュニティに属するメンバーをセンシングすることにより得られたセンサデータに従って(データ解析部11)、メンバーが行動変容するように働きかける(行動変容指示部13)制御を行う情報処理装置であってもよい。続いて、本実施形態による情報処理システムについて、第1〜第3の実施例を用いて具体的に説明する。第1の実施例では、行動規範の生成として「推定した課題を解決する手段の分析」を行い、課題を解決するために行動変容を間接的に促すことについて説明する。また、第2の実施例では、行動規範の生成として「価値基準の生成」を行い、価値基準から逸脱している場合は行動変容を間接的に促すことについて説明する。また、第3の実施例では、第1の実施例によって推定された課題を解決するための行動変容として生活リズムを調整することについて説明する。 The outline of the information processing system according to the embodiment of the present disclosure has been described above. The configuration of this embodiment is not limited to the example shown in FIG. For example, if you already have a code of conduct in a specific community that is automatically generated in advance based on sensor data obtained by sensing members belonging to a specific community, it was obtained by sensing members belonging to the specific community. It may be an information processing device that controls according to the sensor data (data analysis unit 11) to encourage the members to change their behavior (behavior change instruction unit 13). Subsequently, the information processing system according to the present embodiment will be specifically described with reference to the first to third embodiments. In the first embodiment, "analysis of means for solving an estimated problem" is performed as a generation of a code of conduct, and behavior change is indirectly promoted in order to solve the problem. Further, in the second embodiment, it will be described that "generation of a value standard" is performed as the generation of a code of conduct, and if it deviates from the value standard, behavior change is indirectly promoted. Further, in the third embodiment, it will be described that the life rhythm is adjusted as a behavior change for solving the problem estimated by the first embodiment.

<<2.第1の実施例(課題の推定と行動変容)>>
まず、第1の実施例によるマスターシステム10−1について、図4〜図17を参照して説明する。本実施例では、家族単位など小規模のコミュニティにおける日常的なデータ収集と日常的な分析を行う(Casual Analysis)ことで、その家族に起こっている課題を見つけ出し、またその課題を長期的視野で解決するための行動変容を促す介入行為を行う。すなわち、日常的に収集した家族のデータに基づいて家族の課題を推定し、その課題を解決するための行動規範として目的変数を自動生成し(例えば、「団らん時間(を増やす)」)、目的変数を起点とした因子変数の関係グラフを作成し、その関係グラフに基づき、目的変数を所望の値にするための行動変容を促す介入ポイント(例えば、「夜遅くの飲酒量」、「運動強度」。因子変数)を見つけて介入し、長期的なスパンで家族の課題が解決されるように導く(例えば、目的変数に関連する因子変数が所望の値に近付くよう、メンバーに対して行動変容を促す)。分析アルゴリズムには、例えば株式会社ソニーコンピュータサイエンス研究所により提供される因果分析アルゴリズムであるCALC(登録商標、カルク)を使用することで、多変数間の複雑な因果関係を分析することが可能である。
<< 2. First Example (problem estimation and behavior change) >>
First, the master system 10-1 according to the first embodiment will be described with reference to FIGS. 4 to 17. In this example, by performing daily data collection and daily analysis in a small community such as a family unit (Casual Analysis), problems occurring in the family can be found, and the problems can be seen from a long-term perspective. Perform interventions that encourage behavior change to resolve. That is, the family problem is estimated based on the family data collected on a daily basis, and the objective variable is automatically generated as a code of conduct for solving the problem (for example, "grouping time (increase)"), and the purpose. Create a relationship graph of factor variables starting from variables, and based on the relationship graph, intervention points that promote behavioral change to set the objective variable to the desired value (for example, "late night drinking", "exercise intensity" Find and intervene in factor variables) and guide members to resolve family issues over a long period of time (eg, behavioral transformations for members so that factor variables associated with the objective variable approach desired values. To encourage). For example, by using CALC (registered trademark, Calc), which is a causal analysis algorithm provided by Sony Computer Science Laboratory Co., Ltd., it is possible to analyze complex causal relationships between multiple variables. is there.

図4は、第1の実施例の概要について説明する図である。第1の実施例は、大まかに図4に示す流れにより行われる。すなわち、A:日常的な行動モニタリングを行い、B:課題の推定を行い、C:因果分析の目的変数として課題を自動設定し、D:介入できるポイントとタイミングで介入する(行動変容を促す)。かかるA〜Dに示す処理を日常的に繰り返すことで、行動変容が起こり、徐々に特定コミュニティ内の課題が解決されていく。 FIG. 4 is a diagram illustrating an outline of the first embodiment. The first embodiment is roughly performed according to the flow shown in FIG. That is, A: daily behavior monitoring, B: task estimation, C: task is automatically set as the objective variable of causal analysis, and D: intervention is performed at the point and timing at which intervention is possible (promotes behavior change). .. By repeating the processes shown in A to D on a daily basis, behavior change occurs, and problems within a specific community are gradually solved.

(A:日常的な行動モニタリング)
本実施例では、センシングできる情報の種類が多ければ多いほど広範囲のデータを使用して分析することが可能となる。分析するデータは、特定の種類のデータに限定しない。例えば、先行技術などでは用途を限定して分析に使用するデータを予め決めている場合もあるが、本実施形態ではその必要はなく、取得できるデータの種類を随時増やす(データベースに随時登録していく)ことが可能である。
(A: Daily behavior monitoring)
In this embodiment, the more types of information that can be sensed, the wider the range of data that can be used for analysis. The data to be analyzed is not limited to a specific type of data. For example, in the prior art, the data to be used for analysis may be determined in advance for a limited purpose, but this is not necessary in this embodiment, and the types of data that can be acquired are increased at any time (registered in the database at any time). It is possible to go).

(B:課題の推定)
本実施例では、例えば特定コミュニティの一例である家族に関する課題となり得る指標と、その指標の計算に必要なセンサや行動履歴の指標の関係を記述した指標リスト(例えば「家族仲に関する指標リスト」など)を用いて課題の推定を行い得る。具体的には、各センサ/行動履歴指標の値を確認し、課題となりえる指標(例えば、「家族の団らん時間」)がしきい値を下回っていないか(あるいは超えていないか)を判断する。この処理はリストの項目数分行われ、その家族が抱えている課題をリストアップすることが可能となる。
(B: Problem estimation)
In this embodiment, for example, an index list that describes the relationship between an index that can be a problem related to a family, which is an example of a specific community, and an index of a sensor or behavior history necessary for calculating the index (for example, "index list related to family relationship") ) Can be used to estimate the problem. Specifically, the value of each sensor / behavior history index is confirmed, and it is determined whether or not the index that can be a problem (for example, "family gathering time") is below (or exceeds) the threshold value. .. This process is performed for the number of items in the list, and it is possible to list the issues that the family has.

(C:因果分析の目的変数として課題を自動設定)
検出した課題を目的変数とし、その他のセンサ/行動履歴情報を説明変数として因果分析を行う。この際、説明変数は指標リストの課題に関連する指標だけでなく、他の指標も説明変数として投入してかまわない。課題が複数ある場合はそれぞれを目的変数として個別に複数回分析する。
(C: Tasks are automatically set as objective variables for causal analysis)
Causal analysis is performed using the detected problem as the objective variable and other sensor / behavior history information as the explanatory variable. At this time, not only the index related to the problem of the index list but also other indexes may be input as the explanatory variable. If there are multiple tasks, each is used as an objective variable and analyzed multiple times individually.

(D:介入できるポイントとタイミングでマスターが介入)
分析を行った結果は、目的変数に直接関係する因子が接続し、その因子の先にまた別の因子がつくようなグラフ構造となる。このグラフを目的変数を起点に辿っていくことで、因果関係を結果から原因方向に遡って調べることが可能になる。このとき、各因子には介入可能な因子(例えば起床時刻)かどうかを示すフラグがついており、介入可能な場合にはその因子にマスターが介入して結果を良くする方向へ行動変容を促す。行動変容を促す方法としては、直接的にユーザに指示する方法の他にもリラックスする音楽をかける、目覚ましの時間を最適な時間にするなど間接的な介入も可能である。
(D: Master intervenes at points and timings where intervention is possible)
The result of the analysis is a graph structure in which factors directly related to the objective variable are connected and another factor is attached to the tip of that factor. By tracing this graph from the objective variable as the starting point, it becomes possible to investigate the causal relationship retroactively from the result to the cause direction. At this time, each factor is flagged as to whether or not it is possible to intervene (for example, the wake-up time), and if intervention is possible, the master intervenes in the factor to promote behavior change in the direction of improving the result. In addition to the method of directly instructing the user, indirect intervention such as playing relaxing music and optimizing the wake-up time is also possible as a method of promoting behavior change.

<2−1.構成例>
図5は、第1の実施例のマスターシステム10−1の構成例を示すブロック図である。図5に示すように、マスターシステム10−1は、情報処理装置20、環境側センサ30、ユーザ側センサ32、サービスサーバ34、および出力デバイス36を含む。
<2-1. Configuration example>
FIG. 5 is a block diagram showing a configuration example of the master system 10-1 of the first embodiment. As shown in FIG. 5, the master system 10-1 includes an information processing device 20, an environment-side sensor 30, a user-side sensor 32, a service server 34, and an output device 36.

(センサ群)
環境側センサ30、ユーザ側センサ32、およびサービスサーバ34は、特定コミュニティに属するユーザ(メンバー)に関する情報の取得先の一例であって、本実施形態はこれに限定されず、また、これら全てを含む構成にも限定されない。
(Sensor group)
The environment side sensor 30, the user side sensor 32, and the service server 34 are examples of acquisition destinations of information about users (members) belonging to a specific community, and the present embodiment is not limited to these, and all of them are used. It is not limited to the including configuration.

環境側センサ30は、例えば、部屋に設置されたカメラ、マイクロフォン(以下、マイクと称す)、距離センサ、照度センサ、テーブルや椅子、ベッドなどに設置された圧力/振動センサなど、環境側に設けられた各種センサを含む。環境側センサ30によりコミュニティ単位で検知することで、例えばリビングの固定カメラで笑顔量を取ると決めておくことで、家庭内において同一条件で笑顔量を取得することが可能となる。 The environment side sensor 30 is provided on the environment side, for example, a camera installed in a room, a microphone (hereinafter referred to as a microphone), a distance sensor, an illuminance sensor, a pressure / vibration sensor installed on a table, a chair, a bed, or the like. Includes various sensors. By detecting the smile amount in the community unit by the environment side sensor 30, for example, by deciding to take the smile amount with the fixed camera in the living room, it is possible to obtain the smile amount under the same conditions in the home.

ユーザ側センサ32は、スマートフォンや携帯電話端末、タブレット端末、ウェアラブルデバイス(HMD、スマートアイグラス、スマートバンド等)等に設けられた加速度センサ、ジャイロセンサ、地磁センサ、位置センサ、心拍や体温等の生体センサ、カメラ、マイク等の各種センサが含まれる。 The user-side sensor 32 includes an acceleration sensor, a gyro sensor, a geomagnetic sensor, a position sensor, a heartbeat, a body temperature, etc. provided in a smartphone, a mobile phone terminal, a tablet terminal, a wearable device (HMD, smart eyeglass, smart band, etc.). Includes various sensors such as biosensors, cameras and microphones.

サービスサーバ34は、特定コミュニティに属するユーザが利用しているSNSサーバ、位置情報取得サーバ、電子商取引サーバ(E コマースサイトなど)が想定され、センサ以外からのユーザに関する情報(移動履歴やショッピング履歴などのユーザ行動に関する情報等)をネットワーク上から取得し得る。 The service server 34 is assumed to be an SNS server, a location information acquisition server, and an electronic commerce server (e-commerce site, etc.) used by users belonging to a specific community, and information about the user from other than the sensor (movement history, shopping history, etc.) Information on user behavior, etc.) can be obtained from the network.

(情報処理装置20)
情報処理装置20(因果分析サーバ)は、受信部201、送信部203、画像処理部210、音声処理部212、センサ/行動データ処理部214、因子変数DB(データベース)220、介入用デバイスDB224、介入ルールDB226、介入予約DB228、課題指標DB222、課題推定部230、因果分析部232、および介入部235を有する。画像処理部210、音声処理部212、センサ/行動データ処理部214、課題推定部230、因果分析部232、および介入部235は、情報処理装置20に設けられた制御部により制御され得る。制御部は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置20内の動作全般を制御する。制御部は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、制御部は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。
(Information processing device 20)
The information processing device 20 (causal analysis server) includes a receiving unit 201, a transmitting unit 203, an image processing unit 210, a voice processing unit 212, a sensor / behavior data processing unit 214, a factor variable DB (database) 220, and an intervention device DB 224. It has an intervention rule DB 226, an intervention reservation DB 228, a task index DB 222, a task estimation unit 230, a causal analysis unit 232, and an intervention unit 235. The image processing unit 210, the voice processing unit 212, the sensor / behavior data processing unit 214, the task estimation unit 230, the causal analysis unit 232, and the intervention unit 235 can be controlled by a control unit provided in the information processing device 20. The control unit functions as an arithmetic processing unit and a control device, and controls the overall operation in the information processing device 20 according to various programs. The control unit is realized by an electronic circuit such as a CPU (Central Processing Unit) or a microprocessor. Further, the control unit may include a ROM (Read Only Memory) for storing programs to be used, calculation parameters, and the like, and a RAM (Random Access Memory) for temporarily storing parameters and the like that change as appropriate.

情報処理装置20は、ネットワーク上のクラウドサーバにより構成されてもよいし、中間サーバやエッジサーバにより構成されてもよいし、ホームエージェント等の家庭に置かれる専用端末により構成されてもよいし、PCやスマートフォン等の情報処理端末により構成されてもよい。 The information processing device 20 may be configured by a cloud server on the network, an intermediate server or an edge server, or a dedicated terminal placed in a home such as a home agent. It may be composed of an information processing terminal such as a PC or a smartphone.

・受信部201および送信部203
受信部201は、環境側センサ30、ユーザ側センサ32、およびサービスサーバ34から、特定コミュニティに属する各ユーザのセンサ情報や行動データを取得する。また、送信部203は、介入部235による処理に従って、出力デバイス36に、間接的に行動変容を促すための出力制御を指示する制御信号を送信する。
-Receiving unit 201 and transmitting unit 203
The receiving unit 201 acquires sensor information and behavior data of each user belonging to a specific community from the environment side sensor 30, the user side sensor 32, and the service server 34. Further, the transmission unit 203 transmits a control signal instructing output control for indirectly promoting behavior change to the output device 36 according to the processing by the intervention unit 235.

受信部201および送信部203は、情報処理装置20に設けられる通信部(不図示)により構成される。通信部は、有線または無線により、環境側センサ30、ユーザ側センサ32、サービスサーバ34、および出力デバイス36等の外部装置と接続し、データを送受信する。通信部は、例えば有線/無線LAN(Local Area Network)、またはWi−Fi(登録商標)、Bluetooth(登録商標)、携帯通信網(LTE(Long Term Evolution)、3G(第3世代の移動体通信方式))等により外部装置と通信接続する。 The receiving unit 201 and the transmitting unit 203 are composed of a communication unit (not shown) provided in the information processing device 20. The communication unit connects to external devices such as the environment side sensor 30, the user side sensor 32, the service server 34, and the output device 36 by wire or wirelessly, and transmits / receives data. The communication unit is, for example, a wired / wireless LAN (Local Area Network), Wi-Fi (registered trademark), Bluetooth (registered trademark), mobile communication network (LTE (Long Term Evolution)), 3G (third generation mobile communication). Communication connection with an external device by method)).

・データ処理部
特定コミュニティに属するユーザの各種センサ情報および行動データは、画像処理部210、音声処理部212、およびセンサ/行動データ処理部214により適宜処理される。具体的には、画像処理部210では、カメラの画像から人物認識、表情認識、物体認識などを行う。また、音声処理部212は、マイクの音声から会話認識、話者認識、会話のポジティブ/ネガティブ認識、感情認識などを行う。また、センサ/行動データ処理部214は、センサによっては生データをそのまま記録するのではなく、処理を行って意味づけしたラベルに変換するなどの処理を行う(例えば椅子の振動センサから着席している時間などに変換)。また、センサ/行動データ処理部214は、SNSの情報や位置情報(GPSなど)から、どこで何をしているかを示すユーザの行動コンテキスト(レストランで家族で食事など)を抽出する。また、センサ/行動データ処理部214は、SNSに投稿された文章から感情のポジティブ/ネガティブを抽出したり、ユーザ間のインタラクション情報から誰と一緒にいたか、また、誰と共感したかなどの情報を抽出することも可能である。
-Data processing unit Various sensor information and behavior data of users belonging to a specific community are appropriately processed by the image processing unit 210, the voice processing unit 212, and the sensor / behavior data processing unit 214. Specifically, the image processing unit 210 performs person recognition, facial expression recognition, object recognition, and the like from the image of the camera. In addition, the voice processing unit 212 performs conversation recognition, speaker recognition, conversation positive / negative recognition, emotion recognition, and the like from the voice of the microphone. Further, depending on the sensor, the sensor / behavior data processing unit 214 does not record the raw data as it is, but performs processing such as converting it into a meaningful label (for example, sitting down from the vibration sensor of the chair). Converted to time spent). In addition, the sensor / behavior data processing unit 214 extracts the user's behavior context (such as a family meal at a restaurant) indicating where and what they are doing from SNS information and location information (GPS, etc.). In addition, the sensor / behavior data processing unit 214 extracts positive / negative emotions from the sentences posted on the SNS, who was with the interaction information between users, who sympathized with them, and so on. It is also possible to extract information.

以上の処理を行ったデータは、課題推定や因果分析のための変数として、因子変数DB220に格納される。以降、因子変数DB220に格納された変数を「因子変数」と称する。因子変数は、例えば下記表1に示すような種類が考えられるが、本実施例による因子変数の種類はこれに限定せず、取得できる指標は何を使用してもよい。 The data subjected to the above processing is stored in the factor variable DB 220 as a variable for task estimation and causal analysis. Hereinafter, the variable stored in the factor variable DB 220 will be referred to as a "factor variable". For example, the types of factor variables shown in Table 1 below can be considered, but the types of factor variables according to this embodiment are not limited to this, and any index that can be obtained may be used.

Figure 2019146200
Figure 2019146200

・課題推定部230
課題推定部230は、課題指標DB222に登録されている各課題指標と関連する因子変数の値を調査し、課題が起こっているかどうかを判断(課題を推定)する。図6に、本実施例による課題指標の一例を示す。図6に示すように、例えば家族仲に関する課題指標として、「娘との会話時間」、「家族の団らん時間」、「子供の反抗時間」、および「夫婦喧嘩の時間」等が予め設定されている。各課題指標の因子変数としては、図6に示すような項目が挙げられる。また、課題指標DB222には、因子変数に基づいて課題ありと判断するための条件も紐付けられている。例えば「家族の団らん時間」の課題は、家族が一緒にテーブルについている時間や、ポジティブな会話の時間、および笑顔量等により判断されるが、より具体的には、「1週間の会話時間が3時間以下」、「平日の朝食の全員集合が週平均2日以下」「ポジティブな会話の割合が会話内容の30%以下」等の条件が挙げられる。
Problem estimation unit 230
The task estimation unit 230 investigates the values of the factor variables associated with each task index registered in the task index DB 222, and determines whether or not a task has occurred (estimates the task). FIG. 6 shows an example of the problem index according to this embodiment. As shown in FIG. 6, for example, "conversation time with a daughter", "family gathering time", "children's rebellion time", "marital quarrel time", etc. are preset as task indexes related to family relations. There is. Examples of the factor variables of each task index include items as shown in FIG. In addition, the task index DB 222 is also associated with a condition for determining that there is a task based on the factor variable. For example, the task of "family gathering time" is judged by the time when the family is at the table together, the time of positive conversation, the amount of smile, etc., but more specifically, "the conversation time of one week" Conditions such as "3 hours or less", "Weekday breakfast with all members on average 2 days or less per week", and "Positive conversation rate is 30% or less of conversation content" can be mentioned.

課題推定部230は、このように課題指標で提示されている全ての条件を満たしている場合に課題ありと判断してもよいし、どれか一つでも該当していたら課題ありとみなしてもよい。また、全ての条件を満たす場合に課題ありとみなすのか、どれか一つの条件を満たす場合に課題ありとみなすのかを、予め設定しても構わないし、課題ごとに複雑な条件設定ができるようなフラグを付けてもかまわない。ここで利用される因子変数は、各課題指標について事前に人が紐付けたルールベースで予め記述されている因子変数である。 The task estimation unit 230 may determine that there is a problem when all the conditions presented in the task index are satisfied, or may consider that there is a problem if any one of them is applicable. Good. In addition, it is possible to set in advance whether to consider that there is a problem when all the conditions are met, or whether to consider that there is a problem when any one condition is met, so that complicated conditions can be set for each problem. You can add a flag. The factor variables used here are factor variables that are described in advance on a rule base that is associated with each task index in advance by a person.

・因果分析部232
因果分析部232は、課題推定部230により課題が推定された(課題が起こっていると判断された)場合、当該課題の因果分析を行う。従来、多変量確率変数における観察データからの統計的因果関係の推定は、情報量規準や罰則付き最尤法またはベイズ法による推定結果をスコアとしてこれを最大化する方法と、変数間の条件付き独立性の統計的検定によって推定する方法とに大別される。その結果としての変数間の因果関係を、グラフィカルモデル(非循環モデル)として表現することは、その結果の可読性の良さからしばしば行われている。因果分析のアルゴリズムは特に限定しないが、例えば上述した株式会社ソニーコンピュータサイエンス研究所により提供されるCALCを用いてもよい。CALCは、既に大規模データにおける因果関係の分析技術として商用化されている技術である(https://www.isid.co.jp/news/release/2017/0530.html,https://www.isid.co.jp/solution/calc.html)。
Causal analysis department 232
When the problem is estimated by the task estimation unit 230 (it is determined that the problem is occurring), the causal analysis unit 232 performs the causal analysis of the problem. Traditionally, the estimation of statistical causal relationships from observational data in multivariate random variables has been performed by maximizing the estimation result by the information criterion, maximum likelihood method with penalties, or Bayesian method as a score, and conditional between variables. It is roughly divided into the method of estimating by the statistical test of independence. Expressing the causal relationship between the resulting variables as a graphical model (non-circular model) is often done because of the readability of the results. The algorithm for causal analysis is not particularly limited, but for example, CALC provided by Sony Computer Science Laboratories, Inc. described above may be used. CALC is a technology that has already been commercialized as a causal analysis technology for large-scale data (https://www.isid.co.jp/news/release/2017/0530.html, https: // www). .isid.co.jp/solution/calc.html).

具体的には、因果分析部232は、課題を目的変数として設定し、その他の因子変数の全部または一部(基本的には全部入れた方がよいが、計算時間やメモリの制約でデータ数が多い因子変数順や最近多くデータが取れた因子変数を優先的に入れるなど絞り込んでもよい)を説明変数として設定し、因果分析にかける。図7は、本実施例による因果分析について説明する図である。 Specifically, the causal analysis unit 232 sets the task as the objective variable, and all or part of the other factor variables (basically, it is better to include all of them, but the number of data is limited due to the limitation of calculation time and memory. You may narrow down by preferentially entering the factor variable order with the most data or the factor variable for which a lot of data has been obtained recently) as the explanatory variable, and perform causal analysis. FIG. 7 is a diagram illustrating a causal analysis according to this embodiment.

図7に示すように、例えば「団らん時間」という課題が推定された場合、これを目的変数として設定する。なお、目的変数に関し、因子変数DB220に蓄積されている変数をそのまま当てはめられない場合には、動的に生成してもよい。例えば「団らん時間」は直接センシングできないため、他の変数の組み合わせによる生成する。具体的には、家族が全員同時にテーブルについている時間、ポジティブな会話が行われている時間、および笑顔度が一定以上の割合になっている時間などの変数を組み合わせ、楽しい団らんの総時間や団らんの質などを導き出して目的変数とする。変数の組み合わせルールは、予め知識ベースとして情報処理装置20が有していてもよいし、自動で抽出するようにしてもよい。 As shown in FIG. 7, for example, when a problem of "grouping time" is estimated, this is set as an objective variable. Regarding the objective variable, if the variable stored in the factor variable DB 220 cannot be applied as it is, it may be dynamically generated. For example, "group time" cannot be sensed directly, so it is generated by combining other variables. Specifically, by combining variables such as the time when all the family members are at the table at the same time, the time when positive conversation is taking place, and the time when the smile level is above a certain level, the total time of a fun group or the group The quality of the table is derived and used as the objective variable. The information processing apparatus 20 may have the variable combination rule as a knowledge base in advance, or it may be automatically extracted.

因果分析部232は、分析結果を介入部235に出力する。 The causal analysis unit 232 outputs the analysis result to the intervention unit 235.

・介入部235
介入部235は、因果分析結果を調べ、目的変数に直接接続している因子変数から矢印を逆向きに辿り、一つも辿れる矢印がなくなるまで遡って複数の因果パスを抽出する。なお、使用する分析手法によっては必ずしも矢印がつくとは限らず、単純な直線で結ばれるケースもある。このような場合には、使用する因果分析手法の特性を利用して矢印の向きを便宜的に決めて対応する。例えば、目的変数から遠い(間にいくつ因子変数が挟まっているか)因子変数から近い因子変数の方に便宜的な矢印があることとして処理するなどが考えられる。目的変数からの遠さが同じ因子変数が直線で結ばれている場合にも同様に使用している手法の特性を考慮して便宜的な向きを決める。
Intervention Department 235
The intervention unit 235 examines the causal analysis result, traces the arrow in the opposite direction from the factor variable directly connected to the objective variable, and extracts a plurality of causal paths by tracing back until there is no arrow that can be traced. Depending on the analysis method used, arrows are not always attached, and there are cases where they are connected by a simple straight line. In such a case, the direction of the arrow is conveniently determined by utilizing the characteristics of the causal analysis method to be used. For example, it is conceivable to treat the factor variable far from the objective variable (how many factor variables are sandwiched between them) as having a convenient arrow toward the factor variable close to the factor variable. Even when factor variables with the same distance from the objective variable are connected by a straight line, the convenient orientation is determined in consideration of the characteristics of the method used in the same way.

ここで、図8に、本実施例の因果分析結果に基づく因果パスの探索について説明する図を示す。介入部235は、例えば図8に示す「団らん時間」を起点として、「団らん時間」(目的変数2001)に接続する因果パス(矢印2105)を逆向きに辿り(矢印2200)、辿った先の因子変数2002に接続する因果パス(矢印2104)も逆向きに辿り(矢印2201)、このような因果パスの探索を、辿れなくなるまで続ける。すなわち、図8に示す因果パスの矢印2105〜矢印2100を順次逆向きに辿る(矢印2200〜矢印2205)。矢印を逆向きに辿れなくなった時点で(図8に示すマーク2300が付与された因子変数2007到達した時点で)、パスの探索を終了する。図8では、因子変数で構成される因果パスの一例として「運動強度→ストレス量→22時以降の飲酒量→睡眠の質→起床時刻→家族の朝食開始時刻→団らん時間」が抽出できるが、介入部235は、因果パスの探索において、「団らん時間」を起点として、かかる因果パスの矢印を逆向きに辿ると共に、ある因子変数と一つ上流の因子変数との関係を調べる。 Here, FIG. 8 shows a diagram illustrating a search for a causal path based on the causal analysis result of this example. For example, the intervention unit 235 traces the causal path (arrow 2105) connected to the “group time” (objective variable 2001) in the opposite direction (arrow 2200) starting from the “group time” shown in FIG. The causal path (arrow 2104) connected to the factor variable 2002 is also traced in the opposite direction (arrow 2201), and the search for such a causal path is continued until it cannot be traced. That is, the arrows 2105 to 2100 of the causal path shown in FIG. 8 are sequentially followed in the opposite directions (arrows 2200 to 2205). The search for the path ends when the arrow cannot be traced in the opposite direction (when the factor variable 2007 with the mark 2300 shown in FIG. 8 is reached). In FIG. 8, as an example of a causal path composed of factor variables, “exercise intensity → stress amount → drinking amount after 22:00 → sleep quality → wake-up time → family breakfast start time → grouping time” can be extracted. In the search for the causal path, the intervention unit 235 traces the arrow of the causal path in the opposite direction, starting from the "grouping time", and examines the relationship between a certain factor variable and the factor variable one upstream.

例えば、介入部235は、「団らん時間」、「家族の朝食開始時刻」、「(自分=お父さんの)起床時刻」を確率分布の関係で見て、目的変数の値を狙った範囲にするために上流の因子変数をどの値でとれば最も期待値が高くなるかを算出する。このような因子変数間の確率分布計算による期待値の算出について、図9〜図14を参照して説明する。図9は、朝食開始時刻と団らん時間(時間/週)の確率分布を示す表である。図9に示す表によれば、7時半から8時に朝食を開始したときに最も団らん時間の期待値が高くなることが分かる。具体的には目的変数の団らん時間(幅を持っているので例えば0.5,1.5,2.5,3.5,5.0,6.0のような中央値を代表値として使用する)とそれぞれの確率(0.000,0.029,0.124,0.141,0.284,0.442)を順番に乗算しその総和が団らんの期待値となる。この例の場合には4.92時間が期待値となる。他の時間帯も同様に計算して期待値を求めると、結果として7時半から8時に朝食を開始したときに最も団らん時間が多くなっている。 For example, the intervention unit 235 looks at the "group time", "family breakfast start time", and "wake-up time (of myself = father)" in relation to the probability distribution, and sets the value of the objective variable within the target range. Calculate the value of the upstream factor variable to obtain the highest expected value. The calculation of the expected value by the calculation of the probability distribution between the factor variables will be described with reference to FIGS. 9 to 14. FIG. 9 is a table showing the probability distribution of breakfast start time and grouping time (hours / week). According to the table shown in FIG. 9, it can be seen that the expected value of the gathering time is highest when breakfast is started from 7:30 to 8:00. Specifically, the grouping time of the objective variable (since it has a range, the median value such as 0.5,1.5,2.5,3.5,5.0,6.0 is used as the representative value) and the respective probabilities (0.000,0.029,0.124). , 0.141, 0.284, 0.442) are multiplied in order, and the sum is the expected value of the group. In the case of this example, 4.92 hours is the expected value. When the expected value was calculated for other time zones in the same way, as a result, the most gathering time was when breakfast was started from 7:30 to 8:00.

図10は、起床時刻と朝食開始時刻の確率分布を示す表である。図10に示す表によれば、7時から7時半に起床したときに朝食開始時刻は7時半から8時になる確率が最も高いことが分かる。なお、接続された隣接する2つの因子変数間の確率分布は元のデータのクロス集計を行うことで求めることができる。 FIG. 10 is a table showing the probability distribution of the wake-up time and the breakfast start time. According to the table shown in FIG. 10, it can be seen that the breakfast start time is most likely to be from 7:30 to 8:00 when waking up from 7:00 to 7:30. The probability distribution between two connected adjacent factor variables can be obtained by cross-tabulating the original data.

図11は、起床時刻と団らん時間の間の確率分布を求める行列演算について説明する図である。図9に示す表をA、図10に示す表をBとした場合、図11に示す行列演算により、起床時刻と団らん時間の間の確率分布を求めることが可能となる。 FIG. 11 is a diagram illustrating a matrix operation for obtaining a probability distribution between the wake-up time and the grouping time. When the table shown in FIG. 9 is A and the table shown in FIG. 10 is B, it is possible to obtain the probability distribution between the wake-up time and the gathering time by the matrix operation shown in FIG.

図12は、図11に示す行列演算の結果得られた起床時刻と団らん時間の間の確率分布の表を示す図である。図12に示すように、7時から7時半に起床すると、24.3%の確率で団らん時間が6時間以上になり、また、およそ70%の確率で団らん時間が3時間以上となる。一方、起床時刻が8時半以降になるとおよそ81%程度の確率で団らん時間は2時間以下になってしまう。 FIG. 12 is a diagram showing a table of probability distributions between the wake-up time and the gathering time obtained as a result of the matrix operation shown in FIG. As shown in FIG. 12, when waking up from 7:00 to 7:30, there is a 24.3% probability that the grouping time will be 6 hours or more, and a 70% probability that the grouping time will be 3 hours or more. On the other hand, when the wake-up time is after 8:30, there is a probability of about 81% that the gathering time will be less than 2 hours.

このように、条件付き確率表の乗算を上流に向かって繰り返し行うことで、最終的に因果パスのそれぞれの因子変数がどの値をとるときに尤も目的変数の値が狙った値になるかがわかる。 In this way, by repeatedly multiplying the conditional probability table upstream, it is possible that the value of the objective variable will be the target value when each factor variable of the causal path finally takes a value. Understand.

なお、CALC以外の分析手法として、例えば、各変数の関係を確率的に表現するベイジアンネットワークという分析手法を用いることも可能である。この手法を適用した場合、変数(ノード)とそれを接続する矢印(または線分)は因果関係を表現しているわけではないが、接続されている変数はお互いに関連があるため、便宜的な因果とみなし本実施例を適用することが可能である。本実施例は、「因果」という用語が用いられていなくとも、変数間の関係性を便宜上の因果とみなして適用することが可能である。 As an analysis method other than CALC, for example, an analysis method called a Bayesian network that stochastically expresses the relationship between each variable can be used. When this method is applied, the variables (nodes) and the arrows (or line segments) that connect them do not represent a causal relationship, but it is convenient because the connected variables are related to each other. It is possible to apply this example as a causal factor. In this embodiment, even if the term "causality" is not used, it is possible to apply the relationship between variables as a cause and effect for convenience.

次いで、介入部235は、因果パスの中から介入可能フラグがついている因子変数を探し出し、その因子変数に対しての介入方法を介入ルールDB226から取得する。因子変数をデータベースに格納する際、介入可能かどうかのフラグが付けられる。このフラグは予め人が付けておいてもよいし、生のセンサデータに介入可能フラグを予め付けておき、因子変数を生成するときに介入可能フラグがついているセンサデータが一つでも含まれている場合には因子変数も介入可能とする方法をとってもよい。図8に示す例では、例えば因子変数2003(起床時刻)、因子変数2005(22時以降の飲酒量)、および因子変数2007(運動強度)に介入可能フラグが付けられる。例えば起床時刻は、ウェアラブルデバイスの目覚まし設定により介入が可能となるため、介入可能フラグを付けられた状態でデータベースに登録される。このように本実施例では、目的変数から因果パスを逆向きに辿った因子変数の中から介入可能なポイントを抽出し、間接的な行動変容(介入)を行い得る。ここで、介入ルールDB226に登録される介入ルールの一例を下記表2に示す。 Next, the intervention unit 235 searches for a factor variable with an intervention possible flag from the causal path, and acquires an intervention method for the factor variable from the intervention rule DB 226. When storing factor variables in the database, they are flagged as intervening. This flag may be added by a person in advance, or the raw sensor data may be flagged as intervening in advance, and even one sensor data with the intervening flag when the factor variable is generated is included. If so, a method may be taken in which factor variables can also be intervened. In the example shown in FIG. 8, for example, the factor variable 2003 (wake-up time), the factor variable 2005 (drinking amount after 22:00), and the factor variable 2007 (exercise intensity) are flagged as intervening. For example, the wake-up time is registered in the database with the intervention possible flag attached because the intervention is possible by setting the alarm clock of the wearable device. As described above, in this embodiment, the points that can be intervened are extracted from the factor variables that trace the causal path in the opposite direction from the objective variable, and indirect behavior change (intervention) can be performed. Here, an example of the intervention rule registered in the intervention rule DB226 is shown in Table 2 below.

Figure 2019146200
Figure 2019146200

なお、実際には因子変数や介入方法が無限にあるわけではなく、介入ルールはある程度のパターンに落ち着くため、クラウド側で全てのエージェントで共有しておいてもよい。ただし、介入時に設定されるパラメータ(起床時刻や目標運動強度)は個人や家族によって異なっていてもよい。 In reality, the factor variables and intervention methods are not infinite, and the intervention rules settle in a certain pattern, so they may be shared by all agents on the cloud side. However, the parameters (wake-up time and target exercise intensity) set at the time of intervention may differ depending on the individual and family.

介入部235は、介入方法を取得した上で対象デバイス能力を持つデバイスがないかを介入用デバイスDB224から検索する。この介入用デバイスDB224には、ユーザまたは家族が利用できるデバイスが登録されている。ここで、介入用デバイスの一例を下記表3に示す。 After acquiring the intervention method, the intervention unit 235 searches the intervention device DB 224 for a device having a target device capability. A device that can be used by a user or a family member is registered in the intervention device DB 224. Here, an example of the intervention device is shown in Table 3 below.

Figure 2019146200
Figure 2019146200

介入部235は、適切な介入用のデバイスが見つかった際に、デバイスID、発動条件、介入コマンド、およびパラメータを介入予約DB228に登録する。介入予約の一例を下記表4に示す。 When an appropriate intervention device is found, the intervention unit 235 registers the device ID, activation condition, intervention command, and parameter in the intervention reservation DB 228. An example of intervention reservation is shown in Table 4 below.

Figure 2019146200
Figure 2019146200

次いで、介入部235は、介入予約DB228に登録された予約データに基づいて、条件が整ったときに指定のデバイスに対してコマンドとパラメータを送信部203から送信する。 Next, the intervention unit 235 transmits a command and a parameter from the transmission unit 203 to the designated device when the conditions are met, based on the reservation data registered in the intervention reservation DB 228.

(出力デバイス36)
出力デバイス36は、介入部235の制御に従って、特定コミュニティに属するユーザに対して、課題解決のための間接的な行動変容を促すデバイスである。出力デバイス36は、例えば、スマートフォン、タブレット端末、携帯電話端末、PC、ウェアラブルデバイス、TV、照明装置、スピーカ、または置時計等の広くIoTデバイスが含まれ得る。
(Output device 36)
The output device 36 is a device that encourages users belonging to a specific community to indirectly change their behavior to solve a problem under the control of the intervention unit 235. The output device 36 may include a wide range of IoT devices such as smartphones, tablet terminals, mobile phone terminals, PCs, wearable devices, TVs, lighting devices, speakers, or table clocks.

情報処理装置20からコマンドを受け取った出力デバイス36は、そのデバイスの表現方法で介入動作を行う。例えば情報処理装置20が、スマートフォンに対して音と振動のコマンドを設定時刻と共に送信すると、スマートフォン側で対応するアプリケーションがその時刻に目覚ましを設定する。若しくは、対応するスマートスピーカに対して情報処理装置20がコマンドを投げるとそのスピーカが指定時刻に音楽を再生する。また、情報処理装置20がクーポンをスマートフォンに送信すると、プッシュ通知で表示され、さらにブラウザにクーポンが表示される。また、情報処理装置20がPCなどに送信すると、PCにおいて自動的にメールに置き換えてユーザに通知してもよい。このように、各出力デバイス36に適した表示方法に変換されて出力されるようにすることで、特定の機種やデバイスに依存せず、どのようなデバイスでも利用することが可能となる。 The output device 36 that receives the command from the information processing device 20 performs an intervention operation according to the expression method of the device. For example, when the information processing device 20 transmits a sound and vibration command to the smartphone together with a set time, the corresponding application on the smartphone side sets an alarm at that time. Alternatively, when the information processing device 20 throws a command to the corresponding smart speaker, the speaker plays music at a designated time. Further, when the information processing device 20 transmits the coupon to the smartphone, it is displayed by a push notification, and the coupon is further displayed on the browser. Further, when the information processing device 20 transmits to a PC or the like, the PC may automatically replace it with an e-mail and notify the user. By converting and outputting to a display method suitable for each output device 36 in this way, it is possible to use any device without depending on a specific model or device.

<2−2.動作処理>
続いて、以上説明した各構成による処理をフローチャートを参照して説明する。
<2-2. Operation processing>
Subsequently, the processing according to each configuration described above will be described with reference to the flowchart.

(2−2−1.全体の流れ)
図13は、第1の実施例の動作処理の全体の流れを示すフローチャートである。図13に示すように、まず、情報処理装置20は、センサ群からのデータ入力を行う(ステップS103)。
(2-2-1. Overall flow)
FIG. 13 is a flowchart showing the entire flow of the operation processing of the first embodiment. As shown in FIG. 13, first, the information processing device 20 inputs data from the sensor group (step S103).

次いで、センサの種類によって、画像処理部210、音声処理部212、センサ/行動データ処理部214で因子変数を生成する(ステップS106)。 Next, depending on the type of sensor, the image processing unit 210, the voice processing unit 212, and the sensor / behavior data processing unit 214 generate factor variables (step S106).

次に、介入予約に介入条件を満たしたものがあるか否かを判断し(ステップS109)、無い場合は課題推定処理を行い(ステップS112)、有る場合は介入動作処理(ステップS133)を行う。なお、ステップS109はこのタイミングで行われることに限定されず、図13に示す処理と並行して処理されてもよい。課題推定処理のフローについては、図14に示す。また、介入動作処理のフローについては、図16に示す。 Next, it is determined whether or not there is an intervention reservation that satisfies the intervention condition (step S109), if there is no intervention reservation, a task estimation process is performed (step S112), and if there is, an intervention action process (step S133) is performed. .. Note that step S109 is not limited to being performed at this timing, and may be processed in parallel with the process shown in FIG. The flow of the task estimation process is shown in FIG. The flow of the intervention operation process is shown in FIG.

次いで、課題が推定された場合(ステップS115/Yes)、因果分析部232は、課題を目的変数に設定し(ステップS118)、因果分析を行う(ステップS121)。 Next, when a task is estimated (step S115 / Yes), the causal analysis unit 232 sets the task as an objective variable (step S118) and performs causal analysis (step S121).

次に、介入部235は、因果パスに含まれる因果変数のうち、介入可能(行動変容可能)なポイント(因果変数、事象)を抽出する(ステップS124)。 Next, the intervention unit 235 extracts points (causal variables, events) that can intervene (behavior changeable) from the causal variables included in the causal path (step S124).

そして、介入可能なポイントが見つかった場合(ステップS127/Yes)、介入部235は、介入行動を決定して介入予約を追加する(ステップS130)。なお、介入ポイントの抽出から介入予約の追加までの処理に関しては、図15を参照してさらに詳細に説明する。 Then, when a point where intervention is possible is found (step S127 / Yes), the intervention unit 235 determines the intervention action and adds an intervention reservation (step S130). The process from the extraction of the intervention point to the addition of the intervention reservation will be described in more detail with reference to FIG.

(2−2−2.課題推定処理)
図14は、課題推定処理を示すフローチャートである。図14に示すように、まず、課題推定部230は、課題リストを空にし(ステップS143)、課題指標DB222から課題指標(図6参照)を取得する(ステップS146)。
(2-2-2. Task estimation process)
FIG. 14 is a flowchart showing the task estimation process. As shown in FIG. 14, first, the task estimation unit 230 emptys the task list (step S143) and acquires the task index (see FIG. 6) from the task index DB 222 (step S146).

次に、課題推定部230は、取得した課題指標から未処理の課題を一つ選択する(ステップS149)。 Next, the task estimation unit 230 selects one unprocessed task from the acquired task index (step S149).

次いで、課題推定部230は、課題の因子変数リスト(図6参照)から、未処理の因子変数を一つ選択し(ステップS152)、選択した因子変数の値をチェックする(ステップS155)。すなわち、課題推定部230は、選択した因子変数の値が、課題指標に紐付けられた課題有りと判断する条件を満たすか否かを判断する(図6参照)。 Next, the task estimation unit 230 selects one unprocessed factor variable from the task factor variable list (see FIG. 6) (step S152), and checks the value of the selected factor variable (step S155). That is, the task estimation unit 230 determines whether or not the value of the selected factor variable satisfies the condition for determining that there is a task associated with the task index (see FIG. 6).

次に、課題ありと判断した場合(ステップS158/Yes)、課題推定部230は、課題リストに課題を追加する(ステップS161)。 Next, when it is determined that there is a problem (step S158 / Yes), the task estimation unit 230 adds the task to the task list (step S161).

次いで、課題推定部230は、課題の因子変数リストに挙げられた全ての因子変数の値をチェックするまで上記ステップS152〜S161の処理を繰り返す(ステップS164)。 Next, the task estimation unit 230 repeats the processes of steps S152 to S161 until the values of all the factor variables listed in the factor variable list of the task are checked (step S164).

さらに、課題指標に挙げられた課題を全てチェックし終わると(ステップS167/No)、課題推定部230は、課題リストに課題がある場合は(ステップS170/Yes)、課題リストを(因果分析部232に)返す(ステップS176)。一方、課題リストに課題がない場合(ステップS170/No)、課題無しのステータスで(図13に示すステップS115の処理に)戻る(ステップS179)。 Further, when all the tasks listed in the task index have been checked (step S167 / No), the task estimation unit 230 displays the task list (causal analysis unit) when there is a problem in the task list (step S170 / Yes). (To 232) (step S176). On the other hand, when there is no problem in the task list (step S170 / No), the process returns to the status of no task (returning to the process of step S115 shown in FIG. 13) (step S179).

(2−2−3.介入予約処理)
図15は、介入予約処理を示すフローチャートである。図15に示すように、まず、介入部235は、因果分析部232による分析結果の目的変数(課題)を因果パス生成の起点とする(ステップS183)。
(2-2-3. Intervention reservation processing)
FIG. 15 is a flowchart showing the intervention reservation process. As shown in FIG. 15, first, the intervention unit 235 sets the objective variable (problem) of the analysis result by the causal analysis unit 232 as the starting point of the causal path generation (step S183).

次に、介入部235は、起点からすべての矢印の向きを逆に遡り、末端の因子変数に辿り着くまで繰り返し、すべての因果パスを生成する(ステップS186)。 Next, the intervention unit 235 traces the directions of all the arrows in the opposite direction from the starting point and repeats until the factor variable at the end is reached to generate all the causal paths (step S186).

次いで、介入部235は、因果パス上の接続されている2つの因子変数間の確率分布テーブルを生成する(ステップS189)。 The intervention unit 235 then generates a probability distribution table between the two connected factor variables on the causal path (step S189).

次に、介入部235は、確率分布テーブルを因果パスの上流に辿りながら行列乗算し、目的変数と直接隣接していない因子変数の間の確率分布を求める(ステップS192)。 Next, the intervention unit 235 performs matrix multiplication while tracing the probability distribution table upstream of the causal path to obtain the probability distribution between the objective variable and the factor variable that is not directly adjacent to the objective variable (step S192).

次いで、介入部235は、介入可能フラグがついた因子変数があるかを見て(ステップS195)、ある場合は、介入方法を介入ルールDB226から取得する(ステップS198)。なお介入部235は、介入可能フラグがついた因子変数に対して、介入すべきか否かを判断してもよい。例えば、「起床時刻」に介入可能フラグがついており、目的変数(「団らん時間」)を狙った範囲(例えば「3時間以上」)にする(「団らん時間」が少ないという課題を解決する)ために、「起床時刻」を「7時半」にしたい場合、介入部235は、ユーザの普段の起床時刻の傾向を取得し、いつも9時に起きている傾向にある場合は7時半に起こすために「介入をすべき」と判断する。 The intervention unit 235 then looks to see if there is a factor variable with the intervention flag (step S195) and, if so, obtains the intervention method from the intervention rule DB226 (step S198). The intervention unit 235 may determine whether or not to intervene in the factor variable with the intervention flag. For example, the "wake-up time" is flagged as intervening, and the objective variable ("group time") is set to the target range (for example, "3 hours or more") (solving the problem that "group time" is short). In addition, if you want to set the "wake-up time" to "7:30", the intervention unit 235 acquires the tendency of the user's usual wake-up time, and if it tends to wake up at 9 o'clock, it wakes up at 7:30. Judge that "intervention should be done".

次に、介入用デバイスDBから介入に必要な能力を持ったデバイスを検索し(ステップS201)、対応デバイスが見つかった場合は(ステップS204/Yes)、介入予約DB228に、介入条件とコマンド/パラメータを登録する(ステップS207)。例えば、ユーザのスマートフォンのアラーム機能を制御できる場合、「ユーザのスマートフォンのアラームを7時半にセットする」といった介入予約を行う。 Next, a device having the ability required for intervention is searched from the intervention device DB (step S201), and if a corresponding device is found (step S204 / Yes), the intervention condition and command / parameter are displayed in the intervention reservation DB 228. Is registered (step S207). For example, if the alarm function of the user's smartphone can be controlled, an intervention reservation such as "set the alarm of the user's smartphone at 7:30" is made.

(2−2−4.介入処理)
図16は、出力デバイス36による介入処理を示すフローチャートである。図16に示すように、出力デバイス36は、情報処理装置20の介入部235からのコマンド受信を待つ(ステップS213)。
(2-2-4. Intervention processing)
FIG. 16 is a flowchart showing an intervention process by the output device 36. As shown in FIG. 16, the output device 36 waits for a command reception from the intervention unit 235 of the information processing device 20 (step S213).

次いで、出力デバイス36は、受信したコマンドとパラメータをパースし(ステップS216)、コマンドに対応する提示方法を選択する(ステップS219)。 The output device 36 then parses the received commands and parameters (step S216) and selects the presentation method corresponding to the commands (step S219).

そして、出力デバイス36は、コマンドを実行する(ステップS222)。 Then, the output device 36 executes the command (step S222).

<2−3.補足>
以上説明した第1の実施例では、一例として家族仲に関する課題を用いて説明したが、本実施例はこれに限定されず、例えば「価値観の違い」といったものも、課題として存在し得る。価値観の違いが生じていることを検出する(課題を推定する)ための因子の関係としては、例えば下記表5に示すような項目が考えられる。
<2-3. Supplement>
In the first embodiment described above, the problem related to family relations has been used as an example, but the present embodiment is not limited to this, and for example, "difference in values" may exist as a problem. As the relationship of the factors for detecting the difference in values (estimating the problem), for example, the items shown in Table 5 below can be considered.

Figure 2019146200
Figure 2019146200

上記表5における、「物体の分離線分」とは、散らかった部屋の画像と、整頓された部屋の画像を比較した場合、輪郭線密度が低いといった特徴や、個々の輪郭線が長いといった特徴がある。このため、各ユーザの部屋やリビングの画像解析において、例えば物体の分離線分に基づいて散らかり度合いを算出することが可能となる。 In Table 5 above, the "separation line segment of an object" is a feature that the contour line density is low and the individual contour lines are long when the image of a cluttered room and the image of an organized room are compared. There is. Therefore, in the image analysis of each user's room or living room, it is possible to calculate the degree of clutter based on, for example, the separation line segment of the object.

図17は、価値観の違いの因果パスの一例を示す図である。図17に示すように、目的変数2011に「価値観の違い」を設定して因果分析を行うと、例えば因果変数2013「部屋の整頓率」、因果変数2014「郵便物の開封までの時間」、因果変数2015「1日のうち家にいる時間割合」、因果変数2016「ひと月の飲み会回数」、および因果変数2017「ひと月のゴルフ回数」等が因果パス上に上がってくる。 FIG. 17 is a diagram showing an example of a causal path of differences in values. As shown in FIG. 17, when "difference in values" is set in the objective variable 2011 and causal analysis is performed, for example, causal variable 2013 "room tidying rate" and causal variable 2014 "time until opening of mail" , Causal variable 2015 "Percentage of time spent at home in a day", Causal variable 2016 "Number of drinking parties per month", Causal variable 2017 "Number of golfs per month", etc. are raised on the causal path.

この場合の介入方法としては、例えば下記表6に示すような項目が考えられる。 As an intervention method in this case, for example, the items shown in Table 6 below can be considered.

Figure 2019146200
Figure 2019146200

これにより、介入部235は、例えば飲み会の回数やゴルフの回数を少なくするようユーザに通知することで、家にいる時間を増やし、家にいる時間と関係する「部屋の整頓率」を上げ、結果的に、家族の価値観の違い(部屋の散らかり具合が一人だけ高いなど)を解消することを可能とする。 As a result, the intervention unit 235 increases the time spent at home and raises the "room tidying rate" related to the time spent at home, for example, by notifying the user to reduce the number of drinking parties and the number of golfs. As a result, it is possible to eliminate differences in family values (such as a room with a high degree of clutter).

<<3.第2の実施例(課題の推定と行動変容)>>
次に、第2の実施例によるマスターシステム10−2について、図18〜図28を参照して説明する。
<< 3. Second Example (Problem Estimate and Behavior Change) >>
Next, the master system 10-2 according to the second embodiment will be described with reference to FIGS. 18 to 28.

本実施例では、例えば家族または小規模グループ(会社、学校、町内会など)等の特定コミュニティから収集されるデータに基づいて、そのコミュニティ内で基準となる価値観(価値基準)を行動規範として自動生成し、その価値基準から大きく外れた(一定以上離間している)メンバーに対して、間接的に行動変容(価値基準に近付く行動)を促す。 In this embodiment, based on data collected from a specific community such as a family or a small group (company, school, neighborhood association, etc.), the standard values (value standards) within that community are used as the code of conduct. It is automatically generated and indirectly encourages behavior change (behavior that approaches the value standard) for members who deviate significantly from the value standard (more than a certain distance).

図18は、第2の実施例によるマスターシステム10−2の構成の一例を示すブロック図である。図18に示すように、マスターシステム10−2は、情報処理装置50、センサ60(またはセンサシステム)、および出力デバイス62(または出力システム)を含む。 FIG. 18 is a block diagram showing an example of the configuration of the master system 10-2 according to the second embodiment. As shown in FIG. 18, the master system 10-2 includes an information processing device 50, a sensor 60 (or a sensor system), and an output device 62 (or an output system).

(センサ60)
センサ60は、第1の実施例によるセンサ群と同様であり、ユーザに関するあらゆる情報を取得する装置/システムである。例えば、部屋に設置されたカメラやマイク等の環境側センサや、ユーザが所有するスマートフォンやウェアラブルデバイスに設けられるモーションセンサ(加速度センサ、ジャイロセンサ、地磁気センサ)や生体センサ、位置センサ、カメラ、マイク等のユーザ側の各種センサが含まれる。また、ネットワーク上からユーザの行動履歴(移動履歴、SNS、ショッピング履歴等)を取得してもよい。センサ60により、日常的に特定コミュニティ内メンバーの行動をセンシングし、情報処理装置50に収集される。
(Sensor 60)
The sensor 60 is similar to the sensor group according to the first embodiment, and is a device / system that acquires all information about the user. For example, environment-side sensors such as cameras and microphones installed in rooms, motion sensors (accelerometers, gyro sensors, geomagnetic sensors), biosensors, position sensors, cameras, and microphones installed in user-owned smartphones and wearable devices. Various sensors on the user side such as are included. Further, the user's action history (movement history, SNS, shopping history, etc.) may be acquired from the network. The sensor 60 senses the behavior of members in the specific community on a daily basis and collects it in the information processing device 50.

(出力デバイス62)
出力デバイス62は、行動変容を促す表出装置であって、第1の実施例と同様に、スマートフォン、タブレット端末、携帯電話端末、PC、ウェアラブルデバイス、TV、照明装置、スピーカ、振動デバイス等の広くIoTデバイスが含まれ得る。
(Output device 62)
The output device 62 is a display device that promotes behavior change, and is a smartphone, a tablet terminal, a mobile phone terminal, a PC, a wearable device, a TV, a lighting device, a speaker, a vibration device, or the like, as in the first embodiment. A wide range of IoT devices can be included.

(情報処理装置50)
情報処理装置50(価値観提示サーバ)は、通信部510、制御部500、および記憶部520を有する。情報処理装置50は、ネットワーク上のクラウドサーバにより構成されてもよいし、中間サーバやエッジサーバにより構成されてもよいし、ホームエージェント等の家庭に置かれる専用端末により構成されてもよいし、PCやスマートフォン等の情報処理端末により構成されてもよい。
(Information processing device 50)
The information processing device 50 (value presentation server) has a communication unit 510, a control unit 500, and a storage unit 520. The information processing device 50 may be configured by a cloud server on the network, an intermediate server or an edge server, or a dedicated terminal placed in a home such as a home agent. It may be composed of an information processing terminal such as a PC or a smartphone.

・制御部500
制御部500は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置50内の動作全般を制御する。制御部500は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、制御部500は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。
Control unit 500
The control unit 500 functions as an arithmetic processing unit and a control device, and controls the overall operation in the information processing device 50 according to various programs. The control unit 500 is realized by an electronic circuit such as a CPU (Central Processing Unit) or a microprocessor. Further, the control unit 500 may include a ROM (Read Only Memory) for storing programs to be used, calculation parameters, and the like, and a RAM (Random Access Memory) for temporarily storing parameters and the like that change as appropriate.

また、本実施形態による制御部500は、ユーザ管理部501、価値観推定部502、価値観比較部503、および提示部504としても機能する。 In addition, the control unit 500 according to the present embodiment also functions as a user management unit 501, a value estimation unit 502, a value comparison unit 503, and a presentation unit 504.

ユーザ管理部501は、ユーザを識別するための情報や、対象となる行動・モノに対する各ユーザの価値観を管理し、適宜記憶部520に格納する。価値観には様々な指標が想定されるが、本実施例で用いる価値観の一例を下記表7に示す。また、本実施例では、各価値観を推定するためのセンシングする行動(必要な情報)を、予め以下のように定義しておいてもよい。 The user management unit 501 manages information for identifying the user and each user's sense of values for the target action / thing, and stores the information in the storage unit 520 as appropriate. Various indicators are assumed for the values, and Table 7 below shows an example of the values used in this embodiment. Further, in this embodiment, the sensing behavior (necessary information) for estimating each value may be defined in advance as follows.

Figure 2019146200
Figure 2019146200

価値観推定部502は、対象となる行動・モノのグループ(特定コミュニティ)内で定まる価値基準(以下、基準価値観とも称す)を自動推定(生成)し、記憶部520に蓄積する。また、価値観推定部502は、ユーザ個人の価値観も推定して管理する。グループの基準価値観は、例えばグループ内の各ユーザの価値観の平均値であってもよいし(メンバー毎に重み付けを行って算出してもよい)、特定のユーザ(例えば親等)の価値観をグループの基準価値観としてもよい。どのような情報に基づいて各価値観を推定するかは、例えば下記表8に示すように予め定義されていてもよい。 The value estimation unit 502 automatically estimates (generates) a value standard (hereinafter, also referred to as a standard value) determined within a target behavior / thing group (specific community), and stores it in the storage unit 520. In addition, the value estimation unit 502 also estimates and manages the individual values of the user. The standard value of the group may be, for example, the average value of the values of each user in the group (may be calculated by weighting each member), or the value of a specific user (for example, relatives). May be the standard value of the group. What kind of information is used to estimate each value may be defined in advance as shown in Table 8 below, for example.

Figure 2019146200
Figure 2019146200

価値観比較部503は、日常的にセンシングされる行動・モノの基準価値観からの各ユーザの価値観のずれを検出する。グループ内の基準価値観は、上述したように価値観推定部502により自動生成されてもよいし、予め設定されていてもよい(システム側でデフォルト設定してもよいし、グループのユーザが手動で設定してもよい)。 The value comparison unit 503 detects the deviation of each user's value from the standard value of behavior / thing that is sensed on a daily basis. The standard values in the group may be automatically generated by the value estimation unit 502 as described above, or may be preset (default settings may be made on the system side, or the group user may manually set them. May be set with).

提示部504は、価値観のずれが生じた場合、グループの基準価値観に近付く行動変容を促す。具体的には、提示部504は、行動変容コマンドを通信部510から出力デバイス62に送信する。 The presentation unit 504 promotes behavior change that approaches the standard values of the group when the values deviate. Specifically, the presentation unit 504 transmits a behavior change command from the communication unit 510 to the output device 62.

(通信部510)
通信部510は、有線または無線により、センサ60や出力デバイス62等の外部装置と接続し、データの送受信を行う。通信部510は、例えば有線/無線LAN(Local Area Network)、またはWi−Fi(登録商標)、Bluetooth(登録商標)、携帯通信網(LTE(Long Term Evolution)、3G(第3世代の移動体通信方式))等により外部装置と通信接続する。
(Communication unit 510)
The communication unit 510 connects to an external device such as a sensor 60 or an output device 62 by wire or wirelessly to transmit / receive data. The communication unit 510 is, for example, a wired / wireless LAN (Local Area Network), Wi-Fi (registered trademark), Bluetooth (registered trademark), a mobile communication network (LTE (Long Term Evolution)), or 3G (third generation mobile body). Communication connection with an external device by means of communication method)).

(記憶部520)
記憶部520は、制御部500の処理に用いられるプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、および適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)により実現される。
(Memory unit 520)
The storage unit 520 is realized by a ROM (Read Only Memory) that stores programs and arithmetic parameters used for processing of the control unit 500, and a RAM (Random Access Memory) that temporarily stores parameters that change as appropriate.

以上、本実施例によるマスターシステム10−2の構成について具体的に説明した。 The configuration of the master system 10-2 according to this embodiment has been specifically described above.

<3−2.動作処理>
続いて、以上説明したマスターシステム10−2の動作処理をフローチャートを参照して説明する。
<3-2. Operation processing>
Subsequently, the operation processing of the master system 10-2 described above will be described with reference to the flowchart.

(3−2−1.基本フロー)
図19は、本実施例による動作処理の基本フローチャートである。図19に示すように、まず、情報処理装置50は、グループ内のメンバー毎の行動、およびモノのセンシング情報を収集し(ステップS303)、解析する(ステップS306)。
(3-2-1. Basic flow)
FIG. 19 is a basic flowchart of the operation process according to the present embodiment. As shown in FIG. 19, first, the information processing device 50 collects and analyzes the behavior of each member in the group and the sensing information of the object (step S303) (step S306).

次に、価値観と関係する行動、モノについてセンシングできた場合(ステップS309/Yes)、情報処理装置50は、対象となる行動、モノの価値観に関する情報を登録する(ステップS312)。 Next, when the behavior and the thing related to the value can be sensed (step S309 / Yes), the information processing apparatus 50 registers the information about the target action and the value of the thing (step S312).

次いで、情報処理装置50は、(グループの)基準価値観の算出と、個人の価値観(個人価値観)の推定を行う(ステップS315)。基準価値観の算出は、例えばグループの各メンバーの価値観の平均値を算出してもよいし、メンバー内の誰かの価値観を基準価値観としてもよい。 Next, the information processing apparatus 50 calculates the reference value (of the group) and estimates the individual value (individual value) (step S315). For the calculation of the standard value, for example, the average value of the values of each member of the group may be calculated, or the value of someone in the member may be used as the standard value.

続いて、メンバーに基準価値観とのずれが生じた場合(ステップS318/Yes)、情報処理装置50は、当該メンバーに、行動変容を促す提示処理を行う(ステップS321)。例えば、メンバーの価値観(個人の価値観)に、(グループの)基準価値観とのずれが生じている場合、行動変容を促す所定のUI提示等を行う。かかる行動変容を促す情報提示は、基準価値観とのずれを解消するための具体的な指示であってもよいし、さり気なく行動変容を促すコンテンツを提示してもよい。 Subsequently, when the member deviates from the standard value (step S318 / Yes), the information processing apparatus 50 performs a presentation process for urging the member to change his / her behavior (step S321). For example, if the member's values (individual values) deviate from the (group's) standard values, a predetermined UI that encourages behavior change is presented. The information presentation that promotes such behavior change may be a specific instruction for eliminating the deviation from the standard values, or the content that encourages behavior change may be presented casually.

以上の基本フローについて、具体例を用いて以下説明する。以下では、価値観の具体例を用いて行動変容の情報提示処理について具体的に説明する。 The above basic flow will be described below with reference to specific examples. In the following, the information presentation process of behavior change will be specifically described using specific examples of values.

(3−2−2.食の価値観)
まず、「食」に関する価値観として、食べ物を大切にする、食事を残さない、といった「食のしつけ」が想定される。本実施例では、このような食の価値観に逸脱する場合は、対象のメンバーに行動変容を促す提示を行う。
(3-2-2. Food values)
First of all, as values related to "food", "discipline of food" such as valuing food and not leaving food is assumed. In this embodiment, when the values of food deviate from such values, a presentation is made to encourage the target members to change their behavior.

図20は、本実施例による食のしつけに関する行動変容処理を示すフローチャートである。図20に示すように、まず、情報処理装置50は、カメラ等を用いて食事の行動を観測し(ステップS333)、センサデータの解析を行う(ステップS336)。 FIG. 20 is a flowchart showing a behavior change process related to food discipline according to this embodiment. As shown in FIG. 20, first, the information processing apparatus 50 observes the behavior of eating by using a camera or the like (step S333) and analyzes the sensor data (step S336).

次に、食事を残す/残さないといった事象を検知した場合(ステップS339/Yes)、情報処理装置50は、食事を残したか否かに関する行動を記録する(ステップS342)。 Next, when an event such as leaving / not leaving a meal is detected (step S339 / Yes), the information processing apparatus 50 records an action regarding whether or not the meal is left (step S342).

次いで、情報処理装置50は、食事が残っているのにメンバーが立ち去ったことを所定回数検知した場合(ステップS345/Yes)、食事を残さないように促す情報提示、例えば、子供向けには、キャラクターを用いた食材(お米や野菜)の大切さを示す映像を提示する。本実施例では、食事を残した回数を個人の価値観として推定し、グループ全体の過半数の価値観(行動規範となるグループの基準価値観。例えばグループの過半数が毎回食事を残さない場合、毎回残さないことが本グループの基準価値観となる)と異なる行動を所定回数行った場合に、基準価値観とずれが生じていると判断する。映像の提示は、対象である子供のスマートフォンやウェアラブルデバイスに提示してもよいし、テーブルの上にプロジェクターで投影してもよい。また、「残さないで!」「1粒は千粒」等、残された食材が喋っているように聞こえる聴覚ARなど、音声で出力してもよい。 Next, when the information processing device 50 detects a predetermined number of times that the member has left even though there is food left (step S345 / Yes), information presentation prompting not to leave food, for example, for children, We will present a video showing the importance of ingredients (rice and vegetables) using characters. In this embodiment, the number of times a meal is left is estimated as an individual value, and the value of the majority of the entire group (the standard value of the group that serves as a code of conduct. For example, if the majority of the group does not leave a meal each time, each time. If an action different from the standard value of this group is performed a predetermined number of times, it is judged that there is a deviation from the standard value. The image may be presented to the target child's smartphone or wearable device, or may be projected on a table by a projector. In addition, it may be output by voice such as "Don't leave!", "One grain is a thousand grains", and the auditory AR that sounds like the remaining ingredients are speaking.

(3−2−3.家事の価値観)
また、家事に関する価値観として、例えば「食後は家族皆で皿を片付ける」ということが想定される。このような家事の価値観に逸脱する場合、対象のメンバーに行動変容を促す提示を行う。
(3-2-3. Values of housework)
In addition, as a sense of value related to housework, for example, it is assumed that "the whole family cleans up the dishes after meals". If the values deviate from such household chores, a presentation is made to encourage the target members to change their behavior.

図21は、本実施例による皿の片付けに関する行動変容処理を示すフローチャートである。図21に示すように、まず、情報処理装置50は、カメラ等を用いて食事の行動を観測し(ステップS353)、センサデータの解析を行う(ステップS356)。 FIG. 21 is a flowchart showing a behavior change process related to cleaning up the dishes according to the present embodiment. As shown in FIG. 21, first, the information processing apparatus 50 observes the behavior of eating by using a camera or the like (step S353), and analyzes the sensor data (step S356).

次に、食後に皿を下げる/下げないという事象を検知した場合(ステップS359/Yes)、情報処理装置50は、各メンバーが食器を下げたかどうかの行動データを記録する(ステップS362)。 Next, when the event of lowering / not lowering the tableware after eating is detected (step S359 / Yes), the information processing device 50 records the behavior data of whether or not each member lowered the tableware (step S362).

次いで、情報処理装置50は、メンバーが皿を片付けずに立ち去ったことを所定回数検知した場合(ステップS365/Yes)、皿を片付けるよう促す情報提示、例えば子供向けには、聴覚ARで食器が「早く綺麗になりたいよ」と囁いてるように聞こえる音声を出力してもよい。本実施例では、食器を片づけた回数を個人の価値観として推定し、グループ全体の過半数の価値観(行動規範となるグループの基準価値観。例えばグループの過半数が毎回片付けている場合、毎回片付けることが本グループの基準価値観となる)と異なる行動を所定回数行った場合に、基準価値観とずれが生じていると判断する。 Next, when the information processing device 50 detects that the member has left without cleaning the dishes a predetermined number of times (step S365 / Yes), the information processing device 50 presents information prompting the members to clean the dishes, for example, for children, the tableware is displayed by auditory AR. You may output a sound that sounds like whispering, "I want to get clean quickly." In this embodiment, the number of times the dishes are cleaned up is estimated as individual values, and the values of the majority of the entire group (the standard values of the group that serve as the code of conduct. For example, if the majority of the group cleans up each time, clean up each time. If an action different from the standard value of this group is performed a predetermined number of times, it is judged that there is a deviation from the standard value.

(3−2−4.部屋の美観)
また、オフィスや自室など、部屋の美観に関する価値観として、例えば、床や机に物が散乱していないこと等、整理整頓具合(片付けの度合い)が想定される。
(3-2-4. The beauty of the room)
In addition, as a value related to the aesthetics of a room such as an office or one's own room, for example, the degree of tidying up (degree of tidying up) is assumed, such as no objects being scattered on the floor or desk.

図22は、オフィスの机の片付けに関する行動変容処理を示すフローチャートである。図22に示すように、例えば情報処理装置50は、カメラ等を用いてオフィスの机に置かれた物の数を検知(撮像)し(ステップS373)、センサデータの解析(画像解析により物の数の算出等)を行う(ステップS376)。ここでは一例として「物の数」としたが、画像解析により整頓具合を検出するようにしてもよい。 FIG. 22 is a flowchart showing a behavior change process related to tidying up an office desk. As shown in FIG. 22, for example, the information processing device 50 detects (imaging) the number of objects placed on the desk in the office using a camera or the like (step S373), analyzes sensor data (calculates the number of objects by image analysis, etc.). ) (Step S376). Here, "the number of objects" is used as an example, but the degree of organization may be detected by image analysis.

次に、オフィス内の全メンバーの状況を検出できた場合(ステップS379)、情報処理装置50は、グループの平均数を基準(基準価値観)として登録し、各々のメンバーにおける机に置いてある物の数も個人の価値観算出のため記録する(ステップS382)。 Next, when the status of all the members in the office can be detected (step S379), the information processing apparatus 50 registers the average number of groups as a reference (standard value) and puts it on the desk of each member. The number of objects is also recorded for calculating individual values (step S382).

次いで、メンバーの机に置いてある物の数がグループの平均より多い場合(ステップS385/Yes)、情報処理装置50は、机を片付けるよう促す情報提示、例えば書類の山を高くして崩れかかっているプロジェクションマッピングを投影したり、ピンポイントで書類の山をハイライトすることで整理した方が良いことを間接的に明示してもよい。机を片付けるよう促す情報提示は、聴覚AR等の音声により提示してもよい。 Next, when the number of objects placed on the member's desk is larger than the average of the group (step S385 / Yes), the information processing device 50 presents information prompting the member to clean up the desk, for example, the pile of documents is raised and is about to collapse. You may indirectly indicate that it is better to organize by projecting projection mapping or pinpointing piles of documents. The information presentation prompting the desk to be tidied up may be presented by voice such as auditory AR.

図23は、部屋の片付けに関する行動変容処理を示すフローチャートである。図23に示すように、まず、情報処理装置50は、カメラ等を用いて床に散らかっている(落ちている)物の数と、子供が母親に怒られる発言をマイクなどで検知し(ステップS393)、センサデータの解析を行う(ステップS396)。 FIG. 23 is a flowchart showing a behavior change process related to tidying up the room. As shown in FIG. 23, first, the information processing device 50 uses a camera or the like to detect the number of objects scattered (falling) on the floor and the remarks that the child is angry with the mother with a microphone or the like (step S393). , The sensor data is analyzed (step S396).

次に、部屋の状態に関して子供が母親に怒られた場合(ステップS399/Yes)、情報処理装置50は、床に落ちている物の数を母親の限界とみなし、グループの基準価値観として登録する(ステップS402)。本実施例では、部屋の美観に関しては、母親の限界をグループの価値基準として定義する。なお部屋の美観は、落ちている物の数に限定されず、例えば、部屋の床面積の割合や(足の踏み場が無い状況は散らかっている状況と言える)、普段の部屋の状態(床面積や整頓具合等)との差異等をセンシング対象として価値基準を定義してもよい。 Next, when the child is angry with the mother regarding the state of the room (step S399 / Yes), the information processing device 50 considers the number of things falling on the floor as the mother's limit and registers it as the standard value of the group (step S399 / Yes). Step S402). In this example, regarding the aesthetics of the room, the mother's limits are defined as the group's value standard. The aesthetics of a room are not limited to the number of things that have fallen, for example, the ratio of the floor area of the room (a situation where there is no foothold can be said to be a messy situation), and the usual state of the room (floor area and The value standard may be defined by sensing the difference from the ordering condition, etc.).

次いで、部屋の状況が母親の基準を超えている場合(すなわち部屋に落ちている物の数がグループの基準価値観である母親の基準となる「落ちている物の数」を超えている場合)(ステップS405/Yes)、部屋を片付けるよう促す情報提示、例えば図24に示すように、部屋がさらに散らかっているように見えるプロジェクションマッピングを投影したりする。図24に示す例では、部屋に設置されたカメラ等のセンサ60により床に落ちている物の数を検知し、基準を超えている場合は、プロジェクター等の出力デバイス62により、さらに散らかって見える画像620をプロジェクションマッピングにより投影される。部屋を片付けるよう促す情報提示は、聴覚AR等の音声により提示してもよい。 Then, when the condition of the room exceeds the mother's standard (that is, when the number of things falling in the room exceeds the mother's standard "number of falling things" which is the standard value of the group) (step S405). / Yes), presenting information that encourages the room to be tidied up, eg, projecting projection mapping that makes the room appear more cluttered, as shown in FIG. In the example shown in FIG. 24, the number of objects falling on the floor is detected by a sensor 60 such as a camera installed in the room, and if the number exceeds the standard, the output device 62 such as a projector makes the image 620 look more cluttered. Is projected by projection mapping. Information that prompts the room to be tidied up may be presented by voice such as auditory AR.

また、現状の子供目線による部屋の状況の映像を親に提示するようにしてもよい。また、部屋の散らかり具合を、感情等の他の値にマッピングして子供に提示することも可能である。例えば部屋が汚い場合、部屋に紐付いたヒーローが弱くなっていたり、かっこ悪くなっている映像を提示する。 In addition, a video of the current situation of the room from the child's perspective may be presented to the parents. It is also possible to map the clutter of the room to other values such as emotions and present it to the child. For example, if the room is dirty, the hero associated with the room will be shown as weakened or uncool.

(3−2−5.育児の価値観)
また、育児に関する価値観として、例えば赤ちゃんの夜泣きに対して母親はすぐに気付いて起きるが父親は反応が遅いといったことが一般的にある。従って、赤ちゃんの泣き声に対する母親の許容レベル(起きてあやさないといけない)をグループの基準価値観として定義し、父親に行動変容を促すことが一例として挙げられる。
(3-2-5. Values of childcare)
In addition, as a value regarding childcare, for example, it is common for mothers to immediately notice and wake up when a baby cries at night, but for fathers to react slowly. Therefore, one example is to define the mother's tolerance level for baby crying (which must be awakened) as the group's standard values and encourage the father to change behavior.

図25は、赤ちゃんの泣き声に関する行動変容処理を示すフローチャートである。図25に示すように、例えば情報処理装置50は、カメラやマイク等を用いて母親が赤ん坊の泣き声で起きる時の泣き声音量レベルを検知し(ステップS413)、センサデータの解析を行う(ステップS416)。 FIG. 25 is a flowchart showing a behavior change process related to the baby's crying. As shown in FIG. 25, for example, the information processing device 50 detects the crying volume level when the mother wakes up with the baby's crying using a camera, a microphone, or the like (step S413), and analyzes the sensor data (step S416). ).

次に、母親が赤ん坊の世話をするため起きた場合(ステップS419/Yes)、情報処理装置50は、母親が起きたときの泣き声音量レベルを基準(母親の許容レベルであって、これをグループの基準価値観とする)として登録する(ステップS422)。 Next, when the mother wakes up to take care of the baby (step S419 / Yes), the information processing device 50 refers to the crying volume level when the mother wakes up (the mother's permissible level, which is a group). (As the standard value of) (step S422).

次いで、赤ん坊の泣き声が妻の許容レベル(すなわちグループの基準価値観)を超えた場合(ステップS425/Yes)、情報処理装置50は、父親を起こすよう促す情報提示、例えば赤ん坊の泣き声を増幅した聴覚ARの父親への提示を行う(ステップS428)。 Then, when the baby's cry exceeds the wife's permissible level (that is, the group's standard values) (step S425 / Yes), the information processing device 50 amplifies the information presentation urging the father, for example, the baby's cry. Present the auditory AR to the father (step S428).

(3−2−6.モノへの価値観)
また、モノへの愛情に関する価値観として、例えば子供にとって、ある特定のぬいぐるみが非常に大切であるが、母親からみた場合はどのぬいぐるみも同じ扱いになるといったことがある。本実施例では、モノ(ぬいぐるみなど)に対する子供と母親の価値観の差異が一定以上になった場合に、子供の価値観を可視化して、母親に(間接的に)行動変容を促すことを可能とする。
(3-2-6. Values for things)
Also, as a value regarding love for things, for example, a certain stuffed animal is very important for a child, but from the perspective of a mother, all stuffed animals are treated the same. In this embodiment, when the difference between the child's and mother's values for things (such as a stuffed animal) exceeds a certain level, the child's values are visualized to encourage the mother to (indirectly) change their behavior. Make it possible.

図26は、おもちゃに関する行動変容処理を示すフローチャートである。図26に示すように、まず、情報処理装置50は、カメラやマイク等により、おもちゃの使用頻度、おもちゃに関する言動、およびおもちゃの扱い等をセンシングし(ステップS433)、センサデータを解析する(ステップS436)。具体的には、例えば、カメラ映像や、(おもちゃから発信される)BLE/RFID等の電波の接近を利用して、使用頻度(子供がそのおもちゃで遊ぶ頻度)を測定することが可能である。また、マイクにより会話を集音し、どのおもちゃが大事か、どのおもちゃで遊ぶのが楽しいか、どのおもちゃが好きであるか等に関する発言を抽出、カウントしてもよい。また、カメラ映像、マイクによる会話音声、BLE/RFID等の電波を用いて、おもちゃの扱い(丁寧に扱っているか、雑に扱っているか)を測定することも可能である。 FIG. 26 is a flowchart showing a behavior change process relating to a toy. As shown in FIG. 26, first, the information processing device 50 senses the frequency of use of the toy, the behavior of the toy, the handling of the toy, etc. by a camera, a microphone, or the like (step S433), and analyzes the sensor data (step). S436). Specifically, for example, it is possible to measure the frequency of use (frequency of children playing with the toy) by using the approach of radio waves such as camera images and BLE / RFID (transmitted from the toy). .. You may also collect conversations with a microphone and extract and count remarks about which toys are important, which toys are fun to play with, which toys you like, and so on. It is also possible to measure the handling of toys (whether they are handled carefully or roughly) using camera images, conversational voices from microphones, and radio waves such as BLE / RFID.

次に、おもちゃに対する子供の執着度(愛情度など)が高い場合(ステップS439/Yes)、情報処理装置50は、当該おもちゃを、大事なおもちゃ(愛情度が高いおもちゃ)として登録する(ステップS442)。 Next, when the child's attachment to the toy (such as the degree of affection) is high (step S439 / Yes), the information processing device 50 registers the toy as an important toy (toy with a high degree of affection) (step S442). ).

次いで、母親がおもちゃを整理するタイミングとなった場合(ステップS445/Yes)、例えば母親が捨てようとしているおもちゃが子供の愛情度が高いおもちゃである場合、子供の価値観を母親に情報提示、例えば子供がおもちゃを大事にしている画像等を母親のスマートフォン等に提示する(ステップS448)。母親がおもちゃを整理するタイミングは、例えばカメラ映像の解析や、マイクにより集音した音声の解析(「おもちゃが多すぎるから、整理するわよ」、「これ捨てるわよ」等の発言)により判断可能である。また、母親がどのおもちゃを捨てようとしているかは、例えば、カメラ映像の解析や、おもちゃに設けられたBLE/RFID等のタグから発信される電波の解析(おもちゃがゴミ箱等に捨てられて検知できなくなる)等に基づいて判断可能である。 Next, when it is time for the mother to sort out the toys (step S445 / Yes), for example, when the toy that the mother is trying to throw away is a toy with a high degree of affection for the child, information on the child's values is presented to the mother. For example, an image of a child cherishing a toy is presented to a mother's smartphone or the like (step S448). The timing for the mother to sort out the toys is determined by, for example, analysis of the camera image and analysis of the sound collected by the microphone (statements such as "There are too many toys, so I'll sort them out" and "I'll throw them away"). It is possible. In addition, which toys the mother is trying to throw away can be detected, for example, by analyzing the camera image or analyzing the radio waves transmitted from tags such as BLE / RFID provided on the toys (the toys are thrown into a trash box or the like and can be detected. It can be judged based on such things as disappearing).

(3−2−7.総合価値観)
次いで、価値観の一例として、どのような価値観を重要視しているかという価値観(総合価値観)も想定される。総合価値観を算出する際にベースとなる価値観(ベース価値観)は、例えば、上述した「食事を大切にする」、「家族皆で家事を手伝う」、「美観(部屋の整頓状態)」、「育児」、「モノへの愛情」等が挙げられる。これらのベース価値観に基づいて、各メンバーがどのような価値観(総合価値観の候補となる)を重要視しているかという価値観(すなわち、「総合価値観」)を推定し、例えばグループの平均を総合価値観とする。そして、グループの総合価値観と個人(メンバー)の総合価値観とにずれが生じている場合に、メンバーにグループの総合価値観を提示等して行動変容(グループの総合価値観に合わせること等)を促すことが可能である。
(3-2-7. Comprehensive values)
Next, as an example of values, the values (comprehensive values) of what kind of values are emphasized are also assumed. The values (base values) that are the basis for calculating the total values are, for example, the above-mentioned "value meals", "help the whole family with housework", and "aesthetics (room tidy state)". , "Childcare", "love for things", etc. Based on these base values, we estimate the values (that is, "comprehensive values") of what values each member attaches importance to (candidates for total values), for example, a group. The average of is the total value. Then, when there is a discrepancy between the overall values of the group and the overall values of the individual (member), behavior change (matching with the overall values of the group, etc.) by presenting the overall values of the group to the members, etc. ) Can be prompted.

図27は、総合価値観に関する行動変容処理を示すフローチャートである。図27に示すように、まず、情報処理装置50は、個人(グループの各メンバー)のベース価値観を推定する(ステップS453)。 FIG. 27 is a flowchart showing the behavior change process related to the comprehensive values. As shown in FIG. 27, first, the information processing apparatus 50 estimates the base values of an individual (each member of the group) (step S453).

次に、情報処理装置50は、個人のベース価値観の値を正規化する(ステップS456)。 Next, the information processing device 50 normalizes the value of the individual base value (step S456).

次いで、情報処理装置50は、価値観の関連テーブルを参照し、対応づけられた総合価値観の重み付け値に従って、総合価値観毎の値を算出する(ステップS459)。ここで、価値観の関連テーブルの一例を下記表9に示す。下記表9に示すように、総合価値観の候補としては、例えば、「正直」、「思いやり」、「社会」、「自分らしさ」が挙げられる。 Next, the information processing apparatus 50 refers to the related table of the values and calculates the value for each total value according to the weighted value of the associated total values (step S459). Here, an example of a related table of values is shown in Table 9 below. As shown in Table 9 below, candidates for comprehensive values include, for example, "honesty," "compassion," "society," and "personality."

Figure 2019146200
Figure 2019146200

次に、情報処理装置50は、最も高い値(すなわち最も重要視している価値観)を総合価値観とする(ステップS462)。ここで、図28に、上記表9に示す重み付けを参照して算出したメンバー個人の総合価値観毎の値の一例を示す。図28に示す例では、「思いやり」の価値観の値が最も高くなっているため、この価値観が、メンバーが最も重要視している価値観、すなわちメンバーの「総合価値観」となる。 Next, the information processing apparatus 50 sets the highest value (that is, the most important value) as the total value (step S462). Here, FIG. 28 shows an example of the value for each total value of each member calculated with reference to the weighting shown in Table 9 above. In the example shown in FIG. 28, since the value of the value of "compassion" is the highest, this value becomes the value that the member places the highest importance on, that is, the "total value" of the member.

そして、メンバーの総合価値観がグループ平均の総合価値観からずれている場合(ステップS465/Yes)、情報処理装置50は、総合価値観の変化をメンバーに提示する(ステップS468)。 Then, when the total values of the members deviate from the total values of the group average (step S465 / Yes), the information processing apparatus 50 presents the change of the total values to the members (step S468).

<<4.第3の実施例(課題の推定と行動変容)>>
次いで、第3の実施例によるマスターシステム10−3について、図29〜図35を参照して説明する。
<< 4. Third Example (Problem Estimate and Behavior Change) >>
Next, the master system 10-3 according to the third embodiment will be described with reference to FIGS. 29 to 35.

本実施例では、家族から収集されたデータを基に、例えば団らん時間が不足であるという課題を推定されると(課題の推定に関しては第1の実施例と同様)、当該課題を解決するため食事時間帯を合わせることを行動規範とし、家族の生活リズム(各メンバーの夕食時間帯等)を検出し、各人の食事時間が合うように間接的に生活リズムの行動変容を促す。 In this embodiment, for example, when the problem of insufficient grouping time is estimated based on the data collected from the family (the problem estimation is the same as in the first example), in order to solve the problem. The code of conduct is to match the meal time zone, detect the family life rhythm (dining time zone of each member, etc.), and indirectly promote the behavior change of the life rhythm so that each person's meal time matches.

図29は、第3の実施例によるマスターシステム10−3の構成の一例を示すブロック図である。図29に示すように、マスターシステム10−3は、情報処理装置70、センサ80(またはセンサシステム)、および出力デバイス82(または出力システム)を含む。 FIG. 29 is a block diagram showing an example of the configuration of the master system 10-3 according to the third embodiment. As shown in FIG. 29, the master system 10-3 includes an information processing device 70, a sensor 80 (or a sensor system), and an output device 82 (or an output system).

(センサ80)
センサ80は、第1の実施例によるセンサ群と同様であり、ユーザに関するあらゆる情報を取得する装置/システムである。例えば、部屋に設置されたカメラやマイク等の環境側センサや、ユーザが所有するスマートフォンやウェアラブルデバイスに設けられるモーションセンサ(加速度センサ、ジャイロセンサ、地磁気センサ)や生体センサ、位置センサ、カメラ、マイク等のユーザ側の各種センサが含まれる。また、ネットワーク上からユーザの行動履歴(移動履歴、SNS、ショッピング履歴等)を取得してもよい。センサ60により、日常的に特定コミュニティ内メンバーの行動をセンシングし、情報処理装置70に収集される。
(Sensor 80)
The sensor 80 is similar to the sensor group according to the first embodiment, and is a device / system that acquires all information about the user. For example, environment-side sensors such as cameras and microphones installed in rooms, motion sensors (accelerometers, gyro sensors, geomagnetic sensors), biosensors, position sensors, cameras, and microphones installed in user-owned smartphones and wearable devices. Various sensors on the user side such as are included. Further, the user's action history (movement history, SNS, shopping history, etc.) may be acquired from the network. The sensor 60 senses the behavior of members in the specific community on a daily basis and collects it in the information processing device 70.

(出力デバイス82)
出力デバイス82は、行動変容を促す表出装置であって、第1の実施例と同様に、スマートフォン、タブレット端末、携帯電話端末、PC、ウェアラブルデバイス、TV、照明装置、スピーカ、振動デバイス等の広くIoTデバイスが含まれ得る。
(Output device 82)
The output device 82 is a display device that promotes behavior change, and is a smartphone, a tablet terminal, a mobile phone terminal, a PC, a wearable device, a TV, a lighting device, a speaker, a vibration device, or the like, as in the first embodiment. A wide range of IoT devices can be included.

(情報処理装置70)
情報処理装置70(生活リズム導出サーバ)は、通信部710、制御部700、および記憶部720を有する。情報処理装置70は、ネットワーク上のクラウドサーバにより構成されてもよいし、中間サーバやエッジサーバにより構成されてもよいし、ホームエージェント等の家庭に置かれる専用端末により構成されてもよいし、PCやスマートフォン等の情報処理端末により構成されてもよい。
(Information processing device 70)
The information processing device 70 (life rhythm derivation server) has a communication unit 710, a control unit 700, and a storage unit 720. The information processing device 70 may be configured by a cloud server on the network, an intermediate server or an edge server, or a dedicated terminal placed in a home such as a home agent. It may be composed of an information processing terminal such as a PC or a smartphone.

・制御部700
制御部700は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置70内の動作全般を制御する。制御部700は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、制御部700は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。
Control unit 700
The control unit 700 functions as an arithmetic processing unit and a control device, and controls the overall operation in the information processing device 70 according to various programs. The control unit 700 is realized by an electronic circuit such as a CPU (Central Processing Unit) or a microprocessor. Further, the control unit 700 may include a ROM (Read Only Memory) for storing programs to be used, calculation parameters, and the like, and a RAM (Random Access Memory) for temporarily storing parameters and the like that change as appropriate.

また、本実施形態による制御部700は、人物認識部701、動作認識部702、リズム導出部703、かい離検出部704、かい離原因推定部705、および応答生成部706としても機能する。 Further, the control unit 700 according to the present embodiment also functions as a person recognition unit 701, a motion recognition unit 702, a rhythm derivation unit 703, a separation detection unit 704, a separation cause estimation unit 705, and a response generation unit 706.

人物認識部701は、カメラ画像の顔認識等により人物の認識を行う。動作認識部702は、カメラ画像や、各種センサデータに基づいて、各ユーザの動作(帰宅や食事、入浴、くつろぎ時間、就寝等)を認識する。具体的には、例えば家のセンサ(カメラ、マイク等)により、家族の帰宅時間、食事時間等をセンシングし、帰宅の時間、食事を取っている時間等を記録する。また、図30に示すように、一緒に食事を取った人、および、その人数等の記録も取る。 The person recognition unit 701 recognizes a person by face recognition of a camera image or the like. The motion recognition unit 702 recognizes each user's motion (going home, eating, bathing, relaxing time, going to bed, etc.) based on the camera image and various sensor data. Specifically, for example, a home sensor (camera, microphone, etc.) senses the family's return time, meal time, etc., and records the return time, meal time, and the like. In addition, as shown in FIG. 30, a record of the people who ate together and the number of people is also recorded.

リズム導出部703は、上記家族の行動記録に基づいて、家族の生活リズム(例えば曜日毎の帰宅時間や食事時間、入浴時間等の傾向)を算出する。 The rhythm derivation unit 703 calculates the family life rhythm (for example, the tendency of returning home time, meal time, bathing time, etc. for each day of the week) based on the above-mentioned family behavior record.

かい離検出部704は、家族の各メンバーの生活リズムを比較し、かい離している部分を検出する。例えば、家族の夕食時間のリズムに、父親の夕食時間だけが大きく外れる頻度が増えた場合、かい離を検出する。 The separation detection unit 704 compares the life rhythms of each member of the family and detects the separation portion. For example, if the rhythm of the family's supper time is significantly different from the father's supper time, the separation is detected.

かい離原因推定部705は、かい離原因を推定する。例えば父親の夕食時間だけが大きく外れる頻度が増えている場合、父親の夕食時間が外れる原因を推定する。原因の推定には、例えば因果解析の手法、あるいはベイズ推定を用いる方法が挙げられる。例えば毎週木曜日の帰宅時間が遅いために家族と一緒に夕食を取ることができない場合、帰宅時間が遅いのは会社の定例会議が毎週木曜にあることが原因であると推定できる。 The separation cause estimation unit 705 estimates the separation cause. For example, if only the father's supper time is significantly off, the cause of the father's supper time is estimated. Examples of the cause estimation include a method of causal analysis or a method using Bayesian estimation. For example, if you cannot have dinner with your family because you come home late every Thursday, you can presume that the late return time is due to the company's regular meetings every Thursday.

応答生成部706は、生活リズムを合わせるよう間接的に行動変容を促す応答を生成する。例えば上述したように父親だけが木曜に夕食を一緒に取れないことが多い場合、原因が定例会議にあると分析できたため、「木曜日の定例会議を変更したらどうだろう?」といったアドバイスをPC画面等から父親に提示する。このアドバイスに従うことで、結果的に、夕食を家族と取ることが可能となる。なお、アドバイスの提示は、メールやSNSなどのメッセージ機能を利用して伝達してもよい。 The response generation unit 706 indirectly generates a response that promotes behavior change so as to match the rhythm of life. For example, as mentioned above, if only the father often cannot have dinner together on Thursday, it can be analyzed that the cause is the regular meeting, so advice such as "What if I change the regular meeting on Thursday?" Is given on the PC screen. Present it to the father. By following this advice, you will eventually be able to have dinner with your family. The presentation of advice may be transmitted using a message function such as e-mail or SNS.

ここで、図31に、生活リズムのかい離について説明する図を示す。図31には、父親、母親、および子供の夕食の食事時間と、家族の基準となる生活リズム(行動規範)が示される。家族の基準となる生活リズムは、例えば曜日毎の家族の夕食時刻の累積平均時刻である。図31に示すように、父親、母親、および子供の夕食の食事時間の生活リズムが算出された場合、木曜の父親の食事時間だけが大きくかい離していることが分かる。この場合、原因推定により、例えば定例会議により帰宅が遅くなって食事時間がずれていることが分かる。一方で、火曜日の家族の夕食時間は他の曜日よりも遅いことが分かる。この場合、定例会議を火曜日に変更することで、木曜は早めの食事時間に間に合うと共に、火曜は遅めの食事時間であるため定例会議により帰宅が遅くなっても夕食を一緒に食べられる可能性がある。そこで、応答生成部706は、「木曜の定例会議を火曜日に変更してみては?」といった具体的なアドバイスを生成することが可能である。なお、図31に示すグラフとアドバイスを含む画像7001を、アドバイスとして父親に提示してもよい。 Here, FIG. 31 shows a diagram for explaining the difference in life rhythm. FIG. 31 shows the meal times for dinner for fathers, mothers, and children, and the standard life rhythm (code of conduct) for families. The standard life rhythm of a family is, for example, the cumulative average time of the family's dinner time for each day of the week. As shown in FIG. 31, when the life rhythms of the father, mother, and child's dinner meal times are calculated, it can be seen that only the father's meal times on Thursday are far apart. In this case, it can be seen from the cause estimation that, for example, due to a regular meeting, the return home is delayed and the meal time is shifted. On the other hand, it turns out that the family dinner time on Tuesday is later than the other days. In this case, by changing the regular meeting to Tuesday, it is possible to have dinner together even if the regular meeting delays the return home because Thursday is an early meal time and Tuesday is a late meal time. There is. Therefore, the response generation unit 706 can generate specific advice such as "Why don't you change the regular meeting on Thursday to Tuesday?" The image 7001 including the graph and advice shown in FIG. 31 may be presented to the father as advice.

(通信部710)
通信部710は、有線または無線により、センサ80や出力デバイス82等の外部装置と接続し、データの送受信を行う。通信部710は、例えば有線/無線LAN(Local Area Network)、またはWi−Fi(登録商標)、Bluetooth(登録商標)、携帯通信網(LTE(Long Term Evolution)、3G(第3世代の移動体通信方式))等により外部装置と通信接続する。
(Communication unit 710)
The communication unit 710 connects to an external device such as the sensor 80 or the output device 82 by wire or wirelessly to transmit / receive data. The communication unit 710 is, for example, a wired / wireless LAN (Local Area Network), or Wi-Fi (registered trademark), Bluetooth (registered trademark), mobile communication network (LTE (Long Term Evolution)), 3G (third generation mobile body). Communication connection with an external device by means of communication method)).

(記憶部720)
記憶部720は、制御部700の処理に用いられるプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、および適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)により実現される。
(Memory unit 720)
The storage unit 720 is realized by a ROM (Read Only Memory) that stores programs and arithmetic parameters used for processing of the control unit 700, and a RAM (Random Access Memory) that temporarily stores parameters that change as appropriate.

以上、本実施例によるマスターシステム10−3の構成について具体的に説明した。 The configuration of the master system 10-3 according to this embodiment has been specifically described above.

<4−2.動作処理>
続いて、以上説明したマスターシステム10−3の動作処理をフローチャートを参照して説明する。
<4-2. Operation processing>
Subsequently, the operation processing of the master system 10-3 described above will be described with reference to the flowchart.

図32は、夕食時間のリズムを生成する動作処理を示すフローチャートである。図32に示すように、まず、情報処理装置70は、カメラ等により、食卓にいる人物を認識し(ステップS503)、動作解析により「食事中」であることを認識する(ステップS506)。 FIG. 32 is a flowchart showing an operation process for generating a rhythm of dinner time. As shown in FIG. 32, first, the information processing apparatus 70 recognizes a person at the dining table by a camera or the like (step S503), and recognizes that the person is “during a meal” by motion analysis (step S506).

次に、食事を取っているのが誰であるかを認識できた場合(ステップS509/Yes)、情報処理装置70は、家族のメンバーの夕食の時刻を記録する(ステップS512)。家族のメンバーの夕食時刻の記録の一例を下記表10に示す。 Next, when it is possible to recognize who is eating (step S509 / Yes), the information processing apparatus 70 records the dinner time of the family members (step S512). Table 10 below shows an example of a record of dinner times for family members.

Figure 2019146200
Figure 2019146200

次いで、(1日の常識的な)夕食の時間が終了した場合(ステップS515/Yes)、情報処理装置50は、過去の平均夕食時刻に本日の家族の夕食時刻のデータを加え、曜日ごとの累積平均時刻を算出(夕食時刻のリズムを生成)する(ステップS518)。ここで、曜日ごとの累積平均時刻の算出式の一例を図33に示す。例えば図33に示す算出式により、曜日ごとの累積平均時刻、すなわち図31に示す家族の基準となる生活リズムを算出してもよい。 Then, when the (common sense of the day) supper time is over (step S515 / Yes), the information processing apparatus 50 adds the data of today's family supper time to the past average supper time, and for each day. The cumulative average time is calculated (the rhythm of the dinner time is generated) (step S518). Here, an example of the calculation formula of the cumulative average time for each day of the week is shown in FIG. 33. For example, the cumulative average time for each day of the week, that is, the standard life rhythm of the family shown in FIG. 31, may be calculated by the calculation formula shown in FIG.

図34は、生活リズムに基づいてアドバイスを生成するフローチャートである。図34に示すように、まず、情報処理装置70は、家族の生活リズムのかい離を検出する。具体的には、例えば情報処理装置70は、過去一定期間(例えば3カ月)のメンバーの夕食の時刻と、曜日ごとの累積平均時刻との平均2乗誤差を算出する(ステップS523)。 FIG. 34 is a flowchart for generating advice based on the rhythm of life. As shown in FIG. 34, first, the information processing device 70 detects the deviation of the family life rhythm. Specifically, for example, the information processing apparatus 70 calculates an average square error between the dinner time of a member in the past fixed period (for example, 3 months) and the cumulative average time for each day of the week (step S523).

次に、算出した誤差が所定の閾値を超えた場合(ステップS526/Yes)、情報処理装置70は、夕食時刻が家族の夕食時刻とかい離する理由(かい離原因)を推定し、行動変容を促す間接表現を選択する(ステップS529)。かい離原因の推定は、例えば因果情報解析の手法により推定してもよい。 Next, when the calculated error exceeds a predetermined threshold value (step S526 / Yes), the information processing device 70 estimates the reason why the supper time deviates from the family supper time (cause of the separation) and promotes behavior change. The indirect representation is selected (step S529). The cause of the separation may be estimated by, for example, a method of causal information analysis.

そして、情報処理装置70は、選択した間接表現によるメッセージを送出する(ステップS532)。 Then, the information processing device 70 sends a message in the selected indirect expression (step S532).

なお、夕食の時間を合わせるための行動変容は、夕食の時間がかい離している父親だけへの促しに限定されず、他の家族への促しを行って結果的に家族全員で夕食が取れるようにしてもよい。例えば父親の帰宅時間に家族が最寄駅付近にいるように家族の生活リズムを変容させる。具体的には、例えば図31に示す生活リズムに基づいて、マスターシステム10−3は、木曜日の夕方に、母親に「お子さんと駅まで外出してみたら」「駅前の○○というお店が話題のようですよ」等とアドバイスする。マスターの言葉に従って母親が子供と駅前で買い物をしていると、帰宅途中の父親から「もうすぐ駅だよ」との連絡が入り、母親は「あら、ちょうど今駅近くに来てるわよ」等の返信を行って家族が自然に合流し、駅近くのレストラン等で皆で夕食を取ることが可能となる。 In addition, the behavior change for adjusting the supper time is not limited to the urge only to the father who is separated from the supper time, but to urge other families so that the whole family can have dinner as a result. It may be. For example, it transforms the family's life rhythm so that the family is near the nearest station when the father returns home. Specifically, for example, based on the life rhythm shown in Fig. 31, the master system 10-3 tells the mother "If you go out to the station with your child" on Thursday evening, "A shop called XX in front of the station It seems to be a topic. " When the mother was shopping in front of the station with her child according to the master's words, the father on the way home contacted me, "It's about to be the station," and the mother said, "Oh, I'm just near the station." The family will join naturally by replying, and everyone will be able to have dinner at a restaurant near the station.

また、本実施例では生活のリズムとして「夕食の時間」を例として挙げたが、本開示はこれに限定されず、例えば、起床時刻、就寝時間、勤務時間、運動時間、またはメディア視聴時間等も想定される。 Further, in this embodiment, "dinner time" is taken as an example of the rhythm of life, but the present disclosure is not limited to this, and for example, wake-up time, bedtime, working time, exercise time, media viewing time, etc. Is also assumed.

<4−3.変形例>
上述した実施例では、生活リズムを合わせることを目的としてたが、本開示はこれに限定されず、例えば敢えて生活リズムがずれる(非同期)よう間接的にアドバイスしてもよい。例えば、入浴時間やトイレ時間、洗面台を利用する時間(身支度)などは、ずれていた方が好ましい。
<4-3. Modification example>
In the above-described embodiment, the purpose is to match the life rhythm, but the present disclosure is not limited to this, and for example, indirectly advice may be given so that the life rhythm shifts (asynchronously). For example, it is preferable that the bathing time, the toilet time, and the time for using the wash basin (dressing) are different.

情報処理装置70は、下記表11に示すような、生活リズムが揃って来た場合に起きる事象等の知識テーブルを有し、下記表を参照し、コミュニティメンバーの生活リズムを敢えてずらすという行動変容を間接的にアドバイスする。 The information processing device 70 has a knowledge table of events and the like that occur when the life rhythms are aligned, as shown in Table 11 below, and refers to the table below to change the behavior of the community members by intentionally shifting the life rhythms. Indirectly advise.

Figure 2019146200
Figure 2019146200

想定シーンとしては、例えば、マスターシステム10−3は、家に設置されたカメラやマイク等のセンサにより日常的に家族のメンバーの行動センシングを行い、状況を記録していることを前提とする。この際、例えばリビングに家族の大部分(父親、母親、長女等)が集まってテレビを見ている状況を検知し、テレビを見終わった後にはいつも風呂場が混雑する傾向にあることを既に知っている場合(学習して得てもよいし、予め登録されていてもよい。表11参照)、マスターシステム10−3は、テレビを見ずに自室で一人でいる長男に対して「今なら、ゆっくりお風呂に入れますよ」と通知を行う。通知は、スマートフォン、プロジェクター、スピーカ等の各種出力デバイスにより行い得る。自室で勉強をしていた長男は、「ちょうどよかった。お風呂でリラックスしたいと思っていたんだ」と、勉強に区切りをつけて入浴することができる。 As an assumed scene, for example, it is premised that the master system 10-3 records the situation by routinely sensing the behavior of family members by sensors such as cameras and microphones installed in the house. At this time, for example, the situation where most of the family (father, mother, eldest daughter, etc.) gathers in the living room and watches TV is detected, and it has already been found that the bathroom tends to be crowded after watching TV. If you know (you can learn and get it, or you can pre-register it, see Table 11), Master System 10-3 tells the eldest son, who is alone in his room without watching TV, "now. Then, I'll take a bath slowly. " Notification can be performed by various output devices such as smartphones, projectors, and speakers. The eldest son, who was studying in his room, said, "It was just right. I wanted to relax in the bath," and I can take a bath with a break in my studies.

図35は、本実施例の変形例による事象の重複に応じて生活リズムの調整(行動変容)を促すフローチャートである。図35に示すように、まず、情報処理装置70は、家族の状態(行動)を認識し(ステップS543)、上記表11に示すようなテーブルに登録されている行動(事象を引き起こす原因となる行動)であるか否かを判断する(ステップS546)。例えば、多数の人物の起床時刻の重複、テレビ視聴時間の重複等が想定される。 FIG. 35 is a flowchart that promotes adjustment (behavior change) of the life rhythm according to the duplication of events according to the modified example of this embodiment. As shown in FIG. 35, first, the information processing device 70 recognizes the state (behavior) of the family (step S543), and causes an action (event) registered in the table as shown in Table 11 above. It is determined whether or not it is an action (step S546). For example, it is assumed that the wake-up times of many people overlap, the TV viewing time overlaps, and the like.

次に、行動の重複が閾値以上である場合(ステップS549/Yes)、情報処理装置70は、アドバイス対象者を選択する(ステップS552)。重複行動を取っている者から選択してもよいし、重複行動を取っていない者から選択してもよい。どのような条件で対象者を選択するかは、予想される事象ごとに表11に示すように予め登録しておいてもよい。 Next, when the duplication of actions is equal to or greater than the threshold value (step S549 / Yes), the information processing apparatus 70 selects the advise target person (step S552). You may choose from those who are taking duplicate actions, or you may choose from those who are not taking duplicate actions. The conditions under which the target person is selected may be registered in advance for each expected event as shown in Table 11.

そして、情報処理装置70は、選択した対象者に、テーブル(表)に登録されているアドバイスを実行する(ステップS555)。 Then, the information processing device 70 executes the advice registered in the table (table) to the selected target person (step S555).

以上説明した例では、上述したように、家の中に多数のカメラやマイクが設置されていて、家族の状況を日常的に把握している場合を想定したが、家の中に多数のカメラやマイクを設置していなくても、例えば、ユーザが所持しているスマートフォンやスマートバンド等のカメラ、マイク、モーションセンサ等からの情報に基づいて把握することも可能である。 In the example described above, as described above, it is assumed that a large number of cameras and microphones are installed in the house to grasp the situation of the family on a daily basis, but a large number of cameras are installed in the house. Even if a microphone or microphone is not installed, it is possible to grasp the information based on information from, for example, a camera, a microphone, a motion sensor, or the like of a smartphone or smart band owned by the user.

例えば、テレビを視聴していることや、夕食時間も、スマートフォンのカメラやマイクでセンシングすることが可能である。また、どの部屋にいるのかといった場所情報も、スマートフォンの電波等により取得可能である(これにより、風呂場、トイレ、リビング等、場所が分かると、何をしているかも大方予想し得る)。 For example, it is possible to sense watching TV and dinner time with a smartphone camera or microphone. In addition, location information such as which room you are in can be obtained from the radio waves of your smartphone (this allows you to roughly predict what you are doing if you know the location such as the bathroom, toilet, and living room).

また、トイレに入っているかどうかは、例えばトイレに持ち込んだスマートフォンのマイクにより水を流す音を検知したり、音の反響が大きくエコーの間隔が短いことを検知して小型の密閉された空間、すなわちトイレ(または風呂場)にいると判断することも可能である。 In addition, whether or not you are in the toilet is determined by, for example, the sound of flowing water being detected by the microphone of the smartphone brought into the toilet, or by detecting that the echo is large and the echo interval is short, a small enclosed space. That is, it is possible to determine that the person is in the toilet (or bathroom).

また、ユーザが入浴前か、入浴したかは、スマートフォンのカメラに写るユーザの姿(髪が濡れている、パジャマを着ている、ドライヤーをかけている等)からも判断できる。 In addition, whether the user has taken a bath before or after taking a bath can be determined from the appearance of the user (wet hair, wearing pajamas, wearing a hair dryer, etc.) in the camera of the smartphone.

<<5.ハードウェア構成>>
最後に、図36を参照して、本実施形態に係る情報処理装置のハードウェア構成について説明する。図36は、本実施形態に係る情報処理装置20、情報処理装置50、または情報処理装置70のハードウェア構成の一例を示すブロック図である。なお、図36に示す情報処理装置800は、例えば、情報処理装置20、情報処理装置50、または情報処理装置70を実現し得る。本実施形態に係る情報処理装置20、情報処理装置50、または情報処理装置70による情報処理は、ソフトウェアと、以下に説明するハードウェアとの協働により実現される。
<< 5. Hardware configuration >>
Finally, with reference to FIG. 36, the hardware configuration of the information processing apparatus according to the present embodiment will be described. FIG. 36 is a block diagram showing an example of the hardware configuration of the information processing device 20, the information processing device 50, or the information processing device 70 according to the present embodiment. The information processing device 800 shown in FIG. 36 can realize, for example, the information processing device 20, the information processing device 50, or the information processing device 70. The information processing by the information processing device 20, the information processing device 50, or the information processing device 70 according to the present embodiment is realized by the cooperation between the software and the hardware described below.

図36に示すように、情報処理装置800は、例えば、CPU871と、ROM872と、RAM873と、ホストバス874と、ブリッジ875と、外部バス876と、インターフェース877と、入力装置878と、出力装置879と、ストレージ880と、ドライブ881と、接続ポート882と、通信装置883と、を有する。なお、ここで示すハードウェア構成は一例であり、構成要素の一部が省略されてもよい。また、ここで示される構成要素以外の構成要素をさらに含んでもよい。 As shown in FIG. 36, the information processing apparatus 800 includes, for example, a CPU 871, a ROM 872, a RAM 873, a host bus 874, a bridge 875, an external bus 876, an interface 877, an input device 878, and an output device 879. It has a storage 880, a drive 881, a connection port 882, and a communication device 883. The hardware configuration shown here is an example, and some of the components may be omitted. Further, components other than the components shown here may be further included.

(CPU871)
CPU871は、例えば、演算処理装置又は制御装置として機能し、ROM872、RAM873、ストレージ880、又はリムーバブル記録媒体901に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。
(CPU871)
The CPU 871 functions as, for example, an arithmetic processing device or a control device, and controls all or a part of the operation of each component based on various programs recorded in the ROM 872, the RAM 873, the storage 880, or the removable recording medium 901.

具体的には、CPU871は、情報処理装置20、情報処理装置50、または情報処理装置70内の動作処理を実現する。 Specifically, the CPU 871 realizes the operation processing in the information processing device 20, the information processing device 50, or the information processing device 70.

(ROM872、RAM873)
ROM872は、CPU871に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM873には、例えば、CPU871に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
(ROM872, RAM873)
The ROM 872 is a means for storing a program read into the CPU 871 and data used for calculation. The RAM 873 temporarily or permanently stores, for example, a program read into the CPU 871 and various parameters that change as appropriate when the program is executed.

(ホストバス874、ブリッジ875、外部バス876、インターフェース877)
CPU871、ROM872、RAM873は、例えば、高速なデータ伝送が可能なホストバス874を介して相互に接続される。一方、ホストバス874は、例えば、ブリッジ875を介して比較的データ伝送速度が低速な外部バス876に接続される。また、外部バス876は、インターフェース877を介して種々の構成要素と接続される。
(Host bus 874, Bridge 875, External bus 876, Interface 877)
The CPU 871, ROM 872, and RAM 873 are connected to each other via, for example, a host bus 874 capable of high-speed data transmission. On the other hand, the host bus 874 is connected to the external bus 876, which has a relatively low data transmission speed, via, for example, the bridge 875. Further, the external bus 876 is connected to various components via the interface 877.

(入力装置878)
入力装置878には、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力装置878としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。また、入力装置878には、マイクロフォンなどの音声入力装置が含まれる。
(Input device 878)
For the input device 878, for example, a mouse, a keyboard, a touch panel, buttons, switches, levers, and the like are used. Further, as the input device 878, a remote controller (hereinafter, remote controller) capable of transmitting a control signal using infrared rays or other radio waves may be used. Further, the input device 878 includes a voice input device such as a microphone.

(出力装置879)
出力装置879は、例えば、CRT(Cathode Ray Tube)、LCD、又は有機EL等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。また、本開示に係る出力装置879は、触覚刺激を出力することが可能な種々の振動デバイスを含む。
(Output device 879)
The output device 879 provides the user with acquired information such as a display device such as a CRT (Cathode Ray Tube), an LCD, or an organic EL, an audio output device such as a speaker or a headphone, a printer, a mobile phone, or a facsimile. It is a device that can notify visually or audibly. Further, the output device 879 according to the present disclosure includes various vibration devices capable of outputting a tactile stimulus.

(ストレージ880)
ストレージ880は、各種のデータを格納するための装置である。ストレージ880としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。
(Storage 880)
The storage 880 is a device for storing various types of data. As the storage 880, for example, a magnetic storage device such as a hard disk drive (HDD), a semiconductor storage device, an optical storage device, an optical magnetic storage device, or the like is used.

(ドライブ881)
ドライブ881は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体901に記録された情報を読み出し、又はリムーバブル記録媒体901に情報を書き込む装置である。
(Drive 881)
The drive 881 is a device that reads information recorded on a removable recording medium 901 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, or writes information on the removable recording medium 901.

(リムーバブル記録媒体901)
リムーバブル記録媒体901は、例えば、DVDメディア、Blu−ray(登録商標)メディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体901は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。
(Removable recording medium 901)
The removable recording medium 901 is, for example, a DVD media, a Blu-ray (registered trademark) media, an HD DVD media, various semiconductor storage media, and the like. Of course, the removable recording medium 901 may be, for example, an IC card equipped with a non-contact type IC chip, an electronic device, or the like.

(接続ポート882)
接続ポート882は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS−232Cポート、又は光オーディオ端子等のような外部接続機器902を接続するためのポートである。
(Connection port 882)
The connection port 882 is a port for connecting an external connection device 902 such as a USB (Universal Serial Bus) port, an IEEE1394 port, a SCSI (Small Computer System Interface), an RS-232C port, or an optical audio terminal. is there.

(外部接続機器902)
外部接続機器902は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。外部接続機器902は、例えば環境側センサ30、ユーザ側センサ32、出力デバイス36、センサ60、出力デバイス62、センサ80、出力デバイス82であってもよい。
(External connection device 902)
The externally connected device 902 is, for example, a printer, a portable music player, a digital camera, a digital video camera, an IC recorder, or the like. The externally connected device 902 may be, for example, an environment side sensor 30, a user side sensor 32, an output device 36, a sensor 60, an output device 62, a sensor 80, and an output device 82.

(通信装置883)
通信装置883は、ネットワークに接続するための通信デバイスであり、例えば、有線又は無線LAN、Wi−Fi(登録商標)、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は各種通信用のモデム等である。通信装置883を介して、例えば図5に示すサービスサーバ34と接続してもよい。
(Communication device 883)
The communication device 883 is a communication device for connecting to a network, for example, a communication card for wired or wireless LAN, Wi-Fi (registered trademark), Modem (registered trademark), or WUSB (Wireless USB), optical communication. A router for ADSL (Asymmetric Digital Subscriber Line), a modem for various communications, and the like. For example, the service server 34 shown in FIG. 5 may be connected via the communication device 883.

<<6.まとめ>>
上述したように、本開示の実施形態による情報処理システムでは、コミュニティの行動規範を自動生成し、自発的行動変容を促すことが可能となる。
<< 6. Summary >>
As described above, in the information processing system according to the embodiment of the present disclosure, it is possible to automatically generate a code of conduct for the community and promote spontaneous behavior change.

以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。 Although the preferred embodiments of the present disclosure have been described in detail with reference to the accompanying drawings, the present technology is not limited to such examples. It is clear that a person having ordinary knowledge in the technical field of the present disclosure can come up with various modifications or modifications within the scope of the technical ideas described in the claims. Of course, it is understood that the above also belongs to the technical scope of the present disclosure.

例えば、上述した情報処理装置20、情報処理装置50、または情報処理装置70に内蔵されるCPU、ROM、およびRAM等のハードウェアに、情報処理装置20、情報処理装置50、または情報処理装置70の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。 For example, the information processing device 20, the information processing device 50, or the information processing device 70 is equipped with hardware such as a CPU, ROM, and RAM built in the information processing device 20, the information processing device 50, or the information processing device 70 described above. It is also possible to create a computer program to demonstrate the functions of. Also provided is a computer-readable storage medium that stores the computer program.

また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。 In addition, the effects described herein are merely explanatory or exemplary and are not limited. That is, the techniques according to the present disclosure may exhibit other effects apparent to those skilled in the art from the description herein, in addition to or in place of the above effects.

なお、本技術は以下のような構成も取ることができる。
(1)
特定コミュニティに属するメンバーをセンシングすることにより得られたセンサデータを取得し、
前記取得されたセンサデータに基づき、前記特定コミュニティにおける行動規範を自動生成し、
前記行動規範に基づき、前記メンバーが行動変容するように促す、
制御を行う制御部を備える、情報処理装置。
(2)
前記制御部は、
前記取得されたセンサデータに基づき、前記特定コミュニティが抱える課題を推定し、
前記課題を解決するための前記行動規範を自動生成する、前記(1)に記載の情報処理装置。
(3)
前記制御部は、前記メンバーが行動変容するように、当該メンバーに対して間接的に行動変容を促す、前記(1)に記載の情報処理装置。
(4)
前記制御部は、
前記行動規範として目的変数を設定し、
前記目的変数を起点とした因子変数間の関係を示す関係グラフを生成し、
前記目的変数に関連する因子変数のうち、行動変容が可能な介入すべき因子変数について、前記メンバーに対して行動変容を促す、前記(3)に記載の情報処理装置。
(5)
前記制御部は、
前記目的変数に関連する因子変数が所望の値に近付くよう、前記メンバーに対して働きかける、前記(4)に記載の情報処理装置。
(6)
前記制御部は、
前記行動規範として設定された目的変数の原因と推定される因子変数を推定することによって因果グラフを生成し、
前記目的変数の原因と推定される因子変数が所望の値に近付くよう、前記メンバーに対して働きかける、前記(4)に記載の情報処理装置。
(7)
前記制御部は、
前記取得されたセンサデータに基づき、前記特定コミュニティにおいて基準となる価値観を行動規範として自動生成し、
前記基準となる価値観に基づき、前記メンバーに対して、間接的に行動変容を促す、前記(3)に記載の情報処理装置。
(8)
前記制御部は、
前記特定コミュニティに属する複数メンバーの価値観の平均値を、基準となる価値観とする、前記(7)に記載の情報処理装置。
(9)
前記制御部は、
前記特定コミュニティに属する複数メンバーのうちの、特定のメンバーの価値観を、基準となる価値観とする、前記(7)に記載の情報処理装置。
(10)
前記制御部は、
前記基準となる価値観から一定以上離間している特定のメンバーに対して、基準となる価値観を提示することによって、間接的に行動変容を促す、前記(7)〜(9)のいずれか1項に記載の情報処理装置。
(11)
前記制御部は、
前記取得されたセンサデータに基づき、前記特定コミュニティに属するメンバーが抱える課題を推定し、
前記課題を解決するために前記特定コミュニティに属するメンバーの生活リズムに関わる行動規範を自動生成する、前記(2)〜(6)のいずれか1項に記載の情報処理装置。
(12)
前記制御部は、
前記課題を解決するために前記特定コミュニティに属する複数メンバーの生活リズムを同期させるという行動規範を自動生成する、前記(11)に記載の情報処理装置。
(13)
前記制御部は、
特定の生活リズムについて、一定時間以上、前記特定コミュニティに属する他のメンバーと離間している特定メンバーに対して、間接的に行動変容を促す、前記(12)に記載の情報処理装置。
(14)
前記制御部は、
前記課題を解決するために前記特定コミュニティに属する複数メンバーの生活リズムを非同期にするという行動規範を自動生成する、前記(11)に記載の情報処理装置。
(15)
前記制御部は、
第1の生活行動において、前記特定コミュニティに属する複数メンバーのうち、一定数以上同期していることを検出すると、第1の生活行動の次に来ると予想される第2の生活行動を行うように、前記特定コミュニティに属する特定のメンバーに対して、間接的に行動変容を促す、前記(14)に記載の情報処理装置。
(16)
特定コミュニティに属するメンバーをセンシングすることにより得られたセンサデータに基づき予め自動生成された前記特定コミュニティにおける行動規範に応じて、
前記特定コミュニティに属する前記メンバーをセンシングすることにより得られたセンサデータに従って、
前記メンバーが行動変容するように働きかける、
制御を行う制御部を備える、情報処理装置。
(17)
プロセッサが、
特定コミュニティに属するメンバーをセンシングすることにより得られたセンサデータを取得することと、
前記取得されたセンサデータに基づき、前記特定コミュニティにおける行動規範を自動生成することと、
前記行動規範に基づき、前記メンバーが行動変容するように促すことと、
を含む、情報処理方法。
(18)
コンピュータを、
特定コミュニティに属するメンバーをセンシングすることにより得られたセンサデータを取得し、
前記取得されたセンサデータに基づき、前記特定コミュニティにおける行動規範を自動生成し、
前記行動規範に基づき、前記メンバーが行動変容するように促す、
制御を行う制御部として機能させるためのプログラムが記録された、記録媒体。
The present technology can also have the following configurations.
(1)
Acquire sensor data obtained by sensing members belonging to a specific community,
Based on the acquired sensor data, the code of conduct in the specific community is automatically generated.
Encourage the members to change their behavior based on the code of conduct,
An information processing device including a control unit that performs control.
(2)
The control unit
Based on the acquired sensor data, the issues faced by the specific community are estimated, and
The information processing device according to (1) above, which automatically generates the code of conduct for solving the problem.
(3)
The information processing device according to (1) above, wherein the control unit indirectly urges the member to change the behavior so that the member changes the behavior.
(4)
The control unit
Set the objective variable as the code of conduct,
A relationship graph showing the relationship between factor variables starting from the objective variable is generated.
The information processing apparatus according to (3) above, wherein among the factor variables related to the objective variable, the information processing apparatus according to (3) above urges the member to change the behavior of the factor variable to be intervened, which can change the behavior.
(5)
The control unit
The information processing apparatus according to (4) above, which works on the member so that the factor variable related to the objective variable approaches a desired value.
(6)
The control unit
A causal graph is generated by estimating the factor variable that is presumed to be the cause of the objective variable set as the code of conduct.
The information processing apparatus according to (4) above, which works on the members so that the factor variable presumed to be the cause of the objective variable approaches a desired value.
(7)
The control unit
Based on the acquired sensor data, the standard values in the specific community are automatically generated as a code of conduct.
The information processing device according to (3) above, which indirectly encourages the members to change their behavior based on the reference values.
(8)
The control unit
The information processing device according to (7) above, wherein the average value of the values of a plurality of members belonging to the specific community is used as a reference value.
(9)
The control unit
The information processing device according to (7) above, wherein the values of a specific member among a plurality of members belonging to the specific community are set as reference values.
(10)
The control unit
Any of the above (7) to (9) that indirectly promotes behavior change by presenting the standard value to a specific member who is separated from the standard value by a certain amount or more. The information processing apparatus according to item 1.
(11)
The control unit
Based on the acquired sensor data, the issues faced by the members belonging to the specific community are estimated.
The information processing device according to any one of (2) to (6) above, which automatically generates a code of conduct related to the life rhythm of a member belonging to the specific community in order to solve the problem.
(12)
The control unit
The information processing device according to (11) above, which automatically generates a code of conduct that synchronizes the living rhythms of a plurality of members belonging to the specific community in order to solve the problem.
(13)
The control unit
The information processing device according to (12) above, which indirectly encourages a specific member who is separated from another member belonging to the specific community for a specific life rhythm for a certain period of time or more.
(14)
The control unit
The information processing device according to (11) above, which automatically generates a code of conduct that asynchronizes the life rhythms of a plurality of members belonging to the specific community in order to solve the problem.
(15)
The control unit
In the first living behavior, when it is detected that a certain number or more of the plurality of members belonging to the specific community are synchronized, the second living behavior that is expected to come after the first living behavior is performed. The information processing device according to (14), wherein the behavioral change is indirectly promoted to a specific member belonging to the specific community.
(16)
According to the code of conduct in the specific community that was automatically generated in advance based on the sensor data obtained by sensing the members belonging to the specific community.
According to the sensor data obtained by sensing the member belonging to the specific community.
Encourage the members to change their behavior,
An information processing device including a control unit that performs control.
(17)
The processor
Acquiring sensor data obtained by sensing members belonging to a specific community,
To automatically generate a code of conduct in the specific community based on the acquired sensor data,
Encouraging the members to change their behavior based on the code of conduct,
Information processing methods, including.
(18)
Computer,
Acquire sensor data obtained by sensing members belonging to a specific community,
Based on the acquired sensor data, the code of conduct in the specific community is automatically generated.
Encourage the members to change their behavior based on the code of conduct,
A recording medium in which a program for functioning as a control unit for controlling is recorded.

2A〜2C コミュニティ
10、10A〜10C、10−1〜10−3 マスターシステム
11 データ解析部
12 行動規範生成部
13 行動変容指示部
20 情報処理装置(因果分析サーバ)
30 環境側センサ
32 ユーザ側センサ
34 サービスサーバ
36 出力デバイス
50 情報処理装置
70 情報処理装置
80 センサ
82 出力デバイス
201 受信部
203 送信部
210 画像処理部
212 音声処理部
214 センサ/行動データ処理部
220 因子変数DB
222 課題指標DB
224 介入用デバイスDB
226 介入ルールDB
228 介入予約DB
230 課題推定部
232 因果分析部
235 介入部
500 制御部
501 ユーザ管理部
502 価値観推定部
503 価値観比較部
504 提示部
510 通信部
520 記憶部
700 制御部
701 人物認識部
702 動作認識部
703 リズム導出部
704 かい離検出部
705 かい離原因推定部
706 応答生成部
710 通信部
720 記憶部
2A-2C Community 10, 10A-10C, 10-1-10-3 Master system 11 Data analysis unit 12 Code of conduct generation unit 13 Behavior change instruction unit 20 Information processing device (causal analysis server)
30 Environment side sensor 32 User side sensor 34 Service server 36 Output device 50 Information processing device 70 Information processing device 80 Sensor 82 Output device 201 Reception unit 203 Transmission unit 210 Image processing unit 212 Voice processing unit 214 Sensor / behavior data processing unit 220 Factor Variable DB
222 Problem index DB
224 Intervention device DB
226 Intervention rule DB
228 Intervention reservation DB
230 Problem estimation unit 232 Causal analysis unit 235 Intervention unit 500 Control unit 501 User management unit 502 Value estimation unit 503 Value comparison unit 504 Presentation unit 510 Communication unit 520 Memory unit 700 Control unit 701 Person recognition unit 702 Motion recognition unit 703 Rhythm Derivation unit 704 Disengagement detection unit 705 Disengagement cause estimation unit 706 Response generation unit 710 Communication unit 720 Storage unit

Claims (18)

特定コミュニティに属するメンバーをセンシングすることにより得られたセンサデータを取得し、
前記取得されたセンサデータに基づき、前記特定コミュニティにおける行動規範を自動生成し、
前記行動規範に基づき、前記メンバーが行動変容するように促す、
制御を行う制御部を備える、情報処理装置。
Acquire sensor data obtained by sensing members belonging to a specific community,
Based on the acquired sensor data, the code of conduct in the specific community is automatically generated.
Encourage the members to change their behavior based on the code of conduct,
An information processing device including a control unit that performs control.
前記制御部は、
前記取得されたセンサデータに基づき、前記特定コミュニティが抱える課題を推定し、
前記課題を解決するための前記行動規範を自動生成する、請求項1に記載の情報処理装置。
The control unit
Based on the acquired sensor data, the issues faced by the specific community are estimated, and
The information processing device according to claim 1, wherein the code of conduct for solving the problem is automatically generated.
前記制御部は、前記メンバーが行動変容するように、当該メンバーに対して間接的に行動変容を促す、請求項1に記載の情報処理装置。 The information processing device according to claim 1, wherein the control unit indirectly urges the member to change the behavior so that the member changes the behavior. 前記制御部は、
前記行動規範として目的変数を設定し、
前記目的変数を起点とした因子変数間の関係を示す関係グラフを生成し、
前記目的変数に関連する因子変数のうち、行動変容が可能な介入すべき因子変数について、前記メンバーに対して行動変容を促す、請求項3に記載の情報処理装置。
The control unit
Set the objective variable as the code of conduct,
A relationship graph showing the relationship between factor variables starting from the objective variable is generated.
The information processing apparatus according to claim 3, wherein among the factor variables related to the objective variable, the information processing apparatus according to claim 3 prompts the member to change the behavior of the factor variable to be intervened, which can change the behavior.
前記制御部は、
前記目的変数に関連する因子変数が所望の値に近付くよう、前記メンバーに対して働きかける、請求項4に記載の情報処理装置。
The control unit
The information processing apparatus according to claim 4, wherein the information processing apparatus works on the member so that the factor variable related to the objective variable approaches a desired value.
前記制御部は、
前記行動規範として設定された目的変数の原因と推定される因子変数を推定することによって因果グラフを生成し、
前記目的変数の原因と推定される因子変数が所望の値に近付くよう、前記メンバーに対して働きかける、請求項4に記載の情報処理装置。
The control unit
A causal graph is generated by estimating the factor variable that is presumed to be the cause of the objective variable set as the code of conduct.
The information processing apparatus according to claim 4, wherein the member is encouraged so that the factor variable presumed to be the cause of the objective variable approaches a desired value.
前記制御部は、
前記取得されたセンサデータに基づき、前記特定コミュニティにおいて基準となる価値観を行動規範として自動生成し、
前記基準となる価値観に基づき、前記メンバーに対して、間接的に行動変容を促す、請求項3に記載の情報処理装置。
The control unit
Based on the acquired sensor data, the standard values in the specific community are automatically generated as a code of conduct.
The information processing device according to claim 3, wherein the member is indirectly encouraged to change his / her behavior based on the standard value.
前記制御部は、
前記特定コミュニティに属する複数メンバーの価値観の平均値を、基準となる価値観とする、請求項7に記載の情報処理装置。
The control unit
The information processing device according to claim 7, wherein the average value of the values of a plurality of members belonging to the specific community is used as a reference value.
前記制御部は、
前記特定コミュニティに属する複数メンバーのうちの、特定のメンバーの価値観を、基準となる価値観とする、請求項7に記載の情報処理装置。
The control unit
The information processing apparatus according to claim 7, wherein the values of a specific member among the plurality of members belonging to the specific community are set as reference values.
前記制御部は、
前記基準となる価値観から一定以上離間している特定のメンバーに対して、基準となる価値観を提示することによって、間接的に行動変容を促す、請求項7に記載の情報処理装置。
The control unit
The information processing device according to claim 7, wherein the information processing apparatus according to claim 7 indirectly promotes behavior change by presenting a reference value to a specific member who is separated from the reference value by a certain amount or more.
前記制御部は、
前記取得されたセンサデータに基づき、前記特定コミュニティに属するメンバーが抱える課題を推定し、
前記課題を解決するために前記特定コミュニティに属するメンバーの生活リズムに関わる行動規範を自動生成する、請求項2に記載の情報処理装置。
The control unit
Based on the acquired sensor data, the issues faced by the members belonging to the specific community are estimated.
The information processing device according to claim 2, wherein a code of conduct related to the life rhythm of a member belonging to the specific community is automatically generated in order to solve the problem.
前記制御部は、
前記課題を解決するために前記特定コミュニティに属する複数メンバーの生活リズムを同期させるという行動規範を自動生成する、請求項11に記載の情報処理装置。
The control unit
The information processing device according to claim 11, which automatically generates a code of conduct that synchronizes the living rhythms of a plurality of members belonging to the specific community in order to solve the problem.
前記制御部は、
特定の生活リズムについて、一定時間以上、前記特定コミュニティに属する他のメンバーと離間している特定メンバーに対して、間接的に行動変容を促す、請求項12に記載の情報処理装置。
The control unit
The information processing device according to claim 12, wherein a specific member who is separated from another member belonging to the specific community for a specific life rhythm is indirectly encouraged to change his / her behavior.
前記制御部は、
前記課題を解決するために前記特定コミュニティに属する複数メンバーの生活リズムを非同期にするという行動規範を自動生成する、請求項11に記載の情報処理装置。
The control unit
The information processing device according to claim 11, wherein a code of conduct for making the living rhythms of a plurality of members belonging to the specific community asynchronous in order to solve the problem is automatically generated.
前記制御部は、
第1の生活行動において、前記特定コミュニティに属する複数メンバーのうち、一定数以上同期していることを検出すると、第1の生活行動の次に来ると予想される第2の生活行動を行うように、前記特定コミュニティに属する特定のメンバーに対して、間接的に行動変容を促す、請求項14に記載の情報処理装置。
The control unit
In the first living behavior, when it is detected that a certain number or more of the plurality of members belonging to the specific community are synchronized, the second living behavior that is expected to come after the first living behavior is performed. The information processing device according to claim 14, wherein the behavioral change is indirectly promoted to a specific member belonging to the specific community.
特定コミュニティに属するメンバーをセンシングすることにより得られたセンサデータに基づき予め自動生成された前記特定コミュニティにおける行動規範に応じて、
前記特定コミュニティに属する前記メンバーをセンシングすることにより得られたセンサデータに従って、
前記メンバーが行動変容するように働きかける、
制御を行う制御部を備える、情報処理装置。
According to the code of conduct in the specific community that was automatically generated in advance based on the sensor data obtained by sensing the members belonging to the specific community.
According to the sensor data obtained by sensing the member belonging to the specific community.
Encourage the members to change their behavior,
An information processing device including a control unit that performs control.
プロセッサが、
特定コミュニティに属するメンバーをセンシングすることにより得られたセンサデータを取得することと、
前記取得されたセンサデータに基づき、前記特定コミュニティにおける行動規範を自動生成することと、
前記行動規範に基づき、前記メンバーが行動変容するように促すことと、
を含む、情報処理方法。
The processor
Acquiring sensor data obtained by sensing members belonging to a specific community,
To automatically generate a code of conduct in the specific community based on the acquired sensor data,
Encouraging the members to change their behavior based on the code of conduct,
Information processing methods, including.
コンピュータを、
特定コミュニティに属するメンバーをセンシングすることにより得られたセンサデータを取得し、
前記取得されたセンサデータに基づき、前記特定コミュニティにおける行動規範を自動生成し、
前記行動規範に基づき、前記メンバーが行動変容するように促す、
制御を行う制御部として機能させるためのプログラムが記録された、記録媒体。
Computer,
Acquire sensor data obtained by sensing members belonging to a specific community,
Based on the acquired sensor data, the code of conduct in the specific community is automatically generated.
Encourage the members to change their behavior based on the code of conduct,
A recording medium in which a program for functioning as a control unit for controlling is recorded.
JP2019567860A 2018-01-23 2018-10-30 Information processing device, information processing method, and program Active JP7367530B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018008607 2018-01-23
JP2018008607 2018-01-23
PCT/JP2018/040269 WO2019146200A1 (en) 2018-01-23 2018-10-30 Information processing device, information processing method, and recording medium

Publications (2)

Publication Number Publication Date
JPWO2019146200A1 true JPWO2019146200A1 (en) 2021-01-07
JP7367530B2 JP7367530B2 (en) 2023-10-24

Family

ID=67395393

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019567860A Active JP7367530B2 (en) 2018-01-23 2018-10-30 Information processing device, information processing method, and program

Country Status (6)

Country Link
US (1) US20200357504A1 (en)
EP (1) EP3745346A4 (en)
JP (1) JP7367530B2 (en)
KR (1) KR20200111680A (en)
CN (1) CN111602168A (en)
WO (1) WO2019146200A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3723027A1 (en) * 2019-04-12 2020-10-14 Tata Consultancy Services Limited Methods and systems for simulation of electricity value ecosystem using agent based modeling approach
JP7420352B2 (en) * 2020-06-19 2024-01-23 国立大学法人北海道大学 Maternal and child health management system and information provision method
CN113055276B (en) * 2021-03-09 2022-07-22 井冈山大学 Ring chat creating method, display method and system based on smart phone

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011055628A1 (en) * 2009-11-04 2011-05-12 株式会社日立製作所 Organization behavior analyzer and organization behavior analysis system
JP2017208005A (en) * 2016-05-20 2017-11-24 株式会社日立製作所 Sensor data analysis system and sensor data analysis method

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2072040C (en) * 1992-06-23 2002-06-11 Charles Borg Method and device to facilitate the cognitive development of alternative response behaviour
US5944530A (en) * 1996-08-13 1999-08-31 Ho; Chi Fai Learning method and system that consider a student's concentration level
JP2005010978A (en) * 2003-06-18 2005-01-13 Nippon Telegr & Teleph Corp <Ntt> Method and program for generating reputation information among community, and its recording medium
KR100791371B1 (en) * 2005-10-07 2008-01-07 삼성전자주식회사 Apparatus and method for inducing sound sleep and wake-up
JP4793393B2 (en) * 2008-02-21 2011-10-12 日本電気株式会社 Group linkage system, group linkage method, and group linkage program
JP2010102643A (en) 2008-10-27 2010-05-06 Omron Corp Apparatus and method for interactive guidance support
US20100121789A1 (en) * 2008-11-11 2010-05-13 Vladimir Bednyak Interactive apparatus for assisting in encouraging or deterring of at least one predetermined human behavior
US20110104648A1 (en) * 2009-08-21 2011-05-05 Healthhonors Corporation Systems and methods for health behavior reinforcement
JP5440080B2 (en) * 2009-10-02 2014-03-12 ソニー株式会社 Action pattern analysis system, portable terminal, action pattern analysis method, and program
KR20140099539A (en) * 2011-12-07 2014-08-12 액세스 비지니스 그룹 인터내셔날 엘엘씨 Behavior tracking and modification system
WO2013126557A2 (en) * 2012-02-22 2013-08-29 Mgoodlife, Corp. Personalization platform for behavioral change
US20150032816A1 (en) * 2012-05-30 2015-01-29 Sony Corporation Information processing apparatus, information processing method, and recording medium
US9569976B2 (en) * 2012-10-02 2017-02-14 Gavriel Yaacov Krauss Methods circuits, devices and systems for personality interpretation and expression
US10143405B2 (en) * 2012-11-14 2018-12-04 MAD Apparel, Inc. Wearable performance monitoring, analysis, and feedback systems and methods
KR101575100B1 (en) * 2014-05-20 2015-12-09 전자부품연구원 User group activity sensing in service area and behavior semantic analysis system
JP2016085703A (en) 2014-10-29 2016-05-19 沖電気工業株式会社 Behavior support system, terminal, device, method, and program
US20160180723A1 (en) * 2014-12-22 2016-06-23 Intel Corporation Context derived behavior modeling and feedback
WO2016139854A1 (en) * 2015-03-02 2016-09-09 ソニー株式会社 Information processing system and control method
US20160321946A1 (en) * 2015-04-29 2016-11-03 Habit Design, Inc, Facilitating habit formation through use of mobile devices
US10854104B2 (en) * 2015-08-28 2020-12-01 Icuemotion Llc System for movement skill analysis and skill augmentation and cueing
JP6458755B2 (en) * 2016-03-15 2019-01-30 オムロン株式会社 Data flow control device and data flow control method
US20190135177A1 (en) * 2017-09-07 2019-05-09 Truemotion, Inc. Method and system for aggregation of behavior modification results
WO2019236874A1 (en) * 2018-06-06 2019-12-12 Elysiot Inc. Systems and methods for encouraging patient behavior
US10565894B1 (en) * 2019-05-29 2020-02-18 Vignet Incorporated Systems and methods for personalized digital goal setting and intervention

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011055628A1 (en) * 2009-11-04 2011-05-12 株式会社日立製作所 Organization behavior analyzer and organization behavior analysis system
JP2017208005A (en) * 2016-05-20 2017-11-24 株式会社日立製作所 Sensor data analysis system and sensor data analysis method

Also Published As

Publication number Publication date
KR20200111680A (en) 2020-09-29
EP3745346A4 (en) 2021-01-27
US20200357504A1 (en) 2020-11-12
CN111602168A (en) 2020-08-28
EP3745346A1 (en) 2020-12-02
JP7367530B2 (en) 2023-10-24
WO2019146200A1 (en) 2019-08-01

Similar Documents

Publication Publication Date Title
JP6730843B2 (en) Communication support system
JP4794846B2 (en) Estimation apparatus and estimation method
JP6610661B2 (en) Information processing apparatus, control method, and program
JP7143839B2 (en) Information processing device, information processing method, and program
US20140278455A1 (en) Providing Feedback Pertaining to Communication Style
JP7367530B2 (en) Information processing device, information processing method, and program
JPWO2019111465A1 (en) Information processing equipment, information processing methods, and recording media
JP6791120B2 (en) Information processing equipment, information processing methods, and programs
JP6164076B2 (en) Information processing apparatus, information processing method, and program
WO2019207896A1 (en) Information processing system, information processing method, and recording medium
CN108470567B (en) Voice interaction method and device, storage medium and computer equipment
Zhao et al. Blossom: design of a tangible interface for improving intergenerational communication for the elderly
JP2021128350A (en) Information processing system, information processing method, and recording medium
JP7347414B2 (en) Information processing system, information processing method, and recording medium
WO2022102721A1 (en) Depression-state-determining program
US20220198371A1 (en) Action management method, program, and action management system
CN109907747A (en) User Status monitoring method, device and wearable device
US20240070205A1 (en) Information processor, information processing method, and recording medium
JP6566532B1 (en) Presentation system, presentation method, and presentation program
WO2023182022A1 (en) Information processing device, information processing method, terminal device, and output method
Kaddachi Technological Approach for Early and Unobtrusive Detection of Possible Health Changes toward Better Adaptation of Services for Elderly People
Lin May Computers have Emotions? Establishing an AI Device based on Affective Computing Technologies
JP2023124681A (en) Information processing method, terminal and program
Stawarz et al. Silka: a domestic technology to mediate the threshold between connection and solitude
JP2022113076A (en) Watching target person attention level determination program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230119

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230816

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230925

R151 Written notification of patent or utility model registration

Ref document number: 7367530

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151