JP5060978B2 - Information presentation system, program, information storage medium, and information presentation system control method - Google Patents

Information presentation system, program, information storage medium, and information presentation system control method Download PDF

Info

Publication number
JP5060978B2
JP5060978B2 JP2008015211A JP2008015211A JP5060978B2 JP 5060978 B2 JP5060978 B2 JP 5060978B2 JP 2008015211 A JP2008015211 A JP 2008015211A JP 2008015211 A JP2008015211 A JP 2008015211A JP 5060978 B2 JP5060978 B2 JP 5060978B2
Authority
JP
Japan
Prior art keywords
user
information
content
unit
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008015211A
Other languages
Japanese (ja)
Other versions
JP2009176130A (en
Inventor
成示 龍田
陽一 井場
良平 杉原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2008015211A priority Critical patent/JP5060978B2/en
Publication of JP2009176130A publication Critical patent/JP2009176130A/en
Application granted granted Critical
Publication of JP5060978B2 publication Critical patent/JP5060978B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、情報提示システム、プログラム情報記憶媒体及び情報提示システムの制御方法に関係する。 The present invention relates to an information presentation system, a program , an information storage medium, and a control method for the information presentation system .

いわゆるユビキタスサービスにおいて、現在目指している1つの方向として、何時でもどこでも必要な情報をユーザに提供するという利便性提供型のサービスが提案されている。これは、外部からユーザに対して一方的に情報を提供するサービスである。   In the so-called ubiquitous service, as one direction that is currently aimed at, a convenience providing service is proposed in which necessary information is provided to users anytime and anywhere. This is a service that unilaterally provides information to the user from the outside.

しかしながら、人が生き生きと充実した生活を送るためには、このように外部からユーザに一方的に情報を提供する利便性提供型サービスだけでは不十分であり、ユーザの内面に働きかけることによりユーザに気づきを与え(インスパイア)、その結果、自己の成長を促すインスパイア型ユビキタスサービスが望まれる。   However, in order for a person to live a lively and fulfilling life, a convenience-providing service that provides information to the user unilaterally from the outside is not sufficient. Inspire-type ubiquitous services that encourage awareness and encourage self-growth are desired.

ところが、これまでの情報提示システムでは、ユーザが必要とする情報をユーザが意図的な取得行為を行わなくても提供するという、いわゆるプッシュ情報としての情報提示を実現できないという課題があった。   However, conventional information presentation systems have a problem that information presentation as so-called push information, in which information required by the user is provided without the user performing an intentional acquisition action, cannot be realized.

このような課題を解決するものとして、特許文献1に開示される情報提示システムが知られている。このシステムでは、ウェアラブルセンサによりユーザの行動を推定し、行動に応じた情報表示を行うことで、プッシュ情報としての情報提示を可能にしている。   As a solution to such a problem, an information presentation system disclosed in Patent Document 1 is known. In this system, it is possible to present information as push information by estimating a user's action by a wearable sensor and displaying information according to the action.

しかしながら、特許文献1では、必要性が顕在化している情報を操作レスでプッシュ情報としてユーザに提示することはできるものの、潜在的に必要としている情報については提示できない。そして、必要性が顕在化している情報だけを提示し続けても、便利ではあるが、日常の生活パターンの延長を支援するだけであり、このパターン化された生活・行動だけからは、新たな気づきは生まれにくく、充実した生活には結びつかない。一方、非日常の新しい体験の中には、煩雑さや不安もつきまとう。   However, in Patent Document 1, although information whose necessity is manifested can be presented to a user as push information without operation, information that is potentially necessary cannot be presented. It is convenient to continue presenting only the information that reveals the necessity, but it only supports the extension of daily life patterns. Awareness is hard to be born and does not lead to a fulfilling life. On the other hand, in a new experience that is unusual, it can be complicated and anxious.

そこで、日常の生活パターンに変化を与えるきっかけを提供すると共に、非日常体験のハードルを下げて、日々の生活の中で日常と非日常を適度にバランスさせることができる情報提示システムの実現が望まれる。   Therefore, it is desirable to provide an opportunity to change daily life patterns, and to lower the hurdles of extraordinary experiences and realize an information presentation system that can appropriately balance daily and extraordinary in daily life. It is.

なお特許文献2には、独居老人の異常行動を監視するシステムが開示されているが、このシステムは、独居老人が異常を来して行動不能に陥った場合に、それを自動的に検知して通報することを目的としており、ユーザに気づきを与えて自己の成長を促すインスパイア型ユビキタスサービスを目指したものではない。
特開2006−293535号公報 特開2000−99858号公報
Patent Document 2 discloses a system for monitoring the abnormal behavior of the elderly living alone. This system automatically detects when the elderly living alone becomes inoperable due to an abnormality. It is not intended to be an inspiring ubiquitous service that gives users awareness and encourages their own growth.
JP 2006-293535 A JP 2000-99858 A

本発明の幾つかの態様によれば、ユーザの日常度を反映したプッシュ情報としての情報の提示を可能にする情報提示システム、プログラム情報記憶媒体及び情報提示システムの制御方法を提供する。 According to some aspects of the present invention, there are provided an information presentation system, a program , an information storage medium, and an information presentation system control method that enable presentation of information as push information reflecting the user's daily life.

本発明は、ユーザの行動を計測する行動センサ、ユーザの状態を計測する状態センサ及びユーザの環境を計測する環境センサの少なくとも1つのセンサからのセンサ情報に基づいて、ユーザの現在の日常度を評価する処理を行う日常度評価部と、ユーザへの提示候補となるコンテンツの親密度を評価する処理を行う親密度評価部と、前記日常度評価部での日常度の評価結果と、前記親密度評価部での親密度の評価結果とに基づいて、ユーザへの提示候補となるコンテンツの中から、コンテンツ提示部によりユーザに対して提示するコンテンツを選択する処理を行うコンテンツ選択部とを含む情報提示システムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。   The present invention determines a user's current ordinary degree based on sensor information from at least one of a behavior sensor that measures a user's behavior, a state sensor that measures a user's state, and an environment sensor that measures a user's environment. A dailyness evaluation unit that performs processing to evaluate, a familiarity evaluation unit that performs processing to evaluate the intimacy of content that is a candidate for presentation to the user, an evaluation result of dailyness in the dailyness evaluation unit, and the parent A content selection unit that performs processing for selecting content to be presented to the user by the content presenting unit from content that is candidates for presentation to the user based on the evaluation result of the familiarity in the density evaluation unit Related to information presentation system. The present invention also relates to a program that causes a computer to function as each of the above-described units, or a computer-readable information storage medium that stores the program.

本発明では、行動センサ、状態センサ、環境センサの少なくとも1つのセンサからのセンサ情報が取得され、取得されたセンサ情報に基づいてユーザの日常度が評価される。またユーザへの提示候補となるコンテンツについての親密度も評価される。そして、得られた日常度と親密度に基づいて、ユーザへの提示候補となるコンテンツの中から、コンテンツが選択されて、コンテンツ提示部によりユーザに提示される。このようにすれば、例えば、センサ情報に基づき評価されたユーザの日常度の高低に応じた親密度のコンテンツを選択して、ユーザに提示できるようになる。従って、ユーザの日常度を反映したプッシュ情報としての情報の提示が可能になる。これにより、ユーザの日常の生活パターンに変化や気づきを与えたり、非日常的な体験におけるユーザの煩雑さや不安感を取り除いたりすることが可能になり、これまでにない情報提示が可能になる。   In the present invention, sensor information from at least one of a behavior sensor, a state sensor, and an environmental sensor is acquired, and the user's daily life is evaluated based on the acquired sensor information. In addition, the intimacy of content that is a candidate for presentation to the user is also evaluated. Then, based on the obtained dailyness and familiarity, the content is selected from the content that is a candidate for presentation to the user, and is presented to the user by the content presentation unit. In this way, for example, it becomes possible to select and present to the user the content of closeness corresponding to the level of the user's daily life evaluated based on the sensor information. Accordingly, it is possible to present information as push information reflecting the user's daily life. Thereby, it becomes possible to give a change or notice to the user's daily life pattern, to remove the user's complexity and anxiety in an extraordinary experience, and to present information that has never existed.

また本発明では、コンテンツに関連づけられたメタ情報を記憶するコンテンツ情報記憶部を含み、前記親密度評価部は、コンテンツに対して関連付けられた前記メタ情報に基づいて、コンテンツに対するユーザの親密度を評価してもよい。   Further, the present invention includes a content information storage unit that stores meta information associated with the content, and the closeness evaluation unit determines the closeness of the user with respect to the content based on the meta information associated with the content. You may evaluate.

このようにすれば、親密度評価のみをパーソナライズするのみで、コンテンツのメタ情報は利用者間で共有することが可能で、集合知を利用したり、第三者が構築したものを活用することができる。したがって、学習の手間を簡素化できて使い勝手がよく、また、親密度の評価処理を簡素化できると共に、多様なメタ情報を用いることで多様な親密度の評価処理を実現できる。   In this way, the content meta-information can be shared between users by personalizing only the intimacy assessment, using collective intelligence, or utilizing something constructed by a third party. Can do. Accordingly, it is possible to simplify the learning effort and improve usability, simplify the evaluation process of intimacy, and realize various evaluation processes of intimacy by using various meta information.

また本発明では、コンテンツのカテゴリに対する親密度の情報を記憶する親密度情報記憶部を含み、前記コンテンツ情報記憶部は、前記メタ情報としてコンテンツのカテゴリの情報を記憶し、前記親密度評価部は、提示候補となるコンテンツのカテゴリの情報を、前記コンテンツ情報記憶部から読み出し、読み出されたカテゴリの情報に対する親密度の情報を、前記親密度情報記憶部から読み出すことで、コンテンツに対するユーザの親密度を評価してもよい。   Further, the present invention includes a familiarity information storage unit that stores information on familiarity with respect to a content category, wherein the content information storage unit stores content category information as the meta information, and the familiarity evaluation unit includes The content category information that is a candidate for presentation is read from the content information storage unit, and the familiarity information for the read category information is read from the familiarity information storage unit. The density may be evaluated.

このようにすれば、コンテンツ情報記憶部から読み出されたコンテンツのカテゴリの情報に基づいて、このカテゴリの情報に関連づけられた親密度を親密度情報記憶部から読み出すことで、コンテンツの親密度を評価できる。従って、コンテンツの情報量が多い場合にも、コンテンツの親密度を効率的に評価できる。また、このカテゴライズは、利用者や利用状況を数理解析することによって、統計的に自動で行うことが可能になる。   In this way, based on the content category information read from the content information storage unit, the familiarity associated with the category information is read from the familiarity information storage unit, so that the content intimacy can be determined. Can be evaluated. Therefore, even when the amount of content information is large, the intimacy of the content can be evaluated efficiently. In addition, this categorization can be performed automatically and statistically by mathematically analyzing the user and usage status.

また本発明では、前記コンテンツ選択部は、ユーザの日常度が高いと評価されるほど、親密度が低いと評価されるコンテンツを選択してもよい。   In the present invention, the content selection unit may select a content that is evaluated as having a lower familiarity as the user's daily life is evaluated as being higher.

このようにすれば、日常的な生活をしているユーザに対して、普段はあまり接することがない親密度の低いコンテンツを提供できるため、ユーザに変化や新たな気づきを与えることが可能になる。   In this way, it is possible to provide low-intimate content that is not usually touched to users who live daily, so it is possible to give the user a change or new awareness. .

また本発明では、前記コンテンツ選択部は、ユーザの日常度が低いと評価されるほど、親密度が高いと評価されるコンテンツを選択してもよい。   In the present invention, the content selection unit may select a content that is evaluated as having a higher familiarity as the user's everydayness is evaluated as being lower.

このようにすれば、非日常的な体験をしているユーザに対して、普段から慣れ親しんでいる親密度が高いコンテンツを提供できるため、非日常体験におけるユーザの煩雑さや不安感を取り除くことが可能になる。   In this way, users who are experiencing an unusual experience can be provided with highly familiar content that they are familiar with, so it is possible to eliminate the complexity and anxiety of the user in an unusual experience. become.

また本発明では、前記親密度評価部は、コンテンツに対するユーザの親密度と、コンテンツに対するユーザ以外の他人の親密度とに基づいて、コンテンツの親密度を評価し、前記コンテンツ選択部は、コンテンツに対するユーザ及び他人の親密度に基づき評価されたコンテンツの親密度に基づいて、提示候補となるコンテンツの中からユーザに提示するコンテンツを選択してもよい。   In the present invention, the closeness evaluation unit evaluates the closeness of the content based on the closeness of the user with respect to the content and the closeness of others other than the user with respect to the content, and the content selection unit The content to be presented to the user may be selected from the content that is the candidate for presentation based on the familiarity of the content evaluated based on the familiarity of the user and others.

このようにすれば、ユーザの親密度のみならずユーザ以外の他人の親密度に基づいて、コンテンツの親密度が評価されるため、他人の親密度に基づく新たな発見等をユーザに与えることが可能になる。   In this way, since the intimacy of the content is evaluated based not only on the intimacy of the user but also on the intimacy of the other person other than the user, it is possible to give the user a new discovery based on the intimacy of the other person. It becomes possible.

また本発明では、取得された前記センサ情報に基づいて、ユーザの状況を推定する状況推定部を含み、前記日常度評価部は、前記状況推定部により推定されたユーザの状況に基づいて、ユーザの日常度を評価してもよい。   The present invention further includes a situation estimation unit that estimates a user's situation based on the acquired sensor information, and the dailyness evaluation unit is configured to determine whether or not the user's situation is estimated based on the user's situation estimated by the situation estimation unit. You may evaluate the degree of daily life.

このようにすれば、多様なセンサ情報に基づいてユーザの実際の状況を推定して、ユーザの日常度を評価できるようになるため、より正確で適切な日常度の評価処理を実現できる。   In this way, since the user's actual situation can be estimated based on various sensor information and the user's ordinary degree can be evaluated, a more accurate and appropriate daily degree evaluation process can be realized.

また本発明では、前記状況推定部により推定されたユーザの状況の履歴情報を記憶する履歴情報記憶部を含み、前記日常度評価部は、前記履歴情報記憶部に記憶されたユーザの状況の履歴情報と、前記状況推定部により推定されたユーザの現在の状況の情報との比較処理を行うことで、ユーザの日常度を評価してもよい。   The present invention further includes a history information storage unit that stores history information of a user's situation estimated by the situation estimation unit, wherein the dailyness evaluation unit stores a history of the user's situation stored in the history information storage unit You may evaluate a user's everydayness by performing the comparison process of information and the information of the user's present condition estimated by the said condition estimation part.

このようにすれば、ユーザの過去の状況履歴も反映させた日常度の評価が可能になるため、更に正確で適切な日常度の評価処理を実現できる。   In this way, since it is possible to evaluate the ordinary degree reflecting the past situation history of the user, it is possible to realize a more accurate and appropriate everyday degree evaluation process.

また本発明では、前記親密度評価部は、ユーザへの提示候補となるコンテンツのうち、前記状況推定部により推定された少なくともユーザの現在の場所に関連するコンテンツについての親密度を評価してもよい。   In the present invention, the closeness evaluation unit may evaluate the closeness of content related to at least the current location of the user estimated by the situation estimation unit among the content that is a candidate for presentation to the user. Good.

このようにすれば、ユーザの現在の場所に関連するコンテンツについての親密度を評価して、コンテンツを選択できるため、ユーザの現在の場所に応じた適切なコンテンツの提示が可能になる。   In this way, it is possible to evaluate the intimacy of the content related to the user's current location and select the content, and thus it is possible to present appropriate content according to the user's current location.

また本発明では、前記状況推定部により推定されたユーザの現在の場所に基づいて、提示候補となるコンテンツの中から、1次候補となるコンテンツを抽出する1次候補コンテンツ抽出部を含み、前記コンテンツ選択部は、日常度の評価結果と親密度の評価結果とに基づいて、前記1次候補コンテンツ抽出部により抽出された1次候補のコンテンツの中から、ユーザに対して提示するコンテンツを選択してもよい。   The present invention further includes a primary candidate content extraction unit that extracts content that is a primary candidate from content that is a presentation candidate based on the current location of the user estimated by the situation estimation unit, The content selection unit selects content to be presented to the user from the primary candidate content extracted by the primary candidate content extraction unit, based on the evaluation result of dailyness and the evaluation result of familiarity May be.

このようにすれば、全てのコンテンツ情報の中から、親密度と日常度に基づいてコンテンツ情報を選択しなくても済むようになり、選択候補となるコンテンツの数を減らすことができるため、親密度と日常度に基づく選択処理の負荷を軽減できる。   In this way, it is not necessary to select content information from all content information based on familiarity and everydayness, and the number of content that can be selected can be reduced. The load of selection processing based on density and dailyness can be reduced.

また本発明では、前記状況推定部は、状況同定部と状況予測部を含み、前記日常度評価部は、前記状況予測部により予測されたユーザの状況と、前記状況同定部により同定されたユーザの実際の状況との比較処理を行うことで、ユーザの日常度を評価してもよい。   In the present invention, the situation estimation unit includes a situation identification unit and a situation prediction unit, and the dailyness evaluation unit includes the user situation predicted by the situation prediction unit and the user identified by the situation identification unit. The user's daily life may be evaluated by performing a comparison process with the actual situation.

このようにすれば、予測されるユーザの状況と実際のユーザの状況との相違を検出して日常度を評価できるため、より適切な日常度の評価処理を実現できる。   In this way, since the dailyness can be evaluated by detecting the difference between the predicted user situation and the actual user situation, a more appropriate dailyness evaluation process can be realized.

また本発明では、前記日常度評価部は、ユーザの状況を表す複数の状況情報のうちの少なくとも第1の状況情報に基づいてユーザの日常度を評価し、前記親密度評価部は、前記第1の状況情報に関連するコンテンツに対するユーザの親密度を評価し、前記コンテンツ選択部は、日常度の評価結果と親密度の評価結果とに基づいて、前記第1の状況情報に関連するコンテンツの中から、コンテンツ提示部によりユーザに対して提示するコンテンツを選択してもよい。   In the present invention, the daily life evaluation unit evaluates the daily life of the user based on at least first situation information among a plurality of pieces of situation information representing the user's situation, and the closeness evaluation unit includes the first degree of familiarity. The content selection unit evaluates the familiarity of the user with respect to the content related to the first status information, and the content selection unit determines the content related to the first status information based on the evaluation result of the ordinary degree and the evaluation result of the familiarity You may select the content shown with respect to a user by a content presentation part.

本発明によれば、ユーザの複数の状況情報のうちの第1の状況情報に基づいて、ユーザの日常度が評価された場合には、その第1の状況情報に関連するコンテンツの中からコンテンツが選択されて、ユーザに提示されるようになる。従って、複数の状況情報のうち日常度の評価に影響を与えた第1の状況情報に対応するコンテンツをユーザに提供できるため、より適切なコンテンツの提供が可能になる。   According to the present invention, when the user's dailyness is evaluated based on the first situation information of the plurality of situation information of the user, the content is selected from the contents related to the first situation information. Is selected and presented to the user. Accordingly, since the content corresponding to the first status information that has influenced the evaluation of the dailyness among the plurality of status information can be provided to the user, more appropriate content can be provided.

また本発明では前記状況推定部により推定されたユーザの状況履歴の情報を記憶する履歴情報記憶部と、複数のサブシステムにより構成される統合システムの第1のサブシステムを利用していたユーザが、新たに第2のサブシステムの利用が可能な状態になったことを示す利用可能イベントの発生を判定するイベント判定部と、前記利用可能イベントが発生した場合に、前記第1のサブシステムのセンサである第1のセンサからのセンサ情報により更新していた状況履歴の情報を、前記第2のサブシステムのセンサである第2のセンサからのセンサ情報に基づいて、さらに更新する履歴情報更新部とを含んでもよい。   In the present invention, a user who uses a history information storage unit that stores information on a user's situation history estimated by the situation estimation unit and a first subsystem of an integrated system that includes a plurality of subsystems is provided. An event determination unit for determining the occurrence of an available event indicating that the second subsystem is newly available, and when the available event occurs, the first subsystem History information update that further updates the status history information that has been updated with the sensor information from the first sensor that is the sensor, based on the sensor information from the second sensor that is the sensor of the second subsystem. May also be included.

本発明によれば、ユーザの状況履歴が、状況履歴情報として履歴情報記憶手段に記憶される。そして第2のサブシステムの利用可能イベントが発生すると、第2のサブシステムの第2のセンサからのセンサ情報に基づいて、ユーザの状況履歴の情報が更新される。このようにすれば、第1のサブシステムにおいて更新された状況履歴情報を、第2のサブシステムの第2のセンサからのセンサ情報に基づき継続して更新することが可能になり、複数のサブシステムの統合システムに好適な制御システムを提供できる。   According to the present invention, the user's situation history is stored in the history information storage means as situation history information. When an available event of the second subsystem occurs, the information on the user's situation history is updated based on the sensor information from the second sensor of the second subsystem. In this way, the status history information updated in the first subsystem can be continuously updated based on the sensor information from the second sensor in the second subsystem, and a plurality of sub-systems can be updated. A control system suitable for an integrated system can be provided.

また本発明では、前記親密度評価部は、提示候補となるコンテンツに関連するユーザの過去の行動履歴の情報に基づいて、コンテンツに対するユーザの親密度を評価してもよい。   In the present invention, the closeness evaluation unit may evaluate the closeness of the user with respect to the content based on information on the past behavior history of the user related to the content that is a candidate for presentation.

このようにすれば、ユーザの過去の行動履歴を反映させたコンテンツの親密度の評価処理を実現できる。   In this way, it is possible to realize content intimacy evaluation processing that reflects a user's past action history.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.センサ情報の取得
本実施形態では、インスパイア型ユビキタスサービスを実現するために、ユーザの行動、状態、環境を計測する行動センサ(行動計測部)、状態センサ(状態計測部)、環境センサ(環境計測部)からのセンサ情報を取得する。そして取得されたセンサ情報(センサ情報により推定されたユーザの状況情報)に基づいて、ユーザの現在の日常度(非日常度)を評価する。そこで、まず、このセンサ情報の取得手法について説明する。
1. Acquisition of sensor information In this embodiment, in order to realize an inspire ubiquitous service, a behavior sensor (behavior measurement unit), a state sensor (state measurement unit), and an environment sensor (environmental measurement) that measure user behavior, state, and environment. Sensor information from the computer). Then, based on the acquired sensor information (user status information estimated from the sensor information), the current ordinary degree (unusual degree) of the user is evaluated. First, the sensor information acquisition method will be described.

図1においてユーザ(使用者)は、携帯型電子機器100(モバイルゲートウェイ)を所持している。またモバイル制御対象機器としてウェアラブルディスプレイ140(モバイルディスプレイ)を頭部の一方の眼の近傍に装着している。更にウェアラブルセンサ(モバイルセンサ)として種々のセンサを身体に身につけている。具体的には、屋内外センサ510、周囲温度センサ511、周辺湿度センサ512、周辺光度センサ513、腕装着型の運動計測センサ520、脈拍(心拍数)センサ521、体温センサ522、抹消皮膚温度センサ523、発汗センサ524、足圧力センサ530、発話・咀嚼センサ540、携帯型電子機器100に設けられるGPS(Global Position System)センサ550、ウェアラブルディスプレイ140に設けられる顔色センサ560や瞳孔の大きさセンサ561などを装着している。これらの携帯型電子機器100や、ウェアラブルディスプレイ140などのモバイル制御対象機器や、ウェアラブルセンサなどによりモバイルサブシステムが構成される。   In FIG. 1, a user (user) has a portable electronic device 100 (mobile gateway). In addition, a wearable display 140 (mobile display) is mounted as a mobile control target device in the vicinity of one eye of the head. Furthermore, various sensors are worn on the body as wearable sensors (mobile sensors). Specifically, indoor / outdoor sensor 510, ambient temperature sensor 511, ambient humidity sensor 512, ambient light intensity sensor 513, arm-mounted motion measurement sensor 520, pulse (heart rate) sensor 521, body temperature sensor 522, peripheral skin temperature sensor 523, sweat sensor 524, foot pressure sensor 530, speech / mastication sensor 540, GPS (Global Position System) sensor 550 provided in portable electronic device 100, facial color sensor 560 provided in wearable display 140, pupil size sensor 561 Etc. are attached. A mobile subsystem is configured by the portable electronic device 100, a mobile control target device such as the wearable display 140, a wearable sensor, and the like.

携帯型電子機器100(モバイルコンピュータ)は、PDA(Personal Digital Assistant)、ノート型PCなどの携帯情報端末であり、例えばプロセッサ(CPU)、メモリ、操作パネル、通信装置、或いはディスプレイ(サブディスプレイ)などを備える。この携帯型電子機器100は、例えばセンサからのセンサ情報を収集する機能、収集したセンサ情報に基づいて演算処理を行う機能、演算結果に基づいて制御対象機器(ウェアラブルディスプレイ等)の制御(表示制御等)を行ったり外部のデータベースから情報を取り込む機能、外部と通信を行う機能などを有することができる。なお携帯型電子機器100は、携帯電話、腕時計、或いはポータブルオーディオなどとして兼用される機器であってもよい。   The portable electronic device 100 (mobile computer) is a portable information terminal such as a PDA (Personal Digital Assistant) or a notebook PC. For example, a processor (CPU), a memory, an operation panel, a communication device, a display (sub-display), or the like. Is provided. The portable electronic device 100 has, for example, a function of collecting sensor information from sensors, a function of performing arithmetic processing based on the collected sensor information, and control (display control) of a control target device (such as a wearable display) based on a calculation result. Etc.), a function of retrieving information from an external database, a function of communicating with the outside, and the like. The portable electronic device 100 may be a device that is also used as a mobile phone, a wristwatch, a portable audio, or the like.

ウェアラブルディスプレイ140(広義には情報提示部)は、ユーザの一方の眼の近傍に装着されると共にディスプレイ部の大きさが瞳孔の大きさよりも小さくなるように設定され、いわゆるシースルービューアの情報表示部として機能する。なおユーザへの情報提示は、ヘッドフォン、バイブレータなどを用いて行ってもよい。またモバイル制御対象機器(情報提示部)としては、ウェアラブルディスプレイ140以外にも、例えば腕時計、携帯電話、或いはポータブルオーディオなどの種々の機器を想定できる。   The wearable display 140 (information presentation unit in a broad sense) is mounted in the vicinity of one eye of the user and is set so that the size of the display unit is smaller than the size of the pupil. Function as. Information presentation to the user may be performed using headphones, a vibrator, or the like. In addition to the wearable display 140, various devices such as a wristwatch, a mobile phone, or a portable audio can be assumed as the mobile control target device (information presentation unit).

屋内外センサ510は、ユーザが屋内にいるのか屋外にいるのかを検知するセンサであり、例えば超音波を照射し、天井等により超音波が反射して戻ってくるまでの時間を計測する。但し屋内外センサ510は、超音波方式に限らず、アクティブ光方式、パッシブ紫外線方式、パッシブ赤外線方式、パッシブ騒音方式のセンサであってもよい。   The indoor / outdoor sensor 510 is a sensor that detects whether the user is indoors or outdoors. For example, the user irradiates ultrasonic waves and measures the time until the ultrasonic waves are reflected back from the ceiling or the like. However, the indoor / outdoor sensor 510 is not limited to the ultrasonic method, and may be an active light method, passive ultraviolet method, passive infrared method, or passive noise method sensor.

周囲温度センサ511は、例えばサーミスタ、放射温度計、熱電対などを用いて外界温度を計測する。周辺湿度センサ512は、例えば湿度によって電気抵抗が変化することを利用して周囲の湿度を計測する。周辺光度センサ513は、例えば光電素子を用いて周囲の光度を計測する。   The ambient temperature sensor 511 measures the ambient temperature using, for example, a thermistor, a radiation thermometer, a thermocouple, or the like. The ambient humidity sensor 512 measures the ambient humidity using, for example, the change in electrical resistance due to humidity. The ambient light intensity sensor 513 measures the ambient light intensity using, for example, a photoelectric element.

腕装着型の運動計測センサ520は、加速度センサや角加速度センサでユーザの腕の動きを計測する。この運動計測センサ520と足圧力センサ530を用いることでユーザの日常動作、歩行状態を更に正確に計測できる。脈拍(心拍数)センサ521は、手首又は指又は耳に装着し、例えば拍動に伴う血流の変化を赤外光の透過率や反射率の変化で計測する。体温センサ522、抹消皮膚温度センサ523は、サーミスタ、放射温度計、熱電対などを用いてユーザの体温、抹消皮膚温度を計測する。発汗センサ524は、例えば皮膚の表面抵抗の変化により皮膚の発汗を計測する。足圧力センサ530は、靴にかかる足裏の圧力分布を検出して、ユーザの立ち状態、座り状態、歩行状態などを計測、判定する。   The arm-mounted motion measurement sensor 520 measures the movement of the user's arm with an acceleration sensor or an angular acceleration sensor. By using the motion measurement sensor 520 and the foot pressure sensor 530, it is possible to more accurately measure the user's daily motion and walking state. The pulse (heart rate) sensor 521 is attached to the wrist, finger, or ear, and measures, for example, changes in blood flow associated with pulsation by changes in infrared light transmittance and reflectance. The body temperature sensor 522 and the peripheral skin temperature sensor 523 measure the user's body temperature and peripheral skin temperature using a thermistor, a radiation thermometer, a thermocouple, and the like. The perspiration sensor 524 measures the perspiration of the skin based on, for example, a change in the surface resistance of the skin. The foot pressure sensor 530 detects the pressure distribution of the sole on the shoe, and measures and determines the user's standing state, sitting state, walking state, and the like.

発話・咀嚼センサ540は、ユーザが発話中(会話中)であるか、咀嚼中(食事中)であるかの可能性を計測するためのイヤホン型のセンサであり、その筺体内に骨伝導マイク、外界音マイクが内蔵されている。骨伝導マイクは、発話・咀嚼時に体内から生じ、体内を伝搬する振動である体内音を検出する。外界音マイクは、発話に応じて体外に伝導する振動である音声や、環境の雑音を含む外界音を検出する。そして骨伝導マイク、外界音マイクにより捕らえられた音の単位時間におけるパワーの比較処理等を行うことで、発話可能性や咀嚼可能性を計測する。   The utterance / mastication sensor 540 is an earphone-type sensor for measuring the possibility that the user is speaking (conversation) or mastication (meal), and a bone conduction microphone is included in the body. Built-in external sound microphone. The bone conduction microphone detects a body sound which is a vibration generated from the body during speech and mastication and propagating through the body. The external sound microphone detects sound that is vibration that is conducted outside the body in response to an utterance and external sound including environmental noise. Then, by comparing the power of the sound captured by the bone conduction microphone and the external sound microphone in unit time, etc., the utterance possibility and mastication possibility are measured.

GPSセンサ550はユーザの位置(場所)を検知するセンサである。なおGPSセンサ550の代わりに携帯電話の位置情報サービスや周辺にある無線LANの位置情報を利用してもよい。顔色センサ560は、例えば顔面近くに光センサを配置し、複数の光学的バンドパスフィルタを通過した後の光度を比較して顔色を計測する。瞳孔の大きさセンサ561は、例えば瞳孔の近くにカメラを配置し、カメラの信号を解析して瞳孔の大きさを計測する。   The GPS sensor 550 is a sensor that detects the position (location) of the user. Instead of the GPS sensor 550, a location information service of a mobile phone or location information of a wireless LAN in the vicinity may be used. The face color sensor 560, for example, arranges an optical sensor near the face, and measures the face color by comparing the light intensity after passing through a plurality of optical bandpass filters. The pupil size sensor 561, for example, places a camera near the pupil and analyzes the camera signal to measure the size of the pupil.

なお、図1では携帯型電子機器100、ウェアラブルセンサ等により構成されるモバイルサブシステムにより、センサ情報を取得しているが、後述するように、複数のサブシステムにより構成される統合システムによりセンサ情報を取得して、ユーザの状況(行動履歴)を推定してもよい。   In FIG. 1, sensor information is acquired by a mobile subsystem including a portable electronic device 100, a wearable sensor, and the like. However, as described later, sensor information is acquired by an integrated system including a plurality of subsystems. And the user's situation (behavior history) may be estimated.

2.第1のシステム構成
図2に本実施形態の第1のシステム構成例を示す。図2において本実施形態の情報提示システム(情報提供システム)は、例えば携帯型電子機器100の処理部102により実現される。
2. First System Configuration FIG. 2 shows a first system configuration example of the present embodiment. In FIG. 2, the information presentation system (information providing system) of the present embodiment is realized by, for example, the processing unit 102 of the portable electronic device 100.

ユーザが所持する携帯型電子機器100は、処理部102、記憶部120、情報記憶媒体130、通信部138を含む。   A portable electronic device 100 possessed by a user includes a processing unit 102, a storage unit 120, an information storage medium 130, and a communication unit 138.

処理部102は、図示しない操作部からの操作情報や、ウェアラブルセンサ150から取得されたセンサ情報などに基づいて、携帯型電子機器100の動作等に必要な種々の処理を行う。この処理部102の機能は、各種プロセッサ(CPU等)、ASIC(ゲートアレイ等)などのハードウェアや、情報記憶媒体130(光ディスク、ICカード、HDD等)に記憶されたプログラムなどにより実現できる。   The processing unit 102 performs various processes necessary for the operation of the portable electronic device 100 based on operation information from an operation unit (not shown), sensor information acquired from the wearable sensor 150, and the like. The function of the processing unit 102 can be realized by hardware such as various processors (CPU, etc.), ASIC (gate array, etc.), a program stored in the information storage medium 130 (optical disc, IC card, HDD, etc.), and the like.

処理部102は、センサ情報取得部104、状況推定部106、日常度評価部110、親密度評価部112、コンテンツ選択部114を含む。なおこれらの構成要素の一部(例えばセンサ情報取得部、状況推定部)を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。   The processing unit 102 includes a sensor information acquisition unit 104, a situation estimation unit 106, a dailyness evaluation unit 110, a closeness evaluation unit 112, and a content selection unit 114. Various modifications may be made such as omitting some of these components (for example, the sensor information acquisition unit and the situation estimation unit) or adding other components.

センサ情報取得部104は、ウェアラブルセンサ150(広義にはセンサ)からのセンサ情報を取得する。具体的には、ウェアラブルセンサ150は、ユーザの行動(歩行、会話、食事、手足の動き、感情表現又は睡眠等)を計測する行動センサ、ユーザの状態(疲労、緊張、空腹、精神状態、身体状態又はユーザに発生したイベント等)を計測する状態センサ、及びユーザの環境(場所、明るさ、気温又は湿度等)を計測する環境センサの少なくとも1つのセンサを含んでおり、センサ情報取得部104は、これらのセンサからのセンサ情報を取得する。   The sensor information acquisition unit 104 acquires sensor information from the wearable sensor 150 (sensor in a broad sense). Specifically, the wearable sensor 150 is a behavior sensor that measures user behavior (walking, conversation, meal, limb movement, emotional expression, sleep, etc.), user status (fatigue, tension, hunger, mental status, body The sensor information acquisition unit 104 includes at least one of a state sensor that measures a state or an event that has occurred to the user, and an environmental sensor that measures the user's environment (location, brightness, temperature, humidity, etc.). Acquires sensor information from these sensors.

なおセンサは、センサデバイス自体であってもよいし、センサデバイスの他に制御部や通信部等を含むセンサ機器であってもよい。またセンサ情報は、センサから直接得られるセンサ1次情報であってもよいし、センサ1次情報を加工処理(情報処理)することで得られるセンサ2次情報であってもよい。   The sensor may be the sensor device itself, or may be a sensor device including a control unit, a communication unit, and the like in addition to the sensor device. The sensor information may be sensor primary information obtained directly from the sensor, or sensor secondary information obtained by processing (information processing) the sensor primary information.

状況推定部106(状況同定部)は、センサ情報取得部104により取得されたセンサ情報等に基づいて、ユーザの状況(ユーザの行動、状態及び環境の少なくとも1つ)を推定(同定)するための処理を行う。具体的には、取得されたセンサ情報の乗算処理や加算処理などを行い、センサ情報のフィルタリング処理(選択処理)や解析処理のための種々の演算処理を実現する。そして、ユーザの現在の状況を推定する処理である状況同定処理を行う。或いは、ユーザの未来の状況を推定する処理である状況予測処理を行う。   The situation estimation unit 106 (situation identification unit) estimates (identifies) the user's situation (at least one of the user's behavior, state, and environment) based on the sensor information acquired by the sensor information acquisition unit 104. Perform the process. Specifically, multiplication processing or addition processing of the acquired sensor information is performed to realize various calculation processing for sensor information filtering processing (selection processing) or analysis processing. And the situation identification process which is a process which estimates a user's present condition is performed. Alternatively, a situation prediction process that is a process for estimating the future situation of the user is performed.

例えば下式(1)に示すように、複数のセンサからの複数のセンサ情報のデジタル化された計測値Xと、各係数が係数記憶部(図示せず)に記憶され、2次元行列(マトリックス)で表される係数Aijとの積和演算を行う。そうして下式(2)に示すように、積和演算の結果を多次元座標としてn次元のベクトルYとして演算する。なお、iはn次元空間のi座標であり、jは各センサに割り当てられる番号である。 For example, as shown in the following formula (1), digitized measurement values X j of a plurality of sensor information from a plurality of sensors and respective coefficients are stored in a coefficient storage unit (not shown), and a two-dimensional matrix ( A product-sum operation with a coefficient A ij represented by a matrix) is performed. Then, as shown in the following equation (2), the result of the product-sum operation is calculated as an n-dimensional vector Y i using multidimensional coordinates. Note that i is the i coordinate in the n-dimensional space, and j is a number assigned to each sensor.

Figure 0005060978
Figure 0005060978

Figure 0005060978
Figure 0005060978

上式(1)(2)のような演算処理を行うことで、取得されたセンサ情報の中から不要なセンサ情報を除去するフィルタリング処理や、ユーザの行動、状態、環境(TPO情報)をセンサ情報に基づき推定するための解析処理などを実現できる。例えば脈拍(心拍数)、発汗量、体温の計測値Xに対して乗算される係数Aを、その他のセンサ情報の計測値に対する係数よりも大きな値に設定すれば、上式(1)(2)で演算された数値Yは、ユーザの状態である「興奮度」を表すものになる。また発話量の計測値Xに対して乗算される係数と、足圧力の計測値Xに対して乗算される係数を適当な値に設定することで、ユーザの行動が、着座して会話しているのか、歩きながら会話しているのか、静かに思考しているのか、睡眠状態なのか等を推定できる。   Filtering processing that removes unnecessary sensor information from the acquired sensor information, and user behavior, state, and environment (TPO information) by performing arithmetic processing such as the above formulas (1) and (2) Analytical processing for estimation based on information can be realized. For example, if the coefficient A multiplied by the measured value X of the pulse (heart rate), the amount of sweat, and the body temperature is set to a value larger than the coefficient for the measured value of other sensor information, the above formulas (1) and (2 The numerical value Y calculated in () represents the “excitability” that is the user's state. In addition, by setting the coefficient multiplied by the measured value X of the utterance amount and the coefficient multiplied by the measured value X of the foot pressure to appropriate values, the user's behavior can sit and talk. It is possible to estimate whether the user is talking, walking, talking quietly, sleeping, or the like.

このようにしてユーザの状況を推定することで、時間情報(年、月、週、日、時間等)、ユーザの場所情報(位置、所属領域、距離等)及びユーザの状態情報(精神・肉体状態、ユーザに対して発生したイベント等)の少なくとも1つであるTPO(Time Place Occasion)情報を得ることができる。なおTPO情報は、センサからのセンサ情報に基づいて取得してもよいし、予定表データ(スケジュール情報)や、インターネットからのダウンロードデータなどに基づいて取得してもよい。   By estimating the user's situation in this way, time information (year, month, week, day, time, etc.), user location information (position, affiliation area, distance, etc.) and user status information (mind / body) TPO (Time Place Occasion) information that is at least one of a state, an event that has occurred to the user, and the like can be obtained. The TPO information may be acquired based on sensor information from the sensor, or may be acquired based on schedule data (schedule information), download data from the Internet, or the like.

日常度評価部110はユーザの日常度(非日常度)の評価処理を行う。例えば、取得されたセンサ情報に基づいて、ユーザの現在の日常度を評価(判定)する。具体的には、取得されたセンサ情報に基づいて状況推定部106がユーザの状況(例えば現在の場所)を推定すると、ユーザの現在の状況が、日常的な状況なのか、非日常的な状況なのかを判断して、日常度を評価する。例えばユーザの状況履歴(例えばユーザの場所の状況履歴)の情報と、推定されたユーザの現在の状況(例えば現在の場所)の情報との比較処理を行うことで、ユーザの現在の日常度を評価できる。また予測されるユーザの行動と、ユーザの実際の行動との比較処理を行うことで、ユーザの現在の日常度を評価できる。なお日常度は、例えば、ユーザの過去の状況履歴との比較等において、ユーザの現在の状況が、どの程度、日常的なのか(普通、ありふれている、平凡)の度合いを表すパラメータである。またユーザの日常度を評価する処理と非日常度(普段とは違う、異常度)を評価する処理は、等価な処理として扱うことができる。   The everyday degree evaluation unit 110 performs an evaluation process of the daily degree (unusual degree) of the user. For example, the current ordinary degree of the user is evaluated (determined) based on the acquired sensor information. Specifically, when the situation estimation unit 106 estimates the user's situation (for example, current location) based on the acquired sensor information, whether the user's current situation is an everyday situation or an extraordinary situation. Judgment is made, and the degree of daily life is evaluated. For example, by comparing the information on the user's situation history (for example, the situation history of the user's location) with the information on the estimated current situation of the user (eg, the current location), the user's current daily life level can be determined. Can be evaluated. Moreover, a user's present ordinary degree can be evaluated by performing the comparison process of a user's action estimated and a user's actual action. The dailyness is a parameter that represents the degree of everydayness of the user's current situation (normal, common, mediocre), for example, in comparison with the user's past situation history. Also, the process for evaluating the user's daily level and the process for evaluating the extraordinary level (unusual, abnormal level) can be treated as equivalent processes.

親密度評価部112は親密度の評価処理を行う。例えばユーザへの提示候補となるコンテンツの親密度を評価(判定)する。具体的には、ユーザへの提示候補となるコンテンツのうち、状況推定部106により推定されたユーザの少なくとも現在の状況(場所)に関連するコンテンツについての親密度を評価する。例えば、提示候補となるコンテンツについてのユーザの過去の行動履歴の情報に基づいて、コンテンツに対するユーザの親密度を評価できる。またコンテンツに対して関連付けられたカテゴリ等のメタ情報に基づいて、コンテンツに対するユーザの親密度を評価できる。或いは、コンテンツに対するユーザの親密度と、コンテンツに対するユーザ以外の他人の親密度(人気度)とに基づいて、コンテンツの親密度を評価してもよい。なお親密度(familiar)は、例えば、ユーザ(或いは他人)が、そのコンテンツに対して、どの程度、親密(親しい、慣れ親しんでいる、良く知っている、良く利用している)なのかの度合いを表すパラメータである。   The intimacy evaluation unit 112 performs intimacy evaluation processing. For example, the familiarity of content that is a candidate for presentation to the user is evaluated (determined). Specifically, among the contents that are candidates for presentation to the user, the intimacy of the content related to at least the current situation (location) of the user estimated by the situation estimation unit 106 is evaluated. For example, the user's intimacy with respect to the content can be evaluated based on the information of the user's past behavior history regarding the content that is the candidate for presentation. Further, it is possible to evaluate a user's intimacy with respect to content based on meta information such as a category associated with the content. Alternatively, the closeness of the content may be evaluated based on the closeness of the user with respect to the content and the closeness (popularity) of others other than the user with respect to the content. In addition, familiarity (familiar), for example, the degree of intimacy (intimate, familiar, well-known, well-used) the user (or others) for the content It is a parameter to represent.

コンテンツ選択部114はコンテンツの選択処理を行う。具体的には、日常度評価部110での日常度の評価結果(日常度情報)と、親密度評価部112での親密度の評価結果(親密度情報)とに基づいて、ユーザへの提示候補となるコンテンツの中から、ウェアラブルディスプレイ140等のコンテンツ提示部によりユーザに対して提示するコンテンツを選択(決定)する。例えば、ユーザの日常度が高いと評価された場合(普段通りの状況であると評価された場合)には、提示候補となるコンテンツの中から、親密度が低いと評価されたコンテンツ(慣れ親しんでいないコンテンツ、普段は利用しないコンテンツ)を選択する。即ちユーザの日常度が高いほど、親密度の低いコンテンツを選択する。またユーザの日常度が低いと評価された場合(異常な状況であると評価された場合)に、提示候補となるコンテンツの中から、親密度が高いと評価されたコンテンツ(慣れ親しんでいるコンテンツ、いつも利用するコンテンツ)を選択する。即ちユーザの日常度が低いほど、親密度の高いコンテンツを選択する。なお、コンテンツに対するユーザ及び他人の親密度に基づき評価されたコンテンツの親密度に基づいて、コンテンツを選択してもよい。   The content selection unit 114 performs content selection processing. Specifically, the presentation to the user is based on the evaluation result of the ordinary degree (daily degree information) in the daily degree evaluation unit 110 and the evaluation result (intimacy information) of the familiarity in the familiarity evaluation unit 112. The content to be presented to the user is selected (determined) from the candidate content by the content presentation unit such as the wearable display 140. For example, when it is evaluated that the user's daily life is high (when it is evaluated that the situation is normal), content that is evaluated as having a low familiarity (content familiar) Unused content, content that you do not normally use). That is, as the dailyness of the user is higher, a content with a lower familiarity is selected. In addition, when the user's daily life is evaluated to be low (when it is evaluated as an abnormal situation), the content that is evaluated as having a high familiarity (content that is familiar, Select the content that you always use. In other words, the less familiar the user is, the more familiar content is selected. The content may be selected based on the familiarity of the content evaluated based on the familiarity of the user and others with respect to the content.

記憶部120は、処理部102、通信部138などのワーク領域となるもので、その機能はRAMなどのメモリやHDD(ハードディスクドライブ)などにより実現できる。この記憶部120は、コンテンツ情報記憶部122、親密度情報記憶部124を含む。   The storage unit 120 serves as a work area for the processing unit 102, the communication unit 138, and the like, and functions thereof can be realized by a memory such as a RAM or an HDD (hard disk drive). The storage unit 120 includes a content information storage unit 122 and a familiarity information storage unit 124.

コンテンツ情報記憶部122(コンテンツデータベース)は、例えばテキスト(文字、文章)、画像、映像、音楽、音声、或いは各種データ等であるコンテンツの情報を記憶する。このコンテンツは、リアルタイムに生成してもよいし、例えば通信部138を介して外部からダウンロードしてもよい。またコンテンツ情報記憶部122は、コンテンツに関連づけられたメタ情報(付加情報)を記憶することができる。   The content information storage unit 122 (content database) stores content information such as text (characters, sentences), images, video, music, audio, or various data. This content may be generated in real time, or may be downloaded from the outside via the communication unit 138, for example. The content information storage unit 122 can store meta information (additional information) associated with the content.

親密度情報記憶部124は親密度情報を記憶する。具体的には、例えばコンテンツのカテゴリに対する親密度の情報を記憶する。或いはユーザ以外の他人の親密度(人気度)の情報も記憶する。   The familiarity information storage unit 124 stores familiarity information. More specifically, for example, information on familiarity with respect to a content category is stored. Alternatively, information on the intimacy (popularity) of others other than the user is also stored.

情報記憶媒体130(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)などにより実現できる。処理部102は、情報記憶媒体130に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体130には、本実施形態の各部としてコンピュータ(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。   The information storage medium 130 (a computer-readable medium) stores programs, data, and the like, and its function can be realized by an optical disk (CD, DVD) or the like. The processing unit 102 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 130. That is, in the information storage medium 130, a program for causing a computer (an apparatus including an operation unit, a processing unit, a storage unit, and an output unit) to function as each unit of the present embodiment (a program for causing the computer to execute processing of each unit). Is memorized.

次に本実施形態の動作例について、図3のフローチャートを用いて説明する。   Next, an operation example of the present embodiment will be described using the flowchart of FIG.

まず、コンテンツ情報記憶部122(コンテンツデータベース)からコンテンツ情報を読み出す(抽出する)、或いはコンテンツをリアルタイムに生成することで、ユーザへの提示候補となるコンテンツを用意(準備)する(ステップS1)。そして、コンテンツに対して予め関連(対応)づけられたメタ情報等に基づいて、親密度情報記憶部124(親密度データベース)を参照して、コンテンツの親密度を評価する(ステップS2)。   First, content information is read (extracted) from the content information storage unit 122 (content database), or content is generated in real time, thereby preparing (preparing) content that is a candidate for presentation to the user (step S1). Then, the familiarity of the content is evaluated with reference to the familiarity information storage unit 124 (familiarity database) based on meta information or the like associated (corresponding) to the content in advance (step S2).

次に、センサ情報取得部104が、行動センサ、状態センサ、或いは環境センサからのセンサ情報を取得する(ステップS3)。そして日常度評価部110が、センサ情報により推定(同定)されるユーザの状況(過去の状況やその遷移状況)等に基づいて、ユーザの現在の日常度を評価する(ステップS4)。   Next, the sensor information acquisition part 104 acquires the sensor information from a behavior sensor, a state sensor, or an environment sensor (step S3). Then, the everydayness evaluation unit 110 evaluates the current everydayness of the user based on the user's situation (past situation and its transition situation) estimated (identified) by the sensor information (step S4).

次に、コンテンツ選択部114が、得られたコンテンツの親密度とユーザの日常度に基づいて、提示候補となるコンテンツの中から、ユーザに提示する適切なコンテンツを選択する(ステップS5)。そして選択されたコンテンツを、ウェアラブルディスプレイ140等の情報提示部によりユーザに提示(提供、表示)する(ステップS6)。   Next, the content selection unit 114 selects an appropriate content to be presented to the user from the content that is a candidate for presentation based on the familiarity of the obtained content and the dailyness of the user (step S5). Then, the selected content is presented (provided and displayed) to the user by an information presenting unit such as the wearable display 140 (step S6).

次に本実施形態の他の動作例について、図4のフローチャートを用いて説明する。   Next, another operation example of the present embodiment will be described with reference to the flowchart of FIG.

まず、センサ情報取得部104が、行動センサ、状態センサ、或いは環境センサからのセンサ情報を取得する(ステップS21)。そして、センサ情報に基づいて状況推定部106がユーザの状況を推定し、ユーザの状況に基づいて日常度評価部110がユーザの日常度を評価する(ステップS22)。   First, the sensor information acquisition unit 104 acquires sensor information from a behavior sensor, a state sensor, or an environment sensor (step S21). Then, the situation estimation unit 106 estimates the user's situation based on the sensor information, and the everydayness evaluation unit 110 evaluates the user's everydayness based on the user's situation (step S22).

次に、コンテンツ選択部114が、ユーザのTPO(Time Place Occasion)情報、及び日常度の関数で決まる親密度によって、コンテンツ情報記憶部122から提示候補となるコンテンツを抽出する(ステップS23)。そして、提示候補となるコンテンツの中からユーザに提示するコンテンツを選択し(ステップS24)、選択されたコンテンツをウェアラブルディスプレイ140等の情報提示部によりユーザに提示する(ステップS25)。具体的には、現在地からの距離や所要時間、予算などの他のメタ情報も活用して、コンテンツの順位付けを行い、その順位付けにしたがってウェアラブルディスプレイ140にコンテンツを表示する。このように図4の動作例では、ユーザの状況の推定の後に、コンテンツを抽出している。   Next, the content selection unit 114 extracts content as a presentation candidate from the content information storage unit 122 based on the user's TPO (Time Place Occasion) information and the familiarity determined by the function of dailyness (step S23). Then, the content to be presented to the user is selected from the content to be presented (step S24), and the selected content is presented to the user by the information presentation unit such as the wearable display 140 (step S25). Specifically, other meta information such as the distance from the current location, required time, and budget is also used to rank the contents, and the contents are displayed on the wearable display 140 according to the ranking. As described above, in the operation example of FIG. 4, the content is extracted after the estimation of the user situation.

3.第2のシステム構成例
図5に本実施形態の第2のシステム構成例を示す。図5のシステムでは、外部サーバやローカルサーバ(ホームサーバ)等であるサーバ200が設けられている。携帯型電子機器100とサーバ200は、例えばインターネット、無線LAN等で通信接続される。そして図5では本実施形態の情報提示システムは、主にサーバ200の処理部202により実現される。なお情報提示システムの処理を、サーバ200と携帯型電子機器100の分散処理により実現してもよい。
3. Second System Configuration Example FIG. 5 shows a second system configuration example of the present embodiment. In the system of FIG. 5, a server 200 that is an external server, a local server (home server), or the like is provided. The portable electronic device 100 and the server 200 are communicatively connected via, for example, the Internet or a wireless LAN. In FIG. 5, the information presentation system of this embodiment is mainly realized by the processing unit 202 of the server 200. Note that the processing of the information presentation system may be realized by distributed processing of the server 200 and the portable electronic device 100.

図5では、携帯型電子機器100のセンサ情報取得部104が、ウェアラブルセンサ150の行動センサ、状態センサ或いは環境センサからのセンサ情報を取得する。また状況推定部106が、取得されたセンサ情報に基づいてユーザの状況を推定する。そして、センサ情報やユーザの状況情報が、通信部138によりサーバ200に送信され、サーバ200が、通信部238を介して受信する。   In FIG. 5, the sensor information acquisition unit 104 of the portable electronic device 100 acquires sensor information from the behavior sensor, the state sensor, or the environment sensor of the wearable sensor 150. Moreover, the situation estimation part 106 estimates a user's condition based on the acquired sensor information. Then, sensor information and user status information are transmitted to the server 200 by the communication unit 138, and the server 200 receives the information via the communication unit 238.

すると、サーバ200の日常度評価部210は、受信したセンサ情報や状況情報に基づいて、ユーザの現在の日常度を評価する。また親密度評価部212は、ユーザへの提示候補となるコンテンツの親密度を評価する。具体的には、コンテンツ情報記憶部222からコンテンツの情報を読み出し、親密度情報記憶部224に記憶される親密度情報を参照して、親密度を評価する。   Then, the dailyness evaluation unit 210 of the server 200 evaluates the current dailyness of the user based on the received sensor information and situation information. The familiarity evaluation unit 212 also evaluates the familiarity of content that is a candidate for presentation to the user. Specifically, content information is read from the content information storage unit 222, and the familiarity is evaluated with reference to the familiarity information stored in the familiarity information storage unit 224.

コンテンツ選択部214は、得られた日常度と親密度に基づいて、ユーザへの提示候補となるコンテンツの中から、ユーザに対して提示するコンテンツを選択する。そして選択したコンテンツの情報を通信部238を介して携帯型電子機器100に送信する。すると、携帯型電子機器100は、通信部138を介してコンテンツの情報を受信し、受信したコンテンツの情報をウェアラブルディスプレイ140を用いてユーザに提示(表示)する。   The content selection unit 214 selects content to be presented to the user from the content that is a candidate for presentation to the user, based on the obtained dailyness and familiarity. Then, the information of the selected content is transmitted to the portable electronic device 100 via the communication unit 238. Then, the portable electronic device 100 receives content information via the communication unit 138 and presents (displays) the received content information to the user using the wearable display 140.

図5の第2のシステム構成例によれば、日常度の評価処理や親密度の評価処理を、サーバ200に一元化して処理、管理できる。これにより、携帯型電子機器100での処理負荷を軽減でき、処理を効率化できる。またコンテンツ情報や親密度情報はサーバ200が有する大容量の記憶部220に記憶され、提示候補となる全てのコンテンツの情報を携帯型電子機器100の記憶部120に記憶しなくても済むため、多種多様なコンテンツをサーバ200側に用意してユーザに提供できるようになる。   According to the second system configuration example of FIG. 5, the dailyness evaluation process and the familiarity evaluation process can be centralized and processed in the server 200. Thereby, the processing load in the portable electronic device 100 can be reduced, and the processing can be made efficient. In addition, since the content information and the familiarity information are stored in the large-capacity storage unit 220 of the server 200, it is not necessary to store the information on all the contents that are candidates for presentation in the storage unit 120 of the portable electronic device 100. A variety of contents can be prepared on the server 200 side and provided to the user.

4.具体的な動作例
次に本実施形態の具体的な動作例について図6(A)〜図10を用いて説明する。なお以下では、図2の第1のシステム構成を用いた場合の例について説明するが、図5の第2のシステム構成を用いた場合も同様の動作になる。また以下では、図3の動作例のように、ユーザの状況の推定の前にコンテンツの抽出を行う場合を例にとり説明するが、図4の動作例のように、ユーザの状況の推定の後にコンテンツの抽出を行うようにしてもよい。
4). Specific Operation Example Next, a specific operation example of the present embodiment will be described with reference to FIGS. In the following, an example in which the first system configuration of FIG. 2 is used will be described, but the same operation is performed when the second system configuration of FIG. 5 is used. In the following, a case where content is extracted before estimation of a user situation as in the operation example of FIG. 3 will be described as an example. However, after estimation of a user situation as in the operation example of FIG. Content may be extracted.

図6(A)、図6(B)は、平日の昼頃に、勤め先である新宿の近所を普段通りに歩いているユーザに対して、昼食案内を行う場合の例である。この場合には、いつも行っている店A1(ハンバーガ屋)、店B1(牛丼屋)、店C1(定食屋)や、普段はあまり行かない店D1(中華)、店E1(イタリアン)や、入ったことがない店F1(カレー屋)、店G1(フレンチ)の案内情報が、提示候補となるコンテンツ情報としてコンテンツ情報記憶部122(222)から抽出される。   FIG. 6A and FIG. 6B are examples in the case where lunch guidance is given to a user who normally walks in the neighborhood of Shinjuku, the workplace, around noon on weekdays. In this case, store A1 (hamburger), store B1 (gyudonya), store C1 (dinner), store D1 (Chinese), store E1 (Italian) Guidance information of the store F1 (curry shop) and the store G1 (French) that has never entered is extracted from the content information storage unit 122 (222) as content information that is a candidate for presentation.

図9にコンテンツ情報記憶部122に記憶されるコンテンツ情報の例を示す。図9では、カテゴリ、地域(緯度経度)、人気度等のメタ情報が各店のコンテンツに関連づけて記憶される。   FIG. 9 shows an example of content information stored in the content information storage unit 122. In FIG. 9, meta information such as category, region (latitude and longitude), and popularity is stored in association with the contents of each store.

また図10に親密度情報記憶部124に記憶される親密度情報の例を示す。図10では、カテゴリ(ジャンル)に関連づけてユーザの親密度が記憶される。なおカテゴリに関連づけてユーザ以外の他人の親密度(人気度)を記憶してもよい。   FIG. 10 shows an example of familiarity information stored in the familiarity information storage unit 124. In FIG. 10, the closeness of the user is stored in association with the category (genre). The intimacy (popularity) of others other than the user may be stored in association with the category.

図10に示すように、親密度情報記憶部124では、いつも行っているハンバーガ屋、牛丼屋、定食屋のカテゴリについては、親密度が5になっており、あまり行かない中華、イタリアンのカテゴリについては、親密度が3になっている。また、入ったことのないカレー屋、フレンチのカテゴリについては、親密度が1になっている。   As shown in FIG. 10, in the familiarity information storage unit 124, the familiarity of the hamburger shop, the beef bowl restaurant, and the set meal shop category is 5 and the Chinese and Italian categories that do not go so often. For, the intimacy is 3. In addition, the intimacy is 1 for the curry and french categories that have never been entered.

そして図9のコンテンツ情報では、店A1のカテゴリ(メタ情報)はハンバーガ屋として記述されており、図10の親密度情報では、ハンバーガ屋のカテゴリに対するユーザの親密度は5になっている。従って、店A1の親密度は5になる。同様に、店B1、C1のカテゴリは牛丼屋、定食屋であり、そのカテゴリの親密度は5であるため、店B1、C1の親密度は5になる。また店D1、E1は中華、イタリアンであるためその親密度は3になり、店F1、G1はカレー屋、フレンチであるためその親密度は1になる。   In the content information of FIG. 9, the category (meta information) of the store A1 is described as a hamburger shop, and in the familiarity information of FIG. 10, the user's familiarity with the hamburger shop category is 5. Therefore, the intimacy of the store A1 is 5. Similarly, the categories of the stores B1 and C1 are beef restaurant and set restaurant, and the closeness of the category is 5, so the closeness of the stores B1 and C1 is 5. Further, since the stores D1 and E1 are Chinese and Italian, the intimacy is 3, and since the stores F1 and G1 are curry restaurants and French, the intimacy is 1.

このように本実施形態では、コンテンツ情報記憶部122が、図9に示すようにメタ情報としてコンテンツのカテゴリの情報を記憶し、親密度情報記憶部124が、図10に示すようにコンテンツのカテゴリに対する親密度の情報を記憶する。そして親密度評価部112は、提示候補となるコンテンツのカテゴリの情報を、コンテンツ情報記憶部122から読み出す。そして読み出されたカテゴリの情報に対する親密度の情報を、親密度情報記憶部124から読み出すことで、コンテンツに対するユーザの親密度を評価する。   As described above, in the present embodiment, the content information storage unit 122 stores content category information as meta information as shown in FIG. 9, and the familiarity information storage unit 124 stores content categories as shown in FIG. Store intimacy information for. Then, the familiarity evaluation unit 112 reads out information on the content category that is a candidate for presentation from the content information storage unit 122. Then, the familiarity information for the read category information is read from the familiarity information storage unit 124 to evaluate the familiarity of the user with respect to the content.

状況推定部106は、行動、状態、環境のセンサからのセンサ情報に基づいて、平日の昼頃に勤め先の近所を歩いているというユーザの状況をセンシングして推定(同定)する。日常度評価部110は、記憶部120に記憶されている過去の状況から、推定された状況が、ユーザの普段の状況であると認識し、日常度を5と評価する。   The situation estimation unit 106 senses and estimates (identifies) the situation of the user who is walking in the neighborhood of his / her office around noon on weekdays based on sensor information from behavioral, state, and environmental sensors. The dailyness evaluation unit 110 recognizes that the estimated situation is a normal situation of the user based on the past situation stored in the storage unit 120, and evaluates the everydayness as 5.

コンテンツ選択部114は、日常と非日常を適度にバランスさせるために、例えば、日常度と親密度の加算結果がほぼ一定になるようなコンテンツを、より優先的に選択するように動作する。ここではそれぞれ5段階評価なので、加算結果が6となるように、ユーザの日常度=5に対応するコンテンツとして、親密度が1であるカレー屋の店F1、フレンチの店G1の案内情報を選択することにする。   In order to appropriately balance daily life and extraordinary life, the content selection unit 114 operates, for example, to preferentially select content for which the addition result of dailyness and intimacy is almost constant. Here, since each of the five-level evaluations, the guidance information of the curry store F1 and the French store G1 with closeness of 1 is selected as the content corresponding to the user's daily life level = 5 so that the addition result is 6. I will do it.

すると、選択された店F1、G1の案内情報が、情報提示部であるウェアラブルセンサディスプレイ140によりユーザに提示される。具体的には図6(B)に示すように、気分転換にいつもとは違ったカテゴリの店を案内する旨の表示を行い、昼食の候補の店として、ユーザにとって親密度が低いカレー屋の店F1、フレンチの店G1を勧める表示を行う。   Then, the guide information of the selected stores F1 and G1 is presented to the user by the wearable sensor display 140 that is an information presentation unit. Specifically, as shown in FIG. 6 (B), a display indicating that a store of a category different from usual is used for a change of mood, and a curry restaurant with low intimacy for the user as a candidate store for lunch. The display recommending the store F1 and the French store G1 is performed.

即ち、図6(A)のユーザの状況は、普段通りであり、日常度が高い。このように日常度が高いと評価された場合には、親密度が低いと評価されたコンテンツの情報を提示する。このようにすれば、ともすると何も考えずに何となく行動している日常に変化を与えるきっかけを作り、ユーザーがこれを受け入れて新しい体験をすることで、新たな気づきや発見・感動が生まれることを期待できる。   That is, the situation of the user in FIG. Thus, when it is evaluated that the ordinary degree is high, the information of the content evaluated that the familiarity is low is presented. In this way, it is possible to create a new awareness, discovery, and excitement by creating an opportunity to change the daily life that somehow behaves without thinking, and accepting this and experiencing new experiences by the user. Can be expected.

図7(A)、図7(B)は、平日の昼頃に、出張先である大阪を歩いているユーザに対して、昼食案内を行う場合の例である。   FIG. 7A and FIG. 7B are examples when lunch guidance is given to a user walking in Osaka, which is a business trip destination, around noon on weekdays.

この場合には、店A2(ハンバーガ屋)、店B2(牛丼屋)、店C2(定食屋)、店D2(中華)、店E2(イタリアン)、地元で人気の店F2(カレー屋)、店G2(フレンチ)、大阪への旅行者に人気の店H2(たこ焼き屋)などの案内情報が、提示候補となるコンテンツ情報として抽出される。   In this case, store A2 (hamburger), store B2 (gyudonya), store C2 (meal restaurant), store D2 (Chinese food), store E2 (Italian), local popular store F2 (curry restaurant), Guidance information such as the store G2 (French) and the store H2 (Takoyaki restaurant) popular with travelers to Osaka is extracted as content information that is a candidate for presentation.

また、いつも行っているハンバーガ屋、牛丼屋、定食屋は図10に示すように親密度が5になっており、あまり行かない中華、イタリアンは親密度が3になっており、入ったことのないカレー屋、フレンチ、たこ焼き屋は親密度が1になっている。   Also, the hamburgers, beef bowls, and set meals that I always go to have a familiarity of 5 as shown in Fig. 10, Chinese and Italian who don't go very much have a familiarity of 3, and entered Curry restaurants, French restaurants, and takoyaki restaurants have no intimacy.

そして店A2、B2、C2のカテゴリはハンバーガ屋、牛丼屋、定食屋であるため、その親密度は5になる。また店D2、E2のカテゴリは中華、イタリアンであるため親密度は3になり、店F2、G2、H2のカテゴリはカレー屋、フレンチ、たこ焼き屋であるため親密度は1になる。   And since the categories of stores A2, B2, and C2 are hamburger restaurants, beef bowl restaurants, and set meal restaurants, their familiarity is 5. In addition, since the categories of the stores D2 and E2 are Chinese and Italian, the intimacy is 3, and the categories of the stores F2, G2, and H2 are curry, french, and takoyaki, so the intimacy is 1.

状況推定部106は、センサ情報に基づいて、平日の昼頃に大阪を歩いているといったユーザの状況をセンシングして推定する。日常度評価部110は、記憶部120に記憶されている過去の状況から、大阪はユーザの普段の状況ではないものの、普段の状況である新宿と同じ都市カテゴリに属しているので(似たような状況には何度か遭遇していると認識し)、日常度を3と評価する。このように場所の日常度とカテゴリの日常度を分けて取り扱ってもよい。   The situation estimation unit 106 senses and estimates a user situation such as walking in Osaka around noon on weekdays based on the sensor information. The daily life evaluation unit 110, based on the past situation stored in the storage unit 120, is not the user's usual situation, but belongs to the same city category as the usual situation of Shinjuku (similarly Recognizing that he / she has encountered such a situation several times) In this way, the everydayness of the place and the everydayness of the category may be handled separately.

コンテンツ選択部114は、例えば、日常度と親密度の加算結果がほぼ一定になるようなコンテンツを、より優先的に選択するように動作する。従って、ユーザの日常度=3に対応するコンテンツとして、親密度が3である中華の店D2、イタリアンの店E2の案内情報を選択する。   For example, the content selection unit 114 operates so as to more preferentially select content for which the addition result of dailyness and intimacy is substantially constant. Accordingly, as the content corresponding to the user's daily life level = 3, the guide information of the Chinese store D2 and the Italian store E2 whose intimacy is 3 is selected.

ここで、自分だけでなく、他の多くの人にとっての親密度(人気度)についても評価として加算(+2)することにすると、地元で人気のカレー屋の店F2や、大阪への旅行者に人気のたこ焼き屋の店H2も親密度3になり、これらの案内情報も選択される
すると、選択された店D2、E2、F2、H2の案内情報が、情報提示部であるウェアラブルセンサディスプレイ140によりユーザに提示される。具体的には図7(B)に示すように、せっかく大阪に来たのだから地元や旅行者に人気の店も紹介する旨の表示を行い、昼食の候補の店として、中華の店D2、イタリアンの店E2を勧めると共に、地元で人気のカレー屋の店F2や旅行者に人気のたこ焼き屋の店H2についても勧める表示を行う。
Here, if you add (+2) to the familiarity (popularity) not only for yourself but also for many other people as an evaluation, it is a popular curry shop F2 in local and travelers to Osaka. The popular Takoyaki shop H2 also becomes familiarity 3, and when these guidance information is also selected, the guide information of the selected shops D2, E2, F2, and H2 is the wearable sensor display 140, which is an information presentation unit. Is presented to the user. Specifically, as shown in FIG. 7 (B), since it came to Osaka with a lot of attention, it displays that it will introduce popular shops to locals and travelers, and as a candidate for lunch, a Chinese shop D2, In addition to recommending the Italian store E2, the display also recommends the locally popular curry store F2 and the takoyaki store H2 popular with travelers.

即ち、図7(A)のユーザの状況は、日常と非日常の中ぐらい程度であり、このような状況では、親密度についても中ぐらいと評価されたコンテンツの情報を提示する。このようにすれば、日常的ではないものの、比較的よく似たような経験をする状況では、その中でも日常では経験しにくいその状況ならではの体験をするきっかけを作り、ユーザがこれを受け入れて新しい体験をすることで、新たな気づきや発見・感動が生まれることを期待できる。またユーザの「せっかくここまで来たんだから・・・」という気持ちにも応えることができる。   That is, the situation of the user in FIG. 7A is about the middle of everyday and extraordinary, and in such a situation, the information of the content that is evaluated to be moderate about the familiarity is presented. In this way, in situations where the experience is not everyday but relatively similar, it is possible to create an opportunity for a unique experience that is difficult to experience in daily life. You can expect new experiences, discoveries, and excitement through the experience. In addition, it is possible to respond to the user's feeling that "I have come so far ...".

図8(A)、図8(B)は、平日の昼頃に、出張先である海外の田舎町を歩いているユーザに対して、昼食案内を行う場合の例である。   FIG. 8A and FIG. 8B are examples in the case where lunch guidance is given to a user who is walking in a countryside overseas business trip destination around noon on weekdays.

この場合には、店A3(ハンバーガ屋)、店D3(中華)、店E3(イタリアン)、店F3(カレー屋)などの案内情報が、提示候補となるコンテンツ情報として抽出される。   In this case, guide information such as the store A3 (hamburger store), the store D3 (Chinese restaurant), the store E3 (Italian), and the store F3 (curry store) is extracted as the content information that is a candidate for presentation.

また、いつも行っているハンバーガ屋は図10に示すように親密度が5になっており、あまり行かない中華、イタリアンは親密度が3になっており、入ったことのないカレー屋は親密度が1になっている。従って、ハンバーガ屋である店A3の親密度は5になり、中華、イタリアンである店D3、E3の親密度は3になり、カレー屋である店F3の親密度は1になる。   In addition, the hamburger shop that I always go to has an intimacy of 5 as shown in Fig. 10, Chinese and Italian who don't go so much have an intimacy of 3, and curry shops that I have never entered are intimacy. Is 1. Therefore, the intimacy of the store A3 which is a hamburger shop is 5, the intimacy of the shops D3 and E3 which are Chinese and Italian is 3, and the intimacy of the shop F3 which is a curry shop is 1.

状況推定部106は、センサ情報に基づいて、平日の昼頃に海外の田舎町を歩いているといったユーザの状況をセンシングして推定する。日常度評価部110は、過去の状況から、それがユーザの普段の状況ではなく、似たような状況に過去にも遭遇していないと認識して、日常度を1と評価する
コンテンツ選択部114は、例えば、日常度と親密度の加算結果がほぼ一定になるようなコンテンツを、より優先的に選択するように動作する。従って、ユーザの日常度=1に対応するコンテンツとして、親密度が5であるハンバーガ屋A3を選択する。
Based on the sensor information, the situation estimation unit 106 senses and estimates the user's situation such as walking in a countryside town around noon on weekdays. The dailyness evaluation unit 110 recognizes that the user has not encountered a similar situation in the past from the past situation, and evaluates the dailyity as 1. Content selection unit 114, for example, operates so as to preferentially select content for which the addition result of dailyness and intimacy becomes substantially constant. Therefore, the hamburger shop A3 having a familiarity of 5 is selected as the content corresponding to the user's dailyness = 1.

すると、選択された店A3の案内情報が、ウェアラブルセンサディスプレイ140によりユーザに提示される。具体的には図8(B)に示すように、はじめて来た海外の田舎町だから安心なお店を紹介する旨の表示を行い、昼食の候補の店として、ハンバーガ屋の店A3を勧める表示を行う。   Then, the guide information of the selected store A3 is presented to the user by the wearable sensor display 140. Specifically, as shown in FIG. 8 (B), a display that introduces a safe shop because it is the first overseas country town, and a display that recommends a hamburger shop A3 as a candidate for lunch is displayed. Do.

即ち、図8(A)のユーザの状況は非日常的な状況であり、このような状況では、ユーザを安心させるために親密度が高いと評価されたコンテンツの情報を提示する。このようにすれば、日常的ではなく、よく似たような経験もしていないような不安な状況では、その中でも比較的日常に経験している状況に導く情報を提示し、ユーザがこれを受け入れることで、安心感が生まれることが期待できる。   That is, the situation of the user in FIG. 8A is an extraordinary situation, and in such a situation, information of content that is evaluated as having a high degree of closeness is presented in order to reassure the user. In this way, in an uneasy situation that is not everyday and does not have a similar experience, information that leads to a situation that is relatively experienced in daily life is presented and the user accepts it. This can be expected to create a sense of security.

5.詳細な構成例
図11に本実施形態の詳細なシステム構成例を示す。図11では処理部102が、センサ情報取得部104、状況推定部106、日常度評価部110、親密度評価部112、1次候補コンテンツ抽出部113、コンテンツ選択部114、イベント判定部116、履歴情報更新部118を含む。また状況推定部106は状況同定部107と状況予測部108を含む。なおこれらの構成要素の一部を省略したり、他の構成要素を追加してもよい。また図4と同様に、図11の処理部102の一部の機能(例えば状況予測部、日常度評価部、親密度評価部、1次候補コンテンツ選択部、コンテンツ選択部等)をサーバ側で実現してもよい。
5. Detailed Configuration Example FIG. 11 shows a detailed system configuration example of the present embodiment. In FIG. 11, the processing unit 102 includes a sensor information acquisition unit 104, a situation estimation unit 106, a dailyness evaluation unit 110, a closeness evaluation unit 112, a primary candidate content extraction unit 113, a content selection unit 114, an event determination unit 116, and a history. An information update unit 118 is included. The situation estimation unit 106 includes a situation identification unit 107 and a situation prediction unit 108. Note that some of these components may be omitted, or other components may be added. Similarly to FIG. 4, some functions of the processing unit 102 of FIG. 11 (for example, the situation prediction unit, the dailyness evaluation unit, the closeness evaluation unit, the primary candidate content selection unit, the content selection unit, etc.) are performed on the server side. It may be realized.

状況同定部107はユーザの状況の同定処理を行う。具体的には、センサからのセンサ情報等に基づいて、ユーザの実際(現在)の状況を同定(推定)する。   The situation identification unit 107 performs a situation identification process for the user. Specifically, the actual (current) situation of the user is identified (estimated) based on sensor information from the sensor.

状況予測部108(行動予測部)はユーザの状況(行動)の予測処理を行う。具体的には、ユーザの未来の状況を予測する。例えばユーザの過去の状況履歴(ユーザの行動履歴等)の情報に基づいて、ユーザの未来の状況を予測する。例えば個人モデル情報記憶部128は、ユーザの個人モデルの情報を記憶する。この個人モデル情報は、状況同定部107により同定されたユーザの過去の状況履歴の情報に基づき更新できる。状況予測部108は、個人モデル情報記憶部128に記憶された個人モデルの情報に基づいて、ユーザの未来の状況を予測する。   The situation prediction unit 108 (behavior prediction unit) performs a process of predicting the user's situation (behavior). Specifically, the future situation of the user is predicted. For example, the user's future situation is predicted based on information on the user's past situation history (such as the user's behavior history). For example, the personal model information storage unit 128 stores information on the user's personal model. This personal model information can be updated based on the past situation history information of the user identified by the situation identification unit 107. The situation prediction unit 108 predicts the future situation of the user based on the information of the personal model stored in the personal model information storage unit 128.

そして日常度評価部110は、状況予測部108により予測されたユーザの状況(行動)と、状況同定部107により同定されたユーザの実際の状況(行動)との比較処理を行うことで、ユーザの現在の日常度を評価する。   The dailyness evaluation unit 110 performs a comparison process between the user situation (behavior) predicted by the situation prediction unit 108 and the actual situation (behavior) of the user identified by the situation identification unit 107. Evaluate your current daily life.

1次候補コンテンツ抽出部113は1次候補となるコンテンツの抽出処理を行う。具体的には、状況同定部107により同定されたユーザの現在の場所に基づいて、提示候補となるコンテンツの中から、1次候補となるコンテンツを抽出する。そしてコンテンツ選択部114は、日常度の評価結果と親密度の評価結果とに基づいて、1次候補コンテンツ抽出部113により抽出された1次候補のコンテンツの中から、ユーザに対して提示するコンテンツを選択する。   The primary candidate content extraction unit 113 performs content extraction processing as a primary candidate. Specifically, based on the current location of the user identified by the situation identification unit 107, the content that is the primary candidate is extracted from the content that is the presentation candidate. The content selection unit 114 then presents the content presented to the user from the primary candidate content extracted by the primary candidate content extraction unit 113 based on the evaluation result of the ordinary degree and the evaluation result of the familiarity Select.

イベント判定部116は各種のイベントの判定処理を行う。具体的には、第1のサブシステム(例えばモバイルサブシステム)を利用していたユーザが、新たに第2のサブシステム(例えばホームサブシステム、社内サブシステム)の利用が可能な状態になったことを示す利用可能イベントの発生を判定する。例えば第1のサブシステムのセンサからのセンサ情報により状況履歴情報(行動履歴情報)が更新されたユーザが、第2のサブシステムのセンサである第2のセンサが利用可能になるセンサ利用可能イベント(センサアクセス可能イベント、センサ情報取得可能イベント)の発生を判定する。或いは第2のサブシステムの制御対象機器である第2の制御対象機器が利用可能になる機器利用可能イベント(機器アクセス可能イベント、機器制御可能イベント)の発生を判定する。或いは第2のサブシステム(第2のセンサ、第2の制御対象機器)の利用が不可になる利用不可イベントの発生を判定する。例えばイベント判定手段116は、ユーザが第2のサブシステムの場所に接近(移動)した場合に、利用可能イベントが発生したと判定できる。或いは情報転送が無線により行われる場合には、無線強度を検出することで利用可能イベントの発生を判定できる。或いは第2のサブシステムにて利用可能なクレードル(第2のサブシステムの場所に設置されるクレードル)に第1のサブシステムの機器(例えば携帯型電子機器)が接続された場合に、利用可能イベントが発生したと判定できる。   The event determination unit 116 performs various event determination processes. Specifically, a user who has used the first subsystem (for example, a mobile subsystem) can now use the second subsystem (for example, a home subsystem or an in-house subsystem). The occurrence of an available event indicating that is determined. For example, a sensor available event that allows a user whose situation history information (behavior history information) is updated by sensor information from sensors in the first subsystem to use a second sensor that is a sensor in the second subsystem. The occurrence of (sensor accessible event, sensor information obtainable event) is determined. Alternatively, the occurrence of a device available event (device accessible event, device controllable event) that makes the second control target device that is the control target device of the second subsystem available is determined. Alternatively, it is determined whether an unusable event that disables the use of the second subsystem (second sensor, second control target device) occurs. For example, the event determination unit 116 can determine that an available event has occurred when the user approaches (moves) the location of the second subsystem. Alternatively, when information transfer is performed wirelessly, occurrence of an available event can be determined by detecting wireless strength. Alternatively, it can be used when a device of the first subsystem (for example, a portable electronic device) is connected to a cradle that can be used by the second subsystem (a cradle installed at the location of the second subsystem). It can be determined that an event has occurred.

そして履歴情報更新部118は、利用可能イベントが発生した場合に、第2のサブシステムの第2のセンサからのセンサ情報を取得し、取得されたセンサ情報に基づいてユーザの状況履歴情報を更新する。即ち、第1のサブシステムのセンサである第1のセンサからのセンサ情報により更新していた状況履歴情報を、第2のサブシステムのセンサである第2のセンサからのセンサ情報に基づいて、さらに更新する。   Then, when an available event occurs, the history information update unit 118 acquires sensor information from the second sensor of the second subsystem, and updates the user status history information based on the acquired sensor information. To do. That is, based on the sensor information from the second sensor that is the sensor of the second subsystem, the status history information that has been updated with the sensor information from the first sensor that is the sensor of the first subsystem, Update further.

そして更新された状況履歴情報は履歴情報記憶部126に記憶される。この状況履歴情報(状況ログ)は、行動センサ、状態センサ及び環境センサの少なくとも1つからのセンサ情報に基づき状況推定部106により推定された、ユーザの行動、状態及び環境の少なくとも1つについての履歴情報である。   The updated status history information is stored in the history information storage unit 126. The situation history information (situation log) is information about at least one of the user's action, state, and environment estimated by the situation estimation unit 106 based on sensor information from at least one of the behavior sensor, the state sensor, and the environment sensor. It is history information.

次に本実施形態の詳細な動作について、図12のフローチャートを用いて説明する。   Next, the detailed operation of this embodiment will be described with reference to the flowchart of FIG.

まずセンサ情報取得部104が、行動センサ、状態センサ、環境センサからのセンサ情報を取得する(ステップS11)。そして状況推定部106が、取得されたセンサ情報等(例えばGPSセンサからの位置情報、位置情報サービスや無線LANからの位置情報)に基づいて、ユーザの現在の場所(現在の状況)を推定して同定する(ステップS12)。例えばユーザの場所は、図6(A)では新宿と同定され、図7(A)では大阪と同定され、図8(A)では海外の田舎町であると同定される。   First, the sensor information acquisition unit 104 acquires sensor information from a behavior sensor, a state sensor, and an environment sensor (step S11). Then, the situation estimation unit 106 estimates the current location (current situation) of the user based on the acquired sensor information or the like (for example, location information from a GPS sensor, location information service or location information from a wireless LAN). (Step S12). For example, the location of the user is identified as Shinjuku in FIG. 6 (A), identified as Osaka in FIG. 7 (A), and identified as an overseas country town in FIG. 8 (A).

次に、1次候補コンテンツ抽出部113が、同定された現在の場所(現在の状況)に基づいて、コンテンツ情報記憶部122から1次候補となるコンテンツを抽出する(ステップS13)。例えば図6(A)では、ユーザの現在の場所が新宿であるため、新宿の店A1〜G1の案内情報がコンテンツとして抽出される。同様に図7(A)、図8(A)では、ユーザの現在の場所が大阪、海外の田舎町であるため、大阪の店A2〜H2、海外の田舎町の店A3〜F3の案内情報がコンテンツとして抽出される。   Next, the primary candidate content extraction unit 113 extracts the content that is the primary candidate from the content information storage unit 122 based on the identified current location (current situation) (step S13). For example, in FIG. 6A, since the current location of the user is Shinjuku, the guidance information of the stores A1 to G1 in Shinjuku is extracted as content. Similarly, in FIGS. 7A and 8A, since the user's current location is Osaka, an overseas country town, the guidance information of Osaka stores A2-H2 and overseas country town stores A3-F3. Is extracted as content.

次に親密度評価部112が、ユーザの現在の場所(現在の状況)に関連するコンテンツである1次候補コンテンツの親密度を評価する(ステップS14)。   Next, the familiarity evaluation unit 112 evaluates the familiarity of the primary candidate content that is content related to the user's current location (current situation) (step S14).

例えば図6(A)では、ユーザの現在の場所である新宿に関連するコンテンツである店A1〜G1の親密度が評価され、店A1、B1、C1は親密度が5と評価され、店D1、E1は親密度が3と評価され、店F1、G1は親密度が1と評価される。同様に、図7(A)ではユーザの現在の場所である大阪に関連するコンテンツである店A2〜H2の親密度が評価され、図8(A)ではユーザの現在の場所である海外の田舎町に関連するコンテンツである店A3〜F3の親密度が評価される。   For example, in FIG. 6A, the intimacy of stores A1 to G1, which are contents related to Shinjuku, which is the user's current location, is evaluated, and the intimacy of stores A1, B1, and C1 is evaluated to be 5, and store D1 , E1 has a closeness of 3 and stores F1 and G1 have a closeness of 1. Similarly, in FIG. 7A, the intimacy of stores A2 to H2, which are contents related to Osaka, which is the user's current location, is evaluated. In FIG. The intimacy of stores A3 to F3, which are contents related to the town, is evaluated.

次に、ユーザの現在の場所(現在の状況)に関する状況履歴の情報と、ユーザの現在の場所の情報(現在の状況の情報)との比較処理を行って、ユーザの日常度を評価する(ステップS15)。   Next, the status history information regarding the user's current location (current status) and the user's current location information (current status information) are compared to evaluate the user's everydayness ( Step S15).

例えば図6(A)では、ユーザの状況履歴からは、ユーザが勤め先である新宿に平日にいることは多いと判断され、ユーザの現在の場所は新宿であるため、ユーザの日常度は高いと評価される。また図7(A)では、ユーザの状況履歴からは、ユーザが出張先の大阪にいることはそれほど多くないが、同じような都市カテゴリにいることは多いと判断され、ユーザの現在の場所は大阪であるため、ユーザの日常度は中くらいと判断される。また図8(A)では、ユーザの状況履歴からは、ユーザが出張先の海外の田舎町にいることも、同じような都市カテゴリにいることもほとんどないと判断され、ユーザの現在の場所は海外の田舎町であるため、ユーザの日常度は極めて低いと判断される。   For example, in FIG. 6A, it is determined from the user's situation history that the user is often in Shinjuku, where he is working, and the current location of the user is Shinjuku. Be evaluated. In FIG. 7A, from the user's situation history, it is determined that the user is not so often in the business trip destination Osaka, but is often in the same city category, and the current location of the user is Since it is Osaka, the user's daily life is judged to be medium. Also, in FIG. 8A, it is determined from the user's situation history that the user is rarely in an overseas countryside business destination or in a similar city category, and the current location of the user is Since it is an overseas country town, it is determined that the daily life of the user is extremely low.

次に、コンテンツ選択部114が、ステップS14で得られたコンテンツの親密度と、ステップS15で得られたユーザの日常度に基づいて、1次候補のコンテンツの中から、ユーザに提示するコンテンツを選択する(ステップS16)。そして、選択されたコンテンツを、ウェアラブルディスプレイ140等の情報提示部によりユーザに提示する(ステップS17)。   Next, the content selection unit 114 selects a content to be presented to the user from the primary candidate content based on the familiarity of the content obtained in step S14 and the user's everydayness obtained in step S15. Select (step S16). Then, the selected content is presented to the user by an information presentation unit such as the wearable display 140 (step S17).

例えば図6(B)では、1次候補の店A1〜G1の中から店F1、G1が選択され、その案内情報が表示される。また図7(B)では、1次候補の店A2〜H2の中から店D2、E2、F2、H2が選択され、その案内情報が表示される。また図8(B)では、1次候補の店A3〜F3の中から店A3が選択され、その案内情報が表示される。   For example, in FIG. 6B, stores F1 and G1 are selected from the primary candidates stores A1 to G1, and the guidance information is displayed. In FIG. 7B, stores D2, E2, F2, and H2 are selected from the primary candidate stores A2 to H2, and the guidance information is displayed. In FIG. 8B, the store A3 is selected from the primary candidates stores A3 to F3, and the guidance information is displayed.

このように本実施形態では、ユーザの状況の同定のために少なくともユーザの場所情報を取得しており、取得されたこの場所情報に基づいて、1次候補のコンテンツを抽出する。   As described above, in the present embodiment, at least user location information is acquired for identifying the user situation, and the primary candidate content is extracted based on the acquired location information.

即ち、全てのコンテンツ情報(例えば全世界の店情報)の中から、親密度と日常度に基づいてコンテンツ情報を選択しようとすると、処理負荷が非常に重くなる。   That is, if content information is selected from all content information (for example, store information around the world) based on familiarity and everydayness, the processing load becomes very heavy.

この点、本実施形態のように、推定されたユーザの場所情報を有効活用して、その場所に関連するコンテンツ情報を1次抽出すれば、選択候補となるコンテンツの数を減らすことができ、親密度と日常度に基づく選択処理の負荷を大幅に軽減できる。   In this regard, as in this embodiment, if the estimated location information of the user is effectively used and content information related to the location is first extracted, the number of content items that can be selected can be reduced. The load of selection processing based on intimacy and everydayness can be greatly reduced.

6.日常度の評価
次に日常度の評価処理の詳細について説明する。図13において状況同定部107は、行動、状態、環境のセンサ情報に基づいて、ユーザの行動、状態、環境等の状況を同定(推定)する。そして、得られたユーザの状況の履歴情報(ログ情報)が履歴情報記憶部126に蓄積される。そして蓄積された状況履歴情報を解析することで、ユーザ個人の趣味・嗜好や行動の傾向などが個人モデルとして構築されて、個人モデル情報記憶部128(個人モデルデータベース)に記憶される。
6). Evaluation of Everydayness Next, details of the dailyness evaluation process will be described. In FIG. 13, the situation identification unit 107 identifies (estimates) the situation of the user's action, state, environment, and the like based on the sensor information of the action, state, and environment. Then, the history information (log information) of the obtained user situation is accumulated in the history information storage unit 126. Then, by analyzing the accumulated situation history information, the user's personal hobbies / preferences and behavioral trends are constructed as a personal model and stored in the personal model information storage unit 128 (personal model database).

なお個人モデルとしては確率モデルを用いることができ、このような確率モデルとしては例えば隠れマルコフモデル(Hidden Markov Model)がある。この隠れマルコフモデル(HMM)では、システムが、パラメータが未知のマルコフ過程であると仮定して、観測可能な情報からその未知のパラメータを推定する。即ち、HMMは、あるシステムがマルコフ過程に従って遷移する内部状態を持ち、各状態に応じた記号を確率的に出力すると考えた場合に、記号の出現確率分布からシステム内部の状態遷移を推定する確率モデルである。外部から観測できるのは記号の系列だけであり、内部の状態遷移が直接観測できないところから「隠れ」と呼ばれる
状況予測部108は、この個人モデル情報(状況履歴情報)に基づいて、ユーザの次の行動(広義には状況)を予測する。また状況同定部107により、ユーザの実際の行動が同定される。そして、日常度評価部110は、同定されたユーザの実際の行動が、直前の状況と個人モデルに基づいて予測されるユーザの行動と、どの程度一致するものであったかを判断することにより、日常度を評価する。
Note that a probabilistic model can be used as the individual model, and an example of such a probabilistic model is a hidden Markov model. In this hidden Markov model (HMM), the system assumes that the parameter is an unknown Markov process and estimates the unknown parameter from observable information. That is, the HMM has a probability that a certain system has an internal state that transitions according to a Markov process and estimates the state transition inside the system from the appearance probability distribution of the symbol when it is considered that a symbol corresponding to each state is output stochastically. It is a model. Only the sequence of symbols can be observed from the outside, and the situation prediction unit 108 called “hidden” because the internal state transition cannot be observed directly, the situation prediction unit 108 is based on this personal model information (situation history information). Predict the behavior (situation in the broad sense). The situation identifying unit 107 identifies the actual action of the user. Then, the dailyness evaluation unit 110 determines the degree to which the identified user's actual behavior matches the user's behavior predicted based on the immediately preceding situation and the personal model. Assess degree.

次に、日常度の評価手法について図14(A)〜図14(D)を用いて具体的に説明する。図14(A)は、ユーザの平日の状況履歴(行動履歴)の例である。ユーザは平日の7時30分に起床し、8時に朝食をとり、8時30分に自宅を出発し、8時45分に自宅近くのA駅で電車に乗車している。状況予測部108は、このようなユーザの状況履歴からユーザの次の行動を予測する。   Next, the dailyness evaluation method will be specifically described with reference to FIGS. 14 (A) to 14 (D). FIG. 14A is an example of a user's weekday situation history (action history). The user gets up at 7:30 on weekdays, has breakfast at 8 o'clock, leaves his home at 8:30, and gets on the train at station A near his home at 8:45. The situation prediction unit 108 predicts a user's next action from such a user's situation history.

そして例えば図14(A)の状況履歴から、状況予測部108は、図14(B)に示すように次の行動ではユーザが会社に行く確率が一番高いと予測する。そして状況同定部107で同定されたユーザの実際の行動が、会社に行く行動であった場合には、日常度評価部110は、ユーザの日常度は高いと評価する。一方、緊急事態などでユーザが自宅に直ぐに帰ってしまい、同定されたユーザの実際の行動が自宅への帰宅であった場合には、日常度は低く、非日常であると評価する。   Then, for example, from the situation history in FIG. 14A, the situation prediction unit 108 predicts that the user is most likely to go to the company in the next action as shown in FIG. 14B. When the actual action of the user identified by the situation identification unit 107 is an action to go to the company, the everydayness evaluation unit 110 evaluates that the everydayness of the user is high. On the other hand, if the user returns home immediately due to an emergency situation or the like, and the actual action of the identified user is returning home, the degree of daily life is low, and it is evaluated that it is unusual.

図14(C)は、ユーザの休日の状況履歴の例である。ユーザは休日の8時30分に起床し、9時に朝食をとり、9時30分に自宅を車で出発している。状況予測部108は、このようなユーザの状況履歴からユーザの次の行動を予測する。   FIG. 14C shows an example of a user's holiday situation history. The user gets up at 8:30 on a holiday, has breakfast at 9:00, and leaves the house by car at 9:30. The situation prediction unit 108 predicts a user's next action from such a user's situation history.

そして例えば図14(C)の状況履歴から、状況予測部108は、図14(D)に示すように次の行動ではユーザがテニススクールHに行く確率が一番高いと予測する。そして状況同定部107で同定されたユーザの実際の行動が、テニススクールHに行く行動であった場合には、日常度評価部110は、ユーザの日常度が高いと評価する。一方、都心から離れた観光地Kにドライブに行った場合には、日常度が低く、非日常であると評価する。   14C, for example, the situation prediction unit 108 predicts that the user is most likely to go to the tennis school H in the next action as shown in FIG. 14D. When the actual action of the user identified by the situation identification unit 107 is an action to go to the tennis school H, the everydayness evaluation unit 110 evaluates that the everydayness of the user is high. On the other hand, when driving to a sightseeing spot K far from the city center, the degree of daily life is low, and it is evaluated that it is unusual.

なお本実施形態では日常度評価部110は、例えば、ユーザの状況を表す複数の状況情報(状況パラメータ、要素パラメータ)のうちの少なくとも第1の状況情報に基づいてユーザの日常度を評価する。この場合に、親密度評価部112は、第1の状況情報に関連するコンテンツに対するユーザの親密度を評価する。そしてコンテンツ選択部114は、日常度の評価結果と親密度の評価結果とに基づいて、第1の状況情報に関連するコンテンツの中から、ユーザに対して提示するコンテンツを選択する。   In the present embodiment, the everydayness evaluation unit 110 evaluates the dailyness of the user based on at least first situation information among a plurality of situation information (situation parameters, element parameters) representing the situation of the user, for example. In this case, the familiarity evaluation unit 112 evaluates the user's familiarity with the content related to the first situation information. And the content selection part 114 selects the content shown with respect to a user from the content relevant to 1st condition information based on the evaluation result of a usualness degree, and the evaluation result of closeness.

ここで状況情報は、例えばユーザの場所、時間、ユーザの行動などのユーザ状況を表す情報である。例えば第1の状況情報がユーザの場所の情報である場合には、日常度評価部110は、ユーザの場所の情報に基づいて、ユーザの日常度を評価する。そして親密度評価部112は、図6(A)〜図8(B)で説明したようにユーザの場所に関連するコンテンツである店の情報に対するユーザの親密度を評価する。そしてコンテンツ選択部114は、日常度と親密度に基づいて、ユーザの場所の情報に関連するコンテンツの中から、ユーザに対して提示するコンテンツを選択する。   Here, the situation information is information representing the user situation such as the user's location, time, and user behavior. For example, when the first situation information is information on the location of the user, the everydayness evaluation unit 110 evaluates the everydayness of the user based on the information on the location of the user. Then, the intimacy evaluation unit 112 evaluates the intimacy of the user with respect to the store information, which is the content related to the user's location, as described with reference to FIGS. 6 (A) to 8 (B). And the content selection part 114 selects the content shown with respect to a user from the content relevant to the information of a user's place based on a usualness degree and familiarity.

ユーザの日常度の評価対象となる状況情報(第1の状況情報)としては、ユーザの場所の情報以外にも種々のものを想定でき、例えば、ユーザが観ているテレビ番組の情報や、ユーザが会話している人の情報や、ユーザの緊張度の情報などであってもよい。   As the situation information (first situation information) to be evaluated for the user's daily life, various things can be assumed in addition to the information on the user's place. May be information on the person who is talking, information on the user's tension, and the like.

例えば、日常度の評価対象となる状況情報が、ユーザが観るテレビ番組の情報であったとする。この場合には、ユーザがいつものカテゴリ(ジャンル)のテレビ番組を観ている時に、ユーザの日常度が高いと評価し、普段見ないようなカテゴリのテレビ番組を観ている時に、ユーザの日常度が低い(非日常度が高い)と評価する。具体的には、ユーザが選択しているチャンネルを特定し、そのチャンネルで放映されているテレビ番組の内容を各種サービスにより抽出することでユーザが観ているテレビ番組の内容を判断して、日常度を評価する。   For example, it is assumed that the situation information to be evaluated for dailyness is information on a TV program that the user watches. In this case, when the user is watching a TV program in the usual category (genre), the user's daily life is evaluated as being high, and when watching a TV program in a category that is not normally seen, Assess that the degree is low (the degree of unusualness is high). Specifically, the channel selected by the user is identified, and the content of the TV program being broadcast on that channel is extracted by various services to determine the content of the TV program that the user is watching. Assess degree.

そして、このようにユーザが観ているテレビ番組の情報(第1の状況情報)に基づきユーザの日常度を評価する場合には、テレビ番組の情報に関連するコンテンツの親密度を評価する。そして評価された日常度と親密度に基づきコンテンツを選択して、ユーザに提示する。   And when evaluating a user's everydayness based on the information (1st condition information) of the television program which the user is watching in this way, the familiarity of the content relevant to the information of a television program is evaluated. Then, the content is selected based on the evaluated dailyness and intimacy and presented to the user.

例えばユーザが、いつもの番組(例えば野球)を観ており、日常度が高いと評価された場合には、ユーザにとって親密度が低いカテゴリの番組(例えばドラマ)の視聴を促すテロップ画面等のコンテンツを選択し、情報提示部であるテレビ画面上に表示する。このようにすれば、ともすると何も考えずに選択していたテレビ番組の試聴について、変化を与えるきっかけを作ることができる。   For example, if the user is watching an ordinary program (for example, baseball) and is evaluated as having a high degree of everydayness, a content such as a telop screen that prompts the user to view a program (for example, a drama) in a category that is intimate to the user Is displayed on the television screen, which is an information presentation unit. In this way, it is possible to create an opportunity to change the audition of the television program that was selected without thinking.

一方、ユーザが滅多に観ないジャンルのテレビ番組(例えばホラー映画)を観ており、日常度が低いと評価された場合には、ユーザにとって親密度が高く安心できるカテゴリのテレビ番組(例えば音楽番組)のチャンネルを教えるテロップ画面等のコンテンツを選択し、テレビ画面上に表示する。このようにすれば、普段とは違ったテレビ番組を観てしまったユーザに対して、いつものテレビ番組のチャンネルを教えることで、安心感を与えることができる。   On the other hand, if a user rarely watches a television program of a genre (for example, a horror movie) and is evaluated as having a low level of everydayness, a television program (for example, a music program) of a category that is intimate and safe for the user. ) Select a content such as a telop screen that teaches the channel and display it on the TV screen. In this way, it is possible to give a sense of security to a user who has watched an unusual television program by teaching the usual television program channel.

また日常度の評価対象となる状況情報が、ユーザが会話している人の情報であったとする。この場合には、ユーザがいつも会っている人と会話している時に、日常度が高いと評価し、滅多に会わない人と会話している時に、日常度が低いと評価する。具体的には、第1のユーザの場所と第2のユーザの場所をGPSセンサ等を用いて検出し、これらの場所が一致しており、発話が検出されると、第1のユーザが第2のユーザと会って会話していると判断する。そして、第1、第2のユーザの識別情報や第1、第2のユーザの状況履歴情報から、第1のユーザが第2のユーザと会話する頻度情報を取得し、この頻度情報に基づいて、第1のユーザにとって、第2のユーザと会話することが日常的なのか否かを判断する。   Further, it is assumed that the situation information to be evaluated for dailyness is information on a person with whom the user is talking. In this case, when the user is talking with a person who is always meeting, the user is evaluated as having a high degree of everydayness, and when the user is speaking with a person who rarely meets, the user is evaluated as having a low degree of everydayness. Specifically, the location of the first user and the location of the second user are detected using a GPS sensor or the like, and when these locations match and an utterance is detected, the first user It is determined that the user 2 is meeting and talking. And the frequency information with which the 1st user talks with the 2nd user is acquired from the 1st and 2nd user's identification information and the 1st and 2nd user's situation history information, and based on this frequency information For the first user, it is determined whether or not it is routine to talk with the second user.

そして、このようにユーザが会話している人の情報に基づいてユーザの日常度を評価する場合には、例えば会話している人の情報に関連するコンテンツについての親密度を評価する。そして評価された日常度と親密度に基づきコンテンツを選択し、ユーザに提示する。   And when evaluating a user's everydayness based on the information of the person who the user is talking in this way, the familiarity about the content relevant to the information of the person who is talking is evaluated, for example. Then, the content is selected based on the evaluated dailyness and intimacy, and presented to the user.

なお、日常度を評価する場合には、5W1H(Who、What、When、Where、Why、How)のそれぞれについて評価することが望ましい。例えば、ユーザの会社の場所が新宿であったとする。この場合には、平日にユーザが新宿にいれば、日常度が高いと評価されるが、休日にユーザが新宿にいると、逆に日常度が低いと評価される。即ち、場所が同じでも時間や日にちが異なれば、日常度の評価結果も異なったものになる。また会社の同僚同士である第1、第2のユーザが、平日に会社で会っていれば、日常度が高いと評価されるが、休日に会社以外の場所で会っていれば、日常度は低いと評価される。即ち、人が同じでも時間や場所が異なれば、日常度の評価結果は異なったものになる。   In addition, when evaluating everydayness, it is desirable to evaluate each of 5W1H (Who, What, When, Where, Why, How). For example, assume that the user's company location is Shinjuku. In this case, if the user is in Shinjuku on weekdays, it is evaluated that the ordinary degree is high, but if the user is in Shinjuku on a holiday, it is evaluated that the ordinary degree is low. That is, even if the place is the same, if the time and date are different, the evaluation result of the ordinary degree will be different. In addition, if the first and second users who are colleagues of the company meet at the company on weekdays, it is evaluated that the ordinary degree is high, but if they meet at a place other than the company on a holiday, the ordinary degree is Rated low. In other words, even if the person is the same, if the time and place are different, the evaluation result of the ordinary degree will be different.

7.親密度の評価
次に親密度の評価処理の詳細について説明する。図15(A)では親密度評価部112は、提示候補となるコンテンツに関連するユーザの過去の行動履歴の情報に基づいて、コンテンツに対するユーザの親密度を評価している。
7). Intimacy Evaluation Next, the details of the familiarity evaluation process will be described. In FIG. 15A, the closeness evaluation unit 112 evaluates the closeness of the user with respect to the content based on the past action history information of the user related to the content that is the candidate for presentation.

具体的には親密度評価部112は、履歴情報記憶部126のユーザの行動履歴を参照し、提示候補コンテンツの内容に関連した行動の経験が過去にどの程度あったか、また、それがここ最近にあったかどうかを含めて親密度を評価する。例えばユーザが過去にハンバーガ屋に行った頻度や、最近にハンバーガ屋に行った頻度などを考慮して、ハンバーガ屋のコンテンツに関するユーザの親密度を評価する。   Specifically, the intimacy evaluation unit 112 refers to the user's behavior history in the history information storage unit 126 to determine the past experience of the behavior related to the content of the candidate content, and this is the latest Evaluate intimacy including whether or not there was. For example, the user's intimacy regarding the contents of the hamburger shop is evaluated in consideration of the frequency of the user having visited the hamburger shop in the past and the frequency of the recent visit to the hamburger shop.

このようにすれば、ユーザの日常度の評価に利用するユーザの状況履歴を有効活用して、コンテンツに対するユーザの親密度についても評価できるようになる。   In this way, the user's familiarity with respect to the content can be evaluated by effectively utilizing the user's situation history used for the evaluation of the user's daily life.

また図15(B)では、状況同定部107は、センサ情報に基づいてユーザの状況を同定し、ユーザの状況の履歴情報が履歴情報記憶部126に蓄積される。そして、この状況履歴情報を解析することで、ユーザの個人モデルが構築され、個人モデル情報記憶部128に記憶される。   In FIG. 15B, the situation identification unit 107 identifies the user situation based on the sensor information, and the history information of the user situation is accumulated in the history information storage unit 126. Then, by analyzing the situation history information, a personal model of the user is constructed and stored in the personal model information storage unit 128.

状況予測部108は、この個人モデルの情報に基づいて、ユーザの次の行動(状況)を予測する。そして親密度評価部112は、予測されたユーザの行動に対する提示候補コンテンツの生起確率に基づいて、その提示候補コンテンツの親密度を評価する。   The situation prediction unit 108 predicts the user's next action (situation) based on the information of the personal model. Then, the closeness evaluation unit 112 evaluates the closeness of the presentation candidate content based on the occurrence probability of the presentation candidate content with respect to the predicted user behavior.

例えば、ユーザが休日に新宿に行った場合にハンバーガ屋に行くという行動をとる予測確率は高いが、平日に新宿に行った場合にハンバーガ屋に行くという行動をとる予測確率は低かったとする。すると、ユーザが休日に新宿に行った場合には、提示候補コンテンツであるハンバーガ屋の親密度は高く評価される一方で、平日に新宿に行った場合には、ハンバーガ屋の親密度は低く評価される。このように図15(B)では、コンテンツの親密度が、予測されるユーザの行動に応じて変化する。従って、ユーザの趣味・嗜好をより一層反映させた親密度の評価が可能になる。   For example, it is assumed that when a user goes to Shinjuku on a holiday, the predicted probability of taking an action of going to a hamburger shop is high, but when going to Shinjuku on weekdays, the predicted probability of taking an action of going to a hamburger shop is low. Then, when the user goes to Shinjuku on a holiday, the intimacy of the hamburger shop, which is the candidate content, is evaluated highly, whereas when the user goes to Shinjuku on weekdays, the intimacy of the hamburger shop is evaluated to be low. Is done. As described above, in FIG. 15B, the familiarity of the content changes according to the predicted user behavior. Accordingly, it is possible to evaluate the intimacy that further reflects the user's hobbies and preferences.

8.統合システム
以上のように本実施形態では、ユーザの状況履歴に基づいてユーザの日常度を評価している。例えば図13では、状況履歴に基づいてユーザの行動を予測し、実際の行動と比較することでユーザの日常度を評価している。また図15(A)、図15(B)ではユーザの状況履歴や状況履歴により予測されるユーザの行動等に基づいて、提示候補コンテンツの親密度を評価している。
8). Integrated System As described above, in this embodiment, the user's daily life is evaluated based on the user's situation history. For example, in FIG. 13, the user's daily life is evaluated by predicting the user's behavior based on the situation history and comparing it with the actual behavior. 15A and 15B, the closeness of the presentation candidate content is evaluated based on the user's situation history, the user's behavior predicted from the situation history, and the like.

この場合に、ユーザが、ウェアラブルセンサ150やウェアラブルディスプレイ140を常時装着しているとは限らず、家に帰った場合や車に乗った場合には、ウェアラブルセンサ150やウェアラブルディスプレイ140を取り外すことが想定される。従って、ウェアラブルセンサ150のみによって状況履歴情報を更新したり、ウェアラブルディスプレイ140のみによって情報を提示したのでは、情報更新や情報提示の継続性が保たれず、ユーザの利便性が阻害される。   In this case, the user does not always wear the wearable sensor 150 or the wearable display 140. When the user goes home or gets in the car, the wearable sensor 150 or the wearable display 140 may be removed. is assumed. Therefore, if the status history information is updated only by the wearable sensor 150 or the information is presented only by the wearable display 140, the continuity of information update and information presentation is not maintained, and the convenience for the user is hindered.

そこで図16では、統合システムによりユーザの状況履歴情報の更新やユーザへの情報提示を実現している。   Therefore, in FIG. 16, the update of the user status history information and the information presentation to the user are realized by the integrated system.

図16に示す統合システムは、モバイルサブシステム、ホームサブシステム、或いは車内サブシステムなどの複数のサブシステムにより構成される。なおサブシステムは、これらに限定されず、例えば会社内サブシステム、店内サブシステム、車以外の乗り物(電車、飛行機)のサブシステムなど、センサや制御対象機器を有する種々のサブシステムを想定できる。   The integrated system shown in FIG. 16 includes a plurality of subsystems such as a mobile subsystem, a home subsystem, or an in-vehicle subsystem. The subsystems are not limited to these, and various subsystems having sensors and control target devices such as in-company subsystems, in-store subsystems, and vehicles (trains, airplanes) subsystems other than cars can be assumed.

モバイルサブシステムは、携帯型電子機器100や、モバイル制御対象機器であるウェアラブルディスプレイ140や、屋内外センサ510等のウェアラブルセンサにより構成される。   The mobile subsystem includes a wearable sensor such as the portable electronic device 100, a wearable display 140 that is a mobile control target device, and an indoor / outdoor sensor 510.

ホームサブシステムは、ホーム制御対象機器として、例えば、テレビモニタ、PCモニタなどのホームディスプレイや、オーディオ機器、光ディスクプレーヤなどのホームAV機器や、犬、猫、人型等のロボットや、部屋の温度を調整するエアコンや、明るさを調整する照明などを有する。なおホーム制御対象機器としては、これ以外にも、例えばゲーム機や、掃除機、炊飯器、冷蔵庫、電子レンジなどの家電機器や、セキュリティ装置などの種々の機器を想定できる。   The home subsystem is a home control target device, for example, a home display such as a TV monitor or a PC monitor, a home AV device such as an audio device or an optical disk player, a robot such as a dog, cat, or humanoid, or a room temperature. It has an air conditioner that adjusts the lighting and lighting that adjusts the brightness. In addition to this, as home control target devices, various devices such as home appliances such as game machines, vacuum cleaners, rice cookers, refrigerators, microwave ovens, and security devices can be assumed.

またホームサブシステムは、ホームセンサとして、例えば、ホーム内の気温、湿度、光度、騒音、ユーザの会話、食事などを計測する環境センサや、ロボットに内蔵されるロボット搭載センサや、ホームの各室内、ドアなどに設置される人検知センサや、トイレに設置される尿検査用センサなどを有する。なおホームセンサとしては、これ以外にも、例えばセキュリティセンサ(防犯センサや熱・煙・ガスセンサ等)、地震センサ、消費電力計測センサ、花粉センサなどの種々のセンサを想定できる。そしてこれらのホーム制御対象機器やホームセンサによりホームサブシステム(広義には第2のサブシステム)が構成される。   In addition, the home subsystem is a home sensor, for example, an environmental sensor that measures the temperature, humidity, light intensity, noise, user conversation, meal, etc. in the home, a robot-mounted sensor built into the robot, And a human detection sensor installed in a door, a urine test sensor installed in a toilet, and the like. In addition to this, various sensors such as a security sensor (security sensor, heat / smoke / gas sensor, etc.), an earthquake sensor, a power consumption measurement sensor, a pollen sensor, and the like can be assumed as the home sensor. These home control target devices and home sensors constitute a home subsystem (second subsystem in a broad sense).

車内サブシステムは、車内制御対象機器として、道案内を行うカーナビ(ナビゲーション装置)や、オーディオ機器、光ディスクプレーヤなどのカーAV機器や、車内の温度を調整するエアコンなどを有する。なお車内制御対象機器としては、これ以外にも、例えばエアバックなどの安全機器や、シート調整機器や、スマートエントリシステムなどを用いた車のドアの施錠・解錠機器や、通信機器や、車載コンピュータなどの種々の機器を想定できる。   The in-vehicle subsystem includes car navigation systems (navigation devices) that provide road guidance, car AV equipment such as audio equipment and optical disk players, and air conditioners that adjust the temperature inside the car as in-vehicle control target equipment. Other in-vehicle control devices include safety devices such as airbags, seat adjustment devices, car door locking / unlocking devices using smart entry systems, communication devices, in-vehicle devices, etc. Various devices such as a computer can be assumed.

また車内サブシステムは、車内センサとして、車の速度、移動距離などを計測する走行状態センサや、ユーザの運転操作、機器操作を計測する操作状態センサや、車内の気温、湿度、光度、ユーザの会話などを計測する環境センサなどを有する。なお車内センサとしては、これ以外にも、例えば防犯センサ、人検知センサ、花粉センサなどの種々のセンサを想定できる。そしてこれらの車内制御対象機器や車内センサにより車内サブシステム(広義には第3のサブシステム)が構成される。   The in-vehicle subsystem is also used as an in-vehicle sensor such as a driving state sensor that measures the speed of a vehicle, a moving distance, an operation state sensor that measures a user's driving operation and device operation, an in-vehicle temperature, humidity, luminous intensity, It has an environmental sensor that measures conversation and the like. In addition to this, various sensors such as a crime prevention sensor, a human detection sensor, and a pollen sensor can be assumed as the in-vehicle sensor. An in-vehicle subsystem (third subsystem in a broad sense) is configured by these in-vehicle control target devices and in-vehicle sensors.

図16の統合システムでは、ユーザが屋外等にいる場合(モバイル環境の場合)には、モバイルサブシステムのウェアラブルセンサ(モバイルセンサ)からのセンサ情報(センサ2次情報を含む)が取得(収集)され、取得されたセンサ情報に基づいてユーザの状況履歴情報が更新される。また状況履歴情報等に基づいてモバイル制御対象機器の制御が行われる。   In the integrated system of FIG. 16, when the user is outdoors (in a mobile environment), sensor information (including sensor secondary information) is acquired (collected) from the wearable sensor (mobile sensor) of the mobile subsystem. Then, the user's situation history information is updated based on the acquired sensor information. The mobile control target device is controlled based on the situation history information and the like.

一方、ユーザが家にいる場合(ホーム環境の場合)には、ホームサブシステムのホームセンサからのセンサ情報が取得され、取得されたセンサ情報に基づいて状況履歴情報が更新される。即ちモバイル環境で更新された状況履歴情報が、ホーム環境に移行した場合にもシームレスに更新される。また状況履歴情報等に基づいてホーム制御対象機器の制御が行われる。   On the other hand, when the user is at home (in a home environment), sensor information from the home sensor of the home subsystem is acquired, and the status history information is updated based on the acquired sensor information. That is, the status history information updated in the mobile environment is seamlessly updated even when the home environment is transferred. The home control target device is controlled based on the situation history information and the like.

また、ユーザが車内にいる場合(車内環境の場合)には、車内サブシステムの車内センサからのセンサ情報が取得され、取得されたセンサ情報に基づいて状況履歴情報が更新される。即ちモバイル環境やホーム環境で更新された状況履歴情報が、車内環境に移行した場合にもシームレスに更新される。また状況履歴情報等に基づいて車内制御対象機器の制御が行われる。   In addition, when the user is in the vehicle (in the case of an in-vehicle environment), sensor information from the in-vehicle sensor of the in-vehicle subsystem is acquired, and the status history information is updated based on the acquired sensor information. That is, the status history information updated in the mobile environment or the home environment is seamlessly updated even when the in-vehicle environment is transferred. In addition, the in-vehicle control target device is controlled based on the situation history information and the like.

例えばユーザは、家に着いた場合や車内に移動した場合には、ウェアラブルセンサ(屋内外センサ等)やモバイル制御対象機器(ウェアラブルディスプレイ等)を取り外す可能性が高い。このような場合にも図16の統合システムによれば、ウェアラブルセンサの代わりにホームセンサや車内センサを用いてセンサ情報を取得できるため、シームレスな状況履歴情報の更新が可能になる。例えば、外出時の食事と家での食事について、食事時刻や食事にかけた時間等の履歴をとり続けることが可能になる他、内外での行動状態や心拍状態に基づく消費エネルギーやストレスの累積演算処理なども可能になる。   For example, when a user arrives at home or moves into a vehicle, the user is likely to remove a wearable sensor (such as an indoor / outdoor sensor) or a mobile control target device (such as a wearable display). Also in such a case, according to the integrated system of FIG. 16, sensor information can be acquired using a home sensor or an in-vehicle sensor instead of a wearable sensor, so that seamless status history information can be updated. For example, for meals when going out and meals at home, it is possible to keep a history of meal times, meal times, etc., and cumulative calculation of energy consumption and stress based on internal and external behavioral status and heart rate status Processing is also possible.

またモバイル制御対象機器の代わりに、ホーム制御対象機器や車内制御対象機器を制御できるようになり、ユーザの利便性を向上できる。例えば表示領域が小さなウェアラブルディスプレイではなく、表示領域が大きなホームディスプレイやカーナビディスプレイに、状況履歴情報等に基づき選択されたコンテンツの情報を表示(提示)したり、モバイル環境では制御できなかった制御対象機器(例えばエアコン、照明、カーナビ等)を制御できるようになり、利便性を向上できる。   In addition, instead of the mobile control target device, the home control target device and the in-vehicle control target device can be controlled, and the convenience for the user can be improved. For example, instead of a wearable display with a small display area, information on the content selected based on the status history information is displayed (presented) on a home display or car navigation display with a large display area, or a control target that could not be controlled in a mobile environment Equipment (for example, air conditioner, lighting, car navigation system, etc.) can be controlled, and convenience can be improved.

次に統合システムの動作について図17(A)、図17(B)を用いて説明する。図17(A)は状況履歴情報の更新に関するフローチャートである。ここでは、第1のサブシステムを利用しているユーザ(第1のサブシステムのセンサである第1のセンサからのセンサ情報に基づきユーザ情報が更新されているユーザ)が、第2のサブシステム(第2のセンサ)の利用が可能な状態に移行する場合を例にとり説明する。   Next, the operation of the integrated system will be described with reference to FIGS. 17 (A) and 17 (B). FIG. 17A is a flowchart relating to the update of status history information. Here, a user who uses the first subsystem (a user whose user information has been updated based on sensor information from the first sensor that is a sensor of the first subsystem) is the second subsystem. A case where the state is shifted to a state where the (second sensor) can be used will be described as an example.

まず、図11のイベント判定部116が、第2のサブシステム(第2のセンサ)の利用が可能になったか否かを判断する(ステップS61)。例えばユーザが第2のサブシステムの場所に移動すると、第2のサブシステムが利用可能になる。そして利用可能になった場合には、第2のサブシステムにおいて利用可能なセンサ(第2のセンサ)が選択される(ステップS62)。   First, the event determination unit 116 of FIG. 11 determines whether or not the second subsystem (second sensor) can be used (step S61). For example, when the user moves to the location of the second subsystem, the second subsystem becomes available. If the sensor becomes available, a sensor (second sensor) that can be used in the second subsystem is selected (step S62).

次にセンサ情報取得部104が、選択されたセンサからのセンサ情報を取得する(ステップS63)。そして履歴情報更新部118が、取得されたセンサ情報に基づき状況履歴情報を更新して、更新された状況履歴情報を履歴情報記憶部126に記憶する(ステップS64)。なお、ステップS61で第2のサブシステムの利用がまだ可能ではないと判断された場合には、第1のサブシステムのセンサである第1のセンサからのセンサ情報に基づく状況履歴情報の更新が継続される。   Next, the sensor information acquisition unit 104 acquires sensor information from the selected sensor (step S63). Then, the history information update unit 118 updates the situation history information based on the acquired sensor information, and stores the updated situation history information in the history information storage unit 126 (step S64). If it is determined in step S61 that the use of the second subsystem is not yet possible, the situation history information is updated based on the sensor information from the first sensor that is a sensor of the first subsystem. Will continue.

図17(B)は、制御対象機器の制御処理に関するフローチャートである。ここでは、第1のサブシステムを利用しているユーザ(第1のサブシステムの制御対象機器である第1の制御対象の制御が行われているユーザ)が、第2のサブシステム(第2の制御対象機器)の利用が可能な状態に移行する場合を例にとり説明する。   FIG. 17B is a flowchart regarding control processing of the control target device. Here, a user who uses the first subsystem (a user who is controlling the first control target, which is the control target device of the first subsystem), is the second subsystem (second The case of shifting to a state in which the control target device) can be used will be described as an example.

まず、イベント判定部116が第2のサブシステム(第2の制御対象機器)の利用が可能になったか否かを判断する(ステップS71)。そして利用可能になった場合には、利用可能な制御対象機器が選択される(ステップS72)。   First, the event determining unit 116 determines whether or not the second subsystem (second control target device) can be used (step S71). Then, when it becomes available, an available control target device is selected (step S72).

次に、状況履歴情報が履歴情報記憶部126から読み出される(ステップS73)。そして、読み出された状況履歴情報に基づき、選択された制御対象機器への出力情報が選択され(ステップS74)、選択された出力情報が制御対象機器に出力されて、制御対象機器の制御動作が開始する(ステップS75)。なおステップS71で第2のサブシステムの利用がまだ可能ではないと判断された場合には、第1のサブシステムの制御対象機器(第1の制御対象機器)の制御が継続される。   Next, the situation history information is read from the history information storage unit 126 (step S73). Then, based on the read status history information, output information to the selected control target device is selected (step S74), and the selected output information is output to the control target device to control the control target device. Starts (step S75). If it is determined in step S71 that the second subsystem cannot be used yet, the control of the control target device (first control target device) of the first subsystem is continued.

例えば図17(A)において、ユーザのTPO情報に応じたセンサを選択するようにすれば、場所、時間、状況に応じて異なったセンサを選択できるようになる。従って、どの場所、時間、状況で取得されたセンサ情報なのかに応じて、センサ情報の意味づけを異なったものにすることが可能になり、よりインテリジェントなセンサ情報の取得処理を実現できる。また場所、時間、状況に応じた適切なセンサを選択することで、状況履歴情報の適正な更新が可能になる。   For example, in FIG. 17A, if a sensor corresponding to the user's TPO information is selected, a different sensor can be selected depending on the location, time, and situation. Therefore, the meaning of the sensor information can be made different depending on the location, time, and situation of the sensor information, and more intelligent sensor information acquisition processing can be realized. In addition, by selecting an appropriate sensor according to the location, time, and situation, it is possible to appropriately update the situation history information.

なおTPO判定用のセンサ情報を取得するためのセンサ選択においては、TPO判定に有効なセンサを選択したり、TPOが変化したことを検出できるセンサを選択すればよい。例えば、屋内においては、屋内での位置判定(TPO判定)に有効なセンサである加速度センサを選択する。但し、加速度センサだけでは、屋内から屋外に出てGPSセンサを使えるようになったことを検出できず、センサの再選択ができなくなってしまう。従って、この場合には、屋内外センサも選択しておくことが望ましい。   In sensor selection for acquiring sensor information for TPO determination, a sensor effective for TPO determination or a sensor capable of detecting a change in TPO may be selected. For example, in an indoor area, an acceleration sensor that is an effective sensor for indoor position determination (TPO determination) is selected. However, with only the acceleration sensor, it is impossible to detect that the GPS sensor can be used from the indoor to the outdoor, and the sensor cannot be reselected. Therefore, in this case, it is desirable to select an indoor / outdoor sensor.

また例えばホームサブシステムにおいて、ユーザが居間にいる場合には、照明制御や空調制御のために光度センサや気温センサを選択する。一方、ユーザがトイレにいる場合には、ユーザの健康状態の履歴情報を作成するために、尿検査用センサを選択する。またユーザがロボットに近づいた場合には、ユーザに対してロボットを対応させたり、ロボットを利用してユーザの行動の履歴情報を更新するために、ロボット搭載センサを選択する。また昼間の時間帯では、空調制御のために気温センサを選択し、夜中の時間帯では、睡眠中のユーザの体温を測ってユーザの健康状態の履歴情報を作成するために体温センサを選択したり、セキュリティのために防犯センサを選択する。またユーザが忙しい状況である場合には、ユーザをリラックスさせる照明制御のために、光度センサを選択し、ユーザが暇な状況である場合には、ユーザの暇を解消するロボット制御のために、ロボット搭載センサを選択する。   For example, in a home subsystem, when a user is in the living room, a light intensity sensor or an air temperature sensor is selected for lighting control or air conditioning control. On the other hand, when the user is in the toilet, the urinalysis sensor is selected in order to create the history information of the user's health condition. When the user approaches the robot, the robot-mounted sensor is selected in order to make the robot correspond to the user or to update the history information of the user's action using the robot. Also, during daytime hours, an air temperature sensor is selected for air-conditioning control, and during night hours, a body temperature sensor is selected to measure the user's body temperature during sleep and create user's health status history information. Or select security sensors for security. In addition, when the user is in a busy situation, the light intensity sensor is selected for lighting control to relax the user. When the user is in a spare situation, for robot control to eliminate the user's spare time, Select a robot-mounted sensor.

また図17(B)において、ユーザのTPO情報に応じた制御対象機器を選択するようにすれば、場所、時間、状況に応じて異なった制御対象機器を選択できるようになり、よりインテリジェントな機器制御を実現できる。   In FIG. 17B, if a control target device is selected according to the user's TPO information, a different control target device can be selected according to location, time, and situation, and a more intelligent device. Control can be realized.

例えばホームサブシステムにおいて、ユーザが居間にいる場合やユーザが起きている時間帯では、ユーザの暇を解消するために、ホームディスプレイやAV機器やロボットなどの制御対象機器を選択する。或いはユーザが、ホームディスプレイやAV機器やロボットに近づいた場合には、ユーザが近づいた機器を選択する。一方、ユーザが寝室にいる場合や夜中の時間帯では、ユーザの快適な睡眠を実現するために、エアコンや照明などの制御対象機器を選択する。またユーザが元気の無い状況では、ユーザを元気にするためにロボットを選択し、ユーザが忙しい状況では、ユーザをリラックスさせる音楽を流すためにホームAV機器を選択する。   For example, in the home subsystem, when the user is in the living room or in the time zone when the user is waking up, a control target device such as a home display, an AV device, or a robot is selected to eliminate the user's time. Alternatively, when the user approaches the home display, the AV device, or the robot, the device that the user has approached is selected. On the other hand, when the user is in the bedroom or in the night time, a control target device such as an air conditioner or lighting is selected in order to realize a comfortable sleep of the user. In a situation where the user is not energetic, a robot is selected to energize the user, and in a situation where the user is busy, a home AV device is selected to play music for relaxing the user.

9.状況履歴情報
次に、ユーザの状況履歴情報の更新処理や状況履歴情報の具体例について説明する。図18は、状況履歴情報の更新処理の一例を示すフローチャートである。
9. Situation History Information Next, a specific example of update processing of situation history information of a user and situation history information will be described. FIG. 18 is a flowchart illustrating an example of the status history information update process.

まず、センサ情報取得部104がセンサ情報を取得する(ステップS81)。次に、状況推定部106が、取得されたセンサ情報のフィルタリングや解析等の演算処理を行い(ステップS82)、演算結果に基づきユーザの行動、状態、環境等の状況(TPO)を推定する(ステップS83)。そして履歴情報更新部118が、推定されたユーザの状況の履歴を日時(年、月、週、日、時間)等に関連づけて履歴情報記憶部126に記憶して、状況履歴情報を更新する(ステップS84)。   First, the sensor information acquisition unit 104 acquires sensor information (step S81). Next, the situation estimation unit 106 performs calculation processing such as filtering and analysis of the acquired sensor information (step S82), and estimates the situation (TPO) of the user's behavior, state, environment, and the like based on the calculation result (step S82). Step S83). Then, the history information update unit 118 stores the estimated user status history in the history information storage unit 126 in association with the date and time (year, month, week, day, time), etc., and updates the status history information ( Step S84).

図19に状況履歴情報の具体例が模式的に示される。図19の状況履歴情報は、ユーザの行動等の状況履歴が時間帯、時刻等に関連づけられたデータ構造になっている。例えば8時にユーザは自宅を出発し、8時〜8時20分の時間帯では自宅から駅まで歩行し、8時20分に自宅の最寄りのA駅に到着している。そして8時20分〜8時45分の時間帯では電車に乗車し、8時45分に会社の最寄りのB駅で下車し、9時に会社に到着し、業務を開始している。10時〜11時の時間帯では社内のメンバとミーティングを行い、12時〜13時の時間帯では昼食をとっている。   FIG. 19 schematically shows a specific example of the situation history information. The situation history information in FIG. 19 has a data structure in which a situation history such as user behavior is associated with a time zone, a time, and the like. For example, the user departs from home at 8 o'clock, walks from his home to the station in the time zone from 8 o'clock to 8:20, and arrives at the nearest station A at 8:20. And, from 8:20 to 8:45, I got on the train, got off at the nearest B station of the company at 8:45, arrived at the company at 9:00, and started work. During the time zone from 10:00 to 11:00, meetings are held with members in the company, and lunch is served from 12:00 to 13:00.

このように図19では、センサ情報等により推定されるユーザの行動等の状況履歴を、時間帯や時刻等に関連づけることで、状況履歴情報が構築されている。   As described above, in FIG. 19, the situation history information is constructed by associating the situation history such as the user's behavior estimated by the sensor information or the like with the time zone, the time, or the like.

また図19では、時間帯や時刻に対して、センサ等により計測されるユーザの発話量、食事量、脈拍、発汗量等の計測値も関連づけられている。例えば8時〜8時20分の時間帯では、ユーザは自宅からA駅に歩いているが、この時の歩行量等がセンサにより計測されて、8時〜8時20分の時間帯に関連づけられる。この場合に、例えば歩行速度、発汗量等の歩行量以外のセンサ情報の計測値を更に関連づけてもよい。こうすることで、この時間帯でのユーザの運動量等を把握することが可能になる。   In FIG. 19, measurement values such as a user's utterance amount, a meal amount, a pulse rate, and a sweat amount, which are measured by a sensor or the like, are also associated with the time zone and the time. For example, in the time zone from 8:00 to 8:20, the user is walking from the home to the station A, but the walking amount at this time is measured by the sensor and is associated with the time zone from 8:00 to 8:20. It is done. In this case, for example, measurement values of sensor information other than the walking amount such as walking speed and sweating amount may be further associated. By doing so, it becomes possible to grasp the user's momentum and the like in this time zone.

10時〜11時の時間帯では、ユーザは同僚とのミーティングを行っているが、この時の発話量等がセンサにより計測されて、10時〜11時の時間帯に関連づけられる。この場合に、例えば音声状態、脈拍等のセンサ情報の計測値を更に関連づけてもよい。こうすることで、この時間帯でのユーザの会話量や緊張度等を把握することが可能になる。   In the time zone from 10 o'clock to 11 o'clock, the user is having a meeting with a colleague, and the amount of speech, etc. at this time is measured by a sensor and correlated with the time zone from 10 o'clock to 11 o'clock. In this case, for example, measurement values of sensor information such as a voice state and a pulse may be further associated. By doing so, it becomes possible to grasp the user's conversation volume, degree of tension, and the like during this time period.

20時45分〜21時45分や22時〜23時の時間帯では、ユーザはゲームをプレイしたり、テレビを鑑賞しているが、この時の脈拍、発汗量等がこれらの時間帯に関連づけられる。こうすることで、これらの時間帯でのユーザの興奮度等を把握することが可能になる。   In the time zone from 20:45 to 21:45 or from 22:00 to 23:00, the user is playing a game or watching TV, but the pulse, sweating amount, etc. at this time are in these time zones. Associated. By doing so, it becomes possible to grasp the degree of excitement of the user in these time zones.

23時30分〜の時間帯では、ユーザは睡眠をしているが、この時のユーザの体温の変化がこの時間帯に関連づけられる。こうすることで、睡眠時におけるユーザの健康状態を把握することが可能になる。   In the time zone from 23:30, the user is sleeping, but a change in the user's body temperature at this time is associated with this time zone. By doing so, it becomes possible to grasp the health condition of the user during sleep.

なお、状況履歴情報は図19のような形態に限定されず、例えばユーザの行動等の状況履歴を日時等に関連づけないで状況履歴情報を構築する変形実施も可能である。   Note that the situation history information is not limited to the form as shown in FIG. 19. For example, the situation history information can be modified without associating the situation history such as the user's behavior with the date and time.

例えば図20(A)では、センサ情報の計測値である発話量、音声状態、脈拍、発汗量等に基づいて、所定の演算式にしたがってユーザの精神状態パラメータが演算される。例えば発話量が多ければ、精神状態パラメータも高くなり、ユーザの精神状態が良好であることが示される。またセンサ情報の計測値である歩行量、歩行速度、体温等に基づいて、所定の演算式にしたがってユーザの身体状態(健康状態)のパラメータ(運動量パラメータ)が演算される。例えば歩行量が多ければ、身体状態パラメータも高くなり、ユーザの身体状態が良好であることが示される。   For example, in FIG. 20A, the mental state parameter of the user is calculated according to a predetermined arithmetic expression based on the utterance amount, the voice state, the pulse rate, the perspiration amount, etc., which are measured values of the sensor information. For example, if the utterance amount is large, the mental state parameter also becomes high, indicating that the user's mental state is good. In addition, based on a walking amount, walking speed, body temperature, and the like, which are measurement values of sensor information, a user body condition (health state) parameter (exercise amount parameter) is calculated according to a predetermined calculation formula. For example, if the amount of walking is large, the body condition parameter also increases, indicating that the user's body condition is good.

図20(B)に示すように、ユーザの精神状態、身体状態のパラメータ(広義には状態パラメータ)は、棒グラフ等を利用して可視化することで、ウェアラブルディスプレイやホームディスプレイやカーナビディスプレイに表示できる。従って本実施形態によれば、例えばモバイル環境において更新された精神状態、身体状態のパラメータなどの状況履歴情報を用いて、ホーム環境におけるホームディスプレイや、車内環境におけるカーナビディスプレイに対して、図20(B)のようにパラメータを可視化して表示することが可能になる。或いはモバイル環境で更新された精神状態、身体状態のパラメータなどに基づいて、ホーム環境のロボットを制御して、ユーザを励ましたり、ユーザに助言する動作をロボットに行わせることも可能になる。或いは車内環境において、ユーザの精神状態、身体状態のパラメータに応じたナビゲーションを行ったり、音楽を流すことも可能になる。   As shown in FIG. 20B, the user's mental state and body state parameters (state parameters in a broad sense) can be displayed on a wearable display, home display, or car navigation display by visualizing them using a bar graph or the like. . Therefore, according to the present embodiment, for example, with respect to the home display in the home environment and the car navigation display in the in-vehicle environment using the situation history information such as the mental state and body state parameters updated in the mobile environment, FIG. The parameter can be visualized and displayed as in B). Alternatively, the robot in the home environment can be controlled based on the mental state and body state parameters updated in the mobile environment to encourage the user or to allow the robot to perform an operation that advises the user. Alternatively, in the in-vehicle environment, navigation according to the parameters of the user's mental state and physical state and music can be played.

また、ユーザが複数のサブシステム(モバイル、ホーム、車内等)の間を移動した場合に、各サブシステムで利用可能なセンサからのセンサ情報を取得して、精神状態、身体状態などのユーザの状態パラメータを継続してシームレスに更新することも可能になる。   In addition, when a user moves between multiple subsystems (mobile, home, in-vehicle, etc.), sensor information from sensors available in each subsystem is acquired, and the user's mental state, physical state, etc. It is also possible to update state parameters continuously and seamlessly.

なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(情報提示部、センサ等)と共に記載された用語(ウェアラブルディスプレイ、ウェアラブルセンサ等)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また情報提示システム、携帯型電子機器、サーバの構成、動作も本実施形態で説明したものに限定に限定されず、種々の変形実施が可能である。   Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, a term (wearable display, wearable sensor, etc.) described together with a different term (information presentation unit, sensor, etc.) in a broader sense or the same meaning at least once in the specification or drawing is used anywhere in the specification or drawing. Can be replaced by its different terms. Further, the configuration and operation of the information presentation system, the portable electronic device, and the server are not limited to those described in this embodiment, and various modifications can be made.

センサ情報の取得手法の説明図。Explanatory drawing of the acquisition method of sensor information. 本実施形態の第1のシステム構成例。The 1st system configuration example of this embodiment. 本実施形態の動作例を説明するためのフローチャート。The flowchart for demonstrating the operation example of this embodiment. 本実施形態の他の動作例を説明するためのフローチャート。The flowchart for demonstrating the other operation example of this embodiment. 本実施形態の第2のシステム構成例。The 2nd system configuration example of this embodiment. 図6(A)、図6(B)は本実施形態の具体的動作の説明図。FIG. 6A and FIG. 6B are explanatory diagrams of specific operations of this embodiment. 図7(A)、図7(B)は本実施形態の具体的動作の説明図。FIG. 7A and FIG. 7B are explanatory diagrams of specific operations of the present embodiment. 図8(A)、図8(B)は本実施形態の具体的動作の説明図。FIG. 8A and FIG. 8B are explanatory diagrams of specific operations of this embodiment. コンテンツ情報の一例。An example of content information. 親密度情報の一例。An example of familiarity information. 本実施形態の詳細なシステム構成例。2 is a detailed system configuration example of the present embodiment. 本実施形態の詳細な動作を説明するためのフローチャート。The flowchart for demonstrating the detailed operation | movement of this embodiment. 日常度の評価手法の説明図。Explanatory drawing of the evaluation method of everydayness. 図14(A)〜図14(D)は日常度の評価手法の説明図。FIG. 14A to FIG. 14D are explanatory diagrams of a dailyness evaluation method. 図15(A)、図15(B)は親密度の評価手法の説明図。FIG. 15A and FIG. 15B are explanatory diagrams of an evaluation method of intimacy. 複数のサブシステムの統合システムの説明図Illustration of an integrated system of multiple subsystems 図17(A)、図17(B)は統合システムの動作を説明するためのフローチャート。17A and 17B are flowcharts for explaining the operation of the integrated system. ユーザの状況履歴情報の更新処理のフローチャート。The flowchart of the update process of a user's condition history information. ユーザの状況履歴情報の説明図。Explanatory drawing of a user's condition history information. 図20(A)、図20(B)はユーザの状況履歴情報の説明図。20A and 20B are explanatory diagrams of the user's situation history information.

符号の説明Explanation of symbols

100 携帯型電子機器、102 処理部、104 センサ情報取得部、
106 状況推定部、107 状況同定部、108 状況予測部、
110 日常度評価部、112 親密度評価部、113 1次候補コンテンツ抽出部、
114 コンテンツ選択部、116 イベント判定部、118 履歴情報更新部、
120 記憶部、122 コンテンツ情報記憶部、124 親密度情報記憶部、
126 履歴情報記憶部、128 個人モデル情報記憶部、130 情報記憶媒体、
138 通信部、140 ウェアラブルディスプレイ、150 ウェアラブルセンサ、
200 サーバ、202 処理部、210 日常度評価部、212 親密度評価部、
214 コンテンツ選択部、220 記憶部、222 コンテンツ情報記憶部、
224 親密度情報記憶部
100 portable electronic device, 102 processing unit, 104 sensor information acquisition unit,
106 situation estimation unit, 107 situation identification unit, 108 situation prediction unit,
110 daily life evaluation unit, 112 familiarity evaluation unit, 113 primary candidate content extraction unit,
114 content selection unit, 116 event determination unit, 118 history information update unit,
120 storage units, 122 content information storage units, 124 intimacy information storage units,
126 history information storage unit, 128 personal model information storage unit, 130 information storage medium,
138 communication unit, 140 wearable display, 150 wearable sensor,
200 servers, 202 processing units, 210 daily life evaluation units, 212 intimacy evaluation units,
214 content selection unit, 220 storage unit, 222 content information storage unit,
224 Intimacy information storage unit

Claims (18)

ユーザの行動を計測する行動センサ、ユーザの状態を計測する状態センサ及びユーザの環境を計測する環境センサの少なくとも1つのセンサからのセンサ情報に基づいて、ユーザの現在の日常度を評価する処理を行い、ユーザの現在の状況についての日常度の度合いを表すパラメータである日常度の情報を求める日常度評価部と、
ユーザへの提示候補となるコンテンツの親密度を評価する処理を行い、コンテンツに対するユーザの親密度の度合いを表すパラメータである親密度の情報を求める親密度評価部と、
前記日常度評価部での日常度の評価結果である日常度の情報と、前記親密度評価部での親密度の評価結果である親密度の情報とに基づいて、ユーザへの提示候補となるコンテンツの中から、コンテンツ提示部によりユーザに対して提示するコンテンツを選択する処理を行うコンテンツ選択部と、
取得された前記センサ情報に基づいて、ユーザの状況を推定する状況推定部と、
前記状況推定部により推定されたユーザの現在の場所に基づいて、提示候補となるコンテンツの中から、1次候補となるコンテンツを抽出する1次候補コンテンツ抽出部と、
を含み、
前記日常度評価部は、
前記状況推定部により推定されたユーザの状況に基づいて、ユーザの日常度を評価し、
前記コンテンツ選択部は、
日常度の評価結果である日常度の情報と親密度の評価結果である親密度の情報とに基づいて、前記1次候補コンテンツ抽出部により抽出された1次候補のコンテンツの中から、ユーザに対して提示するコンテンツを選択することを特徴とする情報提示システム。
A process for evaluating a user's current daily life based on sensor information from at least one of a behavior sensor that measures a user's behavior, a state sensor that measures a user's state, and an environment sensor that measures a user's environment. There line, and daily evaluation unit for obtaining information of daily degree is a parameter representing the degree of daily degrees about the current status of the user,
There line processing to evaluate the closeness of presenting candidates to become content to the user, and closeness evaluation unit for obtaining information of closeness is a parameter representing the degree of closeness of the user for the content,
And everyday of the information which is the evaluation result of daily density at the daily value evaluation unit, on the basis of the familiarity of the information which is the evaluation result of the closeness in the closeness evaluation unit, the presentation candidates to the user A content selection unit that performs processing for selecting content to be presented to the user by the content presentation unit;
Based on the acquired sensor information, a situation estimation unit that estimates a user situation;
A primary candidate content extraction unit that extracts content that is a primary candidate from content that is a presentation candidate based on the current location of the user estimated by the situation estimation unit;
Including
The daily life evaluation unit
Based on the user's situation estimated by the situation estimation unit, the user's dailyness is evaluated,
The content selection unit
Based on the dailyness information, which is the evaluation result of the dailyness level, and the familiarity information, which is the evaluation result of the familiarity level, the content is extracted from the primary candidate content extracted by the primary candidate content extraction unit. An information presentation system , wherein content to be presented is selected .
請求項1において、In claim 1,
前記1次候補コンテンツ抽出部は、  The primary candidate content extraction unit
前記状況推定部により推定されたユーザの現在の場所に関連するコンテンツを、1次候補のコンテンツとして抽出し、  The content related to the current location of the user estimated by the situation estimation unit is extracted as the primary candidate content,
前記親密度評価部は、  The intimacy evaluation unit
ユーザの現在の場所に関連するコンテンツである1次候補のコンテンツについての親密度を評価することを特徴とする情報提示システム。  An information presentation system for evaluating a closeness of content of a primary candidate that is content related to a user's current location.
請求項1又は2において、In claim 1 or 2,
前記状況推定部により、ユーザの現在の場所が第1の場所であると推定された場合には、  When the situation estimation unit estimates that the current location of the user is the first location,
前記1次候補コンテンツ抽出部は、  The primary candidate content extraction unit
前記第1の場所に関連するコンテンツを、1次候補のコンテンツとして抽出し、  Content related to the first location is extracted as primary candidate content;
前記親密度評価部は、  The intimacy evaluation unit
前記第1の場所に関連するコンテンツについての親密度を評価し、  Assessing intimacy for content associated with the first location;
前記日常度評価部は、  The daily life evaluation unit
前記第1の場所についてのユーザの日常度を評価し、  Assessing the user's everydayness about the first location;
前記状況推定部により、ユーザの現在の場所が第2の場所であると推定された場合には、  When the situation estimation unit estimates that the current location of the user is the second location,
前記1次候補コンテンツ抽出部は、  The primary candidate content extraction unit
前記第2の場所に関連するコンテンツを、1次候補のコンテンツとして抽出し、  Content related to the second location is extracted as primary candidate content;
前記親密度評価部は、  The intimacy evaluation unit
前記第2の場所に関連するコンテンツについての親密度を評価し、  Assessing intimacy for content associated with the second location;
前記日常度評価部は、  The daily life evaluation unit
前記第2の場所についてのユーザの日常度を評価することを特徴とする情報提示システム。  The information presentation system characterized by evaluating a user's everydayness about the 2nd place.
請求項1乃至3のいずれかにおいて、
前記状況推定部により推定されたユーザの状況の履歴情報を記憶する履歴情報記憶部を含み、
前記日常度評価部は、
前記履歴情報記憶部に記憶されたユーザの状況の履歴情報と、前記状況推定部により推定されたユーザの現在の状況の情報との比較処理を行うことで、ユーザの日常度を評価することを特徴とする情報提示システム。
In any one of Claims 1 thru | or 3 ,
Including a history information storage unit that stores history information of a user's situation estimated by the situation estimation unit;
The daily life evaluation unit
Evaluating the user's daily life by performing a comparison process between the history information of the user's situation stored in the history information storage unit and the current situation information of the user estimated by the situation estimation unit; Characteristic information presentation system.
請求項1乃至4のいずれかにおいて、
前記状況推定部は、状況同定部と状況予測部を含み、
前記日常度評価部は、
前記状況予測部により予測されたユーザの状況と、前記状況同定部により同定されたユーザの実際の状況との比較処理を行うことで、ユーザの日常度を評価することを特徴とする情報提示システム。
In any one of Claims 1 thru | or 4 ,
The situation estimation unit includes a situation identification unit and a situation prediction unit,
The daily life evaluation unit
An information presentation system for evaluating a user's daily life by performing a comparison process between a user situation predicted by the situation prediction unit and an actual situation of the user identified by the situation identification unit .
請求項1乃至のいずれかにおいて、
前記日常度評価部は、
ユーザの状況を表す複数の状況情報のうちの少なくとも第1の状況情報に基づいてユーザの日常度を評価し、
前記親密度評価部は、
前記第1の状況情報に関連するコンテンツに対するユーザの親密度を評価し、
前記コンテンツ選択部は、
日常度の評価結果と親密度の評価結果とに基づいて、前記第1の状況情報に関連するコンテンツの中から、コンテンツ提示部によりユーザに対して提示するコンテンツを選択することを特徴とする情報提示システム。
In any one of Claims 1 thru | or 5 ,
The daily life evaluation unit
Evaluating the user's dailyness based on at least the first situation information among a plurality of situation information representing the user's situation,
The intimacy evaluation unit
Assessing user intimacy for content related to the first status information;
The content selection unit
Information for selecting content to be presented to a user by a content presentation unit from content related to the first situation information based on an evaluation result of dailyness and an evaluation result of familiarity Presentation system.
請求項1乃至6のいずれかにおいて、
前記状況推定部により推定されたユーザの状況履歴の情報を記憶する履歴情報記憶部と、
複数のサブシステムにより構成される統合システムの第1のサブシステムを利用していたユーザが、新たに第2のサブシステムの利用が可能な状態になったことを示す利用可能イベントの発生を判定するイベント判定部と、
前記利用可能イベントが発生した場合に、前記第1のサブシステムのセンサである第1
のセンサからのセンサ情報により更新していた状況履歴の情報を、前記第2のサブシステムのセンサである第2のセンサからのセンサ情報に基づいて、さらに更新する履歴情報更新部とを含むことを特徴とする情報提示システム。
In any one of Claims 1 thru | or 6 .
A history information storage unit that stores information on a user's situation history estimated by the situation estimation unit;
A user who has used the first subsystem of the integrated system composed of a plurality of subsystems determines the occurrence of an available event indicating that the user can use the second subsystem. An event determination unit to perform,
A first sensor that is a sensor of the first subsystem when the available event occurs
A history information update unit that further updates the status history information updated by the sensor information from the second sensor based on the sensor information from the second sensor that is the sensor of the second subsystem. An information presentation system characterized by
請求項1乃至7のいずれかにおいて、In any one of Claims 1 thru | or 7,
コンテンツに関連づけられたメタ情報を記憶するコンテンツ情報記憶部と、  A content information storage unit for storing meta-information associated with the content;
親密度の情報を記憶する親密度情報記憶部と、  A closeness information storage unit for storing closeness information;
を含み、  Including
前記コンテンツ情報記憶部は、  The content information storage unit
前記メタ情報としてコンテンツのカテゴリの情報を記憶し、  Storing content category information as the meta information;
前記親密度情報記憶部は、  The intimacy information storage unit
コンテンツのカテゴリに対する親密度の情報を記憶し、  Store intimacy information for content categories,
前記親密度評価部は、  The intimacy evaluation unit
提示候補となるコンテンツのカテゴリの情報を、前記コンテンツ情報記憶部から読み出し、読み出されたカテゴリの情報に対する親密度の情報を、前記親密度情報記憶部から読み出すことで、コンテンツに対するユーザの親密度を評価することを特徴とする情報提示システム。  The content category information to be presented is read from the content information storage unit, and the familiarity information for the read category information is read from the familiarity information storage unit, so that the user's familiarity with the content An information presentation system characterized by evaluating
ユーザの行動を計測する行動センサ、ユーザの状態を計測する状態センサ及びユーザの環境を計測する環境センサの少なくとも1つのセンサからのセンサ情報に基づいて、ユーザの現在の日常度を評価する処理を行い、ユーザの現在の状況についての日常度の度合いを表すパラメータである日常度の情報を求める日常度評価部と、
ユーザへの提示候補となるコンテンツの親密度を評価する処理を行い、コンテンツに対するユーザの親密度の度合いを表すパラメータである親密度の情報を求める親密度評価部と、
前記日常度評価部での日常度の評価結果である日常度の情報と、前記親密度評価部での親密度の評価結果である親密度の情報とに基づいて、ユーザへの提示候補となるコンテンツの中から、コンテンツ提示部によりユーザに対して提示するコンテンツを選択する処理を行うコンテンツ選択部と、
コンテンツに関連づけられたメタ情報を記憶するコンテンツ情報記憶部と、
親密度の情報を記憶する親密度情報記憶部と、
を含み、
前記コンテンツ情報記憶部は、
前記メタ情報としてコンテンツのカテゴリの情報を記憶し、
前記親密度情報記憶部は、
コンテンツのカテゴリーに対する親密度の情報を記憶し、
前記親密度評価部は、
提示候補となるコンテンツのカテゴリの情報を、前記コンテンツ情報記憶部から読み出し、読み出されたカテゴリの情報に対する親密度の情報を、前記親密度情報記憶部から読み出すことで、コンテンツに対するユーザの親密度を評価することを特徴とする情報提示システム。
A process for evaluating a user's current daily life based on sensor information from at least one of a behavior sensor that measures a user's behavior, a state sensor that measures a user's state, and an environment sensor that measures a user's environment. There line, and daily evaluation unit for obtaining information of daily degree is a parameter representing the degree of daily degrees about the current status of the user,
There line processing to evaluate the closeness of presenting candidates to become content to the user, and closeness evaluation unit for obtaining information of closeness is a parameter representing the degree of closeness of the user for the content,
And everyday of the information which is the evaluation result of daily density at the daily value evaluation unit, on the basis of the familiarity of the information which is the evaluation result of the closeness in the closeness evaluation unit, the presentation candidates to the user A content selection unit that performs processing for selecting content to be presented to the user by the content presentation unit;
A content information storage unit for storing meta-information associated with the content;
A closeness information storage unit for storing closeness information;
Including
The content information storage unit
Storing content category information as the meta information;
The intimacy information storage unit
Store intimacy information for content categories,
The intimacy evaluation unit
The content category information to be presented is read from the content information storage unit, and the familiarity information for the read category information is read from the familiarity information storage unit, so that the user's familiarity with the content An information presentation system characterized by evaluating
請求項1乃至のいずれかにおいて、
前記コンテンツ選択部は、
ユーザの日常度が高いと評価されるほど、親密度が低いと評価されるコンテンツを選択することを特徴とする情報提示システム。
In any one of Claims 1 thru | or 9 ,
The content selection unit
The information presentation system characterized by selecting the content evaluated as having low familiarity as the user's daily life is evaluated as being high.
請求項1乃至のいずれかにおいて、
前記コンテンツ選択部は、
ユーザの日常度が低いと評価されるほど、親密度が高いと評価されるコンテンツを選択することを特徴とする情報提示システム。
In any one of Claims 1 thru | or 9 ,
The content selection unit
The information presentation system characterized by selecting the content evaluated as having a high familiarity as the user's everydayness is evaluated as low.
請求項1乃至11のいずれかにおいて、
前記親密度評価部は、
コンテンツに対するユーザの親密度と、コンテンツに対するユーザ以外の他人の親密度とに基づいて、コンテンツの親密度を評価し、
前記コンテンツ選択部は、
コンテンツに対するユーザ及び他人の親密度に基づき評価されたコンテンツの親密度に基づいて、提示候補となるコンテンツの中からユーザに提示するコンテンツを選択することを特徴とする情報提示システム。
In any one of Claims 1 thru | or 11 ,
The intimacy evaluation unit
Evaluate content intimacy based on the user ’s intimacy for the content and the intimacy of others other than the user for the content,
The content selection unit
An information presentation system, wherein content to be presented to a user is selected from content that is a candidate for presentation based on the familiarity of the content evaluated based on the familiarity of the user and others with respect to the content.
請求項1乃至12のいずれかにおいて、
前記親密度評価部は、
提示候補となるコンテンツに関連するユーザの過去の行動履歴の情報に基づいて、コンテンツに対するユーザの親密度を評価することを特徴とする情報提示システム。
In any one of Claims 1 to 12 ,
The intimacy evaluation unit
An information presentation system for evaluating a user's intimacy with respect to content based on information on past behavior history of the user related to the content as a presentation candidate.
ユーザの行動を計測する行動センサ、ユーザの状態を計測する状態センサ及びユーザの環境を計測する環境センサの少なくとも1つのセンサからのセンサ情報に基づいて、ユーザの現在の日常度を評価する処理を行い、ユーザの現在の状況についての日常度の度合いを表すパラメータである日常度の情報を求める日常度評価部と、
ユーザへの提示候補となるコンテンツの親密度を評価する処理を行い、コンテンツに対するユーザの親密度の度合いを表すパラメータである親密度の情報を求める親密度評価部と、
前記日常度評価部での日常度の評価結果である日常度の情報と、前記親密度評価部での親密度の評価結果である親密度の情報とに基づいて、ユーザへの提示候補となるコンテンツの中から、コンテンツ提示部によりユーザに対して提示するコンテンツを選択する処理を行うコンテンツ選択部と、
取得された前記センサ情報に基づいて、ユーザの状況を推定する状況推定部と、
前記状況推定部により推定されたユーザの現在の場所に基づいて、提示候補となるコンテンツの中から、1次候補となるコンテンツを抽出する1次候補コンテンツ抽出部として、
コンピュータを機能させ
前記日常度評価部は、
前記状況推定部により推定されたユーザの状況に基づいて、ユーザの日常度を評価し、
前記コンテンツ選択部は、
日常度の評価結果である日常度の情報と親密度の評価結果である親密度の情報とに基づいて、前記1次候補コンテンツ抽出部により抽出された1次候補のコンテンツの中から、ユーザに対して提示するコンテンツを選択することを特徴とするプログラム。
A process for evaluating a user's current daily life based on sensor information from at least one of a behavior sensor that measures a user's behavior, a state sensor that measures a user's state, and an environment sensor that measures a user's environment. There line, and daily evaluation unit for obtaining information of daily degree is a parameter representing the degree of daily degrees about the current status of the user,
There line processing to evaluate the closeness of presenting candidates to become content to the user, and closeness evaluation unit for obtaining information of closeness is a parameter representing the degree of closeness of the user for the content,
And everyday of the information which is the evaluation result of daily density at the daily value evaluation unit, on the basis of the familiarity of the information which is the evaluation result of the closeness in the closeness evaluation unit, the presentation candidates to the user A content selection unit that performs processing for selecting content to be presented to the user by the content presentation unit;
Based on the acquired sensor information, a situation estimation unit that estimates a user situation;
Based on the current location of the user estimated by the situation estimation unit, as a primary candidate content extraction unit that extracts the content as the primary candidate from the content as the presentation candidate,
Make the computer work ,
The daily life evaluation unit
Based on the user's situation estimated by the situation estimation unit, the user's dailyness is evaluated,
The content selection unit
Based on the dailyness information, which is the evaluation result of the dailyness level, and the familiarity information, which is the evaluation result of the familiarity level, the content is extracted from the primary candidate content extracted by the primary candidate content extraction unit. A program for selecting content to be presented to a program.
ユーザの行動を計測する行動センサ、ユーザの状態を計測する状態センサ及びユーザの環境を計測する環境センサの少なくとも1つのセンサからのセンサ情報に基づいて、ユーザの現在の日常度を評価する処理を行い、ユーザの現在の状況についての日常度の度合いを表すパラメータである日常度の情報を求める日常度評価部と、
ユーザへの提示候補となるコンテンツの親密度を評価する処理を行い、コンテンツに対するユーザの親密度の度合いを表すパラメータである親密度の情報を求める親密度評価部と、
前記日常度評価部での日常度の評価結果である日常度の情報と、前記親密度評価部での親密度の評価結果である親密度の情報とに基づいて、ユーザへの提示候補となるコンテンツの中から、コンテンツ提示部によりユーザに対して提示するコンテンツを選択する処理を行うコンテンツ選択部と、
コンテンツに関連づけられたメタ情報を記憶するコンテンツ情報記憶部と、
親密度の情報を記憶する親密度情報記憶部として、
コンピュータを機能させ
前記コンテンツ情報記憶部は、
前記メタ情報としてコンテンツのカテゴリの情報を記憶し、
前記親密度情報記憶部は、
コンテンツのカテゴリに対する親密度の情報を記憶し、
前記親密度評価部は、
提示候補となるコンテンツのカテゴリの情報を、前記コンテンツ情報記憶部から読み出し、読み出されたカテゴリの情報に対する親密度の情報を、前記親密度情報記憶部から読み出すことで、コンテンツに対するユーザの親密度を評価することを特徴とするプログラム。
A process for evaluating a user's current daily life based on sensor information from at least one of a behavior sensor that measures a user's behavior, a state sensor that measures a user's state, and an environment sensor that measures a user's environment. There line, and daily evaluation unit for obtaining information of daily degree is a parameter representing the degree of daily degrees about the current status of the user,
There line processing to evaluate the closeness of presenting candidates to become content to the user, and closeness evaluation unit for obtaining information of closeness is a parameter representing the degree of closeness of the user for the content,
And everyday of the information which is the evaluation result of daily density at the daily value evaluation unit, on the basis of the familiarity of the information which is the evaluation result of the closeness in the closeness evaluation unit, the presentation candidates to the user A content selection unit that performs processing for selecting content to be presented to the user by the content presentation unit;
A content information storage unit for storing meta-information associated with the content;
As an intimacy information storage unit for storing intimacy information,
Make the computer work ,
The content information storage unit
Storing content category information as the meta information;
The intimacy information storage unit
Store intimacy information for content categories,
The intimacy evaluation unit
The content category information to be presented is read from the content information storage unit, and the familiarity information for the read category information is read from the familiarity information storage unit, so that the user's familiarity with the content A program characterized by evaluating
コンピュータ読み取り可能な情報記憶媒体であって、請求項14又は15に記載のプログラムを記憶したことを特徴とする情報記憶媒体。 A computer-readable information storage medium, wherein the program according to claim 14 or 15 is stored. ユーザの行動を計測する行動センサ、ユーザの状態を計測する状態センサ及びユーザの環境を計測する環境センサの少なくとも1つのセンサからのセンサ情報に基づいて、ユーザの現在の日常度を評価する処理を行い、ユーザの現在の状況についての日常度の度合いを表すパラメータである日常度の情報を求め、A process for evaluating a user's current daily life based on sensor information from at least one of a behavior sensor that measures a user's behavior, a state sensor that measures a user's state, and an environment sensor that measures a user's environment. To obtain dailyness information, which is a parameter representing the degree of everydayness of the user's current situation,
ユーザへの提示候補となるコンテンツの親密度を評価する処理を行い、コンテンツに対するユーザの親密度の度合いを表すパラメータである親密度の情報を求め、  Perform processing to evaluate the intimacy of the content that is a candidate for presentation to the user, and obtain intimacy information that is a parameter indicating the degree of intimacy of the user for the content,
日常度の評価結果である日常度の情報と、親密度の評価結果である親密度の情報とに基づいて、ユーザへの提示候補となるコンテンツの中から、コンテンツ提示部によりユーザに対して提示するコンテンツを選択する処理を行うと共に、  Based on the dailyness information that is the evaluation result of the dailyness level and the familiarity information that is the evaluation result of the familiarity level, the content presenting unit presents the content that is a candidate for presentation to the user to the user. Process to select the content to be
取得された前記センサ情報に基づいて、ユーザの状況を推定し、  Based on the acquired sensor information, the user's situation is estimated,
ユーザの状況として推定されたユーザの現在の場所に基づいて、提示候補となるコンテンツの中から、1次候補となるコンテンツを抽出し、  Based on the current location of the user estimated as the user's situation, the content that is the primary candidate is extracted from the content that is the presentation candidate,
推定されたユーザの状況に基づいて、ユーザの日常度を評価し、  Based on the estimated user situation, evaluate the user ’s daily life,
日常度の評価結果である日常度の情報と親密度の評価結果である親密度の情報とに基づいて、抽出された1次候補のコンテンツの中から、ユーザに対して提示するコンテンツを選択することを情報提示システムの制御方法。  A content to be presented to the user is selected from the extracted contents of the primary candidate based on the dailyness information that is the evaluation result of the dailyness and the familiarity information that is the evaluation result of the familiarity. That information presentation system control method.
ユーザの行動を計測する行動センサ、ユーザの状態を計測する状態センサ及びユーザの環境を計測する環境センサの少なくとも1つのセンサからのセンサ情報に基づいて、ユーザの現在の日常度を評価する処理を行い、ユーザの現在の状況についての日常度の度合いを表すパラメータである日常度の情報を求め、A process for evaluating a user's current daily life based on sensor information from at least one of a behavior sensor that measures a user's behavior, a state sensor that measures a user's state, and an environment sensor that measures a user's environment. To obtain dailyness information, which is a parameter representing the degree of everydayness of the user's current situation,
ユーザへの提示候補となるコンテンツの親密度を評価する処理を行い、コンテンツに対するユーザの親密度の度合いを表すパラメータである親密度の情報を求め、  Perform processing to evaluate the intimacy of the content that is a candidate for presentation to the user, and obtain intimacy information that is a parameter indicating the degree of intimacy of the user for the content,
日常度の評価結果である日常度の情報と、親密度の評価結果である親密度の情報とに基づいて、ユーザへの提示候補となるコンテンツの中から、コンテンツ提示部によりユーザに対して提示するコンテンツを選択する処理を行うと共に、  Based on the dailyness information that is the evaluation result of the dailyness level and the familiarity information that is the evaluation result of the familiarity level, the content presenting unit presents the content that is a candidate for presentation to the user to the user. Process to select the content to be
コンテンツに関連づけられたメタ情報としてコンテンツのカテゴリの情報を、コンテンツ情報記憶部に記憶し、  Store content category information as meta information associated with the content in the content information storage unit,
コンテンツのカテゴリに対する親密度の情報を、親密度情報記憶部に記憶し、  Store the intimacy information for the content category in the intimacy information storage unit,
提示候補となるコンテンツのカテゴリの情報を、前記コンテンツ情報記憶部から読み出し、読み出されたカテゴリの情報に対する親密度の情報を、前記親密度情報記憶部から読み出すことで、コンテンツに対するユーザの親密度を評価することを特徴とする情報提示システムの制御方法。  The content category information to be presented is read from the content information storage unit, and the familiarity information for the read category information is read from the familiarity information storage unit, so that the user's familiarity with the content A method for controlling an information presentation system, characterized in that
JP2008015211A 2008-01-25 2008-01-25 Information presentation system, program, information storage medium, and information presentation system control method Active JP5060978B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008015211A JP5060978B2 (en) 2008-01-25 2008-01-25 Information presentation system, program, information storage medium, and information presentation system control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008015211A JP5060978B2 (en) 2008-01-25 2008-01-25 Information presentation system, program, information storage medium, and information presentation system control method

Publications (2)

Publication Number Publication Date
JP2009176130A JP2009176130A (en) 2009-08-06
JP5060978B2 true JP5060978B2 (en) 2012-10-31

Family

ID=41031128

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008015211A Active JP5060978B2 (en) 2008-01-25 2008-01-25 Information presentation system, program, information storage medium, and information presentation system control method

Country Status (1)

Country Link
JP (1) JP5060978B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11412713B2 (en) 2016-03-15 2022-08-16 Sony Corporation Information processing device and information processing method

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5215098B2 (en) * 2008-09-17 2013-06-19 オリンパス株式会社 Information processing system, program, and information storage medium
JP5305802B2 (en) * 2008-09-17 2013-10-02 オリンパス株式会社 Information presentation system, program, and information storage medium
WO2011013245A1 (en) * 2009-07-31 2011-02-03 株式会社東芝 Position estimating device
KR101594391B1 (en) * 2009-10-22 2016-02-16 삼성전자주식회사 Apparatus and method for generating play list for multimedia based on user experience in portable multimedia player
JP5681504B2 (en) * 2011-01-14 2015-03-11 株式会社東芝 Question prediction apparatus and question prediction method
JP2013152623A (en) * 2012-01-25 2013-08-08 Nikon Corp Electronic apparatus
KR101258461B1 (en) 2012-05-29 2013-04-26 주식회사 위엠비 Meta file geneating apparatus for heterogeneous device environment and adaptive contents servicing apparatus and method using the same
JP6195241B2 (en) * 2013-08-01 2017-09-13 Kddi株式会社 Terminal and situation estimation system
JP2015087957A (en) * 2013-10-30 2015-05-07 株式会社東芝 Information providing device and method therefor, and program
WO2015107681A1 (en) 2014-01-17 2015-07-23 任天堂株式会社 Information processing system, information processing server, information processing program, and information providing method
US11974847B2 (en) 2014-08-07 2024-05-07 Nintendo Co., Ltd. Information processing system, information processing device, storage medium storing information processing program, and information processing method
EP3243150A1 (en) * 2015-01-07 2017-11-15 Koninklijke Philips N.V. Scheduling interaction with a subject
JP6158859B2 (en) * 2015-05-13 2017-07-05 ヤフー株式会社 Prediction device, terminal, prediction method, and prediction program
EP3350720A4 (en) * 2015-09-16 2019-04-17 Eski Inc. Methods and apparatus for information capture and presentation
CN106572004B (en) * 2017-01-02 2021-04-06 郑洪� Information pushing method, information pushing device and system
JP7031927B2 (en) * 2018-02-16 2022-03-08 Necソリューションイノベータ株式会社 Notification devices, notification methods, and programs for notification information suitable for users.
WO2022044152A1 (en) * 2020-08-26 2022-03-03 株式会社ロゼッタ Virtual travel providing method

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4379688B2 (en) * 2003-09-09 2009-12-09 ソニー株式会社 Information processing apparatus and method, recording medium, and program
JP2005260697A (en) * 2004-03-12 2005-09-22 Fuji Xerox Co Ltd Sensor network system
JP2004234687A (en) * 2004-04-02 2004-08-19 Nec Corp Information-providing system and information-providing method
JP2006146630A (en) * 2004-11-22 2006-06-08 Sony Corp Content selection reproduction device, content selection reproduction method, content distribution system and content retrieval system
JP2006251938A (en) * 2005-03-09 2006-09-21 Hitachi Ltd Information delivery device
JP4759304B2 (en) * 2005-04-07 2011-08-31 オリンパス株式会社 Information display system
JP2007041642A (en) * 2005-07-29 2007-02-15 Improove Technologies Co Ltd Information distribution system, information distribution method and information distribution device
JP4569523B2 (en) * 2005-08-31 2010-10-27 株式会社デンソー Navigation device
JP2007264764A (en) * 2006-03-27 2007-10-11 Denso It Laboratory Inc Content sorting method
JP4961172B2 (en) * 2006-06-27 2012-06-27 オリンパス株式会社 Information selection system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11412713B2 (en) 2016-03-15 2022-08-16 Sony Corporation Information processing device and information processing method

Also Published As

Publication number Publication date
JP2009176130A (en) 2009-08-06

Similar Documents

Publication Publication Date Title
JP5060978B2 (en) Information presentation system, program, information storage medium, and information presentation system control method
JP5215098B2 (en) Information processing system, program, and information storage medium
JP7001181B2 (en) Information processing systems, control methods, and programs
US11024070B2 (en) Device and method of managing user information based on image
JP5265141B2 (en) Portable electronic device, program and information storage medium
JP6558364B2 (en) Information processing apparatus, information processing method, and program
JP5305802B2 (en) Information presentation system, program, and information storage medium
US8451194B2 (en) Information processing system, digital photo frame, information processing method, and computer program product
US20110118870A1 (en) Robot control system, robot, program, and information storage medium
US20180056130A1 (en) Providing insights based on health-related information
JP5768517B2 (en) Information processing apparatus, information processing method, and program
JP2009061547A (en) Robot control system, robot, program, and information storage medium
JP2008310680A (en) Control system, program, and information storage medium
JP6803299B2 (en) System and method
JP2009131928A (en) Robot control system, robot, program and information recording medium
KR20160051536A (en) Device for managing user information based on image and method thereof
US20230336694A1 (en) Tagging Characteristics of an Interpersonal Encounter Based on Vocal Features
JPWO2016189908A1 (en) Information processing apparatus, information processing method, and program
Lee et al. The service pattern-oriented smart bedroom based on elderly spatial behaviour patterns
JP7048709B2 (en) System and method
WO2020230589A1 (en) Information processing device, information processing method, and information processing program
JP7219546B2 (en) Property search system
JP7123601B2 (en) Value evaluation system and property search system
WO2018051596A1 (en) Information processing device
Rafaiejokandan Data Driven Approach to Thermal Comfort Model Design

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120724

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120806

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150810

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5060978

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150810

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250