JP6540224B2 - Processing program, processing method and processing apparatus - Google Patents

Processing program, processing method and processing apparatus Download PDF

Info

Publication number
JP6540224B2
JP6540224B2 JP2015102265A JP2015102265A JP6540224B2 JP 6540224 B2 JP6540224 B2 JP 6540224B2 JP 2015102265 A JP2015102265 A JP 2015102265A JP 2015102265 A JP2015102265 A JP 2015102265A JP 6540224 B2 JP6540224 B2 JP 6540224B2
Authority
JP
Japan
Prior art keywords
user
information
feeling
time zone
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015102265A
Other languages
Japanese (ja)
Other versions
JP2016218692A (en
Inventor
尚子 林田
尚子 林田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015102265A priority Critical patent/JP6540224B2/en
Publication of JP2016218692A publication Critical patent/JP2016218692A/en
Application granted granted Critical
Publication of JP6540224B2 publication Critical patent/JP6540224B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Description

本発明は、処理プログラム、処理方法及び処理装置に関する。   The present invention relates to a processing program, a processing method, and a processing apparatus.

装置やサービスなどの継続利用は、あらゆるICT(Information and Communications Technology)にとって必要な要素といえる。例えば、ユーザに関する情報を基にした情報をユーザに示すアプリケーション(例えば、リコメンデーションアプリなど)においても、ユーザに継続的に利用してもらうことは非常に重要である。   The continuous use of devices and services can be said to be a necessary element for any information and communication technology (ICT). For example, even in an application (for example, a recommendation application or the like) that shows information to the user based on information on the user, it is very important to have the user continuously use it.

このようなアプリケーションを利用するユーザにとっては、サービスに対して親近だと感じる感覚(心の距離感)などを意味する「社会的距離」が遠いアプリケーションにおいて、過分な個人情報などに基づいて情報が提示されると、当該アプリケーションに嫌悪感をもち、利用を躊躇するおそれがある。   For users using such applications, information is based on excessive personal information etc. in applications where “social distance”, which means sense of feeling close to the service (sense of distance from the mind), etc. If it is presented, the application may be disgusted and may disappoint use.

このため、ユーザとアプリケーションとの社会的距離の遠近に合った情報を提供できるようにすれば、ユーザとアプリケーションとの友好な関係を構築及び維持することができる。従来においては、ユーザが感じている社会的距離を複数の質問項目によってユーザからヒアリングするアンケート等を実施することで、社会的距離を数値として示す技術が知られている(例えば、非特許文献1等参照)。   For this reason, if it is possible to provide information that matches the social distance between the user and the application, a friendly relationship between the user and the application can be established and maintained. In the related art, there is known a technique for showing social distance as a numerical value by executing a questionnaire or the like for hearing from the user the social distance felt by the user with a plurality of question items (for example, Non-Patent Document 1) Etc.).

Yonnim Lee, Ohbyung Kwon, Intimacy, familiarity and continuance intention: An extended expectation-confirmation model in web-based services, Electronic Commerce Research and Applications 10, 2011.Yonnim Lee, Ohbyung Kwon, Intimacy, familiarity and continuity intention: An extended expectation-confirmation model in web-based services, Electronic Commerce Research and Applications 10, 2011.

しかしながら、アンケート等を実施してユーザとアプリケーションとの社会的距離の遠近を判断するのでは、アンケート作成や回答入力等に手間がかかる。   However, when a questionnaire or the like is performed to determine the perspective of the social distance between the user and the application, it takes time and effort to create a questionnaire, enter an answer, and the like.

1つの側面では、本発明は、ユーザがアプリケーションや装置などに対して感じる社会的距離の遠近を判断することが可能な処理プログラム、処理方法及び処理装置を提供することを目的とする。   In one aspect, the present invention aims to provide a processing program, a processing method, and a processing apparatus capable of determining the perspective of social distance felt by a user with respect to an application, a device, and the like.

一つの態様では、処理プログラムは、コンピュータに、第1の情報収集装置が収集したデータに基づいて判定された、ある時間帯における外部観察からでは明らかでない利用者の状態又は気持ちに関する第1の情報と、前記第1の情報収集装置と異なる第2の情報収集装置が収集したデータに基づいて判定された、前記ある時間帯における外部観察から明らかな前記利用者の状態又は気持ちに関する第2の情報と、を記憶する第1の記憶部を参照し、同時間帯において前記第1の情報が示す前記利用者の状態又は気持ちと前記第2の情報が示す前記利用者の状態又は気持ちとが異なる時間帯を特定する機能と、前記利用者に対して、特定された前記時間帯における前記利用者の状態又は気持ちをたずねる質問を提示する機能と、前記利用者が前記質問に回答している間に前記第1の情報収集装置により収集されたデータ及び前記第2の情報収集装置により収集されたデータの少なくとも1つに基づき、前記利用者が前記質問に回答したときの前記利用者の状態又は気持ちを判定する機能と、判定した前記利用者の状態又は気持ちが、特定された前記時間帯における前記第1の情報が示す前記利用者の状態又は気持ちと共通する場合に、共通しない場合よりも、該利用者と回答先との社会的距離が近いと判断する機能とを実現させるためのプログラムである。 In one aspect, the processing program causes the computer to determine, based on the data collected by the first information collection device, the first information regarding the state or feeling of the user not apparent from the external observation in a certain time zone And second information related to the state or feeling of the user apparent from the external observation in the certain time zone, which is determined based on data collected by a second information collecting device different from the first information collecting device. And the first storage unit storing the first information and the second information indicates the state or the feeling of the user indicated by the second information in the same time zone. A function of specifying a time zone, a function of presenting to the user a question asking the condition or feeling of the user in the specified time zone, and the user Said user answered said question based on at least one of data collected by said first information collecting device and data collected by said second information collecting device while answering said question The function of determining the condition or feeling of the user at the same time as the determined condition or feeling of the user is common to the condition or feeling of the user indicated by the first information in the specified time zone In this case, it is a program for realizing a function of judging that the social distance between the user and the reply destination is closer than in the case where they are not common .

ユーザがアプリケーションや装置などに対して感じる社会的距離の遠近を判断することができる。   It is possible to determine the perspective of the social distance that the user feels to the application, device, etc.

第1の実施形態に係る情報提示システムの構成を概略的に示す図である。It is a figure showing roughly the composition of the information presentation system concerning a 1st embodiment. 図1の情報提示システムの利用状態を示す図である。It is a figure which shows the utilization condition of the information presentation system of FIG. 図3(a)は、情報処理端末のハードウェア構成を示す図であり、図3(b)は、サーバのハードウェア構成を示す図である。FIG. 3A is a diagram showing a hardware configuration of the information processing terminal, and FIG. 3B is a diagram showing a hardware configuration of a server. 情報提示システムの各部の機能ブロック図である。It is a functional block diagram of each part of an information presentation system. 第1の実施形態に係るユーザアフェクト判定・記録処理を示すフローチャートである。It is a flowchart which shows the user effect determination and recording process which concerns on 1st Embodiment. 図6(a)は、皮膚導電データ記録DBを示す図であり、図6(b)は、動画像データ記録DBを示す図である。FIG. 6 (a) shows a skin conduction data record DB, and FIG. 6 (b) shows a moving image data record DB. 図7(a)は、音声データ記録DBを示す図であり、図7(b)は、行動ログDBを示す図である。Fig.7 (a) is a figure which shows audio | voice data recording DB, FIG.7 (b) is a figure which shows action log DB. 行動ログの個人情報レベル定義を示す図である。It is a figure which shows the personal information level definition of an action log. 第1の実施形態に係るユーザアフェクトログDBを示す図である。It is a figure which shows user effect log DB which concerns on 1st Embodiment. 個人情報レベルと自己開示レベルの対応関係を示す図である。It is a figure which shows the correspondence of a personal information level and a self-disclosure level. 図11(a)は、アフェクト判定APIの個人情報レベル定義を示す図であり、図11(b)は、アフェクト判定に使用する行動ログタイプとアフェクト判定API定義を示す図である。FIG. 11A is a diagram showing personal information level definition of the effect determination API, and FIG. 11B is a diagram showing an action log type used for effect determination and the effect determination API definition. 第1の実施形態に係る社会的距離算出処理を示すフローチャートである。It is a flowchart which shows the social distance calculation process which concerns on 1st Embodiment. 図13(a)は、質問文生成雛形リストを示す図であり、図13(b)は、応答解析に使用するアフェクト判定API定義を示す図である。FIG. 13 (a) is a diagram showing a question sentence generation template list, and FIG. 13 (b) is a diagram showing an effect determination API definition used for response analysis. 社会的距離DBを示す図である。It is a figure which shows social distance DB. 第2の実施形態に係る情報提示システムの構成を概略的に示す図である。It is a figure showing roughly the composition of the information presentation system concerning a 2nd embodiment. 図15の情報提示システムの利用状態を示す図である。It is a figure which shows the utilization condition of the information presentation system of FIG. 第2の実施形態に係るユーザアフェクト判定・記録処理を示すフローチャートである。It is a flow chart which shows user effect judging and recording processing concerning a 2nd embodiment. 第2の実施形態に係るユーザアフェクトログDBを示す図である。It is a figure which shows user effect log DB which concerns on 2nd Embodiment. 第2の実施形態に係る社会的距離算出処理を示すフローチャートである。It is a flowchart which shows the social distance calculation process which concerns on 2nd Embodiment. 第3の実施形態に係る社会的距離算出処理を示すフローチャートである。It is a flowchart which shows the social distance calculation process which concerns on 3rd Embodiment. 第3の実施形態に係るユーザアフェクトログDBを示す図である。It is a figure which shows user effect log DB which concerns on 3rd Embodiment. 第4の実施形態に係る社会的距離算出処理を示すフローチャートである。It is a flowchart which shows the social distance calculation process which concerns on 4th Embodiment. 第5の実施形態に係る情報提示システムの利用状態を示す図である。It is a figure which shows the utilization condition of the information presentation system which concerns on 5th Embodiment. 視線データ記録DBを示す図である。It is a figure showing eye gaze data record DB. 第5の実施形態に係る社会的距離算出処理を示すフローチャートである。It is a flowchart which shows the social distance calculation process which concerns on 5th Embodiment. 第5の実施形態に係るユーザアフェクトログDBを示す図である。It is a figure which shows user effect log DB which concerns on 5th Embodiment. 第7の実施形態に係るユーザアフェクトログDBを示す図である。It is a figure which shows user effect log DB which concerns on 7th Embodiment.

《第1の実施形態》
以下、情報提供システムの第1の実施形態について、図1〜図14に基づいて詳細に説明する。図1には、第1の実施形態に係る情報提供システム100の構成が概略的に示されている。
First Embodiment
Hereinafter, a first embodiment of the information providing system will be described in detail based on FIGS. 1 to 14. FIG. 1 schematically shows the configuration of an information providing system 100 according to the first embodiment.

なお、本第1の実施形態では、人と、機械、サービス、アプリケーションなどとの間の心の距離を表す文言として、本来は人と他集団との心の距離を意味する文言である「社会的距離」を用いるものとする。この社会的距離は、人と人との間の距離感と同様、過去のやり取りの背景・経緯等を通じて醸成されるものである。本第1の実施形態の情報提供システム100は、ユーザの行動や状態等から生成した質問に対するユーザからの回答に基づいて、アプリケーションとの間の社会的距離の遠近を判断する。また、情報提供システム100は、判断した社会的距離の遠近に基づいて、アプリケーションからユーザに対して提供する情報を制御する。   In the first embodiment, “society, which is originally a word meaning the distance between the mind of a person and another group, is a word that represents the distance of the mind between a person and a machine, a service, an application, etc. Target distance shall be used. This social distance, like the sense of distance between people, is fostered through the background and process of past communication. The information providing system 100 according to the first embodiment determines the perspective of the social distance with the application based on the user's answer to the question generated from the user's action or state. In addition, the information providing system 100 controls information provided from the application to the user based on the distance between the determined social distance.

なお、本第1の実施形態では、ユーザにまつわる情報の分類として図10に示す「個人情報レベル」(Not Observable/Observable)を用いる。「Not Observable」は、ユーザの表面からは観察できない部分の情報(外部観察では分からない情報)を意味し、例えば、皮膚電気活動量や視線の検出結果等が含まれる。「Observable」は、ユーザの表面の観察から誰でも知ることができる部分の情報(外部観察で分かる情報)を意味し、例えば、小型ビデオ録画器やマイクにより取得される動画像データや音声データが含まれる。   In the first embodiment, “personal information level” (Not Observable / Observable) shown in FIG. 10 is used as a classification of information related to the user. "Not observable" means information of a portion which can not be observed from the surface of the user (information which can not be recognized by external observation), and includes, for example, the amount of skin electrical activity, the detection result of the line of sight, "Observable" means information of a part that can be known by anyone from the observation of the surface of the user (information understood by external observation), for example, moving image data and audio data acquired by a small video recorder or microphone included.

また、本第1の実施形態では、各個人情報レベルによって分類される情報を用いてユーザアフェクト判定されたユーザの状態や気持ちの開示に関する分類として、図10に示す「自己開示レベル」(Not Superficial/Superficial)を用いる。「Not Superficial」は、本人の人格のコアに及んでいて表面からは観察できない部分の自己開示(他人に知られていない自分の状態/気持ちの開示)を意味する。また、「Superficial」は、本人の表面的な部分に関する自己開示(表面の観察から誰でも知ることができる自分の状態/気持ちの開示)を意味する。なお、図10に示すように、個人情報レベルの「Not Observable」、「Observable」と、自己開示レベルの「Not Superficial」、「Superficial」は対応している。なお、図10に示す、個人情報レベル「Observable(conv)」と自己開示レベル「Superficial(intimate)」についての説明は後述する。   Also, in the first embodiment, the “self-disclosure level” (Not Superficial level) shown in FIG. 10 is used as a classification related to the disclosure of the user's state or feeling determined to be a user effect using information classified by each personal information level. / Superficial) is used. "Not Superficial" means self-disclosure (disclosure of one's condition / feeling that is not known to others) that extends to the core of the person's personality and can not be observed from the surface. Also, "Superficial" means self-disclosure about the superficial part of the person (disclosure of one's own state / feeling that anyone can know from observation of the surface). As shown in FIG. 10, personal information levels "Not Observable" and "Observable" correspond to self-disclosure levels "Not Superficial" and "Superficial". A description of the personal information level "Observable (conv)" and the self-disclosure level "Superficial (intimate)" shown in FIG. 10 will be described later.

ここで、本第1の実施形態の情報提供システム100は、図2に示すような建屋内をユーザAが歩いていく中で、与えられるガイダンスを個人ごとに異ならせるシステムであるとする。情報提供システム100は、図1、図2に示すように、情報処理端末10と、情報収集装置20、120と、情報提示装置110と、処理装置としてのサーバ30と、を備える。情報提供システム100に含まれる各装置は、無線通信回線、インターネットなどのネットワーク80に接続されている。本第1の実施形態の情報提供システム100は、クライアントソフトウェアの配置された側(ユーザ側)の情報処理装置(情報処理端末10、情報収集装置20、120、情報提示装置110)と、サーバソフトウェアの配置された側の情報処理装置(サーバ30)とが、全体の処理を分割して実現するシステムである。   Here, it is assumed that the information providing system 100 of the first embodiment is a system in which the guidance given is different for each individual while the user A walks in the building as shown in FIG. As shown in FIG. 1 and FIG. 2, the information providing system 100 includes an information processing terminal 10, information collection devices 20 and 120, an information presentation device 110, and a server 30 as a processing device. Each device included in the information providing system 100 is connected to a wireless communication line, a network 80 such as the Internet. The information providing system 100 according to the first embodiment includes an information processing apparatus (information processing terminal 10, information collecting apparatus 20, 120, information presentation apparatus 110) on the side (user side) where client software is arranged, server software The information processing apparatus (server 30) on the side where the above is arranged is a system that divides and implements the entire processing.

なお、以下においては、クライアントソフトウェアが実現するユーザへの提示は、ユーザに応じた情報提示を意味するものとする。また、クライアントソフトウェアがユーザから収集する情報は、ユーザと紐づけてシステム上に保管される。つまり、クライアントソフトウェアを実装する装置は、クライアントソフトウェアもしくはサーバソフトウェアによって、アクセス制御されている。そのため、クライアントソフトウェアやサーバソフトウェアによってユーザAであることが確認されていることを前提に情報収集や情報提示は行われる。   In the following, presentation to the user realized by the client software means presentation of information according to the user. Also, information collected by the client software from the user is stored in the system in association with the user. That is, the device implementing the client software is access controlled by the client software or server software. Therefore, information collection and information presentation are performed on the assumption that the user A is confirmed by client software or server software.

情報処理端末10は、ユーザ向けに設計されたクライアントソフトウェアの配置された端末であり、例えば、図2に示すような案内ボード型情報端末であるものとする。なお、情報処理端末10は、例えば、携帯電話、スマートフォン、タブレット型端末、装着型モバイル端末、PC(Personal Computer)等であってもよい。   The information processing terminal 10 is a terminal on which client software designed for a user is arranged, and is, for example, a guidance board type information terminal as shown in FIG. The information processing terminal 10 may be, for example, a mobile phone, a smartphone, a tablet terminal, a wearable mobile terminal, a PC (Personal Computer), or the like.

図3(a)には、情報処理端末10のハードウェア構成が示されている。図3(a)に示すように、情報処理端末10は、CPU(Central Processing Unit)90、ROM(Read Only Memory)92、RAM(Random Access Memory)94、記憶部(ここではHDD(Hard Disk Drive))96、ネットワークインタフェース97、表示部93、入力部95及び可搬型記憶媒体用ドライブ99等を備えている。表示部93は、液晶ディスプレイ等を含み、入力部95は、タッチパネルなどを含む。これら情報処理端末10の構成各部は、バス98に接続されている。CPU90は、ROM92あるいはHDD96に格納されているプログラム、或いは可搬型記憶媒体用ドライブ99が可搬型記憶媒体91から読み取ったプログラムを実行することにより、情報処理端末10を図4に示す情報提示部12として機能させる。   The hardware configuration of the information processing terminal 10 is shown in FIG. As shown in FIG. 3A, the information processing terminal 10 includes a central processing unit (CPU) 90, a read only memory (ROM) 92, a random access memory (RAM) 94, and a storage unit (here, a hard disk drive (HDD). ), Network interface 97, display unit 93, input unit 95, portable storage medium drive 99, and the like. The display unit 93 includes a liquid crystal display and the like, and the input unit 95 includes a touch panel and the like. The components of the information processing terminal 10 are connected to a bus 98. The CPU 90 executes the program stored in the ROM 92 or the HDD 96 or the program read by the portable storage medium drive 99 from the portable storage medium 91 to display the information processing unit 12 shown in FIG. Act as

情報提示部12は、ユーザに対する情報提示を行う。なお、情報提示部12は、画像による情報提示(表示部93への表示)のほか、スピーカを介した音声による情報提示等を行ってもよい。なお、ユーザへの情報提示の種類は、情報提示部12のスペック(表示部93のサイズやスピーカの許容ファイル種類等)に依存する。つまり、情報処理端末10では、情報提示に用いるインタフェースが確認されていることを前提に情報収集や情報提示が実行される。なお、情報処理端末10の情報提示部12は、表示部93上にアプリケーションC2の情報を提示する。   The information presentation unit 12 presents information to the user. Note that the information presentation unit 12 may perform information presentation by voice or the like via a speaker in addition to information presentation by an image (display on the display unit 93). The type of information presentation to the user depends on the specifications of the information presentation unit 12 (such as the size of the display unit 93 and the allowable file type of the speaker). That is, in the information processing terminal 10, information collection and information presentation are performed on the assumption that the interface used for information presentation is confirmed. The information presentation unit 12 of the information processing terminal 10 presents the information of the application C2 on the display unit 93.

情報収集装置20は、一例として、図2に示すような腕に装着されるリストバンド型の装置であるものとする。なお、情報収集装置20としては、リストバンド型の装置に代えて、ヘアバンド型の装置などを採用してもよい。情報収集装置20は、皮膚導電データ(皮膚電気活動値)を収集する情報収集部22を有し、ネットワーク80を介して情報処理端末10に送信する。皮膚電気活動値に関する技術は、「affdex社, Qセンサ(皮膚電気活動(EDA)センサ),http://qsensor-support.affectiva.com/,http://assistly-production.s3.amazonaws.com/168567/kb_article_attachments/30856/Q_User_Manual_20130329_original.pdf?AWSAccessKeyId=AKIAJNSFWOZ6ZS23BMKQ&Expires=1406699351&Signature=4lXmsO4t6XH%2FKG345KDwuHAGoDc%3D&response-content-disposition=filename%3D%22Q_User_Manual_20130329.pdf%22&response-content-type=application%2Fpdf」等に記載されている。   The information collecting device 20 is, for example, a wrist band type device attached to an arm as shown in FIG. As the information collection device 20, a hair band type device or the like may be employed instead of the wrist band type device. The information collection device 20 includes an information collection unit 22 that collects skin conduction data (skin electrical activity value), and transmits the information to the information processing terminal 10 via the network 80. The technology related to skin electroactivity values can be found in “affdex, Q sensor (skin electrical activity (EDA) sensor), http://qsensor-support.affectiva.com/, http://assistly-production.s3.amazonaws.com /168567/kb_article_attachments/30856/Q_User_Manual_20130329_original.pdf?AWSAccessKeyId=AKIAJNSFWOZ6ZS23BMKQ&Expires=1406699351&Signature=4lXmsO4t6XH%2FKG345KDHAHGoDc%3D&response-content-h. There is.

情報収集装置120は、図2に示すように、建屋内に設置された小型ビデオ録画器である。情報収集装置120は、動画像データを取得する情報収集部122を有し、取得した動画像データをサーバ30に送信する。   The information collection device 120 is a small video recorder installed in a building as shown in FIG. The information collecting apparatus 120 includes an information collecting unit 122 that acquires moving image data, and transmits the acquired moving image data to the server 30.

なお、情報収集部22,122が収集するデータとしては、上記に限らず、ユーザ反応を導出するためのデータ、例えば音声、生体信号、脳波等を採用することができる。なお、データによっては、1種類のセンサのデータから、ユーザ反応を導出するための中間的な情報を複数抽出できる場合もある。例えば、ユーザ記録映像であれば、顔パーツに注目すれば表情の変化の大小の情報が抽出でき、顔サイズの変化に注目すれば情報収集装置120に対するユーザの姿勢変化の情報が抽出できる。   The data collected by the information collecting unit 22 122 is not limited to the above, and data for deriving a user reaction, such as voice, a biological signal, an electroencephalogram, etc., can be adopted. Depending on the data, a plurality of pieces of intermediate information for deriving a user reaction may be extracted from data of one type of sensor. For example, in the case of a user-recorded video, information on the change in facial expression can be extracted by focusing on the face part, and information on posture change of the user with respect to the information collecting apparatus 120 can be extracted by focusing on the change in face size.

情報提示装置110は、例えば、プロジェクタやスピーカを含み、建屋内において、ユーザに対して情報提示を行う情報提示部112を有している。なお、情報提示部112は、情報提示インタフェースがスクリーンや、スピーカであることが確認されていることを前提に情報提示を行う。なお、情報提示装置110の情報提示部112は、スクリーン等にアプリケーションC1の情報を提示する。   The information presentation apparatus 110 includes, for example, a projector and a speaker, and includes an information presentation unit 112 that presents information to a user in a building. The information presentation unit 112 presents information on the assumption that the information presentation interface is confirmed to be a screen or a speaker. The information presentation unit 112 of the information presentation device 110 presents the information of the application C1 on a screen or the like.

サーバ30は、サーバソフトウェアの配置された情報処理装置であり、ユーザのデータを集約し、整理して保管・分別・各種演算を行う。また、サーバ30は、ユーザに配信するコンテンツの提示形態の制御を含め、コンテンツ配信を同時に管理する。   The server 30 is an information processing apparatus in which server software is arranged, aggregates user data, arranges the data, and performs storage, sorting, and various calculations. In addition, the server 30 simultaneously manages content distribution, including control of the presentation form of content to be distributed to the user.

ここで、本第1の実施形態では、サーバ30は、ユーザが機械やサービスに対してどのくらいの社会的距離の遠近をもって接しているかを、機械やサービスからの質問に対するユーザからの短い発話(回答)においてユーザが“他人に知られていない自分の状態/気持ち”を教えるかどうかに基づいて判定する。   Here, in the first embodiment, the server 30 makes a short utterance from the user to a question from the machine or the service as to how much social distance the user is in contact with the machine or the service. The determination is made based on whether or not the user teaches "other people's own state / feelings not known".

図3(b)には、サーバ30のハードウェア構成が示されている。図3(b)に示すように、サーバ30は、CPU190、ROM192、RAM194、記憶部(HDD等)196、ネットワークインタフェース197、及び可搬型記憶媒体用ドライブ199等を備えている。これらサーバ30の構成各部は、バス198に接続されている。CPU190は、ROM192あるいはHDD196に格納されているプログラム(処理プログラムを含む)、或いは可搬型記憶媒体用ドライブ199が可搬型記憶媒体191から読み取ったプログラム(処理プログラムを含む)を実行することにより、サーバ30が図3の各部として機能する。具体的には、CPU190がプログラムを実行することで、処理部としての情報提示処理制御部34、データ管理部36、社会的距離算出部38として、サーバ30が機能する。なお、社会的距離算出部38を含んで、判定部、判断部取得部、生成部としての機能が実現されている。   The hardware configuration of the server 30 is shown in FIG. As illustrated in FIG. 3B, the server 30 includes a CPU 190, a ROM 192, a RAM 194, a storage unit (such as an HDD) 196, a network interface 197, a portable storage medium drive 199, and the like. The components of the server 30 are connected to a bus 198. The CPU 190 executes a program (including a processing program) stored in the ROM 192 or the HDD 196, or a program (including a processing program) read by the portable storage medium drive 199 from the portable storage medium 191, 30 functions as each part of FIG. Specifically, when the CPU 190 executes a program, the server 30 functions as an information presentation processing control unit 34 as a processing unit, a data management unit 36, and a social distance calculation unit 38. In addition, the function as a determination part, a determination part acquisition part, and a production | generation part is implement | achieved including the social distance calculation part 38. FIG.

情報提示処理制御部34は、情報提示部12、112による情報提示を制御する。具体的には、情報提示処理制御部34は、社会的距離算出部38の算出結果に基づいて、情報提示部12,112からユーザに対して提示する情報を制御する(異ならせる)。なお、コンテンツはサーバ30より情報処理端末10や情報提示装置110に配信されるものとする。ただし、これに限らず、情報処理端末10や情報提示装置110が外部のコンテンツを受信し、ユーザに提示してもよい。   The information presentation process control unit 34 controls the information presentation by the information presentation unit 12, 112. Specifically, based on the calculation result of the social distance calculation unit 38, the information presentation processing control unit 34 controls (differentifies) the information to be presented from the information presentation unit 12, 112 to the user. The content is distributed from the server 30 to the information processing terminal 10 and the information presentation device 110. However, not limited to this, the information processing terminal 10 or the information presentation apparatus 110 may receive external content and present it to the user.

データ管理部36は、情報収集装置20,120(情報収集部22,122)において収集された情報を受信し、皮膚導電データ記録DB40、動画像データ記録DB42、音声データ記録DB44において管理する。   The data management unit 36 receives the information collected by the information collection devices 20 and 120 (the information collection units 22 and 122), and manages the information in the skin conduction data recording DB 40, the moving image data recording DB 42, and the sound data recording DB 44.

社会的距離算出部38は、データ管理部36が管理する情報(DB40,42,44等に格納されている情報)に基づいて、ユーザとアプリケーション、装置、サービス等との社会的距離の遠近を算出する。社会的距離算出部38は、算出した社会的距離の遠近についての情報を情報提示処理制御部34に送信する。   The social distance calculation unit 38 is based on the information managed by the data management unit 36 (the information stored in the DBs 40, 42, 44, etc.), the distance between the user and the social distance between applications, devices, services, etc. calculate. The social distance calculation unit 38 transmits information on the calculated distance of the social distance to the information presentation processing control unit 34.

なお、サーバ30が有する各DBの詳細については後述する。   In addition, the detail of each DB which the server 30 has is mentioned later.

なお、情報処理端末10やサーバ30等においては、1つの装置上に複数のユーザ(0人のユーザでもよい)が割り当てられている場合があってもよいし、1つの装置上に複数のソフトウェアシステムが格納されていてもよい。つまり、サーバソフトウェアとクライアントソフトウェアが1台の装置上に実装されていてもよい。また、例えば、一部機能や、一部データを他の装置上に切り離して保持するなど、1つのソフトウェアシステムの機能が複数の装置に分散されていてもよい。逆に複数の装置として表現される機能を1つの装置で実現してもよい。   In the information processing terminal 10, the server 30, etc., there may be cases where a plurality of users (or zero users) may be allocated on one device, or a plurality of software on one device. A system may be stored. That is, server software and client software may be implemented on one device. Also, for example, the functions of one software system may be distributed to a plurality of devices, such as, for example, partial functions or partial data separated on other devices. Conversely, the functions represented as a plurality of devices may be realized by one device.

また、本第1の実施形態では、ユーザと紐づけてシステム上で管理される表示履歴データや外部連携データは、複数の個別のサービスがユーザ情報の管理を行っている可能性がある。このため、システム上で管理されている1人のユーザに対応するデータが、異なるユーザIDと紐づいて保管されている場合がある。この場合には、ユーザID相互の関連付けを行っておくことで、異なるユーザIDに紐づくデータを1人のユーザのデータとして利用することが可能となる。   In the first embodiment, there is a possibility that a plurality of individual services manage user information in relation to display history data and external cooperation data managed on the system in association with the user. For this reason, data corresponding to one user managed on the system may be stored in association with different user IDs. In this case, by associating the user IDs with each other, data linked to different user IDs can be used as data of one user.

(サーバ30による処理)
サーバ30では、情報収集装置20,120の情報収集部22,122から送信された情報から、ユーザの状態や気持ちを判定する「ユーザアフェクト判定」を実行する(ユーザアフェクト判定・記録処理)。また、サーバ30は、ユーザアフェクト判定の結果に基づいてユーザに対する質問を生成し、質問に対するユーザからの回答に基づいて社会的距離の遠近を算出する(社会的距離算出処理)。また、サーバ30は、算出した社会的距離の遠近に応じた情報を情報処理端末10に提示する(情報提示処理)。以下、各処理について説明する。
(Processing by server 30)
The server 30 executes “user effect determination” that determines the state or feeling of the user from the information transmitted from the information collection units 22 and 122 of the information collection devices 20 and 120 (user effect determination and recording processing). Also, the server 30 generates a question for the user based on the result of the user effect determination, and calculates the perspective of the social distance based on the answer from the user to the question (social distance calculation processing). Further, the server 30 presents, to the information processing terminal 10, information according to the calculated distance of the social distance (information presentation processing). Each processing will be described below.

(1)ユーザアフェクト判定・記録処理
以下、サーバ30によるユーザアフェクト判定・記録処理について、図5のフローチャートに沿って説明する。なお、本処理の前提として、情報処理端末10をユーザAが利用しているものとする。この場合、情報処理端末10、情報提示装置110の情報提示部12、112のユーザでもあるユーザAは、表示部93上に提示されるアプリケーションC2の情報、スクリーン等に提示されるアプリケーションC1の情報を利用しているものとする。また、情報収集装置20,120のユーザでもあるユーザAの皮膚導電データや動画像データが、ユーザが建屋内にいる間に、情報収集装置20、120(情報収集部22,122)によって収集されるものとする。
(1) User Effect Determination / Recording Process Hereinafter, the user effect determination / recording process by the server 30 will be described with reference to the flowchart of FIG. It is assumed that the user A is using the information processing terminal 10 as a premise of this process. In this case, the user A who is also a user of the information processing unit 10 and the information presentation units 12 and 112 of the information presentation apparatus 110 is the information of the application C2 presented on the display unit 93, the information of the application C1 presented on the screen, etc. Shall be used. In addition, skin conduction data and moving image data of the user A who is also a user of the information collection devices 20 and 120 are collected by the information collection devices 20 and 120 (the information collection units 22 and 122) while the user is inside the building. Shall be

この場合、情報収集装置20、120の情報収集部22、122で収集された皮膚導電データ及び動画像データは、情報収集部22,122において一旦収集される。そして、一旦収集されたデータは、適当なタイミングで、情報収集部22,122からサーバ30の情報提示処理制御部34に送信される。   In this case, the skin conduction data and the moving image data collected by the information collection units 22 and 122 of the information collection devices 20 and 120 are collected by the information collection units 22 and 122 once. Then, the data collected once is transmitted from the information collection units 22 and 122 to the information presentation processing control unit 34 of the server 30 at an appropriate timing.

なお、図5の処理は、サーバ30が、情報収集装置20、120から一定量以上のデータを受信したタイミングで実施されるものとする。ただし、これに限らず、サーバ30は、図5の処理を所定時間間隔で定期的に行ってもよい。   In addition, the process of FIG. 5 shall be implemented at the timing in which the server 30 received the data more than fixed amount from the information gathering apparatus 20,120. However, not limited to this, the server 30 may periodically perform the process of FIG. 5 at predetermined time intervals.

図5の処理では、まず、ステップS10において、データ管理部36がセンサ入力情報(皮膚導電データと動画像データ)を受け取る。また、データ管理部36は、センサ入力情報を、タイムスタンプ情報とともに皮膚導電データ記録DB40(図6(a))及び動画像データ記録DB42(図6(b))に記録する。   In the process of FIG. 5, first, in step S10, the data management unit 36 receives sensor input information (skin conduction data and moving image data). The data management unit 36 also records sensor input information in the skin conduction data recording DB 40 (FIG. 6A) and the moving image data recording DB 42 (FIG. 6B) together with time stamp information.

ここで、図6(a)には、皮膚導電データ記録DB40のデータ構造が示され、図6(b)には、動画像データ記録DB42のデータ構造が示されている。皮膚導電データ記録DB40は、図6(a)に示すように、「DB記録時刻」、「センサ記録時刻」、「ユーザ名」、「情報収集装置ID」、「皮膚電気活動値」の各フィールドを有する。このうち、「DB記録時刻」のフィールドには、皮膚導電データ記録DB40にデータが記録された日時の情報(タイムスタンプ)が格納され、「センサ記録時刻」のフィールドには、情報収集装置20において付加された皮膚導電データ取得時点のタイムスタンプが格納される。また、「ユーザ名」のフィールドには、ユーザの識別情報(名称等)が格納され、「情報収集装置ID」のフィールドには、皮膚導電データの収集を行った情報収集装置の識別情報(図6(a)では、図4において用いられている符号)が格納される。「皮膚電気活動値」のフィールドには、皮膚導電データの具体的な数値が格納される。なお、本実施形態では、「情報収集装置ID」のフィールドには、図4において情報収集装置20に付与されている符号「20」が格納される。   Here, FIG. 6 (a) shows the data structure of the skin conduction data recording DB 40, and FIG. 6 (b) shows the data structure of the moving image data recording DB 42. The skin conduction data recording DB 40, as shown in FIG. 6A, includes fields of "DB recording time", "sensor recording time", "user name", "information collection device ID", and "skin electrical activity value". Have. Among them, the field of “DB recording time” stores information (time stamp) of the date and time when the data is recorded in the skin conduction data recording DB 40, and the field of “sensor recording time” A time stamp of the added skin conduction data acquisition time is stored. Further, identification information (name and the like) of the user is stored in the field of “user name”, and identification information of the information collection device which has collected skin conduction data (FIG. In 6 (a), the symbols used in FIG. 4 are stored. The field of “skin electrical activity value” stores specific numerical values of skin conduction data. In the present embodiment, the code “20” given to the information collecting apparatus 20 in FIG. 4 is stored in the field “information collecting apparatus ID”.

一方、動画像データ記録DB42は、図6(b)に示すように、「DB記録時刻」、「センサ記録開始時刻」、「センサ記録終了時刻」、「ユーザ名」、「情報収集装置ID」、「動画像データ記録ファイルURI」の各フィールドを有する。「センサ記録開始時刻」のフィールドには、音声データの記録開始日時の情報(タイムスタンプ)が格納され、「センサ記録終了時刻」のフィールドには、音声データの記録終了日時の情報(タイムスタンプ)が格納される。その他のフィールドについては、皮膚導電データ記録DB40が有する対応するフィールドと同様のデータが格納される。なお、図6(b)では、情報収集装置IDとして、図4において情報収集装置120に付与されている符号「120」が格納される。また、「動画像データ記録ファイルURI」のフィールドには、動画像データのファイルの記録場所を示すURI(Uniform Resource Identifier)が格納される。   On the other hand, as shown in FIG. 6B, the moving image data record DB 42 is "DB record time", "Sensor record start time", "Sensor record end time", "User name", "Information collecting device ID" , “Moving image data recording file URI” fields. Information (time stamp) of the recording start date and time of audio data is stored in the field of "sensor recording start time", and information (time stamp) of recording end date and time of audio data is stored in the field of "sensor recording end time" Is stored. For the other fields, data similar to the corresponding fields possessed by the skin conduction data recording DB 40 are stored. 6B, the code "120" assigned to the information collecting apparatus 120 in FIG. 4 is stored as the information collecting apparatus ID. Further, in the field of “moving image data recording file URI”, a URI (Uniform Resource Identifier) indicating the recording location of the moving image data file is stored.

なお、センサ入力情報には、建屋内に設置されたマイクから得られる音声データが含まれる場合もある。データ管理部36が、音声データを取得した場合には、取得した音声データを図7(a)に示すような音声データ記録DB44に格納する。音声データ記録DB44は、「DB記録時刻」、「センサ記録開始時刻」、「センサ記録終了時刻」、「ユーザ名」、「情報収集装置ID」、「音声データ記録ファイルURI」の各フィールドを有する。これら各フィールドについては、動画像データ記録DB42と同様であるので説明は省略する。なお、図7(a)の「情報収集装置ID」のフィールドには、マイクのID(実際には数値や文字等)が格納される。   The sensor input information may include voice data obtained from a microphone installed in the building. When the data management unit 36 acquires voice data, the data management unit 36 stores the acquired voice data in a voice data recording DB 44 as shown in FIG. 7A. The voice data recording DB 44 has fields of “DB recording time”, “sensor recording start time”, “sensor recording end time”, “user name”, “information collection device ID”, and “voice data recording file URI”. . The respective fields are the same as the moving image data recording DB 42, and therefore the description thereof is omitted. In the field of “information collection device ID” in FIG. 7A, the ID of the microphone (actually, a numerical value, a character or the like) is stored.

図5に戻り、次のステップS12では、データ管理部36が、各DBに記録されたセンサ入力情報に基づいて、ユーザの行動ログを作成し、行動ログDB46に格納する。より具体的には、データ管理部36は、センサ入力情報に基づいて、外部技術を用いて行動ログ(本第1の実施形態では、ユーザの歩行時の行動、手の動き、手の発汗)の作成を行う。ここで、行動ログは、センサ入力情報をベースに、ユーザの行動の履歴をログとして蓄積するものである。行動ログの作成方法は、既に多くの提案がなされているが、本第1の実施形態では、外部技術を呼び出して用いることとしている。なお、データ管理部36は、1つのセンサ入力情報から1つの行動ログを作成してもよいし、複数(複数個又は複数種類)のセンサ入力情報から1つの行動ログを算出してもよい。また、新しく取得したセンサ入力情報からのみ行動ログを算出してもよいし、過去に記録したセンサ入力情報を含めて行動ログを算出してもよい。   Returning to FIG. 5, in the next step S12, the data management unit 36 creates a user's action log based on the sensor input information recorded in each DB, and stores the user's action log in the action log DB 46. More specifically, the data management unit 36 uses the external technology based on the sensor input information and uses the external technology (in the first embodiment, the user's behavior during walking, hand movement, hand sweating) Create a Here, the action log is a history of action of the user accumulated as a log based on sensor input information. Although many proposals have already been made as a method of creating an action log, in the first embodiment, an external technology is called and used. Note that the data management unit 36 may create one action log from one sensor input information, or may calculate one action log from a plurality of (plural or plural types of) sensor input information. Also, the action log may be calculated only from newly acquired sensor input information, or the action log may be calculated including sensor input information recorded in the past.

図7(b)には、行動ログDB46のデータ構造が示されている。行動ログDB46は、図7(b)に示すように、「DB記録時刻」、「ユーザ行動時刻」、「ユーザ名」、「情報収集装置ID」、「行動ログタイプラベル」、「行動ログデータ」の各フィールドを有する。「DB記録時刻」のフィールドには、行動ログが行動ログDB46に記録された日時の情報(タイムスタンプ)が格納される。「ユーザ行動時刻」のフィールドには、ユーザが行動を行った日時(例えば、行動ログの基になったセンサ入力情報がDB40、44等に格納された日時)の情報(タイムスタンプ)が格納される。なお、図7(b)では、「ユーザ行動時刻」として、動画像データの「センサ記録開始時刻」を流用しているが、動画像データが長い場合には、行動ログ算出に使用した動画像のタイムフレームからユーザ行動の行われた時刻を更に正確に特定して記録してもよい。「ユーザ名」のフィールドには、行動ログの行動を行ったユーザの識別情報(名称等)が格納され、「情報収集装置ID」のフィールドには、行動ログの基になったセンサ入力情報を収集した装置のIDが格納される。更に、「行動ログタイプラベル」及び「行動ログデータ」のフィールドには、行動ログのタイプ(種類)や行動ログのデータが格納される。例えば、「行動ログタイプラベル」のフィールドには、歩行時の行動、手の動き、発汗などの具体的な情報が格納され、「行動ログデータ」のフィールドには、行動に関する具体的な情報が格納される。   The data structure of action log DB46 is shown by FIG.7 (b). The action log DB 46, as shown in FIG. 7 (b), "DB recording time", "user action time", "user name", "information collection device ID", "action log type label", "action log data Each field of Information (time stamp) of the date and time when the action log was recorded in the action log DB 46 is stored in the field of “DB recording time”. Information (time stamp) of the date and time when the user performed an action (for example, the date and time when the sensor input information based on the action log is stored in the DB 40, 44, etc.) is stored in the field of "user action time". Ru. In addition, although "sensor recording start time" of moving image data is diverted as "user action time" in FIG.7 (b), when moving image data are long, the moving image used for action log calculation The time at which the user action was performed may be more accurately identified and recorded from the time frame of In the field of "user name", identification information (name, etc.) of the user who performed the action of the action log is stored, and in the field of "information collection device ID", sensor input information based on the action log is stored. The collected device ID is stored. Furthermore, the fields of “action log type label” and “action log data” store the type (type) of the action log and data of the action log. For example, in the field of “action log type label”, specific information such as action during walking, hand movement, sweating and the like is stored, and in the field of “action log data”, specific information on action is Stored.

ここで、データ管理部36は、行動ログを生成する際に、システムデータ50(図4参照)を参照する。なお、システムデータ50には、図8の行動ログの個人情報レベル定義、図11(a)のアフェクト判定APIの個人情報レベル定義、図11(b)のアフェクト判定に使用する行動ログタイプとアフェクト判定API定義、図13(a)の質問文生成雛形リスト、図13(b)の応答解析に使用するアフェクト判定API定義等が含まれる。ここでは、データ管理部36は、システムデータ50のうち行動ログの個人情報レベル定義(図8)を参照する。なお、行動ログの個人情報レベル定義は、システム中に大量の行動ログ作成方法が存在している場合に、各ユーザに対して管理しておくべき行動ログ作成方法をあらかじめ定義するものである。なお、図8の行動ログの個人情報レベル定義においては、各行動ログタイプの「個人情報レベル」についても定義されている。データ管理部36は、取得したセンサ入力情報を用いて行動ログが得られるかを、行動ログの個人情報レベル定義において確認し、例えば、動画像データから歩行時の行動ログを生成する。一例として、図6(a)、図6(b)において具体値が入力された各3行が新規に取得したセンサ入力情報であったとする。この場合、データ管理部36は、最終行のデータ(時刻txにセンサ記録が行われたデータ)より一定時間kだけ遡った時刻tx-kまでの時刻tx-k〜txのデータを用いて、時刻txの行動ログを求める。   Here, when generating the action log, the data management unit 36 refers to the system data 50 (see FIG. 4). In the system data 50, the personal information level definition of the action log of FIG. 8, the personal information level definition of the effect determination API of FIG. 11 (a), and the action log type and effects used for the effect determination of FIG. The determination API definition, the question sentence generation template list of FIG. 13A, the effect determination API definition used for the response analysis of FIG. 13B, and the like are included. Here, the data management unit 36 refers to the personal information level definition (FIG. 8) of the action log in the system data 50. The personal information level definition of the action log defines in advance the action log creating method to be managed for each user when there is a large amount of action log creating method in the system. In the personal information level definition of the action log of FIG. 8, “personal information level” of each action log type is also defined. The data management unit 36 confirms whether the action log can be obtained using the acquired sensor input information in the personal information level definition of the action log, and generates, for example, the action log during walking from the moving image data. As an example, it is assumed that three lines in each of which specific values are input in FIGS. 6A and 6B are sensor input information newly acquired. In this case, the data management unit 36 uses data from time tx-k to tx up to time tx-k, which is a predetermined time k backward from the data of the last row (data for which sensor recording is performed at time tx). Find the action log at time tx.

すなわち、皮膚電位データでいえば、図6(a)のセンサ記録時刻が「2014/7/12 11:00:01.040」のデータより一定時間を遡ったデータまでのデータを用いて、「2014/7/12 11:00:01.040」の行動ログを求める。図7(b)の行動ログDB46の3行目がこの「2014/7/12 11:00:01.040」のユーザAの手の発汗を記録したもので、ここでは、値を0から1の間に正規化した手の発汗のレベルを行動ログデータとして記録している。   That is, in the case of skin potential data, using the data up to a certain time after the data of “2014/7/12 12 11: 00: 01. 40” in the sensor recording time of FIG. 7/12 11: 00: 01. 040 ”for the action log. The third line of the action log DB 46 in FIG. 7 (b) records the perspiration of the hand of the user A of “2014/7/12 11: 00: 01.040”, and the value is between 0 and 1 here. The level of hand sweating normalized to is recorded as action log data.

また、図7(b)の行動ログDB46の1行目、2行目は、情報収集装置120でユーザAの様子をとらえた動画像からユーザAの動きを解析し、1行目は歩行時の行動のログとして、どこで一定時間以上静止したかを記録している。1行目の行動ログデータである、Stay <where>vegetable_area</where>は、この時刻において一定時間以上静止があり、静止した場所が野菜売り場であったことを意味する。   Further, in the first and second lines of the action log DB 46 in FIG. 7B, the motion of the user A is analyzed from the moving image in which the information collecting apparatus 120 captures the state of the user A, and the first line is at the time of walking As a log of the behavior of, it has been recorded where it has stopped for a certain period of time or more. The activity log data in the first line, Stay <where> vegetable_area </ where>, means that there is a rest for a certain period of time or more at this time, and the place where the rest is is the vegetable department.

2行目は手の動きのログとして、物を掴んで持ち上げた動作を記録している。行動ログデータである、Pickup <what>green pepper</what>は、この時刻に物を掴んで持ち上げた動作があり、動作の対象物がピーマンであったことを意味する。   The second line is a log of the movement of the hand, recording the movement of holding and lifting an object. Pickup <what> green pepper </ what>, which is action log data, means that at this time there is an action in which an object is picked up and lifted, and the object of action is a green pepper.

図5に戻り、次のステップS14では、データ管理部36が、更新後の行動ログを用いて、ユーザアフェクト判定を実行する。また、ステップS16では、ユーザアフェクト判定に用いた行動ログデータの時刻情報を基に、アフェクト判定時刻を決定し、判定したユーザアフェクトをユーザアフェクトログDB48に記録する。ここで、ユーザアフェクトログDB48は、図9に示すように、「DB記録時刻」、「アフェクト判定時刻(開始)」、「アフェクト判定時刻(終了)」、「ユーザ名」、「行動ログタイプラベル/アフェクト判定タイプラベル」、「自己開示レベル」、「ユーザアフェクト種類ラベル」、「ユーザアフェクト」の各フィールドを有する。   Returning to FIG. 5, in the next step S14, the data management unit 36 executes the user effect determination using the updated action log. In step S16, the effect determination time is determined based on the time information of the action log data used for the user effect determination, and the determined user effect is recorded in the user effect log DB 48. Here, as shown in FIG. 9, the user effect log DB 48 has “DB recording time”, “effect determination time (start)”, “effect determination time (end)”, “user name”, “action log type label / Field for “effect determination type label”, “self disclosure level”, “user effect type label”, and “user effect”.

例えば、時刻txのユーザ行動ログとして、図7(b)の3つの異なる行動ログタイプラベルを持つ行動ログが記録されたとする。なお、ユーザアフェクト判定は、1つの行動ログから、ユーザアフェクトを判定するものもあれば、複数の行動ログを元にユーザアフェクトを判定するものもあれば、センサ入力情報を直接用いるものもある。本第1の実施形態では、一例として、データ管理部36は、1つの行動ログのみからユーザアフェクト判定を行うものとしている。   For example, it is assumed that an action log having three different action log type labels in FIG. 7B is recorded as the user action log at time tx. Note that the user effect determination may be a method of determining a user effect from one action log, a method of determining a user effect based on a plurality of action logs, and a method of directly using sensor input information. In the first embodiment, as an example, the data management unit 36 performs user effect determination from only one action log.

図9の上から4行目(4つ目)のデータは、行動ログタイプレベル「歩行時の行動」の行動ログを用いて、前回のユーザアフェクト判定が行われた時間区間の終了時刻(アフェクト判定時刻(終了):2014/7/12 11:00:00.000)や、図7(b)の行動ログDB46の上から1行目(1つ目)のユーザ行動時刻2014/7/12 11:00:01.040のデータ(行動ログ)が抽出され、該行動ログを用いて、ユーザアフェクト判定が行われた結果を示している。   The data in the fourth row (fourth) from the top of FIG. 9 is the end time of the time section in which the previous user effect determination was performed using the action log of the action log type level “action during walking” (affect Judgment time (end): 2014/7/12 11: 00: 00.000) or user action time 2014/7/12 of the first line (first one) from the top of the action log DB 46 in FIG. 7 (b) Data (action log) of 00: 01.040 is extracted, and the result of user effect determination is shown using the action log.

データ管理部36は、前回のアフェクト判定時刻(終了)をユーザアフェクトログDB48の「アフェクト判定時刻(開始)」のフィールドに記録する。またデータ管理部36は、アフェクトログ判定に用いたデータの最後のユーザ行動時刻を「アフェクト判定時刻(終了)」のフィールドに記録する。   The data management unit 36 records the previous effect determination time (end) in the “effect determination time (start)” field of the user effect log DB 48. In addition, the data management unit 36 records the last user action time of the data used for the effect log determination in the field of “effect determination time (end)”.

また、データ管理部36は、どの程度の個人情報レベルの情報を用いてアフェクト判定を行ったかに基づいて、自己開示レベルを決定し、ユーザアフェクトログDB48の「自己開示レベル」のフィールドに記録する。   Further, the data management unit 36 determines the self-disclosure level based on how much the personal information level information has been used to determine the effect, and records the self-disclosure level in the “self-disclosure level” field of the user effect log DB 48. .

具体的には、行動ログタイプラベルが歩行時の行動である場合、データ管理部36は、システムデータ50に含まれる行動ログの個人情報レベル定義(図8)を参照し、当該行動ログタイプラベルの個人情報レベル(Observable)に対応する自己開示レベル(Superficial)を図10から特定し、特定した自己開示レベルをユーザアフェクトログDB48の「自己開示レベル」のフィールドへ記録する。   Specifically, when the action log type label is the action during walking, the data management unit 36 refers to the personal information level definition (FIG. 8) of the action log included in the system data 50, and the action log type label The self-disclosure level (Superficial) corresponding to the personal information level (Observable) of is identified from FIG. 10, and the identified self-disclosure level is recorded in the “self-disclosure level” field of the user effect log DB 48.

なお、ユーザアフェクトログ48の「ユーザアフェクト種類ラベル」のフィールドについては、どのような種類のユーザアフェクトが記録されるかが明示されている。ユーザアフェクト判定に用いた「行動ログタイプラベル/アフェクト判定タイプラベル」が異なる場合であっても、このユーザアフェクト種類ラベルが一致するユーザアフェクトログについては、ユーザアフェクトの一致/不一致の判定が容易なデータ群として取り扱うことができる。   In the field of “user effect type label” of the user effect log 48, it is clearly indicated what kind of user effect is recorded. Even if the "action log type label / effect determination type label" used in the user effect determination is different, it is easy to determine the match / mismatch of the user effect for the user effect log for which the user effect type label matches. It can be treated as a data group.

ステップS14では、データ管理部36は、図11(a)のアフェクト判定APIの個人情報レベル定義や、図11(b)のアフェクト判定に使用する行動ログタイプとアフェクト判定API定義を用いて、外部のユーザ反応定量化技術を呼び出し、センサ入力情報に基づいてユーザアフェクト(興味・関心のPositive/Neutral/Negative等)の作成を行う。なお、図11(a)のアフェクト判定APIの個人情報レベル定義は、アフェクト判定APIの個人情報レベルや、センサ入力情報のデータ種別や情報収集装置IDを定義する。また、図11(b)のアフェクト判定に使用する行動ログタイプとアフェクト判定API定義は、各ユーザにおいてアフェクト判定にどの行動ログタイプを用い、どのアフェクト判定APIを用いるかが定義されている。ユーザ反応の定量化方法は、既に多くの提案がなされており、本第1の実施形態では、皮膚導電データや動画像データに基づいてユーザのPositiveな感情又はNegativeな感情の推定を行う。   In step S14, the data management unit 36 uses the personal information level definition of the effect determination API of FIG. 11 (a) and the action log type and effect determination API definition used for the effect determination of FIG. 11 (b). The user reaction quantification technique of is called to create a user effect (interest / interest / Positive / Neutral / Negative etc.) based on sensor input information. The personal information level definition of the effect determination API of FIG. 11A defines the personal information level of the effect determination API, the data type of sensor input information, and the information collection device ID. Further, the action log type and the effect determination API definition used for the effect determination in FIG. 11B define which action log type is used for the effect determination and which effect determination API is used for each user. Many proposals have been made for quantifying the user reaction, and in the first embodiment, estimation of the user's positive emotion or negative emotion is performed based on skin conduction data and moving image data.

なお、本人の表面的な部分の観察から知ることができないデータを用いたアフェクト判定手法としては、「iMotions社,Attention Tool API, http://imotionsglobal.com/software/attention-tool-api/」や、「Thomas Fritz, Andrew Begel, Sebastian C. Muller, Serap Yigit-Elliott, Manuela Zuger, Using Psycho-Physiological Measures to Assess Task Difficulty in Software Development, ICSE’14, 2014.」、「Erin T. Solovey, Marin Zec, Enrique Abdon Garcia Perez, Bryan Reimer, Bruce Mehler, Classifying Driver Workload Using Physiological and Driving Performance Data: Two Field Studies, CHI2014, 2014.」などを用いることができる。また、本人の表面的な部分に関する自己開示、すなわち表面の観察から誰でも知ることができる自分の状態/気持ちの開示の判定手法としては、「Emotient社, Emotient API , http://www.emotient.com/products」や、「Mary Ellen Foster, Andre Gaschler and Manuel Giuliani, How Can I Help You? Comparing Engagement Classification Strategies for a Robot Bartender, ICMI2013, 2013.」、「Chiew Seng Sean Tan, Johannes Schoning, Kris Luyten, Karin Coninx, Informing Intelligent User Interfaces by Inferring Affective States from Body Postures in Ubiquitous Computing Environments, IUI’13, 2013.」
などを用いることができる。
In addition, as an effect judgment method using data that can not be known from observation of the superficial part of the person, "iMotions, Attention Tool API, http://imotionsglobal.com/software/attention-tool-api/" Eh T. Solovey, "Thomas Fritz, Andrew Begel, Sebastian C. Muller, Serap Yigit-Elliott, Manuela Zuger, Using Psycho-Physiological Measures to Assess Task Difficulty in Software Development, ICSE '14, 2014.", "Erin T. Solovey, Marin Zec, Enrique, Abdon Garcia Perez, Bryan Reimer, Bruce Mehler, Classifying Driver Workload Using Physiological and Driving Performance Data: Two Field Studies, CHI 2014, 2014. and the like can be used. In addition, “Emotient, Emotient API, http: //www.emotient API, http: //www.emotient” is a self-disclosure for the superficial part of the person, that is, a determination method of the disclosure of one's own state / feeling that anyone can know from the observation of the surface. .com / products "," Mary Ellen Foster, Andre Gaschler and Manuel Giuliani, How Can I Help You? Comparing Engagement Classification Strategies for a Robot Bartender, ICMI 2013, 2013. "," Chiew Seng Sean Tan, Johannes Schoning, Kris Luyten " Karin Coninx, Informing Intelligent User Interfaces by Inferring Affecting States from Body Postures in Ubiquitous Computing Environments, IUI '13, 2013. "
Etc. can be used.

なお、上記においては、行動ログを用いてユーザアフェクト判定を行う例を挙げたが、センサ入力情報から直接ユーザアフェクト判定を行う実装があっても良い。この場合、アフェクト判定に使用する行動ログタイプとアフェクト判定API定義(図11(b))中に、使用するアフェクト判定APIを記載しておく。ここでは、ユーザAは、表情解析APIを用いて、ユーザアフェクト判定をすることができる。このようなアフェクト判定APIにおいては、個々に個人情報レベルや、どのセンサ入力情報、どの収集装置のデータを用いるかを、アフェクト判定APIの個人情報レベル定義(図11(a))のように事前にシステム中で定義している。このため、行動ログを用いてユーザアフェクト判定を行った場合と同様、ユーザアフェクト判定APIを用いてユーザアフェクト判定を行った場合も、その結果は、ユーザアフェクトログDB48に記録することができる。   In addition, although the example which performs a user effect determination using an action log was given in the above, there may be an implementation which performs a user effect determination directly from sensor input information. In this case, the effect determination API to be used is described in the action log type used for the effect determination and the effect determination API definition (FIG. 11B). Here, the user A can perform the user effect determination using the expression analysis API. In such effect determination API, the personal information level individually, which sensor input information and which collecting device data are used, as in the personal information level definition of the effect determination API (FIG. 11A). Defined in the system. Therefore, as in the case where the user effect determination is performed using the action log, even when the user effect determination is performed using the user effect determination API, the result can be recorded in the user effect log DB 48.

(2)社会的距離算出処理
次に、図12のフローチャートに沿って、社会的距離算出処理について、詳細に説明する。なお、図12の処理は、所定時間間隔で定期的に行ってもよいし、サーバ30の情報提示処理制御部34が情報提示部12,112を介して情報提示を開始する直前において行うこととしてもよい。
(2) Social Distance Calculation Process Next, the social distance calculation process will be described in detail with reference to the flowchart of FIG. Note that the processing in FIG. 12 may be performed periodically at predetermined time intervals, or may be performed immediately before the information presentation processing control unit 34 of the server 30 starts information presentation via the information presentation units 12 and 112. It is also good.

図12の処理では、まず、ステップS30において、社会的距離算出部38が、ユーザアフェクトログDB48を確認する。そして、社会的距離算出部38は、同時間帯のデータのうち、SuperficialとNot Superficialとで、異なる(別のクラスに分類される)ユーザアフェクトが記録されているデータ(時間帯も含む)を抽出する。   In the process of FIG. 12, first, in step S30, the social distance calculation unit 38 confirms the user effect log DB 48. Then, the social distance calculation unit 38, among the data of the same time zone, data (including the time zone) in which user effects different (classified into another class) are recorded in Superficial and Not Superficial. Extract.

本第1の実施形態では、ユーザアフェクトの値の種類がPositive/Neutral/Negativeであり、Neutralはどちらの値とも判定することができなかった場合を意味している。したがって、本第1の実施形態では、別のクラスに分類されるケースは、いずれかがPositive又はNegativeに分類されるケースとなる。   In the first embodiment, the type of the value of the user effect is Positive / Neutral / Negative, and Neutral means a case where it can not be determined with either value. Therefore, in the first embodiment, cases classified into another class are cases classified into either Positive or Negative.

ステップS30では、具体的には、社会的距離算出部38は、図9のユーザアフェクトログDB48の上から5、6番目(5,6行目)のデータのように、SuperficialなデータとNot Superficialなデータとで、Positive/Negativeいずれかの別々のクラスに分類される時間帯を抽出する。抽出した時間帯は、Observableなデータを基に判定したユーザアフェクトと、Not Observableなデータを基に判定したユーザアフェクトとが異なる時間帯であり、“表面の観察から誰でも知ることができる自分の状態/気持ち”と“他人に知られていない自分の状態/気持ち”とが異なっていた可能性のある時間帯である。   In step S30, specifically, the social distance calculation unit 38 sets the Superficial data and the Not Superficial data as in the fifth and sixth (the fifth and sixth lines) data from the user effect log DB 48 of FIG. And extract time zones that are classified into separate classes of positive and negative. The extracted time zone is a time zone in which the user effect determined based on the observable data and the user effect determined based on the Not observable data are different from each other. It is a time zone in which the state / feeling may be different from the “your state / feeling not known to others”.

次いで、ステップS32では、抽出した時間帯に関するデータを行動ログDB46等から抽出し、当該時間帯のアフェクトをたずねる質問文を生成する。具体的には、社会的距離算出部38は、抽出した時間帯について持っている情報を、図7に示した行動ログDB46から抽出するとともに、図6(a)や図6(b)に示したような各センサから記録されたセンサ入力情報を抽出する。   Next, in step S32, data relating to the extracted time zone is extracted from the action log DB 46 or the like, and a question sentence asking for an effect in the time zone is generated. Specifically, the social distance calculation unit 38 extracts the information possessed for the extracted time zone from the action log DB 46 shown in FIG. 7 and is shown in FIGS. 6 (a) and 6 (b). The sensor input information recorded from each sensor is extracted.

例えば、時間帯として2014/7/12 11:00:00.000から2014/7/12 11:00:01.040までが抽出されたとする。この場合、社会的距離算出部38は、抽出された時間帯の行動ログDB46を参照し、歩行時の行動が「Stay <where>vegetable_area</where>」であったことや、手の動きが「Pickup <what>green pepper</what>」であったことを抽出する。   For example, it is assumed that a period of 2014/7/12 11: 00: 00.000 to 2014/7/12 11: 00: 01.040 is extracted as a time zone. In this case, the social distance calculation unit 38 refers to the action log DB 46 of the extracted time zone, and the action at the time of walking is “Stay <where> vegetable_area </ where>” or the hand movement is Extract what was "Pickup <what> green pepper </ what>".

そして、社会的距離算出部38は、システムデータ50に含まれる図13(a)に示す質問文生成雛形リストにあらかじめ準備されている雛形の中から、抽出した情報を利用できるものを選択する。この場合、社会的距離算出部38は、質問文生成雛形リストに登録されている雛形を上から順番に選択してもよいし、ランダムに選択してもよい。ここでは、一例として、[where]の情報を抽出したため、社会的距離算出部38は、図13(a)1つ目の雛形を選択したものとする。その後、社会的距離算出部38は、行動ログデータとして記録されている<where>と</where>でタグ付けされた場所の記録を使用して、雛形にあてはめ、「<where>vegetable_area</where>にいた時、何かありましたか?」のような質問文を生成する。なお、場所については、英単語そのまま用いてもよいし、より自然な発話になるように、対訳語をリスト化しておき、ユーザに合わせて言語翻訳を行った後に発話をしてもよい。   Then, the social distance calculation unit 38 selects, from among the templates prepared in advance in the question sentence generation template list shown in FIG. 13A included in the system data 50, the one that can use the extracted information. In this case, the social distance calculation unit 38 may select the templates registered in the question sentence generation template list in order from the top or randomly. Here, since the information of [where] is extracted as an example, it is assumed that the social distance calculation unit 38 selects the first template of FIG. After that, the social distance calculation unit 38 uses the records of the places tagged with <where> and </ where> recorded as action log data, and applies them to the template, “<where> vegetable_area </ When you were at where>, do you have something like that? " As to the place, English words may be used as they are, or bilingual words may be listed in order to make a more natural speech, and speech may be made after language translation is performed according to the user.

次いで、ステップS34では、社会的距離算出部38は、情報処理端末10等を介して、生成した質問文を用いてユーザに対する質問を行い、ユーザからの回答をセンサ入力情報として記録する。また、ステップS36では、社会的距離算出部38は、ユーザアフェクト判定を行う。   Next, in step S34, the social distance calculation unit 38 asks the user a question using the generated question sentence via the information processing terminal 10 or the like, and records the answer from the user as sensor input information. Further, in step S36, the social distance calculation unit 38 performs user effect determination.

ここで、センサ入力情報は、図6(a)や図6(b)、あるいは図7(a)で示したようにセンサで常時取得され、情報収集装置20,120からサーバ30に集約されて記録されているデータである。また、システム中で用いることができるアフェクト判定は複数あり、また、応答時ユーザアフェクト判定に用いることができるアフェクト判定は、ユーザが対話相手に対して提示している情報を用いて精度よく相手のアフェクト判定を行う特徴を有している必要がある。このため、本実施形態では、あらかじめ用いるアフェクト判定APIを評価し、システムデータ50において定義付けしておく必要がある。   Here, sensor input information is constantly acquired by the sensor as shown in FIG. 6A, FIG. 6B, or FIG. 7A, and is collected from the information collection devices 20 and 120 to the server 30. It is recorded data. In addition, there are a plurality of effect determinations that can be used in the system, and the effect determinations that can be used for the user effect determination at the time of response use the information that the user is presenting to the other party of the conversation with high accuracy. It is necessary to have the feature of performing the effect determination. For this reason, in the present embodiment, it is necessary to evaluate the effect determination API used in advance and define it in the system data 50.

ここでは、応答解析において使用可能なアフェクト判定APIは、図13(b)の応答解析に使用するアフェクト判定API定義のような形で定義づけされる。なお、図13(b)の定義には、「高精度順位」と、「アフェクト判定API」と、「センサ入力情報」と、「情報収集装置ID」のフィールドが設けられている。「高精度順位」のフィールドには、応答解析の精度が高いAPIほど小さい数字が入力される。その他のフィールドについては、図11(a)の定義が有するフィールドと同様である。社会的距離算出部38は、持っているセンサ入力情報をもとに、高精度順位の高いアフェクト判定APIを使用可能であるかを確認する。例えば、情報収集装置120から得た動画像データ、音声データがシステム中に記録されている場合には、詳細顔画像・音声解析APIを用いて、応答時のユーザアフェクト判定を行う、という風に使用可能なアフェクト判定APIを決定する。   Here, the effect determination API usable in the response analysis is defined in the form of the effect determination API definition used for the response analysis in FIG. 13 (b). In the definition of FIG. 13B, fields of “high accuracy order”, “effect determination API”, “sensor input information”, and “information collection device ID” are provided. In the field of "high precision order", the smaller the API with the higher precision of response analysis, the smaller the number is input. The other fields are the same as the fields included in the definition of FIG. The social distance calculation unit 38 confirms, based on the sensor input information that it has, whether it is possible to use the effect determination API having a high accuracy rank. For example, when moving image data and voice data obtained from the information collecting apparatus 120 are recorded in the system, the user effect determination at the time of response is performed using the detailed face image / voice analysis API. Determine the available effect determination API.

次いで、ステップS38では、社会的距離算出部38は、社会的距離の遠近判定を行う。   Next, in step S38, the social distance calculation unit 38 performs a perspective determination of the social distance.

この場合、社会的距離算出部38は、ステップS36で判定した応答時ユーザアフェクトが、ステップS30で抽出された時間帯における、“他人に知られていない自分の状態/気持ち”と一致している場合には、社会的距離が近いと判定する。一方、一致しなかった場合には、社会的距離が近いとは言えないので、社会的距離算出部38は社会的距離が遠いと判定する。   In this case, the social distance calculation unit 38 determines that the response user effect determined in step S36 matches “the state / feeling of oneself not known to others” in the time zone extracted in step S30. In the case, it is determined that the social distance is short. On the other hand, if they do not match, it can not be said that the social distance is short, so the social distance calculation unit 38 determines that the social distance is long.

図9のユーザアフェクトログDB48から抽出した時間帯では、Superficialな自己開示レベルのデータがPositiveで、Not Superficialな自己開示レベルのデータがNegativeという風に、“表面の観察から誰でも知ることができる自分の状態/気持ち”と、“他人に知られていない自分の状態/気持ち”とで、状態/気持ちが異なっていた可能性があり、ユーザに質問文によって、その時間帯の気持ちを尋ねた場合に、ユーザが“他人に知られていない自分の状態/気持ち”を自己開示する場合には、社会的距離が近いと判定をするものである。   In the time zone extracted from the user effect log DB 48 of FIG. 9, the data of the Superficial self-disclosure level is positive, and the data of the Not Superficial self-disclosure level is “negative. There is a possibility that the state / feelings are different between my state / feelings and my own state / feelings not known to others, and the user asked the feeling of the time zone by the question sentence In the case where the user self-discloses "a person's own state / feeling not known to others", it is determined that the social distance is short.

ステップS38では、社会的距離算出部38は、図14に示すように、判定した社会的距離の遠近を記録する。なお、図14の社会的距離DB52は、「DB記録時刻」、「社会的距離計算区間始点時刻」、「ユーザ名」、「アプリID」、「社会的距離の遠近」の各フィールドを有する。例えば社会的距離が近い場合には「社会的距離の遠近」のフィールドに“SD”が入力され、遠い場合には“LD”が入力される。この際、社会的距離算出部38は、社会的距離の遠近を、質問文を投げかけたアプリケーションに対するもの(本実施形態ではアプリケーションC2に対するもの)として記録する。また、社会的距離算出部38は、上記においてユーザアフェクトログの使用したデータのうち最も古いタイムスタンプを、社会的距離計算区間始点時刻として記録する。また、社会的距離DB52にこの記録処理を行った時刻をDB記録時刻として記録する。   In step S38, as shown in FIG. 14, the social distance calculation unit 38 records the distance between the determined social distances. The social distance DB 52 in FIG. 14 has fields of “DB recording time”, “social distance calculation section start time”, “user name”, “application ID”, and “distance of social distance”. For example, when the social distance is short, “SD” is input in the “distance of social distance” field, and when it is far, “LD” is input. At this time, the social distance calculation unit 38 records the perspective of the social distance as that for the application that threw the question sentence (in this embodiment, for the application C2). In addition, the social distance calculation unit 38 records the oldest time stamp of the data used by the user effect log in the above as the social distance calculation section start time. Further, the time when the recording process is performed is recorded in the social distance DB 52 as a DB recording time.

(3)サーバ30による情報提示処理
次に、サーバ30(情報提示処理制御部34)による情報提示処理について説明する。情報提示処理制御部34は、社会的距離の遠近に応じた利用範囲で、利用する情報制限を行い、情報提示を行う。
(3) Information Presentation Process by Server 30 Next, the information presentation process by the server 30 (information presentation process control unit 34) will be described. The information presentation processing control unit 34 restricts the information to be used in the use range according to the distance of the social distance, and performs information presentation.

本実施形態では、上記(2)の処理において、ユーザAと建屋内で提供するサービスとの社会的距離の遠近が明確になったため、情報提示処理制御部34は、社会的距離の遠近に基づいてユーザAに提供する情報を制御する(異ならせる)。   In the present embodiment, since the perspective of the social distance between the user A and the service provided in the building is clarified in the process of (2), the information presentation processing control unit 34 determines the social distance based on the perspective. Control the information provided to user A (different).

例えば、図14の上から5つ目の社会的距離の遠近(SD)が求められた場合には、社会的距離が近いので、情報提示処理制御部34は、ユーザAのプライバシに関連する情報を提供することができ、よりユーザAに適した情報の提供をすることができる。これにより、ユーザとアプリケーションやサービス、装置との社会的距離の遠近に応じた情報をユーザに対して提供することができる。   For example, when the fifth social distance distance (SD) from the top of FIG. 14 is determined, the information presentation processing control unit 34 determines information related to the privacy of the user A because the social distance is short. Can be provided, and more appropriate information can be provided to the user A. In this way, it is possible to provide the user with information according to the distance between the user and the social distance between the application, the service, and the device.

以上、詳細に説明したように、本第1の実施形態によると、社会的距離算出部38が、生成した質問に対して、ユーザがユーザ以外に知られていない情報を含む内容の回答を行ったか否かを判定し、ユーザが該ユーザ以外に知られていない情報を含む内容の回答を行った場合に、該ユーザ以外に知られていない情報を含まない内容の回答を行った場合よりも、ユーザと回答先(アプリケーションやサービス)との社会的距離が近いと判断する(S38)。これにより、ユーザの回答に基づいて、社会的距離の遠近を自動的に精度よく判断することが可能となる。   As described above in detail, according to the first embodiment, the social distance calculation unit 38 responds to the generated question with a content including information that the user is not known other than the user It is judged whether or not the user answers the contents including information unknown to other than the user than when the user answers the contents not including information unknown to the other than the user. It is determined that the social distance between the user and the answer destination (application or service) is close (S38). As a result, it is possible to automatically and accurately determine the perspective of the social distance based on the user's answer.

また、本第1の実施形態では、情報提示処理制御部34は、社会的距離の遠近に基づいて、ユーザに提供する情報の内容を異ならせるので、ユーザに対して社会的距離にそぐわない情報を提示するのを抑制することができる。これにより、ユーザには適切な情報が提示されるため、アプリケーションやサービスに対してユーザが悪い印象を抱くのを防止することができる。また、アプリケーションやサービスは、ユーザと良好な関係を維持しながら継続的に情報提供することができる。   Further, in the first embodiment, the information presentation processing control unit 34 changes the content of the information to be provided to the user based on the perspective of the social distance, so information not corresponding to the social distance with respect to the user is It is possible to suppress presentation. As a result, appropriate information is presented to the user, so that it is possible to prevent the user from having a bad impression on the application or service. In addition, applications and services can continuously provide information while maintaining a good relationship with the user.

また、本第1の実施形態では、ユーザの行動ログを取得し、取得した情報に基づいて質問を生成するので、社会的距離を判断するために必要な質問を自動的に生成することができる。   Further, in the first embodiment, since the action log of the user is acquired and the question is generated based on the acquired information, the question necessary to determine the social distance can be automatically generated. .

また、本第1の実施形態では、社会的距離算出部38は、ユーザの行動ログのうち、外部観察からは明らかでないユーザの状態又は気持ちに関する情報(ユーザアフェクト)と、外部観察から明らかなユーザの状態又は気持ちに関する情報とが異なる種類である時間帯におけるユーザの行動ログに基づいて質問を生成する。これにより、ユーザからの質問に対する回答に基づいて、ユーザとアプリケーション等との社会的距離の遠近を精度良く判断することができる。   Further, in the first embodiment, the social distance calculation unit 38 determines, among the action log of the user, information (user effect) on the state or feeling of the user not apparent from the external observation and the user apparent from the external observation The question is generated based on the user's action log in a time zone which is a different type from the information on the state or feeling of the. Thereby, it is possible to accurately determine the perspective of the social distance between the user and the application or the like based on the answer to the question from the user.

また、本第1の実施形態では、ユーザが回答を行ったときのユーザの状態又は気持ちに関する情報が、外部観察からは明らかでないユーザの状態又は気持ちに関する情報と、外部観察から明らかなユーザの状態又は気持ちに関する情報のいずれと一致するかに基づいて、ユーザがユーザ以外に知られていない情報を含む内容の回答を行ったか否かを判定する。これにより、判定結果に基づいて、社会的距離の遠近を精度良く判断することができる。   In the first embodiment, information on the user's state or feeling when the user gives an answer is information on the user's state or feeling not apparent from the external observation and the user's state apparent from the external observation Alternatively, based on which of the information related to the feeling is matched, it is determined whether or not the user has made a content response including information that is unknown only to the user. Thereby, the perspective of the social distance can be accurately determined based on the determination result.

なお、上記第1の実施形態では、ユーザが該ユーザ以外に知られていない情報が、自己開示レベルが「Not Superficial」な行動ログである場合について説明したが、これに限られるものではない。例えば、ユーザが他者に対して開示していないと認識している情報(趣味、嗜好などの情報)であってもよい。すなわち、社会的距離算出部38は、ユーザが他者に対して開示していないことを認識している情報に関連する質問を行い、ユーザが質問に対して回答した内容が、他者に対して開示していないと認識している情報を含んでいた場合には、社会的距離が近いと判断することとしてもよい。   In the first embodiment described above, the case where the information that the user is not known other than the user is the action log whose self-disclosure level is "Not Superficial" is not limited to this. For example, it may be information (information such as hobbies and preferences) that the user recognizes as not being disclosed to others. That is, the social distance calculation unit 38 makes a question related to the information that the user recognizes that the user does not disclose to the other person, and the content of the user answering the question is the other person. It may be determined that the social distance is short if it contains information that is recognized as not being disclosed.

《第2の実施形態》
次に、第2の実施形態について、図15〜図17に基づいて説明する。本第2の実施形態では、自己開示レベルを本人の人格のコアに及んでいて表面からは観察できない部分の自己開示に類するものか/そうでないかという分類以外の分類も用いて、ユーザアフェクトログを生成する点が、上述した第1の実施形態と異なる。
Second Embodiment
Next, a second embodiment will be described based on FIG. 15 to FIG. In the second embodiment, the user effect log is used with classification other than the classification of whether the self-disclosure level extends to the core of the person's personality and is similar to self-disclosure of a portion that can not be observed from the surface. Is different from the first embodiment described above in that

本第2の実施形態では、図15に示すように、情報提供システム100’は、情報処理端末10’と、情報処理端末10’に接続された情報収集装置20と、を備える。情報処理端末10’は、図16に示すように、ユーザ(ユーザBとする)が常時携帯する端末(例えばスマートフォンや携帯電話など)である。また、情報収集装置20は、第1の実施形態と同様、ユーザBの腕等に装着される装置である。情報処理端末10’と情報収集装置20との間は、Bluetooth(登録商標)等により通信可能に接続されている。その他の構成等については、第1の実施形態と同様である。   In the second embodiment, as shown in FIG. 15, the information providing system 100 'includes an information processing terminal 10' and an information collecting apparatus 20 connected to the information processing terminal 10 '. The information processing terminal 10 'is a terminal (for example, a smartphone or a mobile phone) which a user (user B) always carries, as shown in FIG. Further, the information collection device 20 is a device mounted on the arm or the like of the user B, as in the first embodiment. The information processing terminal 10 ′ and the information collection device 20 are communicably connected by Bluetooth (registered trademark) or the like. The other configuration is the same as that of the first embodiment.

本実施形態では、ユーザBが常時携帯する情報処理端末10’において使用しているアプリケーションC0が存在しており、また、ユーザBが1つの建屋を歩いていく中で情報提示装置110によって提示される空間が個人によって異なる。なお、本実施形態では、情報収集装置120が動画像データの他、音声データを収集する(図7(a)参照)。   In the present embodiment, there is an application C0 used by the information processing terminal 10 ′ that the user B always carries, and the user B is presented by the information presentation device 110 while walking through one building. Space varies depending on the individual. In the present embodiment, the information collecting apparatus 120 collects audio data as well as moving image data (see FIG. 7A).

ここで、サーバ30のデータ管理部36は、図11(b)に示すアフェクト判定に使用する行動ログタイプとアフェクト判定API定義DBに基づいて、ユーザアフェクトログの生成を行う。   Here, the data management unit 36 of the server 30 generates a user effect log based on the action log type used for the effect determination shown in FIG. 11B and the effect determination API definition DB.

この場合、データ管理部36は、図8の行動ログの個人情報レベル定義DBと、図11(a)のアフェクト判定APIの個人情報レベル定義DBに示すように、個人情報レベルがそれぞれ、歩行時の行動がObservable、手の発汗がNot Observable、音声解析APIがObservable(conv)である情報を行動ログ生成時やアフェクト解析時において用いる。なお、Observable(conv)は、図10に示すように、(対話相手であれば)表面の観察から誰でも知ることができる部分の情報を意味する。また、個人情報レベル(Observable(conv))は、自己開示レベル(Superficial(intimate))に対応する。Superficial(intimate)は、(対話相手に対する)本人の表面的な部分に関する自己開示、すなわち(対話相手であれば)表面の観察から誰でも知ることができる自分の状態/気持ちの開示を意味する。   In this case, as shown in the personal information level definition DB of the action log of FIG. 8 and the personal information level definition DB of the effect determination API of FIG. The information that the behavior of is Observable, the hand sweating is Not Observable, and the speech analysis API is Observable (conv) is used at the time of action log generation or effect analysis. Note that, as shown in FIG. 10, Observable (conv) means information of a part that anyone can know from observation of the surface (if it is a dialogue partner). The personal information level (Observable (conv)) corresponds to the self disclosure level (Superficial (intimate)). Superficial (intimate) means self-disclosure about the surface part of the person (with respect to the conversation partner), that is, disclosure of one's own state / feeling that anyone can know from the observation of the surface (if it is the conversation partner).

これら個人情報レベルは、どのセンサから収集され、どのような人の行動を取り扱うかという点からシステム毎に管理者の判断で定義される。本実施形態では、歩行時の行動は、情報収集装置120がユーザを遠隔から撮影した動画像データを用いて収集する。また、音声解析APIは、携帯型の端末(情報処理端末10’)で採取された音声データを用い、手の発汗は、情報収集装置20で採取された生体電位データ(皮膚電気活動量)を用いて収集する。   These personal information levels are defined at the discretion of the administrator for each system in terms of which sensor is collected and what kind of person's action is handled. In the present embodiment, the action at the time of walking is collected using moving image data obtained by photographing the user remotely by the information collection device 120. Further, the voice analysis API uses voice data collected by a portable terminal (information processing terminal 10 '), and perspiration of a hand corresponds to bioelectric potential data (skin electrical activity amount) collected by the information collecting apparatus 20. Use to collect.

本実施形態においては、データ管理部36は、図17の処理を実行する。具体的には、データ管理部36は、ステップS10、S12を上記第1の実施形態と同様に実行した後、ステップS114において、以下のようにしてユーザアフェクト判定処理を実行する。   In the present embodiment, the data management unit 36 executes the process of FIG. Specifically, after executing steps S10 and S12 in the same manner as in the first embodiment, the data management unit 36 executes user effect determination processing as described below in step S114.

すなわち、ステップS114では、データ管理部36は、最もPositiveな状態を1、最もNegativeを0とした正規化したスコアによりユーザアフェクトを求める。なお、ユーザアフェクト判定技術については、第1の実施形態と同様、既存の技術を用いる。なお、対話相手には知られているデータを用いたアフェクト判定としては、「M. E. Hoque et. al, Robust Recognition of Emotion from Speech, 6th International Conference on Intelligent Virtual Agents (IVA), 2006.」や、「Chiew Seng Sean Tan, Johannes Schoning, Kris Luyten, Karin Coninx, Informing Intelligent User Interfaces by Inferring Affective States from Body Postures in Ubiquitous Computing Environments, IUI’13, 2013.」や、「Yale Song, Louis-Philippe Morency, Randall Davis, Learning a Sparse Codebook of Facial and Body Microexpressions for Emotion Recognition, ICMI2013, 2013.」を採用することができる。   That is, in step S114, the data management unit 36 obtains the user effect from the normalized score with the most positive state being 1 and the most negative being 0. As the user effect determination technology, the existing technology is used as in the first embodiment. In addition, as effect judgment using data known to the other party of conversation, “ME Hoque et. Al, Robust Recognition of Emotion from Speech, 6th International Conference on Intelligent Virtual Agents (IVA), 2006.” or “ Chiew Seng Sean Tan, Johannes Schoning, Kris Luyten, Karin Coninx, Informing Intelligent User Interfaces by Inferring Affecting States from Body Postures in Ubiquitous Computing Environments, IUI '13, 2013. "and" Yale Song, Louis-Philippe Morency, Randall Davis " , Learning a Sparse Codebook of Facial and Body Microexpressions for Emotion Recognition, ICMI 2013, 2013. ”can be adopted.

次いで、ステップS116では、データ管理部36は、行動ログ生成時やアフェクト解析時に用いた個人情報レベルObservable/ Observable(conv)/Not Observableを参照し、ユーザアフェクトログの自己開示レベルに対してもSuperficial/ Superficial(Intimate)/ Not Superficialの対応する分類のいずれかを記録する。ユーザアフェクトの種類は、ここではNormScore(Positive-Negative)という、正規化したスコアが記録されていることを示すラベルを用いる。ユーザアフェクトの値としては、外部のユーザアフェクト判定技術を用いて、0から1の間の数値を使用する。そして、データ管理部36は、複数の自己開示レベルのユーザアフェクトログをタイムスタンプ情報とともに図18に示すように蓄積する。   Next, in step S116, the data management unit 36 refers to the personal information level Observable / Observable (conv) / Not Observable used at the time of action log generation and effect analysis, and also superimposes the self-disclosure level of the user effect log. Record one of the corresponding classifications of / / Superficial (Intimate) / Not Superficial. The type of the user effect uses a label, here, NormScore (Positive-Negative), which indicates that a normalized score is recorded. As the value of the user effect, a numerical value between 0 and 1 is used using an external user effect determination technique. Then, the data management unit 36 accumulates user effect logs of a plurality of self-disclosure levels together with time stamp information as shown in FIG.

また、本第2の実施形態では、社会的距離算出部38は、社会的距離の遠近判定を、図19のフローチャートに沿って実行する。図19のステップS130では、社会的距離算出部38が、用いる自己開示レベルにおいて全ての分類でユーザアフェクトが不一致となる時間帯を抽出する。なお、正規化されたスコアであるユーザアフェクトのどこからどこまでを一致又は不一致と判定するかについては、事前にシステムで定義しておけばよい。例えば、0から1の間を3分割し、Class1=0〜0.3、Class2=0.4〜0.6、Class3=0.7〜1、のようにクラス分けし、抽出した時間帯のデータによって、Not SuperficialはClass1、Superficial(Intimate)はClass2、Not SuperficialはClass3といった形で、スコアを各クラスに割り当てて用いても良い。あるいは、(スコアの最大値(=1)−スコアの最小値(=0))/分割クラス数(=3)/2で、各クラスの幅を先に決定し、抽出した時間帯のユーザアフェクト値を各クラスの中央値としてクラスを定義してもよい。本実施形態では、クラスの幅を0.16とすると、各クラスの中央値が0.1、0.4、0.9であるとき、各クラスはClass1=0〜0.26、Class2=0.24〜0.56、Class3=0.74〜1となる。この場合、Class1とClass2の間に重複する範囲がある。したがって、重複する範囲はユーザアフェクト解析の結果の切り分けが困難な領域であるとして、用いないこととし、Class1=0〜0.23、Class2=0.27〜0.56、Class3=0.74〜1のように調整を行ってもよい。   Also, in the second embodiment, the social distance calculation unit 38 executes the social distance perspective determination along the flowchart of FIG. 19. In step S130 of FIG. 19, the social distance calculation unit 38 extracts a time zone in which the user effects do not match in all the classifications at the self-disclosure level used. It should be noted that it may be defined in advance by the system as to from what point of the user effect that is the normalized score to which point it is determined to be matched or not matched. For example, it is divided into three from 0 to 1 and classified into Class 1 = 0 to 0.3, Class 2 = 0.4 to 0.6, Class 3 = 0.7 to 1, etc. Depending on the data, a score may be assigned to each class by using Not Superficial as Class 1, Superficial (Intimate) as Class 2, and Not Superficial as Class 3. Alternatively, the width of each class is determined in advance by (maximum value of score (= 1) -minimum value of score (= 0)) / number of divided classes (= 3) / 2, and the user effect of the extracted time zone Classes may be defined with values as the median of each class. In this embodiment, assuming that the class width is 0.16, when the median of each class is 0.1, 0.4, 0.9, each class is Class 1 = 0 to 0.26, Class 2 = 0 .24 to 0.56, Class 3 = 0.74 to 1 In this case, there is an overlapping range between Class 1 and Class 2. Therefore, the overlapping range is not used because it is an area where it is difficult to separate the result of user effect analysis, and Class 1 = 0 to 0.23, Class 2 = 0.27 to 0.56, Class 3 = 0.74 Adjustment may be performed as in 1.

社会的距離算出部38は、図19のステップS32、ステップS34、ステップS36を上記第1の実施形態と同様に実行する。そして、社会的距離算出部38は、ステップS38において、質問への応答時のユーザアフェクトが、抽出した時間帯のNot Superficialなデータを用いて判定したユーザアフェクトと一致するか(ユーザアフェクトの値がClass3内の値か)を判定する。ユーザアフェクトの値がClass3内の値であった場合には、社会的距離算出部38は、社会的距離が近いと判定する。それ以外のケースでは、Class2に一致していた場合には、社会的距離の遠近が中程度とし、Class1に一致していた場合には、社会的距離が遠いとする。このように社会的距離の遠近を遠い/近いのみでなく複数レベルに分けて評価することで、情報提示のレベルをこの社会的距離の遠近のレベルに合わせて行うことが可能となる。   The social distance calculation unit 38 executes step S32, step S34, and step S36 in FIG. 19 in the same manner as the first embodiment. Then, in step S38, the social distance calculation unit 38 matches the user effect determined at the time of response to the question with the user effect determined using the Not Superficial data of the extracted time zone (the value of the user effect is Determine whether it is a value in Class 3). When the value of the user effect is a value within Class 3, the social distance calculation unit 38 determines that the social distance is short. In other cases, it is assumed that the social distance is medium distance if the class 2 matches, and the social distance is long if the class 1 matches. As described above, by evaluating the perspective of the social distance not only far / close but also into multiple levels, it is possible to match the level of information presentation to the perspective level of this social distance.

《第3の実施形態》
次に、第3の実施形態について、図20,図21に基づいて説明する。本第3の実施形態では、ユーザアフェクトログDB48中の複数時間帯の中から、異なる自己開示レベル毎に異なるユーザアフェクトとなっている複数の時間帯を抽出する点が、上記第1の実施形態と異なる。
Third Embodiment
Next, a third embodiment will be described based on FIG. 20 and FIG. In the third embodiment, among the plurality of time zones in the user effect log DB 48, a plurality of time zones having different user effects at different self-disclosure levels are extracted as in the first embodiment. It is different from

具体的には、社会的距離算出部38が、ユーザアフェクトログDB48に蓄積されているユーザアフェクトに基づいて社会的距離の遠近の判定を行う場合(図20)、ステップS230において、質問文を生成する対象となる時間帯を複数抽出する。この場合の抽出の条件は、抽出した時間帯全体において、「Not Superficial」なデータと、「Superficial」なデータとから判定されるユーザアフェクト(Positive/Neutral/Negative)が一致しないことである。このような時間帯であれば、複数の時間帯を抽出した場合であっても、ユーザが回答した内容によって、ユーザ応答時のアフェクトと、記録されているNot Superficialな自己開示レベルのユーザアフェクトとが一致するかどうかによって、社会的距離の遠近を判定することが可能である。   Specifically, when the social distance calculation unit 38 determines the distance of the social distance based on the user effect stored in the user effect log DB 48 (FIG. 20), the question sentence is generated in step S230. Extract multiple time zones to be targeted. The extraction condition in this case is that the user effects (Positive / Neutral / Negative) determined from the "Not Superficial" data and the "Superficial" data do not match in the entire extracted time zone. In such a time zone, even when a plurality of time zones are extracted, an effect at the time of user response and a user effect of Not Superficial self-disclosure level recorded according to the contents answered by the user It is possible to determine the perspective of the social distance depending on whether or not there is a match.

図21には、本実施形態のユーザアフェクトログDB48の一例が示されている。上述した抽出の条件として挙げた、複数時間帯において、Not Superficialなデータと、Superficialなデータであるユーザアフェクトが一致しない時間帯としては、図21の上から1つ目及び2つ目の時間帯(t1とする)、及び上から3つ目及び4つ目の時間帯(t2とする)が挙げられる。この場合、時間帯t1では、Superficialな自己開示レベルのユーザアフェクトがPositiveであり、時間帯t2では、Not Superficialな自己開示レベルのデータから推測されたユーザアフェクトがNegativeであり、それ以外は明確でなくneutralとして記録されている。したがって、t1とt2においては、Not Superficialなデータと、Superficialなデータとでユーザアフェクトが一致していないため、ステップS230では、これらの時間帯が抽出されることになる。   An example of the user effect log DB 48 of the present embodiment is shown in FIG. The first and second time zones from the top of FIG. 21 are the time zones in which the Not Superficial data and the user effect that is the Superficial data do not match in the multiple time zones mentioned as the extraction conditions described above. (T1), and the third and fourth time zones from the top (T2). In this case, at time zone t1, the user effect of the Superficial self-disclosure level is Positive, and at time zone t2, the user effect inferred from the data of the Not Superficial self-disclosure level is Negative, and other than that is clear. It has been recorded as neutral. Therefore, at t1 and t2, since the user effect does not match between the Not Superficial data and the Superficial data, these time zones are extracted at step S230.

図20の以降の処理(S32〜S38)は、第1の実施形態(図12)と同様である。なお、質問文生成(S32)においては、社会的距離算出部38は、複数の時間帯それぞれについて生成される複数の質問をより自然にユーザへ尋ねるために、複数の質問文を1つの質問文へ変換してもよい。また、上記においては、自己開示レベルがSuperficialとNot Superficialとの2つのレベルのいずれかである場合について説明したが、これに限られるものではない。第2の実施形態のように自己開示レベルが3つ以上の場合であっても、同様の処理を行うことができる。   The subsequent processes (S32 to S38) of FIG. 20 are the same as those of the first embodiment (FIG. 12). In addition, in question sentence generation (S32), in order to ask the user more naturally the plurality of questions generated for each of the plurality of time zones, the social distance calculation unit 38 makes one question sentence a plurality of question sentences. It may be converted to Further, although the case where the self-disclosure level is one of the two levels of Superficial and Not Superficial has been described above, the present invention is not limited to this. Similar processing can be performed even when there are three or more self-disclosure levels as in the second embodiment.

《第4の実施形態》
次に、第4の実施形態について、図22に基づいて説明する。本第4の実施形態では、ユーザアフェクトログDB48中の複数時間帯の中から、異なる自己開示レベル毎に一定時間以上継続しているユーザアフェクトを持つ(単一もしくは複数の)時間帯を抽出する点が、上記第1の実施形態と異なる。
Fourth Embodiment
Next, a fourth embodiment will be described based on FIG. In the fourth embodiment, among a plurality of time zones in the user effect log DB 48, a time zone (one or more) having user effects continuing for a predetermined time or more for each different self disclosure level is extracted. The points are different from the first embodiment.

この場合、社会的距離算出部38は、図22のステップS330において、質問文を生成する対象となる時間帯をユーザアフェクトの持続時間が長いことを条件に抽出する。   In this case, in step S330 in FIG. 22, the social distance calculation unit 38 extracts a time zone that is a target for generating a question sentence under the condition that the duration of the user effect is long.

具体的には、社会的距離算出部38は、ユーザアフェクトログDB48を参照し、Superficialで同じユーザアフェクトが連続して記録されている時間帯と、Not Superficialで同じユーザアフェクトが連続して記録されている時間帯とを検索する。そして、検索されたSuperficialとNot Superficialとで、ユーザアフェクトが一致しないケースの中で最も長く時間帯が重複している時間帯を抽出する。   Specifically, the social distance calculation unit 38 refers to the user effect log DB 48, and the same user effect is continuously recorded in the Not Superficial and the time zone in which the same user effect is continuously recorded in the Superficial. Search for the time zone you are in Then, for the searched Superficial and Not Superficial, the longest time zone overlapping time zone is extracted from the cases where the user effects do not match.

最も長く時間帯が重複している時間帯を抽出する場合、各時間帯のSuperficial/Not Superficialなデータのユーザアフェクトが完全に不一致でなくてもよい。上記第3の実施形態のように、抽出した時間帯全体において、Not Superficialなデータと、Superficialなデータとでユーザアフェクトが一致しない場合も含めることとしてもよい。   When extracting a time zone that has the longest overlap of time zones, it is not necessary for the user effects of Superficial / Not Superficial data in each time zone to be completely unmatched. As in the third embodiment, it is also possible to include the case where the user effect does not match between the Not Superficial data and the Superficial data in the entire extracted time zone.

なお、ユーザアフェクトの持続時間が長いことを条件に時間帯を抽出すると、質問文生成において、毎回同じような時間帯が選ばれる可能性がある。この場合、毎回同じ質問を行ってしまうことで、ユーザを飽き飽きさせてしまう場合がある。このような場合には、質問文生成に一度使用した時間帯のデータは、ある一定時間質問文生成に用いることを停止するなどしてもよい。その他の処理は、第1の実施形態と同様である。   If a time zone is extracted on the condition that the duration of the user effect is long, a similar time zone may be selected each time in the question sentence generation. In this case, the user may get bored by asking the same question each time. In such a case, data of a time zone used once for generating a question sentence may be stopped from being used for generating a question sentence for a certain period of time. The other processes are the same as in the first embodiment.

以上のように、本第4の実施形態では、社会的距離の遠近を判定するために用いる時間帯として極端に短い時間が抽出されない。これにより、ユーザアフェクトの持続時間が短いことにより、ユーザに記憶が残っておらず、社会的距離の遠近を判断するための質問に対するユーザの応答が曖昧なものとなってしまう可能性を低減することが可能となる。   As described above, in the fourth embodiment, an extremely short time is not extracted as a time zone used to determine the perspective of the social distance. This reduces the possibility of the user's response to a question for determining the perspective of the social distance becoming vague due to the fact that the duration of the user effect is short and the user has no memory left. It becomes possible.

《第5の実施形態》
次に、第5の実施形態について、図23〜図26に基づいて説明する。本第5の実施形態では、社会的距離算出部38は、自己開示レベルの共通する時間帯における複数のユーザアフェクトログを用いてユーザアフェクト確信度を算出し、質問文生成においてユーザアフェクト確信度の高い時間帯を抽出する点が、上記第1の実施形態とは異なる。
Fifth Embodiment
Next, a fifth embodiment will be described based on FIG. 23 to FIG. In the fifth embodiment, the social distance calculation unit 38 calculates the user effect certainty using a plurality of user effect logs in a time zone in which the self-disclosure level is common, and generates a user effect certainty in the question sentence generation. The point of extracting a high time zone is different from the first embodiment.

なお、本第5の実施形態では、一例として、Not Superficialなデータとして視線データが含まれるものとし、図24に示すような視線データ記録DB(サーバ30が保持)にデータが蓄積されるものとする。視線データは、図23に示すようなユーザAが装着する装着型の情報処理端末210が有する視線追跡部により収集される。なお、ユーザAは、情報処理端末210においてアプリケーションC0を利用しているものとする。アプリケーションC0は、ユーザにパーソナライズされた3D空間を提示するアプリケーションであり、空間内を帯同して歩くコンパニオン型のソフトウェアエージェントとの対話の提示・処理も行う。また、アプリケーションC0は、小型ビデオ録画機器である情報収集装置120を通じて音声と動画像データを収集し、情報処理端末210の視線追跡部を通じて視線データを収集する。なお、情報提示や情報収集にあたっては、サーバ30と情報処理端末210及び情報収集装置120との間の通信が成立している。また、ユーザAが建屋内のサービスを利用し始めた段階で、情報処理端末210や情報収集装置120で取得されたデータが、サーバ30に送付され、サーバ30にて保管される。   In the fifth embodiment, as an example, it is assumed that line-of-sight data is included as Not Superficial data, and data is accumulated in a line-of-sight data recording DB (held by server 30) as shown in FIG. Do. The line-of-sight data is collected by the line-of-sight tracking unit of the wearable information processing terminal 210 worn by the user A as shown in FIG. It is assumed that the user A uses the application C0 in the information processing terminal 210. The application C0 is an application that presents a 3D space personalized to the user, and also presents and processes an interaction with a companion software agent that walks in the space. Further, the application C0 collects voice and moving image data through the information collecting apparatus 120 which is a small video recording device, and collects line-of-sight data through the line-of-sight tracking unit of the information processing terminal 210. Communication between the server 30 and the information processing terminal 210 and the information collecting apparatus 120 is established in the information presentation and information collection. Further, when the user A starts using the service in the building, the data acquired by the information processing terminal 210 and the information collecting device 120 is sent to the server 30 and stored by the server 30.

更に、ユーザAは、建屋内において、複数ユーザが同じ空間に共存するための最適提示を行うアプリケーションC1を利用している。アプリケーションC1は情報提示装置110を介して、建屋の壁や床や中空(空中)への情報のプロジェクションを通じた情報提示を行うことができる。   Furthermore, the user A uses the application C1 that performs optimal presentation for coexistence of multiple users in the same space in the building. The application C1 can perform information presentation through projection of information on a wall, floor or hollow (air) of a building through the information presentation device 110.

本第5の実施形態において、社会的距離算出部38は、蓄積されたユーザアフェクトログDB48に基づいて、社会的距離の遠近の判定を行う(図25参照)。図25の処理では、ステップS430においては、社会的距離算出部38は、質問文を生成する対象となる時間帯を、ユーザアフェクト確信度が高いことを条件として抽出する。   In the fifth embodiment, the social distance calculation unit 38 determines the distance between social distances based on the accumulated user effect log DB 48 (see FIG. 25). In the process of FIG. 25, in step S430, the social distance calculation unit 38 extracts a time zone for which a question sentence is to be generated, on the condition that the user effect certainty factor is high.

ここで、ユーザアフェクト確信度とは、同一時間帯に自己開示レベルにおいて複数のユーザアフェクトログがある場合に、どのくらい高い割合で、ユーザアフェクトが一致しているかを示す指標である。   Here, the user effect certainty factor is an index indicating how high a user effect matches when there are a plurality of user effect logs at the self-disclosure level in the same time zone.

図26には、本第5の実施形態におけるユーザアフェクトログDB48の一例が示されている。図26に示すユーザアフェクトログDB48においては、SuperficialとNot Superficialな自己開示レベルとで、それぞれ2つずつのデータが記録されており、SuperficialではNeutralとPositive、Not SuperficialではNegativeが記録されている。これより、ユーザアフェクト確信度は、SuperficialではPositiveが1/2(又はNeutralが1/2)、Not SuperficialではNegativeが2/2と算出できる。なお、別の時間帯において、この時間帯よりもユーザアフェクト確信度が高くなる時間帯がある場合には、そのユーザアフェクト確信度が高い時間帯を質問文生成用の時間帯として抽出する。なお、ユーザアフェクト確信度の時間帯間における比較は、SuperficialとNot Superficialにおける平均値を用いてもよいし、優先する個人情報レベルだけのユーザアフェクト確信度を用いてもよい。   FIG. 26 shows an example of the user effect log DB 48 in the fifth embodiment. In the user effect log DB 48 shown in FIG. 26, two data are recorded at each of the Superficial and Not Superficial self-disclosure levels, and in the Superficial, Neutral and Positive, and in the Not Superficial Negative are recorded. From this, the user effect certainty factor can be calculated such that Positive is 1/2 (or Neutral is 1/2) in Superficial and Negative is 2/2 in Not Superficial. If there is a time zone in which the user effect certainty factor is higher than that in another time slot, the time zone in which the user effect certainty factor is high is extracted as a question sentence generation time slot. The comparison between time zones of the user effect certainty factor may use an average value of Superficial and Not Superficial, or may use the user effect certainty factor of only the priority personal information level.

《第6の実施形態》
次に、第6の実施形態について説明する。本第6の実施形態では、ユーザアフェクトが起こったと予想される時刻へ補正したタイムスタンプ情報とともにユーザアフェクトを記録する点が、上記第1の実施形態とは異なる。
Sixth Embodiment
Next, a sixth embodiment will be described. The sixth embodiment is different from the first embodiment in that a user effect is recorded together with time stamp information corrected to a time when a user effect is expected to occur.

アフェクト判定に用いるデータ次第では、行動が観察された時刻と、ユーザアフェクトが起こった時刻との間にずれが生じる場合がある。ここでは、図7(b)の行動ログDB46に記録されている手の発汗を例に説明する。図7(b)では、ユーザ行動時刻がt_act1=2014/7/12 11:00:01.040であるときに手の発汗のレベルが記録されており、対応するユーザアフェクトログは、アフェクト判定時刻(開始)がt_affs=2014/7/12 11:00:00.000、アフェクト判定時刻(終了)がt_affe=2014/7/12 11:00:01.040であるデータとして記録されている。上記第1の実施形態においては、どの時間範囲の行動ログを用いて判定したかをベースにt_affsとt_affeを決定していたが、ユーザが何かストレスを感じた時に手の発汗がセンシングされるまでにはタイムラグがある。こういったタイムラグは脳波等にも存在する。したがって、データ管理部36は、行動ログの種類毎にタイムラグが既知である場合には、タイムラグをtlとしたとき、t_affs+tlとt_affe+tlをそれぞれアフェクト判定時刻(開始)とアフェクト判定時刻(終了)にして、ユーザアフェクトログDB48に記録するようにすればよい。このようにすることで、ユーザが実際にアフェクトを感じた時間帯に基づいて時間帯の抽出を行うことができるので(図12のS30)、より正確に社会的距離の判定を行う質問を作成することが可能となる(図12のS32)。   Depending on the data used for the effect determination, there may be a gap between the time when the action was observed and the time when the user effect occurred. Here, hand sweating recorded in the action log DB 46 of FIG. 7B will be described as an example. In FIG. 7B, the perspiration level of the hand is recorded when the user action time is t_act1 = 2014/7/12 11: 00: 01.040, and the corresponding user effect log is the effect determination time (start ) Is recorded as t_affs = 2014/7/12 11: 00: 00.000, and the effect determination time (end) is t_affe = 2014/7/12 11: 00: 01.040. In the first embodiment described above, t_affs and t_affe are determined based on which time range of action log is used to determine, but when the user feels stressed, hand sweating is sensed There is a time lag before. Such time lag also exists in brain waves and the like. Therefore, when a time lag is known for each type of action log, the data management unit 36 sets t_affs + tl and t_affe + tl as effect determination time (start) and effect determination time (end) when the time lag is tl. , And may be recorded in the user effect log DB 48. By doing this, the time zone can be extracted based on the time zone in which the user actually felt the effect (S30 in FIG. 12), so a question is drawn that more accurately determines the social distance. It becomes possible to do (S32 of FIG. 12).

《第7の実施形態》
次に、第7の実施形態について図27に基づいて説明する。本第7の実施形態では、ユーザアフェクトがその前後の時間帯と比べてどの程度安定していたのか、変化が大きかったのかに基づいて、ユーザアフェクトの安定度を算出し、質問文生成においてユーザアフェクト安定度の高い時間帯を抽出する点が、上記第1の実施形態とは異なる。
Seventh Embodiment
Next, a seventh embodiment will be described based on FIG. In the seventh embodiment, the degree of stability of the user effect is calculated based on how stable the user effect was in comparison with the time zones before and after that and the change in the user effect, and the user sentence generation in the question sentence generation The point of extracting a time zone having a high degree of effect stability is different from that of the first embodiment.

具体的には、社会的距離算出部38は、質問文を生成する対象となる時間帯をユーザアフェクト安定度が高いことを条件に抽出する。ここで、ユーザアフェクト安定度とは、自己開示レベルの共通する同時間帯における複数のユーザアフェクトログを用いてユーザアフェクトがその前後の時間帯と比べてどの程度安定していたのか、変化が大きかったのかを示す指標である。本第7の実施形態では、上記第5の実施形態で説明した確信度がどのくらい安定しているかによって、評価値を算出する。   Specifically, the social distance calculation unit 38 extracts a time zone for which a question sentence is to be generated on the condition that the user effect stability is high. Here, user effect stability refers to how much the user effect is stable using a plurality of user effect logs in the same time zone common to the self-disclosure level as compared with time zones before and after that It is an indicator that indicates whether or not In the seventh embodiment, the evaluation value is calculated depending on how stable the certainty factor described in the fifth embodiment is.

図27には、本第7の実施形態を説明するためのユーザアフェクトログDB48のデータ例が示されている。例えば、図27に示すアフェクト判定時刻(開始)=2014/7/16 11:00:00.000、アフェクト判定時刻(終了)=2014/7/16 11:05:00.000であるデータ(上から5〜8つ目のデータ)の時間帯が、質問文生成用に抽出する時間帯の候補となっている時間帯であるとする。この場合、ユーザアフェクト確信度を算出すると、SuperficialはNeutralが1/2でPositiveが1/2、Not SuperficialはNeutralが1/2でNegativeが1/2である。この前の時間帯の確信度は、SuperficialはNeutralが1/2でPositiveが1/2、Not SuperficialはNegativeが2/2である。前の時間帯からの変化分を算出すると、Not SuperficialはNeutralが1/2-1/2=0、Positiveが1/2-1/2=0、SuperficialはNeutral=0-1/2=-1/2、Negativeは2/2-1/2=1/2である。この変化分の値が小さい程、その時間帯ではユーザアフェクトが安定して記録されているということを意味する。したがって、社会的距離算出部38は、図12のステップS30において、複数の時間帯が質問文生成用の時間帯として候補に挙がった場合に、それぞれの時間帯の安定度を算出して比較し、安定度の高い時間帯を質問文生成用の時間帯として抽出する。   FIG. 27 shows an example of data of the user effect log DB 48 for describing the seventh embodiment. For example, data having an effect determination time (start) = 2014/7/16 16: 00: 00.000 and an effect determination time (end) = 2014/7/16 11: 05: 00.000 shown in FIG. It is assumed that the time zone of the first data) is a time zone which is a candidate of a time zone to be extracted for generating a question sentence. In this case, when calculating the user effect certainty factor, in the case of the Superficial, the Neutral is 1/2 and the Positive is 1/2, and in the Not Superficial, the Neutral is 1/2 and the Negative is 1/2. The confidence in this previous time zone is 1/2 for Neutral, 1/2 for Positive and 1/2 for Not Superficial, and 2/2 for Not Superficial. If you calculate the change from the previous time zone, Not Superficial is 1 / 2-1 / 2 = 0 for Neutral, 1 / 2-1 / 2 = 0 for Positive, and Super = 0-1 / 2 =-for Superficial. 1/2, Negative is 2 / 2-1 / 2 = 1/2. The smaller this change value, the more stable the user effect is recorded in that time zone. Therefore, when a plurality of time zones are candidates as time zones for generating a question sentence in step S30 of FIG. 12, the social distance calculation unit 38 calculates and compares the stability levels of the respective time zones. The time zone with high degree of stability is extracted as the time zone for question sentence generation.

なお、安定度の比較を行う場合には、変化分の絶対値をトータルで比較することとしてもよいし、着目する自己開示レベルのデータだけを用いて比較(例えば、Not Superficialの安定度だけを用いて比較)してもよい。これにより、偶然1つの時間帯のみで質問文生成に適したようなユーザアフェクトログが記録されたような時間帯のデータを質問文生成に使用することを回避することができる。したがって、社会的距離の遠近判定に用いる時間帯として適切なユーザアフェクトを記録している時間帯を抽出することが可能となる。   In addition, when comparing the degree of stability, the absolute value of the change may be totally compared, or only the data of the self-disclosure level of interest is used for comparison (for example, only the degree of stability of Not Superficial You may compare and use. As a result, it is possible to avoid using data for a time zone in which a user effect log suitable for question sentence generation is accidentally recorded only in one time zone for question sentence generation. Therefore, it is possible to extract a time zone in which a user effect suitable as a time zone used for social distance perspective determination is recorded.

なお、上記の処理機能は、コンピュータによって実現することができる。その場合、処理装置が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体(ただし、搬送波は除く)に記録しておくことができる。   The above processing functions can be realized by a computer. In that case, a program is provided which describes the processing content of the function that the processing device should have. The above processing functions are realized on the computer by executing the program on the computer. The program in which the processing content is described can be recorded on a computer readable recording medium (except for the carrier wave).

プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD(Digital Versatile Disc)、CD−ROM(Compact Disc Read Only Memory)などの可搬型記録媒体の形態で販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。   In the case of distributing the program, for example, the program is sold in the form of a portable recording medium such as a DVD (Digital Versatile Disc), a CD-ROM (Compact Disc Read Only Memory) or the like in which the program is recorded. Alternatively, the program may be stored in the storage device of the server computer, and the program may be transferred from the server computer to another computer via a network.

プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。   The computer executing the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its storage device and executes processing according to the program. The computer can also read the program directly from the portable recording medium and execute processing in accordance with the program. The computer can also execute processing in accordance with the received program each time the program is transferred from the server computer.

上述した各実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。例えば、上記第1、第2の実施形態で説明したユーザの情報を取得するセンサの種別、システムデータ50の各種定義などについては、一例であるため、上記実施形態に限定されるものではない。   Each embodiment mentioned above is an example of a preferred implementation of the present invention. However, the present invention is not limited to this, and various modifications can be made without departing from the scope of the present invention. For example, the types of sensors for acquiring user information described in the first and second embodiments, various definitions of the system data 50, and the like are only examples, and the present invention is not limited to the above embodiments.

なお、以上の第1〜第7の実施形態の説明に関して、更に以下の付記を開示する。
(付記1) 質問に対して、利用者が該利用者以外に知られていない情報を含む内容の回答を行ったか否かを判定し、
前記利用者が該利用者以外に知られていない情報を含む内容の回答を行った場合に、該利用者以外に知られていない情報を含まない内容の回答を行った場合よりも、該利用者と回答先との社会的距離が近いと判断する、
処理をコンピュータに実行させることを特徴とする処理プログラム。
(付記2) 前記利用者以外に知られていない情報は、前記利用者の外部観察からは明らかでない前記利用者の状態又は気持ちに関する情報であることを特徴とする付記1に記載の処理プログラム。
(付記3) 前記判断する処理の判断結果に基づいて、前記利用者に提供する情報の内容を異ならせる、処理を前記コンピュータに更に実行させることを特徴とする付記1又は2に記載の処理プログラム。
(付記4) 前記利用者の行動履歴に関する情報を取得し、
前記取得する処理で取得した情報に基づいて前記質問を生成する、処理を前記コンピュータに更に実行させることを特徴とする付記1〜3のいずれかに記載の処理プログラム。
(付記5) 前記質問を生成する処理では、前記利用者の行動履歴に関する情報のうち、外部観察からは明らかでない前記利用者の状態又は気持ちに関する情報と、外部観察から明らかな前記利用者の状態又は気持ちに関する情報と、が異なる種類である時刻における前記利用者の行動履歴に関する情報に基づいて、前記質問を生成することを特徴とする付記4に記載の処理プログラム。
(付記6) 前記判定する処理では、
前記回答を行ったときの前記利用者の状態又は気持ちに関する情報が、外部観察からは明らかでない前記利用者の状態又は気持ちに関する情報と、外部観察から明らかな前記利用者の状態又は気持ちに関する情報のいずれと共通するかに基づいて、前記利用者が該利用者以外に知られていない情報を含む内容の回答を行ったか否かを判定する、ことを特徴とする付記5に記載の処理プログラム。
(付記7) 前記質問を生成する処理では、複数の時刻における前記利用者の行動履歴に関する情報に基づいて、前記質問を生成することを特徴とする付記5又は6に記載の処理プログラム。
(付記8) 質問に対して、利用者が該利用者以外に知られていない情報を含む内容の回答を行ったか否かを判定し、
前記利用者が該利用者以外に知られていない情報を含む内容の回答を行った場合に、該利用者以外に知られていない情報を含まない内容の回答を行った場合よりも、該利用者と回答先との社会的距離が近いと判断する、
処理をコンピュータが実行することを特徴とする処理方法。
(付記9) 前記利用者以外に知られていない情報は、前記利用者の外部観察からは明らかでない前記利用者の状態又は気持ちに関する情報であることを特徴とする付記8に記載の処理方法。
(付記10) 前記判断する処理の判断結果に基づいて、前記利用者に提供する情報の内容を異ならせる、処理を前記コンピュータに更に実行させることを特徴とする付記8又は9に記載の処理方法。
(付記11) 前記利用者の行動履歴に関する情報を取得し、
前記取得する処理で取得した情報に基づいて前記質問を生成する、処理を前記コンピュータが更に実行することを特徴とする付記8〜10のいずれかに記載の処理方法。
(付記12) 前記質問を生成する処理では、前記利用者の行動履歴に関する情報のうち、外部観察からは明らかでない前記利用者の状態又は気持ちに関する情報と、外部観察から明らかな前記利用者の状態又は気持ちに関する情報と、が異なる種類である時刻における前記利用者の行動履歴に関する情報に基づいて、前記質問を生成することを特徴とする付記11に記載の処理方法。
(付記13) 前記判定する処理では、
前記回答を行ったときの前記利用者の状態又は気持ちに関する情報が、外部観察からは明らかでない前記利用者の状態又は気持ちに関する情報と、外部観察から明らかな前記利用者の状態又は気持ちに関する情報のいずれと共通するかに基づいて、前記利用者が該利用者以外に知られていない情報を含む内容の回答を行ったか否かを判定する、ことを特徴とする付記12に記載の処理方法。
(付記14) 前記質問を生成する処理では、複数の時刻における前記利用者の行動履歴に関する情報に基づいて、前記質問を生成することを特徴とする付記12又は13に記載の処理方法。
(付記15) 質問に対して、利用者が該利用者以外に知られていない情報を含む内容の回答を行ったか否かを判定する判定部と、
前記利用者が該利用者以外に知られていない情報を含む内容の回答を行った場合に、該利用者以外に知られていない情報を含まない内容の回答を行った場合よりも、該利用者と回答先との社会的距離が近いと判断する判断部と、
を備える処理装置。
(付記16) 前記利用者以外に知られていない情報は、前記利用者の外部観察からは明らかでない前記利用者の状態又は気持ちに関する情報であることを特徴とする付記15に記載の処理装置。
(付記17) 前記判断部の判断結果に基づいて、前記利用者に提供する情報の内容を異ならせる処理部を更に備える付記15又は16に記載の処理装置。
(付記18) 前記利用者の行動履歴に関する情報を取得する取得部と、
前記取得部が取得した情報に基づいて前記質問を生成する生成部と、を更に備える付記15〜17のいずれかに記載の処理装置。
(付記19) 前記生成部は、前記利用者の行動履歴に関する情報のうち、外部観察からは明らかでない前記利用者の状態又は気持ちに関する情報と、外部観察から明らかな前記利用者の状態又は気持ちに関する情報と、が異なる種類である時刻における前記利用者の行動履歴に関する情報に基づいて、前記質問を生成することを特徴とする付記18に記載の処理装置。
(付記20) 前記判定部は、
前記回答を行ったときの前記利用者の状態又は気持ちに関する情報が、外部観察からは明らかでない前記利用者の状態又は気持ちに関する情報と、外部観察から明らかな前記利用者の状態又は気持ちに関する情報のいずれと共通するかに基づいて、前記利用者が該利用者以外に知られていない情報を含む内容の回答を行ったか否かを判定する、ことを特徴とする付記19に記載の処理装置。
(付記21) 前記生成部は、複数の時刻における前記利用者の行動履歴に関する情報に基づいて、前記質問を生成することを特徴とする付記19又は20に記載の処理装置。
In addition, the following additional remarks are further disclosed regarding the description of the above 1st-7th embodiment.
(Supplementary Note 1) It is determined whether or not the user has responded to the question including the content including information unknown to the user.
When the user answers a content including information that is not known other than the user, the use is more than when a response that does not include information that is not known other than the user is reported Judged that the social distance between the person and the answeree is short,
A processing program causing a computer to execute processing.
(Supplementary Note 2) The processing program according to Supplementary Note 1, wherein the information not known to persons other than the user is information regarding the state or feeling of the user that is not clear from the external observation of the user.
(Supplementary Note 3) The processing program according to Supplementary Note 1 or 2, further causing the computer to execute processing for differentiating the content of the information to be provided to the user based on the determination result of the determination processing. .
(Supplementary Note 4) Information on the user's action history is acquired,
The processing program according to any one of appendices 1 to 3, wherein the processing further causes the computer to execute the processing of generating the question based on the information acquired in the acquisition processing.
(Supplementary Note 5) In the process of generating the question, among the information on the user's action history, the information on the state or feeling of the user not apparent from the external observation and the state of the user apparent from the external observation The processing program according to claim 4, wherein the question is generated based on information on the user's action history at a time when the information on feeling is different from the information on the feeling.
(Supplementary Note 6)
Information on the condition or feeling of the user when the answer is made is information on the condition or feeling of the user not apparent from external observation, and information on the condition or feeling of the user apparent from external observation The processing program according to Supplementary Note 5, wherein it is determined whether or not the user has made a response including content that is not known to the other than the user based on which of the two is common.
(Supplementary Note 7) The processing program according to Supplementary note 5 or 6, wherein, in the process of generating the question, the question is generated based on information on the action history of the user at a plurality of times.
(Supplementary Note 8) In response to a question, it is determined whether or not the user has made an answer containing content that is not known to anyone other than the user.
When the user answers a content including information that is not known other than the user, the use is more than when a response that does not include information that is not known other than the user is reported Judged that the social distance between the person and the answeree is short,
A processing method characterized in that a computer executes processing.
(Supplementary Note 9) The processing method according to Supplementary note 8, wherein the information not known to persons other than the user is information relating to the state or feeling of the user that is not clear from the external observation of the user.
(Supplementary Note 10) The processing method according to Supplementary Note 8 or 9, further causing the computer to execute a process of making the content of the information to be provided to the user different based on the determination result of the determination process. .
(Supplementary note 11) The information on the action history of the user is acquired,
10. The processing method according to any one of appendices 8 to 10, wherein the computer further executes a process of generating the question based on the information acquired in the process of acquiring.
(Supplementary Note 12) In the process of generating the question, information on the state or feeling of the user which is not clear from external observation and information on the user's state apparent from external observation among the information on the action history of the user The processing method according to claim 11, wherein the question is generated based on information on the user's action history at a time when the information on feeling is different from the information on the feeling.
(Supplementary Note 13)
Information on the condition or feeling of the user when the answer is made is information on the condition or feeling of the user not apparent from external observation, and information on the condition or feeling of the user apparent from external observation It is determined whether the said user gave the reply of the content containing the information which is not known other than the said user based on which is common, The processing method of Additional remark 12 characterized by the above-mentioned.
(Supplementary Note 14) The processing method according to supplementary note 12 or 13, wherein, in the process of generating the question, the question is generated based on information on the action history of the user at a plurality of times.
(Supplementary Note 15) A determination unit that determines whether or not a user has made an answer to a question including content that is unknown to the user.
When the user answers a content including information that is not known other than the user, the use is more than when a response that does not include information that is not known other than the user is reported Judgment unit that judges that the social distance between the person and the answeree is short,
Processing device comprising:
(Supplementary Note 16) The processing device according to Supplementary Note 15, wherein the information not known to persons other than the user is information regarding the state or feeling of the user that is not clear from the external observation of the user.
(Supplementary Note 17) The processing device according to Supplementary Note 15 or 16, further comprising: a processing unit that makes the content of the information provided to the user different based on the determination result of the determination unit.
(Additional remark 18) The acquisition part which acquires the information about the user's action history,
15. The processing apparatus according to any one of the above 15 to 17, further comprising: a generation unit that generates the question based on the information acquired by the acquisition unit.
(Supplementary Note 19) The generation unit relates to information on the state or feeling of the user that is not clear from external observation among information on the action history of the user, and relates to the state or feeling of the user apparent from external observation The processing device according to appendix 18, wherein the question is generated based on information on the action history of the user at a time when the information is a different type.
(Supplementary Note 20) The determination unit
Information on the condition or feeling of the user when the answer is made is information on the condition or feeling of the user not apparent from external observation, and information on the condition or feeling of the user apparent from external observation It is determined whether the said user gave the reply of the content containing the information which is not known other than the said user based on which is common, The processing apparatus of Additional remark 19 characterized by the above-mentioned.
(Supplementary Note 21) The processing device according to Supplementary note 19 or 20, wherein the generation unit generates the question based on information on the action history of the user at a plurality of times.

30 サーバ(処理装置)
34 情報提示処理制御部(処理部)
38 社会的距離算出部(判定部、判断部、取得部、生成部)
30 server (processing unit)
34 Information presentation processing control unit (processing unit)
38 Social distance calculation unit (judgment unit, judgment unit, acquisition unit, generation unit)

Claims (6)

コンピュータに、
第1の情報収集装置が収集したデータに基づいて判定された、ある時間帯における外部観察からでは明らかでない利用者の状態又は気持ちに関する第1の情報と、前記第1の情報収集装置と異なる第2の情報収集装置が収集したデータに基づいて判定された、前記ある時間帯における外部観察から明らかな前記利用者の状態又は気持ちに関する第2の情報と、を記憶する第1の記憶部を参照し、同時間帯において前記第1の情報が示す前記利用者の状態又は気持ちと前記第2の情報が示す前記利用者の状態又は気持ちとが異なる時間帯を特定する機能と、
前記利用者に対して、特定された前記時間帯における前記利用者の状態又は気持ちをたずねる質問を提示する機能と、
前記利用者が前記質問に回答している間に前記第1の情報収集装置により収集されたデータ及び前記第2の情報収集装置により収集されたデータの少なくとも1つに基づき、前記利用者が前記質問に回答したときの前記利用者の状態又は気持ちを判定する機能と、
判定した前記利用者の状態又は気持ちが、特定された前記時間帯における前記第1の情報が示す前記利用者の状態又は気持ちと共通する場合に、共通しない場合よりも、該利用者と回答先との社会的距離が近いと判断する機能と
を実現させるための処理プログラム。
On the computer
First information on a user's state or feeling that is not apparent from external observation in a certain time zone, which is determined based on data collected by the first information collection device, and first information different from the first information collection device Refer to a first storage unit that stores second information related to the user's state or feeling apparent from external observation in the certain time zone, which is determined based on data collected by the second information collection device A function of specifying a time zone in which the state or feeling of the user indicated by the first information and the state or feeling of the user indicated by the second information in the same time zone are different;
A function of presenting, to the user, a question that asks the user's state or feeling during the specified time zone;
The user is said based on at least one of data collected by the first information collecting device while the user answers the question and data collected by the second information collecting device. A function of determining the state or feeling of the user when answering a question;
When the determined state or feeling of the user is in common with the state or feeling of the user indicated by the first information in the specified time zone , the user and the answer destination are better than in the case where they are not common Function to judge that the social distance between
Processing program for realizing .
前記判断の結果に基づいて、前記利用者に提供する情報の内容を異ならせる機能を前記コンピュータに更に実現させるための請求項1に記載の処理プログラム。 The processing program according to claim 1 , further causing the computer to realize the function of changing the content of the information to be provided to the user based on the result of the determination. 前記ある時間帯における、前記利用者の行動に関する情報を記憶する第2の記憶部を参照し、特定された前記時間帯における前記利用者の行動に関する情報に基づいて前記質問を生成する機能を前記コンピュータに更に実現させるための請求項1又は2に記載の処理プログラム。 A function of generating the question based on information on the user's behavior in the specified time zone with reference to a second storage unit that stores information on the user's behavior in the certain time zone; The processing program according to claim 1 or 2 for making a computer further implement . 前記質問を生成する機能は、同時間帯において前記第1の情報が示す前記利用者の状態又は気持ちと前記第2の情報が示す前記利用者の状態又は気持ちとが異なる時間帯を複数特定し、特定した複数の前記時間帯における前記利用者の行動に関する情報に基づいて、前記質問を生成する機能を含むことを特徴とする請求項3に記載の処理プログラム。 The function of generating the question specifies a plurality of time zones in which the state or feeling of the user indicated by the first information and the state or feeling of the user indicated by the second information are different in the same time zone , based on information about the user's behavior in a plurality of the time periods identified, processing program according to claim 3, characterized in that it comprises a function for generating the question. コンピュータが備える特定部が、第1の情報収集装置が収集したデータに基づいて判定された、ある時間帯における外部観察からでは明らかでない利用者の状態又は気持ちに関する第1の情報と、前記第1の情報収集装置と異なる第2の情報収集装置が収集したデータに基づいて判定された、前記ある時間帯における外部観察から明らかな前記利用者の状態又は気持ちに関する第2の情報と、を記憶する第1の記憶部を参照し、同時間帯において前記第1の情報が示す前記利用者の状態又は気持ちと前記第2の情報が示す前記利用者の状態又は気持ちとが異なる時間帯を特定し、
前記コンピュータが備える質問部が、前記利用者に対して、特定された前記時間帯における前記利用者の状態又は気持ちをたずねる質問を提示し、
前記コンピュータが備える判断部が、前記利用者が前記質問に回答している間に前記第1の情報収集装置により収集されたデータ及び前記第2の情報収集装置により収集されたデータの少なくとも1つに基づき、前記利用者が前記質問に回答したときの前記利用者の状態又は気持ちを判定し、判定した前記利用者の状態又は気持ちが、特定された前記時間帯における前記第1の情報が示す前記利用者の状態又は気持ちと共通する場合に、共通しない場合よりも、該利用者と回答先との社会的距離が近いと判断する、
ことを特徴とする処理方法。
First information on a user's condition or feeling that is not apparent from external observation in a certain time zone, which is determined based on data collected by the first information collection device, and a specific unit included in the computer; Storing, based on data collected by a second information collecting device different from the information collecting device of the second information, the second information on the state or feeling of the user apparent from the external observation in the certain time zone Specify a time zone in which the state or feeling of the user indicated by the first information and the state or feeling of the user indicated by the second information are different in the same time zone with reference to the first storage unit ,
A query unit included in the computer presents, to the user, a question inquiring a state or feeling of the user in the specified time zone;
The determination unit included in the computer is at least one of data collected by the first information collection device and data collected by the second information collection device while the user answers the question. Based on the condition or feeling of the user when the user answers the question, the first information in the specified time zone indicates the determined condition or feeling of the user When it is in common with the state or feeling of the user, it is judged that the social distance between the user and the reply destination is closer than in the case where they are not common .
A processing method characterized by
第1の情報収集装置が収集したデータに基づいて判定された、ある時間帯における外部観察からでは明らかでない利用者の状態又は気持ちに関する第1の情報と、前記第1の情報収集装置と異なる第2の情報収集装置が収集したデータに基づいて判定された、前記ある時間帯における外部観察から明らかな前記利用者の状態又は気持ちに関する第2の情報と、を記憶する第1の記憶部を参照し、同時間帯において前記第1の情報が示す前記利用者の状態又は気持ちと前記第2の情報が示す前記利用者の状態又は気持ちとが異なる時間帯を特定する特定部と、
前記利用者に対して、特定された前記時間帯における前記利用者の状態又は気持ちをたずねる質問を提示する質問部と、
前記利用者が前記質問に回答している間に前記第1の情報収集装置により収集されたデータ及び前記第2の情報収集装置により収集されたデータの少なくとも1つに基づき、前記利用者が前記質問に回答したときの前記利用者の状態又は気持ちを判定し、判定した前記利用者の状態又は気持ちが、特定された前記時間帯における前記第1の情報が示す前記利用者の状態又は気持ちと共通する場合に、共通しない場合よりも、該利用者と回答先との社会的距離が近いと判断する判断部と、
を備える処理装置。
First information on a user's state or feeling that is not apparent from external observation in a certain time zone, which is determined based on data collected by the first information collection device, and first information different from the first information collection device Refer to a first storage unit that stores second information related to the user's state or feeling apparent from external observation in the certain time zone, which is determined based on data collected by the second information collection device A specifying unit that specifies a time zone in which the state or feeling of the user indicated by the first information and the state or feeling of the user indicated by the second information in the same time zone;
A question unit for presenting, to the user, a question for asking the user's state or feeling in the specified time zone;
The user is said based on at least one of data collected by the first information collecting device while the user answers the question and data collected by the second information collecting device. The condition or feeling of the user determined when the user answered the question, the condition or feeling of the determined user is indicated by the condition or feeling of the user indicated by the first information in the specified time zone If the common, than without common, a determination unit for social distance between the user and the response destination is determined to close,
Processing device comprising:
JP2015102265A 2015-05-19 2015-05-19 Processing program, processing method and processing apparatus Active JP6540224B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015102265A JP6540224B2 (en) 2015-05-19 2015-05-19 Processing program, processing method and processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015102265A JP6540224B2 (en) 2015-05-19 2015-05-19 Processing program, processing method and processing apparatus

Publications (2)

Publication Number Publication Date
JP2016218692A JP2016218692A (en) 2016-12-22
JP6540224B2 true JP6540224B2 (en) 2019-07-10

Family

ID=57582009

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015102265A Active JP6540224B2 (en) 2015-05-19 2015-05-19 Processing program, processing method and processing apparatus

Country Status (1)

Country Link
JP (1) JP6540224B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7503901B2 (en) 2019-12-27 2024-06-21 ユニ・チャーム株式会社 Provision program, provision device, provision method, and provision system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001134642A (en) * 1999-11-02 2001-05-18 Atr Media Integration & Communications Res Lab Agent system utilizing social response characteristic
US7836151B2 (en) * 2007-05-16 2010-11-16 Palo Alto Research Center Incorporated Method and apparatus for filtering virtual content
US8539161B2 (en) * 2009-10-12 2013-09-17 Microsoft Corporation Pre-fetching content items based on social distance

Also Published As

Publication number Publication date
JP2016218692A (en) 2016-12-22

Similar Documents

Publication Publication Date Title
US10146882B1 (en) Systems and methods for online matching using non-self-identified data
CN106464758B (en) It initiates to communicate using subscriber signal
US10579866B2 (en) Method and system for enhancing user engagement during wellness program interaction
US9513699B2 (en) Method of selecting a second content based on a user&#39;s reaction to a first content
CN104145272B (en) Social mood is determined using physiological data
CN108009954B (en) Teaching plan making method, device and system and electronic equipment
US20160063874A1 (en) Emotionally intelligent systems
JP6952257B2 (en) Information processing device for content presentation, control method of information processing device, and control program
US20170095192A1 (en) Mental state analysis using web servers
US20160103833A1 (en) Ranking query results using biometric parameters
Soleymani et al. Human-centered implicit tagging: Overview and perspectives
JP2009146253A (en) Information processor, information processing method and program
US20190008466A1 (en) Life log utilization system, life log utilization method, and recording medium
JP2012113589A (en) Action motivating device, action motivating method and program
CN109659009A (en) Motion management method, apparatus and electronic equipment
US20190020614A1 (en) Life log utilization system, life log utilization method, and recording medium
EP3270263A1 (en) Information processing apparatus for presenting content, method for controlling the same, and control program
WO2016194621A1 (en) Information processing device, information processing method, and program
JP2021533489A (en) Computer implementation system and method for collecting feedback
JP6540224B2 (en) Processing program, processing method and processing apparatus
JP2014016916A (en) Social graph expanding method, program and system
JP2011002872A (en) Question sentence candidate presentation device
WO2012090661A1 (en) Information provision device, storage medium, and information provision method
JP6432298B2 (en) Social distance determination device, social distance determination program, and social distance determination method
JP6523891B2 (en) Server apparatus, data collection method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190412

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190527

R150 Certificate of patent or registration of utility model

Ref document number: 6540224

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150