JP2016095781A - Social distance determination system, social distance determination program and social distance determination method - Google Patents

Social distance determination system, social distance determination program and social distance determination method Download PDF

Info

Publication number
JP2016095781A
JP2016095781A JP2014232776A JP2014232776A JP2016095781A JP 2016095781 A JP2016095781 A JP 2016095781A JP 2014232776 A JP2014232776 A JP 2014232776A JP 2014232776 A JP2014232776 A JP 2014232776A JP 2016095781 A JP2016095781 A JP 2016095781A
Authority
JP
Japan
Prior art keywords
information
user
application
social distance
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014232776A
Other languages
Japanese (ja)
Other versions
JP6432298B2 (en
Inventor
尚子 林田
Naoko Hayashida
尚子 林田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014232776A priority Critical patent/JP6432298B2/en
Publication of JP2016095781A publication Critical patent/JP2016095781A/en
Application granted granted Critical
Publication of JP6432298B2 publication Critical patent/JP6432298B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a system capable of automatically determining a social distance which an application gives to a user.SOLUTION: A registration data management section 36 of a server 30 identifies a piece of information (user reaction value) for identifying an affect of a user while the user uses an application based on a piece of sensor input information which is collected by an information collection unit 20 etc., and determines a relative social distance score among plural applications based on the user reaction value while the user uses plural applications.SELECTED DRAWING: Figure 3

Description

本発明は、社会的距離判断装置、社会的距離判断プログラム及び社会的距離判断方法に関する。   The present invention relates to a social distance determination device, a social distance determination program, and a social distance determination method.

装置やサービスなどの継続利用は、あらゆるICT(Information and Communications Technology)にとって必要な要素といえる。例えば、ユーザに関する情報を基にした情報をユーザに示すアプリケーション(例えば、リコメンデーションアプリなど)においても、ユーザに継続的に利用してもらうことは非常に重要である。   Continuous use of devices and services can be said to be a necessary element for all ICT (Information and Communications Technology). For example, even in an application (for example, a recommendation application) that shows information based on information about the user to the user, it is very important for the user to use it continuously.

このようなアプリケーションを利用するユーザにとっては、サービスに対して親近だと感じる感覚(心の距離感)などを意味する「社会的距離」が遠いアプリケーションにおいて、過分な個人情報などに基づいて情報が提示されると、当該アプリケーションに嫌悪感をもち、利用を躊躇するおそれがある。   For users who use such applications, in applications where the “social distance” that means a sense of closeness to the service (a sense of distance in the mind) is far away, information based on excessive personal information etc. If presented, the application may be disgusted and hesitate to use it.

このため、ユーザとアプリケーションとの社会的距離に合った情報を提供できるようにすることが好ましい。従来においては、ユーザが感じている社会的距離を複数の質問項目によってユーザからヒアリングするアンケート等を実施することで、社会的距離を数値として示す技術が知られている(例えば、非特許文献1等参照)。   For this reason, it is preferable that information suitable for the social distance between the user and the application can be provided. 2. Description of the Related Art Conventionally, a technique is known that shows a social distance as a numerical value by conducting a questionnaire or the like that interviews a user with the social distance felt by a plurality of question items (for example, Non-Patent Document 1). Etc.).

Yonnim Lee, Ohbyung Kwon, Intimacy, familiarity and continuance intention: An extended expectation-confirmation model in web-based services, Electronic Commerce Research and Applications 10, 2011.Yonnim Lee, Ohbyung Kwon, Intimacy, familiarity and continuance intention: An extended expectation-confirmation model in web-based services, Electronic Commerce Research and Applications 10, 2011.

しかしながら、アンケート等を実施して、ユーザとアプリケーションとの社会的距離を取得するのでは、アンケート作成や回答入力等に手間がかかる。   However, if a questionnaire or the like is executed to obtain the social distance between the user and the application, it takes time to create a questionnaire or input a reply.

1つの側面では、本発明は、ユーザがアプリケーションに対して感じる社会的距離を自動的に判断することが可能な社会的距離判断装置、社会的距離判断プログラム及び社会的距離判断方法を提供することを目的とする。   In one aspect, the present invention provides a social distance determination device, a social distance determination program, and a social distance determination method capable of automatically determining a social distance that a user feels for an application. With the goal.

一つの態様では、社会的距離判断装置は、アプリケーションを使用している間のユーザの感情を特定する情報を特定する特定部と、複数アプリケーションを使用している間の前記ユーザの感情を特定する情報に基づいて、複数アプリケーション間の相対的な社会的距離を判断する判断部と、を備えている。   In one aspect, the social distance determination device specifies an information for specifying user's emotion while using the application, and specifies the user's emotion while using a plurality of applications. And a determination unit that determines a relative social distance between the plurality of applications based on the information.

ユーザがアプリケーションに対して感じる社会的距離を自動的に判断することができる。   The social distance that the user feels for the application can be automatically determined.

第1の実施形態に係る情報提示システムの構成を概略的に示す図である。It is a figure showing roughly the composition of the information presentation system concerning a 1st embodiment. 図2(a)は、情報処理端末のハードウェア構成を示す図であり、図2(b)は、サーバのハードウェア構成を示す図である。FIG. 2A is a diagram illustrating a hardware configuration of the information processing terminal, and FIG. 2B is a diagram illustrating a hardware configuration of the server. 情報提示システムの各部の機能ブロック図である。It is a functional block diagram of each part of an information presentation system. 図4(a)は、情報処理端末を利用しているユーザの状態を示す図であり、図4(b)は、情報処理端末の正面図である。FIG. 4A is a diagram illustrating a state of a user who uses the information processing terminal, and FIG. 4B is a front view of the information processing terminal. 第1の実施形態に係るサーバの処理(ユーザ反応値作成処理)を示すフローチャートである。It is a flowchart which shows the process (user reaction value creation process) of the server which concerns on 1st Embodiment. 図6(a)は、音声入力データ記録DBを示す図であり、図6(b)は、皮膚導電データ記録DBを示す図である。FIG. 6A is a diagram showing a voice input data recording DB, and FIG. 6B is a diagram showing a skin conduction data recording DB. 図7(a)は、ユーザ反応値記録DBを示す図であり、図7(b)は、対応リストDBを示す図である。Fig.7 (a) is a figure which shows user reaction value recording DB, FIG.7 (b) is a figure which shows correspondence list DB. 第1の実施形態に係るサーバの処理(社会的距離スコア算出処理)を示すフローチャートである。It is a flowchart which shows the process (social distance score calculation process) of the server which concerns on 1st Embodiment. 社会的距離算出タイプリストDBを示す図である。It is a figure which shows social distance calculation type list DB. 社会的距離スコア記録DBを示す図である。It is a figure which shows social distance score recording DB. 情報利用制限リストDBを示す図である。It is a figure which shows information utilization restriction list DB. 第2の実施形態に係る情報提示システムの構成を概略的に示す図である。It is a figure which shows roughly the structure of the information presentation system which concerns on 2nd Embodiment. 図12の情報提示システムの利用状態を示す図である。It is a figure which shows the utilization condition of the information presentation system of FIG. 第2の実施形態に係るユーザ反応値記録DBを示す図である。It is a figure which shows user reaction value recording DB which concerns on 2nd Embodiment. 第2の実施形態に係るサーバの処理(相対的社会的距離スコア算出処理)を示すフローチャートである。It is a flowchart which shows the process (relative social distance score calculation process) of the server which concerns on 2nd Embodiment. 図16(a)は、相対的社会的距離算出タイプリストDBを示す図であり、図16(b)は、相対的社会的距離スコア記録DBを示す図である。FIG. 16A is a diagram showing a relative social distance calculation type list DB, and FIG. 16B is a diagram showing a relative social distance score recording DB. 不快反応DBを示す図である。It is a figure which shows unpleasant reaction DB. 変形例1に係る社会的距離スコア記録DBを示す図である。It is a figure which shows social distance score record DB which concerns on the modification 1. FIG. 変形例1に係る情報利用制限リストDBを示す図である。It is a figure which shows information utilization restriction list DB which concerns on the modification 1. FIG. 変形例2に係る情報利用制限リストDBを示す図である。It is a figure which shows information utilization restriction list DB which concerns on the modification 2. FIG.

《第1の実施形態》
以下、情報提供システムの第1の実施形態について、図1〜図11に基づいて詳細に説明する。図1には、第1の実施形態に係る情報提供システム100の構成が概略的に示されている。
<< First Embodiment >>
Hereinafter, a first embodiment of the information providing system will be described in detail with reference to FIGS. FIG. 1 schematically shows the configuration of an information providing system 100 according to the first embodiment.

なお、本第1の実施形態では、人と、機械、サービス、アプリケーションなどとの間の心の距離を表す文言として、本来は人と他集団との心の距離を意味する文言である「社会的距離」を用いるものとする。この社会的距離は、人と人との間の距離感と同様、過去のやり取りの背景・経緯等を通じて醸成されるものである。本第1の実施形態の情報提供システム100では、ユーザの反応に関するデータをセンサ等を用いて収集し、収集したデータからあるアプリケーションに対する社会的距離を判断し、該社会的距離に基づいて、あるアプリケーションからユーザに対して提供する情報を制御するシステムである。なお、本第1の実施形態では、非特許文献1においてユーザとサービスの関係性を表す指標として用いられている「familiarity」と「intimacy」を区別しないものとする。いずれも、これまでのやり取りの背景・経緯等を通じて醸成されるユーザとサービスとの関係性を表す指標であるからである。   In the first embodiment, the word “society”, which originally means the distance between the person and the other group, is used as the word indicating the distance between the person and the machine, service, application, etc. Target distance ". This social distance is nurtured through the background and history of past exchanges, as well as the sense of distance between people. In the information providing system 100 according to the first embodiment, data related to a user's reaction is collected using a sensor or the like, a social distance to a certain application is determined from the collected data, and based on the social distance This is a system for controlling information provided from an application to a user. In the first embodiment, “familiarity” and “intimacy” used as an index representing the relationship between a user and a service in Non-Patent Document 1 are not distinguished. This is because any of these is an index representing the relationship between a user and a service cultivated through the background and background of the exchanges so far.

情報提供システム100は、図1に示すように、情報処理端末10と、情報収集装置20と、社会的距離判断装置としてのサーバ30と、を備える。情報処理端末10とサーバ30は、無線通信回線、インターネットなどのネットワーク80に接続されている。本第1の実施形態の情報提供システム100は、クライアントソフトウェアの配置された側(ユーザ側)の情報処理装置(情報処理端末10)と、サーバソフトウェアの配置された側の情報処理装置(サーバ30)とが、全体の処理を分割して実現するシステムであるものとする。   As shown in FIG. 1, the information providing system 100 includes an information processing terminal 10, an information collecting device 20, and a server 30 as a social distance determining device. The information processing terminal 10 and the server 30 are connected to a network 80 such as a wireless communication line or the Internet. The information providing system 100 according to the first embodiment includes an information processing device (information processing terminal 10) on the side where the client software is arranged (user side) and an information processing device (server 30) on the side where the server software is arranged. ) Is a system that divides and implements the entire processing.

情報処理端末10は、ユーザ向けに設計されたクライアントソフトウェアの配置された端末であり、例えば、図4(a)に示すようなスマートフォンであるものとする。なお、情報処理端末10は、ユーザの情報を処理可能な装置であればよく、携帯電話、タブレット型端末、装着型モバイル端末、PC(Personal Computer)、サーバ等であってもよい。   The information processing terminal 10 is a terminal in which client software designed for a user is arranged, and is, for example, a smartphone as shown in FIG. The information processing terminal 10 may be any device that can process user information, and may be a mobile phone, a tablet-type terminal, a wearable mobile terminal, a PC (Personal Computer), a server, or the like.

図2(a)には、情報処理端末10のハードウェア構成が示されている。図2(a)に示すように、情報処理端末10は、CPU(Central Processing Unit)90、ROM(Read Only Memory)92、RAM(Random Access Memory)94、記憶部(ここではHDD(Hard Disk Drive))96、ネットワークインタフェース97、表示部93、入力部95及び可搬型記憶媒体用ドライブ99等を備えている。表示部93は、図4(b)に示すような液晶ディスプレイ等を含み、入力部95は、タッチパネルのほか、ユーザの音声を取得するマイクや、撮像装置などを含む。なお、図4(b)では、マイクにのみ符号「95」を付している。これら情報処理端末10の構成各部は、バス98に接続されている。情報処理端末10では、ROM92あるいはHDD96に格納されているプログラム、或いは可搬型記憶媒体用ドライブ99が可搬型記憶媒体91から読み取ったプログラムをCPU90が実行することにより、図3の各機能が実現される。具体的には、情報処理端末10においては、CPU90がプログラムを実行することで、ユーザの状態をセンシングする情報収集部12、ユーザ向けに提示する情報を処理・管理し、履歴を保管する情報提示部14、として情報処理端末10を機能させる。   FIG. 2A shows the hardware configuration of the information processing terminal 10. As shown in FIG. 2A, the information processing terminal 10 includes a CPU (Central Processing Unit) 90, a ROM (Read Only Memory) 92, a RAM (Random Access Memory) 94, and a storage unit (here, an HDD (Hard Disk Drive). )) 96, a network interface 97, a display unit 93, an input unit 95, a portable storage medium drive 99, and the like. The display unit 93 includes a liquid crystal display as shown in FIG. 4B, and the input unit 95 includes a touch panel, a microphone that acquires a user's voice, an imaging device, and the like. In FIG. 4B, the reference numeral “95” is attached only to the microphone. Each component of the information processing terminal 10 is connected to a bus 98. In the information processing terminal 10, the CPU 90 executes a program stored in the ROM 92 or the HDD 96 or a program read from the portable storage medium 91 by the portable storage medium drive 99, thereby realizing the functions shown in FIG. The Specifically, in the information processing terminal 10, when the CPU 90 executes the program, the information collection unit 12 that senses the user's state, the information presented to the user is processed and managed, and the information presentation that stores the history The information processing terminal 10 is caused to function as the unit 14.

情報収集部12は、例えば、入力部95が取得した音声データを取得し、情報処理端末10(情報収集部12)と紐づけた状態で、サーバ30に送信する。音声データは、サーバ30において管理される(図3、図6(a)の音声入力データ記録DB40参照)。   For example, the information collection unit 12 acquires the audio data acquired by the input unit 95 and transmits the audio data to the server 30 in a state linked to the information processing terminal 10 (information collection unit 12). The voice data is managed in the server 30 (see the voice input data recording DB 40 in FIGS. 3 and 6A).

情報提示部14は、情報提示を行う。例えば、情報提示部14は、画像による情報提示(表示部93への表示)のほか、スピーカを介した音声による情報提示、触覚への刺激による情報提示等を行う。なお、ユーザへの情報提示の種類は、情報提示部14のスペック(表示部93のサイズやスピーカの許容ファイル種類等)に依存する。つまり、情報処理端末10では、情報提示に用いるインタフェースが確認されていることを前提に情報収集や情報提示が実行される。   The information presentation unit 14 presents information. For example, the information presenting unit 14 performs information presentation by an image (display on the display unit 93), information presentation by sound through a speaker, information presentation by stimulation to a tactile sense, and the like. Note that the type of information presented to the user depends on the specifications of the information presentation unit 14 (size of the display unit 93, allowable file type of the speaker, etc.). That is, the information processing terminal 10 performs information collection and information presentation on the assumption that the interface used for information presentation is confirmed.

情報収集装置20は、情報処理端末10との間で通信可能な装置であり、一例として、図4(a)に示すような腕に装着されるリストバンド型の装置であるものとする。なお、情報収集装置20としては、リストバンド型の装置に代えて、ヘアバンド型の装置などを採用してもよい。情報収集装置20は、皮膚導電データ(皮膚電気活動値)を収集し、Bluetooth(登録商標)通信等の通信経路を用いて情報処理端末10に送信する。情報処理端末10は、受信した皮膚導電データをサーバ30に送信する。皮膚電気活動値に関する技術は、「affdex社, Qセンサ(皮膚電気活動(EDA)センサ),http://qsensor-support.affectiva.com/,http://assistly-production.s3.amazonaws.com/168567/kb_article_attachments/30856/Q_User_Manual_20130329_original.pdf?AWSAccessKeyId=AKIAJNSFWOZ6ZS23BMKQ&Expires=1406699351&Signature=4lXmsO4t6XH%2FKG345KDwuHAGoDc%3D&response-content-disposition=filename%3D%22Q_User_Manual_20130329.pdf%22&response-content-type=application%2Fpdf」等に記載されている。   The information collection device 20 is a device that can communicate with the information processing terminal 10, and as an example, is assumed to be a wristband type device worn on an arm as shown in FIG. The information collecting device 20 may employ a hair band type device or the like instead of the wrist band type device. The information collection device 20 collects skin conduction data (skin electrical activity value) and transmits it to the information processing terminal 10 using a communication path such as Bluetooth (registered trademark) communication. The information processing terminal 10 transmits the received skin conduction data to the server 30. For the technology related to electrodermal activity values, see “affdex, Q sensor (Electrical electroactivity (EDA) sensor), http://qsensor-support.affectiva.com/, http://assistly-production.s3.amazonaws.com /168567/kb_article_attachments/30856/Q_User_Manual_20130329_original.pdf?AWSAccessKeyId=AKIAJNSFWOZ6ZS23BMKQ&Expires=1406699351&Signature=4lXmsO4t6XH%2FKG345KDwuHAGoDc%3D&response-content-disposition=fileQ%%% Yes.

なお、情報収集部12と情報収集装置20が収集するデータとしては、上記に限らず、ユーザ反応を導出するためのデータ、例えばユーザ記録映像、画像、音声、生体信号、脳波等を採用することができる。なお、データによっては、1種類のセンサのデータから、ユーザ反応を導出するための中間的な情報を複数抽出できる場合もある。例えば、ユーザ記録映像であれば、顔パーツに注目すれば表情の変化の大小の情報が抽出でき、顔サイズの変化に注目すれば情報処理端末10に対するユーザの姿勢変化の情報が抽出できる。   The data collected by the information collecting unit 12 and the information collecting device 20 is not limited to the above, and data for deriving a user reaction, for example, user recorded video, image, sound, biological signal, brain wave, etc. Can do. Depending on the data, a plurality of pieces of intermediate information for deriving the user response may be extracted from the data of one type of sensor. For example, in the case of a user-recorded video, information on the change in facial expression can be extracted by paying attention to the face part, and information on the change in posture of the user with respect to the information processing terminal 10 can be extracted by paying attention to the change in face size.

サーバ30は、サーバソフトウェアの配置された情報処理装置であり、ユーザのデータを集約し、整理して保管・分別・各種演算を行う。また、サーバ30は、ユーザに配信するコンテンツの提示形態の制御を含め、コンテンツ配信を同時に管理する。   The server 30 is an information processing apparatus in which server software is arranged, and aggregates and organizes user data to perform storage, sorting, and various calculations. Moreover, the server 30 manages content delivery simultaneously including control of the presentation form of the content delivered to a user.

図2(b)には、サーバ30のハードウェア構成が示されている。図2(b)に示すように、サーバ30は、CPU190、ROM192、RAM194、記憶部(HDD等)196、ネットワークインタフェース197、及び可搬型記憶媒体用ドライブ199等を備えている。これらサーバ30の構成各部は、バス198に接続されている。サーバ30では、ROM192あるいはHDD196に格納されているプログラム(社会的距離判断プログラムを含む)、或いは可搬型記憶媒体用ドライブ199が可搬型記憶媒体191から読み取ったプログラム(社会的距離判断プログラムを含む)をCPU190が実行することにより、図3の各機能が実現される。具体的には、サーバ30では、CPU190がプログラムを実行することで、情報収集処理管理部32、決定部としての情報提示処理管理部34、登録データ管理部36、表示履歴管理部38としての機能が実現されている。   FIG. 2B shows the hardware configuration of the server 30. As shown in FIG. 2B, the server 30 includes a CPU 190, a ROM 192, a RAM 194, a storage unit (HDD or the like) 196, a network interface 197, a portable storage medium drive 199, and the like. Each component of the server 30 is connected to the bus 198. In the server 30, a program (including a social distance determination program) stored in the ROM 192 or the HDD 196, or a program read by the portable storage medium drive 199 from the portable storage medium 191 (including a social distance determination program). 3 is realized by the CPU 190 executing the above. Specifically, in the server 30, functions as an information collection processing management unit 32, an information presentation processing management unit 34 as a determination unit, a registration data management unit 36, and a display history management unit 38 by the CPU 190 executing a program. Is realized.

情報収集処理管理部32は、情報収集部12からセンサ入力情報を受信し、音声入力データ記録DB40や皮膚導電データ記録DB42において管理する。情報提示処理管理部34は、情報提示部14による情報提示を制御する。登録データ管理部36は、情報収集処理管理部32が管理する情報に基づいて社会的距離スコアを算出する。表示履歴管理部38は、コンテンツの表示履歴を管理する。ここで、情報収集処理管理部32による情報収集、及び情報処理端末10に対するサーバ30(情報提示処理管理部34)からの情報提示は、ユーザに応じて行われる。すなわち、ユーザが誰であるかが確認されていることを前提に情報収集や情報提示が行われる。なお、サーバ30が有する各DBの詳細については後述する。   The information collection processing management unit 32 receives sensor input information from the information collection unit 12 and manages it in the voice input data recording DB 40 and the skin conduction data recording DB 42. The information presentation process management unit 34 controls information presentation by the information presentation unit 14. The registered data management unit 36 calculates a social distance score based on information managed by the information collection processing management unit 32. The display history management unit 38 manages the display history of content. Here, information collection by the information collection processing management unit 32 and information presentation from the server 30 (information presentation processing management unit 34) to the information processing terminal 10 are performed according to the user. That is, information collection and information presentation are performed on the assumption that the user is confirmed. Details of each DB included in the server 30 will be described later.

なお、情報処理端末10及びサーバ30においては、1つの装置上に複数のユーザ(0人のユーザでもよい)が割り当てられている場合があってもよいし、1つの装置上に複数のソフトウェアシステムが格納されていてもよい。つまり、サーバソフトウェアとクライアントソフトウェアが1台の装置上に実装されていてもよい。また、例えば、一部機能や、一部データを他の装置上に切り離して保持するなど、1つのソフトウェアシステムの機能が複数の装置に分散されていてもよい。逆に複数の装置として表現される機能を1つの装置で実現してもよい。   In the information processing terminal 10 and the server 30, a plurality of users (may be zero users) may be assigned to one device, or a plurality of software systems may be provided on one device. May be stored. That is, the server software and the client software may be implemented on one device. In addition, for example, the functions of one software system may be distributed to a plurality of devices, such as, for example, retaining some functions and some data separately on another device. Conversely, the functions expressed as a plurality of devices may be realized by one device.

(サーバ30による処理)
サーバ30では、情報処理端末10の情報収集部12から送信されたセンサ入力情報に基づいて、ユーザ反応値を作成したり、ユーザ反応値に基づいて社会的距離スコアを算出したり、算出した社会的距離スコアに応じた情報を情報処理端末10に提示したりする。以下、各処理について説明する。
(Processing by server 30)
The server 30 creates a user reaction value based on the sensor input information transmitted from the information collecting unit 12 of the information processing terminal 10, calculates a social distance score based on the user reaction value, Information corresponding to the target distance score is presented to the information processing terminal 10. Hereinafter, each process will be described.

(1)ユーザ反応値作成処理
以下、サーバ30によるユーザ反応値作成処理について、説明する。なお、本処理の前提として、情報処理端末10をユーザAが利用しているものとする。この場合、情報処理端末10の情報提示部14のユーザでもあるユーザAは、表示部93上に提示されるアプリケーションC0の情報を利用しているものとする。また、情報収集部12と情報収集装置20のユーザでもあるユーザAの音声データや皮膚導電データが、アプリケーションC0を利用している間に、情報収集部12と情報収集装置20(22)によって収集されるものとする。
(1) User Reaction Value Creation Processing Hereinafter, user reaction value creation processing by the server 30 will be described. As a premise of this process, it is assumed that the user A is using the information processing terminal 10. In this case, it is assumed that the user A who is also the user of the information presentation unit 14 of the information processing terminal 10 uses the information of the application C0 presented on the display unit 93. Further, voice data and skin conduction data of user A who is also a user of the information collecting unit 12 and the information collecting device 20 are collected by the information collecting unit 12 and the information collecting device 20 (22) while using the application C0. Shall be.

この場合、情報処理端末10の入力部95(例えばマイク)で採取された音声データは、情報処理端末10の情報収集部12において一旦収集される。また、情報収集装置20の情報収集部22で収集された皮膚導電データは、情報収集部22から情報処理端末10の情報収集部12に送信され、情報収集部12において一旦収集される。そして、一旦収集されたデータは、適当なタイミングでサーバ30の情報収集処理管理部32に送信される。   In this case, audio data collected by the input unit 95 (for example, a microphone) of the information processing terminal 10 is once collected by the information collecting unit 12 of the information processing terminal 10. Further, the skin conduction data collected by the information collecting unit 22 of the information collecting device 20 is transmitted from the information collecting unit 22 to the information collecting unit 12 of the information processing terminal 10 and is collected once by the information collecting unit 12. The data once collected is transmitted to the information collection processing management unit 32 of the server 30 at an appropriate timing.

なお、図5の処理は、サーバ30が、情報処理端末10又は情報収集装置20から一定量以上のデータを受信したタイミングで実施されるものとする。ただし、これに限らず、サーバ30は、図5の処理を所定時間間隔で定期的に行ってもよい。   5 is performed at a timing when the server 30 receives a certain amount or more of data from the information processing terminal 10 or the information collection device 20. However, the present invention is not limited to this, and the server 30 may periodically perform the process of FIG. 5 at predetermined time intervals.

図5の処理では、まず、ステップS10において、情報収集処理管理部32がセンサ入力情報(音声データと皮膚導電データ)を情報処理端末10の情報収集部12から受け取り、タイムスタンプ情報とともに音声入力データ記録DB40(図6(a))及び皮膚導電データ記録DB42(図6(b)に記録する。   In the process of FIG. 5, first, in step S10, the information collection processing management unit 32 receives sensor input information (voice data and skin conduction data) from the information collection unit 12 of the information processing terminal 10, and the voice input data together with the time stamp information. Recording is performed in the recording DB 40 (FIG. 6A) and the skin conduction data recording DB 42 (FIG. 6B).

ここで、図6(a)には、音声入力データ記録DB40のデータ構造が示され、図6(b)には、皮膚導電データ記録DB42のデータ構造が示されている。図6(a)に示すように、音声入力データ記録DB40は、「DB記録時刻」、「センサ記録開始時刻」、「センサ記録終了時刻」、「ユーザ名」、「情報収集部ID」、「音声データ記録ファイルURI」の各フィールドを有する。「DB記録時刻」のフィールドには、音声入力データ記録DB40にデータが記録された日時の情報(タイムスタンプ)が格納され、「センサ記録開始時刻」のフィールドには、音声データの記録開始日時の情報(タイムスタンプ)が格納され、「センサ記録終了時刻」のフィールドには、音声データの記録終了日時の情報(タイムスタンプ)が格納される。「ユーザ名」のフィールドには、ユーザの識別情報(名称等)が格納され、「情報収集部ID」のフィールドには、情報収集装置20の識別情報が格納される。なお、図6(a)では、情報収集部IDとして、図3において情報処理端末10の情報収集部に付与されている符号「12」、アプリケーションの識別情報「C0」等が格納される。また、「音声データ記録ファイルURI」のフィールドには、音声データのファイルの記録場所を示すURI(Uniform Resource Identifier)が格納される。   Here, FIG. 6A shows the data structure of the voice input data recording DB 40, and FIG. 6B shows the data structure of the skin conduction data recording DB 42. As shown in FIG. 6A, the voice input data recording DB 40 includes “DB recording time”, “sensor recording start time”, “sensor recording end time”, “user name”, “information collecting unit ID”, “ Each field of the “audio data recording file URI” is included. In the “DB recording time” field, information (time stamp) of the date and time when the data was recorded in the voice input data recording DB 40 is stored, and in the “sensor recording start time” field, the recording start date and time of the voice data is stored. Information (time stamp) is stored, and information (time stamp) of recording end date and time of audio data is stored in the “sensor recording end time” field. In the “user name” field, user identification information (name and the like) is stored, and in the “information collection unit ID” field, identification information of the information collection device 20 is stored. In FIG. 6A, the code “12” assigned to the information collection unit of the information processing terminal 10 in FIG. 3, the application identification information “C0”, and the like are stored as the information collection unit ID. In the “voice data recording file URI” field, a URI (Uniform Resource Identifier) indicating the recording location of the voice data file is stored.

一方、皮膚導電データ記録DB42は、図6(b)に示すように、「DB記録時刻」、「センサ記録時刻」、「ユーザ名」、「情報収集部ID」、「皮膚電気活動値」の各フィールドを有する。このうち、「センサ記録時刻」のフィールドには、情報収集装置20において付加された皮膚導電データ取得時点のタイムスタンプが格納され、「皮膚電気活動値」のフィールドには、皮膚導電データの具体的な数値が格納される。その他のフィールドについては、音声入力データ記録DB40の対応するフィールドと同様のデータが格納される。なお、本実施形態では、「情報収集部ID」のフィールドには、図3において情報収集装置20の情報収集部に付与されている符号「22」が格納される。   On the other hand, as shown in FIG. 6B, the skin conduction data recording DB 42 includes “DB recording time”, “sensor recording time”, “user name”, “information collecting unit ID”, and “skin electrical activity value”. It has each field. Among these, the “sensor recording time” field stores a time stamp at the time of skin conduction data acquisition added in the information collecting device 20, and the “skin electrical activity value” field stores the specific skin conduction data. A numeric value is stored. For the other fields, data similar to the corresponding fields in the voice input data recording DB 40 is stored. In this embodiment, the “information collection unit ID” field stores the code “22” assigned to the information collection unit of the information collection device 20 in FIG.

次いで、ステップS12では、登録データ管理部36が、各DBに記録されたセンサ入力情報を情報収集部IDごとに管理し、情報処理端末10及び情報収集装置20におけるユーザ反応値を作成する。なお、登録データ管理部36は、作成したユーザ反応値を、図7(a)に示すユーザ反応値記録DB44に記録する。ここで、ユーザ反応値記録DB44は、「DB記録時刻」、「ユーザ反応時刻」、「ユーザ名」、「装置/アプリID」、「ユーザ反応種類ラベル」、「ユーザ反応値」の各フィールドを有する。「DB記録時刻」のフィールドには、ユーザ反応値を記録した時刻の情報(タイムスタンプ)が格納され、「ユーザ反応時刻」のフィールドには、図6(a)のセンサ記録終了時刻や、図6(b)のセンサ記録時刻が格納される。「装置/アプリID」のフィールドには、ユーザ反応値を取得した装置の情報のほか、当該ユーザ反応値を示したときにユーザが見ていた情報提示部やアプリケーションの情報が格納される。「ユーザ反応種類ラベル」のフィールドには、ユーザ反応値の種類を示すラベルが格納され、「ユーザ反応値」のフィールドには、作成されたユーザ反応値が格納される。   Next, in step S12, the registration data management unit 36 manages the sensor input information recorded in each DB for each information collection unit ID, and creates user reaction values in the information processing terminal 10 and the information collection device 20. The registered data management unit 36 records the created user response value in the user response value recording DB 44 shown in FIG. Here, the user reaction value recording DB 44 includes fields of “DB recording time”, “user reaction time”, “user name”, “device / app ID”, “user reaction type label”, and “user reaction value”. Have. In the “DB recording time” field, information (time stamp) of the time when the user reaction value was recorded is stored, and in the “user reaction time” field, the sensor recording end time of FIG. The sensor recording time 6 (b) is stored. In the field of “apparatus / app ID”, in addition to information on the apparatus that acquired the user response value, information on the information presentation unit and application that the user was viewing when the user response value was displayed is stored. The “user response type label” field stores a label indicating the type of user response value, and the “user response value” field stores the created user response value.

ここで、ステップS12では、登録データ管理部36は、具体的には、外部のユーザ反応定量化技術を呼び出し、センサ入力情報に基づいてユーザ反応値(表情変化の大小、興味・関心のPositive/Neutral/Negative等)の作成を行う。この場合、情報処理端末10(情報収集部12)や情報収集装置20(情報収集部22)と紐づけてユーザ反応値が作成される。ユーザ反応の定量化方法は、既に多くの提案がなされており、本第1の実施形態では、皮膚導電データに基づいてストレスの有無を推定し、音声データに基づいてユーザのPositiveな感情又はNegativeな感情の推定を行う。なお、前者については、一例として「C. Setz et. al, Discriminating Stress From Cognitive Load Using a Wearable EDA Device, IEEE TRANSACTIONS ON INFORMATION TECHNOLOGY IN BIOMEDICINE, VOL.14, NO.2, 2010.」等に記載があり、後者については、一例として「M. E. Hoque et. al, Robust Recognition of Emotion from Speech, 6th International Conference on Intelligent Virtual Agents (IVA), 2006. 」等に記載がある。   Here, in step S12, the registration data management unit 36, specifically, calls an external user response quantification technique, and based on the sensor input information, the user response value (the magnitude of facial expression change, the interest / interest Positive / Neutral / Negative etc.). In this case, a user reaction value is created in association with the information processing terminal 10 (information collecting unit 12) and the information collecting device 20 (information collecting unit 22). Many methods for quantifying user responses have already been proposed. In the first embodiment, the presence / absence of stress is estimated based on skin conduction data, and the user's positive emotion or negative emotion is determined based on voice data. To estimate emotions. The former is described as an example in `` C. Setz et.al, Discriminating Stress From Cognitive Load Using a Wearable EDA Device, IEEE TRANSACTIONS ON INFORMATION TECHNOLOGY IN BIOMEDICINE, VOL.14, NO.2, 2010. '' The latter is described as an example in “ME Hoque et. Al, Robust Recognition of Emotion from Speech, 6th International Conference on Intelligent Virtual Agents (IVA), 2006”.

なお、登録データ管理部36は、1つのセンサデータから1つのユーザ反応値を算出してもよいし、複数のセンサデータから1つのユーザ反応値を算出してもよい。また、新しく取得したセンサデータからのみユーザ反応値を算出してもよいし、過去に記録したセンサデータを含めてユーザ反応値を算出してもよい。   The registration data management unit 36 may calculate one user response value from one sensor data, or may calculate one user response value from a plurality of sensor data. Further, the user response value may be calculated only from newly acquired sensor data, or the user response value may be calculated including sensor data recorded in the past.

本実施形態では、例えば図6(a)、図6(b)の各DBに具体的に記録されている各3つのセンサデータが新規に取得されたデータであるとすると、最下行のデータ(時刻txにセンサ記録が行われたデータ)より一定時間(k)だけ遡った時刻tx-kまでの時刻tx-k〜txのデータを用いて、時刻txのユーザ反応値を求める。つまり、皮膚導電データでいえば、センサ記録時刻が2014/7/12 11:00:01.040から一定時間遡った範囲のデータを用いて、2014/7/12 11:00:01.040のユーザ反応値を求める。この場合、図7(a)の上から1つ目のユーザ反応値が、2014/7/12 11:00:01.040の情報収集装置20(情報収集部22)に対するユーザAのストレス有無を記録したものである。すなわち、ユーザ反応値が「1」であるため、ユーザAはストレスがある状況であったと記録されていることになる。同様に、図7(a)の上から2つ目のユーザ反応値は、情報処理端末10(情報収集部12)に対するユーザAのPositive/Negativeを記録したものであり、ユーザ反応値が「N」である為、「Negative」な状況であったことが記録されていることになる。   In the present embodiment, for example, assuming that each of the three sensor data specifically recorded in each DB in FIGS. 6A and 6B is newly acquired data, the data in the bottom row ( The user response value at time tx is obtained using data from time tx-k to tx up to time tx-k that is back by a certain time (k) from the data recorded at the time tx). In other words, in the case of skin conductivity data, the sensor response time is the data that is within a certain time range from 2014/7/12 11: 00: 01.040, and the user response value of 2014/7/12 11: 00: 01.040 Ask. In this case, the first user response value from the top of FIG. 7A records the presence / absence of stress of user A on the information collection device 20 (information collection unit 22) of 2014/7/12 11: 00: 01.040. Is. That is, since the user response value is “1”, it is recorded that the user A is in a stressed situation. Similarly, the second user response value from the top in FIG. 7A is a record of User A's Positive / Negative for the information processing terminal 10 (information collecting unit 12), and the user response value is “N ", It is recorded that the situation was" Negative ".

次いで、ステップS14では、登録データ管理部36が、対応リストDB46(図7(b))を確認し、情報収集装置のIDに紐付いている、ユーザ反応を作成すべき情報提示部やアプリケーションをリストアップする。ここでリストアップされる情報提示部やアプリケーションは、ユーザ反応値の算出に伴い、ユーザ反応値を算出することができる情報提示部やアプリケーションを意味する。なお、図7(b)の対応リストDB46においては、「情報提示部/アプリID」と「情報収集部ID」とが対応付けられている。例えば、図7(b)の上から1つ目のリストにおいては、情報提示部14に対するユーザ反応を算出するのに用いることができるデータが、情報収集装置20(情報収集部22)から得られることを示している。また、上から2つ目のリストにおいては、情報提示部14に対するユーザ反応を算出するのに用いることができるデータが、情報処理端末10(情報収集部12)から得られることを示している。すなわち、図7(a)の上から1つ目と2つ目のユーザ反応値の算出では、情報収集装置20(情報収集部22)と情報処理端末10(情報収集部12)に対するユーザ反応値を算出したため、登録データ管理部36は、ステップS14において、情報収集部22,12に対応する情報提示部/アプリとして情報提示部14とアプリケーションC0をリストアップすることになる。   Next, in step S14, the registered data management unit 36 checks the correspondence list DB 46 (FIG. 7B), and lists information presenting units and applications that should create user responses, which are associated with the IDs of the information collecting devices. Up. The information presenting unit or application listed here means an information presenting unit or application that can calculate the user reaction value in accordance with the calculation of the user reaction value. In the correspondence list DB 46 of FIG. 7B, “information presentation unit / application ID” and “information collection unit ID” are associated with each other. For example, in the first list from the top in FIG. 7B, data that can be used to calculate a user response to the information presentation unit 14 is obtained from the information collection device 20 (information collection unit 22). It is shown that. The second list from the top indicates that data that can be used to calculate a user response to the information presentation unit 14 is obtained from the information processing terminal 10 (information collection unit 12). That is, in the calculation of the first and second user response values from the top of FIG. 7A, the user response values for the information collecting device 20 (information collecting unit 22) and the information processing terminal 10 (information collecting unit 12) are shown. Therefore, in step S14, the registration data management unit 36 lists the information presentation unit 14 and the application C0 as information presentation units / applications corresponding to the information collection units 22 and 12.

次いで、ステップS16では、登録データ管理部36が、リストアップされた情報提示部、アプリケーションに対して、それぞれユーザ反応値を作成する。すなわち、登録データ管理部36は、例えば、図7(a)の上から3つ目のデータにおいては、情報提示部14に対するユーザ反応値として、情報収集装置(情報収集部22)から得られた図7(a)の上から1つ目のデータを参照し、コピーする。このとき、「DB記録時刻」については、参照・コピーを行った時点の時刻を記録する。同様に図7(a)の上から4つ目のデータにおいては、図7(a)の上から1つ目のデータを参照し、コピーする。なお、アプリケーションC0に対しても同様であり、情報収集部12,22のユーザ反応値を参照し、コピーするため、図7(a)の上から5つ目のデータには、上から1つ目のデータがコピーされ、上から6つ目のデータには、上から2つ目のデータがコピーされる。   Next, in step S <b> 16, the registration data management unit 36 creates user reaction values for the listed information presentation units and applications. That is, for example, in the third data from the top of FIG. 7A, the registration data management unit 36 is obtained from the information collection device (information collection unit 22) as a user reaction value for the information presentation unit 14. Reference is made to the first data from the top of FIG. At this time, for the “DB recording time”, the time at the time of reference / copying is recorded. Similarly, in the fourth data from the top in FIG. 7A, the first data from the top in FIG. 7A is referred to and copied. The same applies to the application C0, and the user response values of the information collection units 12 and 22 are referred to and copied. Therefore, the fifth data from the top in FIG. The second data from the top is copied to the sixth data from the top.

次いで、ステップS18では、登録データ管理部36が、作成したユーザ反応値を装置/アプリIDと紐付けて、ユーザ反応値記録DB44へ追加する。   Next, in step S <b> 18, the registration data management unit 36 associates the created user response value with the device / application ID and adds it to the user response value recording DB 44.

なお、本第1の実施形態では、例えば、アプリケーションについては、複数種類のデータを用いて異なるユーザ反応種類のユーザ反応値を作成するなどしてもよい。   In the first embodiment, for example, for an application, user response values of different user response types may be created using a plurality of types of data.

(2)サーバ30による社会的距離スコア算出処理
次に、サーバ30による社会的距離スコア算出処理について、図8のフローチャートに沿って詳細に説明する。なお、図8の処理は、所定のアプリケーション(アプリケーションXと表記する)がある対話を開始する直前の時点で行うこととする。ただし、これに限らず、図8の処理は、所定時間間隔毎に定期的に行うこととしてもよい。なお、図10には、図8の処理で用いる社会的距離スコア記録DB50が示されている。この社会的距離スコア記録DB50においては、複数の指標によってベクトル表現された、各アプリケーションに対する社会的距離スコアが格納される。
(2) Social Distance Score Calculation Processing by Server 30 Next, the social distance score calculation processing by the server 30 will be described in detail along the flowchart of FIG. Note that the processing in FIG. 8 is performed immediately before starting a certain application (denoted as application X). However, the present invention is not limited to this, and the process in FIG. 8 may be performed periodically at predetermined time intervals. FIG. 10 shows the social distance score recording DB 50 used in the process of FIG. In this social distance score recording DB 50, the social distance score for each application, which is expressed in vector by a plurality of indexes, is stored.

図8の処理では、まず、ステップS30において、登録データ管理部36が、社会的距離算出タイプリストDB48を確認し、アプリケーションXについて、どの種類のユーザ反応値を用いて社会的距離スコアを算出するかを決定する。図9には、社会的距離算出タイプリストDB48の一例が示されている。この社会的距離算出タイプリストDB48は、各アプリケーションがどの社会的距離算出タイプであるかをシステムデータとして登録したテーブルである。例えば、社会的距離算出タイプリストDB48においては、アプリケーションC0の社会的距離算出タイプが{ストレス有無,Positive/Negative}と定められている。すなわち、この例では、一定時間において、アプリケーションC0に対してどのようなストレスレベルを示し、どのような感情(Positive又はNegative)を示したかを社会的距離として表すこととしている。例えば、人間と人間の関係性であれば、午前中のAさんとBさんの関係と、午後のAさんとBさんの関係の2つの関係を考える場合に、午前中のAさんはBさんとの対話時にストレスを感じNegativeな反応を多くしていて、午後のAさんはBさんとの対話時にあまりストレスを感じずPositiveな反応を多くしていたとする。この場合、午前の関係よりも午後の関係の方が、より良好な関係性であると推察できる。なお、本実施形態では、音声データから算出したPositive/Negativeのユーザ反応と、皮膚導電データから算出したストレス有無のユーザ反応とを用いるものとする。   In the process of FIG. 8, first, in step S30, the registration data management unit 36 checks the social distance calculation type list DB 48, and calculates the social distance score for any application X using any type of user reaction value. To decide. FIG. 9 shows an example of the social distance calculation type list DB 48. The social distance calculation type list DB 48 is a table in which the social distance calculation type of each application is registered as system data. For example, in the social distance calculation type list DB 48, the social distance calculation type of the application C0 is defined as {presence / absence of stress, Positive / Negative}. In other words, in this example, what stress level is shown for the application C0 and what feeling (Positive or Negative) is shown for the application C0 in a certain time is expressed as a social distance. For example, in the case of a human-human relationship, when thinking about the relationship between Mr. A and Mr. B in the morning and the relationship between Mr. A and Mr. B in the afternoon, Mr. A in the morning is Mr. B. Suppose you feel stressed when you talk with Mr. A, and you have a lot of negative reactions. In the afternoon, Mr. A doesn't feel much stress when you talk with Mr. B, and you get a lot of positive reactions. In this case, it can be inferred that the afternoon relationship is a better relationship than the morning relationship. In the present embodiment, a Positive / Negative user response calculated from speech data and a stress-existing user response calculated from skin conduction data are used.

次いで、ステップS32では、登録データ管理部36は、社会的距離スコア記録DB50(図9)を過去にさかのぼり、直近の時刻における同一アプリケーション(アプリケーションX)・同一ユーザに対する社会的距離スコア記録時刻を社会的距離計算区間開始点時刻とする。   Next, in step S32, the registration data management unit 36 goes back in the social distance score recording DB 50 (FIG. 9) and records the social distance score recording time for the same application (application X) and the same user at the latest time. The target distance calculation section start point time.

次いで、ステップS34では、登録データ管理部36は、ユーザ反応値記録DB44(図7(a))を確認し、アプリケーションXに対するユーザ反応値を取り出す。この場合、登録データ管理部36は、ステップS32で決定された社会的距離計算始点時刻から現在時刻までの複数種類のユーザ反応値を取り出す。   Next, in step S34, the registration data management unit 36 confirms the user response value record DB 44 (FIG. 7A) and takes out the user response value for the application X. In this case, the registration data management unit 36 extracts a plurality of types of user response values from the social distance calculation start time determined in step S32 to the current time.

次いで、ステップS36では、登録データ管理部36が、ステップS34において取り出したユーザ反応値に基づいて、ユーザ反応の種類ごとに当該時間区間の平均値(又は多数値)を求める。   Next, in step S36, the registration data management unit 36 obtains an average value (or multiple value) of the time interval for each type of user response based on the user response value extracted in step S34.

以下、ステップS32〜S36の具体例について、図10の上から2つ目のデータ(DB記録時刻2014/7/12 11:03:00.015)を用いて説明する。この例では、登録データ管理部36は、社会的距離スコア記録DB50を遡り、直近の同一アプリケーション、同一ユーザに対する社会的距離スコアを記録した時刻(tk-1=2014/7/12 10:59:00.015)を社会的距離計算区間始点時刻とする(S32)。そして、登録データ管理部36は、時刻tk-1〜現在時刻までの間アプリケーションC0に対するユーザ反応値を取り出す(S34)。例えば、時刻tk-1〜現在時刻のアプリケーションC0に対するユーザ反応として、ストレス有無 [1,1,1,1,0,1]と、Positive/Negativeが[Negative,Negative,Negative,Positive,Negative]がユーザ反応値記録DB44に記録されていたとする。この場合、登録データ管理部36が、これらのユーザ反応値の平均値を求めると(S36)、ストレス有無は、その平均値「0.833」とされ、Positive/Negativeは、その多数値である「Negative」となる。   Hereinafter, a specific example of steps S32 to S36 will be described using the second data (DB recording time 2014/7/12 11: 03: 00.015) from the top in FIG. In this example, the registered data management unit 36 goes back to the social distance score record DB 50 and records the social distance score for the same application and the same user (tk-1 = 2014/7/12 10:59: 00.015) is set as the social distance calculation section start time (S32). Then, the registration data management unit 36 extracts a user response value for the application C0 from time tk-1 to the current time (S34). For example, as a user response to the application C0 from time tk-1 to the current time, the presence / absence of stress [1, 1, 1, 1, 0, 1] and Positive / Negative are [Negative, Negative, Negative, Positive, Negative] It is assumed that it is recorded in the user response value record DB 44. In this case, when the registered data management unit 36 obtains an average value of these user response values (S36), the presence / absence of stress is set to the average value “0.833”, and Positive / Negative is the majority value “Negative "

次いで、図8のステップS38では、登録データ管理部36は、当該時間区間の平均値(又は多数値)を現在のタイムスタンプにおける社会的距離スコアとして社会的距離スコア記録DB50へ追加する。例えば、上記例の場合、ステップS36で求めた2つの値をベクトル値{0.833, Negative}とし、時刻tk-1〜現在時刻のアプリケーションC0に対する社会的距離スコアとして記録する。これにより、現時点のアプリケーションC0に対する社会的距離を数量化することができる。この場合、後述するように、アプリケーションC0が提示する情報を動的に変更することが可能となる。また、図10の上から3つ目のデータ以降も同様の方法で社会的距離スコアの記録が行われれば、ユーザAとアプリケーションC0の社会的距離が、当初、緊張が大きくネガティブであったものが時間の経過とともに、緊張が小さくポジティブなものへと変わっていく様子を観察することができるようになる。   Next, in step S38 of FIG. 8, the registration data management unit 36 adds the average value (or multiple value) of the time interval to the social distance score recording DB 50 as the social distance score in the current time stamp. For example, in the case of the above example, the two values obtained in step S36 are set as vector values {0.833, Negative}, and are recorded as social distance scores for the application C0 at time tk-1 to the current time. As a result, the social distance to the current application C0 can be quantified. In this case, as will be described later, the information presented by the application C0 can be dynamically changed. Also, if the social distance score is recorded in the same manner after the third data from the top of FIG. 10, the social distance between user A and application C0 was initially negative and highly negative. However, as time goes on, you will be able to observe how the tension changes to a positive one.

(3)サーバ30による情報提示処理
次に、サーバ30(情報提示処理管理部34)による情報提示処理について説明する。情報提示処理管理部34は、社会的距離スコア応じた利用範囲で、利用する情報制限を行い、情報提示を行う。
(3) Information presentation process by server 30 Next, the information presentation process by the server 30 (information presentation process management part 34) is demonstrated. The information presentation processing management unit 34 restricts information to be used and presents information within a usage range corresponding to the social distance score.

上記(2)の処理において、ある時点の対話生成前の時点における、ユーザAとアプリケーションC0との社会的距離スコア{ストレス有無, Positive/Negative }が明確になったため、情報提示処理管理部34は、対話生成においてどの範囲の情報利用を行うことができるかを、社会的距離スコアに基づいて制御する。   In the process of (2) above, since the social distance score {stress presence / absence, Positive / Negative} between the user A and the application C0 at the time before the dialog generation at a certain time is clarified, the information presentation processing management unit 34 The range of information that can be used in dialog generation is controlled based on the social distance score.

図11には、本処理で情報提示処理管理部34が用いる情報利用制限リストDB52の一例が示されている。図11の情報利用制限リストDB52では、例えば、アプリケーションC0に対し、社会的距離タイプ{ストレス有無, Positive/Negative}を用いて、情報利用レベル1〜3の情報利用制限が設けられているものとする。なお、情報利用レベルと情報の紐づけは様々な形態があってよいが、例えば、各レベルで利用可能なユーザ情報タイプとして、レベル1であれば「プロフィール情報」、レベル2であれば「履歴情報」、レベル3であれば「プライバシ情報」などと規定することができる。   FIG. 11 shows an example of the information use restriction list DB 52 used by the information presentation process management unit 34 in this process. In the information use restriction list DB 52 of FIG. 11, for example, information use restrictions of information use levels 1 to 3 are provided for the application C0 using the social distance type {stress presence / absence, Positive / Negative}. To do. Note that there are various forms of associating information usage levels and information. For example, the user information type that can be used at each level is “profile information” for level 1 and “history” for level 2. “Information”, Level 3 can be defined as “Privacy information”.

例えば、現在時刻が2014/7/12 13:02.13.044であり、図10の上から5つ目の社会的距離スコアを記録した直後であるとすると、社会的距離スコア{0.222, Positive}は、情報利用制限リストDB52を参照すると、情報利用レベルが3に相当するので、プライバシ情報に含まれるより多くの情報を利用することができることになる。   For example, if the current time is 2014/7/12 13: 02.13.044 and immediately after the fifth social distance score from the top of FIG. 10 is recorded, the social distance score {0.222, Positive} Referring to the information use restriction list DB 52, the information use level corresponds to 3, so that more information included in the privacy information can be used.

以上、詳細に説明したように、本第1の実施形態によると、登録データ管理部36は、アプリケーションを使用している間のユーザの感情を特定する情報(ユーザ反応値)を特定し、アプリケーションを使用している間のユーザ反応値に基づいて、アプリケーションに対する社会的距離スコアを判断する。これにより、登録データ管理部36は、ユーザがアプリケーションに対してどのような社会的距離を感じているかを自動的に判断することが可能となる。   As described above in detail, according to the first embodiment, the registration data management unit 36 specifies information (user reaction value) that specifies the user's emotion while using the application, and the application A social distance score for the application is determined based on a user response value while using. Thereby, the registration data management unit 36 can automatically determine what social distance the user feels to the application.

また、本第1の実施形態では、情報提示処理管理部34は、アプリケーションに対する社会的距離スコアに基づいて、情報利用レベルを決定するので、ユーザがアプリケーションに対して感じている社会的距離に合った情報をユーザに対して提示することができる。これにより、社会的距離感にそぐわない、前置きのない、唐突で、勝手な情報利用を伴う情報提示を行うことにより、ユーザが“このサービス、私が何を見たかの情報まで使用するサービスだなんて知らなかった。”等といった、アプリケーションに対する嫌悪感を抱くのを抑制することができる。このようにすることで、結果的に、アプリケーションとユーザとの間の良好な関係が維持され、ユーザがアプリケーションを継続的に利用する可能性を高めることができる。   In the first embodiment, the information presentation processing management unit 34 determines the information usage level based on the social distance score for the application, so that it matches the social distance that the user feels for the application. Information can be presented to the user. By presenting information that is not suitable for social distance, has no predecessor, is abrupt, and uses information without permission, the user knows that this service is a service that uses information up to what I have seen. It is possible to suppress the dislike of the application such as “No.”. By doing in this way, as a result, the favorable relationship between an application and a user is maintained, and it can raise the possibility that a user will use an application continuously.

また、本第1の実施形態では、登録データ管理部36は、情報収集処理管理部32で収集されたユーザの生体情報を用いてユーザ反応値や社会的距離スコアを算出するので、社会的距離を調査するためのアンケートを作成したり、ユーザにアンケートへの回答を強いることがなくなる。   In the first embodiment, the registration data management unit 36 calculates a user reaction value and a social distance score using the user's biometric information collected by the information collection processing management unit 32. It is no longer necessary to create a questionnaire for investigating and to force the user to answer the questionnaire.

≪第2の実施形態≫
以下、第2の実施形態について、図12〜図17に基づいて、詳細に説明する。本第2の実施形態では、複数アプリケーションへのユーザ反応差を用いた相対的な社会的距離スコアを算出する例について説明する。
<< Second Embodiment >>
Hereinafter, the second embodiment will be described in detail with reference to FIGS. In the second embodiment, an example of calculating a relative social distance score using user response differences to a plurality of applications will be described.

図12には、第2の実施形態に係る情報提供システム200の構成が概略的に示され、図13には、情報提供システム200をユーザが利用している状況が模式的に示されている。   FIG. 12 schematically illustrates the configuration of the information providing system 200 according to the second embodiment, and FIG. 13 schematically illustrates a situation in which the user is using the information providing system 200. .

本第2の実施形態では、ユーザAが使用しているアプリケーションが複数同時に存在している例として、3D提示空間のパーソナライズを用いて説明する。本アプリケーションでは、図13に示すような1つの建屋を歩いていく中で、提示される空間が個人によって異なる仕様となっている。建屋内には情報処理端末10a、10bや情報収集装置20’、情報提示装置110等が存在し、これらの情報はサーバ30において統括されている。ここで、図13に示すように、情報処理端末10aは、案内ボード型情報端末であり、情報処理端末10bは、装着型の端末であるものとする。情報処理端末10a,10bは、第1の実施形態の情報処理端末10と同様、情報収集部12と情報提示部14とを有しているものとする。情報収集装置20’は、小型ビデオ録画器であり、情報収集装置20’も第1の実施形態の情報収集装置20と同様、情報収集部22を有しているものとする。情報提示装置110は、プロジェクタやスピーカなどの出力装置である。また、サーバ30は、第1の実施形態と同様、図3に示す情報収集処理管理部32、情報提示処理管理部34、登録データ管理部36、表示履歴管理部38を有している。なお、情報処理端末10a,10b、情報収集装置20’、情報提示装置110、及びサーバ30は、ネットワーク80に接続されている。   In the second embodiment, an example in which a plurality of applications used by the user A exist at the same time will be described using personalization of a 3D presentation space. In this application, while walking through one building as shown in FIG. 13, the presented space has different specifications depending on the individual. There are information processing terminals 10a and 10b, an information collection device 20 ', an information presentation device 110, and the like in the building, and these pieces of information are integrated in the server 30. Here, as shown in FIG. 13, the information processing terminal 10a is a guide board type information terminal, and the information processing terminal 10b is a wearable terminal. The information processing terminals 10a and 10b are assumed to have an information collection unit 12 and an information presentation unit 14 as in the information processing terminal 10 of the first embodiment. The information collection device 20 'is a small video recorder, and the information collection device 20' has an information collection unit 22 as in the information collection device 20 of the first embodiment. The information presentation device 110 is an output device such as a projector or a speaker. Similarly to the first embodiment, the server 30 includes the information collection processing management unit 32, the information presentation processing management unit 34, the registration data management unit 36, and the display history management unit 38 shown in FIG. The information processing terminals 10a and 10b, the information collection device 20 ', the information presentation device 110, and the server 30 are connected to the network 80.

図13において、ユーザAは、装着型の情報処理端末10bを装着(携帯)し、情報処理端末10bにおいて、アプリケーションC0を利用している。このアプリケーションC0は、ユーザにパーソナライズされた3D空間が提示されるアプリケーションであり、空間内を帯同して歩くコンパニオン型のソフトウェアエージェントとの対話の提示・処理も行う。アプリケーションC0は情報処理端末10bの情報提示部14を通じて情報提示を行い、小型ビデオ録画機器である情報収集部12を通じて音声と画像データの収集を行う。情報提示・情報収集にあたっては、情報処理端末10bとサーバ30との間の通信も成立しており、ユーザAが建屋内のサービスを利用し始めた段階で、情報処理端末10bの情報収集部12で採取された情報も、サーバ30へ送付され、保管される。   In FIG. 13, a user A wears (carries) a wearable information processing terminal 10b, and uses the application C0 in the information processing terminal 10b. The application C0 is an application that presents a personalized 3D space to the user, and also presents and processes a dialog with a companion software agent that walks in the space. The application C0 presents information through the information presentation unit 14 of the information processing terminal 10b, and collects voice and image data through the information collection unit 12 that is a small video recording device. In the information presentation / information collection, communication between the information processing terminal 10b and the server 30 is also established, and when the user A starts using the service in the building, the information collecting unit 12 of the information processing terminal 10b. The information collected in step 1 is also sent to the server 30 and stored.

また、ユーザAは、建屋側の情報提示・収集を行うことで複数ユーザが同じ空間に共存するための最適提示を行うアプリケーションC1を利用している。アプリケーションC1は情報提示装置110を通じて建屋の壁や床や中空への情報のプロジェクションを通じた情報提示を行うとともに、情報収集装置20’を通じて音声と画像のデータ収集を行う。   In addition, the user A uses an application C1 that performs optimal presentation for a plurality of users to coexist in the same space by presenting and collecting information on the building side. The application C1 presents information through the information presentation device 110 through projection of information on the walls, floors, and hollows of the building, and collects voice and image data through the information collection device 20 '.

さらに、ユーザAは、建屋側に設置された案内ボード型の情報処理端末10a上で、3D空間全体の案内アプリケーションC2を利用している。アプリケーションC2は情報処理端末10a付属の画面(情報提示部14)を通じて情報提示を行い、情報処理端末10a前面に付属した小型ビデオ録画機器である情報収集部12を通じて音声と画像データ収集を行う。なお、本実施形態では、説明の便宜上、各アプリケーションは、1つの装置の情報を利用することとしているが、これに限られるものではない。例えば、アプリケーションC2が情報収集装置20’の収集した情報を使用する等、サーバ30上に収集・蓄積したデータを多数のアプリケーションが使用することとしてもよい。   Furthermore, the user A uses the guidance application C2 for the entire 3D space on the guidance board type information processing terminal 10a installed on the building side. The application C2 presents information through a screen (information presentation unit 14) attached to the information processing terminal 10a, and collects audio and image data through the information collection unit 12 which is a small video recording device attached to the front surface of the information processing terminal 10a. In this embodiment, for convenience of explanation, each application uses information of one device, but the present invention is not limited to this. For example, a number of applications may use data collected and stored on the server 30 such that the application C2 uses information collected by the information collection device 20 '.

サーバ30は、第1の実施形態と同様の方法で、情報収集装置20’におけるユーザ反応値、情報提示部14に対するユーザ反応値、各アプリケーションC0〜C2に対するユーザ反応値を算出・記録する。なお、本第2の実施形態におけるユーザ反応値は、アプリケーションC0は情報処理端末10bの情報提示部14と情報収集部12と同一視され、アプリケーションC1は情報提示装置110と情報収集装置20’と同一視され、アプリケーションC2は情報処理端末10aの情報提示部14と情報収集部12と同一視される。なお、この情報は、図7(b)と同様のリストにより定義されている。   The server 30 calculates and records the user reaction value in the information collection device 20 ′, the user reaction value for the information presentation unit 14, and the user reaction value for each of the applications C 0 to C 2 by the same method as in the first embodiment. Note that the user reaction values in the second embodiment are that the application C0 is identified with the information presentation unit 14 and the information collection unit 12 of the information processing terminal 10b, and the application C1 is the information presentation device 110 and the information collection device 20 ′. The application C2 is identified with the information presenting unit 14 and the information collecting unit 12 of the information processing terminal 10a. This information is defined by a list similar to that shown in FIG.

本第2の実施形態では、ユーザ反応値は全てビデオ映像に含まれる画像と音声を用いて算出するものとする。なお、使用するユーザ反応種類としては、全ての装置とアプリケーションで共通に、「対話時表情変化の大小」と、「興味・関心のPositive/Neutral/Negative」を求めるものとする。なお、第1の実施形態と同様、ユーザ反応の定量化技術については、既存の技術を用いるため、詳細については省略する。なお、表情変化や興味・関心の定量化手法としては、「Emotient社, Emotient API , http://www.emotient.com/products」や「iMotions社,Attention Tool API,http://imotionsglobal.com/software/attention-tool-api/」などに記載の技術を採用することができる。   In the second embodiment, all user response values are calculated using images and audio included in the video image. As user response types to be used, “size of facial expression change during dialogue” and “Positive / Neutral / Negative of interest / interest” are obtained in common for all devices and applications. As in the first embodiment, since the existing technique is used for the user response quantification technique, details are omitted. For quantification of facial expression changes and interests / interests, “Emotient, Emotient API, http://www.emotient.com/products” and “iMotions, Attention Tool API, http://imotionsglobal.com” The technology described in "/ software / attention-tool-api /" can be employed.

図14には、ユーザ反応値記録DB44’(第1の実施形態における図7(a)のユーザ反応値記録DB44に対応)が示されている。このユーザ反応値記録DB44’は、アプリケーションに対するユーザ反応値を記録するものであり、「DB記録時刻」、「ユーザ反応時刻」、「ユーザ名」、「アプリID」、「ユーザ反応種類ラベル」、「ユーザ反応値」の各フィールドを有する。各フィールドの詳細は、図7(a)のユーザ反応値記録DB44と同様である。なお、例えば、図14の上から3つ目のデータには、ユーザ反応値が記録されていない(N/A(not available))が、これは、収集されたビデオ映像には、アプリケーションC1に対する対話が当該時間帯で存在しなかったためである。   FIG. 14 shows a user reaction value record DB 44 ′ (corresponding to the user reaction value record DB 44 of FIG. 7A in the first embodiment). This user response value recording DB 44 ′ records user response values for applications, and includes “DB recording time”, “user response time”, “user name”, “application ID”, “user response type label”, Each field includes “user response value”. Details of each field are the same as those in the user response value record DB 44 in FIG. Note that, for example, the user response value is not recorded in the third data from the top in FIG. 14 (N / A (not available)), but this indicates that the collected video image corresponds to the application C1. This is because the dialogue did not exist in that time zone.

(サーバ30による相対的社会的距離スコアの算出処理)
図15には、サーバ30において実行される、相対的な社会的距離スコアの算出処理がフローチャートにて示されている。
(Process of calculating relative social distance score by server 30)
FIG. 15 is a flowchart showing a relative social distance score calculation process executed in the server 30.

図15の処理は、ユーザAがある対話を開始する直前の時点で行われるものとする。ただし、これに限らず、図15の処理は、所定時間間隔毎に定期的に行うこととしてもよい。なお、以下においては、アプリケーションC0がユーザAとの対話を開始する直前である場合について説明する。   The processing in FIG. 15 is assumed to be performed immediately before the user A starts a certain dialogue. However, the present invention is not limited to this, and the processing in FIG. 15 may be performed periodically at predetermined time intervals. In the following, a case will be described in which the application C0 is immediately before starting a conversation with the user A.

図15の処理では、まずステップS50において、サーバ30の登録データ管理部36は、相対的社会的距離算出タイプリストDB48’(図16(a)参照)を確認し、アプリケーションX(ここでは、C0)について、比較アプリケーションごとにどの種類のユーザ反応値を用いるかを決定する。ここでは、登録データ管理部36は、相対的社会的距離算出タイプリストDB48’のうち、アプリケーションC0の比較アプリケーション(C1、C2)のそれぞれにおいて、どの種類のユーザ反応値を用いるかを参照する。図16(a)の場合、いずれも{対話時表情変化, 興味・関心}が、相対的社会的距離算出タイプとなる。   In the process of FIG. 15, first, in step S50, the registered data management unit 36 of the server 30 confirms the relative social distance calculation type list DB 48 ′ (see FIG. 16A), and the application X (here, C0). ), It is determined which type of user response value is used for each comparison application. Here, the registered data management unit 36 refers to which type of user reaction value is used in each of the comparison applications (C1, C2) of the application C0 in the relative social distance calculation type list DB 48 '. In the case of FIG. 16 (a), {change in facial expression during dialogue, interest / interest} is the relative social distance calculation type.

次いで、ステップS52では、登録データ管理部36は、相対的社会的距離スコア記録DB50’(図16(b)参照)をさかのぼり、直近の時刻における同一アプリケーションC0・同一ユーザに対する社会的距離スコア記録時刻を社会的距離計算区間始点時刻とする。ここで、図16(b)の相対的社会的距離スコア記録DB50’は、第1の実施形態の社会的距離スコア記録DB50(図10)とほぼ同様であるが、「比較アプリID」のフィールドが設けられている点、及び「社会的距離スコア」に代えて「相対的社会的距離スコア」のフィールドが設けられている点が異なる。このステップS52では、例えば、直近の時刻tk-1における記録が、アプリケーションC1との比較では、2014/7/13 10:50:00.064、アプリケーションC2との比較では、2014/7/13 10:50:00.078であるものとし、それぞれのアプリケーションに対する社会的距離計算区間始点時刻とする。   Next, in step S52, the registration data management unit 36 goes back to the relative social distance score recording DB 50 ′ (see FIG. 16B) and records the social distance score recording time for the same application C0 and the same user at the latest time. Is the social distance calculation section start time. Here, the relative social distance score record DB 50 ′ of FIG. 16B is substantially the same as the social distance score record DB 50 (FIG. 10) of the first embodiment, but the field of “comparison application ID” And a field of “relative social distance score” instead of “social distance score”. In this step S52, for example, recording at the latest time tk-1 is 2014/7/13 10: 50: 00.064 in comparison with the application C1, and 2014/7/13 10:50 in comparison with the application C2. 00.078 and the social distance calculation section start time for each application.

次いで、ステップS54では、登録データ管理部36は、ユーザ反応値記録DB44’(図14)を確認し、社会的距離計算区間始点時刻〜現在時刻のアプリケーションX(C0)に対するユーザ反応値を取り出す。例えば、時刻tk-1〜現在時刻のC0に対するユーザ反応として、対話時表情変化[大,大,大,小,大,小,大]、興味・関心[Positive,Negative,Neutral,Negative,Positive,Positive,Positive]が取り出されたとする。また、アプリケーションC1に対するユーザ反応として、対話時表情変化[N/A,小,N/A]、興味・関心[Positive,Negative,Neutral]が取り出され、アプリケーションC2に対するユーザ反応として、対話時表情変化[小,N/A,小,小]、興味・関心[Positive,Neutral,Negative,Negative]が取り出されたとする。   Next, in step S54, the registered data management unit 36 confirms the user response value record DB 44 '(FIG. 14), and extracts the user response value for the application X (C0) from the social distance calculation section start time to the current time. For example, as a user response to C0 from time tk-1 to the current time, facial expression changes during conversation [Large, Large, Large, Small, Large, Small, Large], Interests [Positive, Negative, Neutral, Negative, Positive, Assume that [Positive, Positive] is extracted. Also, as the user response to application C1, the facial expression change during dialogue [N / A, Small, N / A] and the interest / interest [Positive, Negative, Neutral] are taken out, and the facial expression change during dialogue as the user response to application C2 It is assumed that [small, N / A, small, small] and interest [Positive, Neutral, Negative, Negative] are extracted.

次いで、ステップS56では、登録データ管理部36は、取り出したユーザ反応値を基に、ユーザ反応の種類ごとに当該時間間隔における相対的な平均値を求める。ここで、相対的な平均値の求め方は、アプリケーション毎に時刻tk-1〜現在時刻のデータを平均してからアプリケーション間で比較をすることとしてもよいが、時刻tk-1〜現在時刻のデータの前半同士、後半同士を比較した後に平均することとしてもよい。また、中央値や多数値の採用等、その他の方法を用いてもよい。   Next, in step S56, the registration data management unit 36 obtains a relative average value in the time interval for each type of user response based on the extracted user response value. Here, the relative average value may be calculated by averaging the data from time tk-1 to the current time for each application and then comparing between the applications. It is good also as averaging after comparing the first half of data and the second half. In addition, other methods such as adoption of a median value or multiple values may be used.

例えば、アプリケーションC0に関して、対話時表情変化では多数値をとることとすると、時刻tk-1〜現在時刻における多数値は[大]となり、興味・関心においてPositiveを1、Neutralを0.5、Negativeを0として平均値を算出することとすると、時刻tk-1〜現在時刻における平均値は[Positive]となる(0.4〜0.6=Neutralとした場合)。また、アプリケーションC1において、同様の方法を採用すると、対話時表情変化では[N/A]、興味・関心は[Neutral]となり、アプリケーションC2の対話時表情変化では[小]、興味・関心では[Negative]となる。この場合、アプリケーションC0の結果は、アプリケーションC1と比較すると対話時表情変化は[N/A](比較対象がない)となり、興味・関心は[possibly positive](Positiveであった可能性がある)となる。また、アプリケーションC2と比較すると対話時表情変化は[Larger](変化が大きい)となり、興味・関心は[Positive](Positiveであった)となる。   For example, regarding application C0, if a large number of values are taken in the expression change during dialogue, the majority value from time tk-1 to the current time is [Large], and in interest / interest, Positive is 1, Neutral is 0.5, Negative If the average value is calculated with 0 being 0, the average value from time tk-1 to the current time is [Positive] (when 0.4 to 0.6 = Neutral). If the same method is used in application C1, [N / A] and interest / interest are [Neutral] for facial expression changes during dialogue, [Small] for facial expression changes during application C2, and [ Negative]. In this case, the result of the application C0 is [N / A] (no comparison target) as compared to the application C1, and the interest / interest is [possibly positive] (possibly positive). It becomes. Compared with application C2, the expression change during dialogue is [Larger] (the change is large), and the interest / interest is [Positive] (which was Positive).

次いで、ステップS58では、登録データ管理部36は、当該時間間隔の平均値を現在のタイムスタンプにおける相対的社会的距離スコアとして相対的社会的距離スコア記録DB50’(図16(b))へ追加する。この場合、登録データ管理部36は、上記ステップS56で求められた結果をベクトル値として、時刻tk-1〜現在時刻のアプリケーションC0をアプリケーションC1と比較した場合の相対的社会的距離スコア{N/A, Possibly positive}と、アプリケーションC0をアプリケーションC2と比較した場合の相対的社会的距離スコア{Larger, Positive}を相対的社会的距離スコア記録DB50’に記録する(図16(b)の上から3つ目、4つ目のデータ参照)。   Next, in step S58, the registered data management unit 36 adds the average value of the time interval to the relative social distance score recording DB 50 ′ (FIG. 16B) as the relative social distance score in the current time stamp. To do. In this case, the registration data management unit 36 uses the result obtained in step S56 as a vector value and compares the application C0 at time tk-1 to the current time with the application C1 relative social distance score {N / A, Possibly positive} and the relative social distance score {Larger, Positive} when the application C0 is compared with the application C2 are recorded in the relative social distance score record DB 50 ′ (from the top of FIG. 16B). (Refer to the third and fourth data).

このようにすることで、本第2の実施形態では、現時点のアプリケーションC0に対する他のアプリケーションと比較した場合の相対的社会的距離を数量化することができる。   By doing in this way, in this 2nd embodiment, relative social distance at the time of comparing with other applications to current application C0 can be quantified.

(サーバ30による情報提示処理)
次に、情報提示処理管理部34が実行する、相対的社会的距離スコアに基づくユーザへの情報提示処理について説明する。図17には、本第2の実施形態で用いる記録部としての不快反応DB152が示されている。
(Information presentation processing by the server 30)
Next, the information presentation process to the user based on the relative social distance score executed by the information presentation process management unit 34 will be described. FIG. 17 shows an unpleasant reaction DB 152 as a recording unit used in the second embodiment.

不快反応DB152は、ユーザが過去にアプリケーションを利用した際に不快に感じたか否かを情報利用レベルとともに格納するデータベースである。不快反応DB152は、図17に示すように、「DB記録時刻」、「ユーザ名」、「アプリID」、「情報利用レベル」、「不快反応」の各フィールドを有する。例えば、図17の上から1つ目のデータによれば、ユーザAに対してアプリケーションC2から情報利用レベル「2」の情報が提供された結果、ユーザAが不快反応を示したことがわかる。また、図17の上から3つ目のデータによれば、ユーザAに対してアプリケーションC2から情報利用レベル「2」の情報が提供された結果、ユーザAが不快反応を示さなくなったことがわかる。   The unpleasant reaction DB 152 is a database that stores whether or not the user feels uncomfortable when using the application in the past, together with the information usage level. As shown in FIG. 17, the unpleasant reaction DB 152 includes fields of “DB recording time”, “user name”, “application ID”, “information usage level”, and “unpleasant reaction”. For example, according to the first data from the top of FIG. 17, it can be seen that the user A showed an unpleasant reaction as a result of the information C2 being provided to the user A from the application C2. In addition, according to the third data from the top in FIG. 17, it is understood that as a result of the information C2 being provided to the user A from the application C2, the user A no longer exhibits an unpleasant reaction. .

ここで、ユーザ反応が他の人と異なり、はっきりと出にくい場合等においては、第1の実施形態で説明した社会的距離スコアを用いた場合に、スコアが表に出にくいことがある。そこで、本第2の実施形態では、ユーザの他のアプリケーションへのユーザ反応と比較した社会的距離感(相対的社会的距離スコア)を用いることで、適切な情報をユーザに提示するものとする。   Here, when the user reaction is different from other people and it is difficult to obtain a clear response, when the social distance score described in the first embodiment is used, the score may be difficult to appear on the table. Therefore, in the second embodiment, appropriate information is presented to the user by using a sense of social distance (relative social distance score) compared to the user's reaction to other applications of the user. .

例えば、情報提示処理管理部34は、ユーザAがアプリケーションC0を利用する直前に、図16(b)の相対的社会的距離スコア記録DB50’を参照する。そして、情報提示処理管理部34は、直近の相対的社会的距離スコアから、アプリケーションC0とほぼ同一の対話時表情変化、興味・関心を示すアプリケーションを抽出する。なお、「ほぼ同一」とは、同一又は差分が所定範囲であることを意味する。ここでは、一例として、アプリケーションC2が抽出されたとする。   For example, the information presentation processing management unit 34 refers to the relative social distance score recording DB 50 ′ in FIG. 16B immediately before the user A uses the application C 0. And the information presentation process management part 34 extracts the application which shows the expression change at the time of dialog, and interest / interest almost the same as application C0 from the latest relative social distance score. Note that “substantially the same” means that the same or difference is within a predetermined range. Here, as an example, it is assumed that the application C2 is extracted.

また、情報提示処理管理部34は、図17のユーザ名=「UserA」、アプリID=「C2」のデータを参照して、直近においてアプリケーションC2をユーザAが利用した際に、不快反応を示していない情報利用レベル(図17の場合、情報利用レベル=「2」)を決定する。そして、情報提示処理管理部34は、アプリケーションC0の情報利用レベルを決定した利用レベル(=2)とし、ユーザAに対して情報提示を行うようにする。このようにすることで、たとえ、アプリケーションC0において適切な情報提示を行うことが可能である。   In addition, the information presentation processing management unit 34 refers to the data of the user name = “UserA” and the application ID = “C2” in FIG. 17, and shows an unpleasant reaction when the user A uses the application C2 most recently. The information usage level (in the case of FIG. 17, information usage level = “2”) is determined. Then, the information presentation process management unit 34 sets the information usage level of the application C0 to the determined usage level (= 2) and presents information to the user A. In this way, it is possible to present appropriate information in the application C0.

なお、これまでの説明からわかるように、本第2の実施形態では、アプリケーションを使用している間のユーザ反応値を特定する特定部、及び複数アプリケーションを使用している間のユーザ反応値に基づいて、複数のアプリケーション間の相対的社会的距離を判断する判断部の一例として、登録データ管理部36が挙げられる。   As can be seen from the above description, in the second embodiment, a user response value while using a plurality of applications and a specifying unit for specifying a user response value while using an application are used. An example of a determination unit that determines the relative social distance between a plurality of applications based on the registration data management unit 36 is given.

以上、詳細に説明したように、本第2の実施形態によると、登録データ管理部36は、アプリケーションを使用している間のユーザの感情を特定する情報(ユーザ反応値)を特定し、複数のアプリケーションを使用している間のユーザ反応値に基づいて、複数アプリケーション間の相対的な社会的距離スコアを判断する。これにより、登録データ管理部36は、ユーザがアプリケーションに対して相対的にどのような社会的距離を感じているかを自動的に判断することが可能となる。   As described above in detail, according to the second embodiment, the registration data management unit 36 specifies information (user response value) that specifies the user's emotion while using the application, A relative social distance score between a plurality of applications is determined based on a user reaction value while using the application. As a result, the registered data management unit 36 can automatically determine what social distance the user feels relative to the application.

また、本第2の実施形態では、情報提示処理管理部34は、複数アプリケーションに対する相対的社会的距離スコアに基づいて、あるアプリケーション(第1アプリケーション)に対する情報利用レベルを決定するので、ユーザがあるアプリケーションに対して感じている社会的距離に合った情報をユーザに対して提示することができる。この場合、情報提示処理管理部34は、相対的社会的距離スコア記録DB50’を参照して、あるアプリケーション(第1のアプリケーション)と社会的距離スコアが等しい又は差分が所定範囲のアプリケーション(第2のアプリケーション)を抽出し、該第2のアプリケーションがユーザに所定の情報利用レベルの情報を提供している間に特定されたユーザの感情を特定する情報(不快か否か)に基づいて、第1のアプリケーションが提供する情報の情報利用レベルを決定する。このため、第2のアプリケーションに対するユーザの感情を特定する情報に基づいて、第1のアプリケーションの適切な情報利用レベルを決定することができる。   In the second embodiment, the information presentation processing management unit 34 determines the information usage level for a certain application (first application) based on the relative social distance score for a plurality of applications. Information suitable for the social distance felt for the application can be presented to the user. In this case, the information presentation processing management unit 34 refers to the relative social distance score recording DB 50 ′, and an application (second application) whose social distance score is equal to or different from a certain application (first application). Based on the information (whether or not it is uncomfortable) that identifies the user's emotions identified while the second application provides the user with information of a predetermined information usage level. The information usage level of information provided by one application is determined. For this reason, the appropriate information usage level of the first application can be determined based on the information specifying the user's feelings with respect to the second application.

なお、本第2の実施形態においては、1つのアプリケーションを1つのアプリケーションと1対1で比較する場合について説明したが、これに限らず、1つのアプリケーションとその他のアプリケーションというように1対多で比較するようにしてもよい。   In the second embodiment, a case where one application is compared with one application on a one-to-one basis has been described. However, the present invention is not limited to this, and one application is a one-to-many relationship with another application. You may make it compare.

なお、上記第1の実施形態の社会的距離スコアと、第2の実施形態の相対的社会的距離スコアの両方を指標として用いることとしてもよい。この場合、社会的距離スコアと相対的社会的距離スコアとを1つのベクトルで表現することとしてもよい。   Note that both the social distance score of the first embodiment and the relative social distance score of the second embodiment may be used as indices. In this case, the social distance score and the relative social distance score may be expressed by one vector.

(変形例1)
なお、上記実施形態では、社会的距離スコア又は相対的社会的距離スコアと、情報利用時の不快反応の履歴とを用いて、情報利用制限を追加することとしてもよい。すなわち、上記第1の実施形態では、センサ入力情報(皮膚導電データ、音声データ、映像データ等)を用いて算出したユーザ反応値から、ある時点の対話生成前の時点における、ユーザとアプリケーションC0との社会的距離スコア(相対的社会的距離スコア)を求め、図11のように情報利用レベルを制御し、適切な情報利用を前提とした対話内容を生成したが、このような場合であっても、ユーザにとって不快な情報利用であることもある。したがって、本変形例1では、例えば、情報提示処理管理部34は、対話に対するユーザ反応が不快な感覚を示すものであった場合には、対話生成の直前に算出した社会的距離スコア(相対的社会的距離スコア)と情報利用レベルをセットにして、図18に示すように、社会的距離スコア記録DBへ記録する。
(Modification 1)
In the above embodiment, information usage restrictions may be added using the social distance score or relative social distance score and the history of unpleasant reactions during information use. That is, in the first embodiment, the user and the application C0 at the time before the dialog generation at a certain time are calculated from the user reaction values calculated using the sensor input information (skin conduction data, audio data, video data, etc.) The social distance score (relative social distance score) was calculated, the information usage level was controlled as shown in FIG. 11, and the dialogue content premised on appropriate information usage was generated. In this case, However, it may be an unpleasant use of information for the user. Therefore, in the first modification, for example, when the user response to the dialogue indicates an unpleasant sensation, the information presentation processing management unit 34 calculates a social distance score (relative to the generation of the dialogue). (Social distance score) and information use level are set and recorded in the social distance score record DB as shown in FIG.

また、本変形例1では、情報提示処理管理部34は、一定時間ごと(例えば1日おき)や一定データ量収集されるごと(例えば不快反応記録が登録ユーザ数と同程度集まるごと)に、図19に示す情報利用制限リストDB52’に情報利用追加制限を設定する処理を実行する。この処理では、情報提示処理管理部34は、図18において不快反応の顕著なパターンがある場合に、図19において情報利用追加制限を設定する。   Moreover, in this modification 1, the information presentation process management part 34 is every fixed time (for example, every other day), or whenever a fixed amount of data is collected (for example, every time an unpleasant reaction record collects as many as the number of registered users), Processing for setting an additional information usage restriction in the information usage restriction list DB 52 ′ shown in FIG. 19 is executed. In this process, the information presentation process management unit 34 sets the additional information use restriction in FIG. 19 when there is a significant pattern of unpleasant reaction in FIG.

この場合、図18に蓄積されたデータのうちの顕著なパターンとしては、例えば一定数以上のユーザが不快と反応しているものや、1人のユーザで一定回数以上不快と反応しているもの等が挙げられる。例えば、図18において、アプリケーションC0が情報利用レベル「2」の情報提示を行った場合に、不快反応を示したユーザはuser1〜user3である。また、社会的距離スコアでまとめると{0.412〜0.578,Negative}で2人、{0.500,Positive}で1人が不快反応を示している。したがって、例えば2人以上が不快反応を示した社会的距離スコアが不適当であるとするならば、情報提示処理管理部34は、社会的距離スコアが{0.412〜0.578, Negative}の場合に、情報利用レベル2の情報利用を避けるように、情報利用制限リストへ情報利用追加制限を設定する(図19の上から2つ目のデータ参照)。   In this case, as a prominent pattern in the data accumulated in FIG. 18, for example, a certain number or more of users reacts with discomfort, or one user reacts with discomfort more than a certain number of times. Etc. For example, in FIG. 18, when the application C0 presents information of the information use level “2”, the users who showed an unpleasant reaction are user1 to user3. Moreover, when it summarizes by a social distance score, {0.412-0.578, Negative} shows two persons, and {0.500, Positive} shows one person unpleasant reaction. Therefore, for example, if the social distance score where two or more people showed an unpleasant reaction is inappropriate, the information presentation processing management unit 34, when the social distance score is {0.412 to 0.578, Negative} An information usage additional restriction is set in the information usage restriction list so as to avoid information usage level 2 information usage (see the second data from the top in FIG. 19).

このように、情報利用制限をユーザの反応にあわせて調整することで、図11のように決め打ちで情報利用レベルを設定する場合と比較して、ユーザを不快にしてしまうケースの発生を低減することができる。   In this way, by adjusting the information usage restriction according to the user's reaction, it is possible to reduce the occurrence of the case that makes the user uncomfortable as compared with the case where the information usage level is set with a fixed value as shown in FIG. can do.

(変形例2)
なお、変形例1のように社会的距離スコア又は相対的社会的距離スコアと情報利用時の不快反応の履歴を用いて情報利用制限を作成する場合においては、情報利用制限をシステムデータとして事前に作成しなくてもよい。例えば、サーバ30が、情報利用レベルを時間経過とともに上げていくような場合には、上記変形例1で記録されるような不快反応記録を収集して、一定以上の蓄積を行った後に、情報利用制限リストDB52”(図20参照)を作成することとしてもよい。
(Modification 2)
In the case of creating an information use restriction using the social distance score or the relative social distance score and the history of unpleasant reaction at the time of information use as in the first modification, the information use restriction is previously set as system data You do not have to create it. For example, when the server 30 increases the information usage level over time, after collecting unpleasant reaction records as recorded in the first modification and accumulating more than a certain amount, The use restriction list DB 52 ″ (see FIG. 20) may be created.

本変形例2では、情報提示処理管理部34は、一定時間ごと(例えば1日おき)や、一定のデータ量収集されるごと(例えば不快反応記録が登録ユーザ数と同程度集まるごと)に情報利用制限リストDB52”を作成する。   In the second modification, the information presentation processing management unit 34 performs information every fixed time (for example, every other day) or every time a fixed amount of data is collected (for example, every time an unpleasant reaction record is collected to the same number as registered users). A usage restriction list DB 52 ″ is created.

例えば、図18の社会的距離スコア記録DBにおける2014/7/10の1日分の不快反応記録に基づいて、情報利用制限リストDB52”を作成する場合、図18では、3つの不快反応のデータがアプリケーションC0に対して存在することがわかる。このため、情報提示処理管理部34は、これら全てのデータを基に情報利用制限リストDB52”を作成してもよいし、一定条件をクリアしたデータのみを用いて情報利用制限リストDB52”を作成してもよい。また、情報提示処理管理部34は、前日の情報利用制限リストを上書きするような形で条件を追加してもよいし、情報利用制限リストDB52”を新規に毎日作成してもよい。図20の例では、2人以上が不快反応を示した社会的距離スコアは不適当であると判断し、新規に情報利用制限リストDB52”を作成した場合のデータを示している。   For example, when the information use restriction list DB 52 ″ is created based on the daily discomfort response record of 2014/7/10 in the social distance score record DB of FIG. 18, in FIG. Therefore, the information presentation processing management unit 34 may create the information use restriction list DB 52 ″ based on all these data, or data that has cleared certain conditions. The information use restriction list DB 52 ″ may be created using only the information. The information presentation processing management unit 34 may add conditions in such a manner that the information use restriction list on the previous day is overwritten. A new usage restriction list DB 52 ″ may be created every day. The example of FIG. 20 shows data when it is determined that the social distance score in which two or more people showed an unpleasant reaction is inappropriate and the information usage restriction list DB 52 ″ is newly created.

このようにすることで、日々、ユーザの反応の傾向が異なるような場合であっても、情報利用制限リストDB52”を直近の不快反応記録に基づいて、適切に更新することが可能となる。   By doing in this way, even if it is a case where the tendency of a user's reaction differs every day, it becomes possible to update appropriately information use restriction list DB52 "based on the latest unpleasant reaction record.

なお、上記の処理機能は、コンピュータによって実現することができる。その場合、処理装置が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体(ただし、搬送波は除く)に記録しておくことができる。   The above processing functions can be realized by a computer. In that case, a program describing the processing contents of the functions that the processing apparatus should have is provided. By executing the program on a computer, the above processing functions are realized on the computer. The program describing the processing contents can be recorded on a computer-readable recording medium (except for a carrier wave).

プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD(Digital Versatile Disc)、CD−ROM(Compact Disc Read Only Memory)などの可搬型記録媒体の形態で販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。   When the program is distributed, for example, it is sold in the form of a portable recording medium such as a DVD (Digital Versatile Disc) or a CD-ROM (Compact Disc Read Only Memory) on which the program is recorded. It is also possible to store the program in a storage device of a server computer and transfer the program from the server computer to another computer via a network.

プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。   The computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes processing according to the program. The computer can also read the program directly from the portable recording medium and execute processing according to the program. Further, each time the program is transferred from the server computer, the computer can sequentially execute processing according to the received program.

上述した各実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。例えば、上記第1、第2の実施形態で説明したユーザの情報を取得するセンサの種別、ユーザ反応値の種別、社会的距離スコアなどについては、一例であるため、上記実施形態に限定されるものではない。   Each embodiment mentioned above is an example of suitable implementation of the present invention. However, the present invention is not limited to this, and various modifications can be made without departing from the scope of the present invention. For example, the sensor type, user response value type, social distance score, and the like that acquire the user information described in the first and second embodiments are examples, and thus are limited to the above embodiment. It is not a thing.

なお、以上の第1、第2の実施形態及び変形例の説明に関して、更に以下の付記を開示する。
(付記1) アプリケーションを使用している間のユーザの感情を特定する情報を特定する特定部と、
複数アプリケーションを使用している間の前記ユーザの感情を特定する情報に基づいて、複数アプリケーション間の相対的な社会的距離を判断する判断部と、を備える社会的距離判断装置。
(付記2) 前記複数アプリケーション間の相対的な社会的距離に基づいて、第1のアプリケーションが提供する情報を決定する決定部を更に備える付記1に記載の社会的距離判断装置。
(付記3) 前記決定部は、
前記判断部の判断結果を記録した記録部を参照して、前記第1のアプリケーションと社会的距離が等しい又は差分が所定範囲の第2のアプリケーションを抽出し、前記第2のアプリケーションが前記ユーザに所定レベルの情報を提供している間に特定された前記ユーザの感情を特定する情報に基づいて、前記第1のアプリケーションが提供する情報のレベルを決定することを特徴とする付記2に記載の社会的距離判断装置。
(付記4) 前記特定部は、前記ユーザの生体情報を取得し、該生体情報に基づいて前記ユーザの感情を特定する情報を特定することを特徴とする付記1〜3のいずれかに記載の社会的距離判断装置。
(付記5) ユーザの感情を特定する情報を、アプリケーションを使用している間に特定し、
複数アプリケーションを使用している間に特定された前記ユーザの感情を特定する情報に基づいて、複数アプリケーション間の相対的な社会的距離を判断する、処理をコンピュータに実行させることを特徴とする社会的距離判断プログラム。
(付記6) 前記複数アプリケーション間の相対的な社会的距離に基づいて、第1のアプリケーションが提供する情報を決定する処理、を前記コンピュータに更に実行させる付記5に記載の社会的距離判断プログラム。
(付記7) 前記決定する処理では、
前記判断する処理の判断結果を記録した記録部を参照して、前記第1のアプリケーションと社会的距離が等しい又は差分が所定範囲の第2のアプリケーションを抽出し、前記第2のアプリケーションが前記ユーザに所定レベルの情報を提供している間に特定された前記ユーザの感情を特定する情報に基づいて、前記第1のアプリケーションが提供する情報のレベルを決定することを特徴とする付記6に記載の社会的距離判断プログラム。
(付記8) 前記特定する処理では、前記ユーザの生体情報を取得し、該生体情報に基づいて前記ユーザの感情を特定する情報を特定することを特徴とする付記5〜7のいずれかに記載の社会的距離判断プログラム。
(付記9) ユーザの感情を特定する情報を、アプリケーションを使用している間に特定し、
複数アプリケーションを使用している間に特定された前記ユーザの感情を特定する情報に基づいて、複数アプリケーション間の相対的な社会的距離を判断する、処理をコンピュータが実行することを特徴とする社会的距離判断方法。
(付記10) 前記複数アプリケーション間の相対的な社会的距離に基づいて、第1のアプリケーションが提供する情報を決定する処理、を前記コンピュータが更に実行する付記9に記載の社会的距離判断方法。
(付記11) 前記決定する処理では、
前記判断する処理の判断結果を記録した記録部を参照して、前記第1のアプリケーションと社会的距離が等しい又は差分が所定範囲の第2のアプリケーションを抽出し、前記第2のアプリケーションが前記ユーザに所定レベルの情報を提供している間に特定された前記ユーザの感情を特定する情報に基づいて、前記第1のアプリケーションが提供する情報のレベルを決定することを特徴とする付記10に記載の社会的距離判断方法。
(付記12) 前記特定する処理では、前記ユーザの生体情報を取得し、該生体情報に基づいて前記ユーザの感情を特定する情報を特定することを特徴とする付記9〜11のいずれかに記載の社会的距離判断方法。
In addition, the following additional remarks are disclosed regarding description of the above 1st, 2nd embodiment and a modification.
(Additional remark 1) The specific part which specifies the information which specifies a user's emotion while using an application,
A social distance determination device comprising: a determination unit that determines a relative social distance between a plurality of applications based on information identifying the user's emotion while using the plurality of applications.
(Additional remark 2) The social distance judgment apparatus of Additional remark 1 further provided with the determination part which determines the information which a 1st application provides based on the relative social distance between the said some applications.
(Supplementary note 3)
With reference to the recording unit that records the determination result of the determination unit, a second application having a social distance equal to or different from the first application is extracted, and the second application is sent to the user. The level of information provided by the first application is determined based on information specifying the user's emotion specified while providing a predetermined level of information. Social distance judgment device.
(Additional remark 4) The said specific | specification part acquires the said user's biometric information, specifies the information which specifies the said user's emotion based on this biometric information, The additional description 1-3 characterized by the above-mentioned. Social distance judgment device.
(Appendix 5) Identify information that identifies the user's emotions while using the application,
A society characterized by causing a computer to execute a process of determining a relative social distance between a plurality of applications based on information specifying the user's emotions specified while using a plurality of applications. Distance judgment program.
(Additional remark 6) The social distance judgment program of Additional remark 5 which makes the said computer further perform the process which determines the information which a 1st application provides based on the relative social distance between the said some applications.
(Supplementary note 7) In the process of determining,
Referring to the recording unit in which the determination result of the determination process is recorded, the second application having the same social distance as the first application or a difference within a predetermined range is extracted, and the second application is the user The information level provided by the first application is determined based on information specifying the user's emotion specified while providing a predetermined level of information to the user. Social distance judgment program.
(Supplementary note 8) In any one of Supplementary notes 5 to 7, wherein in the specifying process, the user's biological information is acquired, and information specifying the user's emotion is specified based on the biological information. Social distance judgment program.
(Appendix 9) Identify information that identifies the user's emotions while using the application,
A society characterized in that a computer executes a process of determining a relative social distance between a plurality of applications based on information specifying the user's emotions specified while using a plurality of applications. How to determine the correct distance.
(Supplementary note 10) The social distance determination method according to supplementary note 9, wherein the computer further executes a process of determining information provided by the first application based on a relative social distance between the plurality of applications.
(Supplementary Note 11) In the determination process,
Referring to the recording unit in which the determination result of the determination process is recorded, the second application having the same social distance as the first application or a difference within a predetermined range is extracted, and the second application is the user The information level provided by the first application is determined based on information specifying the user's emotion specified while providing a predetermined level of information to the user. Social distance judgment method.
(Supplementary Note 12) In any one of Supplementary Notes 9 to 11, in the specifying process, the biological information of the user is acquired, and information specifying the emotion of the user is specified based on the biological information. Social distance judgment method.

30 サーバ(社会的距離判断装置)
36 登録データ管理部(特定部、判断部)
34 情報提示処理管理部(決定部)
152 不快反応DB(記録部)
30 servers (social distance judgment device)
36 Registered Data Management Department (Identification Department, Judgment Department)
34 Information presentation processing management unit (decision unit)
152 Unpleasant reaction DB (recording unit)

Claims (6)

アプリケーションを使用している間のユーザの感情を特定する情報を特定する特定部と、
複数アプリケーションを使用している間の前記ユーザの感情を特定する情報に基づいて、複数アプリケーション間の相対的な社会的距離を判断する判断部と、を備える社会的距離判断装置。
A specific part that identifies information that identifies the user's emotions while using the application;
A social distance determination device comprising: a determination unit that determines a relative social distance between a plurality of applications based on information identifying the user's emotion while using the plurality of applications.
前記複数アプリケーション間の相対的な社会的距離に基づいて、第1のアプリケーションが提供する情報を決定する決定部を更に備える請求項1に記載の社会的距離判断装置。   The social distance determination apparatus according to claim 1, further comprising a determination unit that determines information provided by the first application based on a relative social distance between the plurality of applications. 前記決定部は、
前記判断部の判断結果を記録した記録部を参照して、前記第1のアプリケーションと社会的距離が等しい又は差分が所定範囲の第2のアプリケーションを抽出し、前記第2のアプリケーションが前記ユーザに所定レベルの情報を提供している間に特定された前記ユーザの感情を特定する情報に基づいて、前記第1のアプリケーションが提供する情報のレベルを決定することを特徴とする請求項2に記載の社会的距離判断装置。
The determination unit
With reference to the recording unit that records the determination result of the determination unit, a second application having a social distance equal to or different from the first application is extracted, and the second application is sent to the user. The level of information provided by the first application is determined based on information specifying the user's emotion specified while providing a predetermined level of information. Social distance judgment device.
前記特定部は、前記ユーザの生体情報を取得し、該生体情報に基づいて前記ユーザの感情を特定する情報を特定することを特徴とする請求項1〜3のいずれか一項に記載の社会的距離判断装置。   The society according to any one of claims 1 to 3, wherein the specifying unit acquires the user's biological information and specifies information for specifying the user's emotion based on the biological information. Distance determination device. ユーザの感情を特定する情報を、アプリケーションを使用している間に特定し、
複数アプリケーションを使用している間に特定された前記ユーザの感情を特定する情報に基づいて、複数アプリケーション間の相対的な社会的距離を判断する、処理をコンピュータに実行させることを特徴とする社会的距離判断プログラム。
Identify information that identifies the user ’s emotions while using the application,
A society characterized by causing a computer to execute a process of determining a relative social distance between a plurality of applications based on information specifying the user's emotions specified while using a plurality of applications. Distance judgment program.
ユーザの感情を特定する情報を、アプリケーションを使用している間に特定し、
複数アプリケーションを使用している間に特定された前記ユーザの感情を特定する情報に基づいて、複数アプリケーション間の相対的な社会的距離を判断する、処理をコンピュータが実行することを特徴とする社会的距離判断方法。

Identify information that identifies the user ’s emotions while using the application,
A society characterized in that a computer executes a process of determining a relative social distance between a plurality of applications based on information specifying the user's emotions specified while using a plurality of applications. How to determine the correct distance.

JP2014232776A 2014-11-17 2014-11-17 Social distance determination device, social distance determination program, and social distance determination method Active JP6432298B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014232776A JP6432298B2 (en) 2014-11-17 2014-11-17 Social distance determination device, social distance determination program, and social distance determination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014232776A JP6432298B2 (en) 2014-11-17 2014-11-17 Social distance determination device, social distance determination program, and social distance determination method

Publications (2)

Publication Number Publication Date
JP2016095781A true JP2016095781A (en) 2016-05-26
JP6432298B2 JP6432298B2 (en) 2018-12-05

Family

ID=56071462

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014232776A Active JP6432298B2 (en) 2014-11-17 2014-11-17 Social distance determination device, social distance determination program, and social distance determination method

Country Status (1)

Country Link
JP (1) JP6432298B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IT202000009613A1 (en) * 2020-04-30 2021-10-30 Paolo CICCOLELLA MODULAR SYSTEM, METHOD AND MONITORING KIT FOR SOCIAL DISTANCE SUITABLE FOR INSTALLATION ON GREEN ROOFS, PARKS, ROOF GARDENS AND OTHER EQUIPPED AREAS

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006313483A (en) * 2005-05-09 2006-11-16 Hitachi Ltd Content evaluation method
JP2007052601A (en) * 2005-08-17 2007-03-01 Matsushita Electric Ind Co Ltd Usability-evaluating device, usability-evaluating method, and program
JP2009199469A (en) * 2008-02-22 2009-09-03 Ricoh Co Ltd Information retrieval system, information retrieval method, program, and recording medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006313483A (en) * 2005-05-09 2006-11-16 Hitachi Ltd Content evaluation method
JP2007052601A (en) * 2005-08-17 2007-03-01 Matsushita Electric Ind Co Ltd Usability-evaluating device, usability-evaluating method, and program
JP2009199469A (en) * 2008-02-22 2009-09-03 Ricoh Co Ltd Information retrieval system, information retrieval method, program, and recording medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IT202000009613A1 (en) * 2020-04-30 2021-10-30 Paolo CICCOLELLA MODULAR SYSTEM, METHOD AND MONITORING KIT FOR SOCIAL DISTANCE SUITABLE FOR INSTALLATION ON GREEN ROOFS, PARKS, ROOF GARDENS AND OTHER EQUIPPED AREAS

Also Published As

Publication number Publication date
JP6432298B2 (en) 2018-12-05

Similar Documents

Publication Publication Date Title
Hassib et al. EngageMeter: A system for implicit audience engagement sensing using electroencephalography
US10366778B2 (en) Method and device for processing content based on bio-signals
US20200137015A1 (en) Conversation agent
JP6692239B2 (en) Information processing device, information processing system, terminal device, information processing method, and information processing program
US20100054526A1 (en) Method, apparatus and computer program product for providing gaze information
JP6952257B2 (en) Information processing device for content presentation, control method of information processing device, and control program
Biancardi et al. Analyzing first impressions of warmth and competence from observable nonverbal cues in expert-novice interactions
JP2015046070A (en) Information processing device, determination method, and determination program
US20180075763A1 (en) System and method of generating recommendations to alleviate loneliness
Younis et al. Designing and evaluating mobile self-reporting techniques: crowdsourcing for citizen science
Wittenberg et al. Validation of a model of family caregiver communication types and related caregiver outcomes
CN108140149A (en) Role&#39;s particular device behavior
Bauters et al. Are you there?: Presence in collaborative distance work
JP6432298B2 (en) Social distance determination device, social distance determination program, and social distance determination method
Suzuki et al. Gender-impression modification enhances the effect of mediated social touch between persons of the same gender
US20180018899A1 (en) Information processing apparatus for presenting content, method for controlling the same, and control program
Visuri et al. Impact of mood changes on application selection
JP2012252426A (en) Information processing system, information processing method, information processing device, information processing terminal, program, and recording medium
Cutler Will the Internet Help Your Parents to Live Longer? Isolation, Longevity, Health, Death, and Skype™.
JP2023065808A (en) Information provision device, information provision method, and computer program
Xu et al. A Qualitative Exploration of a User-Centered Model for Smartwatch Comfort Using Grounded Theory
KR20210150988A (en) Apparatus and method for acquiring of vitality quotient
WO2012090661A1 (en) Information provision device, storage medium, and information provision method
Zeyda et al. Your body tells more than words–Predicting perceived meeting productivity through body signals
Jiao et al. Affective haptics and multimodal experiments research

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170804

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180919

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181009

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181022

R150 Certificate of patent or registration of utility model

Ref document number: 6432298

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150