JP5458824B2 - Profiling apparatus, profiling method and program - Google Patents
Profiling apparatus, profiling method and program Download PDFInfo
- Publication number
- JP5458824B2 JP5458824B2 JP2009264713A JP2009264713A JP5458824B2 JP 5458824 B2 JP5458824 B2 JP 5458824B2 JP 2009264713 A JP2009264713 A JP 2009264713A JP 2009264713 A JP2009264713 A JP 2009264713A JP 5458824 B2 JP5458824 B2 JP 5458824B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- answer
- question
- user
- biometric
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本発明は、ユーザのプロファイルを抽出することを目的として、ユーザにプロファイリングを実施するプロファイリング装置、プロファイリング方法およびプログラムに関する。 The present invention relates to a profiling apparatus, a profiling method, and a program for performing profiling on a user for the purpose of extracting a user's profile.
個人のプロファイル(性格や性質)や内面の状態を言語化、数値化して説明できるようにする方法として、心理学における質問紙法がある。質問紙法は、アンケートと似た形態であるが、その質問内容はマーケティングや調査に見られる質問、たとえば「住居は賃貸である」といった「YES」か「NO」で回答するような質問ではない。人の特性を抽出することが目的の質問紙は、たとえば「知らない相手にも気軽に話しかけるほうである」といった質問に「あてはまらない」から「あてはまる」の5段階でどのくらいか、といった回答を入力をさせるものである。分析には度合いを示す回答結果を扱う。 There is a questionnaire method in psychology as a way to explain the personal profile (personality and nature) and the state of the inside by verbalization and numericalization. The questionnaire method is similar to a questionnaire, but the content of the question is not a question that appears in marketing or surveys, for example, “YES” or “NO” such as “residence is rented” . For the purpose of extracting a person's characteristics, for example, for questions such as "I will speak to a stranger casually", enter the answer such as "How does it apply" to "How does it apply"? It is what makes you. In the analysis, answer results indicating the degree are handled.
例えば、特許文献1は、ウェアラブルコンピュータを装着し、ユーザのストレス・疲労度をセンサから取得・分析して把握することで、有効と思われる広告のみを選択して配信する情報提供装置を開示している。用いるセンサとしては、加速度センサがあり、加速度センサのデータから行動状況(歩行、走行、自転車、自動車、電車など)を把握することができる。
For example,
また、非特許文献1は、質問紙をモニタに提示し、モニタを閲覧するユーザの表情をカメラで取得することで、表情変化を回答と合わせて記録し分析する、人的資源の管理アプリケーションにおける非言語的な態度と認知的な挙動の測定と比較についての研究論文である。この場合、質問に対し、悩みながら回答していたり、直感的に回答していたりといった回答時のユーザの状況を、回答と同時に取得できる。回答状況を分析時に考慮することで、「あてはまる」と回答しているが悩んでいるようだったため、完全には合致していなさそうといった、より精度の高い分析を行うことができる。 Non-Patent Document 1 presents a human resource management application that presents a questionnaire on a monitor and acquires the facial expression of the user viewing the monitor with a camera to record and analyze facial expression changes together with answers. A research paper on the measurement and comparison of nonverbal attitudes and cognitive behaviors. In this case, the user's situation at the time of answering, such as answering the question while worrying or answering intuitively, can be acquired simultaneously with the answer. By considering the response status at the time of analysis, it seems that the answer is “applicable” but seems to be worried, so it is possible to perform a more accurate analysis that does not seem to match completely.
特許文献2には、ネットワークシステムを利用した質疑応答システムであって、回答者の姿態の変化、表情の変化、音声の変化、脈拍数の変化、発汗量の変化、体温、又は体臭の変化を検知し、それらから落ち着きがあるか、せっかちであるか等の情報を類推し、回答結果に加味することで回答者の性格をより的確に把握することができる質疑応答システムが開示されている。
また、特許文献3には、装着者の日常における生体情報を時系列的に連続して計測できると共に、生体情報が大きく変化した時に問診を行うことにより、その時の精神状態を効率よく収集する、人体に装着可能な携帯型生体情報収集装置が開示されている。
In addition,
質問紙によりユーザのプロファイルや内面を調べる行為は、質問実施に時間がかかるという欠点がある。例えば70問の質問に回答をすると、ひとつの質問を読んで答えを入力終えるまでに平均10秒かかるとすると12分近くかかることになり、例えば就労時に実施すると作業を完全に中断させることになりかねず、ユーザにとって負担が大きい。 The act of examining the user's profile and inner surface with a questionnaire has the disadvantage that it takes time to execute the question. For example, if you answer 70 questions, if it takes 10 seconds on average to read one question and finish entering the answer, it will take nearly 12 minutes. For example, if it is done at work, the work will be completely interrupted. There is a heavy burden on the user.
しかし、このような調査はあくまでそのときの状況を探ることが主体であるため、朝と夕方で異なる要素や日ごとに変化する要素もあり、それらを調べるには同じ質問紙による調査を朝夕や毎日といった形で実施する必要が出てくる。このような状況では、繰り返しの実施に対し、ユーザの負担を軽減する工夫が必要になる。 However, since such surveys are mainly focused on the situation at that time, there are elements that vary in the morning and evening, and elements that change from day to day. It will be necessary to carry it out in the form of every day. In such a situation, a device for reducing the burden on the user is necessary for repeated implementation.
一方、ユーザはおかれた環境刺激、例えばオフィスであれば温度、湿度、明るさといった比較的変化の少ない刺激以外に、周りの人々の電話の声や歩いている人の視線などから受ける変化の大きい刺激によってもストレスや緊張が変化する。特に、オフィスのようなプライバシーの守られにくい場所で、自分の個人の性格や内面に関する質問紙の回答を画面に入力している最中は刺激の影響を受けやすく、回答時の状態変化も激しくなる可能性がある。 On the other hand, in addition to environmental stimuli that are placed, such as temperature, humidity, and brightness, which are relatively small changes in the office, the user receives large changes from the voices of people around the phone and the eyes of people walking. Stress and tension change with stimulation. Especially in places where it is difficult to protect privacy, such as in offices, it is easy to be affected by stimuli while inputting answers to questionnaires about your personality and inside, and the state changes at the time of responses are severe. There is a possibility.
このように内面の状態が変化した場合の回答のむらを軽減する方法として、質問数を増やし、同じ質問を表現を変えて何度も行うことで平均化する方法がある。しかし、たとえば、自信を持って回答した結果でも自信なく回答した結果でも区別しないため、結果だけを見ても判断プロセスの違いは分からず、平均化するためには、すべての質問について表現を変えて何度も行うしかない。この方法では、回答数が必要以上に増えてユーザに負担を強いることになる。 As a method of reducing the unevenness of answers when the state of the inner surface changes in this way, there is a method of increasing the number of questions and averaging by repeating the same question over and over again. However, for example, there is no distinction between results that are confidently answered and those that are not confidently answered, so even if you look at the results alone, you will not know the difference in the judgment process. I have to do it many times. According to this method, the number of answers increases more than necessary, which imposes a burden on the user.
つまり、オフィスのような多くの刺激があり、回答にむらが出やすい場所で質問紙を用いてユーザのプロファイルや内面を調べるためには、ストレス度や緊張度といった内面の状況の変化を考慮することが必要で、かつユーザの負担軽減が課題となる。 In other words, in order to examine a user's profile and inner surface using a questionnaire in a place where there are many stimuli such as in offices and where the answer is likely to be uneven, consider changes in the internal situation such as stress and tension It is necessary to reduce the burden on the user.
なお、特許文献2には、回答者の状態の変化からその性質を類推するとの記載があるが、具体的な類推方法は記載されていない。また、特許文献2は、人物の性格を的確に把握・評価可能にすることを目的としたものであって、ユーザの負担を軽減させることを目的に生体情報に基づいて再質問を行うものではない。特許文献3は、生体情報が大きく変化した時に問診を行い回答情報を収集するものであって、ユーザの特性を調べる質問をユーザに提示して回答を取得するプロファイリングにおいて、ユーザの負担を軽減させることを目的に生体情報に基づいて再質問を行うものではない。
In addition, although
本発明は、このような問題に鑑みてなされたものであり、ユーザの特性を調べる質問をユーザに提示して回答を取得するプロファイリング中に、ユーザに何度もプロファイリングを実施する負担を軽減できるプロファイリング装置、プロファイリング方法およびプログラムを提供することを目的とする。 The present invention has been made in view of such problems, and can reduce the burden of performing profiling many times on a user during profiling in which a question for examining a user's characteristics is presented to the user to obtain an answer. It is an object to provide a profiling apparatus, a profiling method, and a program.
本発明の第1の観点に係るプロファイリング装置は、
ユーザの生体情報を取得する生体情報取得手段と、
前記ユーザの特性を調べるための質問を示す質問情報を、その質問情報によって調べられる前記ユーザの特性を示す調査特性ごとに分類して記憶する質問記憶手段と、
前記質問情報を呼び出し、前記質問情報を表示する出力画面を生成して前記ユーザに提示する出力画面生成手段と、
前記質問情報に対して前記ユーザが入力した回答を示す回答情報を取得する回答情報取得手段と、
前記回答情報と前記回答情報を取得した時刻に取得した前記生体情報と前記質問情報とを対応付けて記憶する回答情報記憶手段と、
前記回答情報に対応する生体情報と、前記質問情報に対応付けられた過去の回答情報に対応する生体情報とを比較し、同一の回答情報を取得した過去の回答情報に対応する生体情報の平均が前記回答情報に対応する生体情報と異なる場合、または、同一の生体情報を取得した過去の回答情報の平均が前記回答情報と異なる場合に、再質問を行うと判定する回答判定手段と、を備え、
前記回答判定手段が再質問を行うと判定した場合、前記出力画面生成手段は、前記質問情報と同一の調査特性に分類される異なる質問情報である再質問情報を呼び出し、前記再質問情報を表示する出力画面を生成して前記ユーザに提示することを特徴とする。
A profiling apparatus according to a first aspect of the present invention includes:
Biometric information acquisition means for acquiring biometric information of the user;
Question storage means for classifying and storing question information indicating a question for checking the characteristics of the user according to survey characteristics indicating the characteristics of the user checked by the question information;
Calling out the question information, generating an output screen for displaying the question information and presenting it to the user;
Answer information acquisition means for acquiring answer information indicating an answer input by the user with respect to the question information;
Answer information storage means for storing the biometric information acquired at the time when the answer information and the answer information are acquired and the question information in association with each other;
The biometric information corresponding to the answer information is compared with the biometric information corresponding to the past answer information associated with the question information, and the average of the biometric information corresponding to the past answer information obtained by acquiring the same answer information If There different from the biometric information corresponding to the response information, or, if the average of past answer information obtained the same biometric information is different from the answer information, and answer determination means for determining to perform the re-question, the Prepared,
When it is determined that the answer determination unit performs a re-question, the output screen generation unit calls the re-question information, which is different question information classified into the same survey characteristics as the question information, and displays the re-question information An output screen to be generated is generated and presented to the user.
本発明の第2の観点に係るプロファイリング方法は、
質問をユーザに提示して該ユーザの回答を取得する装置が行うプロファイリング方法であって、
前記ユーザの生体情報を取得する生体情報取得ステップと、
前記ユーザの特性を調べるための質問を示す質問情報を、その質問情報によって調べられる前記ユーザの特性を示す調査特性ごとに分類して記憶する質問記憶ステップと、
前記質問情報を呼び出し、前記質問情報を表示する出力画面を生成して前記ユーザに提示する出力画面生成ステップと、
前記質問情報に対して前記ユーザが入力した回答を示す回答情報を取得する回答情報取得ステップと、
前記回答情報と前記回答情報を取得した時刻に取得した前記生体情報と前記質問情報とを対応付けて記憶する回答情報記憶ステップと、
前記回答情報に対応する生体情報と、前記質問情報に対応付けられた過去の回答情報に対応する生体情報とを比較し、同一の回答情報を取得した過去の回答情報に対応する生体情報の平均が前記回答情報に対応する生体情報と異なる場合、または、同一の生体情報を取得した過去の回答情報の平均が前記回答情報と異なる場合に、再質問を行うと判定する回答判定ステップと、を備え、
前記回答判定ステップで再質問を行うと判定した場合、前記出力画面生成ステップは、前記質問情報と同一の調査特性に分類される異なる質問情報である再質問情報を呼び出し、前記再質問情報を表示する出力画面を生成して前記ユーザに提示することを特徴とする。
The profiling method according to the second aspect of the present invention is:
A profiling method performed by an apparatus that presents a question to a user and obtains the user's answer,
A biometric information acquisition step of acquiring biometric information of the user;
Question storage step for classifying and storing question information indicating a question for checking the characteristics of the user according to survey characteristics indicating the characteristics of the user checked by the question information;
Calling the question information, generating an output screen for displaying the question information and presenting it to the user, an output screen generation step;
An answer information obtaining step for obtaining answer information indicating an answer inputted by the user with respect to the question information;
An answer information storage step for storing the biometric information acquired at the time when the answer information is acquired and the question information in association with each other;
The biometric information corresponding to the answer information is compared with the biometric information corresponding to the past answer information associated with the question information, and the average of the biometric information corresponding to the past answer information obtained by acquiring the same answer information If There different from the biometric information corresponding to the response information, or, if the average of past answer information obtained the same biometric information is different from the answer information, and answers the determination step of determining to perform the re-question, the Prepared,
When it is determined that the re-question is performed in the answer determination step, the output screen generation step calls the re-question information, which is different question information classified into the same survey characteristics as the question information, and displays the re-question information An output screen to be generated is generated and presented to the user.
本発明の第3の観点に係るプログラムは、コンピュータに、
ユーザの生体情報を取得する生体情報取得ステップと、
前記ユーザの特性を調べるための質問を示す質問情報を、その質問情報によって調べられる前記ユーザの特性を示す調査特性ごとに分類して記憶する質問記憶ステップと、
前記質問情報を呼び出し、前記質問情報を表示する出力画面を生成して前記ユーザに提示する出力画面生成ステップと、
前記質問情報に対して前記ユーザが入力した回答を示す回答情報を取得する回答情報取得ステップと、
前記回答情報と前記回答情報を取得した時刻に取得した前記生体情報と前記質問情報とを対応付けて記憶する回答情報記憶ステップと、
前記回答情報に対応する生体情報と、前記質問情報に対応付けられた過去の回答情報に対応する生体情報とを比較し、同一の回答情報を取得した過去の回答情報に対応する生体情報の平均が前記回答情報に対応する生体情報と異なる場合、または、同一の生体情報を取得した過去の回答情報の平均が前記回答情報と異なる場合に、再質問を行うと判定する回答判定ステップと、を実行させ、
前記回答判定ステップで再質問を行うと判定した場合、前記出力画面生成ステップは、前記質問情報と同一の調査特性に分類される異なる質問情報である再質問情報を呼び出し、前記再質問情報を表示する出力画面を生成して前記ユーザに提示することを特徴とする。
A program according to the third aspect of the present invention is stored in a computer.
A biometric information acquisition step of acquiring biometric information of the user;
Question storage step for classifying and storing question information indicating a question for checking the characteristics of the user according to survey characteristics indicating the characteristics of the user checked by the question information;
Calling the question information, generating an output screen for displaying the question information and presenting it to the user, an output screen generation step;
An answer information obtaining step for obtaining answer information indicating an answer inputted by the user with respect to the question information;
An answer information storage step for storing the biometric information acquired at the time when the answer information is acquired and the question information in association with each other;
The biometric information corresponding to the answer information is compared with the biometric information corresponding to the past answer information associated with the question information, and the average of the biometric information corresponding to the past answer information obtained by acquiring the same answer information If There different from the biometric information corresponding to the response information, or, if the average of past answer information obtained the same biometric information is different from the answer information, and answers the determination step of determining to perform the re-question, the Let it run
When it is determined that the re-question is performed in the answer determination step, the output screen generation step calls the re-question information, which is different question information classified into the same survey characteristics as the question information, and displays the re-question information An output screen to be generated is generated and presented to the user.
本発明によれば、プロファイリング中に、過去の生体情報または回答情報と異なる状況における回答についてのみ再質問することで無駄を省き、ユーザに何度もプロファイリングを実施する負担を軽減することができる。これにより、必要な回答情報を効率的に集めることができ、プロファイリングの効率化が期待できる。 According to the present invention, during profiling, it is possible to eliminate waste by re-inquiring about answers in a situation different from past biometric information or answer information, and to reduce the burden of performing profiling many times on the user. As a result, necessary answer information can be efficiently collected, and profiling efficiency can be expected.
本発明で生体情報とは、例えば緊張度やストレス度を測ることができる筋電位、心拍数(HR)、呼吸量、血圧、容積脈波、瞳孔の径、体表面の皮膚温度、発話の単位時間あたりの語数、うなずきの単位時間あたりの回数、体の揺れの振動数、まばたきの単位時間あたりの回数、筋電位、脳波などである。例えば、まばたきは対象への興味やストレスに応じて回数が増える。心拍数や発話語数は緊張度などで数が変化する。瞳孔の径は覚醒度で開き方が変わる。うなずきや体の揺れは落ち着き度で回数が変わる。生体情報は、これらのような状況で変化する緊張度、ストレス、覚醒度、落ち着き度、などの体の状態を表す情報を用いる。 In the present invention, biometric information refers to, for example, myoelectric potential, heart rate (HR), respiration rate, blood pressure, volume pulse wave, pupil diameter, body surface skin temperature, and utterance unit capable of measuring tension and stress. These include the number of words per hour, the number of nods per unit time, the number of body shaking vibrations, the number of blinks per unit time, myoelectric potential, and brain waves. For example, the number of blinks increases according to interest and stress on the subject. The number of heartbeats and spoken words varies depending on the degree of tension. The opening of the pupil varies depending on the degree of arousal. The number of nods and shaking varies depending on the degree of calmness. The biological information uses information representing the state of the body such as the degree of tension, stress, arousal level, calmness, etc. that change in these situations.
以下に、本発明を実施するための形態について図面を参照して詳細に説明する。なお、図中同一または相当する部分には同じ符号を付す。 EMBODIMENT OF THE INVENTION Below, the form for implementing this invention is demonstrated in detail with reference to drawings. In addition, the same code | symbol is attached | subjected to the part which is the same or it corresponds in a figure.
(実施の形態1)
図1は、本発明の実施の形態1に係るプロファイリングシステムの構成例を示すブロック図である。プロファイリングシステム101は、プロファイリング装置1と、ユーザ端末6とから構成される。プロファイリング装置1とユーザ端末6は、ネットワーク(図示せず)を介して相互に通信可能である。ユーザ端末6は代表して1台で図示するが、複数のユーザ端末6がネットワークに接続される場合がある。またユーザ端末6は、プロファイリング装置1の一部であるか、または、附属の装置の場合がある。
(Embodiment 1)
FIG. 1 is a block diagram showing a configuration example of a profiling system according to
プロファイリング装置1は、情報取得部11、情報記憶部12、回答判定部13、出力画面生成部14および質問情報記憶部15を備える。情報記憶部12および質問情報記憶部15は、ネットワークを介してプロファイリング装置1に接続される別の装置の場合がある。ユーザ端末6は、入力部61と表示部62と生体情報取得部63とを備える。
The
プロファイリング装置1の情報取得部11は、ユーザ端末6からユーザが入力した回答を示す回答情報を受け取る。また、情報取得部11は、ユーザ端末6から送信されるユーザの生体情報を受け取る。なお、ユーザ端末6は、ユーザが回答した時の生体情報を回答情報に対応付けて情報取得部11に送信することとしてもよいし、情報取得部11が、回答情報を取得した時に同時に取得した生体情報を当該回答情報に対応付けてもよい。
The
情報記憶部12は、情報取得部11が受け取った回答情報と取得した時刻を示す回答時刻情報と質問情報とを対応付けて記憶する。また、情報記憶部12は、情報取得部11がユーザ端末6から逐次受け取ったユーザの生体情報に現在時刻を付与して時系列で記憶する。情報記憶部12は、これらの情報をユーザごとに記憶している。なお、ユーザ端末6または情報取得部11が回答情報に生体情報を対応付ける場合は、情報記憶部12は、取得した回答情報と回答情報に対応する生体情報と質問情報とを対応付けて記憶する。
The
回答判定部13は、回答情報に対応する生体情報に基づいて、再質問を行うか否かを判定する。
The
出力画面生成部14は、後述する質問情報記憶部15から質問情報を呼び出し、その質問情報を表示する出力画面を生成する。また、出力画面生成部14は、回答判定部13が再質問を行うと判定した場合は、その質問情報と同一の調査特性に分類される異なる質問情報である再質問情報を呼び出し、その再質問情報を表示する出力画面を生成する。
The output
質問情報記憶部15は、ユーザの特性を調べるための質問を示す質問情報を、その質問情報によって調べられる前記ユーザの特性を示す調査特性ごとに分類して記憶している。
The question
ユーザ端末6の入力部61は、ユーザによる回答を受け付ける。表示部62は、プロファイリング装置1の出力画面生成部14から送られた出力画面を表示する。生体情報取得部63は、ユーザが装着している筋電位センサーや心拍計など(図示せず)から、ユーザの生体情報を取得する。なお、ユーザ端末6は、インターネット等のネットワークを介したPCでもよいし、携帯電話でもよい。また、回答の入力は、Webページで行ってもよいし、電子メールを用いてもよい。
The
図2は、実施の形態1に係る出力画面の一例を説明する図である。図2の例では、ユーザ端末6の表示部62に表示された出力画面621は、「最近、よく寝付けない」という質問情報623を表示しており、ユーザがその回答を入力するための1〜5のキーボタン群622を表示している。キーボタン群622は、符号1が「そうではない」、符号2が「ややそうではない」、符号3が「どちらでもない」、符号4が「ややそうである」、符号5が「そうである」を表す。すなわち、ユーザが入力したキーボタンの数が大きいほど質問情報623に示した事項にユーザがよりあてはまることを意味する。情報取得部11は、ユーザがいずれのキーボタンを押したかを示す回答情報をユーザ端末6から取得し、情報記憶部12は、質問情報623と回答情報を取得した時刻を示す回答時刻情報とを回答情報と対応付けて記憶する。
FIG. 2 is a diagram for explaining an example of an output screen according to the first embodiment. In the example of FIG. 2, the
なお、ユーザ端末6が、ユーザが回答した時刻を回答時刻情報として回答情報に対応付けて情報取得部11に送信することとしてもよい。このとき、ユーザはキーボタン群622のいずれかを押すだけで回答入力が完了するので、ユーザ端末6は、押した瞬間の時刻を回答時刻情報とする。ただし、回答が記述式の場合のように、ユーザが回答するのに時間がかかる場合は、ユーザ端末6は、回答開始時刻と回答終了時刻を回答時刻情報として回答情報に対応付けて情報取得部11に送信することとする。
Note that the
図3は、ユーザの生体情報の値を縦軸に時間を横軸にしたグラフの一例である。図3の例では、生体情報として筋電位を測定して緊張度を測るものとし、筋電位が高いほど緊張度が高いことを表す。出力画面生成部14は、図2に示したように質問情報を表示する出力画面621を生成し、ユーザ端末6に送信する。1つ目の質問を表示する出力画面621をユーザ端末6に送信した時刻が提示時刻t1である。ユーザ端末6は表示部62に受信した出力画面621を表示する。ユーザは提示された出力画面621に表示されている質問に対して、回答としてキーボタン群622のいずれかを押す。情報取得部11は、ユーザ端末6からユーザの回答を示す回答情報を取得する。この回答情報を取得した時刻が回答時刻t2であって、情報記憶部12は、回答時刻t2を回答時刻情報として回答情報と質問と対応付けて記憶する。同様に、2つ目の質問を表示する出力画面621をユーザ端末6に送信した時刻が提示時刻t3、情報取得部11が質問に対する回答情報を取得した時刻が回答時刻t4、3つ目の質問を表示する出力画面621をユーザ端末6に送信した時刻が提示時刻t5、情報取得部11が質問に対する回答情報を取得した時刻が回答時刻t6である。
FIG. 3 is an example of a graph in which the value of the user's biometric information is plotted on the vertical axis and the time is plotted on the horizontal axis. In the example of FIG. 3, the myoelectric potential is measured as biological information to measure the degree of tension, and the higher the myoelectric potential, the higher the degree of tension. The output
情報記憶部12は、ユーザの生体情報を時系列で記憶しているので、回答時刻で回答時の緊張度を検索することができる。図3の例では、回答時刻t2の緊張度はy1であり、回答時刻t4の緊張度はy2であり、回答時刻t6の緊張度はy3である。なお、例えば質問の緊張度について、提示時刻t1から回答時刻t2までの間の生体情報の平均を緊張度としてもよいし、回答時刻t2から提示時刻t3までの間の生体情報の平均を緊張度としてもよい。また、前述のように、ユーザが回答するのに時間がかかる場合は、回答開始時刻と回答終了時刻を回答時刻情報とする。この場合、緊張度は、回答開始時刻から回答終了時刻までのの生体情報の値の平均としてもよいし、回答開始時刻から回答終了時刻までのの生体情報の値を近似できる関数を用いてもよい。
Since the
図4は、実施の形態1において情報記憶部が記憶する情報のデータ構造を説明する図である。情報記憶部12は、質問情報と回答時刻情報と回答情報とを対応付けた情報として図4(a)に示すようなデータテーブルを格納する。出力画面生成部14が質問情報記憶部15から呼び出した順に、質問情報と、その調査特性と、回答情報と、回答時刻情報とが対応付けて記憶されている。図4(b)は、図4(a)のデータテーブルに含まれる回答時刻情報に対応する生体情報をデータテーブル化したものである。なお、回答時刻情報に対応する生体情報は、図4(b)のように、データテーブル化してもよいし、随時検索することとしてもよい。また、図4に示すようなデータテーブルはプロファイリングを実施するごとに作成されることとする。すなわち、同一のデータテーブルに格納されている回答情報等は同一の時間帯に実施されたプロファイリングの結果である。
FIG. 4 is a diagram illustrating the data structure of information stored in the information storage unit in the first embodiment. The
図4では、1つ目の質問Q1は「A1」であって、質問情報A1によって調査されるユーザの特性である調査特性は「○○性」である。また、質問情報A1に対するユーザの回答は「4」であって、回答情報「4」を取得した時刻は「t2」である。さらに、回答時刻「t2」で検索された緊張度は「y1」である。図4(b)の時刻および緊張度は、図3の回答時刻および緊張度と対応する。なお、図4の例では質問情報によって調査されるユーザの特性を調査特性として回答情報に対応付けているが、調査特性は回答情報に対応付けなくてもよい。 In FIG. 4, the first question Q1 is “A1”, and the survey characteristic that is the user's characteristic investigated by the question information A1 is “XXX”. The user's answer to the question information A1 is “4”, and the time when the answer information “4” is acquired is “t2”. Furthermore, the degree of tension retrieved at the answer time “t2” is “y1”. The time and tension in FIG. 4B correspond to the answer time and tension in FIG. In the example of FIG. 4, the characteristics of the user investigated by the question information are associated with the answer information as the investigation characteristics, but the investigation characteristics may not be associated with the answer information.
回答判定部13は、図4に示すデータテーブルを参照して再質問を行うか否かを判定する。回答判定部13は、情報取得部11が質問情報A1に対する回答情報「4」を取得すると、情報記憶部12が記憶している質問情報A1に対応付けられた過去の回答情報を参照し、質問情報A1に対応付けられた過去の回答時刻情報から生体情報を検索する。たとえば、過去の回答情報が「4」である過去の回答時刻情報で検索された生体情報の値の平均が「y1」であったとすると、回答判定部13は、「再質問しない」と判定する。一方、過去の回答情報が「4」である過去の回答時刻情報で検索された生体情報の値の平均が「y1」でなかったとすると、回答判定部13は、「再質問する」と判定する。
The
また、過去の回答時刻情報で検索された生体情報の値が「y1」である過去の回答情報の平均が「4」であるとすると、回答判定部13は、「再質問しない」と判定する。過去の回答時刻情報で検索された生体情報の値が「y1」である過去の回答情報の平均が「4」でなかったとすると、回答判定部13は、「再質問する」と判定する。なお、過去の回答情報の平均が「4」に近似する値であれば「4」として扱い、過去の回答時刻情報で検索された生体情報の値の平均が「y1」に近似する値であれば「y1」として扱うように幅をもたせてもよい。あるいは、たとえば生体情報が示すものが緊張度であればその値を「高緊張」「中緊張」「低緊張」の3段階の生体情報分類に分類し、回答判定部13は、過去の回答情報が同一である過去の回答時刻情報で検索された生体情報の値の平均が同一の生体情報分類でなかった場合、または、過去の回答時刻情報で検索された生体情報の値が同一の生体情報分類である過去の回答情報の平均が同一または近似値でなかった場合、「再質問する」と判定することとしてもよい。なお、生体情報分類については、実施の形態3で詳しく説明する。
Also, if the average of past answer information whose biometric information retrieved from past answer time information is “y1” is “4”, the
図4の例では、出力画面生成部14は、○○性、△△性、××性、□□性の順に一つずつ質問情報を呼び出して行くとする。質問Q1は、再質問すると判定され、2つ目の質問Q2は、質問情報A1と同一の調査特性である質問情報A2がユーザに再質問されている。質問Q2は、再質問しないと判定され、3つ目の質問Q3は次の調査特性である△△性を調べる質問情報B1がユーザに質問されている。質問Q3は、再質問すると判定され、4つ目の質問Q4は、質問情報B1と同一の調査特性である質問情報B2がユーザに再質問されている。以下、質問Q4は再質問しないと判定され、5つ目の質問Q5および6つ目の質問Q6は再質問すると判定され、7つ目の質問Q7は再質問しないと判定されている。
In the example of FIG. 4, it is assumed that the output
なお、回答判定部13は、回答情報に対応する生体情報が予め設定した閾値を超える場合、再質問すると判定することとしてもよいし、直前の回答情報に対応する生体情報が予め設定した閾値を超える場合、人の緊張状態は変化はするが急には変わりにくいので、次も閾値を超えると仮定し、再質問すると判定することとしてもよい。
The
図5は、ユーザ端末または情報取得部が回答情報に生体情報を対応付ける場合に情報記憶部が記憶する情報のデータ構造を説明する図である。情報取得部11が回答情報と同時に生体情報を受け取り、情報記憶部12が取得した回答情報及び生体情報と質問情報とを対応付けて記憶する場合、情報記憶部12は、質問情報に対応付けた回答情報および回答情報に対応する生体情報として図5に示すようなデータテーブルを格納する。出力画面生成部14が質問情報記憶部15から呼び出した順に、質問情報と、その調査特性、と、回答情報と、回答情報に対応する生体情報とが対応付けて記憶されている。この場合、回答時刻で生体情報を検索する必要がない。
FIG. 5 is a diagram illustrating a data structure of information stored in the information storage unit when the user terminal or the information acquisition unit associates biometric information with answer information. When the
図6は、実施の形態1に係るプロファイリングの動作の一例を示すフローチャートである。まず、出力画面生成部14は、質問情報記憶部15から質問情報を呼び出し(ステップS11)、その質問情報を表示する出力画面を生成する(ステップS12)。出力画面生成部14は、生成した出力画面をユーザ端末6に送信する(ステップS13)。ユーザ端末6は受信した出力画面を表示部62に表示してユーザに質問情報を提示する。ユーザが入力部61に質問情報に対する回答を入力し、ユーザ端末6はその回答を示す回答情報を情報取得部11に送信する。
FIG. 6 is a flowchart showing an example of the profiling operation according to the first embodiment. First, the output
情報取得部11は、ユーザ端末6から回答情報を取得し(ステップS14)、情報記憶部12は、回答情報を取得した時刻を示す回答時刻情報と質問情報と回答情報とを対応付けて記憶する(ステップS15)。
The
次に、回答判定部13は、回答時刻情報が示す時刻の生体情報を検索し、呼び出す(ステップS16)。回答判定部13は、情報記憶部12が当該質問情報に対応付けて記憶している過去の回答情報と、その回答情報に対応する回答時刻情報で検索した生体情報をさらに呼び出す(ステップS17)。次に、回答判定部13は、過去の回答情報が同一である過去の回答時刻情報で検索された生体情報の値の平均が当該生体情報の値と同一でなかった場合、または、過去の回答時刻情報で検索された生体情報の値が当該生体情報の値と同一である過去の回答情報の平均が同一でなかった場合、「再質問する」と判定する(ステップS18;YES)。
Next, the
回答判定部13が「再質問する」と判定すると、出力画面生成部14は、質問情報記憶部15から当該質問情報と同一の調査特性に分類される異なる質問情報である再質問情報を呼び出し(ステップS19)、再質問情報を表示する出力画面を生成する(ステップS12)。ステップS18で回答判定部13が「再質問する」と判定すると、処理はステップS19、ステップS12〜ステップS18を繰り返す。
When the
一方、回答判定部13は、過去の回答情報が同一である過去の回答時刻情報で検索された生体情報の値の平均が当該生体情報の値と同一である場合、または、過去の回答時刻情報で検索された生体情報の値が当該生体情報の値と同一である過去の回答情報の平均が同一である場合、「再質問しない」と判定する(ステップS18;NO)。回答判定部13が「再質問しない」と判定すると、次の質問情報がある場合(ステップ20;YES)、処理はステップS12〜ステップS20を繰り返す。次の質問情報がない場合(ステップ20;NO)、処理は終了する。
On the other hand, the
なお、ユーザ端末6または情報取得部11が回答情報に生体情報を対応付ける場合は、ステップS15において、情報記憶部12は、回答情報と質問情報と回答情報に対応する生体情報とを対応付けて記憶する。また、この場合ステップS16は不要である。後述する図9に示すフローチャートにおいてもユーザ端末6または情報取得部11が回答情報に生体情報を対応付ける場合は、同様の処理を行う。
When the
以上説明したように実施の形態1のプロファイリングシステム101によれば、プロファイリング中に、過去の生体情報および回答情報と比較し、生体情報および回答情報のどちらかが異なる回答についてのみ再質問することで無駄を省き、ユーザに何度もプロファイリングを実施する負担を軽減する。これにより、プロファイリングに必要な回答情報を効率的に集めることができ、プロファイリングの効率化が期待できる。
As described above, according to the
(実施の形態2)
本発明の実施の形態2に係るプロファイリングシステムの構成は実施の形態1に係るプロファイリングシステム101と同様である。実施の形態2では、回答判定部13は、回答情報に対応付けた回答時刻情報が示す時刻の生体情報に基づいて、ユーザに回答の確認を行うか否かを判定する。出力画面生成部14は、質問情報記憶部15からユーザに回答を変更するか否かを質問する確認情報を呼び出し、その確認情報を表示する出力画面を生成する。また、質問情報記憶部15は、ユーザに回答を変更するか否かを質問する確認情報を記憶していることとする。なお、確認情報は質問情報記憶部15に限らず、他の記憶部や記憶装置に記憶していることとしてもよい。
(Embodiment 2)
The configuration of the profiling system according to the second embodiment of the present invention is the same as that of the
図7は、実施の形態2に係る出力画面の一例を説明する図である。図7の例では、ユーザ端末6の表示部62に表示された出力画面621は、「最近、食欲がない」という質問情報624を表示しており、この質問情報624に対し、ユーザがキーボタン625を押し、回答情報「4」を入力した状態を表示している。キーボタン625は、例えばマウスによるクリックなどで押下されたことにより、他のキーボタンと区別できるよう表示されている。この回答情報に対し、出力画面生成部14は、ユーザに回答を変更するか否かを質問する確認情報626をポップアップで表示させる。確認情報626は、「これで良いですか?」という質問文と「はい」の選択ボタン627と「変更する」の選択ボタン628を有する。ユーザは入力した回答情報「4」で間違いなければ選択ボタン627を押し、変更したければ「変更する」の選択ボタン628を押す。
FIG. 7 is a diagram illustrating an example of an output screen according to the second embodiment. In the example of FIG. 7, the
ユーザが「変更する」の選択ボタン628を押した場合、出力画面621は、ユーザがが回答情報を入力する前の状態に遷移し、ユーザは再度回答情報を入力することができる。このとき、情報記憶部12は、ユーザが新しく入力した回答情報を、質問情報624に対する回答情報として上書きして記憶する。
When the user presses the “change”
図8は、実施の形態2において情報記憶部が記憶する情報のデータ構造を説明する図である。実施の形態2では、情報記憶部12は、質問情報および回答時刻情報を対応付けた回答情報として図8(a)に示すようなデータテーブルを格納する。出力画面生成部14が質問情報記憶部15から呼び出した順に、質問情報と、その調査特性と、回答情報と、回答時刻情報とが対応付けて記憶されている。図8(b)は、図8(a)のデータテーブルに含まれる回答時刻情報に対応する生体情報をデータ化したものである。回答時刻情報に対応する生体情報は、図8(b)のように、データ化してもよいし、随時検索することとしてもよい。
FIG. 8 is a diagram for explaining the data structure of information stored in the information storage unit in the second embodiment. In the second embodiment, the
回答判定部13は、図8に示すデータテーブルを参照して確認を行うか否かを判定する。回答判定部13は、情報取得部11が質問情報B1に対する回答情報「3」を取得すると、回答時刻情報が示す回答時刻t4で検索された緊張度y2と、直前の回答時刻情報が示す回答時刻t2で検索した緊張度y1とを呼び出す。回答判定部13は、y1とy2の差を求め、この差があらかじめ設定しておいた閾値よりも大きい場合、「確認する」と判定すし、あらかじめ設定しておいた閾値よりも小さい場合は「確認しない」と判定する。回答判定部13は、回答情報を取得するたびに、その回答時刻情報に対応する緊張度と直前の回答時刻情報に対応する緊張度を比較して差を求める。
The
図8の例では、出力画面生成部14は、○○性、△△性、××性、□□性の順に繰り返し一つずつ質問情報を呼び出して行くとする。回答判定部13は、4つ目の質問Q4の回答情報4を取得すると、回答時刻情報が示す回答時刻t8で検索された緊張度y4と、直前の回答時刻情報が示す回答時刻t6で検索した緊張度y3とを呼び出し、y3とy4の差を求める。ここでは、y3とy4の差があらかじめ設定しておいた閾値よりも大きく、回答判定部13は「確認する」と判定する。回答判定部13が「確認する」と判定すると、出力画面生成部14は、質問情報記憶部15から確認情報を呼び出し、確認情報を表示する出力画面を生成する。ユーザ端末6はこれを表示部62に表示し、ユーザは再度回答を入力することができる。図8の例では、ユーザは質問Q4の回答情報を変更し、改めて回答情報「3」を入力している。これにより、情報記憶部12は、回答情報を「4」から「3」に上書きして保存する。なお、ここでは便宜上、上書き保存を矢印で表記したが、実際に質問Q4の回答情報として格納されているのは回答情報「3」のみである。
In the example of FIG. 8, it is assumed that the output
図9は、実施の形態2に係るプロファイリングの動作の一例を示すフローチャートである。まず、出力画面生成部14は、質問情報記憶部15から質問情報を呼び出し、(ステップS21)、その質問情報を表示する出力画面を生成する(ステップS22)。出力画面生成部14は、生成した出力画面をユーザ端末6に送信する(ステップS23)。ユーザ端末6は受信した出力画面を表示部62に表示してユーザに質問情報を提示する。ユーザが入力部61に質問情報に対する回答を入力し、ユーザ端末6はその回答を示す回答情報を情報取得部11に送信する。
情報取得部11は、ユーザ端末6から回答情報を取得し(ステップS24)、情報記憶部12は、回答情報を取得した時刻を示す回答時刻情報と質問情報と回答情報とを対応付けて記憶する(ステップS25)。
FIG. 9 is a flowchart showing an example of the profiling operation according to the second embodiment. First, the output
The
次に、回答判定部13は、回答時刻情報が示す時刻の生体情報を検索し、呼び出す(ステップS26)。回答判定部13は、当該回答時刻情報の直前の回答時刻情報で検索した生体情報をさらに呼び出す(ステップS27)。次に、回答判定部13は、当該回答時刻情報が示す時刻の生体情報の値と直前の回答時刻情報で検索した生体情報の値の差を算出し、この差があらかじめ設定しておいた閾値よりも大きかった場合、「確認する」と判定する(ステップS28;YES)。
Next, the
回答判定部13が「確認する」と判定すると、出力画面生成部14は、質問情報記憶部15からユーザに回答を変更するか否かを質問する確認情報を呼び出し(ステップS29)、確認情報を表示する出力画面を生成する(ステップS30)。出力画面生成部14は、生成した出力画面をユーザ端末6に送信する(ステップS31)。ユーザ端末6は受信した出力画面を表示部62に表示してユーザに確認情報を提示する。ユーザが入力部61に確認情報に対する回答を入力し、ユーザ端末6は、回答を変更する場合はその回答情報を、回答を変更しない場合は回答を変更しないことを示す情報を情報取得部11に送信する。
If the
ユーザが回答を変更し、情報取得部11がその回答情報を取得すると(ステップS32;YES)、情報記憶部12は、その回答情報と元の回答情報に上書きして記憶する(ステップS33)。ユーザが回答を変更せず、情報取得部11が回答を変更しないことを示す情報を取得すると(ステップS32;NO)、次の質問情報があるかどうかを判定する(ステップ34)。
When the user changes the response and the
一方、回答判定部13は、当該回答時刻情報が示す時刻の生体情報の値と直前の回答時刻情報で検索した生体情報の値の差があらかじめ設定しておいた閾値よりも小さかった場合、「確認しない」と判定する(ステップS28;NO)。回答判定部13が「確認しない」と判定すると、次の質問情報がある場合(ステップ34;YES)、処理はステップS21〜ステップS34を繰り返す。次の質問情報がない場合(ステップ34;NO)、処理は終了する。
On the other hand, if the difference between the value of the biometric information at the time indicated by the answer time information and the value of the biometric information searched for by the immediately previous answer time information is smaller than a preset threshold, “No confirmation” is determined (step S28; NO). If the
以上説明したように実施の形態2のプロファイリングシステムによれば、プロファイリング中に、急激な生体情報の変化があった回答についてユーザに変更するか否かを確認することで、ユーザは落ち着いて再度回答することができ、ユーザ自身で回答のむらを軽減できる。これにより、平均化のためにユーザに改めてプロファイリングを実施する負担を軽減することができる。また、プロファイリングに必要な回答情報を効率的に集めることができ、プロファイリングの効率化が期待できる。 As described above, according to the profiling system of the second embodiment, during the profiling, by confirming whether or not to change the answer for which there has been a sudden change in biometric information, the user calms down and answers again. It is possible to reduce unevenness in answering by the user himself / herself. This can reduce the burden of performing profiling again for the user for averaging. In addition, it is possible to efficiently collect answer information necessary for profiling, and it can be expected that profiling will be more efficient.
(実施の形態3)
図10は、本発明の実施の形態3に係るプロファイリングシステムの構成例を示すブロック図である。プロファイリングシステム102は、実施の形態1に係るプロファイリングシステム101に生体情報分類部17が追加されている。実施の形態3では、生体情報分類部17は、生体情報の値についてあらかじめ閾値を設けて複数の生体情報分類を設定し、回答時刻情報に対応する前記生体情報の値に基づいて回答情報をどの生体情報分類に属するかで仕分けする。
(Embodiment 3)
FIG. 10 is a block diagram illustrating a configuration example of the profiling system according to the third embodiment of the present invention. In the
図11は、ユーザの生体情報の値を縦軸に時間を横軸にしたグラフの一例である。図11の例では、図3と同様に生体情報として筋電位を測定して緊張度を測るものとし、筋電位が高いほど緊張度が高いことを表す。生体情報分類部17は、緊張度についてあらかじめ閾値αおよびβを設け、αより値の大きい生体情報を「高緊張」の生体情報分類に仕分けし、αより値の小さくβより値の大きい生体情報を「中緊張」の生体情報分類に仕分けし、αより値の小さい生体情報を「低緊張」の生体情報分類に仕分けする。ここでは、回答時刻t2で検索される緊張度y1はαより大きいので「高緊張」の生体情報分類に仕分けし、回答時刻t4で検索される緊張度y2はαより小さくβより大きいので「中緊張」の生体情報分類に仕分けし、t6で検索される緊張度y3はβより小さいので「低緊張」の生体情報分類に仕分けする。
FIG. 11 is an example of a graph in which the value of the user's biological information is plotted on the vertical axis and the time is plotted on the horizontal axis. In the example of FIG. 11, the myoelectric potential is measured as biometric information in the same manner as in FIG. 3, and the degree of tension is measured. The higher the myoelectric potential, the higher the degree of tension. The biometric
図12は、実施の形態3に係る生体情報分類ごとの回答情報のデータ構造を説明する図である。生体情報分類部17は、情報記憶部12が記憶している回答情報を、対応する生体情報の値に基づいて各生体情報分類に仕分けする。図12(a)は、「高緊張」に属する回答情報について、プロファイリングを行った時間ごとに各調査特性の回答情報を平均した値を格納したデータテーブルである。図12(b)は、「中緊張」に属する回答情報について、プロファイリングを行った時間ごとに各調査特性の回答情報を平均した値を格納したデータテーブルである。図12(c)は、「低緊張」に属する回答情報について、プロファイリングを行った時間ごとに各調査特性の回答情報を平均した値を格納したデータテーブルである。ここでは同じ日の朝の時間T1、昼の時間T2、夜の時間T3にそれぞれプロファイリングを行ったこととする。
FIG. 12 is a diagram for explaining the data structure of answer information for each biometric information category according to the third embodiment. The biometric
以上説明したように実施の形態3のプロファイリングシステム102によれば、一定の範囲内の状態の回答情報のみを抽出することで、状態の変化による回答情報への影響を低減し、個人の特性の時間変化を見ることができる。
As described above, according to the
本発明では、実施の形態1〜3を別々に実施することに限定しない。実施の形態1〜3をそれぞれ組み合わせて実施してもよいし、実施の形態1〜3をすべて組み合わせて実施してもよい。 In this invention, it is not limited to Embodiment 1-3 being implemented separately. The first to third embodiments may be combined and implemented, or all the first to third embodiments may be combined.
図13は、本発明の実施の形態に係るプロファイリング装置のハードウェア構成の一例を示すブロック図である。プロファイリング装置1は、図13に示すように、制御部21、主記憶部22、外部記憶部23、操作部24、表示部25、入出力部26および送受信部27を備える。主記憶部22、外部記憶部23、操作部24、表示部25、入出力部26および送受信部27はいずれも内部バス20を介して制御部21に接続されている。
FIG. 13 is a block diagram showing an example of a hardware configuration of the profiling apparatus according to the embodiment of the present invention. As shown in FIG. 13, the
制御部21はCPU(Central Processing Unit)等から構成され、外部記憶部23に記憶されている制御プログラム30に従って、プロファイリング装置1の情報取得部11、回答判定部13、出力画面生成部14および生体情報分類部17の各処理を実行する。
The
主記憶部22はRAM(Random-Access Memory)等から構成され、外部記憶部23に記憶されている制御プログラム30をロードし、制御部21の作業領域として用いられる。
The
外部記憶部23は、フラッシュメモリ、ハードディスク、DVD−RAM(Digital Versatile Disc Random-Access Memory)、DVD−RW(Digital Versatile Disc ReWritable)等の不揮発性メモリから構成され、プロファイリング装置1の処理を制御部21に行わせるためのプログラムをあらかじめ記憶し、また、制御部21の指示に従って、このプログラムが記憶するデータを制御部21に供給し、制御部21から供給されたデータを記憶する。プロファイリング装置1の情報記憶部12および質問情報記憶部15は、外部記憶部23に構成される。
The
操作部24はキーボードおよびマウスなどのポインティングデバイス等と、キーボードおよびポインティングデバイス等を内部バス20に接続するインターフェース装置から構成されている。生体情報分類部17が生体情報についての閾値を設ける場合などは、操作部24を介して、指示が制御部21に供給される。図1または10のユーザ端末6がプロファイリング装置1に含まれる構成では、操作部24が入力部61の場合がある。
The
表示部25は、CRT(Cathode Ray Tube)またはLCD(Liquid Crystal Display)などから構成され、生体情報分類部17が生体情報についての閾値を設ける場合などは、操作画面を表示する。図1または10のユーザ端末6が意見表示装置1に含まれる構成では、表示部25が表示部62の場合がある。
The
入出力部26は、シリアルインタフェースまたはパラレルインタフェースから構成されている。入出力部26は、ユーザ端末6が附属する装置の場合は、それと接続する。
The input /
送受信部27は、ネットワークに接続する網終端装置または無線通信装置、およびそれらと接続するシリアルインタフェースまたはLAN(Local Area Network)インタフェースから構成されている。送受信部27は、ネットワークを介して、ユーザ端末6に接続する。
The transmission /
図1または10に示すプロファイリング装置1の情報取得部11、回答判定部13、出力画面生成部14および生体情報分類部17の処理は、制御プログラム30が、制御部21、主記憶部22、外部記憶部23、操作部24、表示部25、入出力部26および送受信部27などを資源として用いて処理することによって実行する。
The processing of the
その他、本発明の好適な変形として、以下の構成が含まれる。 Other suitable modifications of the present invention include the following configurations.
本発明の第1の観点に係るプロファイリング装置について、
好ましくは、前記回答判定手段は、前記回答情報に対応する生体情報と、前記質問情報に対応付けられた過去の回答情報に対応する生体情報とを比較し、同一の回答情報を取得した過去の回答情報に対応する生体情報の平均が前記回答情報に対応する生体情報と異なる場合、または、同一の生体情報を取得した過去の回答情報の平均が前記回答情報と異なる場合に、再質問を行うと判定することを特徴とする。
About the profiling apparatus according to the first aspect of the present invention,
Preferably, the answer determination unit compares the biometric information corresponding to the answer information with the biometric information corresponding to past answer information associated with the question information, and obtains the same answer information. When the average of the biometric information corresponding to the response information is different from the biometric information corresponding to the response information, or when the average of the past response information obtained from the same biometric information is different from the response information, a re-question is performed. It is characterized by determining.
好ましくは、前記回答判定手段は、前記回答情報に対応する生体情報の値と直前の回答情報に対応する生体情報の値との差が所定の閾値を越えた場合、確認を行うか否かを判定し、
前記回答判定手段が確認を行うと判定した場合、前記出力画面生成手段は、前記ユーザに回答を変更するか否かを質問する確認情報を呼び出し、前記確認情報を表示する出力画面を生成して前記ユーザに提示することを特徴とする。
Preferably, the answer determination means determines whether or not to check if the difference between the value of the biometric information corresponding to the answer information and the value of the biometric information corresponding to the immediately previous answer information exceeds a predetermined threshold. Judgment,
When the answer determination unit determines to confirm, the output screen generation unit calls the confirmation information asking whether to change the answer to the user, and generates an output screen that displays the confirmation information. Presented to the user.
好ましくは、前記生体情報の値について閾値を設けて複数の生体情報分類を設定し、前記回答情報に対応する前記生体情報の値に基づいて前記回答情報を前記生体情報分類に仕分けする分類手段をさらに備えることを特徴とする。 Preferably, a classification unit that sets a plurality of biological information classifications by setting a threshold value for the value of the biological information, and sorts the answer information into the biological information classification based on the value of the biological information corresponding to the answer information. It is further provided with the feature.
本発明の第2の観点に係るプロファイリング方法について、
好ましくは、前記回答判定ステップは、前記回答情報に対応する生体情報と、前記質問情報に対応付けられた過去の回答情報に対応する生体情報とを比較し、同一の回答情報を取得した過去の回答情報に対応する生体情報の平均が前記回答情報に対応する生体情報と異なる場合、または、同一の生体情報を取得した過去の回答情報の平均が前記回答情報と異なる場合に、再質問を行うと判定することを特徴とする。
About the profiling method according to the second aspect of the present invention,
Preferably, the answer determination step compares the biometric information corresponding to the answer information with the biometric information corresponding to past answer information associated with the question information, and obtains the same answer information. When the average of the biometric information corresponding to the response information is different from the biometric information corresponding to the response information, or when the average of the past response information obtained from the same biometric information is different from the response information, a re-question is performed. It is characterized by determining.
好ましくは、前記回答判定ステップは、前記回答情報に対応する生体情報の値と直前の回答情報に対応する生体情報の値との差が所定の閾値を越えた場合、確認を行うか否かを判定し、
前記回答判定ステップで確認を行うと判定した場合、前記出力画面生成ステップは、前記ユーザに回答を変更するか否かを質問する確認情報を呼び出し、前記確認情報を表示する出力画面を生成して前記ユーザに提示することを特徴とする。
Preferably, the answer determination step determines whether or not to perform confirmation when the difference between the value of the biometric information corresponding to the answer information and the value of the biometric information corresponding to the immediately previous answer information exceeds a predetermined threshold. Judgment,
If it is determined in the answer determination step that the confirmation is performed, the output screen generation step calls the confirmation information asking whether or not to change the answer to the user, and generates an output screen that displays the confirmation information. Presented to the user.
好ましくは、前記生体情報の値について閾値を設けて複数の分類を設定し、前記回答情報に対応する前記生体情報の値に基づいて前記回答情報を前記分類に仕分けする分類ステップをさらに備えることを特徴とする。 Preferably, the method further includes a classification step of setting a plurality of classifications by setting a threshold value for the value of the biological information, and sorting the response information into the classification based on the value of the biological information corresponding to the response information. Features.
その他、前記のハードウエア構成やフローチャートは一例であり、任意に変更および修正が可能である。 In addition, the above-described hardware configuration and flowchart are examples, and can be arbitrarily changed and modified.
情報取得部11、情報記憶部12、回答判定部13、出力画面生成部14、などから構成されるプロファイリング処理を行う中心となる部分は、専用のシステムによらず、通常のコンピュータシステムを用いて実現可能である。例えば、前記の動作を実行するためのコンピュータプログラムを、コンピュータが読み取り可能な記憶媒体(フレキシブルディスク、CD−ROM、DVD−ROM等)に格納して配布し、当該コンピュータプログラムをコンピュータにインストールすることにより、前記の処理を実行するプロファイリングシステム101および102を構成してもよい。また、インターネット等の通信ネットワーク上のサーバ装置が有する記憶装置に当該コンピュータプログラムを格納しておき、通常のコンピュータシステムがダウンロード等することでプロファイリングシステム101および102を構成してもよい。
The central part that performs the profiling process including the
また、プロファイリングシステム101および102の機能を、OS(オペレーティングシステム)とアプリケーションプログラムの分担、またはOSとアプリケーションプログラムとの協働により実現する場合などには、アプリケーションプログラム部分のみを記憶媒体や記憶装置に格納してもよい。
Further, when the functions of the
また、搬送波にコンピュータプログラムを重畳し、通信ネットワークを介して配信することも可能である。例えば、通信ネットワーク上の掲示板(BBS, Bulletin Board System)に前記コンピュータプログラムを掲示し、ネットワークを介して前記コンピュータプログラムを配信してもよい。そして、このコンピュータプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、前記の処理を実行できるように構成してもよい。 It is also possible to superimpose a computer program on a carrier wave and distribute it via a communication network. For example, the computer program may be posted on a bulletin board (BBS, Bulletin Board System) on a communication network, and the computer program distributed via the network. The computer program may be started and executed in the same manner as other application programs under the control of the OS, so that the above-described processing may be executed.
1 プロファイリング装置
6 ユーザ端末
11 情報取得部
12 情報記憶部
13 回答判定部
14 出力画面生成部
15 質問情報記憶部
17 生体情報分類部
21 制御部
22 主記憶部
23 外部記憶部
24 操作部
25 表示部
26 入出力部
27 送受信部
30 制御プログラム
61 入力部
62 表示部
63 生体情報取得部
101、102 プロファイリングシステム
621 出力画面
622 キーボタン群
623、624 質問情報
625 キーボタン
626 確認情報
627、628 選択ボタン
1 Profiling equipment
6 User terminal
11 Information acquisition unit
12 Information storage
13 Answer determination section
14 Output screen generator
15 Question information storage
17 Biological information classification part
21 Control unit
22 Main memory
23 External storage
24 Operation unit
25 Display section
26 I / O section
27 Transceiver
30 Control program
61 Input section
62 Display
63 Biometric
621 Output screen
622
625 key button
626
Claims (7)
前記ユーザの特性を調べるための質問を示す質問情報を、その質問情報によって調べられる前記ユーザの特性を示す調査特性ごとに分類して記憶する質問記憶手段と、
前記質問情報を呼び出し、前記質問情報を表示する出力画面を生成して前記ユーザに提示する出力画面生成手段と、
前記質問情報に対して前記ユーザが入力した回答を示す回答情報を取得する回答情報取得手段と、
前記回答情報と前記回答情報を取得した時刻に取得した前記生体情報と前記質問情報とを対応付けて記憶する回答情報記憶手段と、
前記回答情報に対応する生体情報と、前記質問情報に対応付けられた過去の回答情報に対応する生体情報とを比較し、同一の回答情報を取得した過去の回答情報に対応する生体情報の平均が前記回答情報に対応する生体情報と異なる場合、または、同一の生体情報を取得した過去の回答情報の平均が前記回答情報と異なる場合に、再質問を行うと判定する回答判定手段と、を備え、
前記回答判定手段が再質問を行うと判定した場合、前記出力画面生成手段は、前記質問情報と同一の調査特性に分類される異なる質問情報である再質問情報を呼び出し、前記再質問情報を表示する出力画面を生成して前記ユーザに提示することを特徴とするプロファイリング装置。 Biometric information acquisition means for acquiring biometric information of the user;
Question storage means for classifying and storing question information indicating a question for checking the characteristics of the user according to survey characteristics indicating the characteristics of the user checked by the question information;
Calling out the question information, generating an output screen for displaying the question information and presenting it to the user;
Answer information acquisition means for acquiring answer information indicating an answer input by the user with respect to the question information;
Answer information storage means for storing the biometric information acquired at the time when the answer information and the answer information are acquired and the question information in association with each other;
The biometric information corresponding to the answer information is compared with the biometric information corresponding to the past answer information associated with the question information, and the average of the biometric information corresponding to the past answer information obtained by acquiring the same answer information If There different from the biometric information corresponding to the response information, or, if the average of past answer information obtained the same biometric information is different from the answer information, and answer determination means for determining to perform the re-question, the Prepared,
When it is determined that the answer determination unit performs a re-question, the output screen generation unit calls the re-question information, which is different question information classified into the same survey characteristics as the question information, and displays the re-question information A profiling apparatus that generates an output screen to be displayed and presents it to the user.
前記回答判定手段が確認を行うと判定した場合、前記出力画面生成手段は、前記ユーザに回答を変更するか否かを質問する確認情報を呼び出し、前記確認情報を表示する出力画面を生成して前記ユーザに提示することを特徴とする請求項1に記載のプロファイリング装置。 The answer determination means determines whether to perform confirmation when the difference between the value of the biometric information corresponding to the answer information and the value of the biometric information corresponding to the immediately previous answer information exceeds a predetermined threshold,
When the answer determination unit determines to confirm, the output screen generation unit calls the confirmation information asking whether to change the answer to the user, and generates an output screen that displays the confirmation information. The profiling apparatus according to claim 1, wherein the profiling apparatus is presented to the user.
前記ユーザの生体情報を取得する生体情報取得ステップと、
前記ユーザの特性を調べるための質問を示す質問情報を、その質問情報によって調べられる前記ユーザの特性を示す調査特性ごとに分類して記憶する質問記憶ステップと、
前記質問情報を呼び出し、前記質問情報を表示する出力画面を生成して前記ユーザに提示する出力画面生成ステップと、
前記質問情報に対して前記ユーザが入力した回答を示す回答情報を取得する回答情報取得ステップと、
前記回答情報と前記回答情報を取得した時刻に取得した前記生体情報と前記質問情報とを対応付けて記憶する回答情報記憶ステップと、
前記回答情報に対応する生体情報と、前記質問情報に対応付けられた過去の回答情報に対応する生体情報とを比較し、同一の回答情報を取得した過去の回答情報に対応する生体情報の平均が前記回答情報に対応する生体情報と異なる場合、または、同一の生体情報を取得した過去の回答情報の平均が前記回答情報と異なる場合に、再質問を行うと判定する回答判定ステップと、を備え、
前記回答判定ステップで再質問を行うと判定した場合、前記出力画面生成ステップは、前記質問情報と同一の調査特性に分類される異なる質問情報である再質問情報を呼び出し、前記再質問情報を表示する出力画面を生成して前記ユーザに提示することを特徴とするプロファイリング方法。 A profiling method performed by an apparatus that presents a question to a user and obtains the user's answer,
A biometric information acquisition step of acquiring biometric information of the user;
Question storage step for classifying and storing question information indicating a question for checking the characteristics of the user according to survey characteristics indicating the characteristics of the user checked by the question information;
Calling the question information, generating an output screen for displaying the question information and presenting it to the user, an output screen generation step;
An answer information obtaining step for obtaining answer information indicating an answer inputted by the user with respect to the question information;
An answer information storage step for storing the biometric information acquired at the time when the answer information is acquired and the question information in association with each other;
The biometric information corresponding to the answer information is compared with the biometric information corresponding to the past answer information associated with the question information, and the average of the biometric information corresponding to the past answer information obtained by acquiring the same answer information If There different from the biometric information corresponding to the response information, or, if the average of past answer information obtained the same biometric information is different from the answer information, and answers the determination step of determining to perform the re-question, the Prepared,
When it is determined that the re-question is performed in the answer determination step, the output screen generation step calls the re-question information, which is different question information classified into the same survey characteristics as the question information, and displays the re-question information A profiling method comprising generating an output screen to be displayed and presenting it to the user.
前記回答判定ステップで確認を行うと判定した場合、前記出力画面生成ステップは、前記ユーザに回答を変更するか否かを質問する確認情報を呼び出し、前記確認情報を表示する出力画面を生成して前記ユーザに提示することを特徴とする請求項4に記載のプロファイリング方法。 The answer determination step determines whether to perform confirmation when the difference between the value of the biometric information corresponding to the answer information and the value of the biometric information corresponding to the immediately previous answer information exceeds a predetermined threshold,
If it is determined in the answer determination step that the confirmation is performed, the output screen generation step calls the confirmation information asking whether or not to change the answer to the user, and generates an output screen that displays the confirmation information. The profiling method according to claim 4 , wherein the profiling method is presented to the user.
ユーザの生体情報を取得する生体情報取得ステップと、
前記ユーザの特性を調べるための質問を示す質問情報を、その質問情報によって調べられる前記ユーザの特性を示す調査特性ごとに分類して記憶する質問記憶ステップと、
前記質問情報を呼び出し、前記質問情報を表示する出力画面を生成して前記ユーザに提示する出力画面生成ステップと、
前記質問情報に対して前記ユーザが入力した回答を示す回答情報を取得する回答情報取得ステップと、
前記回答情報と前記回答情報を取得した時刻に取得した前記生体情報と前記質問情報とを対応付けて記憶する回答情報記憶ステップと、
前記回答情報に対応する生体情報と、前記質問情報に対応付けられた過去の回答情報に対応する生体情報とを比較し、同一の回答情報を取得した過去の回答情報に対応する生体情報の平均が前記回答情報に対応する生体情報と異なる場合、または、同一の生体情報を取得した過去の回答情報の平均が前記回答情報と異なる場合に、再質問を行うと判定する回答判定ステップと、を実行させ、
前記回答判定ステップで再質問を行うと判定した場合、前記出力画面生成ステップは、前記質問情報と同一の調査特性に分類される異なる質問情報である再質問情報を呼び出し、前記再質問情報を表示する出力画面を生成して前記ユーザに提示することを特徴とするプログラム。 On the computer,
A biometric information acquisition step of acquiring biometric information of the user;
Question storage step for classifying and storing question information indicating a question for checking the characteristics of the user according to survey characteristics indicating the characteristics of the user checked by the question information;
Calling the question information, generating an output screen for displaying the question information and presenting it to the user, an output screen generation step;
An answer information obtaining step for obtaining answer information indicating an answer inputted by the user with respect to the question information;
An answer information storage step for storing the biometric information acquired at the time when the answer information is acquired and the question information in association with each other;
The biometric information corresponding to the answer information is compared with the biometric information corresponding to the past answer information associated with the question information, and the average of the biometric information corresponding to the past answer information obtained by acquiring the same answer information If There different from the biometric information corresponding to the response information, or, if the average of past answer information obtained the same biometric information is different from the answer information, and answers the determination step of determining to perform the re-question, the Let it run
When it is determined that the re-question is performed in the answer determination step, the output screen generation step calls the re-question information, which is different question information classified into the same survey characteristics as the question information, and displays the re-question information A program for generating an output screen to be displayed and presenting it to the user.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009264713A JP5458824B2 (en) | 2009-11-20 | 2009-11-20 | Profiling apparatus, profiling method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009264713A JP5458824B2 (en) | 2009-11-20 | 2009-11-20 | Profiling apparatus, profiling method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011108142A JP2011108142A (en) | 2011-06-02 |
JP5458824B2 true JP5458824B2 (en) | 2014-04-02 |
Family
ID=44231508
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009264713A Active JP5458824B2 (en) | 2009-11-20 | 2009-11-20 | Profiling apparatus, profiling method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5458824B2 (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101460404B1 (en) * | 2012-09-04 | 2014-11-12 | 포항공과대학교 산학협력단 | Apparatus for managing user-centric context and method thereof |
JP2014081913A (en) * | 2012-09-27 | 2014-05-08 | Dainippon Printing Co Ltd | Questionnaire analysis device, questionnaire analysis system, questionnaire analysis method and program |
JPWO2017094177A1 (en) * | 2015-12-04 | 2018-09-20 | 株式会社FiNC | Information processing server, information processing server control method, and information processing program |
CN108154381A (en) * | 2016-12-06 | 2018-06-12 | 松下知识产权经营株式会社 | Motion candidate suggestion device and motion candidate's reminding method |
JP6857098B2 (en) * | 2017-07-11 | 2021-04-14 | 株式会社Nttドコモ | Information processing device |
JP7058142B2 (en) * | 2018-02-23 | 2022-04-21 | 株式会社リンクアンドモチベーション | Questionnaire processing equipment, questionnaire processing methods, and programs |
JP7245372B2 (en) * | 2018-02-23 | 2023-03-23 | 株式会社リンクアンドモチベーション | Questionnaire processing device, questionnaire processing method, and program |
JP7108238B2 (en) * | 2018-10-25 | 2022-07-28 | マツダ株式会社 | Well-being value estimation system |
JP7108236B2 (en) * | 2018-10-25 | 2022-07-28 | マツダ株式会社 | Well-being value estimation system |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02202259A (en) * | 1989-01-31 | 1990-08-10 | Matsushita Electric Ind Co Ltd | Telecontroller |
JP2512695B2 (en) * | 1993-10-29 | 1996-07-03 | 株式会社スズケン | Mental health evaluation device |
JP2002345762A (en) * | 2001-05-22 | 2002-12-03 | Matsushita Electric Ind Co Ltd | Health information terminal |
JP2004276641A (en) * | 2003-03-12 | 2004-10-07 | Nissan Motor Co Ltd | Preceding vehicle following control system |
JP4867215B2 (en) * | 2005-06-28 | 2012-02-01 | トヨタ自動車株式会社 | Physiological / psychological state determination device, physiological / psychological state determination method, reference data generation device, and reference data generation method. |
-
2009
- 2009-11-20 JP JP2009264713A patent/JP5458824B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2011108142A (en) | 2011-06-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5458824B2 (en) | Profiling apparatus, profiling method and program | |
Wright et al. | Applied ambulatory assessment: Integrating idiographic and nomothetic principles of measurement. | |
Maxhuni et al. | Stress modelling and prediction in presence of scarce data | |
US20220392625A1 (en) | Method and system for an interface to provide activity recommendations | |
Bellman et al. | Best measures of attention to creative tactics in TV advertising: when do attention-getting devices capture or reduce attention? | |
WO2011136253A1 (en) | Risk evaluation system using people as sensors | |
Gimpel et al. | myStress: Unobtrusive smartphone-based stress detection | |
Booth et al. | Anger expression and suppression at work: causes, characteristics and predictors | |
Papetti et al. | Consumers vs Internet of Things: a systematic evaluation process to drive users in the smart world | |
Curtis et al. | Effects of cognitive behavioural therapy on insomnia in adults with tinnitus: Systematic review and meta-analysis of randomised controlled trials | |
Ferrari et al. | Using voice and biofeedback to predict user engagement during requirements interviews | |
Allwood et al. | The analysis of embodied communicative feedback in multimodal corpora: a prerequisite for behavior simulation | |
KR20090027027A (en) | Method for analyzing mental illness using biometric signal under cognitive stimuli | |
Muñoz et al. | Prediction of stress levels in the workplace using surrounding stress | |
JP5733799B2 (en) | Profiling system, profiling method and program | |
JP6480556B1 (en) | Goal achievement support system and goal achievement support program | |
Curtis et al. | A case study in establishing a positive service culture: Attachment and involvement in the workplace | |
JP5402386B2 (en) | Questionnaire question presentation system, questionnaire question presentation method, and questionnaire question presentation program | |
WO2022176808A1 (en) | Information processing system, information processing device, information processing method, and information processing program | |
KR102454737B1 (en) | Server for Classifying Mental State, Terminal, Method for Classifying Mental State, and Method for Providing Mental State Classifying Service | |
JP6207944B2 (en) | Preference evaluation method, preference evaluation apparatus, and preference evaluation program | |
Slanzi et al. | Eye tracking and eeg features for salient web object identification | |
Okkonen et al. | Off-the-shelf assessment of information ergonomics | |
Lambusch et al. | Human Energy Diary Studies with Personalized Feedback: A Proof of Concept with formr. | |
US10735534B2 (en) | Information processing apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20121005 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130913 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130924 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131121 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131217 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131230 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5458824 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |