JP5458824B2 - Profiling apparatus, profiling method and program - Google Patents

Profiling apparatus, profiling method and program Download PDF

Info

Publication number
JP5458824B2
JP5458824B2 JP2009264713A JP2009264713A JP5458824B2 JP 5458824 B2 JP5458824 B2 JP 5458824B2 JP 2009264713 A JP2009264713 A JP 2009264713A JP 2009264713 A JP2009264713 A JP 2009264713A JP 5458824 B2 JP5458824 B2 JP 5458824B2
Authority
JP
Japan
Prior art keywords
information
answer
question
user
biometric
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009264713A
Other languages
Japanese (ja)
Other versions
JP2011108142A (en
Inventor
暁 大賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2009264713A priority Critical patent/JP5458824B2/en
Publication of JP2011108142A publication Critical patent/JP2011108142A/en
Application granted granted Critical
Publication of JP5458824B2 publication Critical patent/JP5458824B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、ユーザのプロファイルを抽出することを目的として、ユーザにプロファイリングを実施するプロファイリング装置、プロファイリング方法およびプログラムに関する。   The present invention relates to a profiling apparatus, a profiling method, and a program for performing profiling on a user for the purpose of extracting a user's profile.

個人のプロファイル(性格や性質)や内面の状態を言語化、数値化して説明できるようにする方法として、心理学における質問紙法がある。質問紙法は、アンケートと似た形態であるが、その質問内容はマーケティングや調査に見られる質問、たとえば「住居は賃貸である」といった「YES」か「NO」で回答するような質問ではない。人の特性を抽出することが目的の質問紙は、たとえば「知らない相手にも気軽に話しかけるほうである」といった質問に「あてはまらない」から「あてはまる」の5段階でどのくらいか、といった回答を入力をさせるものである。分析には度合いを示す回答結果を扱う。   There is a questionnaire method in psychology as a way to explain the personal profile (personality and nature) and the state of the inside by verbalization and numericalization. The questionnaire method is similar to a questionnaire, but the content of the question is not a question that appears in marketing or surveys, for example, “YES” or “NO” such as “residence is rented” . For the purpose of extracting a person's characteristics, for example, for questions such as "I will speak to a stranger casually", enter the answer such as "How does it apply" to "How does it apply"? It is what makes you. In the analysis, answer results indicating the degree are handled.

例えば、特許文献1は、ウェアラブルコンピュータを装着し、ユーザのストレス・疲労度をセンサから取得・分析して把握することで、有効と思われる広告のみを選択して配信する情報提供装置を開示している。用いるセンサとしては、加速度センサがあり、加速度センサのデータから行動状況(歩行、走行、自転車、自動車、電車など)を把握することができる。   For example, Patent Document 1 discloses an information providing device that wears a wearable computer and selects and distributes only an advertisement that seems to be effective by acquiring and analyzing a user's stress / fatigue level from a sensor. ing. As a sensor to be used, there is an acceleration sensor, and an action state (walking, running, bicycle, car, train, etc.) can be grasped from data of the acceleration sensor.

また、非特許文献1は、質問紙をモニタに提示し、モニタを閲覧するユーザの表情をカメラで取得することで、表情変化を回答と合わせて記録し分析する、人的資源の管理アプリケーションにおける非言語的な態度と認知的な挙動の測定と比較についての研究論文である。この場合、質問に対し、悩みながら回答していたり、直感的に回答していたりといった回答時のユーザの状況を、回答と同時に取得できる。回答状況を分析時に考慮することで、「あてはまる」と回答しているが悩んでいるようだったため、完全には合致していなさそうといった、より精度の高い分析を行うことができる。   Non-Patent Document 1 presents a human resource management application that presents a questionnaire on a monitor and acquires the facial expression of the user viewing the monitor with a camera to record and analyze facial expression changes together with answers. A research paper on the measurement and comparison of nonverbal attitudes and cognitive behaviors. In this case, the user's situation at the time of answering, such as answering the question while worrying or answering intuitively, can be acquired simultaneously with the answer. By considering the response status at the time of analysis, it seems that the answer is “applicable” but seems to be worried, so it is possible to perform a more accurate analysis that does not seem to match completely.

特許文献2には、ネットワークシステムを利用した質疑応答システムであって、回答者の姿態の変化、表情の変化、音声の変化、脈拍数の変化、発汗量の変化、体温、又は体臭の変化を検知し、それらから落ち着きがあるか、せっかちであるか等の情報を類推し、回答結果に加味することで回答者の性格をより的確に把握することができる質疑応答システムが開示されている。   Patent Document 2 is a question and answer system using a network system, which shows a change in the form of the respondent, a change in facial expression, a change in voice, a change in pulse rate, a change in sweating amount, a change in body temperature, or a body odor. A question-and-answer system has been disclosed that can detect a person's personality more accurately by detecting and analogizing information such as whether the person is calm or impatient and adding it to the answer result.

また、特許文献3には、装着者の日常における生体情報を時系列的に連続して計測できると共に、生体情報が大きく変化した時に問診を行うことにより、その時の精神状態を効率よく収集する、人体に装着可能な携帯型生体情報収集装置が開示されている。   In addition, Patent Document 3 can continuously measure the biological information of the wearer's daily life in a time series and efficiently collect the mental state at that time by conducting an inquiry when the biological information changes greatly. A portable biological information collecting apparatus that can be worn on a human body is disclosed.

特開2001−344352号公報JP 2001-344352 A 特開2002−133047号公報JP 2002-133047 A 特開2003−290176号公報JP 2003-290176 A

Khosla R and C. Lai、M-T. Chu、「Measurement and comparison of non-verbal behavior and cognitive behavior in human resource management: Application in sales recruitment」、CIMSA2006 Proceedings、2006、p.57-62Khosla R and C. Lai, M-T. Chu, `` Measurement and comparison of non-verbal behavior and cognitive behavior in human resource management: Application in sales recruitment '', CIMSA2006 Proceedings, 2006, p.57-62

質問紙によりユーザのプロファイルや内面を調べる行為は、質問実施に時間がかかるという欠点がある。例えば70問の質問に回答をすると、ひとつの質問を読んで答えを入力終えるまでに平均10秒かかるとすると12分近くかかることになり、例えば就労時に実施すると作業を完全に中断させることになりかねず、ユーザにとって負担が大きい。   The act of examining the user's profile and inner surface with a questionnaire has the disadvantage that it takes time to execute the question. For example, if you answer 70 questions, if it takes 10 seconds on average to read one question and finish entering the answer, it will take nearly 12 minutes. For example, if it is done at work, the work will be completely interrupted. There is a heavy burden on the user.

しかし、このような調査はあくまでそのときの状況を探ることが主体であるため、朝と夕方で異なる要素や日ごとに変化する要素もあり、それらを調べるには同じ質問紙による調査を朝夕や毎日といった形で実施する必要が出てくる。このような状況では、繰り返しの実施に対し、ユーザの負担を軽減する工夫が必要になる。   However, since such surveys are mainly focused on the situation at that time, there are elements that vary in the morning and evening, and elements that change from day to day. It will be necessary to carry it out in the form of every day. In such a situation, a device for reducing the burden on the user is necessary for repeated implementation.

一方、ユーザはおかれた環境刺激、例えばオフィスであれば温度、湿度、明るさといった比較的変化の少ない刺激以外に、周りの人々の電話の声や歩いている人の視線などから受ける変化の大きい刺激によってもストレスや緊張が変化する。特に、オフィスのようなプライバシーの守られにくい場所で、自分の個人の性格や内面に関する質問紙の回答を画面に入力している最中は刺激の影響を受けやすく、回答時の状態変化も激しくなる可能性がある。   On the other hand, in addition to environmental stimuli that are placed, such as temperature, humidity, and brightness, which are relatively small changes in the office, the user receives large changes from the voices of people around the phone and the eyes of people walking. Stress and tension change with stimulation. Especially in places where it is difficult to protect privacy, such as in offices, it is easy to be affected by stimuli while inputting answers to questionnaires about your personality and inside, and the state changes at the time of responses are severe. There is a possibility.

このように内面の状態が変化した場合の回答のむらを軽減する方法として、質問数を増やし、同じ質問を表現を変えて何度も行うことで平均化する方法がある。しかし、たとえば、自信を持って回答した結果でも自信なく回答した結果でも区別しないため、結果だけを見ても判断プロセスの違いは分からず、平均化するためには、すべての質問について表現を変えて何度も行うしかない。この方法では、回答数が必要以上に増えてユーザに負担を強いることになる。   As a method of reducing the unevenness of answers when the state of the inner surface changes in this way, there is a method of increasing the number of questions and averaging by repeating the same question over and over again. However, for example, there is no distinction between results that are confidently answered and those that are not confidently answered, so even if you look at the results alone, you will not know the difference in the judgment process. I have to do it many times. According to this method, the number of answers increases more than necessary, which imposes a burden on the user.

つまり、オフィスのような多くの刺激があり、回答にむらが出やすい場所で質問紙を用いてユーザのプロファイルや内面を調べるためには、ストレス度や緊張度といった内面の状況の変化を考慮することが必要で、かつユーザの負担軽減が課題となる。   In other words, in order to examine a user's profile and inner surface using a questionnaire in a place where there are many stimuli such as in offices and where the answer is likely to be uneven, consider changes in the internal situation such as stress and tension It is necessary to reduce the burden on the user.

なお、特許文献2には、回答者の状態の変化からその性質を類推するとの記載があるが、具体的な類推方法は記載されていない。また、特許文献2は、人物の性格を的確に把握・評価可能にすることを目的としたものであって、ユーザの負担を軽減させることを目的に生体情報に基づいて再質問を行うものではない。特許文献3は、生体情報が大きく変化した時に問診を行い回答情報を収集するものであって、ユーザの特性を調べる質問をユーザに提示して回答を取得するプロファイリングにおいて、ユーザの負担を軽減させることを目的に生体情報に基づいて再質問を行うものではない。   In addition, although patent document 2 has the description that the property is estimated from the change of a respondent's state, the specific analogy method is not described. Patent Document 2 is intended to make it possible to accurately grasp and evaluate the character of a person, and does not re-question based on biological information for the purpose of reducing the burden on the user. Absent. Patent Document 3 collects answer information by conducting an inquiry when biometric information changes greatly, and reduces the burden on the user in profiling in which a question for examining the characteristics of the user is presented to the user to obtain an answer. For this purpose, the question is not re-questioned based on the biological information.

本発明は、このような問題に鑑みてなされたものであり、ユーザの特性を調べる質問をユーザに提示して回答を取得するプロファイリング中に、ユーザに何度もプロファイリングを実施する負担を軽減できるプロファイリング装置、プロファイリング方法およびプログラムを提供することを目的とする。   The present invention has been made in view of such problems, and can reduce the burden of performing profiling many times on a user during profiling in which a question for examining a user's characteristics is presented to the user to obtain an answer. It is an object to provide a profiling apparatus, a profiling method, and a program.

本発明の第1の観点に係るプロファイリング装置は、
ユーザの生体情報を取得する生体情報取得手段と、
前記ユーザの特性を調べるための質問を示す質問情報を、その質問情報によって調べられる前記ユーザの特性を示す調査特性ごとに分類して記憶する質問記憶手段と、
前記質問情報を呼び出し、前記質問情報を表示する出力画面を生成して前記ユーザに提示する出力画面生成手段と、
前記質問情報に対して前記ユーザが入力した回答を示す回答情報を取得する回答情報取得手段と、
前記回答情報と前記回答情報を取得した時刻に取得した前記生体情報と前記質問情報とを対応付けて記憶する回答情報記憶手段と、
前記回答情報に対応する生体情報と、前記質問情報に対応付けられた過去の回答情報に対応する生体情報とを比較し、同一の回答情報を取得した過去の回答情報に対応する生体情報の平均が前記回答情報に対応する生体情報と異なる場合、または、同一の生体情報を取得した過去の回答情報の平均が前記回答情報と異なる場合に、再質問を行うと判定する回答判定手段と、を備え、
前記回答判定手段が再質問を行うと判定した場合、前記出力画面生成手段は、前記質問情報と同一の調査特性に分類される異なる質問情報である再質問情報を呼び出し、前記再質問情報を表示する出力画面を生成して前記ユーザに提示することを特徴とする。
A profiling apparatus according to a first aspect of the present invention includes:
Biometric information acquisition means for acquiring biometric information of the user;
Question storage means for classifying and storing question information indicating a question for checking the characteristics of the user according to survey characteristics indicating the characteristics of the user checked by the question information;
Calling out the question information, generating an output screen for displaying the question information and presenting it to the user;
Answer information acquisition means for acquiring answer information indicating an answer input by the user with respect to the question information;
Answer information storage means for storing the biometric information acquired at the time when the answer information and the answer information are acquired and the question information in association with each other;
The biometric information corresponding to the answer information is compared with the biometric information corresponding to the past answer information associated with the question information, and the average of the biometric information corresponding to the past answer information obtained by acquiring the same answer information If There different from the biometric information corresponding to the response information, or, if the average of past answer information obtained the same biometric information is different from the answer information, and answer determination means for determining to perform the re-question, the Prepared,
When it is determined that the answer determination unit performs a re-question, the output screen generation unit calls the re-question information, which is different question information classified into the same survey characteristics as the question information, and displays the re-question information An output screen to be generated is generated and presented to the user.

本発明の第2の観点に係るプロファイリング方法は、
質問をユーザに提示して該ユーザの回答を取得する装置が行うプロファイリング方法であって、
前記ユーザの生体情報を取得する生体情報取得ステップと、
前記ユーザの特性を調べるための質問を示す質問情報を、その質問情報によって調べられる前記ユーザの特性を示す調査特性ごとに分類して記憶する質問記憶ステップと、
前記質問情報を呼び出し、前記質問情報を表示する出力画面を生成して前記ユーザに提示する出力画面生成ステップと、
前記質問情報に対して前記ユーザが入力した回答を示す回答情報を取得する回答情報取得ステップと、
前記回答情報と前記回答情報を取得した時刻に取得した前記生体情報と前記質問情報とを対応付けて記憶する回答情報記憶ステップと、
前記回答情報に対応する生体情報と、前記質問情報に対応付けられた過去の回答情報に対応する生体情報とを比較し、同一の回答情報を取得した過去の回答情報に対応する生体情報の平均が前記回答情報に対応する生体情報と異なる場合、または、同一の生体情報を取得した過去の回答情報の平均が前記回答情報と異なる場合に、再質問を行うと判定する回答判定ステップと、を備え、
前記回答判定ステップで再質問を行うと判定した場合、前記出力画面生成ステップは、前記質問情報と同一の調査特性に分類される異なる質問情報である再質問情報を呼び出し、前記再質問情報を表示する出力画面を生成して前記ユーザに提示することを特徴とする。
The profiling method according to the second aspect of the present invention is:
A profiling method performed by an apparatus that presents a question to a user and obtains the user's answer,
A biometric information acquisition step of acquiring biometric information of the user;
Question storage step for classifying and storing question information indicating a question for checking the characteristics of the user according to survey characteristics indicating the characteristics of the user checked by the question information;
Calling the question information, generating an output screen for displaying the question information and presenting it to the user, an output screen generation step;
An answer information obtaining step for obtaining answer information indicating an answer inputted by the user with respect to the question information;
An answer information storage step for storing the biometric information acquired at the time when the answer information is acquired and the question information in association with each other;
The biometric information corresponding to the answer information is compared with the biometric information corresponding to the past answer information associated with the question information, and the average of the biometric information corresponding to the past answer information obtained by acquiring the same answer information If There different from the biometric information corresponding to the response information, or, if the average of past answer information obtained the same biometric information is different from the answer information, and answers the determination step of determining to perform the re-question, the Prepared,
When it is determined that the re-question is performed in the answer determination step, the output screen generation step calls the re-question information, which is different question information classified into the same survey characteristics as the question information, and displays the re-question information An output screen to be generated is generated and presented to the user.

本発明の第3の観点に係るプログラムは、コンピュータに、
ユーザの生体情報を取得する生体情報取得ステップと、
前記ユーザの特性を調べるための質問を示す質問情報を、その質問情報によって調べられる前記ユーザの特性を示す調査特性ごとに分類して記憶する質問記憶ステップと、
前記質問情報を呼び出し、前記質問情報を表示する出力画面を生成して前記ユーザに提示する出力画面生成ステップと、
前記質問情報に対して前記ユーザが入力した回答を示す回答情報を取得する回答情報取得ステップと、
前記回答情報と前記回答情報を取得した時刻に取得した前記生体情報と前記質問情報とを対応付けて記憶する回答情報記憶ステップと、
前記回答情報に対応する生体情報と、前記質問情報に対応付けられた過去の回答情報に対応する生体情報とを比較し、同一の回答情報を取得した過去の回答情報に対応する生体情報の平均が前記回答情報に対応する生体情報と異なる場合、または、同一の生体情報を取得した過去の回答情報の平均が前記回答情報と異なる場合に、再質問を行うと判定する回答判定ステップと、を実行させ、
前記回答判定ステップで再質問を行うと判定した場合、前記出力画面生成ステップは、前記質問情報と同一の調査特性に分類される異なる質問情報である再質問情報を呼び出し、前記再質問情報を表示する出力画面を生成して前記ユーザに提示することを特徴とする。
A program according to the third aspect of the present invention is stored in a computer.
A biometric information acquisition step of acquiring biometric information of the user;
Question storage step for classifying and storing question information indicating a question for checking the characteristics of the user according to survey characteristics indicating the characteristics of the user checked by the question information;
Calling the question information, generating an output screen for displaying the question information and presenting it to the user, an output screen generation step;
An answer information obtaining step for obtaining answer information indicating an answer inputted by the user with respect to the question information;
An answer information storage step for storing the biometric information acquired at the time when the answer information is acquired and the question information in association with each other;
The biometric information corresponding to the answer information is compared with the biometric information corresponding to the past answer information associated with the question information, and the average of the biometric information corresponding to the past answer information obtained by acquiring the same answer information If There different from the biometric information corresponding to the response information, or, if the average of past answer information obtained the same biometric information is different from the answer information, and answers the determination step of determining to perform the re-question, the Let it run
When it is determined that the re-question is performed in the answer determination step, the output screen generation step calls the re-question information, which is different question information classified into the same survey characteristics as the question information, and displays the re-question information An output screen to be generated is generated and presented to the user.

本発明によれば、プロファイリング中に、過去の生体情報または回答情報と異なる状況における回答についてのみ再質問することで無駄を省き、ユーザに何度もプロファイリングを実施する負担を軽減することができる。これにより、必要な回答情報を効率的に集めることができ、プロファイリングの効率化が期待できる。   According to the present invention, during profiling, it is possible to eliminate waste by re-inquiring about answers in a situation different from past biometric information or answer information, and to reduce the burden of performing profiling many times on the user. As a result, necessary answer information can be efficiently collected, and profiling efficiency can be expected.

本発明の実施の形態1に係るプロファイリングシステムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the profiling system which concerns on Embodiment 1 of this invention. 実施の形態1に係る出力画面の一例を説明する図である。6 is a diagram illustrating an example of an output screen according to Embodiment 1. FIG. ユーザの生体情報の値を縦軸に時間を横軸にしたグラフの一例である。It is an example of the graph which made the vertical axis | shaft the value of a user's biometric information, and made time horizontal. 実施の形態1において情報記憶部が記憶する情報のデータ構造を説明する図である。3 is a diagram illustrating a data structure of information stored in an information storage unit in Embodiment 1. FIG. ユーザ端末または情報取得部が回答情報に生体情報を対応付ける場合に情報記憶部が記憶する情報のデータ構造を説明する図である。It is a figure explaining the data structure of the information which an information storage part memorizes, when a user terminal or an information acquisition part matches living body information with reply information. 実施の形態1に係るプロファイリングの動作の一例を示すフローチャートである。3 is a flowchart showing an example of profiling operation according to the first embodiment. 実施の形態2に係る出力画面の一例を説明する図である。10 is a diagram for explaining an example of an output screen according to Embodiment 2. FIG. 実施の形態2において情報記憶部が記憶する情報のデータ構造を説明する図である。10 is a diagram illustrating a data structure of information stored in an information storage unit in Embodiment 2. FIG. 実施の形態2に係るプロファイリングの動作の一例を示すフローチャートである。10 is a flowchart illustrating an example of profiling operation according to the second embodiment. 本発明の実施の形態3に係るプロファイリングシステムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the profiling system which concerns on Embodiment 3 of this invention. ユーザの生体情報の値を縦軸に時間を横軸にしたグラフの一例である。It is an example of the graph which made the vertical axis | shaft the value of a user's biometric information, and made time horizontal. 実施の形態3に係る生体情報分類ごとの回答情報のデータ構造を説明する図である。It is a figure explaining the data structure of the reply information for every biometric information classification which concerns on Embodiment 3. FIG. 本発明の実施の形態に係るプロファイリング装置のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware constitutions of the profiling apparatus which concerns on embodiment of this invention.

本発明で生体情報とは、例えば緊張度やストレス度を測ることができる筋電位、心拍数(HR)、呼吸量、血圧、容積脈波、瞳孔の径、体表面の皮膚温度、発話の単位時間あたりの語数、うなずきの単位時間あたりの回数、体の揺れの振動数、まばたきの単位時間あたりの回数、筋電位、脳波などである。例えば、まばたきは対象への興味やストレスに応じて回数が増える。心拍数や発話語数は緊張度などで数が変化する。瞳孔の径は覚醒度で開き方が変わる。うなずきや体の揺れは落ち着き度で回数が変わる。生体情報は、これらのような状況で変化する緊張度、ストレス、覚醒度、落ち着き度、などの体の状態を表す情報を用いる。   In the present invention, biometric information refers to, for example, myoelectric potential, heart rate (HR), respiration rate, blood pressure, volume pulse wave, pupil diameter, body surface skin temperature, and utterance unit capable of measuring tension and stress. These include the number of words per hour, the number of nods per unit time, the number of body shaking vibrations, the number of blinks per unit time, myoelectric potential, and brain waves. For example, the number of blinks increases according to interest and stress on the subject. The number of heartbeats and spoken words varies depending on the degree of tension. The opening of the pupil varies depending on the degree of arousal. The number of nods and shaking varies depending on the degree of calmness. The biological information uses information representing the state of the body such as the degree of tension, stress, arousal level, calmness, etc. that change in these situations.

以下に、本発明を実施するための形態について図面を参照して詳細に説明する。なお、図中同一または相当する部分には同じ符号を付す。   EMBODIMENT OF THE INVENTION Below, the form for implementing this invention is demonstrated in detail with reference to drawings. In addition, the same code | symbol is attached | subjected to the part which is the same or it corresponds in a figure.

(実施の形態1)
図1は、本発明の実施の形態1に係るプロファイリングシステムの構成例を示すブロック図である。プロファイリングシステム101は、プロファイリング装置1と、ユーザ端末6とから構成される。プロファイリング装置1とユーザ端末6は、ネットワーク(図示せず)を介して相互に通信可能である。ユーザ端末6は代表して1台で図示するが、複数のユーザ端末6がネットワークに接続される場合がある。またユーザ端末6は、プロファイリング装置1の一部であるか、または、附属の装置の場合がある。
(Embodiment 1)
FIG. 1 is a block diagram showing a configuration example of a profiling system according to Embodiment 1 of the present invention. The profiling system 101 includes a profiling device 1 and a user terminal 6. The profiling device 1 and the user terminal 6 can communicate with each other via a network (not shown). Although one user terminal 6 is shown as a representative, a plurality of user terminals 6 may be connected to the network. Further, the user terminal 6 may be a part of the profiling device 1 or an attached device.

プロファイリング装置1は、情報取得部11、情報記憶部12、回答判定部13、出力画面生成部14および質問情報記憶部15を備える。情報記憶部12および質問情報記憶部15は、ネットワークを介してプロファイリング装置1に接続される別の装置の場合がある。ユーザ端末6は、入力部61と表示部62と生体情報取得部63とを備える。   The profiling device 1 includes an information acquisition unit 11, an information storage unit 12, an answer determination unit 13, an output screen generation unit 14, and a question information storage unit 15. The information storage unit 12 and the question information storage unit 15 may be different devices connected to the profiling device 1 via a network. The user terminal 6 includes an input unit 61, a display unit 62, and a biological information acquisition unit 63.

プロファイリング装置1の情報取得部11は、ユーザ端末6からユーザが入力した回答を示す回答情報を受け取る。また、情報取得部11は、ユーザ端末6から送信されるユーザの生体情報を受け取る。なお、ユーザ端末6は、ユーザが回答した時の生体情報を回答情報に対応付けて情報取得部11に送信することとしてもよいし、情報取得部11が、回答情報を取得した時に同時に取得した生体情報を当該回答情報に対応付けてもよい。   The information acquisition unit 11 of the profiling device 1 receives response information indicating an answer input by the user from the user terminal 6. Further, the information acquisition unit 11 receives user biometric information transmitted from the user terminal 6. Note that the user terminal 6 may transmit the biometric information when the user answers to the information acquisition unit 11 in association with the response information, or the information acquisition unit 11 acquires the response information at the same time. The biological information may be associated with the answer information.

情報記憶部12は、情報取得部11が受け取った回答情報と取得した時刻を示す回答時刻情報と質問情報とを対応付けて記憶する。また、情報記憶部12は、情報取得部11がユーザ端末6から逐次受け取ったユーザの生体情報に現在時刻を付与して時系列で記憶する。情報記憶部12は、これらの情報をユーザごとに記憶している。なお、ユーザ端末6または情報取得部11が回答情報に生体情報を対応付ける場合は、情報記憶部12は、取得した回答情報と回答情報に対応する生体情報と質問情報とを対応付けて記憶する。   The information storage unit 12 stores the response information received by the information acquisition unit 11, the response time information indicating the acquired time, and the question information in association with each other. Further, the information storage unit 12 assigns the current time to the user's biometric information sequentially received from the user terminal 6 by the information acquisition unit 11 and stores it in time series. The information storage unit 12 stores these pieces of information for each user. When the user terminal 6 or the information acquisition unit 11 associates biometric information with answer information, the information storage unit 12 stores the acquired answer information, biometric information corresponding to the answer information, and question information in association with each other.

回答判定部13は、回答情報に対応する生体情報に基づいて、再質問を行うか否かを判定する。   The answer determination unit 13 determines whether or not to re-question based on the biological information corresponding to the answer information.

出力画面生成部14は、後述する質問情報記憶部15から質問情報を呼び出し、その質問情報を表示する出力画面を生成する。また、出力画面生成部14は、回答判定部13が再質問を行うと判定した場合は、その質問情報と同一の調査特性に分類される異なる質問情報である再質問情報を呼び出し、その再質問情報を表示する出力画面を生成する。   The output screen generation unit 14 calls the question information from the question information storage unit 15 described later, and generates an output screen for displaying the question information. If the answer determination unit 13 determines that the re-question is to be performed, the output screen generation unit 14 calls re-question information that is different question information classified into the same survey characteristics as the question information, and the re-question Generate an output screen that displays the information.

質問情報記憶部15は、ユーザの特性を調べるための質問を示す質問情報を、その質問情報によって調べられる前記ユーザの特性を示す調査特性ごとに分類して記憶している。   The question information storage unit 15 classifies and stores the question information indicating the question for checking the user characteristics according to the survey characteristics indicating the user characteristics checked by the question information.

ユーザ端末6の入力部61は、ユーザによる回答を受け付ける。表示部62は、プロファイリング装置1の出力画面生成部14から送られた出力画面を表示する。生体情報取得部63は、ユーザが装着している筋電位センサーや心拍計など(図示せず)から、ユーザの生体情報を取得する。なお、ユーザ端末6は、インターネット等のネットワークを介したPCでもよいし、携帯電話でもよい。また、回答の入力は、Webページで行ってもよいし、電子メールを用いてもよい。   The input unit 61 of the user terminal 6 receives an answer from the user. The display unit 62 displays the output screen sent from the output screen generation unit 14 of the profiling apparatus 1. The biometric information acquisition unit 63 acquires the biometric information of the user from a myoelectric sensor or a heart rate monitor (not shown) worn by the user. The user terminal 6 may be a PC via a network such as the Internet or a mobile phone. Moreover, the input of the answer may be performed on a Web page or an e-mail may be used.

図2は、実施の形態1に係る出力画面の一例を説明する図である。図2の例では、ユーザ端末6の表示部62に表示された出力画面621は、「最近、よく寝付けない」という質問情報623を表示しており、ユーザがその回答を入力するための1〜5のキーボタン群622を表示している。キーボタン群622は、符号1が「そうではない」、符号2が「ややそうではない」、符号3が「どちらでもない」、符号4が「ややそうである」、符号5が「そうである」を表す。すなわち、ユーザが入力したキーボタンの数が大きいほど質問情報623に示した事項にユーザがよりあてはまることを意味する。情報取得部11は、ユーザがいずれのキーボタンを押したかを示す回答情報をユーザ端末6から取得し、情報記憶部12は、質問情報623と回答情報を取得した時刻を示す回答時刻情報とを回答情報と対応付けて記憶する。   FIG. 2 is a diagram for explaining an example of an output screen according to the first embodiment. In the example of FIG. 2, the output screen 621 displayed on the display unit 62 of the user terminal 6 displays the question information 623 “I don't sleep well recently”, and the user can input 1 to the answer. 5 key buttons 622 are displayed. The key button group 622 has a symbol 1 “not so”, a symbol 2 “not so”, a symbol 3 “neither”, a symbol 4 “somewhat”, and a symbol 5 “yes” "Is". That is, as the number of key buttons input by the user is larger, it means that the user is more applicable to the items indicated in the question information 623. The information acquisition unit 11 acquires response information indicating which key button the user has pressed from the user terminal 6, and the information storage unit 12 receives the question information 623 and the response time information indicating the time when the response information is acquired. It is stored in association with the answer information.

なお、ユーザ端末6が、ユーザが回答した時刻を回答時刻情報として回答情報に対応付けて情報取得部11に送信することとしてもよい。このとき、ユーザはキーボタン群622のいずれかを押すだけで回答入力が完了するので、ユーザ端末6は、押した瞬間の時刻を回答時刻情報とする。ただし、回答が記述式の場合のように、ユーザが回答するのに時間がかかる場合は、ユーザ端末6は、回答開始時刻と回答終了時刻を回答時刻情報として回答情報に対応付けて情報取得部11に送信することとする。   Note that the user terminal 6 may transmit the time when the user answers as response time information to the information acquisition unit 11 in association with the response information. At this time, since the user completes the answer input by simply pressing any one of the key buttons 622, the user terminal 6 sets the time at the moment of pressing as the answer time information. However, when it takes time for the user to answer, as in the case where the answer is a descriptive formula, the user terminal 6 associates the answer start time and the answer end time with the answer information as the answer time information, and the information acquisition unit 11 to be transmitted.

図3は、ユーザの生体情報の値を縦軸に時間を横軸にしたグラフの一例である。図3の例では、生体情報として筋電位を測定して緊張度を測るものとし、筋電位が高いほど緊張度が高いことを表す。出力画面生成部14は、図2に示したように質問情報を表示する出力画面621を生成し、ユーザ端末6に送信する。1つ目の質問を表示する出力画面621をユーザ端末6に送信した時刻が提示時刻t1である。ユーザ端末6は表示部62に受信した出力画面621を表示する。ユーザは提示された出力画面621に表示されている質問に対して、回答としてキーボタン群622のいずれかを押す。情報取得部11は、ユーザ端末6からユーザの回答を示す回答情報を取得する。この回答情報を取得した時刻が回答時刻t2であって、情報記憶部12は、回答時刻t2を回答時刻情報として回答情報と質問と対応付けて記憶する。同様に、2つ目の質問を表示する出力画面621をユーザ端末6に送信した時刻が提示時刻t3、情報取得部11が質問に対する回答情報を取得した時刻が回答時刻t4、3つ目の質問を表示する出力画面621をユーザ端末6に送信した時刻が提示時刻t5、情報取得部11が質問に対する回答情報を取得した時刻が回答時刻t6である。   FIG. 3 is an example of a graph in which the value of the user's biometric information is plotted on the vertical axis and the time is plotted on the horizontal axis. In the example of FIG. 3, the myoelectric potential is measured as biological information to measure the degree of tension, and the higher the myoelectric potential, the higher the degree of tension. The output screen generation unit 14 generates an output screen 621 that displays question information as illustrated in FIG. 2 and transmits the output screen 621 to the user terminal 6. The time when the output screen 621 for displaying the first question is transmitted to the user terminal 6 is the presentation time t1. The user terminal 6 displays the received output screen 621 on the display unit 62. The user presses one of the key buttons 622 as an answer to the question displayed on the presented output screen 621. The information acquisition unit 11 acquires response information indicating the user's response from the user terminal 6. The time when the answer information is acquired is the answer time t2, and the information storage unit 12 stores the answer time t2 as the answer time information in association with the answer information and the question. Similarly, the time when the output screen 621 displaying the second question is transmitted to the user terminal 6 is the presentation time t3, and the time when the information acquisition unit 11 acquires the answer information for the question is the answer time t4, the third question The time when the output screen 621 for displaying the message is transmitted to the user terminal 6 is the presentation time t5, and the time when the information acquisition unit 11 acquires the answer information for the question is the answer time t6.

情報記憶部12は、ユーザの生体情報を時系列で記憶しているので、回答時刻で回答時の緊張度を検索することができる。図3の例では、回答時刻t2の緊張度はy1であり、回答時刻t4の緊張度はy2であり、回答時刻t6の緊張度はy3である。なお、例えば質問の緊張度について、提示時刻t1から回答時刻t2までの間の生体情報の平均を緊張度としてもよいし、回答時刻t2から提示時刻t3までの間の生体情報の平均を緊張度としてもよい。また、前述のように、ユーザが回答するのに時間がかかる場合は、回答開始時刻と回答終了時刻を回答時刻情報とする。この場合、緊張度は、回答開始時刻から回答終了時刻までのの生体情報の値の平均としてもよいし、回答開始時刻から回答終了時刻までのの生体情報の値を近似できる関数を用いてもよい。   Since the information storage unit 12 stores the user's biometric information in time series, the information storage unit 12 can search for the degree of tension at the time of answering at the answering time. In the example of FIG. 3, the tension at the answer time t2 is y1, the tension at the answer time t4 is y2, and the tension at the answer time t6 is y3. For example, for the tension of the question, the average of the biological information from the presentation time t1 to the answer time t2 may be used as the tension, or the average of the biological information from the answer time t2 to the presentation time t3 is set as the tension. It is good. As described above, when the user takes time to answer, the answer start time and answer end time are set as answer time information. In this case, the degree of tension may be the average of the values of the biological information from the answer start time to the answer end time, or a function that can approximate the value of the biometric information from the answer start time to the answer end time may be used. Good.

図4は、実施の形態1において情報記憶部が記憶する情報のデータ構造を説明する図である。情報記憶部12は、質問情報と回答時刻情報と回答情報とを対応付けた情報として図4(a)に示すようなデータテーブルを格納する。出力画面生成部14が質問情報記憶部15から呼び出した順に、質問情報と、その調査特性と、回答情報と、回答時刻情報とが対応付けて記憶されている。図4(b)は、図4(a)のデータテーブルに含まれる回答時刻情報に対応する生体情報をデータテーブル化したものである。なお、回答時刻情報に対応する生体情報は、図4(b)のように、データテーブル化してもよいし、随時検索することとしてもよい。また、図4に示すようなデータテーブルはプロファイリングを実施するごとに作成されることとする。すなわち、同一のデータテーブルに格納されている回答情報等は同一の時間帯に実施されたプロファイリングの結果である。   FIG. 4 is a diagram illustrating the data structure of information stored in the information storage unit in the first embodiment. The information storage unit 12 stores a data table as shown in FIG. 4A as information in which question information, answer time information, and answer information are associated with each other. In the order that the output screen generation unit 14 calls from the question information storage unit 15, the question information, the survey characteristics, the response information, and the response time information are stored in association with each other. FIG. 4B is a data table of biometric information corresponding to the response time information included in the data table of FIG. The biometric information corresponding to the answer time information may be made into a data table as shown in FIG. 4B, or may be searched as needed. A data table as shown in FIG. 4 is created every time profiling is performed. That is, the reply information stored in the same data table is a result of profiling performed in the same time zone.

図4では、1つ目の質問Q1は「A1」であって、質問情報A1によって調査されるユーザの特性である調査特性は「○○性」である。また、質問情報A1に対するユーザの回答は「4」であって、回答情報「4」を取得した時刻は「t2」である。さらに、回答時刻「t2」で検索された緊張度は「y1」である。図4(b)の時刻および緊張度は、図3の回答時刻および緊張度と対応する。なお、図4の例では質問情報によって調査されるユーザの特性を調査特性として回答情報に対応付けているが、調査特性は回答情報に対応付けなくてもよい。   In FIG. 4, the first question Q1 is “A1”, and the survey characteristic that is the user's characteristic investigated by the question information A1 is “XXX”. The user's answer to the question information A1 is “4”, and the time when the answer information “4” is acquired is “t2”. Furthermore, the degree of tension retrieved at the answer time “t2” is “y1”. The time and tension in FIG. 4B correspond to the answer time and tension in FIG. In the example of FIG. 4, the characteristics of the user investigated by the question information are associated with the answer information as the investigation characteristics, but the investigation characteristics may not be associated with the answer information.

回答判定部13は、図4に示すデータテーブルを参照して再質問を行うか否かを判定する。回答判定部13は、情報取得部11が質問情報A1に対する回答情報「4」を取得すると、情報記憶部12が記憶している質問情報A1に対応付けられた過去の回答情報を参照し、質問情報A1に対応付けられた過去の回答時刻情報から生体情報を検索する。たとえば、過去の回答情報が「4」である過去の回答時刻情報で検索された生体情報の値の平均が「y1」であったとすると、回答判定部13は、「再質問しない」と判定する。一方、過去の回答情報が「4」である過去の回答時刻情報で検索された生体情報の値の平均が「y1」でなかったとすると、回答判定部13は、「再質問する」と判定する。   The answer determination unit 13 refers to the data table shown in FIG. When the information acquisition unit 11 acquires the answer information “4” for the question information A1, the answer determination unit 13 refers to the past answer information associated with the question information A1 stored in the information storage unit 12, and Biometric information is searched from past answer time information associated with the information A1. For example, when the average of the values of the biometric information searched for in the past answer time information whose past answer information is “4” is “y1”, the answer determination unit 13 determines “do not re-question”. . On the other hand, if the average of the values of the biometric information retrieved with the past answer time information whose past answer information is “4” is not “y1”, the answer determination unit 13 determines “re-question”. .

また、過去の回答時刻情報で検索された生体情報の値が「y1」である過去の回答情報の平均が「4」であるとすると、回答判定部13は、「再質問しない」と判定する。過去の回答時刻情報で検索された生体情報の値が「y1」である過去の回答情報の平均が「4」でなかったとすると、回答判定部13は、「再質問する」と判定する。なお、過去の回答情報の平均が「4」に近似する値であれば「4」として扱い、過去の回答時刻情報で検索された生体情報の値の平均が「y1」に近似する値であれば「y1」として扱うように幅をもたせてもよい。あるいは、たとえば生体情報が示すものが緊張度であればその値を「高緊張」「中緊張」「低緊張」の3段階の生体情報分類に分類し、回答判定部13は、過去の回答情報が同一である過去の回答時刻情報で検索された生体情報の値の平均が同一の生体情報分類でなかった場合、または、過去の回答時刻情報で検索された生体情報の値が同一の生体情報分類である過去の回答情報の平均が同一または近似値でなかった場合、「再質問する」と判定することとしてもよい。なお、生体情報分類については、実施の形態3で詳しく説明する。   Also, if the average of past answer information whose biometric information retrieved from past answer time information is “y1” is “4”, the answer determination unit 13 determines that “no re-question”. . If the average of the past answer information whose biometric information retrieved from the past answer time information is “y1” is not “4”, the answer determination unit 13 determines “re-question”. If the average of past response information is a value that approximates “4”, it is treated as “4”, and the average of the values of biometric information retrieved from past response time information is a value that approximates “y1”. For example, the width may be given so as to be handled as “y1”. Alternatively, for example, if the biometric information indicates a degree of tension, the value is classified into three stages of biometric information classifications of “high tension”, “medium tension”, and “low tension”, and the answer determination unit 13 selects past answer information. If the average of the values of the biometric information retrieved with the past answer time information with the same is not the same biometric information classification, or the biometric information with the same biometric information retrieved with the past answer time information When the averages of past answer information as classifications are not the same or approximate values, it may be determined that “re-question”. The biometric information classification will be described in detail in Embodiment 3.

図4の例では、出力画面生成部14は、○○性、△△性、××性、□□性の順に一つずつ質問情報を呼び出して行くとする。質問Q1は、再質問すると判定され、2つ目の質問Q2は、質問情報A1と同一の調査特性である質問情報A2がユーザに再質問されている。質問Q2は、再質問しないと判定され、3つ目の質問Q3は次の調査特性である△△性を調べる質問情報B1がユーザに質問されている。質問Q3は、再質問すると判定され、4つ目の質問Q4は、質問情報B1と同一の調査特性である質問情報B2がユーザに再質問されている。以下、質問Q4は再質問しないと判定され、5つ目の質問Q5および6つ目の質問Q6は再質問すると判定され、7つ目の質問Q7は再質問しないと判定されている。   In the example of FIG. 4, it is assumed that the output screen generation unit 14 calls the question information one by one in the order of XX, △△, xx, and □□. The question Q1 is determined to be re-questioned, and the second question Q2 is re-questioned by the user with question information A2 having the same investigation characteristics as the question information A1. The question Q2 is determined not to be re-questioned, and the third question Q3 is questioned to the user by question information B1 for examining the next investigation characteristic ΔΔ. The question Q3 is determined to be re-questioned, and the fourth question Q4 is re-questioned by the user with question information B2 having the same investigation characteristics as the question information B1. Hereinafter, the question Q4 is determined not to be re-questioned, the fifth question Q5 and the sixth question Q6 are determined to be re-questioned, and the seventh question Q7 is determined not to be re-questioned.

なお、回答判定部13は、回答情報に対応する生体情報が予め設定した閾値を超える場合、再質問すると判定することとしてもよいし、直前の回答情報に対応する生体情報が予め設定した閾値を超える場合、人の緊張状態は変化はするが急には変わりにくいので、次も閾値を超えると仮定し、再質問すると判定することとしてもよい。   The answer determination unit 13 may determine that the question is re-questioned when the biometric information corresponding to the answer information exceeds a preset threshold value, or the biometric information corresponding to the immediately previous answer information may be set to a preset threshold value. If it exceeds, the tension state of the person changes but is hard to change suddenly. Therefore, it may be determined that the next question also exceeds the threshold value and the question is re-questioned.

図5は、ユーザ端末または情報取得部が回答情報に生体情報を対応付ける場合に情報記憶部が記憶する情報のデータ構造を説明する図である。情報取得部11が回答情報と同時に生体情報を受け取り、情報記憶部12が取得した回答情報及び生体情報と質問情報とを対応付けて記憶する場合、情報記憶部12は、質問情報に対応付けた回答情報および回答情報に対応する生体情報として図5に示すようなデータテーブルを格納する。出力画面生成部14が質問情報記憶部15から呼び出した順に、質問情報と、その調査特性、と、回答情報と、回答情報に対応する生体情報とが対応付けて記憶されている。この場合、回答時刻で生体情報を検索する必要がない。   FIG. 5 is a diagram illustrating a data structure of information stored in the information storage unit when the user terminal or the information acquisition unit associates biometric information with answer information. When the information acquisition unit 11 receives biometric information at the same time as the answer information and stores the response information and biometric information acquired by the information storage unit 12 in association with the question information, the information storage unit 12 associates with the question information. A data table as shown in FIG. 5 is stored as answer information and biometric information corresponding to the answer information. In the order that the output screen generation unit 14 calls from the question information storage unit 15, the question information, the survey characteristics, the response information, and the biological information corresponding to the response information are stored in association with each other. In this case, there is no need to search the biometric information at the answer time.

図6は、実施の形態1に係るプロファイリングの動作の一例を示すフローチャートである。まず、出力画面生成部14は、質問情報記憶部15から質問情報を呼び出し(ステップS11)、その質問情報を表示する出力画面を生成する(ステップS12)。出力画面生成部14は、生成した出力画面をユーザ端末6に送信する(ステップS13)。ユーザ端末6は受信した出力画面を表示部62に表示してユーザに質問情報を提示する。ユーザが入力部61に質問情報に対する回答を入力し、ユーザ端末6はその回答を示す回答情報を情報取得部11に送信する。   FIG. 6 is a flowchart showing an example of the profiling operation according to the first embodiment. First, the output screen generation unit 14 calls the question information from the question information storage unit 15 (step S11), and generates an output screen that displays the question information (step S12). The output screen generation unit 14 transmits the generated output screen to the user terminal 6 (step S13). The user terminal 6 displays the received output screen on the display unit 62 and presents question information to the user. The user inputs an answer to the question information to the input unit 61, and the user terminal 6 transmits answer information indicating the answer to the information acquisition unit 11.

情報取得部11は、ユーザ端末6から回答情報を取得し(ステップS14)、情報記憶部12は、回答情報を取得した時刻を示す回答時刻情報と質問情報と回答情報とを対応付けて記憶する(ステップS15)。   The information acquisition unit 11 acquires the response information from the user terminal 6 (step S14), and the information storage unit 12 stores the response time information indicating the time when the response information is acquired, the question information, and the response information in association with each other. (Step S15).

次に、回答判定部13は、回答時刻情報が示す時刻の生体情報を検索し、呼び出す(ステップS16)。回答判定部13は、情報記憶部12が当該質問情報に対応付けて記憶している過去の回答情報と、その回答情報に対応する回答時刻情報で検索した生体情報をさらに呼び出す(ステップS17)。次に、回答判定部13は、過去の回答情報が同一である過去の回答時刻情報で検索された生体情報の値の平均が当該生体情報の値と同一でなかった場合、または、過去の回答時刻情報で検索された生体情報の値が当該生体情報の値と同一である過去の回答情報の平均が同一でなかった場合、「再質問する」と判定する(ステップS18;YES)。   Next, the answer determination unit 13 searches for and calls the biometric information at the time indicated by the answer time information (step S16). The answer determination unit 13 further calls the biometric information retrieved by the past answer information stored in the information storage unit 12 in association with the question information and the answer time information corresponding to the answer information (step S17). Next, the answer determination unit 13 determines that the average of the values of the biometric information retrieved with the past answer time information with the same past answer information is not the same as the value of the biometric information, or the past answer When the average of the past answer information in which the value of the biometric information searched for by the time information is the same as the value of the biometric information is not the same, it is determined to “re-question” (step S18; YES).

回答判定部13が「再質問する」と判定すると、出力画面生成部14は、質問情報記憶部15から当該質問情報と同一の調査特性に分類される異なる質問情報である再質問情報を呼び出し(ステップS19)、再質問情報を表示する出力画面を生成する(ステップS12)。ステップS18で回答判定部13が「再質問する」と判定すると、処理はステップS19、ステップS12〜ステップS18を繰り返す。   When the answer determination unit 13 determines to “re-question”, the output screen generation unit 14 calls re-question information, which is different question information classified into the same survey characteristics as the question information, from the question information storage unit 15 ( Step S19), an output screen for displaying the re-question information is generated (Step S12). If the answer determination unit 13 determines “re-question” in step S18, the process repeats step S19 and steps S12 to S18.

一方、回答判定部13は、過去の回答情報が同一である過去の回答時刻情報で検索された生体情報の値の平均が当該生体情報の値と同一である場合、または、過去の回答時刻情報で検索された生体情報の値が当該生体情報の値と同一である過去の回答情報の平均が同一である場合、「再質問しない」と判定する(ステップS18;NO)。回答判定部13が「再質問しない」と判定すると、次の質問情報がある場合(ステップ20;YES)、処理はステップS12〜ステップS20を繰り返す。次の質問情報がない場合(ステップ20;NO)、処理は終了する。   On the other hand, the answer determination unit 13 determines whether the average of the values of the biometric information retrieved from the past answer time information with the same past answer information is the same as the value of the biometric information, or the past answer time information. When the average of the past answer information in which the value of the biometric information retrieved in step 1 is the same as the value of the biometric information is determined to be “no re-question” (step S18; NO). If the answer determination unit 13 determines that “do not re-question”, if there is next question information (step 20; YES), the process repeats steps S12 to S20. If there is no next question information (step 20; NO), the process ends.

なお、ユーザ端末6または情報取得部11が回答情報に生体情報を対応付ける場合は、ステップS15において、情報記憶部12は、回答情報と質問情報と回答情報に対応する生体情報とを対応付けて記憶する。また、この場合ステップS16は不要である。後述する図9に示すフローチャートにおいてもユーザ端末6または情報取得部11が回答情報に生体情報を対応付ける場合は、同様の処理を行う。   When the user terminal 6 or the information acquisition unit 11 associates the biological information with the answer information, the information storage unit 12 stores the answer information, the question information, and the biological information corresponding to the answer information in association with each other in step S15. To do. In this case, step S16 is not necessary. In the flowchart shown in FIG. 9 described later, when the user terminal 6 or the information acquisition unit 11 associates the biological information with the answer information, the same processing is performed.

以上説明したように実施の形態1のプロファイリングシステム101によれば、プロファイリング中に、過去の生体情報および回答情報と比較し、生体情報および回答情報のどちらかが異なる回答についてのみ再質問することで無駄を省き、ユーザに何度もプロファイリングを実施する負担を軽減する。これにより、プロファイリングに必要な回答情報を効率的に集めることができ、プロファイリングの効率化が期待できる。   As described above, according to the profiling system 101 of the first embodiment, during profiling, it is compared with past biometric information and answer information, and only questions that have different biometric information or answer information are re-questioned. Eliminate waste and reduce the burden of profiling multiple times on the user. As a result, the answer information necessary for profiling can be efficiently collected, and the efficiency of profiling can be expected.

(実施の形態2)
本発明の実施の形態2に係るプロファイリングシステムの構成は実施の形態1に係るプロファイリングシステム101と同様である。実施の形態2では、回答判定部13は、回答情報に対応付けた回答時刻情報が示す時刻の生体情報に基づいて、ユーザに回答の確認を行うか否かを判定する。出力画面生成部14は、質問情報記憶部15からユーザに回答を変更するか否かを質問する確認情報を呼び出し、その確認情報を表示する出力画面を生成する。また、質問情報記憶部15は、ユーザに回答を変更するか否かを質問する確認情報を記憶していることとする。なお、確認情報は質問情報記憶部15に限らず、他の記憶部や記憶装置に記憶していることとしてもよい。
(Embodiment 2)
The configuration of the profiling system according to the second embodiment of the present invention is the same as that of the profiling system 101 according to the first embodiment. In the second embodiment, the answer determination unit 13 determines whether or not to confirm the answer to the user based on the biological information at the time indicated by the answer time information associated with the answer information. The output screen generation unit 14 calls confirmation information asking whether or not to change the answer from the question information storage unit 15 and generates an output screen that displays the confirmation information. The question information storage unit 15 stores confirmation information for asking the user whether or not to change the answer. The confirmation information is not limited to the question information storage unit 15 and may be stored in another storage unit or storage device.

図7は、実施の形態2に係る出力画面の一例を説明する図である。図7の例では、ユーザ端末6の表示部62に表示された出力画面621は、「最近、食欲がない」という質問情報624を表示しており、この質問情報624に対し、ユーザがキーボタン625を押し、回答情報「4」を入力した状態を表示している。キーボタン625は、例えばマウスによるクリックなどで押下されたことにより、他のキーボタンと区別できるよう表示されている。この回答情報に対し、出力画面生成部14は、ユーザに回答を変更するか否かを質問する確認情報626をポップアップで表示させる。確認情報626は、「これで良いですか?」という質問文と「はい」の選択ボタン627と「変更する」の選択ボタン628を有する。ユーザは入力した回答情報「4」で間違いなければ選択ボタン627を押し、変更したければ「変更する」の選択ボタン628を押す。   FIG. 7 is a diagram illustrating an example of an output screen according to the second embodiment. In the example of FIG. 7, the output screen 621 displayed on the display unit 62 of the user terminal 6 displays the question information 624 “No appetite recently”, and the user presses a key button for the question information 624. A state in which the answer information “4” is input by pressing 625 is displayed. The key button 625 is displayed so that it can be distinguished from other key buttons when pressed by, for example, clicking with a mouse. In response to this answer information, the output screen generation unit 14 displays confirmation information 626 as a popup for asking the user whether or not to change the answer. The confirmation information 626 includes a question sentence “Is this OK?”, A “Yes” selection button 627, and a “Change” selection button 628. The user presses the selection button 627 if the input answer information “4” is correct, and presses the “change” selection button 628 to change it.

ユーザが「変更する」の選択ボタン628を押した場合、出力画面621は、ユーザがが回答情報を入力する前の状態に遷移し、ユーザは再度回答情報を入力することができる。このとき、情報記憶部12は、ユーザが新しく入力した回答情報を、質問情報624に対する回答情報として上書きして記憶する。   When the user presses the “change” selection button 628, the output screen 621 transitions to a state before the user inputs the answer information, and the user can input the answer information again. At this time, the information storage unit 12 overwrites and stores the answer information newly input by the user as answer information for the question information 624.

図8は、実施の形態2において情報記憶部が記憶する情報のデータ構造を説明する図である。実施の形態2では、情報記憶部12は、質問情報および回答時刻情報を対応付けた回答情報として図8(a)に示すようなデータテーブルを格納する。出力画面生成部14が質問情報記憶部15から呼び出した順に、質問情報と、その調査特性と、回答情報と、回答時刻情報とが対応付けて記憶されている。図8(b)は、図8(a)のデータテーブルに含まれる回答時刻情報に対応する生体情報をデータ化したものである。回答時刻情報に対応する生体情報は、図8(b)のように、データ化してもよいし、随時検索することとしてもよい。   FIG. 8 is a diagram for explaining the data structure of information stored in the information storage unit in the second embodiment. In the second embodiment, the information storage unit 12 stores a data table as shown in FIG. 8A as answer information in which question information and answer time information are associated with each other. In the order that the output screen generation unit 14 calls from the question information storage unit 15, the question information, the survey characteristics, the response information, and the response time information are stored in association with each other. FIG. 8B is data obtained by converting the biological information corresponding to the response time information included in the data table of FIG. The biometric information corresponding to the answer time information may be converted into data as shown in FIG. 8B, or may be searched as needed.

回答判定部13は、図8に示すデータテーブルを参照して確認を行うか否かを判定する。回答判定部13は、情報取得部11が質問情報B1に対する回答情報「3」を取得すると、回答時刻情報が示す回答時刻t4で検索された緊張度y2と、直前の回答時刻情報が示す回答時刻t2で検索した緊張度y1とを呼び出す。回答判定部13は、y1とy2の差を求め、この差があらかじめ設定しておいた閾値よりも大きい場合、「確認する」と判定すし、あらかじめ設定しておいた閾値よりも小さい場合は「確認しない」と判定する。回答判定部13は、回答情報を取得するたびに、その回答時刻情報に対応する緊張度と直前の回答時刻情報に対応する緊張度を比較して差を求める。   The answer determination unit 13 determines whether or not to check with reference to the data table shown in FIG. When the information acquisition unit 11 acquires the answer information “3” for the question information B1, the answer determination unit 13 acquires the tension y2 searched at the answer time t4 indicated by the answer time information and the answer time indicated by the immediately previous answer time information. Call the tension y1 retrieved at t2. The answer determination unit 13 obtains a difference between y1 and y2, and determines that “confirm” if the difference is larger than a preset threshold value. It is determined that “do not check”. Each time the answer determination unit 13 acquires answer information, the answer determination unit 13 compares the degree of tension corresponding to the answer time information with the degree of tension corresponding to the immediately previous answer time information to obtain a difference.

図8の例では、出力画面生成部14は、○○性、△△性、××性、□□性の順に繰り返し一つずつ質問情報を呼び出して行くとする。回答判定部13は、4つ目の質問Q4の回答情報4を取得すると、回答時刻情報が示す回答時刻t8で検索された緊張度y4と、直前の回答時刻情報が示す回答時刻t6で検索した緊張度y3とを呼び出し、y3とy4の差を求める。ここでは、y3とy4の差があらかじめ設定しておいた閾値よりも大きく、回答判定部13は「確認する」と判定する。回答判定部13が「確認する」と判定すると、出力画面生成部14は、質問情報記憶部15から確認情報を呼び出し、確認情報を表示する出力画面を生成する。ユーザ端末6はこれを表示部62に表示し、ユーザは再度回答を入力することができる。図8の例では、ユーザは質問Q4の回答情報を変更し、改めて回答情報「3」を入力している。これにより、情報記憶部12は、回答情報を「4」から「3」に上書きして保存する。なお、ここでは便宜上、上書き保存を矢印で表記したが、実際に質問Q4の回答情報として格納されているのは回答情報「3」のみである。   In the example of FIG. 8, it is assumed that the output screen generation unit 14 repeatedly calls the question information one by one in the order of XX, △△, xx, and □□. When the answer determination unit 13 acquires the answer information 4 of the fourth question Q4, the answer determination unit 13 searches for the tension y4 searched at the answer time t8 indicated by the answer time information and the answer time t6 indicated by the immediately previous answer time information. Call the tension y3 and find the difference between y3 and y4. Here, the difference between y3 and y4 is larger than a preset threshold value, and the answer determination unit 13 determines “confirm”. When the answer determination unit 13 determines “confirm”, the output screen generation unit 14 calls the confirmation information from the question information storage unit 15 and generates an output screen that displays the confirmation information. The user terminal 6 displays this on the display unit 62, and the user can input the answer again. In the example of FIG. 8, the user changes the answer information of the question Q4 and inputs the answer information “3” again. As a result, the information storage unit 12 overwrites and stores the response information from “4” to “3”. Here, for the sake of convenience, overwrite save is indicated by an arrow, but only answer information “3” is actually stored as answer information of question Q4.

図9は、実施の形態2に係るプロファイリングの動作の一例を示すフローチャートである。まず、出力画面生成部14は、質問情報記憶部15から質問情報を呼び出し、(ステップS21)、その質問情報を表示する出力画面を生成する(ステップS22)。出力画面生成部14は、生成した出力画面をユーザ端末6に送信する(ステップS23)。ユーザ端末6は受信した出力画面を表示部62に表示してユーザに質問情報を提示する。ユーザが入力部61に質問情報に対する回答を入力し、ユーザ端末6はその回答を示す回答情報を情報取得部11に送信する。
情報取得部11は、ユーザ端末6から回答情報を取得し(ステップS24)、情報記憶部12は、回答情報を取得した時刻を示す回答時刻情報と質問情報と回答情報とを対応付けて記憶する(ステップS25)。
FIG. 9 is a flowchart showing an example of the profiling operation according to the second embodiment. First, the output screen generation unit 14 calls the question information from the question information storage unit 15 (step S21), and generates an output screen that displays the question information (step S22). The output screen generation unit 14 transmits the generated output screen to the user terminal 6 (step S23). The user terminal 6 displays the received output screen on the display unit 62 and presents question information to the user. The user inputs an answer to the question information to the input unit 61, and the user terminal 6 transmits answer information indicating the answer to the information acquisition unit 11.
The information acquisition unit 11 acquires the response information from the user terminal 6 (step S24), and the information storage unit 12 stores the response time information indicating the time when the response information is acquired, the question information, and the response information in association with each other. (Step S25).

次に、回答判定部13は、回答時刻情報が示す時刻の生体情報を検索し、呼び出す(ステップS26)。回答判定部13は、当該回答時刻情報の直前の回答時刻情報で検索した生体情報をさらに呼び出す(ステップS27)。次に、回答判定部13は、当該回答時刻情報が示す時刻の生体情報の値と直前の回答時刻情報で検索した生体情報の値の差を算出し、この差があらかじめ設定しておいた閾値よりも大きかった場合、「確認する」と判定する(ステップS28;YES)。   Next, the answer determination unit 13 searches for and calls the biometric information at the time indicated by the answer time information (step S26). The answer determination unit 13 further calls the biometric information searched with the answer time information immediately before the answer time information (step S27). Next, the answer determination unit 13 calculates the difference between the value of the biometric information at the time indicated by the answer time information and the value of the biometric information retrieved from the immediately previous answer time information, and this difference is a preset threshold value. If it is larger than that, it is determined to “confirm” (step S28; YES).

回答判定部13が「確認する」と判定すると、出力画面生成部14は、質問情報記憶部15からユーザに回答を変更するか否かを質問する確認情報を呼び出し(ステップS29)、確認情報を表示する出力画面を生成する(ステップS30)。出力画面生成部14は、生成した出力画面をユーザ端末6に送信する(ステップS31)。ユーザ端末6は受信した出力画面を表示部62に表示してユーザに確認情報を提示する。ユーザが入力部61に確認情報に対する回答を入力し、ユーザ端末6は、回答を変更する場合はその回答情報を、回答を変更しない場合は回答を変更しないことを示す情報を情報取得部11に送信する。   If the answer determination unit 13 determines “confirm”, the output screen generation unit 14 calls confirmation information asking whether or not to change the answer from the question information storage unit 15 (step S29). An output screen to be displayed is generated (step S30). The output screen generation unit 14 transmits the generated output screen to the user terminal 6 (step S31). The user terminal 6 displays the received output screen on the display unit 62 and presents confirmation information to the user. The user inputs an answer to the confirmation information to the input unit 61, and the user terminal 6 gives the information acquisition unit 11 information indicating that the answer is changed when the answer is changed, and information indicating that the answer is not changed when the answer is not changed. Send.

ユーザが回答を変更し、情報取得部11がその回答情報を取得すると(ステップS32;YES)、情報記憶部12は、その回答情報と元の回答情報に上書きして記憶する(ステップS33)。ユーザが回答を変更せず、情報取得部11が回答を変更しないことを示す情報を取得すると(ステップS32;NO)、次の質問情報があるかどうかを判定する(ステップ34)。   When the user changes the response and the information acquisition unit 11 acquires the response information (step S32; YES), the information storage unit 12 overwrites and stores the response information and the original response information (step S33). When the user does not change the answer and the information acquisition unit 11 acquires information indicating that the answer is not changed (step S32; NO), it is determined whether there is next question information (step 34).

一方、回答判定部13は、当該回答時刻情報が示す時刻の生体情報の値と直前の回答時刻情報で検索した生体情報の値の差があらかじめ設定しておいた閾値よりも小さかった場合、「確認しない」と判定する(ステップS28;NO)。回答判定部13が「確認しない」と判定すると、次の質問情報がある場合(ステップ34;YES)、処理はステップS21〜ステップS34を繰り返す。次の質問情報がない場合(ステップ34;NO)、処理は終了する。   On the other hand, if the difference between the value of the biometric information at the time indicated by the answer time information and the value of the biometric information searched for by the immediately previous answer time information is smaller than a preset threshold, “No confirmation” is determined (step S28; NO). If the answer determination unit 13 determines that “do not confirm”, if there is next question information (step 34; YES), the process repeats steps S21 to S34. If there is no next question information (step 34; NO), the process ends.

以上説明したように実施の形態2のプロファイリングシステムによれば、プロファイリング中に、急激な生体情報の変化があった回答についてユーザに変更するか否かを確認することで、ユーザは落ち着いて再度回答することができ、ユーザ自身で回答のむらを軽減できる。これにより、平均化のためにユーザに改めてプロファイリングを実施する負担を軽減することができる。また、プロファイリングに必要な回答情報を効率的に集めることができ、プロファイリングの効率化が期待できる。   As described above, according to the profiling system of the second embodiment, during the profiling, by confirming whether or not to change the answer for which there has been a sudden change in biometric information, the user calms down and answers again. It is possible to reduce unevenness in answering by the user himself / herself. This can reduce the burden of performing profiling again for the user for averaging. In addition, it is possible to efficiently collect answer information necessary for profiling, and it can be expected that profiling will be more efficient.

(実施の形態3)
図10は、本発明の実施の形態3に係るプロファイリングシステムの構成例を示すブロック図である。プロファイリングシステム102は、実施の形態1に係るプロファイリングシステム101に生体情報分類部17が追加されている。実施の形態3では、生体情報分類部17は、生体情報の値についてあらかじめ閾値を設けて複数の生体情報分類を設定し、回答時刻情報に対応する前記生体情報の値に基づいて回答情報をどの生体情報分類に属するかで仕分けする。
(Embodiment 3)
FIG. 10 is a block diagram illustrating a configuration example of the profiling system according to the third embodiment of the present invention. In the profiling system 102, the biometric information classification unit 17 is added to the profiling system 101 according to the first embodiment. In the third embodiment, the biometric information classification unit 17 sets a plurality of biometric information classifications by setting a threshold for the biometric information value in advance, and determines the response information based on the biometric information value corresponding to the response time information. Sort by biological information classification.

図11は、ユーザの生体情報の値を縦軸に時間を横軸にしたグラフの一例である。図11の例では、図3と同様に生体情報として筋電位を測定して緊張度を測るものとし、筋電位が高いほど緊張度が高いことを表す。生体情報分類部17は、緊張度についてあらかじめ閾値αおよびβを設け、αより値の大きい生体情報を「高緊張」の生体情報分類に仕分けし、αより値の小さくβより値の大きい生体情報を「中緊張」の生体情報分類に仕分けし、αより値の小さい生体情報を「低緊張」の生体情報分類に仕分けする。ここでは、回答時刻t2で検索される緊張度y1はαより大きいので「高緊張」の生体情報分類に仕分けし、回答時刻t4で検索される緊張度y2はαより小さくβより大きいので「中緊張」の生体情報分類に仕分けし、t6で検索される緊張度y3はβより小さいので「低緊張」の生体情報分類に仕分けする。   FIG. 11 is an example of a graph in which the value of the user's biological information is plotted on the vertical axis and the time is plotted on the horizontal axis. In the example of FIG. 11, the myoelectric potential is measured as biometric information in the same manner as in FIG. 3, and the degree of tension is measured. The higher the myoelectric potential, the higher the degree of tension. The biometric information classifying unit 17 sets threshold values α and β in advance for the degree of tension, sorts biometric information having a value larger than α into “high tension” biometric information classification, and biometric information having a value smaller than α and a larger value than β. Are classified into the “medium tension” biometric information classification, and the biometric information having a value smaller than α is classified into the “low tension” biometric information classification. Here, since the tension y1 searched at the answer time t2 is larger than α, it is classified into the “high tension” biological information classification, and the tension y2 searched at the answer time t4 is smaller than α and larger than β. The biological information classification of “tension” is sorted, and the tension y3 searched at t6 is smaller than β, so the biological information classification of “low tension” is sorted.

図12は、実施の形態3に係る生体情報分類ごとの回答情報のデータ構造を説明する図である。生体情報分類部17は、情報記憶部12が記憶している回答情報を、対応する生体情報の値に基づいて各生体情報分類に仕分けする。図12(a)は、「高緊張」に属する回答情報について、プロファイリングを行った時間ごとに各調査特性の回答情報を平均した値を格納したデータテーブルである。図12(b)は、「中緊張」に属する回答情報について、プロファイリングを行った時間ごとに各調査特性の回答情報を平均した値を格納したデータテーブルである。図12(c)は、「低緊張」に属する回答情報について、プロファイリングを行った時間ごとに各調査特性の回答情報を平均した値を格納したデータテーブルである。ここでは同じ日の朝の時間T1、昼の時間T2、夜の時間T3にそれぞれプロファイリングを行ったこととする。   FIG. 12 is a diagram for explaining the data structure of answer information for each biometric information category according to the third embodiment. The biometric information classifying unit 17 sorts the answer information stored in the information storage unit 12 into each biometric information class based on the value of the corresponding biometric information. FIG. 12A is a data table that stores the averaged response information of each survey characteristic for each time when profiling is performed on the response information belonging to “high tension”. FIG. 12B is a data table that stores, for the answer information belonging to “medium tension”, values obtained by averaging the answer information of each survey characteristic for each profiling time. FIG. 12C is a data table in which the response information belonging to “low tension” is stored with a value obtained by averaging the response information of each survey characteristic for each profiling time. Here, it is assumed that profiling was performed at morning time T1, daytime time T2, and night time T3 on the same day.

以上説明したように実施の形態3のプロファイリングシステム102によれば、一定の範囲内の状態の回答情報のみを抽出することで、状態の変化による回答情報への影響を低減し、個人の特性の時間変化を見ることができる。   As described above, according to the profiling system 102 of the third embodiment, by extracting only answer information in a state within a certain range, it is possible to reduce the influence on the answer information due to a change in state, and You can see changes over time.

本発明では、実施の形態1〜3を別々に実施することに限定しない。実施の形態1〜3をそれぞれ組み合わせて実施してもよいし、実施の形態1〜3をすべて組み合わせて実施してもよい。   In this invention, it is not limited to Embodiment 1-3 being implemented separately. The first to third embodiments may be combined and implemented, or all the first to third embodiments may be combined.

図13は、本発明の実施の形態に係るプロファイリング装置のハードウェア構成の一例を示すブロック図である。プロファイリング装置1は、図13に示すように、制御部21、主記憶部22、外部記憶部23、操作部24、表示部25、入出力部26および送受信部27を備える。主記憶部22、外部記憶部23、操作部24、表示部25、入出力部26および送受信部27はいずれも内部バス20を介して制御部21に接続されている。   FIG. 13 is a block diagram showing an example of a hardware configuration of the profiling apparatus according to the embodiment of the present invention. As shown in FIG. 13, the profiling device 1 includes a control unit 21, a main storage unit 22, an external storage unit 23, an operation unit 24, a display unit 25, an input / output unit 26, and a transmission / reception unit 27. The main storage unit 22, the external storage unit 23, the operation unit 24, the display unit 25, the input / output unit 26, and the transmission / reception unit 27 are all connected to the control unit 21 via the internal bus 20.

制御部21はCPU(Central Processing Unit)等から構成され、外部記憶部23に記憶されている制御プログラム30に従って、プロファイリング装置1の情報取得部11、回答判定部13、出力画面生成部14および生体情報分類部17の各処理を実行する。   The control unit 21 includes a CPU (Central Processing Unit) and the like, and according to a control program 30 stored in the external storage unit 23, the information acquisition unit 11, the answer determination unit 13, the output screen generation unit 14, and the living body of the profiling device 1. Each process of the information classification unit 17 is executed.

主記憶部22はRAM(Random-Access Memory)等から構成され、外部記憶部23に記憶されている制御プログラム30をロードし、制御部21の作業領域として用いられる。   The main storage unit 22 is constituted by a RAM (Random-Access Memory) or the like, loads a control program 30 stored in the external storage unit 23, and is used as a work area of the control unit 21.

外部記憶部23は、フラッシュメモリ、ハードディスク、DVD−RAM(Digital Versatile Disc Random-Access Memory)、DVD−RW(Digital Versatile Disc ReWritable)等の不揮発性メモリから構成され、プロファイリング装置1の処理を制御部21に行わせるためのプログラムをあらかじめ記憶し、また、制御部21の指示に従って、このプログラムが記憶するデータを制御部21に供給し、制御部21から供給されたデータを記憶する。プロファイリング装置1の情報記憶部12および質問情報記憶部15は、外部記憶部23に構成される。   The external storage unit 23 includes a nonvolatile memory such as a flash memory, a hard disk, a DVD-RAM (Digital Versatile Disc Random-Access Memory), a DVD-RW (Digital Versatile Disc ReWritable), and controls the processing of the profiling apparatus 1. A program to be executed by the control unit 21 is stored in advance, and data stored by the program is supplied to the control unit 21 in accordance with an instruction from the control unit 21, and the data supplied from the control unit 21 is stored. The information storage unit 12 and the question information storage unit 15 of the profiling device 1 are configured in the external storage unit 23.

操作部24はキーボードおよびマウスなどのポインティングデバイス等と、キーボードおよびポインティングデバイス等を内部バス20に接続するインターフェース装置から構成されている。生体情報分類部17が生体情報についての閾値を設ける場合などは、操作部24を介して、指示が制御部21に供給される。図1または10のユーザ端末6がプロファイリング装置1に含まれる構成では、操作部24が入力部61の場合がある。   The operation unit 24 includes a pointing device such as a keyboard and mouse, and an interface device that connects the keyboard and pointing device to the internal bus 20. When the biometric information classification unit 17 provides a threshold value for biometric information, an instruction is supplied to the control unit 21 via the operation unit 24. In the configuration in which the user terminal 6 of FIG. 1 or 10 is included in the profiling apparatus 1, the operation unit 24 may be the input unit 61.

表示部25は、CRT(Cathode Ray Tube)またはLCD(Liquid Crystal Display)などから構成され、生体情報分類部17が生体情報についての閾値を設ける場合などは、操作画面を表示する。図1または10のユーザ端末6が意見表示装置1に含まれる構成では、表示部25が表示部62の場合がある。   The display unit 25 is configured by a CRT (Cathode Ray Tube), an LCD (Liquid Crystal Display), or the like, and displays an operation screen when the biometric information classification unit 17 sets a threshold value for biometric information. In the configuration in which the user terminal 6 of FIG. 1 or 10 is included in the opinion display device 1, the display unit 25 may be the display unit 62.

入出力部26は、シリアルインタフェースまたはパラレルインタフェースから構成されている。入出力部26は、ユーザ端末6が附属する装置の場合は、それと接続する。   The input / output unit 26 includes a serial interface or a parallel interface. The input / output unit 26 is connected to the device to which the user terminal 6 is attached.

送受信部27は、ネットワークに接続する網終端装置または無線通信装置、およびそれらと接続するシリアルインタフェースまたはLAN(Local Area Network)インタフェースから構成されている。送受信部27は、ネットワークを介して、ユーザ端末6に接続する。   The transmission / reception unit 27 includes a network termination device or a wireless communication device connected to the network, and a serial interface or a LAN (Local Area Network) interface connected thereto. The transmission / reception unit 27 connects to the user terminal 6 via a network.

図1または10に示すプロファイリング装置1の情報取得部11、回答判定部13、出力画面生成部14および生体情報分類部17の処理は、制御プログラム30が、制御部21、主記憶部22、外部記憶部23、操作部24、表示部25、入出力部26および送受信部27などを資源として用いて処理することによって実行する。   The processing of the information acquisition unit 11, the answer determination unit 13, the output screen generation unit 14, and the biological information classification unit 17 of the profiling device 1 illustrated in FIG. 1 or 10 is performed by the control program 30, the control unit 21, the main storage unit 22, and the external The processing is executed by using the storage unit 23, the operation unit 24, the display unit 25, the input / output unit 26, the transmission / reception unit 27, and the like as resources.

その他、本発明の好適な変形として、以下の構成が含まれる。   Other suitable modifications of the present invention include the following configurations.

本発明の第1の観点に係るプロファイリング装置について、
好ましくは、前記回答判定手段は、前記回答情報に対応する生体情報と、前記質問情報に対応付けられた過去の回答情報に対応する生体情報とを比較し、同一の回答情報を取得した過去の回答情報に対応する生体情報の平均が前記回答情報に対応する生体情報と異なる場合、または、同一の生体情報を取得した過去の回答情報の平均が前記回答情報と異なる場合に、再質問を行うと判定することを特徴とする。
About the profiling apparatus according to the first aspect of the present invention,
Preferably, the answer determination unit compares the biometric information corresponding to the answer information with the biometric information corresponding to past answer information associated with the question information, and obtains the same answer information. When the average of the biometric information corresponding to the response information is different from the biometric information corresponding to the response information, or when the average of the past response information obtained from the same biometric information is different from the response information, a re-question is performed. It is characterized by determining.

好ましくは、前記回答判定手段は、前記回答情報に対応する生体情報の値と直前の回答情報に対応する生体情報の値との差が所定の閾値を越えた場合、確認を行うか否かを判定し、
前記回答判定手段が確認を行うと判定した場合、前記出力画面生成手段は、前記ユーザに回答を変更するか否かを質問する確認情報を呼び出し、前記確認情報を表示する出力画面を生成して前記ユーザに提示することを特徴とする。
Preferably, the answer determination means determines whether or not to check if the difference between the value of the biometric information corresponding to the answer information and the value of the biometric information corresponding to the immediately previous answer information exceeds a predetermined threshold. Judgment,
When the answer determination unit determines to confirm, the output screen generation unit calls the confirmation information asking whether to change the answer to the user, and generates an output screen that displays the confirmation information. Presented to the user.

好ましくは、前記生体情報の値について閾値を設けて複数の生体情報分類を設定し、前記回答情報に対応する前記生体情報の値に基づいて前記回答情報を前記生体情報分類に仕分けする分類手段をさらに備えることを特徴とする。   Preferably, a classification unit that sets a plurality of biological information classifications by setting a threshold value for the value of the biological information, and sorts the answer information into the biological information classification based on the value of the biological information corresponding to the answer information. It is further provided with the feature.

本発明の第2の観点に係るプロファイリング方法について、
好ましくは、前記回答判定ステップは、前記回答情報に対応する生体情報と、前記質問情報に対応付けられた過去の回答情報に対応する生体情報とを比較し、同一の回答情報を取得した過去の回答情報に対応する生体情報の平均が前記回答情報に対応する生体情報と異なる場合、または、同一の生体情報を取得した過去の回答情報の平均が前記回答情報と異なる場合に、再質問を行うと判定することを特徴とする。
About the profiling method according to the second aspect of the present invention,
Preferably, the answer determination step compares the biometric information corresponding to the answer information with the biometric information corresponding to past answer information associated with the question information, and obtains the same answer information. When the average of the biometric information corresponding to the response information is different from the biometric information corresponding to the response information, or when the average of the past response information obtained from the same biometric information is different from the response information, a re-question is performed. It is characterized by determining.

好ましくは、前記回答判定ステップは、前記回答情報に対応する生体情報の値と直前の回答情報に対応する生体情報の値との差が所定の閾値を越えた場合、確認を行うか否かを判定し、
前記回答判定ステップで確認を行うと判定した場合、前記出力画面生成ステップは、前記ユーザに回答を変更するか否かを質問する確認情報を呼び出し、前記確認情報を表示する出力画面を生成して前記ユーザに提示することを特徴とする。
Preferably, the answer determination step determines whether or not to perform confirmation when the difference between the value of the biometric information corresponding to the answer information and the value of the biometric information corresponding to the immediately previous answer information exceeds a predetermined threshold. Judgment,
If it is determined in the answer determination step that the confirmation is performed, the output screen generation step calls the confirmation information asking whether or not to change the answer to the user, and generates an output screen that displays the confirmation information. Presented to the user.

好ましくは、前記生体情報の値について閾値を設けて複数の分類を設定し、前記回答情報に対応する前記生体情報の値に基づいて前記回答情報を前記分類に仕分けする分類ステップをさらに備えることを特徴とする。   Preferably, the method further includes a classification step of setting a plurality of classifications by setting a threshold value for the value of the biological information, and sorting the response information into the classification based on the value of the biological information corresponding to the response information. Features.

その他、前記のハードウエア構成やフローチャートは一例であり、任意に変更および修正が可能である。   In addition, the above-described hardware configuration and flowchart are examples, and can be arbitrarily changed and modified.

情報取得部11、情報記憶部12、回答判定部13、出力画面生成部14、などから構成されるプロファイリング処理を行う中心となる部分は、専用のシステムによらず、通常のコンピュータシステムを用いて実現可能である。例えば、前記の動作を実行するためのコンピュータプログラムを、コンピュータが読み取り可能な記憶媒体(フレキシブルディスク、CD−ROM、DVD−ROM等)に格納して配布し、当該コンピュータプログラムをコンピュータにインストールすることにより、前記の処理を実行するプロファイリングシステム101および102を構成してもよい。また、インターネット等の通信ネットワーク上のサーバ装置が有する記憶装置に当該コンピュータプログラムを格納しておき、通常のコンピュータシステムがダウンロード等することでプロファイリングシステム101および102を構成してもよい。   The central part that performs the profiling process including the information acquisition unit 11, the information storage unit 12, the answer determination unit 13, the output screen generation unit 14, and the like uses a normal computer system, not a dedicated system. It is feasible. For example, a computer program for executing the above operation is stored and distributed in a computer-readable storage medium (flexible disk, CD-ROM, DVD-ROM, etc.), and the computer program is installed in the computer. Thus, the profiling systems 101 and 102 that execute the above-described processing may be configured. Alternatively, the profiling systems 101 and 102 may be configured by storing the computer program in a storage device included in a server device on a communication network such as the Internet and downloading the computer program from a normal computer system.

また、プロファイリングシステム101および102の機能を、OS(オペレーティングシステム)とアプリケーションプログラムの分担、またはOSとアプリケーションプログラムとの協働により実現する場合などには、アプリケーションプログラム部分のみを記憶媒体や記憶装置に格納してもよい。   Further, when the functions of the profiling systems 101 and 102 are realized by sharing an OS (operating system) and an application program, or by cooperation between the OS and the application program, only the application program portion is stored in a storage medium or a storage device. It may be stored.

また、搬送波にコンピュータプログラムを重畳し、通信ネットワークを介して配信することも可能である。例えば、通信ネットワーク上の掲示板(BBS, Bulletin Board System)に前記コンピュータプログラムを掲示し、ネットワークを介して前記コンピュータプログラムを配信してもよい。そして、このコンピュータプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、前記の処理を実行できるように構成してもよい。   It is also possible to superimpose a computer program on a carrier wave and distribute it via a communication network. For example, the computer program may be posted on a bulletin board (BBS, Bulletin Board System) on a communication network, and the computer program distributed via the network. The computer program may be started and executed in the same manner as other application programs under the control of the OS, so that the above-described processing may be executed.

1 プロファイリング装置
6 ユーザ端末
11 情報取得部
12 情報記憶部
13 回答判定部
14 出力画面生成部
15 質問情報記憶部
17 生体情報分類部
21 制御部
22 主記憶部
23 外部記憶部
24 操作部
25 表示部
26 入出力部
27 送受信部
30 制御プログラム
61 入力部
62 表示部
63 生体情報取得部
101、102 プロファイリングシステム
621 出力画面
622 キーボタン群
623、624 質問情報
625 キーボタン
626 確認情報
627、628 選択ボタン
1 Profiling equipment
6 User terminal
11 Information acquisition unit
12 Information storage
13 Answer determination section
14 Output screen generator
15 Question information storage
17 Biological information classification part
21 Control unit
22 Main memory
23 External storage
24 Operation unit
25 Display section
26 I / O section
27 Transceiver
30 Control program
61 Input section
62 Display
63 Biometric information acquisition unit 101, 102 Profiling system
621 Output screen
622 Key button group 623, 624 Question information
625 key button
626 Confirmation information 627, 628 selection button

Claims (7)

ユーザの生体情報を取得する生体情報取得手段と、
前記ユーザの特性を調べるための質問を示す質問情報を、その質問情報によって調べられる前記ユーザの特性を示す調査特性ごとに分類して記憶する質問記憶手段と、
前記質問情報を呼び出し、前記質問情報を表示する出力画面を生成して前記ユーザに提示する出力画面生成手段と、
前記質問情報に対して前記ユーザが入力した回答を示す回答情報を取得する回答情報取得手段と、
前記回答情報と前記回答情報を取得した時刻に取得した前記生体情報と前記質問情報とを対応付けて記憶する回答情報記憶手段と、
前記回答情報に対応する生体情報と、前記質問情報に対応付けられた過去の回答情報に対応する生体情報とを比較し、同一の回答情報を取得した過去の回答情報に対応する生体情報の平均が前記回答情報に対応する生体情報と異なる場合、または、同一の生体情報を取得した過去の回答情報の平均が前記回答情報と異なる場合に、再質問を行うと判定する回答判定手段と、を備え、
前記回答判定手段が再質問を行うと判定した場合、前記出力画面生成手段は、前記質問情報と同一の調査特性に分類される異なる質問情報である再質問情報を呼び出し、前記再質問情報を表示する出力画面を生成して前記ユーザに提示することを特徴とするプロファイリング装置。
Biometric information acquisition means for acquiring biometric information of the user;
Question storage means for classifying and storing question information indicating a question for checking the characteristics of the user according to survey characteristics indicating the characteristics of the user checked by the question information;
Calling out the question information, generating an output screen for displaying the question information and presenting it to the user;
Answer information acquisition means for acquiring answer information indicating an answer input by the user with respect to the question information;
Answer information storage means for storing the biometric information acquired at the time when the answer information and the answer information are acquired and the question information in association with each other;
The biometric information corresponding to the answer information is compared with the biometric information corresponding to the past answer information associated with the question information, and the average of the biometric information corresponding to the past answer information obtained by acquiring the same answer information If There different from the biometric information corresponding to the response information, or, if the average of past answer information obtained the same biometric information is different from the answer information, and answer determination means for determining to perform the re-question, the Prepared,
When it is determined that the answer determination unit performs a re-question, the output screen generation unit calls the re-question information, which is different question information classified into the same survey characteristics as the question information, and displays the re-question information A profiling apparatus that generates an output screen to be displayed and presents it to the user.
前記回答判定手段は、前記回答情報に対応する生体情報の値と直前の回答情報に対応する生体情報の値との差が所定の閾値を越えた場合、確認を行うか否かを判定し、
前記回答判定手段が確認を行うと判定した場合、前記出力画面生成手段は、前記ユーザに回答を変更するか否かを質問する確認情報を呼び出し、前記確認情報を表示する出力画面を生成して前記ユーザに提示することを特徴とする請求項1に記載のプロファイリング装置。
The answer determination means determines whether to perform confirmation when the difference between the value of the biometric information corresponding to the answer information and the value of the biometric information corresponding to the immediately previous answer information exceeds a predetermined threshold,
When the answer determination unit determines to confirm, the output screen generation unit calls the confirmation information asking whether to change the answer to the user, and generates an output screen that displays the confirmation information. The profiling apparatus according to claim 1, wherein the profiling apparatus is presented to the user.
前記生体情報の値について閾値を設けて複数の生体情報分類を設定し、前記回答情報に対応する前記生体情報の値に基づいて前記回答情報を前記生体情報分類に仕分けする生体情報分類手段をさらに備えることを特徴とする請求項1または2に記載のプロファイリング装置。 Biometric information classification means for providing a threshold for the biometric information value, setting a plurality of biometric information classifications, and sorting the response information into the biometric information classification based on the biometric information values corresponding to the response information; profiling apparatus according to claim 1 or 2, characterized in that it comprises. 質問をユーザに提示して該ユーザの回答を取得する装置が行うプロファイリング方法であって、
前記ユーザの生体情報を取得する生体情報取得ステップと、
前記ユーザの特性を調べるための質問を示す質問情報を、その質問情報によって調べられる前記ユーザの特性を示す調査特性ごとに分類して記憶する質問記憶ステップと、
前記質問情報を呼び出し、前記質問情報を表示する出力画面を生成して前記ユーザに提示する出力画面生成ステップと、
前記質問情報に対して前記ユーザが入力した回答を示す回答情報を取得する回答情報取得ステップと、
前記回答情報と前記回答情報を取得した時刻に取得した前記生体情報と前記質問情報とを対応付けて記憶する回答情報記憶ステップと、
前記回答情報に対応する生体情報と、前記質問情報に対応付けられた過去の回答情報に対応する生体情報とを比較し、同一の回答情報を取得した過去の回答情報に対応する生体情報の平均が前記回答情報に対応する生体情報と異なる場合、または、同一の生体情報を取得した過去の回答情報の平均が前記回答情報と異なる場合に、再質問を行うと判定する回答判定ステップと、を備え、
前記回答判定ステップで再質問を行うと判定した場合、前記出力画面生成ステップは、前記質問情報と同一の調査特性に分類される異なる質問情報である再質問情報を呼び出し、前記再質問情報を表示する出力画面を生成して前記ユーザに提示することを特徴とするプロファイリング方法。
A profiling method performed by an apparatus that presents a question to a user and obtains the user's answer,
A biometric information acquisition step of acquiring biometric information of the user;
Question storage step for classifying and storing question information indicating a question for checking the characteristics of the user according to survey characteristics indicating the characteristics of the user checked by the question information;
Calling the question information, generating an output screen for displaying the question information and presenting it to the user, an output screen generation step;
An answer information obtaining step for obtaining answer information indicating an answer inputted by the user with respect to the question information;
An answer information storage step for storing the biometric information acquired at the time when the answer information is acquired and the question information in association with each other;
The biometric information corresponding to the answer information is compared with the biometric information corresponding to the past answer information associated with the question information, and the average of the biometric information corresponding to the past answer information obtained by acquiring the same answer information If There different from the biometric information corresponding to the response information, or, if the average of past answer information obtained the same biometric information is different from the answer information, and answers the determination step of determining to perform the re-question, the Prepared,
When it is determined that the re-question is performed in the answer determination step, the output screen generation step calls the re-question information, which is different question information classified into the same survey characteristics as the question information, and displays the re-question information A profiling method comprising generating an output screen to be displayed and presenting it to the user.
前記回答判定ステップは、前記回答情報に対応する生体情報の値と直前の回答情報に対応する生体情報の値との差が所定の閾値を越えた場合、確認を行うか否かを判定し、
前記回答判定ステップで確認を行うと判定した場合、前記出力画面生成ステップは、前記ユーザに回答を変更するか否かを質問する確認情報を呼び出し、前記確認情報を表示する出力画面を生成して前記ユーザに提示することを特徴とする請求項に記載のプロファイリング方法。
The answer determination step determines whether to perform confirmation when the difference between the value of the biometric information corresponding to the answer information and the value of the biometric information corresponding to the immediately previous answer information exceeds a predetermined threshold,
If it is determined in the answer determination step that the confirmation is performed, the output screen generation step calls the confirmation information asking whether or not to change the answer to the user, and generates an output screen that displays the confirmation information. The profiling method according to claim 4 , wherein the profiling method is presented to the user.
前記生体情報の値について閾値を設けて複数の生体情報分類を設定し、前記回答情報に対応する前記生体情報の値に基づいて前記回答情報を前記生体情報分類に仕分けする生体情報分類ステップをさらに備えることを特徴とする請求項4または5に記載のプロファイリング方法。 A biometric information classification step of setting a plurality of biometric information classifications by setting a threshold value for the biometric information value, and sorting the response information into the biometric information classification based on the biometric information values corresponding to the response information; The profiling method according to claim 4, wherein the profiling method is provided. コンピュータに、
ユーザの生体情報を取得する生体情報取得ステップと、
前記ユーザの特性を調べるための質問を示す質問情報を、その質問情報によって調べられる前記ユーザの特性を示す調査特性ごとに分類して記憶する質問記憶ステップと、
前記質問情報を呼び出し、前記質問情報を表示する出力画面を生成して前記ユーザに提示する出力画面生成ステップと、
前記質問情報に対して前記ユーザが入力した回答を示す回答情報を取得する回答情報取得ステップと、
前記回答情報と前記回答情報を取得した時刻に取得した前記生体情報と前記質問情報とを対応付けて記憶する回答情報記憶ステップと、
前記回答情報に対応する生体情報と、前記質問情報に対応付けられた過去の回答情報に対応する生体情報とを比較し、同一の回答情報を取得した過去の回答情報に対応する生体情報の平均が前記回答情報に対応する生体情報と異なる場合、または、同一の生体情報を取得した過去の回答情報の平均が前記回答情報と異なる場合に、再質問を行うと判定する回答判定ステップと、を実行させ、
前記回答判定ステップで再質問を行うと判定した場合、前記出力画面生成ステップは、前記質問情報と同一の調査特性に分類される異なる質問情報である再質問情報を呼び出し、前記再質問情報を表示する出力画面を生成して前記ユーザに提示することを特徴とするプログラム。
On the computer,
A biometric information acquisition step of acquiring biometric information of the user;
Question storage step for classifying and storing question information indicating a question for checking the characteristics of the user according to survey characteristics indicating the characteristics of the user checked by the question information;
Calling the question information, generating an output screen for displaying the question information and presenting it to the user, an output screen generation step;
An answer information obtaining step for obtaining answer information indicating an answer inputted by the user with respect to the question information;
An answer information storage step for storing the biometric information acquired at the time when the answer information is acquired and the question information in association with each other;
The biometric information corresponding to the answer information is compared with the biometric information corresponding to the past answer information associated with the question information, and the average of the biometric information corresponding to the past answer information obtained by acquiring the same answer information If There different from the biometric information corresponding to the response information, or, if the average of past answer information obtained the same biometric information is different from the answer information, and answers the determination step of determining to perform the re-question, the Let it run
When it is determined that the re-question is performed in the answer determination step, the output screen generation step calls the re-question information, which is different question information classified into the same survey characteristics as the question information, and displays the re-question information A program for generating an output screen to be displayed and presenting it to the user.
JP2009264713A 2009-11-20 2009-11-20 Profiling apparatus, profiling method and program Active JP5458824B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009264713A JP5458824B2 (en) 2009-11-20 2009-11-20 Profiling apparatus, profiling method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009264713A JP5458824B2 (en) 2009-11-20 2009-11-20 Profiling apparatus, profiling method and program

Publications (2)

Publication Number Publication Date
JP2011108142A JP2011108142A (en) 2011-06-02
JP5458824B2 true JP5458824B2 (en) 2014-04-02

Family

ID=44231508

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009264713A Active JP5458824B2 (en) 2009-11-20 2009-11-20 Profiling apparatus, profiling method and program

Country Status (1)

Country Link
JP (1) JP5458824B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101460404B1 (en) * 2012-09-04 2014-11-12 포항공과대학교 산학협력단 Apparatus for managing user-centric context and method thereof
JP2014081913A (en) * 2012-09-27 2014-05-08 Dainippon Printing Co Ltd Questionnaire analysis device, questionnaire analysis system, questionnaire analysis method and program
JPWO2017094177A1 (en) * 2015-12-04 2018-09-20 株式会社FiNC Information processing server, information processing server control method, and information processing program
CN108154381A (en) * 2016-12-06 2018-06-12 松下知识产权经营株式会社 Motion candidate suggestion device and motion candidate's reminding method
JP6857098B2 (en) * 2017-07-11 2021-04-14 株式会社Nttドコモ Information processing device
JP7058142B2 (en) * 2018-02-23 2022-04-21 株式会社リンクアンドモチベーション Questionnaire processing equipment, questionnaire processing methods, and programs
JP7245372B2 (en) * 2018-02-23 2023-03-23 株式会社リンクアンドモチベーション Questionnaire processing device, questionnaire processing method, and program
JP7108238B2 (en) * 2018-10-25 2022-07-28 マツダ株式会社 Well-being value estimation system
JP7108236B2 (en) * 2018-10-25 2022-07-28 マツダ株式会社 Well-being value estimation system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02202259A (en) * 1989-01-31 1990-08-10 Matsushita Electric Ind Co Ltd Telecontroller
JP2512695B2 (en) * 1993-10-29 1996-07-03 株式会社スズケン Mental health evaluation device
JP2002345762A (en) * 2001-05-22 2002-12-03 Matsushita Electric Ind Co Ltd Health information terminal
JP2004276641A (en) * 2003-03-12 2004-10-07 Nissan Motor Co Ltd Preceding vehicle following control system
JP4867215B2 (en) * 2005-06-28 2012-02-01 トヨタ自動車株式会社 Physiological / psychological state determination device, physiological / psychological state determination method, reference data generation device, and reference data generation method.

Also Published As

Publication number Publication date
JP2011108142A (en) 2011-06-02

Similar Documents

Publication Publication Date Title
JP5458824B2 (en) Profiling apparatus, profiling method and program
Wright et al. Applied ambulatory assessment: Integrating idiographic and nomothetic principles of measurement.
Maxhuni et al. Stress modelling and prediction in presence of scarce data
US20220392625A1 (en) Method and system for an interface to provide activity recommendations
Bellman et al. Best measures of attention to creative tactics in TV advertising: when do attention-getting devices capture or reduce attention?
WO2011136253A1 (en) Risk evaluation system using people as sensors
Gimpel et al. myStress: Unobtrusive smartphone-based stress detection
Booth et al. Anger expression and suppression at work: causes, characteristics and predictors
Papetti et al. Consumers vs Internet of Things: a systematic evaluation process to drive users in the smart world
Curtis et al. Effects of cognitive behavioural therapy on insomnia in adults with tinnitus: Systematic review and meta-analysis of randomised controlled trials
Ferrari et al. Using voice and biofeedback to predict user engagement during requirements interviews
Allwood et al. The analysis of embodied communicative feedback in multimodal corpora: a prerequisite for behavior simulation
KR20090027027A (en) Method for analyzing mental illness using biometric signal under cognitive stimuli
Muñoz et al. Prediction of stress levels in the workplace using surrounding stress
JP5733799B2 (en) Profiling system, profiling method and program
JP6480556B1 (en) Goal achievement support system and goal achievement support program
Curtis et al. A case study in establishing a positive service culture: Attachment and involvement in the workplace
JP5402386B2 (en) Questionnaire question presentation system, questionnaire question presentation method, and questionnaire question presentation program
WO2022176808A1 (en) Information processing system, information processing device, information processing method, and information processing program
KR102454737B1 (en) Server for Classifying Mental State, Terminal, Method for Classifying Mental State, and Method for Providing Mental State Classifying Service
JP6207944B2 (en) Preference evaluation method, preference evaluation apparatus, and preference evaluation program
Slanzi et al. Eye tracking and eeg features for salient web object identification
Okkonen et al. Off-the-shelf assessment of information ergonomics
Lambusch et al. Human Energy Diary Studies with Personalized Feedback: A Proof of Concept with formr.
US10735534B2 (en) Information processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121005

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130924

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131230

R150 Certificate of patent or registration of utility model

Ref document number: 5458824

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150