JP2019020834A - Information measuring instrument, information measuring method and information measuring program - Google Patents

Information measuring instrument, information measuring method and information measuring program Download PDF

Info

Publication number
JP2019020834A
JP2019020834A JP2017136336A JP2017136336A JP2019020834A JP 2019020834 A JP2019020834 A JP 2019020834A JP 2017136336 A JP2017136336 A JP 2017136336A JP 2017136336 A JP2017136336 A JP 2017136336A JP 2019020834 A JP2019020834 A JP 2019020834A
Authority
JP
Japan
Prior art keywords
reaction
information
degree
video
elapsed time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017136336A
Other languages
Japanese (ja)
Inventor
祥嗣 石渡
Shoji Ishiwatari
祥嗣 石渡
早織 森山
Saori Moriyama
早織 森山
汐梨 伴
Shiori Ban
汐梨 伴
悠太 大沢
Yuta Osawa
悠太 大沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Network and System Integration Corp
Original Assignee
NEC Network and System Integration Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Network and System Integration Corp filed Critical NEC Network and System Integration Corp
Priority to JP2017136336A priority Critical patent/JP2019020834A/en
Publication of JP2019020834A publication Critical patent/JP2019020834A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To measure user's reaction to a video as a numerical value.SOLUTION: An information measuring instrument for measuring user's reaction to a video has: a video display unit which displays the video; an elapsed time measuring unit which measures an elapsed time from the start of display of the video; a reaction information acquisition unit which acquires information of user's reaction to the video; and a measuring unit which weighs a level of reaction acquired on the basis of the information of user's reaction over the elapsed time to measure the level of reaction as a numerical value.SELECTED DRAWING: Figure 1

Description

本発明は、映像に対するユーザの反応を測定する情報測定装置に関する。   The present invention relates to an information measuring device that measures a user's response to an image.

近年、ユーザの行動分析や興味の対象及びニーズの調査をする際に、対面でのやり取りではなく、器具やインターネットを利用して行われることが増えている。   In recent years, when a user's behavior analysis or an object of interest and a survey of needs are conducted, it is increasingly performed using an appliance or the Internet instead of a face-to-face exchange.

器具を利用したユーザ分析のケースとして、アイカメラなどの器具を使用して、被験者の視線の動きや滞留時間、瞳孔の大きさを測定して被験者の状態を調査する手法が挙げられる。例えば、被験者にアイカメラを装着させて走行させて、注視点、注視部分、注視時間を含むデータを取得し、そのデータを無事故運転者と事故惹起運転者のデータと比較することにより、被験者の運転適性を判別するものである。   As a case of user analysis using an instrument, there is a technique in which an instrument such as an eye camera is used to measure the movement of the subject's line of sight, the residence time, and the size of the pupil to investigate the condition of the subject. For example, by running a test subject wearing an eye camera, obtaining data including the gaze point, gaze part, and gaze time, and comparing the data with the data of the accident-free driver and the driver who caused the accident, This is to discriminate driving aptitude.

また、インターネットを利用してニーズを調査するケースとして、行動ターゲッティング広告(追跡型広告)という手法が挙げられる。例えば、広告の対象となるユーザの閲覧履歴を元に、ユーザの興味関心を推測し、ターゲットを絞ってインターネット広告配信を行うものである。   In addition, as a case of investigating needs using the Internet, there is a method called behavior targeting advertisement (tracking advertisement). For example, based on the browsing history of the user who is the target of the advertisement, the user's interests are estimated, and Internet advertisement distribution is performed by narrowing down the target.

いずれも、器具やインターネットを利用して、ユーザの動作情報を取得し、その動作情報から行動内容をパターン化して、ユーザの状態を測定するものである。   In either case, the operation information of the user is acquired using an appliance or the Internet, the action content is patterned from the operation information, and the state of the user is measured.

http://www.kyodoprinting.co.jp/release/2015/20150423-1577.htmlhttp://www.kyodoprinting.co.jp/release/2015/20150423-1577.html

非特許文献1には、「アイトラッキングと研修ビデオによる行動分析パッケージ」に関する記事が掲載されている。アイトラッキングは、「対象物を見たときの視線の動きや滞留時間、瞳孔の大きさを測定し、“心の動き”を数値として把握することで対象物への印象やニーズを調査する手法」としている。前述のアイトラッキングでは、取得した情報「視線の動きや滞留時間、瞳孔の大きさ」に対して画一的に数値へ置換して、その画一的に置換された数値をもって、「心の動き」を把握し、対象物への印象やニーズを調査しようとするものである。その中で、被験者の置かれる被験者環境については言及されていない。すなわち、不特定条件下で、画一的な数値への置換によって、「心の動き」を把握しようとするものである。しかしながら、不特定条件下において画一的に取得した情報を数値へ置換するのみでは、被験者の「対象物への印象やニーズ」などの心理状態や行動パターンを推し量るのに限界があるという問題があった。   Non-Patent Document 1 contains an article on “Behavior Analysis Package Using Eye Tracking and Training Video”. Eye tracking is a method of investigating impressions and needs of an object by measuring the movement and dwell time of the line of sight when the object is viewed, and the size of the pupil, and grasping the “movement of the heart” as a numerical value. " In the above-mentioned eye tracking, the acquired information “gaze movement, dwell time, pupil size” is uniformly replaced with a numerical value, and with the uniformly replaced numerical value, “heart movement” ”And try to investigate the impressions and needs of the object. Among them, the subject environment where the subject is placed is not mentioned. That is, it tries to grasp the “movement of the heart” by substituting with a uniform numerical value under unspecified conditions. However, there is a problem that there is a limit in estimating the psychological state and behavior pattern such as “impression and need for the subject” of the subject only by replacing the information uniformly obtained under unspecified conditions with a numerical value. there were.

そこで、本発明は、管理者の意図する映像を表示させて、その特定の映像に対するユーザの反応情報を取得し、前記映像の表示開始からの経過時間の経緯に伴うユーザの反応情報に基づいて取得した反応度合に重み付けをすることにより、上記問題を解決することを目的とする。   Therefore, the present invention displays the video intended by the administrator, obtains the user's reaction information for the specific video, and based on the user's reaction information associated with the elapsed time from the start of the video display. It aims at solving the said problem by weighting the acquired reaction degree.

本発明は、映像に対するユーザの反応を測定する情報測定装置であって、前記映像を表示する映像表示部と、前記映像の表示開始からの経過時間を計測する経過時間計測部と、前記映像に対する前記ユーザの反応情報を取得する反応情報取得部と、前記経過時間の経緯に伴う前記反応情報に基づいて取得した反応度合に重み付けして、前記反応度合を数値として測定する測定部と、を有することを特徴とする。   The present invention is an information measuring device that measures a user's response to a video, a video display unit that displays the video, an elapsed time measurement unit that measures an elapsed time from the start of display of the video, and the video A reaction information acquisition unit that acquires the reaction information of the user, and a measurement unit that weights the reaction degree acquired based on the reaction information according to the history of the elapsed time and measures the reaction degree as a numerical value. It is characterized by that.

本発明に係る情報測定装置の前記測定部は、前記経過時間の経緯と前記反応情報とによる反応度合置換表に基づいて前記反応度合を数値へ置換するものであることを特徴とする。   The measurement unit of the information measuring device according to the present invention is characterized in that the reaction degree is replaced with a numerical value based on a reaction degree replacement table based on the history of the elapsed time and the reaction information.

本発明に係る情報測定装置の前記反応情報取得部は、前記経過時間を分割し、当該分割した時間帯毎に前記反応情報を取得するものであることを特徴とする。   The reaction information acquisition unit of the information measuring device according to the present invention divides the elapsed time and acquires the reaction information for each of the divided time zones.

本発明に係る情報測定装置の前記測定部は、前記経過時間を分割した時間帯によって、前記反応度合に異なる前記重み付けをするものであることを特徴とする。   The measuring unit of the information measuring device according to the present invention is characterized in that the weighting is different for the degree of reaction depending on a time zone obtained by dividing the elapsed time.

本発明に係る情報測定装置の前記反応度合置換表は、前記反応度合毎に、1以上の測定値を含むものであることを特徴とする。   The reaction degree substitution table of the information measuring device according to the present invention includes one or more measurement values for each reaction degree.

本発明に係る情報測定装置の前記反応情報取得部は、予め定められた前記ユーザの身体動作を前記反応情報として取得するものであることを特徴とする。   The reaction information acquisition unit of the information measuring apparatus according to the present invention is characterized in that a predetermined body movement of the user is acquired as the reaction information.

本発明に係る情報測定装置の前記反応情報取得部は、前記予め定められた前記身体動作の継続時間及び/又は反復間隔時間を前記反応情報として取得するものであることを特徴とする。   The reaction information acquisition unit of the information measuring device according to the present invention is characterized in that the predetermined duration and / or repetition interval time of the body movement is acquired as the reaction information.

本発明に係る情報測定装置の前記測定部が測定した前記数値に基づいて、前記映像に対するユーザの反応度合を出力する反応度合出力部を有することを特徴とする。   The information measuring apparatus according to the present invention includes a reaction degree output unit that outputs a user reaction degree to the video based on the numerical value measured by the measurement unit.

本発明に係る情報測定装置の前記反応度合出力部は、前記数値から点数、グラフ、その他のいずれか1つ以上の表示形態により反応度合を可視化することを特徴とする。   The reaction degree output unit of the information measuring device according to the present invention is characterized in that the reaction degree is visualized from the numerical value by any one or more display forms such as a score, a graph, and the like.

本発明に係る情報測定方法は、映像に対するユーザの反応を測定する情報測定方法であって、前記映像を表示するステップと、前記映像の表示開始からの経過時間を計測するステップと、前記映像に対する前記ユーザの反応情報を取得するステップと、前記経過時間の経緯に伴う前記反応情報に基づいて取得した反応度合に重み付けして、前記反応度合を数値として測定するステップと、を実行することを特徴とする。   An information measurement method according to the present invention is an information measurement method for measuring a user's response to a video, the step of displaying the video, the step of measuring an elapsed time from the display start of the video, and the video The step of acquiring the reaction information of the user and the step of measuring the degree of reaction as a numerical value by weighting the degree of reaction acquired based on the reaction information according to the history of the elapsed time are performed. And

本発明に係る情報測定プログラムは、映像に対するユーザの反応を測定する情報測定プログラムであって、コンピュータに、前記映像を表示する機能と、前記映像の表示開始からの経過時間を計測する機能と、前記映像に対する前記ユーザの反応情報を取得する機能と、前記経過時間の経緯に伴う前記反応情報に基づいて取得した反応度合に重み付けして、前記反応度合を数値として測定する機能と、を実行させることを特徴とする。   An information measurement program according to the present invention is an information measurement program for measuring a user's reaction to a video, a function of displaying the video on a computer, a function of measuring an elapsed time from the start of display of the video, A function of acquiring reaction information of the user with respect to the video, and a function of measuring the reaction degree as a numerical value by weighting the reaction degree acquired based on the reaction information associated with the history of the elapsed time. It is characterized by that.

本発明によれば、管理者の意図する映像を表示させ、映像に対するユーザの反応情報に映像表示開始からの経過時間の経緯に応じた重み付けをした反応度合を数値として測定することができる。すなわち、特定の条件下において、取得したユーザの反応情報に対して前記条件に沿った重み付けをすることで、瞬時に、より精密な行動・心理状態を推測することが可能である。   According to the present invention, it is possible to display a video intended by an administrator, and measure the degree of response obtained by weighting the user's response information to the video according to the elapsed time from the start of video display as a numerical value. That is, it is possible to instantly estimate a more precise behavior / psychological state by weighting the acquired user reaction information according to the condition under specific conditions.

本発明の実施形態1に係る情報測定装置の機能ブロック図である。It is a functional block diagram of an information measuring device concerning Embodiment 1 of the present invention. 本発明の実施形態1に係る情報測定装置の処理フロー図である。It is a processing flow figure of the information measuring device concerning Embodiment 1 of the present invention. 本発明の実施形態2乃至実施形態2Dに係る情報測定装置の機能ブロック図である。It is a functional block diagram of the information measuring device which concerns on Embodiment 2 thru | or Embodiment 2D of this invention. 本発明の実施形態2乃至実施形態2Dに係る情報測定装置の処理フロー図である。It is a processing flowchart of the information measuring device which concerns on Embodiment 2 thru | or Embodiment 2D of this invention. 本発明の実施形態2乃至実施形態2Dに係る情報測定装置の端末10の画面を示す図であり、(a)はコメントの入力画面であり、(b)は広告の表示画面である。It is a figure which shows the screen of the terminal 10 of the information measuring device which concerns on Embodiment 2 thru | or Embodiment 2D of this invention, (a) is an input screen of a comment, (b) is a display screen of an advertisement. 本発明の実施形態2乃至実施形態2Dに係る情報測定装置のスクリーン30の画面を示す図であり、(a)はコメントの表示画面であり、(b)はコメントの結果画面である。It is a figure which shows the screen of the screen 30 of the information measuring device which concerns on Embodiment 2 thru | or Embodiment 2D of this invention, (a) is a display screen of a comment, (b) is a comment result screen. 本発明の実施形態2乃至実施形態2Dに係る情報測定装置のサーバ20で保持する設定情報であり、(a)は反応情報にコードを割り当てた反応情報コード表、(b)は測定値にコードを割り当てた測定値コード表である。It is the setting information held in the server 20 of the information measuring apparatus according to Embodiment 2 to Embodiment 2D of the present invention, (a) is a reaction information code table in which a code is assigned to the reaction information, and (b) is a code in the measured value. Is a measurement value code table to which is assigned. 本発明の実施形態2乃至実施形態2Dに係る情報測定装置のサーバ20で保持する設定及び/又は記録情報であり、(a)は経過時間の経緯と反応情報から取得した反応度合を数値へ置換する反応度合置換表、(b)はユーザの入力値例、(c)は(b)の入力値から(a)の反応度合置換表を元に数値へ変換した例を示す図である。It is the setting and / or recording information stored in the server 20 of the information measuring device according to the second to second embodiments of the present invention, and (a) replaces the history of elapsed time and the reaction degree obtained from the reaction information with numerical values. (B) is an example of user input values, and (c) is a diagram showing an example of conversion from the input values of (b) to numerical values based on the reactivity degree replacement table of (a). 本発明の実施形態2乃至実施形態2Dに係る情報測定装置のサーバ20で保持する設定及び/又は記録情報であり、(a)は経過時間の経緯と単発と連打を区別させた反応情報から取得した反応度合を数値へ置換する反応度合置換表、(b)はユーザの入力値例、(c)は(b)の入力値から(a)の反応度合置換表を元に数値へ変換した例を示す図である。It is the setting and / or recording information held in the server 20 of the information measuring apparatus according to the second to second embodiments of the present invention, and (a) is obtained from the elapsed time and the reaction information that distinguishes single shots and repeated shots. (B) is an example of user input values, (c) is an example of conversion from (b) input values to numerical values based on (a) reaction degree substitution table. FIG. 本発明の実施形態3乃至実施形態3Eに係る情報測定装置の機能ブロック図である。It is a functional block diagram of the information measuring device which concerns on Embodiment 3 thru | or Embodiment 3E of this invention. 本発明の実施形態3乃至実施形態3Eに係る情報測定装置の処理フロー図である。It is a processing flowchart of the information measuring device which concerns on Embodiment 3 thru | or Embodiment 3E of this invention. 本発明の実施形態3乃至実施形態3Eに係る情報測定装置のサーバ20で保持する設定情報であり、(a)は反応情報にコードを割り当てた反応情報コード表、(b)は測定値にコードを割り当てた測定値コード表である。It is the setting information held in the server 20 of the information measuring apparatus according to Embodiment 3 to Embodiment 3E of the present invention, (a) is a reaction information code table in which a code is assigned to the reaction information, and (b) is a code in the measured value. Is a measurement value code table to which is assigned. 本発明の実施形態3乃至実施形態3Eに係る情報測定装置のサーバ20で保持する設定及び/又は記録情報であり、(a)は経過時間の経緯と反応情報から取得した反応度合を数値へ置換する反応度合置換表、(b)はユーザの入力値例、(c)は(b)の入力値から(a)の反応度合置換表を元に数値へ変換した例、(d)は(b)のユーザの二回目の入力値例、(e)は(d)の入力値から(a)の反応度合置換表を元に数値へ変換した例を示す図である。The setting and / or recording information held in the server 20 of the information measuring device according to the third to third embodiments of the present invention, wherein (a) replaces the history of elapsed time and the reaction degree obtained from the reaction information with numerical values. (B) is an example of a user input value, (c) is an example of converting the input value of (b) into a numerical value based on the reactivity degree replacement table of (a), (d) is (b ) Of the user's second input value, (e) is a diagram showing an example in which the input value of (d) is converted to a numerical value based on the reactivity degree substitution table of (a). 本発明の実施形態3乃至実施形態3Eに係る情報測定装置のサーバ20で保持する設定情報であり、(a)は反応情報にコードを割り当てた反応情報コード表、(b)は測定値にコードを割り当てた測定値コード表である。It is the setting information held in the server 20 of the information measuring apparatus according to Embodiment 3 to Embodiment 3E of the present invention, (a) is a reaction information code table in which a code is assigned to reaction information, and (b) is a code in the measurement value Is a measurement value code table to which is assigned. 本発明の実施形態3乃至実施形態3Eに係る情報測定装置のサーバ20で保持する設定及び/又は記録情報であり、(a)は経過時間の経緯と反応情報から取得した反応度合を数値へ置換する複数の測定値を有する場合の反応度合置換表、(b)はユーザの入力値例、(c)は(b)の入力値から(a)の反応度合置換表を元に数値へ変換した例、(d)は(c)の結果を元にレーダーチャート化した表を示す図である。The setting and / or recording information held in the server 20 of the information measuring device according to the third to third embodiments of the present invention, wherein (a) replaces the history of elapsed time and the reaction degree obtained from the reaction information with numerical values. (B) is an example of a user input value, (c) is converted from the input value of (b) into a numerical value based on the reactivity degree replacement table of (a). For example, (d) is a diagram showing a table charted as a radar chart based on the result of (c). 本発明の実施形態3乃至実施形態3Eに係る情報測定装置のサーバ20で保持する設定及び/又は記録情報であり、(a)は経過時間の経緯と注視時間別に取得した反応情報から取得した反応度合を数値へ置換する反応度合置換表、(b)はユーザの入力値例、(c)は(b)の入力値から(a)の反応度合置換表を元に数値へ変換した例を示す図である。It is the setting and / or recorded information held in the server 20 of the information measuring apparatus according to Embodiment 3 to Embodiment 3E of the present invention, and (a) is a reaction acquired from the history of elapsed time and reaction information acquired for each gaze time. Reactivity degree substitution table for substituting degrees for numerical values, (b) is an example of user input values, (c) is an example of conversion from input values of (b) to numerical values based on the reactivity degree substitution table of (a). FIG. 本発明の実施形態3乃至実施形態3Eに係る情報測定装置の端末10が取得する注視範囲を表した図である。It is a figure showing the gaze range which the terminal 10 of the information measuring device which concerns on Embodiment 3 thru | or Embodiment 3E of this invention acquires.

以下、図面を参照して、本発明によるユーザの反応を測定する情報測定装置を実施するための形態について説明する。   Hereinafter, an embodiment for implementing an information measuring device for measuring a user's reaction according to the present invention will be described with reference to the drawings.

[実施形態1]
以下、本発明の実施形態を図に基づいて詳細に説明する。
図1に基づいて、映像を表示して、当該映像の表示開始からの経過時間の経緯に伴うユーザの反応情報に基づいて取得した反応度合に重み付けをすることで、より精密な行動・心理状態を推測することを可能にした例を実施形態1として説明する。
[Embodiment 1]
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
Based on FIG. 1, a more precise behavior / psychological state can be obtained by displaying an image and weighting the degree of reaction acquired based on the user's reaction information along with the elapsed time from the start of display of the image. An example that makes it possible to infer will be described as a first embodiment.

明細書中における用語について以下に説明する。明細書中において、映像とは、教育、訓練、娯楽、広告、音楽、生放送、その他を目的とした映像を示すものである。   Terms used in the specification will be described below. In the specification, a video indicates a video for the purpose of education, training, entertainment, advertisement, music, live broadcasting, and the like.

ユーザの反応情報とは、当該映像に対するユーザの反応に関する情報、すなわち、ユーザの身体部位(視線や首の動き、指の動き、ジャンプ、かがむ、手足の動き、発声、脈拍、その他等)からの身体動作を含む反応のことである。   User response information is information related to the user's response to the video, that is, from the user's body part (gaze, neck movement, finger movement, jump, crouch, limb movement, vocalization, pulse, etc.) A reaction involving physical movement.

経過時間とは、当該映像の表示開始からの時間を経過時間とし、経過時間の経緯とは、前記表示開始からどのように時間がすすんでいったのか、そのいきさつを示すものとし、経過時間の経緯に伴う反応情報とは、当該経過時間内にどのようなユーザの反応が生じているか、を示すものとする。具体的には、本発明で端末内に経過時間計測部3及び反応情報取得部4を有する構成とした場合、前述のユーザの反応情報を指の動きとして取得した際に、連打やダブルクリック又は単発でのタップの判別を行うことが、前述の経過時間の経緯に伴う反応情報として含まれる。なお、どのようなユーザの反応が生じているか取得できればよく、上記に限定されない。   The elapsed time is the elapsed time from the start of the video display, and the elapsed time is how the time has elapsed since the start of the display. The reaction information associated with the history indicates what kind of user reaction is occurring within the elapsed time. Specifically, when the terminal includes the elapsed time measurement unit 3 and the reaction information acquisition unit 4 in the present invention, when the user's reaction information is acquired as a finger movement, The single tap determination is included as reaction information associated with the above-described elapsed time. Note that it is only necessary to be able to acquire what kind of user reaction occurs, and the present invention is not limited to the above.

反応度合とは、経過時間の経緯とユーザの反応情報に基づいて取得する反応の度合いのことを示す。すなわち、興奮、落胆、喜び等を含む心理的な度合いや、注意力、反応速度等を含む能力的な度合いのことである。   The degree of reaction indicates the degree of reaction acquired based on the history of elapsed time and user's reaction information. That is, a psychological level including excitement, discouragement, joy, etc., and a capability level including attention, response speed, and the like.

重み付けとは、重要度に応じた定量評価(点数化)を行うことである。本発明においては、映像の重要度、ユーザの反応の重要度、時間(経過時間や経過時間の経緯)の重要度、その他の重要度に対して、定量評価を行い、前述の反応度合に含めて数値化するものを示す。   Weighting means performing quantitative evaluation (scoring) according to importance. In the present invention, quantitative evaluation is performed on the importance of the video, the importance of the reaction of the user, the importance of the time (elapsed time and the history of the elapsed time), and other importance, and the evaluation is included in the above-described degree of reaction. Shows what is quantified.

[構成]
図1は、本発明の実施形態1に係るシステム構成を示す図である。
図1において、情報測定装置1は、映像表示部2と、経過時間計測部3と、反応情報取得部4と、経過時間計測部3と反応情報取得部4からの情報を受け付ける測定部5を有している。
[Constitution]
FIG. 1 is a diagram showing a system configuration according to Embodiment 1 of the present invention.
In FIG. 1, the information measuring apparatus 1 includes a video display unit 2, an elapsed time measuring unit 3, a reaction information acquiring unit 4, and a measuring unit 5 that receives information from the elapsed time measuring unit 3 and the reaction information acquiring unit 4. Have.

図1では情報測定装置1を一つの装置として構成する形態を示しているが、複数のユーザがそれぞれ所持する端末と、端末とサーバを接続する通信網(図示せず。)と、通信網を介して通信を受け付けて種々の設定・登録・管理等を行うサーバを有する形態としてもよく、映像表示部2、経過時間計測部3、反応情報取得部4、測定部5の機能を有していれば、いずれの構成としてもよい。   Although FIG. 1 shows a configuration in which the information measuring device 1 is configured as one device, a terminal possessed by a plurality of users, a communication network (not shown) connecting the terminal and the server, and a communication network are shown. It may be configured to have a server that accepts communication via the server and performs various settings, registration, management, etc., and has functions of a video display unit 2, an elapsed time measurement unit 3, a reaction information acquisition unit 4, and a measurement unit 5. Any configuration may be used.

前記通信網を有する場合、通信網とは、公衆交換電話網(PSTN)、携帯電話網、IP電話網、閉域網、無線LAN(WiFi)等であり、ネットワークその他の通信網として機能するものであればよい。   In the case of having the communication network, the communication network is a public switched telephone network (PSTN), a cellular phone network, an IP telephone network, a closed network, a wireless LAN (WiFi), etc., and functions as a network or other communication network. I just need it.

前記端末を有する場合、端末は、スマートフォン、携帯電話、PC(Personal Computer)、タブレット等であり、前記機能を実施できるものであればよい。   When the terminal is included, the terminal is a smart phone, a mobile phone, a PC (Personal Computer), a tablet, or the like, as long as it can perform the function.

次に、本発明の実施形態1の動作を説明する。
図1の構成において、図2に示されるステップで処理が実行される。まず、管理者の意図する映像の表示を開始する(図2のステップS1)。同時に、経過時間計測部3は映像の表示開始からの経過時間の計測を開始する(図2のステップS2)。反応情報取得部4は、映像に対するユーザの身体部位(視線や首の動き、指の動き、ジャンプ、かがむ、手足の動き、発声、脈拍、その他等)からの身体動作を含む経過時間の経緯に伴う反応情報を取得する(図2のステップS3)。当該反応情報には、ユーザが何ら反応しなかった場合でも、反応していない旨の情報が含まれる。
Next, the operation of Embodiment 1 of the present invention will be described.
In the configuration of FIG. 1, processing is executed at the steps shown in FIG. First, display of an image intended by the administrator is started (step S1 in FIG. 2). At the same time, the elapsed time measuring unit 3 starts measuring the elapsed time from the start of video display (step S2 in FIG. 2). The reaction information acquisition unit 4 is based on the elapsed time including the body movement from the user's body part (gaze, neck movement, finger movement, jump, crouch, limb movement, vocalization, pulse, etc.) with respect to the video. Accompanying reaction information is acquired (step S3 in FIG. 2). The reaction information includes information indicating that no response is made even if the user does not respond at all.

次に測定部5は、経過時間計測部3及び反応情報取得部4の情報を得て、経過時間の経緯に伴う反応情報に基づいて反応度合を取得し、当該反応度合に重み付けを行い(図2のステップS4)、重み付けをされた反応度合を数値として測定する(図2のステップS5)。映像が表示されている場合(図2のステップS6 Yes)、図2のステップS3乃至S5の処理を繰り返す。映像の表示が終了した場合(図2のステップS6 No)、測定部5による測定結果の数値を出力してもよいし(図2のステップS7)、数値の加工を行ってもよく、測定結果の使用方法、活用方法については限定されない。すべての処理が完了したら、処理を終了する(図2のステップS8)。   Next, the measurement unit 5 obtains information of the elapsed time measurement unit 3 and the reaction information acquisition unit 4, acquires the reaction degree based on the reaction information accompanying the history of the elapsed time, and weights the reaction degree (see FIG. 2 step S4), the weighted reaction degree is measured as a numerical value (step S5 in FIG. 2). When the video is displayed (Yes in step S6 in FIG. 2), the processes in steps S3 to S5 in FIG. 2 are repeated. When the display of the video is completed (No in step S6 in FIG. 2), the numerical value of the measurement result by the measurement unit 5 may be output (step S7 in FIG. 2), the numerical value may be processed, and the measurement result There is no limitation on how to use and use. When all the processes are completed, the process ends (step S8 in FIG. 2).

本発明の実施形態1によれば、前述の処理をすることにより、ユーザの反応情報を画一的に数値へ置換するものではなく、前述の映像に対するユーザの反応を反応度合として捉えて、映像の重要度、ユーザ反応の重要度、時間(経過時間や経過時間の経緯)の重要度、その他の重要度、それぞれに重み付けをした結果を数値として取得することが可能となった。言い換えれば、状況に応じた重み付けをすることで、ユーザの反応度合、すなわち心理的な度合いや、能力的な度合いを瞬時に、かつ、多角的に捉えることが可能となった。   According to the first embodiment of the present invention, by performing the above-described processing, the user's reaction information is not uniformly replaced with a numerical value. , Importance of user reaction, importance of time (elapsed time and history of elapsed time), other importance, and weighted results can be acquired as numerical values. In other words, weighting according to the situation makes it possible to grasp the degree of user response, that is, the psychological level and the capability level instantaneously and from various perspectives.

以上の説明では、本発明をハードウェアの情報測定装置として構築したが、本発明は端末及びサーバのコンピュータ(CPU)でメモリに記憶されたアプリケーションを実行することにより、ソフトウェア上に上述した映像表示部、経過時間計測部、反応情報取得部、測定部を構築するためのプログラムとして構築してもよいものである。   In the above description, the present invention is constructed as a hardware information measuring device. However, the present invention displays the above-described video display on software by executing an application stored in a memory on a computer (CPU) of a terminal and a server. It may be constructed as a program for constructing a section, an elapsed time measuring section, a reaction information acquiring section, and a measuring section.

具体的には、本発明の実施形態においてコンピュータに実行させるプログラムは、映像に対するユーザの反応を測定する情報測定プログラムであって、前記コンピュータに、前記映像を表示する機能と、前記映像の表示開始からの経過時間を計測する機能と、前記映像に対する前記ユーザの反応情報を取得する機能と、前記経過時間の経緯に伴う前記反応情報に基づいて取得した反応度合に重み付けして、前記反応度合を数値として測定する機能と、を実行させることにより、前記コンピュータで前記反応度合を測定する構成として構築する。   Specifically, a program to be executed by a computer in the embodiment of the present invention is an information measurement program for measuring a user's reaction to an image, the function for displaying the image on the computer, and the display start of the image. A function of measuring the elapsed time from the above, a function of acquiring the user's response information for the video, and a weight of the response level acquired based on the response information associated with the history of the elapsed time, By executing the function of measuring as a numerical value, the computer is constructed as a configuration for measuring the degree of reaction by the computer.

[実施形態2]
[構成]
実施形態1では、映像に対するユーザの反応度合に重み付けをして行動・心理状態を推測することを可能にする構成としたが、以下の実施形態では、管理者の意図する映像を具体化し、その映像に対するユーザの反応を測定する具体例について説明する。実施形態2は、前記映像を競輪場で競輪の実況映像とする場合の例であって、その構成を図3乃至図6、及び図8を用いて、以下に説明する。
[Embodiment 2]
[Constitution]
In the first embodiment, the user's degree of response to the video is weighted and the behavior / psychological state can be estimated. However, in the following embodiment, the video intended by the administrator is embodied, A specific example of measuring a user's reaction to an image will be described. The second embodiment is an example in which the video is a live video of a bicycle race at a bicycle racetrack, and the configuration thereof will be described below with reference to FIGS. 3 to 6 and FIG.

実施形態2の概要を以下に説明する。
実施形態2では、前記映像表示機器に、ファン参加型デジタルサイネージ(以下、スクリーン30と記載する。)を用いた構成とする。スクリーン30を競輪場内に設置し、競輪場内に滞在するユーザが所持するスマートフォンやモバイル端末(以下、端末10と記載する。)にて画面操作により競輪選手をリアルタイムに応援することができる環境を提供する。前記応援とは、端末10にてユーザによる応援する内容のコメント入力を可能とし(図5(a)のコメント入力画面51)、入力されたコメントは、随時スクリーン30に掲示される(図6(a)のスクリーン映像コメント表示画面53)。同時に、ユーザの入力コメント及び経過時間の経緯に基づいて取得した反応度合に重み付けをして、ユーザの興奮、落胆、喜び等を含む心理的な度合いを数値として測定することを可能とする。
The outline of the second embodiment will be described below.
In the second embodiment, the video display device uses a fan participation type digital signage (hereinafter referred to as a screen 30). A screen 30 is installed in the bicycle racetrack, and an environment is provided in which a bicycle racer can be supported in real time by screen operation on a smartphone or mobile terminal (hereinafter referred to as terminal 10) possessed by a user staying in the bicycle racetrack. To do. The cheering enables a user to input a comment of the content to be cheered by the terminal 10 (comment input screen 51 in FIG. 5A), and the input comment is posted on the screen 30 as needed (FIG. 6 ( a) Screen image comment display screen 53). At the same time, it is possible to measure the psychological degree including the user's excitement, discouragement, joy, etc. as a numerical value by weighting the degree of response acquired based on the user's input comment and the history of elapsed time.

実施形態2の機器構成を以下に説明する。
図3において、情報測定装置1は、複数のユーザがそれぞれ所持する端末10と、端末10とサーバ20とを接続する通信網50と、通信網50を介して通信を受け付けて種々の設定・登録・管理等を行うサーバ20と、通信網50を介して通信を受け付けて映像を表示するスクリーン30と、サーバ20からの情報を受け付ける記録部40を有している。
The device configuration of the second embodiment will be described below.
In FIG. 3, the information measuring apparatus 1 accepts communication via the communication network 50, the terminal 10 owned by a plurality of users, the communication network 50 connecting the terminal 10 and the server 20, and various settings / registrations. The server 20 that performs management and the like, the screen 30 that receives communication via the communication network 50 and displays video, and the recording unit 40 that receives information from the server 20 are included.

端末10は、通信網50を介して通信を行う通信部11と、各種制御を行う制御部12と、ユーザのコメント入力を行う入力部13と、入力部13の入力値を反応情報として取得する反応情報取得部4と、映像の表示開始からの経過時間の経緯を計測する経過時間計測部3を有している。   The terminal 10 acquires, as reaction information, a communication unit 11 that performs communication via the communication network 50, a control unit 12 that performs various controls, an input unit 13 that inputs a user's comment, and an input value of the input unit 13. It has the reaction information acquisition part 4 and the elapsed time measurement part 3 which measures the process of the elapsed time from the display start of an image | video.

スクリーン30は、通信網50を介してサーバ20からの情報を受信する通信部31と、各種制御を行う制御部32と、映像の表示を行う映像表示部2と、端末10の入力部13の入力値を出力する出力部33と、映像表示部2及び出力部33から取得した映像及びコメントを表示する表示部34を有している。   The screen 30 includes a communication unit 31 that receives information from the server 20 via the communication network 50, a control unit 32 that performs various controls, a video display unit 2 that displays video, and an input unit 13 of the terminal 10. It has the output part 33 which outputs an input value, and the display part 34 which displays the image | video acquired from the video display part 2 and the output part 33, and a comment.

サーバ20は、通信網50を介して通信を行う通信部21と、各種制御を行う制御部22と、端末10の反応情報取得部4と経過時間計測部3から取得した反応度合に重み付けを行う重み付け部23と、重み付けされた反応度合を数値として測定する測定部5と、測定部5で測定した前記数値に基づいて、前記映像に対するユーザの反応度合を出力する反応度合出力部24を有する。   The server 20 weights the degree of reaction acquired from the communication unit 21 that performs communication via the communication network 50, the control unit 22 that performs various controls, the reaction information acquisition unit 4 and the elapsed time measurement unit 3 of the terminal 10. The weighting unit 23, the measuring unit 5 that measures the weighted reaction degree as a numerical value, and the reaction degree output unit 24 that outputs the user's reaction degree to the video based on the numerical value measured by the measuring unit 5.

記録部40は、サーバ20が端末10の反応情報取得部4及び/又は経過時間計測部3から受け付けた情報を含む、設定・登録・管理等を行うための情報を記録するのに用いる。   The recording unit 40 is used to record information for performing setting, registration, management, and the like including information received from the reaction information acquisition unit 4 and / or the elapsed time measurement unit 3 of the terminal 10 by the server 20.

なお、機器構成は上記に限定されるものではなく、例えば、端末10の経過時間計測部3及び反応情報取得部4をサーバ20が有する構成としてもよい。   The device configuration is not limited to the above. For example, the server 20 may include the elapsed time measurement unit 3 and the reaction information acquisition unit 4 of the terminal 10.

次に、本発明の実施形態2の動作を説明する。
サーバ20は競輪の実況映像の表示指示をスクリーン30へ行い(図4のステップS11)、スクリーン30の映像表示部2は表示部34へ映像の表示指示を行い、表示部34は実況映像の表示を開始する(図4のステップS13)。サーバ20は、競輪がスタートすると同時に端末10へ経過時間の計測開始指示を行い(図4のステップS12)、端末10は、サーバ20からの指示を受けて、経過時間計測部3で経過時間の計測を開始し(図4のステップS14)、入力部13は、図5(a)のコメント入力画面51を表示する。端末10の入力部13に対して、応援内容のコメントが入力されると(図4のステップS15)、端末10の反応情報取得部4はコメント内容を含む予め定められた前記ユーザの身体動作を前記反応情報として取得する(図4のステップS16)。端末10の制御部12は、反応情報取得部4が取得した反応情報、及び経過時間計測部3が計測した経過時間を取得して、通信部11は前記取得した情報をサーバ20へ送信する(図4のステップS17)。
Next, the operation of Embodiment 2 of the present invention will be described.
The server 20 instructs the screen 30 to display the actual video of the bicycle race (step S11 in FIG. 4), the video display unit 2 of the screen 30 instructs the display unit 34 to display the video, and the display unit 34 displays the live video. Is started (step S13 in FIG. 4). The server 20 instructs the terminal 10 to start measuring elapsed time simultaneously with the start of the bicycle race (step S12 in FIG. 4), and the terminal 10 receives the instruction from the server 20 and the elapsed time measuring unit 3 determines the elapsed time. Measurement is started (step S14 in FIG. 4), and the input unit 13 displays the comment input screen 51 in FIG. When the comment of the support content is input to the input unit 13 of the terminal 10 (step S15 in FIG. 4), the reaction information acquisition unit 4 of the terminal 10 performs the predetermined physical action of the user including the comment content. Obtained as the reaction information (step S16 in FIG. 4). The control unit 12 of the terminal 10 acquires the reaction information acquired by the reaction information acquisition unit 4 and the elapsed time measured by the elapsed time measurement unit 3, and the communication unit 11 transmits the acquired information to the server 20 ( Step S17 in FIG.

サーバ20は受信したコメントの表示に関する精査を行い(図4のステップS18)、スクリーン30へコメント表示指示を行う(図4のステップS19)。スクリーン30の出力部33は表示部34へコメントの表示指示を行い、表示部34は、競輪の実況映像上に、表示指示を受けたコメントを出力する(図4のステップS20)。なお、前記精査とは、サーバ20にコメントが集中した場合の表示順序や、フリーワード入力を可能とする実施形態である場合の不適切なコメントの削除などを含む処理である。前記精査は、実施形態に応じて設けても設けなくてもよい。   The server 20 examines the received comment display (step S18 in FIG. 4), and gives a comment display instruction to the screen 30 (step S19 in FIG. 4). The output unit 33 of the screen 30 instructs the display unit 34 to display a comment, and the display unit 34 outputs the comment that has received the display instruction on the actual video of the bicycle race (step S20 in FIG. 4). The scrutiny is a process including a display order when comments are concentrated on the server 20 and deletion of inappropriate comments in the embodiment that allows free word input. The scrutiny may or may not be provided depending on the embodiment.

サーバ20の重み付け部23は、図4のステップS17で受信した反応情報及び経過時間から反応度合に重み付けを行い(図4のステップS21)、測定部5は、重み付けされた反応度合を数値として測定する(図4のステップS22)。前記数値とは、前記経過時間の経緯と前記反応情報とによる反応度合置換表(図8(a)に図示。)に基づいて前記反応度合を数値へ置換するものである。   The weighting unit 23 of the server 20 weights the reaction degree from the reaction information and the elapsed time received in step S17 in FIG. 4 (step S21 in FIG. 4), and the measurement unit 5 measures the weighted reaction degree as a numerical value. (Step S22 in FIG. 4). The numerical value replaces the reaction degree with a numerical value based on a reaction degree substitution table (shown in FIG. 8A) based on the history of the elapsed time and the reaction information.

サーバ20の反応度合出力部24は、前記数値を記録部40に前記映像に対するユーザの反応度合として出力する(図4のステップS23)。記録部40は、前記反応度合を記録する。なお、反応度合出力部24は反応度合を前記の通り記録部40へ出力してもよいし、その他へ出力してもよく、出力先は限定されない。また、図4のステップS23で行っているが、映像表示終了後(図4のステップS27 No)にまとめて出力してもよく、出力のタイミングは限定されない。   The response level output unit 24 of the server 20 outputs the numerical value to the recording unit 40 as the response level of the user to the video (step S23 in FIG. 4). The recording unit 40 records the degree of reaction. The reaction degree output unit 24 may output the reaction degree to the recording unit 40 as described above, or may output it to the other, and the output destination is not limited. Moreover, although it performs by step S23 of FIG. 4, you may output collectively after completion | finish of video display (step S27 No of FIG. 4), and the timing of an output is not limited.

競輪の実況映像が終了していない場合(図4のステップS27 Yes)、ステップS15乃至ステップS23の処理を繰り返す。競輪の実況映像が終了した場合(図4のステップS27 No)、サーバ20は端末10へコメント入力終了の指示を行い(図4のステップS29)、処理を終了する(図4のステップS31)。端末10の入力部13は図5(a)コメント入力画面51を終了する(図4のステップS30)。スクリーン30の表示部34は実況映像を終了する(図4のステップS28)。   When the actual video of the bicycle race has not ended (step S27 in FIG. 4), the processing from step S15 to step S23 is repeated. When the actual video of the bicycle race ends (No in step S27 in FIG. 4), the server 20 instructs the terminal 10 to end the comment input (step S29 in FIG. 4), and ends the process (step S31 in FIG. 4). The input unit 13 of the terminal 10 ends the comment input screen 51 in FIG. 5A (step S30 in FIG. 4). The display unit 34 of the screen 30 ends the live video (step S28 in FIG. 4).

本発明の実施形態2によれば、経過時間の経緯とユーザのコメント内容から、ユーザの反応度合を数値として取得することが可能となっている。端末からの入力コメントがスクリーンへ反映されることにより、端末への入力を促すことにも繋がり、サーバで取得する反応情報が活性化する。サーバで取得する反応情報が増加すると、それに応じて測定される反応度合も増加し、すなわち、より精密な行動・心理状態を推測することが可能となる。   According to the second embodiment of the present invention, it is possible to acquire the user's reaction degree as a numerical value from the history of the elapsed time and the content of the user's comment. Reflecting the input comment from the terminal on the screen leads to prompting input to the terminal, and the reaction information acquired by the server is activated. When the response information acquired by the server increases, the degree of response measured accordingly increases, that is, it becomes possible to estimate a more precise behavior / psychological state.

図4のステップS21でサーバ20の重み付け部23は反応度合に重み付けを行っているが、重み付けとは重要度のことであり、どのような反応度合(または、心理状態の種別)の取得を目的とするか、によって、重み付けの対象と値は異なってくる。   The weighting unit 23 of the server 20 weights the degree of response in step S21 of FIG. 4. The weighting is an importance level, and the purpose is to obtain what kind of degree of response (or psychological state type). Depending on whether or not, the weighting target and the value are different.

[実施形態2A]
[構成]
実施形態2では、端末から取得した経過時間及び反応情報に基づいて、サーバで反応度合に重み付けを行う構成としたが、実施形態2Aでは、当該反応度合に対する重み付けの方法、及び取得した反応度合を表す数値の活用を可能とする構成の一例を図3乃至図5及び図7乃至図8を用いて、以下に説明する。なお、その他の構成は実施形態2の構成と同様である。
[Embodiment 2A]
[Constitution]
In the second embodiment, the server is weighted based on the elapsed time and reaction information acquired from the terminal. However, in the second embodiment, the weighting method for the reaction degree and the acquired reaction degree are set. An example of a configuration that makes it possible to use the numerical values to be expressed will be described below with reference to FIGS. 3 to 5 and FIGS. Other configurations are the same as those of the second embodiment.

実施形態2Aの概要を以下に説明する。
実施形態2Aでは、競輪の実況映像とユーザのコメント内容に重み付けを行って、反応度合を興奮の度合いとして捉える事例を説明する。さらに、前記興奮の度合いを利用して、ユーザの心理状態に適した商品を紹介することとする。
An outline of the embodiment 2A will be described below.
In Embodiment 2A, a case will be described in which the actual degree video of the bicycle race and the content of the user's comment are weighted, and the degree of reaction is regarded as the degree of excitement. Furthermore, it is assumed that a product suitable for the user's psychological state is introduced using the degree of excitement.

実施形態2Aの機器構成を以下に説明する。
図3において、端末10に反応情報取得部4と経過時間計測部3から取得した情報をもとにサーバ20の広告指示部25で表示指示を出された広告を表示する広告表示部14を付加し、サーバ20に、反応度合に応じた広告の表示を指示する広告指示部25を付加した構成とする。
The device configuration of Embodiment 2A will be described below.
In FIG. 3, an advertisement display unit 14 that displays an advertisement for which a display instruction is issued by the advertisement instruction unit 25 of the server 20 based on the information acquired from the reaction information acquisition unit 4 and the elapsed time measurement unit 3 is added to the terminal 10. Then, the server 20 is configured such that an advertisement instruction unit 25 for instructing display of an advertisement corresponding to the degree of reaction is added.

次に、実施形態2Aの動作を説明する。
サーバ20は競輪の実況映像の表示指示をスクリーン30へ行い(図4のステップS11)、スクリーン30の映像表示部2は表示部34へ映像の表示指示を行い、表示部34は実況映像の表示を開始する(図4のステップS13)。サーバ20は、競輪がスタートすると同時に端末10へ経過時間の計測開始指示を行い(図4のステップS12)、端末10は、サーバ20からの指示を受けて、経過時間計測部3で経過時間の計測を開始し(図4のステップS14)、入力部13は、図5(a)のコメント入力画面51を表示する。端末10の入力部13に対して、応援内容のコメントが入力されると(図4のステップS15)、端末10の反応情報取得部4はコメント内容を含む予め定められた前記ユーザの身体動作を前記反応情報として取得する(図4のステップS16)。端末10の制御部12は、反応情報取得部4が取得した反応情報、及び経過時間計測部3が計測した経過時間を取得して、通信部11は前記取得した情報をサーバ20へ送信する(図4のステップS17)。
Next, the operation of Embodiment 2A will be described.
The server 20 instructs the screen 30 to display the actual video of the bicycle race (step S11 in FIG. 4), the video display unit 2 of the screen 30 instructs the display unit 34 to display the video, and the display unit 34 displays the live video. Is started (step S13 in FIG. 4). The server 20 instructs the terminal 10 to start measuring elapsed time simultaneously with the start of the bicycle race (step S12 in FIG. 4), and the terminal 10 receives the instruction from the server 20 and the elapsed time measuring unit 3 Measurement is started (step S14 in FIG. 4), and the input unit 13 displays the comment input screen 51 in FIG. When the comment of the support content is input to the input unit 13 of the terminal 10 (step S15 in FIG. 4), the reaction information acquisition unit 4 of the terminal 10 performs the predetermined physical action of the user including the comment content. Obtained as the reaction information (step S16 in FIG. 4). The control unit 12 of the terminal 10 acquires the reaction information acquired by the reaction information acquisition unit 4 and the elapsed time measured by the elapsed time measurement unit 3, and the communication unit 11 transmits the acquired information to the server 20 ( Step S17 in FIG.

前述の図4のステップS17の処理は反応情報の取得(図4のステップS16)単位で随時行ってもよいが、実施形態2Aでは、前記経過時間を分割し、当該分割した時間帯毎に前記反応情報を取得するものとして記載する。   The process in step S17 in FIG. 4 described above may be performed at any time in units of reaction information acquisition (step S16 in FIG. 4). However, in the embodiment 2A, the elapsed time is divided and the divided time zones are It is described as obtaining reaction information.

サーバ20は受信したコメントの表示に関する精査を行い(図4のステップS18)、スクリーン30へコメント表示指示を行う(図4のステップS19)。スクリーン30の出力部33は表示部34へコメントの表示指示を行い、表示部34は、競輪の実況映像上に、表示指示を受けたコメントを出力する(図4のステップS20)。なお、前記精査とは、サーバ20にコメントが集中した場合の表示順序や、フリーワード入力を可能とする実施形態である場合の不適切なコメントの削除などを含む処理である。前記精査は、実施形態に応じて設けても設けなくてもよい。   The server 20 examines the received comment display (step S18 in FIG. 4), and gives a comment display instruction to the screen 30 (step S19 in FIG. 4). The output unit 33 of the screen 30 instructs the display unit 34 to display a comment, and the display unit 34 outputs the comment that has received the display instruction on the actual video of the bicycle race (step S20 in FIG. 4). The scrutiny is a process including a display order when comments are concentrated on the server 20 and deletion of inappropriate comments in the embodiment that allows free word input. The scrutiny may or may not be provided depending on the embodiment.

サーバ20の重み付け部23は、図4のステップS17で受信した反応情報及び経過時間から、反応度合に重み付けを行い(図4のステップS21)、測定部5は、重み付けされた反応度合を数値として測定する(図4のステップS22)。前記測定部5の数値とは、前記経過時間の経緯と前記反応情報とによる反応度合置換表(図8(a)に図示。)に基づいて前記反応度合を数値へ置換するものである。   The weighting unit 23 of the server 20 weights the reaction degree from the reaction information and the elapsed time received in step S17 in FIG. 4 (step S21 in FIG. 4), and the measurement unit 5 sets the weighted reaction degree as a numerical value. Measurement is performed (step S22 in FIG. 4). The numerical value of the measurement unit 5 is to replace the reaction degree with a numerical value based on a reaction degree substitution table (shown in FIG. 8A) based on the history of the elapsed time and the reaction information.

サーバ20の反応度合出力部24は、前記数値を記録部40に前記映像に対するユーザの反応度合として出力する(図4のステップS23)。記録部40は、前記反応度合を記録する。なお、反応度合出力部24は反応度合を前記の通り記録部40へ出力してもよいし、その他へ出力してもよく、出力先は限定されない。また、図4のステップS23で行っているが、映像表示終了後(図4のステップS27 No)にまとめて出力してもよく、出力のタイミングは限定されない。   The response level output unit 24 of the server 20 outputs the numerical value to the recording unit 40 as the response level of the user to the video (step S23 in FIG. 4). The recording unit 40 records the degree of reaction. The reaction degree output unit 24 may output the reaction degree to the recording unit 40 as described above, or may output it to the other, and the output destination is not limited. Moreover, although it performs by step S23 of FIG. 4, you may output collectively after completion | finish of video display (step S27 No of FIG. 4), and the timing of an output is not limited.

前記数値として取得した反応度合が一定値を超えた場合に、サーバ20の広告指示部25は、ユーザの興奮度合に応じた広告を判定して取得し(図4のステップS24)、端末10へ広告の表示指示を行う(図4のステップS25)。端末10の広告表示部14は当該広告(図5(b)に図示。)を表示する(図4のステップS26)。   When the degree of response acquired as the numerical value exceeds a certain value, the advertisement instruction unit 25 of the server 20 determines and acquires an advertisement corresponding to the user's degree of excitement (step S24 in FIG. 4), and sends it to the terminal 10. An advertisement display instruction is issued (step S25 in FIG. 4). The advertisement display unit 14 of the terminal 10 displays the advertisement (illustrated in FIG. 5B) (step S26 in FIG. 4).

競輪の実況映像が終了していない場合(図4のステップS27 Yes)、ステップS15乃至ステップS22の処理を繰り返す。競輪の実況映像が終了した場合(図4のステップS27 No)、サーバ20は端末10へコメント入力終了の指示を行い(図4のステップS29)、処理を終了する(図4のステップS31)。端末10の入力部13は図5(a)コメント入力画面51を終了する(図4のステップS30)。スクリーン30の表示部34は実況映像を終了する(図4のステップS28)。   If the actual video of the bicycle race has not ended (step S27 in FIG. 4), the processing from step S15 to step S22 is repeated. When the actual video of the bicycle race ends (No in step S27 in FIG. 4), the server 20 instructs the terminal 10 to end the comment input (step S29 in FIG. 4), and ends the process (step S31 in FIG. 4). The input unit 13 of the terminal 10 ends the comment input screen 51 in FIG. 5A (step S30 in FIG. 4). The display unit 34 of the screen 30 ends the live video (step S28 in FIG. 4).

次に、上述の図4のステップS22で使用する反応度合置換表について、以下に説明する。
反応度合置換表(図8及び図9に図示。)は、上記の通り反応度合を数値へ置換する表を示す。前記反応度合置換表は実施形態2Aを実施するうえで、事前に設定しておく必要がある。図7に示す通り、反応情報と測定値をそれぞれ値として設定する。
Next, the reactivity degree substitution table used in step S22 of FIG. 4 described above will be described below.
The reaction degree substitution table (shown in FIGS. 8 and 9) shows a table for replacing the reaction degree with a numerical value as described above. The reactivity degree substitution table needs to be set in advance in carrying out the embodiment 2A. As shown in FIG. 7, reaction information and a measured value are set as values.

反応情報とは、予め定められたユーザの身体動作のことであり、端末10をスマートフォンやタブレット端末として、指で使用する場合にはタップ操作、マウスを使用する場合にはクリック操作のことを指す。また、端末10を押しボタン式携帯電話とした場合にはボタン押下の動作のことを指す。いずれも端末10で検知可能な入力項目を反応情報とする。図7(a)は、前記反応情報に対してコードを割り当てる表である。   The reaction information is a predetermined body motion of the user, and indicates a tap operation when the terminal 10 is used as a smartphone or a tablet terminal with a finger and a click operation when a mouse is used. . Further, when the terminal 10 is a push button type mobile phone, it indicates a button pressing operation. In any case, input items that can be detected by the terminal 10 are set as reaction information. FIG. 7A is a table for assigning codes to the reaction information.

測定値とは、本発明においては、どのような反応度合(または、心理状態の種別)の取得を目的とするかによって設定する値であり、実施形態2Aでは、ユーザの心理状態に適した商品の選別を目的として使用する。従って、図7(b)は、商品に対して測定値を割り当てる表としている。   In the present invention, the measured value is a value that is set depending on what degree of response (or the type of psychological state) is intended to be obtained. In the embodiment 2A, the product is suitable for the psychological state of the user. It is used for the purpose of sorting. Accordingly, FIG. 7B is a table in which measured values are assigned to products.

前記反応度合置換表を、図8を用いて、以下に説明する。
なお、本発明において、映像は事前に特定されているため、表示開始から終了までのおおよその時間が特定可能である。実施形態2Aでは、競輪の実況映像であるため、正確な時間は事前に特定できないが、開催レース毎にある程度の予測は可能である。
The reactivity degree substitution table will be described below with reference to FIG.
In the present invention, since the video is specified in advance, the approximate time from the start to the end of the display can be specified. In the embodiment 2A, since it is a live video of a bicycle race, an accurate time cannot be specified in advance, but a certain degree of prediction is possible for each held race.

図8(a)では、競輪のスタートからゴールまでを5分とし、5分を10分割して、1分割あたり30秒と等間隔に設定する例を示す。分割単位は等間隔でもよいし、各分割単位で1分割あたりの時間を定めて不等間隔としてもよい。また、レースが5分以上となった場合には10分割目(図8(a)のT10)をそのまま利用するものとする。   FIG. 8 (a) shows an example in which the period from the start of the bicycle race to the goal is 5 minutes, and 5 minutes is divided into 10 and set at equal intervals of 30 seconds per division. The division unit may be equally spaced, or the time per division may be determined for each division unit to be unequal intervals. In addition, when the race is 5 minutes or longer, the tenth division (T10 in FIG. 8A) is used as it is.

前記スタートからゴールまでの経過時間を横軸とし、縦軸を図7(a)で設定した反応情報のコードとする。図8(a)のマトリクスから、前記経過時間と前記反応情報を使用して、重み付けされた反応度合の数値を取得する。   The elapsed time from the start to the goal is the horizontal axis, and the vertical axis is the reaction information code set in FIG. Using the elapsed time and the reaction information, a weighted numerical value of the reaction degree is acquired from the matrix of FIG.

例えば、開始40秒後に「入れ!」を入力した場合、図8(a)のマトリクスから57Aの枠内の値「X=1」を取得する。枠内の値「X」は、図7(b)を参照すると、「アルコール」に対して数値が入ったことがわかる。これはレース序盤に、早くも興奮状態の窺える端末に対して、このまま興奮が持続するようであれば「アルコール」を進める意図であり、すなわち経過時間の経緯に伴う前記反応情報に基づいて取得した反応度合に重み付けして、前記反応度合を数値として測定している。   For example, when “insert!” Is input 40 seconds after the start, the value “X = 1” in the frame 57A is acquired from the matrix of FIG. As for the value “X” in the frame, referring to FIG. 7B, it can be seen that a numerical value is entered for “alcohol”. This is the intention to advance “alcohol” if the excitement continues as it is at the beginning of the race, as long as the excitement continues as it is, that is, acquired based on the reaction information with the history of the elapsed time The reaction degree is weighted and the reaction degree is measured as a numerical value.

また、開始4分20秒後に前記同様「入れ!」を入力した場合、図8(a)のマトリクスから57Bの枠内の値「X=8」を取得する。経過時間を分割した時間帯によって、反応度合に異なる重み付けがなされている。同じコメントを入力した場合でも、レース終盤で「入れ!」を入力した方が興奮度は高いと判断され、「アルコール」が表示されやすくする。経過時間に応じて数値が高くなるように設定されており、これは、競輪の性質上、レース序盤からレース終盤にかけてベースとなる興奮度合が高いという見込みのもと、レース開始からの経過時間に対して重み付けされて、図8(a)のマトリクスが作成されているためである。なお、上記の説明は経過時間を分割し、当該分割した時間帯毎に前記反応情報を取得するものを前提としているが、経過時間を分割せずに、随時反応情報を取得させてもよい。   Further, when “Put!” Is input after 4 minutes and 20 seconds from the start, the value “X = 8” within the frame 57B is acquired from the matrix of FIG. Depending on the time zone in which the elapsed time is divided, the degree of reaction is differently weighted. Even if the same comment is entered, it is judged that the excitement level is higher if “Put!” Is entered at the end of the race, and “alcohol” is displayed more easily. The number is set to increase according to the elapsed time, and this is due to the nature of the bicycle race, with the expectation that the base excitement level is high from the beginning of the race to the end of the race, and the elapsed time from the start of the race. This is because the matrix of FIG. 8A is created by weighting. In addition, although said description presupposes what divides | segments elapsed time and acquires the said reaction information for every said divided | segmented time slot | zone, you may make it acquire reaction information at any time, without dividing | segmenting elapsed time.

更に、開始4分40秒後に前記同様「ガマン!」を入力した場合、図8(a)のマトリクスから57Cの枠内の値「X=10」及び「Z=10」を取得する。枠内の値「Z」は、図7(b)を参照すると、「アイス」であることが分かる。これはレース終盤に「ガマン!」という単語を押下することから、ユーザのストレス度合が高いと判断され、「アルコール」及び「アイス」が表示されやすくなる。ここで示されるように、反応度合置換表は、反応度合毎に1以上の測定値を含めることを可能とする。一つの入力値に対して複数の測定値を含めることで、より複雑な心理状態を推測し、心理状態に適した商品を紹介することを可能とする。   Further, when “Gaman!” Is input after 4 minutes and 40 seconds from the start, the values “X = 10” and “Z = 10” within the frame 57C are acquired from the matrix in FIG. 8A. It can be seen that the value “Z” in the frame is “ice” with reference to FIG. Since the word “Gaman!” Is pressed at the end of the race, it is determined that the user's degree of stress is high, and “alcohol” and “ice” are easily displayed. As shown here, the degree of reaction substitution table allows one or more measurements to be included for each degree of reaction. By including a plurality of measured values for one input value, it is possible to infer a more complicated psychological state and introduce a product suitable for the psychological state.

図8(b)はあるユーザの入力値例を示す図である。   FIG. 8B shows an example of input values of a certain user.

図8(b)の58Aの枠内には、「D」が三個記載されているが、これは開始1分00秒から1分29秒の間に「D」が三回押下されていることが窺える。図8(a)の57Dの枠内を参照すると、「D」一回押下につき、測定値「Y」に「4」加算されることが分かる。従って、「D」は三回押下されたため、「Y」は「12」となることが、図8(c)の59Aの枠内に表されている。   In the frame 58A in FIG. 8 (b), three "D" s are described. This is because "D" is pressed three times between 1 minute 00 seconds and 1 minute 29 seconds. I can hear that. Referring to the frame 57D in FIG. 8A, it can be seen that “4” is added to the measurement value “Y” when “D” is pressed once. Therefore, since “D” is pressed three times, “Y” becomes “12” is shown in the frame 59A in FIG. 8C.

図8(b)の表の58Bの枠内には、「D」が二個、「E」が一個記載されているが、これは開始1分30秒から1分59秒の間に「D」が二回、「E」が一回押下されていることが窺える。図8(a)の57Eの枠内を参照すると「D」一回押下につき、測定値「Y」に「4」加算されることが分かり、結果「Y」に「8」加算されることとなる。図8(a)の57Fの枠内を参照すると何も値が無いことから、「E」を押下しても、加算されないことが分かる。これは、レース中盤に「ガマン!」を押下しても、競輪の性質上レース展開に動きがあまりないために、重み付けされていないことによるものである。前記計算により、「Y」は合計「20」となる。ここで、広告表示の閾値を「20」として設定していた場合には、図5(b)に示した広告表示画面52の広告内容を「ソフトドリンク」とした広告が、端末上で表示される。   In the frame of 58B in the table of FIG. 8B, two “D” s and one “E” are described, but this is “D” between the start 1 minute 30 seconds and 1 minute 59 seconds. "" Is pressed twice and "E" is pressed once. Referring to the frame 57E in FIG. 8A, it can be seen that “4” is added to the measured value “Y” per “D” press, and “8” is added to the result “Y”. Become. Referring to the frame 57F in FIG. 8A, since there is no value, it can be seen that even if “E” is pressed, no addition is performed. This is because even if “Gaman!” Is pressed in the middle of the race, there is not much movement in the race development due to the nature of the bicycle race, and therefore it is not weighted. According to the calculation, “Y” becomes “20” in total. Here, when the advertisement display threshold is set to “20”, an advertisement with the advertisement content of the advertisement display screen 52 shown in FIG. 5B as “soft drink” is displayed on the terminal. The

前述の広告表示の閾値とは、広告表示を行うか否かの境界値のことを示す。上記例では、閾値を「20」としているため、端末の反応情報から反応度合を測定値ごとに集計して、測定値が「20」となった段階で、該当する広告が表示される仕組みである。広告が表示されると、当該測定値はクリアされ、図8(c)に59Cで示す枠内の状態となる。   The above-described threshold value for displaying an advertisement indicates a boundary value for determining whether or not to display an advertisement. In the above example, since the threshold value is “20”, the degree of response is aggregated for each measured value from the response information of the terminal, and the corresponding advertisement is displayed when the measured value becomes “20”. is there. When the advertisement is displayed, the measurement value is cleared, and the state in the frame indicated by 59C in FIG.

前述の広告は、各測定値が閾値を超えた段階で随時表示される仕組みとなっているが、図8(c)に59Dで示す枠内のように、複数の測定値が同時に閾値を超える可能性がある場合には、広告の優先度を事前に設定しておいてもよい。ここでは、図7(b)の測定値の表において、表の順に優先度が高いものとして設定しており、「アルコール」が表示されることとなる。   The above advertisement is displayed at any time when each measurement value exceeds the threshold value, but a plurality of measurement values exceed the threshold value at the same time as indicated by 59D in FIG. 8C. If there is a possibility, the priority of the advertisement may be set in advance. Here, in the table of measured values in FIG. 7B, the priority is set in the order of the table, and “alcohol” is displayed.

図4のステップS24で、広告を取得する方法について、以下に説明する。サーバ20の広告指示部25では、本実施形態を実施する前に、予め前記測定値と広告を紐付ける表を設定しておく必要がある。前記紐付ける表とは、例えば、図7(b)で測定値に「アルコール」、「ソフトドリンク」、「アイス」とあるが、それに対してそれぞれ図5(b)に示すビール広告画像のような画像を紐付ける表である。前記広告とは、動画、静止画、音声等限定されるものではなく、実施時に予め設定しておけばよいものとする。   A method for acquiring the advertisement in step S24 of FIG. 4 will be described below. In the advertisement instruction unit 25 of the server 20, it is necessary to set a table for associating the measurement value with the advertisement in advance before implementing this embodiment. The table to be linked is, for example, “alcohol”, “soft drink”, and “ice” as measured values in FIG. 7B, but in contrast to the beer advertisement images shown in FIG. 5B, respectively. This is a table for linking various images. The advertisement is not limited to a moving image, a still image, audio, or the like, and may be set in advance at the time of implementation.

本発明の実施形態2Aによれば、競輪のレースの応援(特に声援)を反応情報として取得して、ユーザの反応度合を興奮度合として捉えて、ユーザの心理状態に適した商品を紹介することを可能としているため、より本発明を商業的に利用することが可能である。   According to Embodiment 2A of the present invention, the support (especially cheering) of a bicycle race is acquired as reaction information, the user's reaction level is regarded as the excitement level, and a product suitable for the user's psychological state is introduced. Therefore, the present invention can be used more commercially.

また、反応度合置換表には、予めマーケティング等により人間の行動心理に基づいた値を設定する必要があるが、設定後に図4のステップS24で反応度合出力部24の出力結果を蓄積し、図4のステップS26で表示された広告を利用して、実際に商品を購入した購入情報と照合することで、常に広告効果を分析することができ、随時反応度合置換表を更新していくことで、より精密な心理状態を測定することが可能となる。   Further, in the reaction degree replacement table, it is necessary to set a value based on human behavior psychology by marketing or the like in advance, but after setting, the output result of the reaction degree output unit 24 is accumulated in step S24 of FIG. By using the advertisement displayed in step S26 of FIG. 4 and collating with the purchase information for actually purchasing the product, it is possible to always analyze the advertising effect, and to update the reaction degree substitution table as needed. It becomes possible to measure a more precise psychological state.

なお、前記広告表示の仕組みは、各測定値が閾値を超えた段階で広告を即時表示させる一例を説明しているが、広告を表示させるタイミングをサーバ20の反応度合出力部24で制御させてもよい。例えば、レース開始4分から佳境に入るような場合に、開始4分時点で広告を表示させても購入へ席を立つユーザは少ないと考えられ、開始3分時点で測定値が閾値に達していない場合でも、当該時点で最も高い測定値に該当する広告を表示させるようにしてもよい。前記広告表示を実現するためには、開始からの経過時間と「最も高い測定値に該当する広告を表示する」などの行う処理を予めサーバ20の反応度合出力部24へ設定しておく必要がある。また、競輪場内が広く、レース中に気軽に購入しに行けないような場合には、レース終了後に表示させるようにしてもよい。   In addition, although the mechanism of the said advertisement display has demonstrated the example which displays an advertisement immediately when each measured value exceeds a threshold value, the timing which displays an advertisement is controlled by the reaction degree output part 24 of the server 20. Also good. For example, in the case of entering the border after the start of the race 4 minutes, even if the advertisement is displayed at the start of the 4th minute, it is considered that there are few users standing for purchase, and the measured value has not reached the threshold at the start of the 3rd minute Even in such a case, an advertisement corresponding to the highest measured value at that time may be displayed. In order to realize the advertisement display, it is necessary to set the elapsed time from the start and the process of “display the advertisement corresponding to the highest measured value” in the response level output unit 24 of the server 20 in advance. is there. In addition, when the bicycle racetrack is wide and it is not possible to easily purchase during the race, it may be displayed after the race.

サーバ20の反応度合出力部24は、広告表示のタイミングを制御し、当該タイミングになった時点で、広告を表示する旨の指示を広告指示部25へ行い、端末10の広告表示部14へ広告を表示させる。   The degree-of-reaction output unit 24 of the server 20 controls the advertisement display timing, and when the timing is reached, instructs the advertisement instruction unit 25 to display the advertisement and sends the advertisement to the advertisement display unit 14 of the terminal 10. Is displayed.

また、前述したように表示広告と実際の購入情報を蓄積することで、統計的にどのタイミングで広告を表示するのが一番効果的であるか、またユーザの興奮状態を持続させるために広告を表示させない方がよい時間帯を把握することが可能である。効果的な広告表示のタイミングで広告を表示させるようサーバ20の反応度合出力部24へ設定しておいてもよい。なお、前記効果的な広告表示のタイミングの把握に関しては、本発明とは直接関連しないためここでは省略する。   In addition, as described above, by accumulating display advertisements and actual purchase information, it is statistically at what timing it is most effective to display advertisements, and advertisements are maintained to maintain the user's excitement. It is possible to grasp the time zone when it is better not to display. You may set to the reaction degree output part 24 of the server 20 so that an advertisement may be displayed at an effective advertisement display timing. Note that the grasp of the timing of the effective advertisement display is omitted here because it is not directly related to the present invention.

以上のように、測定値や経過時間の分割単位をより細密に行うことで、より精密な心理状態の測定と該心理状態に適した広告を表示(商品を紹介)することが可能となる。   As described above, it is possible to more accurately measure the psychological state and display an advertisement suitable for the psychological state (introducing a product) by finely dividing the measurement value and the elapsed time division unit.

なお、実施形態2Aの構成は上述した方法及び/又は構成に限定されない。   The configuration of Embodiment 2A is not limited to the method and / or configuration described above.

[実施形態2B]
[構成]
実施形態2Aでは、当該反応度合に対する重み付けの方法、及び取得した反応度合を表す数値の活用を可能とする構成としたが、実施形態2Bでは、端末上でコメントを入力する際の指の動きに関しても検知する構成の一例を以下に図9を用いて説明する。なお、その他の構成は実施形態2Aの構成と同様である。
[Embodiment 2B]
[Constitution]
In Embodiment 2A, the weighting method for the degree of response and a configuration that allows the use of a numerical value representing the obtained degree of reaction are used. However, in Embodiment 2B, the finger movement when inputting a comment on the terminal An example of a configuration that also detects this will be described below with reference to FIG. Other configurations are the same as those of the embodiment 2A.

実施形態2Bにおいて、指の動きとは、端末上での入力間隔、すなわちボタンの連打やダブルクリック又は単発での入力の判別の区別のことを示す。   In the embodiment 2B, the finger movement indicates a distinction between input intervals on the terminal, that is, discrimination of input by repeated hitting of a button, double click, or single shot.

なお、前記単発や連打の区別について、以下に記載する。予め、単発と連打を区別するために反復間隔を定義しておく必要がある。前記反復間隔の定義とは、例えば、0.5秒未満に次の反応情報を検知した場合には連打とし、0.5秒以上間隔が空く場合には、単発とする、などである。   In addition, it describes below about the distinction of the said single shot and repeated hits. In order to distinguish between single shots and repeated shots, it is necessary to define a repeat interval in advance. The definition of the repetition interval is, for example, continuous hit when the next reaction information is detected in less than 0.5 seconds, single shot when the interval is 0.5 seconds or longer, and the like.

サーバ20は、端末10の反応情報取得部4から取得した反応情報、及び経過時間計測部3が該反応情報を検知した時間を取得し(図4のステップS17)、直前の反応情報との間隔時間を取得する。前記反復間隔の定義と照合して、例えば、直前の反応情報と0.3秒の間隔であった場合には、連打として反応度合に重み付けを行う(図4のステップS21)。そして、例えば、直前の反応情報と0.6秒の間隔であった場合には、単発として反応度合に重み付けを行う(図4のステップS21)。なお、前記連打と単発の区別は、同一反応情報との間隔時間に限定してもよいし、前記の通り同一反応情報に限定せず、反応情報の間隔時間で行ってもよい。   The server 20 acquires the reaction information acquired from the reaction information acquisition unit 4 of the terminal 10 and the time when the elapsed time measurement unit 3 detects the reaction information (step S17 in FIG. 4), and the interval with the immediately previous reaction information. Get time. For example, if the previous reaction information and the interval of 0.3 seconds are compared with the definition of the repetition interval, the reaction degree is weighted as repeated hits (step S21 in FIG. 4). Then, for example, when the interval is 0.6 seconds from the immediately previous reaction information, the reaction degree is weighted as a single shot (step S21 in FIG. 4). Note that the distinction between repeated hits and single shots may be limited to the interval time between the same reaction information, or as described above, not limited to the same reaction information, but may be performed based on the interval time of the reaction information.

前記、単発と連打の区別については、実施形態によっては反応情報取得部4で反応情報を取得する際に、シングルクリックとダブルクリックとして区別し、異なる反応情報として取得してもよく、経過時間の経緯に伴う反応情報を取得して、単発と連打の区別が行えればよい。同時に、前述の反復間隔についても、定義する必要がある場合には、実施時に別途定義するものとする。   As for the distinction between single shot and continuous hit, depending on the embodiment, when the reaction information acquisition unit 4 acquires the reaction information, it may be distinguished as single click and double click, and may be acquired as different reaction information. It is only necessary to acquire reaction information associated with the circumstances and distinguish between single shots and repeated hits. At the same time, if it is necessary to define the above-mentioned repetition interval, it is defined separately at the time of implementation.

前記単発、連打の区別をつけてユーザの異なる身体動作として捉えることによって、より細密にユーザの興奮度合の取得を可能とする。単発、連打の区別を行う反応度合置換表の例を図9に示す。   By distinguishing between single shots and repeated hits and capturing them as different body movements of the user, it becomes possible to obtain the degree of excitement of the user more precisely. FIG. 9 shows an example of a reaction degree substitution table for distinguishing between single shots and repeated shots.

図9(a)は、図8(a)のマトリクスに対して、更に反応情報を単発、連打で区別させた表としている。図9(b)では、押下したコメントは図8(b)と同一であるものの、61A枠内のC及びBの押下間隔が短く、連打とみなされた場合の例を示す。「C,C,B,B」という連続した反応情報と、「B」という単発の反応情報を取得した結果が、図9(c)の62Dの枠内である。図9(a)の反応度合置換表から得た値で計算式を記載すると「C,C,B,B」という連続した反応情報は、測定値「X」に対しては「12,12,20,20」、測定値「Z」に対して「7,7,0,0」となり、「B」という単発の反応情報は、測定値「X」に対して「18」となる。従って、62D枠内に示す通り、「X」は「82」、「Z」は「14」となる。   FIG. 9 (a) is a table in which reaction information is further distinguished by single shot and repeated hitting from the matrix of FIG. 8 (a). FIG. 9B shows an example of a case where the pressed comment is the same as that in FIG. 8B, but the pressing interval between C and B in the 61A frame is short and it is regarded as repeated hitting. The result of obtaining continuous reaction information “C, C, B, B” and single reaction information “B” is within the frame 62D in FIG. 9C. When the calculation formula is described with the values obtained from the degree-of-reaction substitution table in FIG. 9A, the continuous reaction information “C, C, B, B” is “12, 12, “20, 20” and the measured value “Z” are “7, 7, 0, 0”, and the single reaction information “B” is “18” for the measured value “X”. Therefore, as shown in the 62D frame, “X” is “82” and “Z” is “14”.

実施形態2Bでは、開始からの経過時間だけでなく、単発、連打を含む反復間隔時間に対しても重み付けを行っている。なお、ここでは反復間隔時間を反応情報として取得しているが、押下時間(長押し)等の取得も可能としており、予め定められた身体動作の継続時間及び/又は反復間隔時間を反応情報として取得するものであれば、いずれの方法でもよい。単に入力値のみではなく、端末への入力の経緯(連打、単発等)も含めて反応情報として取得することにより、より精密なユーザの反応の様子を取得することが可能となった。   In the embodiment 2B, weighting is performed not only on the elapsed time from the start but also on the repetition interval time including single shot and repeated hits. In addition, although the repetition interval time is acquired as reaction information here, it is also possible to acquire a pressing time (long press) or the like, and the predetermined duration of physical movement and / or the repetition interval time is used as reaction information. Any method may be used as long as it is obtained. By acquiring not only the input value but also the history of input to the terminal (repetitive hits, single shots, etc.) as reaction information, it has become possible to acquire a more precise state of user reaction.

なお、実施形態2Bの構成は上述した方法及び/又は構成に限定されない。   Note that the configuration of Embodiment 2B is not limited to the method and / or configuration described above.

[実施形態2C]
[構成]
実施形態2乃至実施形態2Bでは、競輪場でのユーザの反応度合を取得する構成としたが、実施形態2Cでは、更に端末への入力を促し、サーバで取得する反応情報を活性化させる構成の一例を以下に図5乃至図6を用いて説明する。サーバ20は図3の構成にコメントを集計する集計部を付加した構成とする。なお、その他の構成は実施形態2Aの構成と同様である。
[Embodiment 2C]
[Constitution]
In Embodiments 2 to 2B, the user's reaction degree at the bicycle racetrack is acquired. However, in Embodiment 2C, the input to the terminal is further promoted, and the reaction information acquired by the server is activated. An example will be described below with reference to FIGS. The server 20 has a configuration in which a totaling unit that counts comments is added to the configuration in FIG. Other configurations are the same as those of the embodiment 2A.

実施形態2Cでは、前述の応援する競輪選手の取得、すなわち、応援する内容のコメントを送る対象の選別を可能とすると同時に、レース終了後にサーバ20で集計したコメントをランキング化して表示することを可能とする。   In the embodiment 2C, it is possible to obtain the above-mentioned supporting bicycle racer, that is, to select a target to which the comment of the content to be supported is selected, and at the same time, it is possible to rank and display the comments counted by the server 20 after the race is finished. And

実施形態2Cの動作について、以下に説明する。
まず、端末10の入力部13で、コメント入力画面51の51A(図5(a)に図示。)に示されるように、選手の数及び色と同数・同色のボタンを表示する。ユーザは、声援を送りたい選手と同色のボタンを選択後、コメントを押下し(図4のステップS15)、端末10の反応情報取得部4は、色とコメントの押下情報を反応情報として取得する(図4のステップS16)。端末10は、サーバ20へ取得した前記反応情報及び経過時間を送信(図4のステップS17)する。
The operation of Embodiment 2C will be described below.
First, as shown in 51A (illustrated in FIG. 5A) of the comment input screen 51, buttons having the same number and the same color as the number and colors of players are displayed on the input unit 13 of the terminal 10. The user selects a button of the same color as the player who wants to cheer, then presses the comment (step S15 in FIG. 4), and the reaction information acquisition unit 4 of the terminal 10 acquires the press information of the color and the comment as the reaction information. (Step S16 in FIG. 4). The terminal 10 transmits the obtained reaction information and elapsed time to the server 20 (step S17 in FIG. 4).

次に、サーバ20はコメント表示処理を行い(図4のステップS18)、スクリーン30に、コメントの色を含めたコメント表示指示を行う(図4のステップS19)。スクリーン30の出力部33は、表示部34へコメントの出力指示を行い、表示部34は、表示映像上にコメントを表示する(図4のステップS20)(図6(a)スクリーン映像コメント表示画面53に図示。)。   Next, the server 20 performs a comment display process (step S18 in FIG. 4), and gives a comment display instruction including the comment color on the screen 30 (step S19 in FIG. 4). The output unit 33 of the screen 30 instructs the display unit 34 to output a comment, and the display unit 34 displays the comment on the display video (step S20 in FIG. 4) (FIG. 6A) screen video comment display screen. 53.)

サーバ20は、競輪の実況映像が終了した場合(図4のステップS27 No)、反応情報として取得したコメント情報の集計を集計部にて行い、集計部で集計した集計結果をスクリーン30へ送信する。前記コメントの集計を行う集計部は図3の機能ブロック図に示していないが、サーバ20が有する構成とする。また、置換や計算といった処理を統一させるために、測定部5へ集計部の機能を持たせてもよいものとする。スクリーン30は、図6(b)のスクリーンコメント結果画面54に示す通り、コメントの集計結果を、出力部33を介して表示部34で声援ランキングとして表示する。   When the live video of the bicycle race ends (No in step S27 in FIG. 4), the server 20 aggregates the comment information acquired as the reaction information in the aggregation unit, and transmits the aggregation result totaled in the aggregation unit to the screen 30. . The totaling unit for totaling the comments is not shown in the functional block diagram of FIG. Moreover, in order to unify processes such as replacement and calculation, the measurement unit 5 may have a function of a totaling unit. As shown in the screen comment result screen 54 in FIG. 6B, the screen 30 displays the comment summation result as the encouragement ranking on the display unit 34 via the output unit 33.

実施形態2Cによれば、単なる声援ではなく、対象選手に対する声援としてコメントを入力でき、また、それが最終的にランキングとして発表されることから、コメントの入力の活性化を促すことが可能である。前述したとおり、サーバで取得する反応情報(コメント情報)が増加すると、それに応じて測定される反応度合も増加し、すなわち、より精密な行動・心理状態を推測することが可能となる。   According to the embodiment 2C, it is possible to input a comment as support for the target player, not just support, and since it is finally announced as a ranking, it is possible to promote activation of input of the comment. . As described above, when the reaction information (comment information) acquired by the server increases, the degree of response measured accordingly increases, that is, it becomes possible to estimate a more precise action / psychological state.

なお、実施形態2Cの構成は上述した方法及び/又は構成に限定されない。   Note that the configuration of Embodiment 2C is not limited to the method and / or configuration described above.

[実施形態2D]
[構成]
実施形態2乃至実施形態2Cでは、競輪場でのユーザの反応度合を取得する構成としたが、実施形態2Dでは、ユーザの年齢や性別、その他のユーザ情報によって反応度合を異ならせる構成の一例を以下に説明する。なお、その他の構成は実施形態2Aの構成と同様である。
[Embodiment 2D]
[Constitution]
In Embodiment 2 thru | or Embodiment 2C, although it was set as the structure which acquires the user's reaction degree in a bicycle race track, in Embodiment 2D, an example of the structure which changes a reaction degree according to a user's age, sex, and other user information is shown. This will be described below. Other configurations are the same as those of the embodiment 2A.

実施形態2Dの概要を以下に説明する。
実施形態2Dでは、前記映像開始、すなわちレース開始前にユーザへアンケートの入力を促す。前記アンケートの項目は、年齢、性別、住所、来場回数等の予め設定された項目とする。例えば、同じ入力(例えば「差せ!」等)をしても、年齢、性別、来場回数等によって興奮度合の傾向は異なるため、前記アンケート内容から取得したユーザ情報に応じた反応度合を取得させる。前記ユーザ情報に応じた反応度合を取得して、適切な広告を各ユーザへ配信する。
An outline of the embodiment 2D will be described below.
In Embodiment 2D, the user is prompted to input a questionnaire before the start of the video, that is, before the start of the race. The questionnaire items are set in advance such as age, sex, address, number of visits, and the like. For example, even if the same input (for example, “Send!” Etc.) is used, the degree of excitement varies depending on age, sex, number of visits, etc., so the degree of response corresponding to the user information obtained from the contents of the questionnaire is acquired. The degree of reaction according to the user information is acquired, and an appropriate advertisement is distributed to each user.

実施形態2Dの動作を以下に説明する。
まず、端末10の入力部13で、予め設定されたアンケートの入力画面(図示せず。)を表示する。端末10の反応情報取得部4は、入力されたアンケート内容を取得する。アンケート内容取得後、図4のステップS11乃至ステップS15までの処理は実施形態2Aと同様に行う。端末10の反応情報取得部4は、入力されたコメント、経過時間及びアンケート内容を含めた情報を反応情報として取得し(図4のステップS16)、サーバ20へ送信する(図4のステップS17)。図4のステップS18乃至ステップS20までの処理は実施形態2Aと同様に行い、サーバ20の重み付け部23は反応度合に重み付けを行い(図4のステップS21)、反応度合を数値として測定する(図4のステップS22)。
The operation of Embodiment 2D will be described below.
First, a questionnaire input screen (not shown) set in advance is displayed on the input unit 13 of the terminal 10. The reaction information acquisition unit 4 of the terminal 10 acquires the input questionnaire contents. After the questionnaire contents are acquired, the processing from step S11 to step S15 in FIG. 4 is performed in the same manner as in the embodiment 2A. The reaction information acquisition unit 4 of the terminal 10 acquires information including the input comment, elapsed time, and questionnaire contents as reaction information (step S16 in FIG. 4) and transmits it to the server 20 (step S17 in FIG. 4). . The processing from step S18 to step S20 in FIG. 4 is performed in the same manner as in the embodiment 2A, and the weighting unit 23 of the server 20 weights the reaction degree (step S21 in FIG. 4), and measures the reaction degree as a numerical value (FIG. 4). 4 step S22).

前記反応度合は、年齢、性別、来場回数等に応じて異ならせる。具体的には、図4のステップS22で数値として測定する際に使用する反応度合置換表を、一つではなく、年齢、性別、来場回数等ユーザに応じた置換表を複数設定しておく。例えば、年齢20代女性、来場回数一回のユーザを対象とした反応度合置換表と、年齢20代女性、来場回数二回〜五回のユーザを対象とした反応度合置換表とをそれぞれ設定しておく。従って、図4のステップS22では、取得したアンケート内容から得られたユーザ情報に基づいて、対象となる反応度合置換表から、反応度合を数値として取得する。   The degree of response varies depending on age, sex, number of visits, and the like. Specifically, not a single degree-of-reaction substitution table used when measuring numerical values in step S22 of FIG. 4, but a plurality of substitution tables according to the user such as age, sex, number of visits, etc. are set. For example, a reaction degree replacement table for women in their twenties and users who have visited once, and a reaction degree replacement table for users in their twenties and users who have visited twice to five times, respectively. Set it. Therefore, in step S22 of FIG. 4, based on the user information obtained from the acquired questionnaire content, the reaction degree is acquired as a numerical value from the target reaction degree replacement table.

前記数値として取得した反応度合が一定値を超えた場合に、サーバ20の広告指示部25は、ユーザの興奮度合に応じた広告を取得し(図4のステップS24)、端末10へ広告の表示指示を行う(図4のステップS25)。端末10の広告表示部14は当該広告(図5(b)に図示。)を表示する(図4のステップS26)。図4のステップS27乃至図4のステップS31の処理は、実施形態2Aと同様に行う。   When the degree of response acquired as the numerical value exceeds a certain value, the advertisement instruction unit 25 of the server 20 acquires an advertisement according to the degree of excitement of the user (step S24 in FIG. 4), and displays the advertisement on the terminal 10 An instruction is given (step S25 in FIG. 4). The advertisement display unit 14 of the terminal 10 displays the advertisement (illustrated in FIG. 5B) (step S26 in FIG. 4). The processing from step S27 in FIG. 4 to step S31 in FIG. 4 is performed in the same manner as in the embodiment 2A.

前記アンケート内容から取得したユーザ情報別に使用する反応度合置換表を異ならせることで、より精密な興奮度合を取得することが可能となる。例えば、80代男性が対象である場合、高い興奮状態が読み取れていてもスナック菓子を食べる欲求とは繋がりにくく、例えばアルコール飲料やその他の飲食物等の広告表示が適切である。また、70代女性と20代男性では、端末への入力反応速度も異なることが予想され、図9(a)のような反応度合置換表を使用する場合には、回数に対する重み付けを異ならせることで、各ユーザに応じた反応度合を取得することが可能となる。   It is possible to obtain a more precise excitement degree by changing the reaction degree substitution table used for each user information obtained from the contents of the questionnaire. For example, when a man in his 80s is a target, even if a high excitement state can be read, it is difficult to connect with the desire to eat snacks, and for example, an advertisement display such as an alcoholic beverage or other food or drink is appropriate. In addition, it is expected that females in their 70s and males in their 20s will also have different input response speeds to the terminal. When using the reaction degree substitution table as shown in FIG. Thus, it is possible to acquire the degree of reaction corresponding to each user.

なお、アンケート内容は、年齢、性別、住所、来場回数に限定されず、例えば、当該競輪場で飲食物の広告を重点的に行うような場合には、飲酒の可否や甘党、辛党等を入力させることで、よりユーザに応じた広告を表示することが可能となる。   The questionnaire content is not limited to age, gender, address, and number of visits. For example, if you are focusing on advertising food and drinks at the bicycle racetrack, enter the availability of drinking, the sweets, spicy party, etc. By doing so, it becomes possible to display an advertisement according to the user.

なお、実施形態2Dの構成は上述した方法及び/又は構成に限定されない。   Note that the configuration of Embodiment 2D is not limited to the method and / or configuration described above.

[実施形態3]
[構成]
実施形態1では、映像に対するユーザの反応度合に重み付けをして行動・心理状態を推測することを可能にする構成とし、実施形態2以降では、管理者の意図する映像を具体化し、その映像に対するユーザの反応を測定する具体例について説明することとした。実施形態2は、前記映像を競輪場で競輪の実況映像とする場合の例を説明したが、実施形態3は、前記映像を自転車の路上運転指導を行うための映像とする場合の例を、図10乃至図11を用いて、以下に説明する。
[Embodiment 3]
[Constitution]
In the first embodiment, it is possible to estimate the behavior / psychological state by weighting the user's degree of response to the video, and in the second and subsequent embodiments, the video intended by the administrator is embodied, and the video A specific example of measuring the user's reaction was explained. Although Embodiment 2 explained the example in the case of making the above-mentioned picture into the actual condition picture of the bicycle race at the bicycle racetrack, Embodiment 3 is an example in which the above-mentioned picture is made into the picture for performing the driving instruction on the bicycle. This will be described below with reference to FIGS.

実施形態3の概要を以下に説明する。
実施形態3では、前記映像表示機器に、スマートフォン及びVR(Virtual Reality)ヘッドセット(以下、端末10と記載する。)を用いた構成とする。指導を受ける者(以下、受講者と記載する。)は頭部にスマートフォンをセットしたVRヘッドセットを装着し、自転車の路上運転指導者(以下、指導者と記載する。)が使用するタブレット端末(以下、管理端末60)により端末10へ映像表示指示を行うことを可能とする環境を提供する。前記管理端末60は、スマートフォン、携帯電話、PC(Personal Computer)、タブレット等であり、前記機能を実施できるものであればよい。受講者は、自転車の路上運転指導を行うための映像を視聴し、端末10は角度を検知して、角度を含む情報を反応情報として取得し、サーバ20は、該反応情報及び経過時間の経緯に基づいて取得した反応度合に重み付けをして、注意力や反応速度を含む能力的な度合いを数値として測定することを可能とする
The outline of the third embodiment will be described below.
In Embodiment 3, a smartphone and a VR (Virtual Reality) headset (hereinafter referred to as a terminal 10) are used as the video display device. A person who receives guidance (hereinafter referred to as a student) wears a VR headset with a smartphone on his head, and is used by a bicycle road driving leader (hereinafter referred to as a leader). An environment is provided in which a video display instruction can be given to the terminal 10 by the management terminal 60 (hereinafter, management terminal 60). The management terminal 60 is a smartphone, a mobile phone, a PC (Personal Computer), a tablet, or the like, and may be any device that can perform the function. The student views a video for instructing bicycle driving on the road, the terminal 10 detects the angle, acquires information including the angle as reaction information, and the server 20 describes the history of the reaction information and the elapsed time. It is possible to measure the degree of ability including attention and reaction speed as a numerical value by weighting the degree of response obtained based on

実施形態3の機器構成を以下に説明する。
図10において、情報測定装置1は、複数の受講者がそれぞれ所持する端末10と、端末10とサーバ20とを接続する通信網50と、通信網50を介して通信を受け付けて種々の設定・登録・管理等を行うサーバ20と、通信網50を介して通信を受け付けて端末10の管理を行う管理端末60と、サーバ20からの情報を受け付ける記録部40を有している。
The device configuration of the third embodiment will be described below.
In FIG. 10, the information measuring apparatus 1 receives a terminal 10 owned by a plurality of students, a communication network 50 that connects the terminal 10 and the server 20, and receives various communications via the communication network 50. The server 20 that performs registration and management, the management terminal 60 that receives communication via the communication network 50 and manages the terminal 10, and the recording unit 40 that receives information from the server 20 are included.

端末10は、通信網50を介して通信を行う通信部11と、各種制御を行う制御部12と、受講者の反応を反応情報として取得する反応情報取得部4と、映像の表示開始からの経過時間の経緯を計測する経過時間計測部3を有している。   The terminal 10 includes a communication unit 11 that performs communication via the communication network 50, a control unit 12 that performs various controls, a reaction information acquisition unit 4 that acquires a student's reaction as reaction information, An elapsed time measuring unit 3 that measures the history of the elapsed time is provided.

サーバ20は、通信網50を介して通信を行う通信部21と、各種制御を行う制御部22と、端末10の反応情報取得部4と経過時間計測部3から取得した反応度合に重み付けを行う重み付け部23と、重み付けされた反応度合を数値として測定する測定部5と、測定部5で測定した前記数値に基づいて前記映像に対するユーザの反応度合を出力する反応度合出力部24を有する。   The server 20 weights the degree of reaction acquired from the communication unit 21 that performs communication via the communication network 50, the control unit 22 that performs various controls, the reaction information acquisition unit 4 and the elapsed time measurement unit 3 of the terminal 10. The weighting unit 23, the measuring unit 5 that measures the weighted reaction degree as a numerical value, and the reaction degree output unit 24 that outputs the user's reaction degree to the video based on the numerical value measured by the measuring unit 5 are provided.

記録部40は、サーバ20で受け付けた情報を記録するのに用いる。   The recording unit 40 is used to record information received by the server 20.

管理端末60は、通信網50を介して通信を行う通信部61と、各種制御を行う制御部62と、端末10への各種指示を行う指示部63と、サーバ20の反応度合出力部24で出力した結果を表示する結果表示部64を有している。   The management terminal 60 includes a communication unit 61 that performs communication via the communication network 50, a control unit 62 that performs various controls, an instruction unit 63 that performs various instructions to the terminal 10, and a reaction degree output unit 24 of the server 20. It has the result display part 64 which displays the output result.

なお、機器構成は上記に限定されるものではなく、例えば、端末10の経過時間計測部3及び反応情報取得部4をサーバ20が有する構成としてもよい。   The device configuration is not limited to the above. For example, the server 20 may include the elapsed time measurement unit 3 and the reaction information acquisition unit 4 of the terminal 10.

次に、本発明の実施形態3の動作を以下に、図11を用いて説明する。
まず、管理端末60は、指示部63にて自転車の路上運転指導を行うための映像の表示を行う旨の端末10への指示をサーバ20へ送信する(図11のステップS41)。サーバ20は、端末10へ映像の表示指示及び経過時間の計測開始指示を行う(図11のステップS42)。端末10は、サーバ20からの指示を受けて、映像表示部2にて映像の表示を開始し、経過時間計測部3で経過時間の計測を開始する(図11のステップS43)。端末10の反応情報取得部4は、角度を検知して、予め定められた前記ユーザの身体動作を前記反応情報として取得する(図11のステップS44)。前記角度の検知及び経過時間を照合することで、受講者が何をどのように注視していたか、を取得することが可能である。
Next, the operation of Embodiment 3 of the present invention will be described with reference to FIG.
First, the management terminal 60 transmits to the server 20 an instruction to the terminal 10 to display an image for instructing driving on a bicycle on the instruction unit 63 (step S41 in FIG. 11). The server 20 issues a video display instruction and an elapsed time measurement start instruction to the terminal 10 (step S42 in FIG. 11). In response to the instruction from the server 20, the terminal 10 starts displaying video on the video display unit 2, and starts measuring elapsed time on the elapsed time measuring unit 3 (step S43 in FIG. 11). The reaction information acquisition unit 4 of the terminal 10 detects an angle and acquires a predetermined body motion of the user as the reaction information (step S44 in FIG. 11). By checking the angle detection and the elapsed time, it is possible to acquire what and how the student was watching.

次に、端末10は、反応情報取得部4が取得した反応情報、及び経過時間計測部3が計測した経過時間をサーバ20へ送信する(図11のステップS45)。   Next, the terminal 10 transmits the reaction information acquired by the reaction information acquisition unit 4 and the elapsed time measured by the elapsed time measurement unit 3 to the server 20 (step S45 in FIG. 11).

サーバ20の測定部5は、図11のステップS45で受信した反応情報及び経過時間の経緯に基づいて反応度合に重み付けを行い(図11のステップS46)、前記経過時間の経緯と前記反応情報とによる反応度合置換表(図13(a)に図示。)に基づいて前記反応度合を数値へ置換して測定する(図11のステップS47)。   The measurement unit 5 of the server 20 weights the reaction degree based on the reaction information received in step S45 of FIG. 11 and the history of the elapsed time (step S46 of FIG. 11), and the history of the elapsed time and the reaction information Based on the reaction degree substitution table (shown in FIG. 13A), the reaction degree is substituted with a numerical value and measured (step S47 in FIG. 11).

自転車の路上運転指導を行うための映像が終了していない場合(図11のステップS48 Yes)、ステップS44乃至ステップS47の処理を繰り返す。映像が終了した場合(図11のステップS48 No)、サーバ20の反応度合出力部24は測定結果を出力し(図11のステップS49)、管理端末60へ測定結果を送信する(図11のステップS50)。管理端末60の結果表示部64は、受信した測定結果を表示して(図11のステップS51)、すべての処理を終了する(図11のステップS53)。   If the video for instructing on-the-bike driving has not ended (step S48 in FIG. 11), the processing from step S44 to step S47 is repeated. When the video is finished (No in step S48 in FIG. 11), the reaction degree output unit 24 of the server 20 outputs the measurement result (step S49 in FIG. 11), and transmits the measurement result to the management terminal 60 (step in FIG. 11). S50). The result display unit 64 of the management terminal 60 displays the received measurement result (step S51 in FIG. 11) and ends all the processes (step S53 in FIG. 11).

自転車は、幼少期から親しみやすい乗り物であり、早期に、また手軽に受けられる自転車の運転教育が求められている。しかしながら、自転車の運転技術に関しては軽視される傾向があり、一人ひとりの能力的な度合いを測定する機会は極めて少なかった。   Bicycles are familiar vehicles from a young age, and there is a need for early and easy bicycle driving education. However, bicycle driving skills tended to be neglected and there were very few opportunities to measure each person's ability level.

本発明の実施形態3によれば、経過時間の経緯と受講者の反応情報から、受講者が何をどのように注視していたか、を取得することが可能となっている。管理端末から複数の端末へ一斉に映像を表示させて、映像終了時に管理端末に測定結果を表示させることで、指導者側で受講者の注意力や反応速度を含む能力的な度合いを瞬時に把握することが可能となる。また、スマートフォンやタブレット端末を用いることで、手軽に、大人数を対象とした自転車の路上運転指導を実施することができる。   According to the third embodiment of the present invention, it is possible to acquire what and how the student was watching from the history of the elapsed time and the response information of the student. By displaying video from the management terminal to multiple terminals at the same time and displaying the measurement results on the management terminal at the end of the video, the instructor can instantly determine the ability level including the attention and response speed of the student It becomes possible to grasp. In addition, by using a smartphone or tablet terminal, it is possible to easily carry out on-road driving guidance for a large number of people.

[実施形態3A]
[構成]
実施形態3では、端末から取得した経過時間及び反応情報に基づいて、サーバで反応度合に重み付けを行う構成としたが、実施形態3Aでは、当該反応度合に対する重み付けの具体的な方法、及び取得した反応度合を表す数値の出力を行う構成の一例を図10乃至図13を用いて、以下に説明する。なお、その他の構成は実施形態3の構成と同様である。
[Embodiment 3A]
[Constitution]
In the third embodiment, the server is configured to weight the reaction degree based on the elapsed time and the reaction information acquired from the terminal. However, in the embodiment 3A, a specific method for weighting the reaction degree and the acquired information are obtained. An example of a configuration for outputting a numerical value indicating the degree of reaction will be described below with reference to FIGS. 10 to 13. Other configurations are the same as those of the third embodiment.

実施形態3Aの概要を以下に説明する。
実施形態3Aでは、自転車の路上運転指導を行うための映像を視聴した経過時間の経緯及び角度に基づいて取得した反応情報に重み付けを行って、反応度合を能力的な度合いとして捉えることにより、受講者の運転能力を測る事例を説明する。
An outline of the embodiment 3A will be described below.
In Embodiment 3A, weighting is applied to reaction information acquired based on the history and angle of the elapsed time of viewing a video for performing bicycle driving instruction, and the degree of reaction is regarded as an ability level. Explains how to measure the driving ability of a person.

実施形態3Aの動作を説明する。
まず、管理端末60は、指示部63にて自転車の路上運転指導を行うための映像の表示を行う旨の端末10への指示をサーバ20へ送信する(図11のステップS41)。サーバ20は、端末10へ映像の表示指示及び経過時間の計測開始指示を行う(図11のステップS42)。端末10は、サーバ20からの指示を受けて、映像表示部2にて映像の表示を開始し、経過時間計測部3で経過時間の計測を開始する(図11のステップS43)。端末10の反応情報取得部4は、角度を検知して、予め定められた前記ユーザの身体動作を前記反応情報として取得する(図11のステップS44)。前記角度の検知及び経過時間を照合することで、受講者が何をどのように注視していたか、を取得することが可能である。なお、前記反応情報取得部4は、前記経過時間を分割し、当該分割した時間帯毎に前記反応情報を取得するものである。実施形態3Aでは、経過時間を分割する形態を説明するが、分割せずに反応情報を随時、又は、映像終了後にまとめて取得する形態としてもよい。
The operation of Embodiment 3A will be described.
First, the management terminal 60 transmits to the server 20 an instruction to the terminal 10 to display an image for instructing driving on a bicycle on the instruction unit 63 (step S41 in FIG. 11). The server 20 issues a video display instruction and an elapsed time measurement start instruction to the terminal 10 (step S42 in FIG. 11). In response to the instruction from the server 20, the terminal 10 starts displaying video on the video display unit 2, and starts measuring elapsed time on the elapsed time measuring unit 3 (step S43 in FIG. 11). The reaction information acquisition unit 4 of the terminal 10 detects an angle and acquires a predetermined body motion of the user as the reaction information (step S44 in FIG. 11). By checking the angle detection and the elapsed time, it is possible to acquire what and how the student was watching. The reaction information acquisition unit 4 divides the elapsed time and acquires the reaction information for each of the divided time zones. In Embodiment 3A, a mode in which the elapsed time is divided will be described. However, reaction information may be acquired at any time or after the video ends without being divided.

次に、端末10は、反応情報取得部4が取得した反応情報、及び経過時間計測部3が計測した経過時間をサーバ20へ送信する(図11のステップS45)。   Next, the terminal 10 transmits the reaction information acquired by the reaction information acquisition unit 4 and the elapsed time measured by the elapsed time measurement unit 3 to the server 20 (step S45 in FIG. 11).

サーバ20の測定部5は、図11のステップS45で受信した反応情報及び経過時間の経緯に基づいて反応度合に重み付けを行い(図11のステップS46)、前記経過時間の経緯と前記反応情報とによる反応度合置換表(図13(a)に図示。)に基づいて前記反応度合を数値へ置換して測定する(図11のステップS47)。   The measurement unit 5 of the server 20 weights the reaction degree based on the reaction information received in step S45 of FIG. 11 and the history of the elapsed time (step S46 of FIG. 11), and the history of the elapsed time and the reaction information Based on the reaction degree substitution table (shown in FIG. 13A), the reaction degree is substituted with a numerical value and measured (step S47 in FIG. 11).

自転車の路上運転指導を行うための映像が終了していない場合(図11のステップS48 Yes)、ステップS44乃至ステップS47の処理を繰り返す。映像が終了した場合(図11のステップS48 No)、サーバ20の反応度合出力部24は測定結果を出力し(図11のステップS49)、管理端末60へ測定結果を送信する(図11のステップS50)。管理端末60の結果表示部64は、受信した測定結果を表示して(図11のステップS51)、すべての処理を終了する(図11のステップS53)。   If the video for instructing on-the-bike driving has not ended (step S48 in FIG. 11), the processing from step S44 to step S47 is repeated. When the video is finished (No in step S48 in FIG. 11), the reaction degree output unit 24 of the server 20 outputs the measurement result (step S49 in FIG. 11), and transmits the measurement result to the management terminal 60 (step in FIG. 11). S50). The result display unit 64 of the management terminal 60 displays the received measurement result (step S51 in FIG. 11) and ends all the processes (step S53 in FIG. 11).

次に、経過時間を分割した時間帯によって、反応度合に異なる重み付けをする例を、図13(a)の反応度合置換表に基づいて、以下に説明する。   Next, an example of assigning different weights to the reaction degrees depending on the time zone obtained by dividing the elapsed time will be described below based on the reaction degree substitution table in FIG.

反応度合置換表(図13(a)に図示。)は、上記の通り反応度合を数値へ置換する表を示す。前記反応度合置換表は実施形態3Aを実施するうえで、事前に設定しておく必要がある。図12に示す通り、反応情報と測定値をそれぞれ値として設定する。   The reaction degree substitution table (shown in FIG. 13A) shows a table for substituting the reaction degree with a numerical value as described above. The reaction degree substitution table needs to be set in advance in carrying out the embodiment 3A. As shown in FIG. 12, reaction information and a measured value are set as values.

反応情報とは、予め定められたユーザの身体動作、すなわち端末による角度の検知を含む情報のこととする。図12(a)は、前記反応情報に対してコードを割り当てる表である。   The reaction information is information including detection of an angle by a user's predetermined body movement, that is, a terminal. FIG. 12A is a table for assigning codes to the reaction information.

測定値とは、本発明においては、どのような反応度合(または、心理状態の種別)の取得を目的とするかによって設定する値であり、実施形態3Aでは、ユーザの能力的な度合いを測定する目的として使用し、図12(b)は、「実技点」のみ設定する例である。   In the present invention, the measured value is a value set according to what degree of response (or type of psychological state) is intended to be obtained. In the embodiment 3A, the user's ability level is measured. 12B is an example in which only “actual skill points” are set.

前記反応度合置換表を、図13(a)を用いて、以下に説明する。
なお、本発明において、映像は事前に特定されているため、表示開始から終了までの時間が特定可能である。
The reactivity degree substitution table will be described below with reference to FIG.
In the present invention, since the video is specified in advance, the time from the display start to the end can be specified.

図13(a)では、自転車の路上運転指導映像のスタートからゴールまでを5分とし、5分を10分割して、1分割あたり30秒と等間隔に設定する例を示す。分割単位は等間隔でもよいし、各分割単位で1分割あたりの時間を定めて不等間隔としてもよい。   FIG. 13A shows an example in which the time from the start to the goal of the bicycle road driving instruction video is 5 minutes, and 5 minutes is divided into 10 and set at equal intervals of 30 seconds per division. The division unit may be equally spaced, or the time per division may be determined for each division unit to be unequal intervals.

前記スタートからゴールまでの経過時間を横軸とし、縦軸を図13(a)で設定した反応情報のコードとする。図11(a)のマトリクスから、前記経過時間と前記反応情報を使用して、重み付けされた反応度合の数値を取得する。   The elapsed time from the start to the goal is the horizontal axis, and the vertical axis is the reaction information code set in FIG. Using the elapsed time and the reaction information, a weighted numerical value of the reaction degree is acquired from the matrix of FIG.

例えば、開始40秒後に「左右を見」た場合、図13(a)のマトリクスから65Aの枠内の値「X=5」を取得する。このことを示す図が、図13(b)であり、枠内の値「X」は、図13(c)の67Aの枠内を参照すると、「5」が入ったことがわかる。これは、図13(a)の上部に記載の通り、交差点の映像が流れている。受講者が交差点に面した際にきちんと左右を確認できているか、を重視する意図である。すなわち経過時間の経緯に伴う前記反応情報に基づいて取得した反応度合に重み付けして、前記反応度合を数値として測定している。なお、本発明は静止画ではなく動画に適用されるものであるから、図13(a)に示される「交差点、信号、歩行者、車」等の映像の位置は固定されているものではないため、本実施形態の実施時には、別途、「交差点、信号、歩行者、車」等の位置を数値化した座標を動画に伴って設定しておく必要がある。   For example, when “look left and right” 40 seconds after the start, the value “X = 5” within the frame of 65A is acquired from the matrix in FIG. FIG. 13B shows this, and it can be seen that the value “X” in the frame contains “5” when referring to the frame 67A in FIG. 13C. As shown in the upper part of FIG. 13A, an intersection image is flowing. The intention is to place importance on whether the student is able to confirm the left and right sides when facing the intersection. That is, the degree of reaction is measured as a numerical value by weighting the degree of reaction acquired based on the reaction information according to the history of elapsed time. Since the present invention is applied to moving images rather than still images, the positions of the images such as “intersection, signal, pedestrian, car” shown in FIG. 13A are not fixed. Therefore, at the time of implementation of this embodiment, it is necessary to separately set coordinates in which the positions of “intersections, signals, pedestrians, cars” and the like are digitized along with the moving image.

また、図13(a)のマトリクス内で常に「E」が「−2」とされているが、「E=下を見る」ことにより、運転の危険度合が増すために減点される。図13(b)及び(c)の受講者の例では、4分00秒から4分29秒の間に下を見ており、67Bに示す通り「−2」されている。   Further, “E” is always set to “−2” in the matrix of FIG. 13A. However, by “E = looking down”, points are deducted because the degree of driving danger increases. In the example of the students shown in FIGS. 13B and 13C, the user looks down from 4:00 to 29 minutes and is “−2” as shown in 67B.

上記のように、各数値を実技点とし、実技点の合計値を最後に出力する。図13(b)及び(c)に示す受講者の実技点の測定結果は、67C枠内の「13」である。測定結果の出力項目は、合計値の「13」であってもよいし、「交差点、信号、歩行者、車」等のチェックポイント毎に出力してもよく、取得した情報の出力方法はいずれでもよい。   As described above, each numerical value is set as the actual skill point, and the total value of the actual skill points is output last. The measurement result of the practical skill point of the student shown in FIGS. 13B and 13C is “13” in the 67C frame. The output item of the measurement result may be “13” of the total value, or may be output for each check point such as “intersection, signal, pedestrian, car”, and the output method of the acquired information is any But you can.

いずれにしても、受講者の自転車の運転技術を含む能力的な度合いを数値として測定することが可能となり、指導者も受講者の習得箇所と未習得箇所の把握が容易になり、より安全な自転車の運転を促すことが可能となる。   In any case, it is possible to measure the ability level including the bicycle driving skill of the student as a numerical value, and it becomes easier for the instructor to grasp the acquired part and the unacquired part of the student. Bicycle driving can be encouraged.

上記の実施形態3Aはどのように実施してもよいが、講習を事前に行うことで習熟度を測定するのに用いたり、まず初めに視聴して普段の運転能力の度合いを測定し、その後に講習を受講することで受講者の弱点を把握するのに用いたり、机上学習等の講習と組み合わせることで、単なる知識に留まらず実技的な向上に関する効果を見込むことが可能である。   The above embodiment 3A may be implemented in any way, but it is used to measure the proficiency level by conducting a lecture in advance, or by first viewing and measuring the degree of normal driving ability, It is possible to expect effects related to practical improvement rather than just knowledge by using it to grasp the weaknesses of the students by taking the lectures in combination with, or combining with lectures such as desktop learning.

なお、実施形態3Aの構成は上述した方法及び/又は構成に限定されない。   The configuration of Embodiment 3A is not limited to the method and / or configuration described above.

[実施形態3B]
[構成]
実施形態3乃至実施形態3Aでは、各反応情報を一つの反応として捉える構成としたが、実施形態3Bでは、各反応情報で1以上の反応を含む構成の一例を、図17を用いて以下に説明する。
[Embodiment 3B]
[Constitution]
In Embodiments 3 to 3A, each reaction information is regarded as one reaction. However, in Embodiment 3B, an example of a structure including one or more reactions in each reaction information is described below with reference to FIG. explain.

実施形態3乃至実施形態3Aでは角度を検知して、角度を含む情報を反応情報として取得しているが、注視範囲には受講者によって幅があることが想定され、厳密に座標を一つに限定することは難しい。従って、反応情報に注視の対象範囲を設定する方法を説明する。   In Embodiments 3 to 3A, an angle is detected and information including the angle is acquired as reaction information. However, it is assumed that there is a width in the gaze range depending on the student, and the coordinates are exactly one. It is difficult to limit. Therefore, a method for setting a target range of attention in the reaction information will be described.

例えば、映像中に信号に面した際に、検知する角度が図17の77Aの範囲内であれば、「信号を見る」反応情報として取得することとする。本実施形態では、自転車の路上運転指導に関する映像であり、信号に面した際には、確実に「信号を見る」ことが求められる。それに伴い、77Aの範囲に加えて、77Bの範囲を設定し、同じ「信号を見る」という反応でも点数を異ならせることで、より、受講者の注意力を含む能力的な度合いを測定することが可能となる。従って、注視の対象範囲の設定は複数設定することも可能であり、この項目を反応度合置換表で表す場合には、図12(a)で反応情報にコードを割り当てる際に、図17の77Aに対してコード「A(信号を見る)」を割り当てて、77Bに対してコード(A’(信号を見る(中心部)))を割り当てて別の反応情報として取得すればよい。   For example, when an angle to be detected is within the range of 77A in FIG. 17 when facing a signal in an image, it is acquired as “view signal” reaction information. In the present embodiment, it is an image relating to bicycle road driving guidance, and when facing a signal, it is required to surely “see the signal”. Accordingly, the 77B range is set in addition to the 77A range, and the ability level including the attention of the student is further measured by changing the score for the same “watch the signal” response. Is possible. Accordingly, it is possible to set a plurality of gaze target ranges. When this item is represented by a reaction degree substitution table, 77A in FIG. 17 is used when assigning codes to reaction information in FIG. The code “A (view signal)” may be assigned to, and the code (A ′ (view signal (center))) may be assigned to 77B to obtain another reaction information.

上記のように、注視範囲に対しても重み付けを行うことで、同一の「信号を見る」行為に対しても、行為の質を把握することが可能となる。該行為の質と能力的な度合いを測るための測定値と組み合わせれば、より詳細な反応度合を取得することが可能となる。   As described above, by weighting the gaze range as well, it is possible to grasp the quality of the action even for the same “watch signal” action. When combined with measurement values for measuring the quality and ability level of the action, it is possible to obtain a more detailed degree of response.

なお、実施形態3Bの構成は上述した方法及び/又は構成に限定されない。   Note that the configuration of Embodiment 3B is not limited to the method and / or configuration described above.

[実施形態3C]
[構成]
実施形態3Aでは、当該反応度合に対する重み付けの方法、及び取得した反応度合を表す数値の活用を可能とする構成としたが、実施形態3Cでは、数値として取得した実技点の比較を可能とする構成の一例を図11乃至図13を用いて、以下に説明する。なお、その他の構成は実施形態3Aの構成と同様である。
[Embodiment 3C]
[Constitution]
In the embodiment 3A, the weighting method for the reaction degree and the configuration that allows the use of the numerical value that represents the acquired reaction degree are used. However, in the embodiment 3C, the actual skill points that are acquired as numerical values can be compared. One example will be described below with reference to FIGS. Other configurations are the same as those of the embodiment 3A.

実施形態3Cの動作を以下に説明する。
管理端末60の指示部63の映像表示指示(図11のステップS41)後、実施形態3Aと同様に図11のステップS42乃至図11のステップS51まで処理を行う。その後、映像を再度表示させる場合(図11のステップS52 Yes)、管理端末60の指示部63は、再度、映像表示指示を行い、ステップS41以降の処理を再度実行する。映像を終了する場合(図11のステップS52 No)、処理を終了する。
The operation of Embodiment 3C will be described below.
After the video display instruction of the instruction unit 63 of the management terminal 60 (step S41 in FIG. 11), the processing is performed from step S42 in FIG. 11 to step S51 in FIG. Thereafter, when the video is to be displayed again (Yes in step S52 in FIG. 11), the instruction unit 63 of the management terminal 60 issues the video display instruction again, and executes the processes in and after step S41 again. When the video is to be ended (No in step S52 in FIG. 11), the processing is ended.

なお、図11のステップS47乃至ステップS51で、サーバ20の測定部5は、反応度合を数値として測定した測定結果を反応度合出力部24で出力し、管理端末60へ送信して、管理端末60の結果表示部64は前記測定結果を表示しているが、複数回視聴して前記測定結果とは別に習熟度を出力する場合の例を以下に説明する。サーバ20は習熟度判定部26を有する構成とする。   In step S47 to step S51 in FIG. 11, the measurement unit 5 of the server 20 outputs the measurement result obtained by measuring the reaction degree as a numerical value by the reaction degree output unit 24, and transmits the measurement result to the management terminal 60. The result display unit 64 displays the measurement result, and an example in which the skill level is output separately from the measurement result after viewing multiple times will be described below. The server 20 is configured to include a proficiency level determination unit 26.

図11のステップS49でサーバ20の反応度合出力部24で測定結果を出力し、一回目の視聴であれば、そのままステップS50の処理へ移行するが、二回目以降の視聴である場合、サーバ20の習熟度判定部26は、各回の測定結果を比較して習熟度を判定する。前記習熟度の判定とは、自転車の路上運転指導の成果に関するものである。単に実技点を比較するものであってもよいが、例えば、二回視聴した場合に一回目で実技点を得られなかった項目が二回目では得られているか否か、といった各チェックポイント毎の比較であってもよい。   In step S49 of FIG. 11, the measurement result is output by the response level output unit 24 of the server 20, and if it is the first viewing, the process proceeds to step S50 as it is, but if it is the second and subsequent viewing, the server 20 The proficiency level determination unit 26 compares the measurement results of each time to determine the proficiency level. The determination of the proficiency level relates to the result of the road driving instruction of the bicycle. You may simply compare actual skill points, but for example, if you watched twice, whether or not the item you couldn't get actual skill points at the first time was obtained at the second time. It may be a comparison.

サーバ20の習熟度判定部26は、測定結果及び習熟度判定結果を管理端末60へ送信し、管理端末60の結果表示部64は、測定結果及び習熟度判定結果を表示する(図11のステップS51)。   The proficiency level determination unit 26 of the server 20 transmits the measurement result and the proficiency level determination result to the management terminal 60, and the result display unit 64 of the management terminal 60 displays the measurement result and the proficiency level determination result (step of FIG. 11). S51).

本実施形態3Cでは、自転車の路上運転映像を繰り返し視聴することで、より受講者への理解を深めることを可能とする。例えば、机上学習等の講習前に受講者へヘッドセットを装着させ、図11のステップS41からS51までの処理を実行することで、普段の受講者の運転技術を測定することが可能である。その後に、指導者が、机上学習等の講習を行い、受講者に再度ヘッドセットを装着させ、管理端末60より、図11のステップS52で映像を再表示させて、図11のステップS41からS51までの処理を再度実行する。   In the present embodiment 3C, it is possible to deepen the understanding to the student by repeatedly viewing the road driving image of the bicycle. For example, it is possible to measure the driving skill of a normal student by attaching the headset to the student before the class such as desktop learning and executing the processing from step S41 to S51 in FIG. Thereafter, the instructor conducts a class such as desktop learning, causes the student to put on the headset again, causes the management terminal 60 to redisplay the video in step S52 of FIG. 11, and steps S41 to S51 of FIG. The process up to is executed again.

上記の処理により、管理端末では、二回分の測定結果、及び習熟度判定結果が表示される。これにより、二回目においても改善しない点(受講者の弱点)を受講者と指導者共に把握することが容易となる。   Through the above processing, the measurement result and the proficiency level determination result for two times are displayed on the management terminal. This makes it easy for both the trainee and the instructor to grasp the point that does not improve even in the second time (the weakness of the trainee).

図13(d)及び(e)は、その二回目に視聴した際の反応度合に関する表であり、図13の(b)と(d)を比較すると、講習を受講したことにより、2分00秒から2分29秒の間の歩行者が通った際に、歩行者を視認できたことがわかる。   FIGS. 13 (d) and (e) are tables relating to the degree of response when viewed for the second time. When (b) and (d) in FIG. It can be seen that the pedestrian was visually recognized when the pedestrian from 2 seconds to 29 seconds passed.

しかしながら、図13の(d)は、(b)と同様に、4分00秒から4分29秒の間に下を見ているため、一回目の「下を見る」という行為は偶然ではなく、受講者へ注意を促すべきポイントであることが分かる。以上のように、繰り返し視聴することで、効果的な使い方をすることが可能である。   However, since (d) in FIG. 13 looks down from 4:00 to 29:29, as in (b), the first action of “looking down” is not a coincidence. It is clear that this is a point that should draw attention to students. As described above, it is possible to use effectively by repeatedly viewing.

なお、上記の受講者の反応度合については、一回目及び二回目の両方の測定結果を数値の羅列を比較して把握できるものであるが、前述の通り、サーバ20の習熟度判定部で項目別に比較させて、比較結果を習熟度判定結果として結果表示部に表示させてもよい。また、二回目の視聴をテストとして位置付ける場合には、合否を判定させてもよい。いずれにしても、前記習熟度判定結果は、各回の測定結果の情報に基づいて習熟度判定部26で出力できるものであればいずれのものでもよく、実施前に、予め、習熟度判定部26で何をどのように判定するのか、その判定結果の出力方法(グラフ、点数、合否等)について定義しておけばよいものとする。   In addition, about the said student's reaction degree, although the measurement result of both 1st time and 2nd time can be grasped | ascertained by comparing the enumeration of a numerical value, as above-mentioned, it is an item in the proficiency level determination part of the server 20 Alternatively, the comparison result may be displayed on the result display unit as the proficiency level determination result. In addition, when positioning the second viewing as a test, it may be determined whether or not it is acceptable. In any case, the proficiency level determination result may be any as long as it can be output by the proficiency level determination unit 26 based on the information of the measurement results of each time. It is only necessary to define what and how to determine, and how to output the determination result (graph, score, pass / fail, etc.).

前記習熟度判定部26は、複数回視聴させた場合の各回の比較から習熟度を判定する構成として説明したが、先に自転車の路上運転講習を行い、その後に習熟度をテストするといった一回のみの視聴でも習熟度判定部26を用いて習熟度を判定させてもよいものとする。一回のみの視聴であっても、前述の通り、判定結果の出力方法(グラフ、点数、合否等)について定義しておけばよいものとする。   The proficiency level determination unit 26 has been described as the configuration for determining the proficiency level from comparison of each time when viewing multiple times. However, the proficiency level determination unit 26 performs a driving course on a bicycle first and then tests the proficiency level. It is assumed that the proficiency level may be determined using the proficiency level determination unit 26 even when only viewing is performed. As described above, it is only necessary to define the determination result output method (graph, score, pass / fail, etc.) even for one-time viewing.

なお、実施形態3Cの構成は上述した方法及び/又は構成に限定されない。   Note that the configuration of Embodiment 3C is not limited to the method and / or configuration described above.

[実施形態3D]
[構成]
実施形態3Aでは、反応度合置換表で用いる測定値を実技点とする構成としたが、実施形態3Dにおける反応度合置換表は、前記反応度合毎に1以上の測定値を含む構成とし、更に、前記反応度合置換表によって置換された数値から点数、グラフ、その他のいずれか1つ以上の表示方法により可視化する一例構成を、図14及び図15を用いて、以下に説明する。なお、その他の構成は実施形態3Aの構成と同様である。
[Embodiment 3D]
[Constitution]
In Embodiment 3A, the measurement values used in the reaction degree substitution table are configured as practical points. However, the reaction degree substitution table in Embodiment 3D is configured to include one or more measurement values for each degree of reaction. An example configuration for visualizing from the numerical value substituted by the reactivity degree substitution table by any one or more display methods such as points, graphs, and the like will be described below with reference to FIGS. 14 and 15. Other configurations are the same as those of the embodiment 3A.

測定値とは、前述したとおり、本発明においてどのような反応度合(または、心理状態の種別)の取得を目的とするかによって設定する値である。実施形態3乃至実施形態3Bでは、能力的な度合いの取得を目的として測定値に実技点を割り当てていたが、実施形態3Dでは、運転技術に必要とされる能力を細分化して取得する目的に使用する。   As described above, the measured value is a value set depending on what kind of response (or type of psychological state) is to be obtained in the present invention. In Embodiments 3 to 3B, practical skill points are assigned to the measurement values for the purpose of acquiring a capability level. However, in Embodiment 3D, the ability required for driving skills is subdivided and acquired. use.

図14(b)に示す通り、実施形態3Dでは測定値に複数の項目を割り当ており、図15(a)のマトリクスでは、それに伴って、反応度合毎に複数の測定値を含んでいる。前記図15(a)のマトリクスは、図11のステップS47で、サーバ20の測定部5が反応度合を数値として測定する際に用いる反応度合置換表である。   As shown in FIG. 14B, a plurality of items are assigned to the measurement values in the embodiment 3D, and the matrix in FIG. 15A includes a plurality of measurement values for each degree of reaction. The matrix in FIG. 15A is a reaction degree substitution table used when the measurement unit 5 of the server 20 measures the reaction degree as a numerical value in step S47 in FIG.

例えば、開始1分30秒から1分59秒の間に「信号を見」た場合、測定値「X」に「5」、「Z」に「5」の数値が測定される。すなわち、信号に面した際に、信号を視認できたことにより、「注意力」と「落ち着き」が認められる。   For example, when “see the signal” between 1 minute 30 seconds and 1 minute 59 seconds from the start, numerical values “5” are measured for the measured value “X” and “5” are measured for “Z”. That is, “attentiveness” and “settlement” are recognized when the signal is visually recognized when facing the signal.

また、開始2分00秒から2分29秒の間に「歩行者を見」た場合、測定値「X」に「5」、「Y」に「10」の数値が測定される。すなわち、歩行者(動きのあるもの)に面した際に、歩行者を視認できたことで、「注意力」と「反応速度」が認められる。   In addition, when “seeing a pedestrian” between 2 minutes 00 seconds and 2 minutes 29 seconds from the start, numerical values “5” are measured for the measured value “X” and “10” are measured for “Y”. That is, “attentiveness” and “reaction speed” are recognized because the pedestrian can be visually recognized when facing the pedestrian (moving one).

図15(c)では、各測定値の合計値を出力しており、その合計値を図15(d)のレーダーチャートに表している。   In FIG.15 (c), the total value of each measured value is output and the total value is represented on the radar chart of FIG.15 (d).

前記レーダーチャートの出力について、図10及び図11を用いて以下に説明する。
図11のステップS47で、サーバ20の測定部5は反応度合を数値として測定し、ステップS49で、反応度合出力部24は測定結果を出力する。前記反応度合出力部24は、測定結果を測定部5から受けた数値をそのまま出力してもよいし、数値を加工して点数、グラフ、その他のいずれか1つ以上の表示方法で出力してもよい。実施形態3Dでは、この反応度合出力部24で、測定結果をレーダーチャート化して出力し、管理端末60へ測定結果表示指示を送信する。
The output of the radar chart will be described below with reference to FIGS.
In step S47 of FIG. 11, the measurement unit 5 of the server 20 measures the reaction degree as a numerical value, and in step S49, the reaction degree output unit 24 outputs the measurement result. The degree-of-reaction output unit 24 may output the numerical value received from the measurement unit 5 as it is, or process the numerical value and output it in any one or more display methods such as points, graphs, and the like. Also good. In the embodiment 3D, the reaction degree output unit 24 outputs the measurement result as a radar chart and transmits a measurement result display instruction to the management terminal 60.

実施形態3Aでは、単一の技術的な点数として測定し、結果を取得していたが、実施形態3Dにおいて、測定値を複数設定することで、受講者の1つの反応を多角的に捉えて、能力的な度合いを測定することが可能となった。図14(b)では、仮に測定値に「注意力、反応速度、落ち着き」の3項目を設定しているが、測定値を増やせば、それに応じて複雑な能力的な度合いを測定することが可能となる。   In Embodiment 3A, the measurement was performed as a single technical score, and the result was acquired. However, in Embodiment 3D, by setting a plurality of measurement values, one response of the student was captured from multiple perspectives. It became possible to measure the degree of ability. In FIG. 14B, three items of “attention, reaction speed, and calmness” are set for the measured value. However, if the measured value is increased, a complicated ability level can be measured accordingly. It becomes possible.

更に、図15(d)に示す通り、測定結果をレーダーチャートとして出力することにより、指導者は視覚的に受講者の運転技術や能力的な度合い、及び/又は習熟度を把握することが可能となった。図15(d)では、仮にレーダーチャートを用いて出力したが、受講者の反応の度合いを把握できるものであれば、何れの形態として出力してもよい。   Furthermore, as shown in FIG. 15 (d), by outputting the measurement results as a radar chart, the instructor can visually grasp the driving skill, ability level, and / or proficiency level of the student. It became. In FIG. 15D, the data is output using a radar chart. However, any form may be used as long as the degree of response of the student can be grasped.

[実施形態3E]
[構成]
実施形態3Dでは、測定値を複数設定し、測定結果をグラフで表示する構成としたが、実施形態3Eでは、予め定められた身体動作の継続時間及び/又は反復間隔時間を反応情報として取得する構成の一例を、図12及び図16を用いて、以下に説明する。前記身体動作の継続時間とは注視時間のことであり、前記反復間隔時間は時間を少し空けて二回見たのか、又は二度見等の瞬時に二回見る行為の区別をすることである。なお、その他の構成は実施形態3Cの構成と同様である。
[Embodiment 3E]
[Constitution]
In the embodiment 3D, a plurality of measurement values are set and the measurement result is displayed in a graph. However, in the embodiment 3E, a predetermined duration of physical movement and / or a repetition interval time is acquired as reaction information. An example of the configuration will be described below with reference to FIGS. The duration of the body motion is a gaze time, and the repetition interval time is a distinction between an act of watching twice with a short interval of time or an action of watching twice in an instant such as twice. Other configurations are the same as those of the embodiment 3C.

図16(a)のマトリクスでは、継続時間を取得する場合の例を示す。反応情報及び測定値のコードは図12を使用する。なお、図16(a)では経過時間を分割し、当該分割した時間帯毎に前記反応情報を取得する構成とし、分割単位を不等間隔で設定する例とするが、等間隔に設定してもよい。   In the matrix of FIG. 16A, an example in the case where the duration time is acquired is shown. FIG. 12 is used for reaction information and measurement value codes. In FIG. 16 (a), the elapsed time is divided and the reaction information is acquired for each divided time zone, and the division unit is set at unequal intervals. Also good.

前記継続時間について以下に説明する。本実施形態では、実施形態3Bの注視範囲の設定を行うことを前提とする。   The duration will be described below. In the present embodiment, it is assumed that the gaze range of Embodiment 3B is set.

本実施形態における継続時間とは、設定した注視範囲内を連続して注視した時間のことである。サーバ20は、端末10の反応情報取得部4から取得した反応情報、及び経過時間計測部3が該反応情報を検知した時間を取得し(図11のステップS45)、設定した注視範囲内であるか否かを判断する。   In the present embodiment, the duration is the time during which the user continuously gazes within the set gaze range. The server 20 acquires the reaction information acquired from the reaction information acquisition unit 4 of the terminal 10 and the time when the elapsed time measurement unit 3 detects the reaction information (step S45 in FIG. 11) and is within the set gaze range. Determine whether or not.

なお、前記反応情報は、分割した時間帯毎に取得しているため、例えば1分割30秒とし、角度情報を1秒単位で取得している場合には、前記反応情報は30個の角度情報を有することになる。   In addition, since the said reaction information is acquired for every divided | segmented time slot | zone, when it is set as 1 division | segmentation 30 seconds, for example, and angle information is acquired per 1 second, the said reaction information is 30 pieces of angle information. Will have.

前記反応情報の角度が、設定した注視範囲外である場合には、「信号を見る」、「左右を見る」といった行為として判断されず、図12(a)で設定される反応情報のコードに割り当てられないため、次の角度が設定注視範囲内外のどちらにあるかの確認へ進む。ここで記載する「次の角度」とは、前記反応情報が30個の角度情報から成る場合に、例えば、30個のうち1番目に取得した反応情報の角度情報の確認が終了した場合、2番目に取得した反応情報の角度情報の確認へと処理を進めることであり、2番目の反応情報の角度情報のことを意味する。前記反応情報の角度が、注視範囲内である場合には、次の角度も、設定した注視範囲内であるか否かを確認し、注視範囲外になるまで、又は取得した反応情報の確認が終了する(30個の角度の確認がすべて終了する)まで、角度の比較を行う。   When the angle of the reaction information is outside the set gaze range, it is not determined as an action such as “see signal” or “view left and right”, and the response information code set in FIG. Since it is not assigned, the process proceeds to check whether the next angle is within or outside the set gaze range. The “next angle” described here means that when the reaction information is composed of 30 pieces of angle information, for example, when the confirmation of the angle information of the reaction information acquired first out of 30 pieces is completed, 2 The process proceeds to the confirmation of the angle information of the reaction information acquired second, which means the angle information of the second reaction information. When the angle of the reaction information is within the gaze range, it is confirmed whether or not the next angle is also within the set gaze range. The angles are compared until the end (all 30 angles have been confirmed).

上記の、反応情報に含まれる角度が、設定した注視範囲内であるか否かの確認は、サーバ20が取得した反応情報に含まれる角度に伴う計測時間が一番早いものから順次行うものとする。例えば、5時1分1秒の角度、5時1分2秒の角度、5時1分3秒の角度・・・とあった場合、5時1分1秒の角度から順に処理を行う。   The above-mentioned confirmation of whether the angle included in the reaction information is within the set gaze range is performed sequentially from the earliest measurement time associated with the angle included in the reaction information acquired by the server 20. To do. For example, when there is an angle of 5: 1: 1 seconds, an angle of 5: 1: 1, 5 seconds, an angle of 5: 1: 1, 3 seconds,..., Processing is performed in order from the angle of 5: 1: 1.

取得した反応情報の角度がいずれも設定した注視範囲外であった場合には、図11のステップS46乃至S47の処理は行わずステップS48へ進み、映像表示中である場合には、次の分割した時間帯毎の反応情報を取得する。   If all the angles of the acquired reaction information are outside the set gaze range, the process proceeds to step S48 without performing steps S46 to S47 in FIG. 11, and if the video is being displayed, the next division is performed. Get reaction information for each time period.

前記注視範囲外、又は取得した反応情報が終了した場合(30個の角度の確認がすべて終了した場合)には、注視範囲内を連続して注視した時間を取得する。前記注視時間は、注視範囲内となった角度に伴う時間と注視範囲外となる直前の角度に伴う時間を比較して取得してもよいし、どのように取得してもよいものとする。   When the outside of the gaze range or the acquired reaction information is completed (when all 30 angles have been confirmed), the time during which the gaze range is continuously watched is acquired. The gaze time may be acquired by comparing the time associated with the angle within the gaze range and the time associated with the angle immediately before the gaze range, or may be obtained in any manner.

また、前記反復間隔時間は、別途、区別するための反復間隔の時間を設定する必要がある。例えば、反復間隔時間を0.3秒未満である場合に二度見、等の設定である。前記継続時間の取得では設定した注視範囲内に留まる時間としたが、反復間隔時間は、設定した注視範囲内となった角度が一度注視範囲外となり、再度注視範囲内となる、その間の間隔を取得する。反復間隔時間の取得は、前記継続時間の取得方法を応用すればよい。   In addition, it is necessary to set a repetition interval time for distinguishing the repetition interval time. For example, when the repetition interval time is less than 0.3 seconds, it is set to look twice. In the acquisition of the duration time, the time stayed within the set gaze range is set, but the repeat interval time is the interval between the time when the angle that is within the set gaze range is once outside the gaze range and again within the gaze range. get. The acquisition of the repetition interval time may be performed by applying the method for acquiring the duration time.

なお、前記反応情報は、経過時間を分割し、当該分割した時間帯毎に前記反応情報を取得する構成として説明したが、経過時間を分割せずに、随時反応情報を取得する構成としてもよい。また、継続時間(注視時間)及び/又は反復間隔時間の取得方法についても、継続時間(注視時間)及び/又は反復間隔時間が取得できればよく、前述の構成、方法に限定されない。   In addition, although the said reaction information divided | segmented elapsed time and was demonstrated as a structure which acquires the said reaction information for every said divided | segmented time slot | zone, it is good also as a structure which acquires reaction information at any time, without dividing elapsed time. . Further, the acquisition method of the duration (gazing time) and / or the repetition interval time is not limited to the above-described configuration and method as long as the duration (gazing time) and / or the repetition interval time can be acquired.

例えば、図16(a)の74Aでは、信号に面して「信号を見」た場合、注視時間が1秒未満は「X」に「5」、1秒以上は「X」に「10」の数値が測定される。これは、1秒未満では信号を確認しているものの、信号の確認時間が短いために「5」が設定されている。なお、経過時間の分割は、前記信号が表れるタイミングに沿って行うものとし、例えば赤から青に切り替わるタイミング前後0.5秒(合計1秒)を一つの分割単位としてもよい。その場合、より正確に受講者が信号を見ていたか否か、を判断することが可能である。   For example, in 74A of FIG. 16A, when “looking at the signal” facing the signal, “5” is “X” when the gaze time is less than 1 second, and “10” is “X” when it is 1 second or longer. Is measured. Although the signal is confirmed in less than 1 second, “5” is set because the signal confirmation time is short. The elapsed time is divided along the timing at which the signal appears. For example, 0.5 seconds (1 second in total) before and after the timing of switching from red to blue may be used as one division unit. In that case, it is possible to more accurately determine whether or not the student was watching the signal.

更には、図16(a)の74BのT3の時間分割を信号の切り替えタイミング前1秒から0.5秒に設定し、74CのT5の時間分割を信号の切り替えタイミング後0.5秒から1秒に設定して、信号の切り替え前と切り替え後にそれぞれ視認したことを検知した場合には、信号の確認を正常に行えているため74Aの枠内と同じ(又は異なる)数値を測定する形式としてもよい。この場合には、実施時に、別途組み合わせの条件を設定する必要がある。たとえば、前記であれば74Bと74Cの両方で「信号を見る」旨の反応情報を検知した場合に、74Aの枠内を参照して数値を設定する、といった条件設定のことである。   Further, the time division of T3 of 74B in FIG. 16A is set to 0.5 second from 1 second before the signal switching timing, and the time division of T5 of 74C is changed from 0.5 second to 1 after the signal switching timing. When it is detected that the signal has been visually recognized before and after switching, the signal is normally confirmed, and the same (or different) numerical value as in the frame of 74A is measured. Also good. In this case, it is necessary to set a separate combination condition at the time of implementation. For example, in the case described above, the condition setting may be such that when both 74B and 74C detect reaction information indicating “view signal”, a numerical value is set with reference to the frame of 74A.

また、74Dの枠内に示すように、「左右を見る」場合には継続時間が設定されていない。これは、実施形態3Eにおいて、左右を見る行為の継続時間は重視されておらず、分割単位内に左右を見た情報を検知できればよいとされるためである。実施時に重視する場合には、継続時間を別途設定すればよいものとする。   Further, as shown in the 74D frame, the duration is not set in the case of “looking left and right”. This is because, in Embodiment 3E, the duration of the act of looking left and right is not emphasized, and it is only necessary to be able to detect left and right information within the division unit. In the case where importance is attached at the time of implementation, the duration time may be set separately.

74Eの枠内に示すように、0.5秒以上「下を見る」場合には減点とされる。実施形態3Eにおいて、頭を一瞬傾けたのみのケースも想定し、0.5秒未満では「下を見る」という反応に含めないよう設定している。   As shown in the frame of 74E, points are deducted when “look down” for 0.5 seconds or longer. In the embodiment 3E, a case where the head is merely tilted for a moment is also assumed, and the setting of not being included in the reaction of “looking down” is performed in less than 0.5 seconds.

図16(b)は、ある受講者の反応情報を表したものであるが、75Aの枠内を見ると、信号を3秒見たため、図16(c)の76Aに示す通り、実技点が「10」測定される。75Bの枠内では、0.3秒「歩行者を見る」行為を二回繰り返している。実技点「5」を二回繰り返すことで、76Bに示す通り「10」が測定される。これは、二度見でも歩行者への注意力が窺えるため、歩行者を1秒以上見た時と、1秒未満ではあるが二回見た時で、同数の値が測定される。   FIG. 16 (b) shows the response information of a student, but when looking inside the frame of 75A, since the signal was seen for 3 seconds, as shown in 76A of FIG. “10” is measured. In the frame of 75B, the act of “seeing a pedestrian” for 0.3 seconds is repeated twice. By repeating the actual skill point “5” twice, “10” is measured as shown in 76B. This is because the power of attention to the pedestrian can be enhanced even when viewed twice, so the same number of values is measured when the pedestrian is viewed for more than 1 second and when it is viewed less than 1 second but twice.

実施形態3Eに示すように、継続時間及び/又は反復間隔時間を設定することが可能である。図16(a)では、継続時間及び/又は反復間隔時間の設定を明瞭に行うため、測定値を実技点のみとして説明したが、測定値を複数設定し、継続時間及び/又は反復間隔時間と組み合わせることで、より詳細な反応の度合いを取得することが可能となる。   As shown in embodiment 3E, it is possible to set duration and / or repetition interval time. In FIG. 16 (a), in order to clearly set the duration time and / or the repetition interval time, the measurement value has been described as only the practical point. However, a plurality of measurement values are set, and the duration time and / or the repetition interval time are set. By combining, it becomes possible to acquire a more detailed degree of reaction.

なお、実施形態3Eでは、継続時間を含む反応情報に主に重み付けをしていたが、一般的に指導映像(教習映像)は後半になると注意力が散漫となる傾向があるため、自転車の路上運転指導映像が長い場合には、同じ「歩行者を見る」行為でも後半に多く数値を設定するなど、経過時間に対して重み付けをしてもよい。   In the embodiment 3E, the reaction information including the duration time is mainly weighted. However, in general, the instruction video (teaching video) tends to be distracted in the second half, and therefore, on the bicycle road. When the driving instruction video is long, the elapsed time may be weighted, for example, by setting a large number in the second half even in the same “seeing pedestrian” action.

上記のように、時間の分割単位の設定、継続時間及び/又は反復間隔時間の取得、各種重み付けの設定、によって、受講者の反応度合、すなわち能力的な度合いや習熟的な度合いを詳細に把握することが可能となった。   As described above, by setting the time division unit, obtaining the duration and / or repetition interval time, and setting various weights, the student's degree of response, that is, the ability level and the proficiency level are grasped in detail. It became possible to do.

なお、実施形態3Eの構成は上述した方法及び/又は構成に限定されない。   Note that the configuration of Embodiment 3E is not limited to the method and / or configuration described above.

この発明は、その本質的特性から逸脱することなく数多くの形式のものとして具体化することができる。よって、上述した実施形態は専ら説明上のものであり、本発明を制限するものではないことは言うまでもない。   The present invention can be embodied in many forms without departing from its essential characteristics. Therefore, it is needless to say that the above-described embodiment is exclusively for description and does not limit the present invention.

1 情報測定装置
2 映像表示部
3 経過時間計測部
4 反応情報取得部
5 測定部
10 端末
11 通信部
12 制御部
13 入力部
14 広告表示部
20 サーバ
21 通信部
22 制御部
23 重み付け部
24 反応度合出力部
25 広告指示部
26 習熟度判定部
30 スクリーン
31 通信部
32 制御部
33 出力部
34 表示部
40 記録部
50 通信網
60 管理端末
61 通信部
62 制御部
63 指示部
64 結果表示部
DESCRIPTION OF SYMBOLS 1 Information measuring device 2 Image | video display part 3 Elapsed time measurement part 4 Reaction information acquisition part 5 Measurement part 10 Terminal 11 Communication part 12 Control part 13 Input part 14 Advertisement display part 20 Server 21 Communication part 22 Control part 23 Weighting part 24 Reaction degree Output unit 25 Advertisement instruction unit 26 Proficiency determination unit 30 Screen 31 Communication unit 32 Control unit 33 Output unit 34 Display unit 40 Recording unit 50 Communication network 60 Management terminal 61 Communication unit 62 Control unit 63 Instruction unit 64 Result display unit

Claims (11)

映像に対するユーザの反応を測定する情報測定装置であって、
前記映像を表示する映像表示部と、
前記映像の表示開始からの経過時間を計測する経過時間計測部と、
前記映像に対する前記ユーザの反応情報を取得する反応情報取得部と、
前記経過時間の経緯に伴う前記反応情報に基づいて取得した反応度合に重み付けして、前記反応度合を数値として測定する測定部と、
を有することを特徴とする情報測定装置。
An information measuring device for measuring a user's reaction to an image,
A video display unit for displaying the video;
An elapsed time measuring unit that measures an elapsed time from the start of display of the video;
A reaction information acquisition unit for acquiring reaction information of the user with respect to the video;
Weighting the reaction degree acquired based on the reaction information along with the history of the elapsed time, and measuring the reaction degree as a numerical value,
An information measuring device comprising:
前記測定部は、前記経過時間の経緯と前記反応情報とによる反応度合置換表に基づいて前記反応度合を数値へ置換するものであることを特徴とする請求項1に記載の情報測定装置。   The information measuring apparatus according to claim 1, wherein the measurement unit replaces the reaction degree with a numerical value based on a reaction degree substitution table based on the history of the elapsed time and the reaction information. 前記反応情報取得部は、前記経過時間を分割し、当該分割した時間帯毎に前記反応情報を取得するものであることを特徴とする請求項1に記載の情報測定装置。   The information measurement apparatus according to claim 1, wherein the reaction information acquisition unit divides the elapsed time and acquires the reaction information for each of the divided time zones. 前記測定部は、前記経過時間を分割した時間帯によって、前記反応度合に異なる前記重み付けをするものであることを特徴とする請求項2に記載の情報測定装置。   The information measuring device according to claim 2, wherein the measurement unit weights the reaction degree differently according to a time zone obtained by dividing the elapsed time. 前記反応度合置換表は、前記反応度合毎に、1以上の測定値を含むものであることを特徴とする請求項2に記載の情報測定装置。   3. The information measuring apparatus according to claim 2, wherein the reaction degree substitution table includes one or more measurement values for each reaction degree. 前記反応情報取得部は、予め定められた前記ユーザの身体動作を前記反応情報として取得するものであることを特徴とする請求項1に記載の情報測定装置。   The information measurement apparatus according to claim 1, wherein the reaction information acquisition unit acquires a predetermined body motion of the user as the reaction information. 前記反応情報取得部は、前記予め定められた前記身体動作の継続時間及び/又は反復間隔時間を前記反応情報として取得するものであることを特徴とする請求項6に記載の情報測定装置。   The information measurement apparatus according to claim 6, wherein the reaction information acquisition unit acquires the predetermined duration and / or repetition interval time of the body movement as the reaction information. 前記測定部が測定した前記数値に基づいて、前記映像に対するユーザの反応度合を出力する反応度合出力部を有することを特徴とする請求項1に記載の情報測定装置。   The information measurement apparatus according to claim 1, further comprising: a reaction degree output unit that outputs a user reaction degree with respect to the video based on the numerical value measured by the measurement unit. 前記反応度合出力部は、前記数値から点数、グラフ、その他のいずれか1つ以上の表示形態により反応度合を可視化することを特徴とする請求項8に記載の情報測定装置。   The information measurement apparatus according to claim 8, wherein the reaction degree output unit visualizes the reaction degree from the numerical value by any one or more display forms such as a score, a graph, and the like. 映像に対するユーザの反応を測定する情報測定方法であって、
前記映像を表示するステップと、
前記映像の表示開始からの経過時間を計測するステップと、
前記映像に対する前記ユーザの反応情報を取得するステップと、
前記経過時間の経緯に伴う前記反応情報に基づいて取得した反応度合に重み付けして、前記反応度合を数値として測定するステップと、
を実行することを特徴とする情報測定方法。
An information measurement method for measuring a user's reaction to an image,
Displaying the video;
Measuring an elapsed time from the start of display of the video;
Obtaining reaction information of the user for the video;
Weighting the reaction degree acquired based on the reaction information with the history of the elapsed time, and measuring the reaction degree as a numerical value;
An information measurement method comprising:
映像に対するユーザの反応を測定する情報測定プログラムであって、
コンピュータに、
前記映像を表示する機能と、
前記映像の表示開始からの経過時間を計測する機能と、
前記映像に対する前記ユーザの反応情報を取得する機能と、
前記経過時間の経緯に伴う前記反応情報に基づいて取得した反応度合に重み付けして、前記反応度合を数値として測定する機能と、
を実行させることを特徴とする情報測定プログラム。
An information measurement program for measuring a user's response to an image,
On the computer,
A function of displaying the video;
A function of measuring an elapsed time from the start of display of the video;
A function of obtaining reaction information of the user with respect to the video;
A function of measuring the reaction degree as a numerical value by weighting the reaction degree acquired based on the reaction information according to the history of the elapsed time;
An information measurement program characterized by causing
JP2017136336A 2017-07-12 2017-07-12 Information measuring instrument, information measuring method and information measuring program Pending JP2019020834A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017136336A JP2019020834A (en) 2017-07-12 2017-07-12 Information measuring instrument, information measuring method and information measuring program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017136336A JP2019020834A (en) 2017-07-12 2017-07-12 Information measuring instrument, information measuring method and information measuring program

Publications (1)

Publication Number Publication Date
JP2019020834A true JP2019020834A (en) 2019-02-07

Family

ID=65354300

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017136336A Pending JP2019020834A (en) 2017-07-12 2017-07-12 Information measuring instrument, information measuring method and information measuring program

Country Status (1)

Country Link
JP (1) JP2019020834A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021192484A (en) * 2020-06-05 2021-12-16 エヌ・ティ・ティ・コミュニケーションズ株式会社 Information provision system and information provision method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012524458A (en) * 2009-04-19 2012-10-11 インナースコープ リサーチ, インコーポレイテッド Method and system for measuring user experience related to interactive activities
JP2014106705A (en) * 2012-11-27 2014-06-09 Fujitsu Ltd Perceptual-response analysis device, its method, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012524458A (en) * 2009-04-19 2012-10-11 インナースコープ リサーチ, インコーポレイテッド Method and system for measuring user experience related to interactive activities
JP2014106705A (en) * 2012-11-27 2014-06-09 Fujitsu Ltd Perceptual-response analysis device, its method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021192484A (en) * 2020-06-05 2021-12-16 エヌ・ティ・ティ・コミュニケーションズ株式会社 Information provision system and information provision method
JP7074800B2 (en) 2020-06-05 2022-05-24 エヌ・ティ・ティ・コミュニケーションズ株式会社 Information provision system and information provision method

Similar Documents

Publication Publication Date Title
McGuckian et al. Visual exploration when surrounded by affordances: frequency of head movements is predictive of response speed
US6292688B1 (en) Method and apparatus for analyzing neurological response to emotion-inducing stimuli
Ohme et al. A small frog that makes a big difference: Brain wave testing of TV advertisements
US8341022B2 (en) Virtual reality system for environment building
US20100205043A1 (en) Virtual reality system including smart objects
US20100149093A1 (en) Virtual reality system including viewer responsiveness to smart objects
US20120089488A1 (en) Virtual reality system including smart objects
JP5676112B2 (en) Method for measuring the effects of distraction, computerized test system, system for measuring the effects of distraction, method for measuring the behavior of human subjects, and for measuring the effects of stimuli system
Hendrickson et al. Six lessons for in-store marketing from six years of mobile eye-tracking research
CA3040775A1 (en) Systems and methods for providing tailored educational materials
Casartelli et al. Neurotypical individuals fail to understand action vitality form in children with autism spectrum disorder
US20180240157A1 (en) System and a method for generating personalized multimedia content for plurality of users
Oyekunle et al. Usability evaluation using eye-tracking on E-commerce and education domains
Khachatryan et al. Eye-tracking methodology and applications in consumer research
JP2019020834A (en) Information measuring instrument, information measuring method and information measuring program
Ward et al. Protocols for the investigation of information processing in human assessment of fundamental movement skills
Baldwin et al. Exploring novel technologies to enhance food safety training and research opportunities
JP2023060212A (en) Information processing apparatus and program
Mehigan et al. Detecting learning style through biometric technology for mobile gbl
Bogomolova Mechanical observation research in social marketing and beyond
Chiu et al. Redesigning the user interface of a healthcare management system for the elderly with a systematic usability testing method
Copetti et al. Pedagogical support for the Test of Gross Motor Development–3 for children with neurotypical development and with Autism Spectrum Disorder: validity for an animated mobile application
Roemer et al. Eye tracking as a research method for social media
WO2008081411A1 (en) Virtual reality system including smart objects
Margariti et al. Implementing eye tracking technology in experimental design studies in food and beverage advertising

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200710

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210409

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210423

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211015