JP4874332B2 - コンテンツに対する利用者応答を評価する制御装置 - Google Patents

コンテンツに対する利用者応答を評価する制御装置 Download PDF

Info

Publication number
JP4874332B2
JP4874332B2 JP2008516571A JP2008516571A JP4874332B2 JP 4874332 B2 JP4874332 B2 JP 4874332B2 JP 2008516571 A JP2008516571 A JP 2008516571A JP 2008516571 A JP2008516571 A JP 2008516571A JP 4874332 B2 JP4874332 B2 JP 4874332B2
Authority
JP
Japan
Prior art keywords
content
subject
interest
viewpoint
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008516571A
Other languages
English (en)
Other versions
JPWO2007135796A1 (ja
Inventor
光一 菊池
誠司 尾崎
直幹 金森
裕之 金田
渡 倉島
剛 花村
Original Assignee
株式会社Vis総研
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Vis総研 filed Critical 株式会社Vis総研
Priority to JP2008516571A priority Critical patent/JP4874332B2/ja
Publication of JPWO2007135796A1 publication Critical patent/JPWO2007135796A1/ja
Application granted granted Critical
Publication of JP4874332B2 publication Critical patent/JP4874332B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Eye Examination Apparatus (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、コンテンツに対する被験者応答の評価システムに関し、さらに詳しく言えば、コンテンツを観察して被験者が応答する状況を、被験者の生理反応と関連づけて測定し、その測定結果に基づいて評価する技術に関するものである。
〔関連出願のクロスリファレンス〕
本出願は、日本国特許出願2006−164019号(2006年5月18日出願)および日本国特許出願2006−254889号(2006年9月20日出願)の優先権を要求し、これらを参照することにより当該出願を本明細書に合体させるものである。
眼球運動に関する情報を取得し提示コンテンツの評価を行うシステムは、特許文献1などに見られるように、一方的に提示された映像コンテンツによる被験者の受動的な反応を測定し映像コンテンツを評価するものであり、被験者の応答を評価するものではなかった。
また、アンケート調査やテスト問題、ゲームなどの対話型システムでは、マウスなどのポインティングデバイスやキーボードなどを用いた被験者の応答を入力デバイスへのデータ入力として取得するだけであった。
被験者が、提示されるコンテンツの内容に関心を持たずに質問に安易に回答した場合、そのような回答を選別する手段がなく、全体の結果の信頼性を下げてしまう。
従来、これらの安易な回答と信用できる回答とを選別すること、即ち有効な回答を抽出することは非常に困難であり、たとえ可能であっても心理学などの専門家による精細な評価が必要であった。
また、生理反応を測定することで有効な回答を抽出する場合であっても、被験者にセンサやマーカなどを装着するようにしているため、その場の雰囲気により被験者に緊張感などの特定の意識を抱かせることがあり、評価の信頼性が損われたり回答を拒否されたりするおそれがある。
つまり、コンテンツを提示し被験者の応答の有効性を評価するシステムに適応することは出来なかった。
特開2004−282471号公報
したがって、本発明の課題は、コンテンツに対する被験者の応答の結果を評価する際に、結果の有効性と操作性を向上させることにある。
本発明は、コンテンツに対して被験者の応答を測定する際に、応答データと連動して被験者の生理反応(例えば眼球運動)を測定、解析するものである。これにより、被験者の応答結果の有効性を判定することができる。特に、アンケート収集の評価に好適である。
例えば、被験者に自然な姿勢でのコンテンツの視聴を求め、被験者の応答を測定するのと同時に、集中の度合いを瞬目発生頻度の変化から、情動の変化を自律神経系反応である瞳孔の変化から、それぞれ判定する。
その根拠として、まず、人間の興味を反映する指標では、生理心理学の分野において、瞬目の変化が知られている。すなわち、興味ある対象を視聴している際には瞬目回数は減少し、その前後に増加する。
次に、情動の変化は、自律神経系との深い関わりがあり、簡易に測定できる指標としては、瞳孔反応が知られている。さらに、ユーザーインタフェースの操作性の客観評価では、人間工学の分野において、視線運動に基づく視点の軌跡および視点の滞留時間を手がかりに分析される場合が多い。
本発明による制御装置は、上記の知見に基づくもので、コンテンツを観察している生理反応を測定して、そのデータに基づいてコンテンツに対する被験者の応答を評価するにあたって、すなわち、コンテンツを観察している被験者の応答を評価するにあたって、前記被験者が前記コンテンツを見ているときに撮影された前記被験者の眼球画像、および、前記被験者が所定の操作手段を用いて操作しているときのカーソル位置を取り込む情報取込部と、前記眼球画像に基づいて、前記被験者の視点位置を算出すると共に、前記眼球画像に基づいて、瞳孔径を求め、前記瞳孔径に基づいて、前記被験者による前記コンテンツに対する第1の興味関心度を算出し、前記カーソル位置と前記視点位置との間の距離を算出し、前記距離が所定の閾値よりも短く、かつ前記距離が時間変化と共に短くなっている場合に、前記第1の興味関心度を第2の興味関心度とする処理部と、前記コンテンツと共に、前記視点位置、第1の興味関心度および第2の興味関心度を画面表示する表示処理部とを備えたことを特徴とする。
本発明によれば、まず、被験者に測定用センサやマーカを装着する必要がなく、測定に伴う被験者の負担が軽減された状態の下で、自然な視聴での応答データを取得できることが期待される。次に、測定、解析および表示までの各機能が1台の制御装置に集約されているため、特に高度な専門知識を必要とすることなく、コンテンツに対する被験者の応答を評価することができる。
また、被験者の瞬目の発生頻度を測定、解析した場合には、コンテンツに対して興味を持たれたか、あまり興味をもたれなかったかなどを判断し、被験者の応答が正当なものかどうかを評価することができる。
本発明において、コンテンツは、映像データ、音響データ、ウェブページデータ、コンピュータゲームデータまたはコンピュータプログラムの出力するデータから成り、かつ、文字列、図、記号、絵、写真、動画および音のうちの少なくとも一つの、被験者に応答させるための喚起情報を含むことを特徴とする。これにより、被験者は、容易に応答することができる。
また、本発明において、前記処理部は、眼球画像に基づいて、前記瞳孔径の代わりに瞬目発生頻度を求め、前記瞬目発生頻度に基づいて、前記第1の興味関心度を算出することを特徴とする。また、本発明による制御装置は、コンテンツを観察している被験者の応答を評価するために用いる制御装置であって、前記コンテンツには、前記被験者により選択操作が行われる選択肢が含まれ、前記被験者が前記コンテンツを見ているときに撮影された前記被験者の眼球画像、および前記選択肢を選択するための確定操作を取り込む情報取込部と、前記眼球画像に基づいて、前記被験者の視点位置を算出すると共に、前記眼球画像に基づいて、瞳孔径を求め、前記瞳孔径に基づいて、前記被験者による前記コンテンツに対する第1の興味関心度を算出する処理部と、前記コンテンツと共に、前記視点位置および第1の興味関心度を画面表示し、さらに、前記視点位置に基づいて、前記選択肢を示す領域内に前記被験者の視点があったときの前記第1の興味関心度を積算し、前記積算値を注目滞留度として前記選択肢毎に求め、前記確定操作によって選択肢が選択されたときの前記選択肢の確信度を、前記選択肢についての前記注目滞留度が高いときは高くなり、前記注目滞留度が低いときは低くなるように、前記選択肢毎に算出し、前記選択肢毎の確信度を複数の被験者のそれぞれに対して算出し、前記選択肢毎の確信度と前記確信度が算出された被験者の数との関係を画面表示する表示処理部とを備えたことを特徴とする。
本発明によれば、コンテンツに対する被験者の応答の結果を評価する際に、結果の有効性および操作性を向上させることができる。
次に、図面を参照しながら、本発明を実施するための最良の形態について説明するが、本発明はこれに限定されるものではない。
図1に示すように、このコンテンツに対する利用者応答を評価するシステムは、その基本的な構成要素として、コンテンツ提示用のディスプレイ100と、被験者600の眼球を撮像するためのカメラ200と、制御手段300と、提示コンテンツ用データベース310と、取得データ用データベース320と、表示手段としてのモニタ画面400と、被験者600が提示コンテンツに対して応答するための入力手段500とを備えている。
コンテンツ提示用のディスプレイ100は、通常のブラウン管受像器のほかにプロジェクタのスクリーン画面それに液晶表示パネルなどを使用できる。カメラ200は、赤外線ランプ210を備えた赤外線カメラであることが好ましく、この例では、赤外線カメラとして説明する。
一例として、赤外線カメラ200は、被験者600から50〜100cmほど離れた位置に、被験者600の眼球を撮像するようにスタンドなどを用いてセットされる。なお、被験者600の頭部の位置を固定するために、顎台220を用意することもできる。また、顔と眼球の位置を自動追尾し眼球運動を計測することも可能である。
これとは別に、ヘッドマウント型装置を用いて赤外線カメラ200を被験者600の頭部に装着させることも可能である。この場合、視聴する対象を、予め撮影した映像とするのではなく、被験者600が視認可能な一般の情景とすることも可能である。その際には、赤外線カメラ200と逆向きに装着させるカメラにより被験者600の視野角内にある情景が同時に撮影され、その撮影された映像が、提示コンテンツと同等のものとして後述する処理に用いられる。
制御手段300は、提示コンテンツ用データベース310からコンテンツを読み出して、ディスプレイ100に対して提示コンテンツを出力し,同時に、被験者応答入力手段500からの被験者応答情報と、赤外線カメラ200からの眼球画像である眼球運動情報の取り込みとを同期して行うと共に、これら取得したデータを取得データ用データベース320に同期情報と共に蓄積する。そして、取得したデータに基づいてデータ解析およびモニタ表示などを行う。この制御手段300は、パーソナルコンピュータ(パソコン)クラスのものであってよい。入力手段500は、ボタン、キーボード、マウス、タッチパネル、リモコン、ゲーム機器に付属のコントローラなどのどれかであってよい。しかし、これらのうちのいずれかに限定されるものではない。
なお、提示コンテンツ用データベース310と取得データ用データベース320は、インターネットやLANなどのネットワークで接続された、制御手段300とは異なる場所に設置される装置であってよい。
すなわち、例えば異なる場所にホストコンピュータを設置して、そこに上記各フェーズで使用するファイルを持たせ、測定する際に、制御手段300を通信回線を介してホストコンピュータにつなげて必要なファイルなどをダウンロードするようにしてもよく、このような態様も本発明に含まれる。
また、本発明は、大型のディスプレイを備えた例えばデスクトップ型のコンピュータばかりでなく、カメラを備えた携帯電話機をはじめとする携帯情報端末にも適用可能である。一例として、上記の各フェーズ機能を備えた制御手段としてのパソコンとカメラ付き携帯情報端末とをインターネット回線を介して接続し、パソコン側から提示コンテンツを送信して、携帯情報端末側からそれに反応する眼球画像を受信するようにしてもよい。
次に、被験者の回答データの有効性を確認する手法について説明する。一例として、説明文である質問とそれに対する回答の選択肢とを画面に表示したアンケートにより、被験者からマウス応答を得るための提示コンテンツを用いる。
図2および図3が、図1に示した利用者応答評価システムにより生成された画面例である。生理反応としての眼球運動の解析結果から得る視点の軌跡を折れ線1010、1110に、選択結果をマウスクリックした箇所1020,1120に示している。この結果からわかるとおり、図2においては問題文を読みかつ二つの選択肢を確認したうえで選択している。一方で図3は問題文も読まず、単にひとつの選択肢だけを見ただけで選択している。この場合、図3の示す例では提示コンテンツに注目せずに反応していることが明確であるため、有効なデータでないとしてアンケート調査のサンプルから排除することが可能である。
このときの有効であるかどうかの判定としては、問題文の上を視線が忠実に移動したかどうかを、視線運動による視点の軌跡と提示コンテンツの文字列との一致度を測定することで判定する。
また、同時に瞳孔径の大小変動は、提示コンテンツに対して興味をもっている(または注目している)かどうかを示す指標として利用可能であることが知られており、この指標を用いてアンケートに対しての注目度を判断する。
眼球運動に基づいて得られる、瞬目発生頻度データ、瞳孔径データ、視線運動データに基づく視点の移動速度、および視線運動データから得られる視点の軌跡と予め設定された見るべき視点の軌跡との距離をそれぞれ時間変動値とし、それぞれ、a(t),b(t),c(t),d(t)とする(d(t)は軌道からの外れた距離の逆数を示す)。なお、瞳孔径データの代わりに瞳孔面積データを用いるようにしてもよい。そうすると、提示コンテンツに対する注目度および集中度などを示す興味・関心度の時間変動f(t)は、
f(t)=g(a(t)、b(t),c(t),d(t))
として定義し、この数値の大小により、ある時刻tでの被験者の提示コンテンツに対する興味・関心度を測定できる。
ここで、p,q,r,sを定数として、w,x,y,zを変数とする関数g(w,x,y,z)を線形結合により、
g(w,x,y,z)=p・w+q・x+r・y+s・z
と定義して単純化することもできるし、w,x,y,zの任意の関数とすることもできる(条件判定つき多項式などの非線形関数でもよい)。
また、f(t)をある特定時間の間で積分し、その積分値を単位時間当たりに正規化した数値として用いることで、その時間の区間での集中度とすることも可能である。例えば、アンケートの設問毎に応答時の集中度を算出し、あらかじめ設定した閾値以上であるかどうかを比較して被験者の応答が有効であるかどうかを判定できる。
また、設問に対する集中度が低いと判定した場合には、興味・関心度を高めるようにあらかじめプログラムで組み込んでおき、制御手段300が提示コンテンツを変化させるよう制御することも可能である。
なお、被験者600の眼球を撮像するための撮像手段は、例えば瞬目発生頻度のみを測定するのであれば、通常のカメラを使用してもよいが、瞳孔径や視線運動を測定するには、赤外線カメラが好ましく採用される。赤外線カメラによれば、虹彩に写り込んだ外部映像を排除した高コントラスト画像が得られるため、画像処理およびデータ解析を安定かつ高速に実行することができる。
また、制御手段300は、上記生理反応データをパラメータとする多項式または判定式を用いて測定時の被験者の興味・関心度を算出し、被験者が提示コンテンツに対して継続して集中しているかどうかを判定して、被験者応答データの有効性を確認する機能を有している。そして、その有効性に基づいて提示コンテンツのシナリオを変更させることが可能である。
また、制御手段300は、提示コンテンツと、それに対応する被験者応答データおよび生理反応データとを関連付けて取得するが、眼球運動の前後関係を知るうえで、提示コンテンツないし眼球運動データを時系列的に表示するようにし、しかも所定のコンテンツの長さにわたってスクロール可能であることが好ましい。
また、データの解析により回答結果に高い信頼性を持たせるため、制御手段300は、眼球運動データから被験者の注視点位置を算出し、その注視点を提示コンテンツにスーパーインポーズして表示させることもできる。
〔制御手段〕
次に、図1に示した制御手段300の詳細について、より具体的に説明する。図4は、制御手段300の構成を示す図である。この制御手段300は、コンテンツ読出表示手段330、情報取込手段340、データ処理手段350、および表示処理手段360を備えている。コンテンツ読出表示手段330は、提示コンテンツ用データベース310からコンテンツを読み出し、被験者600にコンテンツを提示するための提示用ディスプレイ100に出力して表示する。また、コンテンツ読出表示手段330は、読み出したコンテンツを表示処理手段360に出力すると共に、コンテンツにおけるフレームの番号などの時間情報を情報取込手段340に出力する。この時間情報は、情報取込手段340において、被験者応答情報aおよび眼球運動情報bとの間の同期情報を生成するために用いられ
る。
情報取込手段340は、マウスカーソル位置(座標)およびマウスクリック位置(座標)を含む被験者応答情報aを、被験者600のマウス操作およびクリック操作に応じてそれぞれ入力すると共に、カメラ200により撮影された眼球画像である眼球運動情報bを入力する。また、情報取込手段340は、コンテンツの時間情報をコンテンツ読出表示手段330から入力し、被験者応答情報および眼球運動情報とコンテンツとの間の対応付けができるように、入力したコンテンツの時間情報に基づいて同期情報を生成する。そして、情報取込手段340は、被験者応答情報a(マウスカーソル位置およびマウスクリック位置)、眼球運動情報bおよび同期情報を取得データ用データベース320に蓄積すると共に、データ処理手段350に出力する。なお、ここでは、被験者応答情報aを、マウスカーソル位置およびマウスクリック位置としているが、これに限定されるものではない。例えば、図1に示した入力手段500がマウスではなく、ボタン、キーボード、タッチパネル、リモコン、ゲーム機器付属コントローラなどの場合には、被験者600の操作によりこれらの機器から取り込むことが可能な位置情報(マウスカーソル位置に相当する情報およびマウスクリック位置に相当する情報)であってもよい。
データ処理手段350は、被験者応答情報a(マウスカーソル位置およびマウスクリック位置)、眼球運動情報bおよび同期情報を情報取込手段340から入力し、または、取得データ用データベース320から読み出し、コンテンツと共にモニタ画面400に表示するためのデータを生成し、生成したデータを表示処理手段360に出力する。データ処理手段350は、視点・瞳孔・瞬目処理段351、興味・関心度算出段352およびIDASポイント算出段353を備えている。
視点・瞳孔・瞬目処理段351は、情報取込手段340または取得データ用データベース320からの眼球運動情報bおよび同期情報に基づいて、コンテンツに対応したその時間における視線運動データ、瞳孔径データおよび瞬目発生頻度データを算出する。具体的には、視点・瞳孔・瞬目処理段351は、眼球運動情報bである眼球画像から瞳孔画像を抽出し、瞳孔の中心位置および予め設定された画面上の位置情報などに基づいて視点位置を算出する。なお、視点位置の算出手法は公知技術であるので、ここでは詳細な説明を省略する。詳細については、本出願時以前に公開された特開2004−282471号公報を参照されたい。この場合、時間変化における視点位置を算出することにより、視点の移動速度や視点の軌跡などの視線運動データを求めることもできる。また、抽出した瞳孔画像に基づいて、瞳孔径を算出する。さらに、抽出した瞳孔画像の時間的変化に基づいて、瞬目発生頻度を算出する。この場合、瞬目回数を求めることもできる。
興味・関心度算出段352は、視点・瞳孔・瞬目処理段351により算出された瞳孔径を用いて、興味・関心度を算出する。具体的には、P(t)を時刻tにおける瞳孔径、I(t)を時刻tにおける興味・関心度とすると、興味・関心度算出段352は、まず、瞳孔径P(t)に対して、高周波成分および測定ノイズを除去するために、移動平均などの演算を施すことにより、低域フィルタ処理を行う。
そして、興味・関心度算出段352は、以下の式により、興味・関心度I(t)を算出する。
P(t)>thのとき、
Figure 0004874332
それ以外のとき、
Figure 0004874332
ここで、所定時間内における測定データ系列中の瞳孔径P(t)の最大値をPmax、最小値をPmin、閾値をthとする。
閾値thは、例えば以下の式のように、最大値Pmaxと最小値Pminとの間の中間値が用いられる。
Figure 0004874332
なお、興味・関心度算出段352は、視点・瞳孔・瞬目処理段351により算出された瞬目発生頻度が、予め設定された閾値よりも大きいか否かを判断し、連続的に閾値よりも大きくなっている連続的瞬目発生区間については興味・関心度I(t)を強制的に0にするようにしてもよい。
IDASポイント算出段353は、I(Interest:興味関心)ポイント、D(Desire:願望要求)ポイント、A(Action:行動結果)ポイントおよびS(Stay:「滞留時間」)を算出する。
具体的には、IDASポイント算出段353は、Iポイントの算出に際し、興味・関心度算出段352により算出された興味・関心度I(t)の視点を中心とした領域において、以下の条件を満足する場合の視点位置および興味・関心度I(t)をIポイントとして生成する。
すなわち、視点・瞳孔・瞬目処理段351により算出された視点位置に対し、所定の時間Δtにおける視点位置の移動量Δd(視点位置の移動速度)が、以下の式のように、予め設定された閾値thvよりも小さいか否かを判断する。
Figure 0004874332
また、興味・関心度I(t)が、以下の式のように、予め設定された閾値thi以上であるか否かを判断する。
Figure 0004874332
つまり、IDASポイント算出段353は、Iポイントの算出に際し、視点位置の移動速度が、予め設定された閾値thvよりも小さく、かつ、興味・関心度I(t)が、予め設定された閾値thi以上である場合に、Iポイントとして視点位置およびそのときの興味・関心度I(t)を生成する。
ここで、Iポイントは、興味・関心があったときに瞳孔が散大する原理を活用して抽出される、被計測物であるコンテンツに対する瞳孔の散大ポイントであり、視覚的効果に対する反応を分析するために用いられる。
また、IDASポイント算出段353は、Dポイントの算出に際し、前述のように生成したIポイントに対して、以下の条件を満足する場合の視点位置および興味・関心度I(t)をDポイントとして生成する。
すなわち、第1の条件は、Iポイントであることである。そして、第2の条件は、Iポイントにおける視点位置
Figure 0004874332
と、マウスカーソル位置
Figure 0004874332
との間の距離が、以下の式のように、予め設定された閾値thCIよりも短いこと、
Figure 0004874332
および、その距離が、以下の式のように、時間変化と共に短くなっていることである。
Figure 0004874332
すなわち、IDASポイント算出段353は、Dポイントの算出に際し、Iポイントにおいて、その視点位置とマウスカーソル位置との間の距離が閾値thCIよりも短く、かつ、その距離が時間的に短くなっている場合に、Dポイントとして視点位置およびそのときの興味・関心度I(t)を生成する。
ここで、Dポイントは、Iポイントを追いかけるようにマウスカーソル位置が一致したポイントであり、マウスクリックアクションの前段階として捉えて抽出され、被験者600がマウスをクリックするかしないかの「迷い」やIポイントから一段階進んだ「行動誘導」のポイントを分析するために用いられる。
また、IDASポイント算出段353は、入力したマウスカーソル位置である、Iポイントを含むリンクボタンなどの操作対象に対して、Aポイントとして被験者600が発火した位置およびそのときの興味・関心度I(t)を生成する。
ここで、Aポイントは、被験者600の行動結果である「クリック」したポイントが抽出され、コンテンツ制作・運営の目的どおりに被験者を誘導できているか否かを分析するために用いる。
また、IDASポイント算出段353は、前述のように生成したIポイント、Dポイントについて、視点位置が滞留した時間Sを算出する。また、前述のように生成したAポイントについて、マウスクリックされたマウスカーソル位置(マウスクリック位置)が滞留した時間Sを算出する。具体的には、視点位置およびマウスカーソル位置が、予め設定された位置範囲内にあるか否かを判断し、その位置範囲内にある場合の滞留時間Sを算出する。
ここで、滞留時間Sは、Iポイント、DポイントおよびAポイントに付加されるデータであり、例えば、テキストを読むという「行動」や「迷い」など、時間軸における分析のために用いられる。
このように、データ処理手段350は、視点・瞳孔・瞬目処理段351により算出された視点位置、瞳孔径および瞬目発生頻度、興味・関心度算出段352により算出された興味・関心度、並びに、IDASポイント算出段353により算出されたIポイント(視点位置,興味・関心度)、Dポイント(視点位置,興味・関心度)、Aポイント(マウスクリック位置,興味・関心度)およびS(視点位置,マウスクリック位置,滞留時間)を表示処理手段360に出力すると共に、入力した被験者応答情報a(マウスカーソル位置およびマウスクリック位置)および同期情報を表示処理手段360に出力する。
表示処理手段360は、コンテンツをコンテンツ読出表示手段330から入力し、マウスカーソル位置、マウスクリック位置、同期情報、視点位置、瞳孔径、瞬目発生頻度、興味・関心度、Iポイント(視点位置,興味・関心度)、Dポイント(視点位置,興味・関心度)、Aポイント(マウスクリック位置,興味・関心度)およびS(視点位置,マウスクリック位置,滞留時間)をデータ処理手段350から入力する。そして、同期情報に基づいてコンテンツとマウスカーソル位置などとを対応付け、画面に表示するための情報を生成し、画面情報としてモニタ画面400に出力して表示する。表示処理手段360は、コンテンツ評価段361、WEB評価段362、アンケート評価段363、教育・研修用処理段364、および投稿コンテンツ評価段365を備えている。
図5および図6は、コンテンツ評価段361により生成された画面例を示す図である。これらの画面は、コンテンツに対する感性を計測するためのものであり、これらの画面により、コンテンツ提供者の意図と受験者600である視聴者の興味や関心とが狙いどおりの効果を発揮しているか否か、また、注目点がターゲットを適確に捉えているか否かと解析・分析することができる。
図5において、コンテンツ評価段361は、コンテンツ画像を領域5001に表示し、そのときのIポイントを円の形態にて表示する。また、Iポイントの興味・関心度をパワーゲージ5003−1,2に表示し、興味・関心度の時間的変化をグラフ5004−1,2およびグラフ5005−1,2に表示する。領域5001において、視点位置に、興味・関心度の大きさに比例した径(直径または半径)の円が表示される。円5002−1は第1の被験者の興味・関心度を示し、円5002−2は第2の被験者の興味・関心度を示す。これらの円は、コンテンツ画像の時間的変化(動画像として領域5001に表示される画像が変わること)に伴う視点の軌跡どおりに、そのときの興味・関心度の値が径に反映されながら移動する。パワーゲージ5003−1は第1の被験者の興味・関心度、パワーゲージ5003−2は第2の被験者の興味・関心度を示す。グラフ5004−1,2は、それぞれ第1,2の被験者の興味・関心度の推移が時系列の折線として表示される。グラフが表示されている領域内のタイムバーは、領域5001に表示されているコンテンツ画像に連動しており、そのときの時間位置および興味・関心度を示している。グラフ5005−1,2は、それぞれグラフ5004−1,2内のカーソル付近(現在点付近)の興味・関心度について横軸の時間を拡大したものである。また、グラフ5004−1,2およびグラフ5005−1,2が表示されている領域内のタイムバーを移動させることにより、その時間位置におけるコンテンツ画像およびIポイントが領域5001に表示される。
図6において、コンテンツ評価段361は、コンテンツのサムネイルを時系列に領域6001に表示し、コンテンツに付加された音声周波数のデータを、右(R)の音声周波数の波形グラフ6002−1および左(L)の音声周波数の波形グラフ6002−2として表示する。また、コンテンツ評価段361は、それぞれの被験者の興味・関心度の時間的変化をグラフ6003〜6006として表示する。この場合、横軸は時間を示し、コンテンツのサムネイル、音声周波数の波形グラフ6002−1,2、およびグラフ6003〜6006は同じ時間軸上に対応して表示される。
図7〜図10は、WEB評価段362により生成された画面例を示す図である。これらの画面は、WEB(ウェブページ)画面に対する感性を計測するためのものであり、これらの画面により、被験者600であるユーザがWEB画面内で多く見ていた場所、注目していた場所、マウスカーソルの動きなどを明らかにすることができる。
図7において、WEB評価段362は、コンテンツであるWEB画面を表示し、その画面における視点の軌跡7001を表示すると共に、Iポイントを円の形態にて表示する。Iポイントは、その視点位置に、興味・関心度の大きさに比例した径の円として表示される。図7から、WEBサイトのページ毎の視点の軌跡やIポイントの推移および興味・関心度を把握することができ、ユーザの興味関心の推移を分析することができる。
なお、WEB評価段362は、視点の軌跡7001を表示するに際し、その視点移動の速度に応じた形態で表示するようにしてもよい。一般に、人が画面上の対象物を認識する際に、視点の軌跡は、滞留→速い移動→滞留を繰り返すこととなる。この視点の軌跡から以下の傾向を導き出すことができる。
(1)興味ある箇所では視点の滞留時間が長くなる。
(2)全体的に認識しようとする場合、速い視点移動となる。視点の軌跡は直線になる。
(3)じっくりと見ようとする場合や読もうとする場合、視点移動は遅くなる、または滞留する。視点の軌跡は曲線になる。
WEB評価段362は、前述の(1)〜(3)を区別するための処理を行い画面に表示する。具体的には、視点の軌跡7001から一定のサンプリングにおける標本を選定し、隣り合う標本点間の距離を算出し、その距離が予め設定された閾値よりも大きい場合の標本間を点線で表示し、その距離が予め設定された閾値以下の場合の標本間を実線で表示する。これにより、(2)および(3)を区別することができる。この場合、点線および実線の代わりに線の太さで区別するようにしてもよい。また、(1)についてはIポイントを表示する。なお、このような(1)〜(3)を区別するための表示処理については、WEB評価段362による処理だけでなく、視点の軌跡を表示する処理(図11、図12など)についても適用がある。また、後述する、マウスカーソル位置の軌跡を視点の軌跡とみなして表示する処理(図19など)についても適用がある。
図8において、WEB評価段362は、コンテンツであるWEB画面を表示し、その画面における視点の軌跡8001を表示すると共に、Iポイント、DポイントおよびAポイントを円の形態にて表示する。Iポイント、DポイントおよびAポイントは、その視点位置に、興味・関心度の大きさに比例した径の円として表示される。図8から、WEBサイトのページ毎に、I(興味関心)→D(願望欲求)→A(行動結果)というユーザの感情の推移を分析することができる。
図9において、WEB評価段362は、コンテンツであるWEB画面を表示し、その画面の領域a〜hにおける滞留時間を表示する。この場合、WEB評価段362は、領域a〜h毎に、入力した時系列の視点位置に基づいて、その視点位置の滞留時間を算出する。領域a〜hは、予め設定されており、滞留時間は、視点位置がそれぞれの領域a〜hに滞留した積算時間を示す。
図10において、WEB評価段362は、アンケート質問および回答形式のWEB画面に対する被験者600であるユーザの応答から、データを集計して表示する。具体的には、回答をマウスクリックで選択する場合に、視点位置がどちらの回答の側に滞留していたかを示す回答度合いを滞留時間として積算し、予め設定された重み係数を用いて補正して表示する。図10の左側には、複数の被験者600の回答に対する度合いの集計結果が表示されている。また、図10の右側には、複数の被験者600の回答に対する度合いの頻度がグラフとして表示されている。図10から、アンケート質問に対するアクションである回答の有効性を、ユーザが選択する際の感性を含めて、一層正確に分析することができる。
図11、図12、図23ないし図27は、アンケート評価段363により生成された画面例を示す図である。これらの画面は、アンケート質問および回答形式の画面に対する感性を計測するためのものである。
図11において、アンケート評価段363は、コンテンツの画面を表示し、その画面における視点の軌跡11001を表示する。図11に示した画面は、質問に関する商品が表示され、アンケート質問および回答形式で構成されている。図11から、商品を見ながら回答しているか否か、視点の軌跡から有効な回答か否かを判断することができ、商品を見ない回答および有効でない回答を抽出して回答集計から除外することにより、回答集計結果の有効性を向上させることができる。
図12において、アンケート評価段363は、コンテンツの画面を表示し、その画面における視点の軌跡を表示すると共に、Iポイントを円の形態にて表示する。図12に示した画面は、図11と同様に、商品が表示され、アンケート質問および回答形式で構成されている。図12から、例えば、回答が「はい」「いいえ」「どちらでもない」の3択である場合に、視点の軌跡およびIポイントの円の大きさにより、その回答が「自信をもった回答」であるか「迷い回答」であるかを判断することができる。図12の実線で示す視点の軌跡の回答の場合は、視点の軌跡が複数の回答の間で行き来していないから、「自信をもった回答」であると判断できる。一方、点線で示す視点の軌跡の回答の場合は、視点の軌跡が複数の回答の間で行き来しているから、「迷い回答」であると判断できる。
図23および図24において、コンテンツ読出表示手段330が図23に示すコンテンツを提示用ディスプレイ100に出力して表示し、被験者600によりAまたはBの仮選択操作(関心の高い方の枠内にマウスのカーソルを置いてクリック操作(選択操作した後にキャンセルして再選択する操作を含む))が行われ、選択されたことを示す表示(枠に色を付ける、枠を太くする表示など)がなされ、そして選択の確定操作が行われると、情報取込手段340およびデータ処理手段350が前述した各種処理を行う。このような処理を複数の被験者600を対象にして行い、複数の被験者600による被験者応答情報aおよび眼球運動情報bが取得され格納される。この場合、情報取込手段340は、被験者応答情報aとして、最終的に被験者600が選択した確定操作(AまたはB)の情報だけでなく、確定操作の前の仮選択操作の情報およびその回数(Aを選択した回数およびBを選択した回数)の情報も取り込む。
図24は、アンケート評価段363により生成された画面例(選択肢が2つの場合)を示す図である。アンケート評価段363は、コンテンツの画面、その画面における視点の軌跡、並びに、興味・関心度の度合いに応じて円の形態に表したIポイントおよびAポイントを合成した画面情報を生成して表示する。図24において、中抜きの円が仮選択操作時の注目点を示すIポイントであり、斜線の円が確定操作時の注目点を示すAポイントである。図24によれば、被験者600が確定操作までの間に、どの箇所に注目していたかが明確になる。
また、アンケート評価段363は、被験者600毎に、被験者応答情報aに基づいてA,Bの選択を区別して確信度を算出し、A,Bを選択した被験者600をそれぞれ集計して確信度の頻度分布および平均値などを算出する。確信度の算出手法については後述する。そして、これらの算出データを用いて確信度の頻度分布グラフを生成し、図25に示す画面を表示する。
図25において、横軸は確信度を示しており、縦軸は選択した人数の割合を示している。つまり、この折線グラフは、左半分にAの確信度頻度分布(中心部分から左に向かって確信度は高くなる。)を、右半分にBの確信度頻度分布(中心部分から右に向かって確信度は高くなる。)をそれぞれ示している。また、点線は、それぞれの確信度頻度分布における確信度の平均値を示している。確信度の頻度分布グラフの下に表示されたバーグラフは選択率を示している。
図25によれば、選択肢Aの確信度の平均値が77、選択肢Bの確信度の平均値が49であり、Aを選択した被験者600は全体の70%であり、確信度が比較的高いことがわかる。このように、A,Bをそれぞれ選択した被験者600における確信度の平均値および頻度分布がわかり、被験者600の選択の傾向を分析することができ、コンテンツのデザイン評価などに新たな指標を追加することができる。
次に、選択肢が2つ(A,B)の場合における確信度の算出手法について説明する。ある被験者600において、領域A,Bに対する計測中のサンプル時刻iにおける興味・関心度をIA(i),IB(i)とすると、注目滞留度GA,GBを以下の式により算出する。
Figure 0004874332
Figure 0004874332
ここで、滞留点判定値δA(i),δB(i)、すなわちδpは以下のように定義される。
Figure 0004874332
滞留点判定値δpは、視点が領域内に存在する場合に1、領域外に存在する場合に0であることを示している。
そして、選択肢Aへの(選択肢Bに対する)注目偏度DA、および、選択肢Bへの(選択肢Aに対する)注目偏度DBを以下の式により算出する。
Figure 0004874332
Figure 0004874332
ここで、注目偏度DA,DBの値域は[0,1]である。
そして、選択肢A,Bを仮選択した回数をそれぞれCA,CBとすると、Aを選択した場合の選択偏度kA、および、Bを選択した場合の選択偏度kBを以下の式により算出する。
Figure 0004874332
Figure 0004874332
ここで、選択偏度kA,kBは、確定操作による最終選択までの仮選択操作の回数を評価し、確信度を重み付けするための係数であり、その値域は(0,1)である。この選択偏度kA,kBは、確定操作による最終選択と異なる選択肢を選択すればするほど、その値が小さくなる。
そして、確定操作による最終選択肢がAである場合の確信度waA、および、確定操作による最終選択肢がBである場合の確信度waBを、注目偏度DA,DBおよび選択偏度kA,kBから以下の式により算出する。
Figure 0004874332
Figure 0004874332
ここで、確信度waA,waBの値域は[0,100]であり、その値が大きいほど確信度が高い。
次に、選択肢が3以上の場合における確信度の算出手法について説明する。この説明は、前述した選択肢が2の場合にも適用がある。以下、領域j(0≦j≦n)は、選択肢jを囲む四角形で囲まれた部分とする。ある被験者600において、領域Pに対する計測中のサンプル時刻iにおける興味・関心度をIp(i)とすると、注目滞留度GPを以下の式により算出する。
Figure 0004874332
ここで、滞留点判定値δP(i)、すなわちδpは以下のように定義される。
Figure 0004874332
滞留点判定値δpは、視点が領域内に存在する場合に1、領域外に存在する場合に0であることを示している。
画面中の領域jに対する注目滞留度Gjは以下のとおりである。
Figure 0004874332
そして、選択肢jへの(全選択肢に対する)注目偏度Djを以下の式により算出する。
Figure 0004874332
ここで、注目偏度Djの値域は[0,1]である。
そして、選択肢jを仮選択した回数をそれぞれCjとすると、jを選択した場合の選択偏度kjを以下の式により算出する。
Figure 0004874332
ここで、選択偏度kjは、確定操作による最終選択までの仮選択操作の回数を評価し、確信度を重み付けするための係数であり、その値域は(0,1)である。この選択偏度kjは、確定操作による最終選択と異なる選択肢を選択すればするほど、その値が小さくなる。
そして、確定操作による最終選択肢がjである場合の確信度wajを、注目偏度Djおよび選択偏度kjから以下の式により算出する。
Figure 0004874332
ここで、確信度wajの値域は[0,100]であり、その値が大きいほど確信度が高い。
このように、アンケート評価段363は、被験者600毎に、被験者応答情報aに基づいてj(2以上の選択肢)の選択を区別して確信度を算出し、jを選択した被験者600をそれぞれ集計して確信度の頻度分布および平均値などを算出する。そして、これらの算出データを用いて確信度の頻度分布グラフを生成し、表示する。
図26および図27は、アンケート評価段363により生成された画面例(選択肢が4つの場合)を示す図である。アンケート評価段363は、コンテンツの画面、その画面における視点の軌跡、並びに、興味・関心度の大きさに応じて円の形態に表したIポイントおよびAポイントを合成した画面情報を生成して表示する。図において、中抜きの円が仮選択操作時の注目点を示すIポイントであり、斜線の円が確定操作時の注目点を示すAポイントである。本図によれば、被験者600が確定操作までの間に、どの箇所に注目していたかが明確になる。また、視点の軌跡およびIポイントの表示から、図26では、視点の動きが多く仮選択の数も多いことから、「迷い回答」(迷いの多い回答)であることがわかる。また、図27では、視点の動きが少なく仮選択の数も少ないことから「自信をもった回答」(迷いの少ない回答)であることがわかる。
図13および図28は、教育・研修用処理段364により生成された画面例を示す図である。この画面は、安全教育などの様々な教育および研修に対し、感性計測という指標を加えたものである。
図13において、教育・研修用処理段364は、コンテンツを領域1301に表示し、そのときのIポイントを円の形態にて表示する。また、興味・関心度(注目度)をパワーゲージ1303−1,2に表示し、興味・関心度(注目度)の時間的変化をグラフ1304−1,2およびグラフ5005−1,2に表示する。図13に示す領域1301、パワーゲージ1303−1,2、グラフ1304−1,2、グラフ1305−1,2は、図5に示した領域5001、パワーゲージ5003−1,2、グラフ5004−1,2、グラフ5005−1,2にそれぞれ相当する。図13に示す画面は、図5に示した画面と同じ構成および内容であるので、ここでは説明を省略する。図13では、熟練運転者を第1の被験者とし、無免許運転者を第2の被験者とした場合の興味・関心度(注目度)の時間変化がグラフ5004−1,2にそれぞれ示されている。このグラフから、熟練運転者の興味・関心度(注目度)は比較的平均しているのに対し、無免許運転者の興味・関心度(注目度)は平均しておらず変動が激しいことがわかる。
図28において、教育・研修用処理段364は、図13に示した画面情報を生成して表示する際に、さらに、コンテンツに付随した危険指示情報を危険指示表示1306として表示する。この場合、教育・研修用処理段364が入力するコンテンツには危険指示情報が含まれており、この危険指示情報は、危険であることを判断すべきタイミングで表示されるようになっている。また、被験者600が、コンテンツを見て危険であると判断したときにマウス操作などによりボタンを押下すると、教育・研修用処理段364は、危険であると判断したことを示す被験者応答情報aを入力し、そのボタン押下したタイミングでボタン押下表示1307を表示する。このように、車の運転教育を受ける被験者600は、コンテンツを見ながら危険を判断した場合に、マウス操作などによりボタンを押下する。このとき、教育・研修用処理段364は、車の運転教育を受ける被験者600の感性を、危険指示表示1306の表示タイミングと、被験者600のボタン操作などによるボタン押下タイミングとにより計測することができる。また、被験者600は、これらの表示タイミングを確認することにより、自らによる車の運転が安全であるか否かを判断することができる。
図14は、投稿コンテンツ評価段365を用いる場合のネットワークシステムの構成例を示す図である。このネットワークシステムは、図1に示したコンテンツの利用者応答評価システムが設置された感性計測設備と、投稿コンテンツ評価サービスを受ける利用者(投稿者)が操作するPC(パーソナルコンピュータ)またはモバイル端末とから構成され、感性計測設備内の利用者応答評価システムとPCまたはモバイル端末とがインターネットにより接続される。
PCなどは、投稿コンテンツ評価サービスを受ける利用者の操作により、指定された被験者600の年代情報、評価される画像などをインターネットを介して利用者応答評価システムへ送信する。この場合、利用者は本サービスの会員になってIDおよびパスワードを感性計測設備の制御手段300に予め登録しておき、利用者のメールアドレスと関連付けておくようにしてもよい。利用者応答評価システムは、これらの情報を受信し、指定された年代の複数の被験者600、または評価される画像コンテンツの分野における指導者などの当業者から情報を収集して診断結果を生成し、その診断結果(評価した画像、視点の軌跡、興味・関心度など)を、インターネットを介してPCなどへ返信する。この場合、診断結果をメールに添付し、利用者のメールアドレス宛に返信するようにしてもよい。
図15は、図14に示した感性計測設備内の利用者応答評価システムにおける投稿コンテンツ評価段365により生成された画面例を示す図である。投稿者により送信された自らの写真の画像に基づいて評価した結果が、顔の視点位置に円の形態で表示されているIポイント、および画面右側に表示されている複数の被験者600によって集計された情報である。利用者応答評価システムは、投稿者により送信された画像を提示コンテンツ用データベース310に蓄積すると、コンテンツ読出表示手段330、情報取込手段340およびデータ処理手段350により、被験者応答情報aおよび眼球運動情報bを、対象となった複数の被験者600から取り込み、被験者600毎に視点位置、瞳孔径、興味・関心度、Iポイントなどの各種データを生成する。そして、表示処理手段360の投稿コンテンツ評価段365は、複数の被験者600の視点位置、瞳孔径などの各種データに基づいて、画面に表示するためのIポイントを集計し、顔の部位(右目、左目など)毎に興味・関心度を集計する。なお、投稿コンテンツ評価段365は、図24ないし図27に示した画面情報を生成し、これらの情報を診断結果としてPCなどへ返信し、診断結果を利用者へ提示するようにしてもよい。
〔変形例〕
次に、利用者応答評価システムの変形例について説明する。図16は、本発明の実施の形態によるコンテンツの利用者応答評価システムの基本的な構成(他の構成)を示す模式図である。図16に示すように、この利用者応答評価システムは、その基本的な構成要素として、コンテンツ提示用のディスプレイ100と、制御手段301と、提示コンテンツ用データベース310と、取得データ用データベース320と、表示手段としてのモニタ画面400と、被験者600が提示コンテンツに対して応答するための入力手段500とを備えている。図1に示した利用者応答評価システムと図16に示す利用者応答評価システムとを比較すると、図16では被験者600の眼球を撮像するためのカメラ200、それに伴う赤外線ランプ210および顎台220を備えていない点で相違する。ディスプレイ100、提示コンテンツ用データベース310、取得データ用データベース320、モニタ画面400および入力手段500は、図1に示したそれらと同等であるから、ここでは説明を省略する。
図16に示す利用者応答評価システムは、マウスカーソル位置の軌跡と視点の軌跡とが同等であるとみなして、眼球運動情報bを用いることなく被験者応答情報aのみから利用者応答を評価するものである。
〔変形例/制御手段〕
次に、図16に示した制御手段301の詳細について説明する。図17は、制御手段301の構成を示す図である。この制御手段301は、コンテンツ読出表示手段335、情報取込手段370、データ処理手段380、および表示処理手段390を備えている。
コンテンツ読出表示手段335は、提示コンテンツ用データベース310からコンテンツを読み出し、情報取込手段370からマウスカーソル位置を入力し、コンテンツにおける所定のテキストデータに対し、マウスカーソル位置に基づいて、被験者600が認識し難いようにぼかし加工を施し、被験者600にコンテンツを提示するための提示用ディスプレイ100に出力して表示する。また、コンテンツ読出表示手段335は、読み出したコンテンツを表示処理手段390に出力すると共に、コンテンツにおけるフレームの番号などの時間情報を情報取込手段370に出力する。
図18は、コンテンツ読出表示手段335が提示用ディスプレイ100に表示する画面例を示す図である。図18において、テキストデータ「あなたは」「朝食を食べる」「朝食を食べない」は、マウスカーソル位置に応じて、ぼかした形態またはくっきりした形態で表示される。コンテンツ読出表示手段335は、マウスカーソル位置を入力し、マウスカーソル位置とテキストデータの表示位置とを比較し、その間の距離が予め設定された閾値よりも短くなった場合に、そのテキストデータに対して、コンテンツの本来の表示形態になるように、くっきりした形態で表示する。また、その間の距離が閾値以上の場合に、そのテキストデータに対して、ぼかした形態で表示する。例えば、そのテキストデータと白色画像とを画素毎に重ね合わせて(加重平均して)、ぼかした形態で表示する。この場合、一層ぼかした形態で表示するには、白色画像の重みを大きくすればよい。
情報取込手段370は、マウスカーソル位置(座標)およびマウスクリック位置(座標)を含む被験者応答情報aを、被験者600のマウス操作およびクリック操作に応じてそれぞれ入力する。また、情報取込手段370は、コンテンツの時間情報をコンテンツ読出表示手段335から入力し、被験者応答情報aとコンテンツとの間の対応付けができるように、入力したコンテンツの時間情報に基づいて同期情報を生成する。そして、情報取込手段370は、被験者応答情報a(マウスカーソル位置およびマウスクリック位置)および同期情報を取得データ用データベース320に蓄積し、データ処理手段380に出力する。また、情報取込手段370は、被験者応答情報aのうちのマウスカーソル位置をコンテンツ読出表示手段335に出力する。
データ処理手段380は、被験者応答情報a(マウスカーソル位置およびマウスクリック位置)および同期情報を情報取込手段370から入力し、または、取得データ用データベース320から読み出し、コンテンツと共にモニタ画面400に表示するためのデータを生成し、生成したデータを表示処理手段390に出力する。
具体的には、データ処理手段380は、情報取込手段370または取得データ用データベース320からの被験者応答情報aにおけるマウスカーソル位置について、予め設定された移動範囲内において予め設定された時間以上滞留した場合に、その位置を視点滞留点に設定し、その積算した滞留時間を視点滞留時間に設定する。そして、データ処理手段380は、マウスカーソル位置、マウスクリック位置、視点滞留点、視点滞留時間および同期情報を表示処理手段390に出力する。
表示処理手段390は、コンテンツをコンテンツ読出表示手段335から入力し、マウスカーソル位置、マウスクリック位置、視点滞留点、視点滞留時間および同期情報をデータ処理手段380から入力する。そして、同期情報に基づいてコンテンツとマウスカーソル位置などとを対応付け、画面に表示するための情報を生成し、画面情報としてモニタ画面400に出力して表示する。
図19〜図22は、表示処理手段390により生成された画面例を示す図である。これらの画面は、マウスカーソル位置を視点位置とみなし、その位置データに基づいてコンテンツに対する感性を計測するためのものである。これらの画面により、眼球運動情報bを用いることなく、マウスである被験者応答入力手段500からの被験者応答情報aのみにより、簡易な手法で感性計測を実現することができる。
図19において、表示処理手段390は、コンテンツの画面上に、視点位置とみなしたマウスカーソル位置の軌跡を表示する。また、図20において、表示処理手段390は、コンテンツの画面上に、視点滞留点に、その視点滞留時間に比例した面積を有する円を表示する。また、図21において、表示処理手段390は、アンケート質問および回答形式のコンテンツ画面に対する被験者600であるユーザの応答から、データを集計して表示する。具体的には、回答をマウスクリックで選択する場合に、視点位置(とみなしたマウスカーソル位置)がどちらの回答の側に滞留していたかを示す回答度合いを滞留時間として積算し、予め設定された重み係数を用いて補正して表示する。図21の上側には、複数の被験者600の回答に対する度合いの集計結果が表示されている。また、図21の下側には、複数の被験者600の回答に対する度合いの頻度がグラフとして表示されている。図21から、アンケート質問に対するアクションである回答を、ユーザが選択する際の感性を含めて、一層正確に分析することができる。
また、図22において、表示処理手段390は、コンテンツの画面を表示し、視点位置とみなしたマウスカーソル位置の軌跡を表示すると共に、視点滞留点に、その視点滞留時間に比例した面積を有する円を表示する。図22から、例えば、回答が「朝食を食べる」「朝食を食べない」の2択である場合に、視点の軌跡および視点滞留時間を示す円の大きさにより、その回答が「自信をもった回答」であるか「迷い回答」であるかを判断することができる。これは、図12に示したように、視点の軌跡およびIポイントから判断する場合と同様である。
〔他の変形例〕
次に、利用者応答評価システムの他の変形例について説明する。この利用者応答評価システムの他の変形例は、図16に示した構成と同等の構成の下で、被験者600によるマウスなどの画面スクロール操作によって、画面スクロールが停止して表示された部分画面、その部分画面が表示されている滞留時間、および表示された部分画面の順番を画面情報として生成し、利用者応答を評価するものである。
〔他の変形例/制御手段〕
次に、制御手段301について説明する。図17を参照して、この制御手段301は、コンテンツ読出表示手段335、情報取込手段370、データ処理手段380、および表示処理手段390を備えている。
コンテンツ読出表示手段335は、提示コンテンツ用データベース310からコンテンツを読み出し、情報取込手段370から画面スクロール情報を入力し、コンテンツの全体画面のうち画面スクロール情報の示す部分画面を表示するように、提示用ディスプレイ100に出力する。図17において、コンテンツ読出表示手段335は、マウスカーソル位置の代わりに画面スクロール情報を入力する。また、コンテンツ読出表示手段335は、読み出したコンテンツを表示処理手段390に出力すると共に、コンテンツにおけるフレームの番号などの時間情報を情報取込手段370に出力する。
情報取込手段370は、被験者600の操作によるマウスカーソル位置(座標)、マウスクリック位置(座標)および画面スクロール情報を含む被験者応答情報aを、被験者600のマウス操作およびクリック操作などに応じてそれぞれ入力する。以下、被験者応答情報aを画面スクロール情報として説明する。情報取込手段370は、コンテンツの時間情報をコンテンツ読出表示手段335から入力し、被験者応答情報aとコンテンツとの間の対応付けができるように、入力したコンテンツの時間情報に基づいて同期情報を生成する。そして、情報取込手段370は、被験者応答情報a(画面スクロール情報)および同期情報を取得データ用データベース320に蓄積し、データ処理手段380に出力する。また、情報取込手段370は、画面スクロール情報をコンテンツ読出表示手段335に出力する。
データ処理手段380は、被験者応答情報a(画面スクロール情報)および同期情報を情報取込手段370から入力し、または、取得データ用データベース320から読み出し、コンテンツと共にモニタ画面400に表示するためのデータを生成し、生成したデータを表示処理手段390に出力する。
具体的には、データ処理手段380は、情報取込手段370または取得データ用データベース320からの画面スクロール情報に基づいて、画面がスクロールしないで停止して表示されている時間を計測する。そして、画面がスクロールしないで停止している位置、その場合の滞留時間(停止時間)および停止位置の順番を算出し、被験者応答情報a、同期情報、停止位置、停留時間および停止位置の順番を表示処理手段390に出力する。
表示処理手段390は、コンテンツをコンテンツ読出表示手段335から入力し、被験者応答情報a、同期情報、停止位置、停留時間および停止位置の順番をデータ処理手段380から入力する。そして、同期情報に基づいてコンテンツと停止位置などとを対応付け、コンテンツの全体画面のうち停止位置の示す部分画面を特定すると共に、その滞留時間および順番を含む情報を生成し、画面情報としてモニタ画面400に出力して表示する。
図29は、表示処理手段390により生成された画面例を示す図であり、スクロール停止位置の推移とその滞留時間を表示する画面例であることを示している。図29によれば、コンテンツの全体画面のうちの画面スクロール停止位置29001〜29003により表される部分画面が、この順番で表示されたことがわかる。また、それぞれの滞留時間が10秒、30秒、20秒であることがわかる。これにより、視点の軌跡や興味・関心度が表示されなくても、被験者600がその領域をどの程度注目していたかについて分析することができる。
以上説明したように、本発明の実施の形態によれば、被験者600に評価すべきコンテンツを提示し、それを視聴した被験者600の被験者応答情報aを取得するのと同期して、生理反応の一つである眼球運動を撮像して眼球運動情報bを取得し、得られたデータ(視点位置、瞳孔径および瞬目発生頻度)から被験者600の興味・関心度を判定し、IDAポイントなどを算出し、提示コンテンツに対する被験者600の応答の有効性を評価するようにした。これにより、少ない被験者数で、従来行われていた紙面やウェブによるアンケート手法よりも、はるかに信頼性のある有効な調査を行うことができ、特にWEBコンテンツに対する利用者の応答を評価するのに好適である。
また、評価対象であるコンテンツが提示されてから、それに対する被験者600の応答および生理反応の測定、解析、評価指標の可視化に至るまでの一連の処理を1台の装置で実施することができる。このため、特別高度な専門知識を備えていない一般人でも、アンケートによる調査を短時間かつ低コストにて行うことができる。
なお、制御手段300,301は、CPU、RAMなどの揮発性の記憶媒体、ROMなどの不揮発性の記憶媒体、マウス500やキーボード、ポインティングデバイスなどの入力装置、画像やデータを表示する提示用ディスプレイ100およびモニタ画面400、並びに眼球撮像用カメラ200と通信するためのインタフェースを備えたコンピュータによって構成される。制御手段300に備えたコンテンツ読出表示手段330、情報取込手段340、データ処理手段350および表示処理手段360の各機能、並びに、制御手段301に備えたコンテンツ読出表示手段335、情報取込手段370、データ処理手段380および表示処理手段390の各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。また、これらのプログラムは、磁気ディスク(フロッピィーディスク(登録商標)、ハードディスクなど)、光ディスク(CD−ROM、DVDなど)、半導体メモリなどの記憶媒体に格納して頒布することもできる。
本発明の実施の形態によるコンテンツの利用者応答評価システムの基本的な構成を示す模式図である。 視点の軌跡および選択結果の画面例を示す図である。 問題文を読んでいない場合の画面例を示す図である。 図1に示した制御手段300の構成を示す図である。 コンテンツ評価段361により生成された画面例を示す図である。 コンテンツ評価段361により生成された画面例を示す図である。 WEB評価段362により生成された画面例を示す図である。 WEB評価段362により生成された画面例を示す図である。 WEB評価段362により生成された画面例を示す図である。 WEB評価段362により生成された画面例を示す図である。 アンケート評価段363により生成された画面例を示す図である。 アンケート評価段363により生成された画面例を示す図である。 教育・研修用処理段364により生成された画面例を示す図である。 投稿コンテンツ評価段365を用いる場合のネットワークシステムの構成例を示す図である。 投稿コンテンツ評価段365により生成された画面例を示す図である。 本発明の実施の形態によるコンテンツの利用者応答評価システムの基本的な構成(他の構成)を示す模式図である。 図16に示した制御手段301の構成を示す図である。 カーソル計測の場合の画面例を示す図である。 カーソル計測の場合の画面例を示す図である。 カーソル計測の場合の画面例を示す図である。 カーソル計測の場合の画面例を示す図である。 カーソル計測の場合の画面例を示す図である。 アンケート評価段363に用いるコンテンツの画面例(選択肢が2つの場合)を示す図である。 アンケート評価段363により生成された画面例(選択肢が2つの場合)を示す図である。 アンケート評価段363により生成された画面例(選択肢が2つの場合)を示す図である。 アンケート評価段363により生成された画面例(選択肢が4つの場合)を示す図である。 アンケート評価段363により生成された画面例(選択肢が4つの場合)を示す図である。 教育・研修用処理段364により生成された画面例を示す図である。 スクロール停止位置の推移とその滞留時間を表示する画面例を示す図である。
符号の説明
100 コンテンツ提示用ディスプレイ
200 眼球撮像用カメラ
210 赤外線ランプ
220 顎台
300,301 制御手段
310 提示コンテンツ用データベース
320 取得データ用データベース
330,335 コンテンツ読出表示手段
340,370 情報取込手段
350,380 データ処理手段
351 視点・瞳孔・瞬目処理段
352 興味・関心度算出段
353 IDASポイント算出段
360,390 表示処理手段
361 コンテンツ評価段
362 WEB評価段
363 アンケート評価段
364 教育・研修用処理段
365 投稿コンテンツ評価段
400 モニタ画面
500 被験者応答入力手段
600 被験者
1010,1110,7001,8001,11001 視点の軌跡
1020,1120 マウスクリックした位置
1301,5001,6001 領域
1302,5002 円
1303,5003 パワーゲージ
1304,1305,5004,5005,6003〜6006 グラフ
1306 危険指示表示
1307 ボタン押下表示
29001〜29003 画面スクロール停止位置
6002 波形グラフ

Claims (13)

  1. コンテンツを観察している被験者の応答を評価するために用いる制御装置であって、
    前記被験者が前記コンテンツを見ているときに撮影された前記被験者の眼球画像、および、前記被験者が所定の操作手段を用いて操作しているときのカーソル位置を取り込む情報取込部と、
    前記眼球画像に基づいて、前記被験者の視点位置を算出すると共に、前記眼球画像に基づいて、瞳孔径を求め、前記瞳孔径に基づいて、前記被験者による前記コンテンツに対する第1の興味関心度を算出し、前記カーソル位置と前記視点位置との間の距離を算出し、前記距離が所定の閾値よりも短く、かつ前記距離が時間変化と共に短くなっている場合に、前記第1の興味関心度を第2の興味関心度とする処理部と、
    前記コンテンツと共に、前記視点位置、第1の興味関心度および第2の興味関心度を画面表示する表示処理部とを備えたことを特徴とする制御装置。
  2. 請求項1に記載の制御装置において、
    前記表示処理部は、さらに、第1の興味関心度と第2の興味関心度とを区別可能な表示形態にて画面表示することを特徴とする制御装置。
  3. 請求項1または2に記載の制御装置において、
    前記処理部は、さらに、前記視点位置について視点の滞留時間を算出し、
    前記表示処理部は、前記コンテンツと共に、前記視点位置、第1の興味関心度および第2の興味関心度、並びに視点の滞留時間を画面表示することを特徴とする制御装置。
  4. 請求項1または2に記載の制御装置において、
    前記表示処理部は、前記コンテンツが表示された画面内における所定の領域毎に、前記視点位置が滞留している時間を、前記被験者の視点の滞留時間として算出し、前記コンテンツと共に、前記視点位置、第1の興味関心度および第2の興味関心度を画面表示し、前記領域毎の視点の滞留時間を画面表示することを特徴とする制御装置。
  5. 請求項1から4までのいずれか一項に記載の制御装置において、
    前記表示処理部は、さらに、前記第1の興味関心度および第2の興味関心度の大きさに応じた形態を、前記視点位置にそれぞれ画面表示することを特徴とする制御装置。
  6. 請求項5に記載の制御装置において、
    前記表示処理部は、さらに、前記視点位置に基づいて視点の軌跡を画面表示することを特徴とする制御装置。
  7. 請求項6に記載の制御装置において、
    前記表示処理部は、さらに、前記視点の速度に応じた形態で前記視点の軌跡を画面表示することを特徴とする制御装置。
  8. 請求項1から7までのいずれか一項に記載の制御装置において、
    前記コンテンツには、前記被験者により選択操作が行われる選択肢が含まれ、
    前記表示処理部は、前記選択肢が含まれるコンテンツ、前記視点位置に表示される第1の興味関心度および第2の興味関心度の大きさに応じたそれぞれの形態、および前記視点位置から得られる視点の軌跡を画面表示することを特徴とする制御装置。
  9. コンテンツを観察している被験者の応答を評価するために用いる制御装置であって、
    前記コンテンツには、前記被験者により選択操作が行われる選択肢が含まれ、
    前記被験者が前記コンテンツを見ているときに撮影された前記被験者の眼球画像、および前記選択肢を選択するための確定操作を取り込む情報取込部と、
    前記眼球画像に基づいて、前記被験者の視点位置を算出すると共に、前記眼球画像に基づいて、瞳孔径を求め、前記瞳孔径に基づいて、前記被験者による前記コンテンツに対する第1の興味関心度を算出する処理部と、
    前記コンテンツと共に、前記視点位置および第1の興味関心度を画面表示し、さらに、前記視点位置に基づいて、前記選択肢を示す領域内に前記被験者の視点があったときの前記第1の興味関心度を積算し、前記積算値を注目滞留度として前記選択肢毎に求め、前記確定操作によって選択肢が選択されたときの前記選択肢の確信度を、前記選択肢についての前記注目滞留度が高いときは高くなり、前記注目滞留度が低いときは低くなるように、前記選択肢毎に算出し、前記選択肢毎の確信度を複数の被験者のそれぞれに対して算出し、前記選択肢毎の確信度と前記確信度が算出された被験者の数との関係を画面表示する表示処理部とを備えたことを特徴とする制御装置。
  10. 請求項1から9までのいずれか一項に記載の制御装置において、
    前記コンテンツを、該制御装置とネットワークを介して接続される端末装置から受信し、
    前記表示処理部により画面表示されるコンテンツと共に、前記画面表示される各種情報を、前記端末装置へ送信することを特徴とする制御装置。
  11. 請求項1から10までのいずれか一項に記載の制御装置において、
    前記コンテンツは、映像データ、音響データ、ウェブページデータ、コンピュータゲームデータまたはコンピュータプログラムが出力するデータから成り、かつ、文字列、図、記号、絵、写真、動画および音のうちの少なくとも一つの、被験者に応答させるための喚起情報を含むことを特徴とする制御装置。
  12. 請求項1から11までのいずれか一項に記載の制御装置において、
    前記処理部は、眼球画像に基づいて、前記瞳孔径の代わりに瞬目発生頻度を求め、前記瞬目発生頻度に基づいて、前記第1の興味関心度を算出することを特徴とする制御装置。
  13. コンピュータを、請求項1から12までのいずれか一項に記載の制御装置として機能させるためのプログラム。
JP2008516571A 2006-05-18 2007-03-02 コンテンツに対する利用者応答を評価する制御装置 Expired - Fee Related JP4874332B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008516571A JP4874332B2 (ja) 2006-05-18 2007-03-02 コンテンツに対する利用者応答を評価する制御装置

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2006164019 2006-05-18
JP2006164019 2006-05-18
JP2006254889 2006-09-20
JP2006254889 2006-09-20
PCT/JP2007/054093 WO2007135796A1 (ja) 2006-05-18 2007-03-02 コンテンツに対する利用者応答を評価する制御装置
JP2008516571A JP4874332B2 (ja) 2006-05-18 2007-03-02 コンテンツに対する利用者応答を評価する制御装置

Publications (2)

Publication Number Publication Date
JPWO2007135796A1 JPWO2007135796A1 (ja) 2009-10-01
JP4874332B2 true JP4874332B2 (ja) 2012-02-15

Family

ID=38723109

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008516571A Expired - Fee Related JP4874332B2 (ja) 2006-05-18 2007-03-02 コンテンツに対する利用者応答を評価する制御装置

Country Status (2)

Country Link
JP (1) JP4874332B2 (ja)
WO (1) WO2007135796A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210147317A (ko) * 2020-05-28 2021-12-07 주식회사 우리소프트 사용자의 주의집중여부판단에 기반한 인지재활시스템
KR20210148486A (ko) * 2020-05-28 2021-12-08 주식회사 우리소프트 가상중재 인지재활시스템

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010094493A (ja) * 2008-09-22 2010-04-30 Koichi Kikuchi 視認情景に対する視認者情感判定装置
JP5185240B2 (ja) * 2009-11-26 2013-04-17 楽天株式会社 サーバ装置、ユーザ関心度算出方法、ユーザ関心度算出プログラム、及び情報提供システム
EP2466538A1 (en) * 2010-12-20 2012-06-20 Alcatel Lucent Media asset management system
JP4824837B1 (ja) * 2011-05-26 2011-11-30 株式会社クリエイティブ・ブレインズ 市場評価の調査装置および調査方法
JP5689388B2 (ja) * 2011-09-02 2015-03-25 花王株式会社 像提示装置、像提示方法および視線解析方法
JP2013180076A (ja) * 2012-03-02 2013-09-12 Dainippon Printing Co Ltd 分析支援装置、プログラム
JP5941764B2 (ja) * 2012-06-22 2016-06-29 オリンパス株式会社 コンテンツ評価データ生成システム、コンテンツ評価データ生成方法、およびプログラム
JP2014081913A (ja) * 2012-09-27 2014-05-08 Dainippon Printing Co Ltd アンケート分析装置、アンケート分析システム、アンケート分析方法、及びプログラム
JP2014089650A (ja) * 2012-10-31 2014-05-15 Fujifilm Corp 電子問診装置、電子問診システム、電子問診装置の制御方法及び制御プログラム
JP2014197373A (ja) * 2013-03-05 2014-10-16 大日本印刷株式会社 インターネットアンケートシステム、コンピュータプログラム
JP6722505B2 (ja) * 2016-05-11 2020-07-15 富士通株式会社 画像制御方法、装置、及びプログラム
JP6933455B2 (ja) * 2016-09-29 2021-09-08 株式会社東芝 関心維持システム及びサーバ
JP6304348B2 (ja) * 2016-11-14 2018-04-04 カシオ計算機株式会社 コンテンツ出力装置及びプログラム
JP6901525B2 (ja) * 2016-12-15 2021-07-14 株式会社Z会 情報処理装置、情報処理システム及び情報処理方法
JP6875861B2 (ja) * 2017-01-05 2021-05-26 富士通株式会社 情報処理方法、装置、及びプログラム
US10977674B2 (en) 2017-04-28 2021-04-13 Qualtrics, Llc Conducting digital surveys that collect and convert biometric data into survey respondent characteristics
WO2019187274A1 (ja) * 2018-03-30 2019-10-03 株式会社 資生堂 情報処理装置及びプログラム
WO2019220751A1 (ja) * 2018-05-16 2019-11-21 オムロン株式会社 情報処理装置、情報処理方法、および情報処理プログラム
JP7287485B2 (ja) * 2019-10-30 2023-06-06 日本電信電話株式会社 表示制御装置及び表示制御方法
CN113079411B (zh) * 2021-04-20 2023-02-28 西北工业大学 一种多模态数据同步可视化系统
JP2022174804A (ja) * 2021-05-12 2022-11-25 株式会社夏目綜合研究所 被験者分析装置
JP7442705B1 (ja) 2023-02-10 2024-03-04 アース製薬株式会社 マーケティング素材の評価方法、評価装置、及びマーケティング素材の製造方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003196196A (ja) * 2001-12-27 2003-07-11 Ricoh Co Ltd 電子フォーム制御プログラム及びその方法及び情報記録媒体
JP2004282471A (ja) * 2003-03-17 2004-10-07 Media Glue Corp 映像コンテンツの評価装置
JP2004280673A (ja) * 2003-03-18 2004-10-07 Takenaka Komuten Co Ltd 情報提供装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003196196A (ja) * 2001-12-27 2003-07-11 Ricoh Co Ltd 電子フォーム制御プログラム及びその方法及び情報記録媒体
JP2004282471A (ja) * 2003-03-17 2004-10-07 Media Glue Corp 映像コンテンツの評価装置
JP2004280673A (ja) * 2003-03-18 2004-10-07 Takenaka Komuten Co Ltd 情報提供装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210147317A (ko) * 2020-05-28 2021-12-07 주식회사 우리소프트 사용자의 주의집중여부판단에 기반한 인지재활시스템
KR20210148486A (ko) * 2020-05-28 2021-12-08 주식회사 우리소프트 가상중재 인지재활시스템
KR102348692B1 (ko) * 2020-05-28 2022-01-10 주식회사 우리소프트 가상중재 인지재활시스템
KR102359061B1 (ko) * 2020-05-28 2022-02-07 주식회사 우리소프트 사용자의 주의집중여부판단에 기반한 인지재활시스템

Also Published As

Publication number Publication date
JPWO2007135796A1 (ja) 2009-10-01
WO2007135796A1 (ja) 2007-11-29

Similar Documents

Publication Publication Date Title
JP4874332B2 (ja) コンテンツに対する利用者応答を評価する制御装置
JP4622702B2 (ja) 映像監視装置
US11883173B2 (en) Roadside impairment sensor
US8814357B2 (en) System and method for identifying the existence and position of text in visual media content and for determining a subject's interactions with the text
KR101535432B1 (ko) 콘텐츠 평가 시스템 및 이를 이용한 콘텐츠 평가 방법
EP2829221B1 (en) Asperger's diagnosis assistance device
KR102155309B1 (ko) 인지 장애 예측 방법 및 이를 구현한 서버, 사용자 단말 및 어플리케이션
US9532711B2 (en) Affective bandwidth measurement and affective disorder determination
JP2009530071A (ja) 視覚的注意および感情反応の検出表示システム
US20160232561A1 (en) Visual object efficacy measuring device
JP2007068620A (ja) 心理状態計測装置
KR20190041081A (ko) 인지장애 진단을 위한 vr기반 인지능력 평가시스템
US20180242898A1 (en) Viewing state detection device, viewing state detection system and viewing state detection method
Stuart et al. Do you see what I see? Mobile eye-tracker contextual analysis and inter-rater reliability
JP2014081913A (ja) アンケート分析装置、アンケート分析システム、アンケート分析方法、及びプログラム
Qiu et al. Body posture as an indicator of workload in mental work
CN112890815A (zh) 一种基于深度学习的孤独症辅助评估系统和方法
JP6895144B2 (ja) 診断支援システム、診断支援システムの作動方法、及びプログラム
JP5829590B2 (ja) 疲労感評価装置、疲労感評価方法、及びプログラム
US9621847B2 (en) Terminal, system, display method, and recording medium storing a display program
US7512289B2 (en) Apparatus and method for examination of images
KR20180040090A (ko) 사용자 인터랙션에 기초한 변시증 판정 방법 및 그 장치
US11909776B2 (en) Online video distribution support method, online video distribution support apparatus and online video distribution support system
JP2012217797A (ja) 記憶保持力評価方法および記憶保持力評価システム
JP6186663B2 (ja) 指先血管観測方法、観測装置、観測サーバ、観測システム及び観測プログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111115

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111122

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141202

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees