JP2010061452A - 端末装置、情報処理方法及びプログラム - Google Patents

端末装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2010061452A
JP2010061452A JP2008227176A JP2008227176A JP2010061452A JP 2010061452 A JP2010061452 A JP 2010061452A JP 2008227176 A JP2008227176 A JP 2008227176A JP 2008227176 A JP2008227176 A JP 2008227176A JP 2010061452 A JP2010061452 A JP 2010061452A
Authority
JP
Japan
Prior art keywords
information
user
area
behavior
analysis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008227176A
Other languages
English (en)
Other versions
JP4282091B1 (ja
Inventor
Koichi Iizuka
功一 飯塚
Takeshi Hanamura
剛 花村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mobile Business Promote Co Ltd
Original Assignee
Mobile Business Promote Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mobile Business Promote Co Ltd filed Critical Mobile Business Promote Co Ltd
Priority to JP2008227176A priority Critical patent/JP4282091B1/ja
Application granted granted Critical
Publication of JP4282091B1 publication Critical patent/JP4282091B1/ja
Publication of JP2010061452A publication Critical patent/JP2010061452A/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】移動する人が注目している対象物を特定し、対象物内で興味を示しているエリアを判定すると共に、情動反応を算出して客観的な結果を得ることにより、行動要因分析の高精度化を実現する。
【解決手段】計測装置4の行動分析・アプリケーション制御部43は、利用者2の位置情報、方向及び対象物1の位置情報に基づいて、利用者2が注目している対象物1を特定する。そして、行動分析・アプリケーション制御部43は、視野映像内のマーカを識別し、対象物情報に基づいて利用者2の視点位置から、その対象物1内において利用者2が興味を示しているエリアを判定し、情動反応を算出する。そして、移動体端末5の機能制御部51は、利用者2が興味を示しているエリアに対応付けられたアプリケーションを起動する。アプリケーションの起動に伴う利用者2のコンバージョン情報を得ることにより、利用者2の行動を分析することできる。
【選択図】図4

Description

本発明は、利用者の行動を分析するための情報を生成する装置、システム、方法及びプログラムに関し、特に、移動する利用者が注目する対象物を特定し、その対象物内で興味を示すエリアを判定し、そのエリアに対応付けられたアプリーションによって利用者の行動を分析する技術に関する。
従来、コンテンツに対する興味関心度合いを評価するシステムとして、人間の眼球運動に基づくものが知られている(特許文献1を参照)。このシステムは、人間の情動反応が眼球運動に表れることに着目し、表示装置に表示されたコンテンツに対する利用者の視点滞留時間または瞳孔径を算出することによって、コンテンツへの興味関心度合いを定量的に算出し、コンテンツを評価するものである。
このようなシステムにおいて、利用者の視点滞留時間及び瞳孔径は、利用者の視線及び眼球画像に基づいて計測される。利用者の視線を検出するためには、例えば、眼球へ赤外線を照射して撮影した眼球画像と、赤外線を照射していないときに撮影した眼球画像との差分画像が用いられる(特許文献2を参照)。また、利用者の視線を一層精度高く検出するために、眼球形状モデルを用いる技術も知られている(非特許文献1を参照)。
ところで、利用者の眼球を撮影するカメラ、及び、利用者が実際に見ているコンテンツ等を撮影するカメラが設けられためがねが知られている(非特許文献2を参照)。このめがねは、カメラにより撮影された眼球画像及びコンテンツ等の視野映像を格納する記録媒体も備えている。利用者がこのめがねをかけることにより、カメラで撮影した眼球画像及び視野映像が記録媒体に格納される。そして、制御装置は、記録媒体から眼球画像及び視野映像を読み出し、画像処理を行うことにより、視野映像内の視点位置、視点軌跡、滞留時間、瞳孔径、瞬目回数等を算出する。
一方、携帯電話等の移動体端末を用いたナビゲーションシステムが知られている(特許文献3を参照)。このシステムは、移動体端末から情報を収集し、収集した情報を分析して加工し、ナビゲーションに関する各種の情報を生成して移動体端末へ送信するものである。例えば、移動体端末から利用者の位置情報を行動結果として収集し、予め設定された行動予定と収集した行動結果との間の違いを分析する。このようにして分析された結果は、マーケティング等の集計のために利用される。
特開2004−282471号公報 特開2007−4448号公報 特開2003−196284号公報 大野健彦、他2名、「眼球形状モデルに基づく視線測定法」、第8回画像センシングシンポジウム、2002年、pp.307−312 "モバイル型アイマークレコーダ EMR−9"、[online]、株式会社ナックイメージテクノロジー、[平成20年8月1日検索]、インターネット<URL:http://www.eyemark.jp/product/emr_9/index.html>
前述した特許文献1のシステムは、表示装置に表示されたコンテンツの画面を利用者が見ることにより、興味関心度合いを算出してコンテンツを評価する。このため、コンテンツが表示される画面を予め用意し、利用者が表示装置の前でそのコンテンツを見る必要があり、コンテンツを評価するための準備に手間がかかるという問題があった。また、利用者が様々な場所へ移動し、例えば、移動先で看板を見たときに、その看板内で注目したコンテンツ等が特定され、そのコンテンツ等に対応した利用者の行動が分析されるとすると、その分析結果は利用者及びコンテンツ提供者等にとって有用なものになり得る。
例えば、前述した非特許文献2のめがねを用いたシステムを想定した場合、そのめがねによって、移動する利用者が実際に見た視野映像を得ることができると共に、視野映像内の視点位置における興味関心度合いを算出することができる。しかしながら、利用者が例えば看板を見た場合、このシステムでは、視野映像が看板内のどの位置に存在するのか、利用者が看板内のどの箇所に興味をもったのか、また、利用者が看板内のどのコンテンツに注目したのかについて判断することができない。したがって、特許文献1のシステムに非特許文献2のめがめを適用したシステムを想定した場合であっても、移動する利用者の行動を分析することができず、有用な情報を生成することもできない。
一般に、人間の行動を分析するには、例えばアンケートに対する回答を得て、その回答を集計する必要がある。しかし、このアンケートによる行動分析は主観的なものであるから、必ずしも客観的な分析結果が得られるとは限らない。
そこで、本発明は上記課題を解決するためになされたものであり、その目的は、移動している人に対して行動分析を行う場合に、その人が注目している対象物を特定し、その対象物内で興味を示したエリアを判定すると共に、情動反応を算出して客観的な結果を得ることにより、行動要因分析の高精度化を実現可能な行動分析端末装置、行動分析システム、行動分析情報収集方法及びプログラムを提供することにある。
上記目的を達成するために、請求項1の発明は、移動する利用者が携帯する装置であって、前記移動する利用者が注目している対象物を特定し、前記対象物内で興味を示しているエリアを判定し、前記エリアに関する情報を利用者に提示し、利用者の行動に関する情報を生成することにより、利用者の行動が分析される行動分析端末装置において、対象物の位置情報、対象物内に配置された複数のマーカの位置情報、対象物内をマーカによって区分けされたエリアと前記マーカとの関係情報、及び、前記エリアに対応付けられたアプリケーション情報が格納された記憶媒体と、利用者に装着されたカメラにより撮影された、当該利用者の眼球画像及び当該利用者が見ている視野映像を入力し、前記眼球画像から眼球運動を解析して前記視野映像内の利用者の視点位置を算出する眼球運動解析手段と、利用者の位置情報及び方向を解析する位置方向解析手段と、前記記憶媒体に格納された対象物の位置情報、並びに、前記位置方向解析手段により解析された利用者の位置情報及び方向に基づいて、利用者が注目している対象物を特定する対象物特定手段と、前記眼球運動解析手段により算出された利用者の視点位置を囲むマーカを前記視野映像から識別し、前記記憶媒体に格納されたエリアとマーカとの関係情報によって、前記対象物内で利用者が興味を示しているエリアを判定するエリア判定手段と、前記エリア判定手段により利用者が興味を示していると判定されたエリアに対する興味関心度合いを、前記眼球運動に基づいて算出する興味関心度合い算出手段と、前記エリア判定手段により利用者が興味を示していると判定されたエリアに関する情報を、前記記憶媒体に格納された、エリアに対応付けられたアプリケーション情報に基づいて取得し、利用者へ提示する情報提示手段と、前記情報提示手段により提示された情報に基づいた利用者の行動を、コンバージョン情報として収集する情報収集手段と、を備えたことを特徴とする。
また、請求項2の発明は、請求項1に記載の行動分析端末装置において、前記情報提示手段が、前記エリア判定手段により判定されたエリアに対応付けられたアプリケーション情報に基づいてアプリケーションを起動し、当該起動したアプリケーションによって前記エリアに関する情報を利用者へ提示する、ことを特徴とする。
また、請求項3の発明は、請求項1または2に記載の行動分析端末装置において、前記興味関心度合い算出手段により算出される興味関心度合いを、前記エリア判定手段により判定されたエリアに視点が存在しているときの視点滞留時間または瞳孔径の平均値とする、ことを特徴とする。
また、請求項4の発明は、請求項1から3までのいずれか一項に記載の行動分析端末装置において、さらに、前記位置方向解析手段により解析された利用者の位置情報に基づいた所定範囲内の全ての対象物について、前記対象物の位置情報、前記対象物内に配置された複数のマーカの位置情報、前記対象物内をマーカによって区分けされたエリアと前記マーカとの関係情報、及び、前記エリアに対応付けられたアプリケーション情報を、これらの情報を管理している装置から受信し、前記記憶媒体に格納する対象物情報及びアプリケーション情報収集手段を備えたことを特徴とする。
また、請求項5の発明は、請求項1から4までのいずれか一項に記載の行動分析端末装置において、前記興味関心度合い算出手段により算出された興味関心度合いに基づいて、視野映像のズームアップ度、解像度、または、ズームアップ度及び解像度を変更する、ことを特徴とする。
また、請求項6の発明は、請求項1から5までのいずれか一項に記載の行動分析端末装置において、さらに、利用者に装着された各種センサからのデータを解析し、利用者の生理反応データを得る生理反応解析手段と、利用者の周囲環境における外界条件を解析し、外界条件データを得る外界条件解析部と、前記眼球運動解析手段により眼球運動から解析された瞳孔径、及び前記生理反応解析手段により得られた生理反応データに基づいて情動反応を算出し、前記算出した情動反応が所定の閾値以上になる時間を有意時間に設定する情動反応算出及び有意時間設定手段と、を備え、前記情動反応及び有意時間設定手段により設定された有意時間における、視野映像、利用者の位置情報及び方向、前記対象物特定手段により特定された対象物における前記エリア判定手段により判定されたエリア、生理反応データ、並びに外界条件データに基づいて、利用者の行動が分析される、ことを特徴とする。
また、請求項7の発明は、請求項6に記載の行動分析端末装置において、前記生理反応データには、体温、脈拍、体表温度及び発汗量のうちの少なくとも一つが含まれる、ことを特徴とする。
また、請求項8の発明は、請求項6または7に記載の行動分析端末装置において、前記外界条件データには、外気温、湿度及び光量のうちの少なくとも一つが含まれる、ことを特徴とする。
また、請求項9の発明は、請求項1から8までのいずれか一項に記載の行動分析端末装置と、前記行動分析端末装置により生成された、利用者の行動に関する情報を受信し、当該受信した情報に基づいて、利用者の行動を分析するサーバとを備えた行動分析システムであって、前記行動分析端末装置が、さらに、眼球運動解析手段により解析された眼球運動データ、位置方向解析手段により解析された利用者の位置情報及び方向、対象物特定手段により特定された対象物に関する情報、エリア判定手段により判定されたエリアに関する情報、興味関心度合い算出手段により算出された興味関心度合い、情報提示手段により取得されたアプリケーション情報、及び情報収集手段により収集されたコンバージョン情報を前記サーバへ送信する送信手段を備えた、ことを特徴とする。
また、請求項10の発明は、請求項6から8までのいずれか一項に記載の行動分析端末装置と、前記行動分析端末装置により生成された、利用者の行動に関する情報を受信し、当該受信した情報に基づいて、利用者の行動を分析するサーバとを備えた行動分析システムにおいて、前記行動分析端末装置が、さらに、眼球運動解析手段により解析された眼球運動データ、位置方向解析手段により解析された利用者の位置情報及び方向、対象物特定手段により特定された対象物に関する情報、エリア判定手段により判定されたエリアに関する情報、興味関心度合い算出手段により算出された興味関心度合い、情報提示手段により取得されたアプリケーション情報、及び情報収集手段により収集されたコンバージョン情報を前記サーバへ送信する送信手段を備え、前記サーバが、行動分析端末装置の動作を変更するための各種パラメータを設定するパラメータ設定手段を備えたことを特徴とする。
請求項11の発明は、請求項10に記載の行動分析システムにおいて、前記サーバのパラメータ設定手段が、前記行動分析端末装置により算出される情動反応における瞳孔径及び生理反応データの重み値を設定する重み値設定手段と、前記行動分析端末装置により有意時間が設定される際の閾値を設定する閾値設定手段と、を備えたことを特徴とする。
また、請求項12の発明は、対象物の位置情報、対象物内に配置された複数のマーカの位置情報、対象物内をマーカによって区分けされたエリアと前記マーカとの関係情報、及び、前記エリアに対応付けられたアプリケーション情報が格納された記憶媒体を備え、移動する利用者が携帯する装置により、前記記憶媒体に格納された情報に基づいて、前記移動する利用者が注目する対象物を特定し、前記対象物内で興味を示しているエリアを判定し、前記エリアに関する情報を利用者に提示し、利用者の行動に関する情報を生成する行動分析情報生成方法において、利用者に装着されたカメラにより撮影された、当該利用者の眼球画像及び当該利用者が見ている視野映像を入力し、前記眼球画像から眼球運動を解析して前記視野映像内の利用者の視点位置を算出すると共に、利用者の位置情報及び方向を解析するステップと、前記記憶媒体に格納された対象物の位置情報、並びに、前記利用者の位置情報及び方向に基づいて、利用者が注目している対象物を特定するステップと、前記算出した利用者の視点位置を囲むマーカを前記視野映像から識別し、前記記憶媒体に格納されたエリアとマーカとの関係情報によって、前記対象物内で利用者が興味を示しているエリアを判定するステップと、前記判定したエリアに対する興味関心度合いを、前記眼球運動に基づいて情動反応として算出するステップと、前記判定したエリアに関する情報を、前記記憶媒体に格納された、エリアに対応付けられたアプリケーション情報に基づいて取得し、利用者へ提示するステップと、前記提示した情報に基づいた利用者の行動を、コンバージョン情報として収集するステップと、を有することを特徴とする。
また、請求項13の発明は、移動する利用者が携帯する装置であって、対象物の位置情報、対象物内に配置された複数のマーカの位置情報、対象物内をマーカによって区分けされたエリアと前記マーカとの関係情報、及び、前記エリアに対応付けられたアプリケーション情報が格納された記憶媒体を備え、前記記憶媒体に格納された情報に基づいて、前記移動する利用者が注目する対象物を特定し、前記対象物内で興味を示しているエリアを判定し、前記エリアに関する情報を利用者に提示し、利用者の行動に関する情報を生成する装置による行動分析情報生成プログラムであって、前記装置を構成するコンピュータに、利用者に装着されたカメラにより撮影された、当該利用者の眼球画像及び当該利用者が見ている視野映像を入力し、前記眼球画像から眼球運動を解析して前記視野映像内の利用者の視点位置を算出すると共に、利用者の位置情報及び方向を解析するステップと、前記記憶媒体に格納された対象物の位置情報、並びに、前記利用者の位置情報及び方向に基づいて、利用者が注目している対象物を特定するステップと、前記算出した利用者の視点位置を囲むマーカを前記視野映像から識別し、前記記憶媒体に格納されたエリアとマーカとの関係情報によって、前記対象物内で利用者が興味を示しているエリアを判定するステップと、前記判定したエリアに対する興味関心度合いを、前記眼球運動に基づいて情動反応として算出するステップと、前記判定したエリアに関する情報を、前記記憶媒体に格納された、エリアに対応付けられたアプリケーション情報に基づいて取得し、利用者へ提示するステップと、前記提示した情報に基づいた利用者の行動を、コンバージョン情報として収集するステップと、を実行させることを特徴とする。
以上のように、本発明によれば、移動する利用者が注目している対象物を特定し、その対象物内で興味を示したエリアを判定すると共に、利用者の視線に基づいた情動反応を算出して客観的な結果を得るようにした。これにより、移動する利用者に対して、客観的な行動分析を行うことができる。したがって、アンケート等の主観的な手段ではなく、客観的な手段を用いるようにしたから、行動要因分析の高精度化を実現することが可能となる。
以下、本発明を実施するための最良の形態について、図面を参照して説明する。
〔システムの概略〕
まず、本発明の実施形態が適用される全体システムの概略について説明する。図1は、全体システムの概略図である。このシステムは、対象物1内の特定のエリアに興味を示す利用者2について、その行動を分析することを目的とするものである。具体的には、このシステムは、複数の対象物のうち、利用者2が注目している対象物1を特定し、その対象物1内において、利用者2が興味を示しているエリアを判定し、そのエリアに関する情報を利用者2へ提示し、その情報に基づいた利用者2のコンバージョン(行動)の情報(コンバージョン情報)を収集して分析する。
対象物1は、例えば、POP(Point Of Purchase)、看板、ポスター、陳列棚であり、利用者2が興味を示しているエリアを特定するためのマーカが設けられている。エリア及びマーカの詳細については後述する。利用者2は、めがね3をかけており、計測装置4及び移動体端末5を携帯している。めがね3には、利用者2が向いている前方にある対象物1を撮影するための視野映像用カメラ8、及び利用者2の眼球を撮影するための眼球画像用カメラ9が設けられている。利用者2が対象物1を見たときに、視野映像用カメラ8により撮影される映像と、利用者2の視野に写る映像とが一致するように、めがね3における視野映像用カメラ8の位置等が予め調整されている。また、眼球画像用カメラ9も、利用者2の眼球が正しく撮影され、計測装置4によって眼球画像から視線等を解析できるように、予め調整されている。視野映像用カメラ8及び眼球画像用カメラ9により撮影されたデータは、ケーブルを介してまたは無線により計測装置4へ送信される。
計測装置4及び移動体端末5によって、行動分析端末装置が構成される。以下、計測装置4と移動体端末5とは別々の装置として説明するが、行動分析端末装置として一体的な一つの装置であってもよい。
計測装置4は、例えばベルトに装着され、利用者2により注目された対象物1の情報、利用者2の位置情報(緯度及び経度)及び方向、視点の滞留時間等の各種データを順次格納する。計測装置4と移動体端末5との間で、トルカ(登録商標)、人体通信、Bluetooth等によりデータが送受信される。尚、計測装置4が各種データをSD(Secure Digital)カードに格納し、利用者2がそのSDカードを計測装置4から取り外して移動体端末5に取り付けることにより、データを受け渡すようにしてもよい。
移動体端末5は、例えば、携帯電話、携帯端末、PDA(Personal Digital Assistant)であり、アプリケーションを自動起動したり、利用者2の意思または選択によってアプリケーションを起動したり、移動体端末5を計測装置4に近づけることによってアプリケーションを起動したりする機能、電子メールを送受信する機能、ウェブページを表示する機能等を実現する。移動体端末5とサービスセンター6との間で、無線通信によりデータが送受信される。
サービスセンター6は、利用者2により注目された対象物1の情報及び視点の滞留時間等の情報(行動結果)、提示した情報に基づいた利用者2のコンバージョン情報を収集し、利用者2の行動を分析する。また、サービスセンター6は、分析結果を、利用者2が携帯する移動体端末5へ送信したり、マーケティング情報として事業者へ提示したりする。
〔システムの構成〕
図2は、図1に示した全体システムの構成を示すブロック図である。まず、計測装置4について説明する。計測装置4は、眼球運動解析部41、位置方向解析部42及び行動分析・アプリケーション制御部43を備えている。
眼球運動解析部41は、めがね3に設けられた視野映像用カメラ8から視野映像を入力すると共に、眼球画像用カメラ9から眼球画像を入力する。そして、眼球運動解析部41は、視野映像及び眼球画像を解析し、眼球運動である視点及び瞳孔径、並びに視点と対応付けた視野映像を行動分析・アプリケーション制御部43に出力する。
位置方向解析部42は、計測装置4に設けられたアンテナ(図1には図示せず)からGPS(Global Positioning System)データを入力すると共に、計測装置4に設けられた加速度センサ(図1には図示せず)から加速度センサデータを入力する。そして、位置方向解析部42は、GPSデータ及び加速度センサデータを解析し、利用者2の位置情報(緯度及び経度)及び方向を行動分析・アプリケーション制御部43に出力する。
行動分析・アプリケーション制御部43は、対象物1に関する情報(対象物情報)を取得するための要求(対象物情報取得要求)を移動体端末5へ送信する。そして、行動分析・アプリケーション制御部43は、移動体端末5から対象物情報を受信し、記憶媒体に格納する。
また、行動分析・アプリケーション制御部43は、眼球運動解析部41から利用者2の視点及び瞳孔径並びに視野映像を入力すると共に、位置方向解析部42から利用者2の位置情報(緯度及び経度)及び方向を入力する。そして、行動分析・アプリケーション制御部43は、入力したこれらの解析データを時系列に記憶媒体に格納する。また、行動分析・アプリケーション制御部43は、利用者2が注目している対象物1を特定し、対象物1について、利用者2が興味を示しているエリアである視線一致エリアを判定すると共に、視線一致エリアの興味関心度合いを算出し、これらの行動結果を記憶媒体に格納すると共に移動体端末5へ送信する。
次に、移動体端末5について説明する。移動体端末5は、機能制御部51を備えている。機能制御部51は、計測装置4から対象物情報取得要求を受信し、取得対象の対象物情報に加えてアプリケーション情報も取得するために、対象物情報及びアプリケーション情報取得要求をサービスセンター6のサーバ10へ送信する。また、機能制御部51は、サービスセンター6のサーバ10から対象物情報及びアプリケーション情報を受信し、アプリケーション情報を記録媒体に格納する。そして、機能制御部51は、対象物情報を計測装置4へ送信する。
また、機能制御部51は、計測装置4から解析データ及び行動結果を受信し、解析データをサービスセンター6のサーバ10へ送信する。また、機能制御部51は、受信した行動結果に対応するアプリケーションをアプリケーション情報から特定し、そのアプリケーションを起動する。
利用者2は、起動したアプリケーションに伴い、移動体端末5の画面に表示された情報に基づいて行動したり、移動体端末5を操作したりする。機能制御部51は、このときの利用者2の行動、行為、動作等を移動体端末5の操作に反映したコンバージョン情報として収集し、行動結果及びコンバージョン情報をサービスセンター6のサーバ10へ送信する。
次に、サービスセンター6のサーバ10について説明する。サービスセンター6のサーバ10は、情報管理・分析部61を備えている。情報管理・分析部61は、移動体端末5から対象物情報及びアプリケーション情報取得要求を受信し、この要求に対応する対象物情報及びアプリケーション情報を移動体端末5へ送信する。
また、情報管理・分析部61は、移動体端末5の機能制御部51から解析データ、行動結果及びコンバージョン情報を受信し、利用者2の行動を分析し、利用者2及び事業者にとって有用な情報を生成して提示する。また、情報管理・分析部61は、計測装置4及び移動体端末5の処理において必要な各種パラメータを変更する。
〔システムの機能〕
次に、図1及び図2に示したシステムの機能フローについて説明する。図3は、全体の処理を説明する機能フローであり、システムが行う主な処理を時系列に示したものである。まず、計測装置4の行動分析・アプリケーション制御部43は、利用者2の位置情報(緯度及び経度)に応じて必要となる対象物情報を、移動体端末5を介してサービスセンター6の情報管理・分析部61から取得し、記憶媒体に格納する(ステップS301)。また、移動体端末5の機能制御部51は、利用者2の位置情報(緯度及び経度)に応じて必要となるアプリケーション情報を、計測装置4の行動分析・アプリケーション制御部43からの要求に従って、サービスセンター6の情報管理・分析部61から取得し、記憶媒体に格納する(ステップS301)。
具体的には、計測装置4の行動分析・アプリケーション制御部43は、利用者2の位置情報(緯度及び経度)を中心として、所定範囲内に設けられた全ての対象物1について、これらの対象物情報を常に記憶媒体に格納しておく。これは、利用者2の移動に伴い、利用者2が注目するであろう対象物1が、利用者2の位置情報(緯度及び経度)に基づいて前もって推定できるからである。つまり、計測装置4は、対象物1を特定する前に、対象物1の対象物情報を取得する。
計測装置4の行動分析・アプリケーション制御部43は、利用者2が注目している対象物1を特定する(ステップS302)。具体的には、計測装置4の行動分析・アプリケーション制御部43は、利用者2の位置情報(緯度及び経度)及び方向と、対象物1の位置情報(対象物情報に含まれる位置情報)とに基づいて、利用者2と対象物1との位置関係を算出し、利用者2の方向によって、利用者2が見ているであろう対象物1を、利用者2が注目している対象物1として特定する。
計測装置4の行動分析・アプリケーション制御部43は、利用者2が注目している対象物1について、利用者2が興味を示しているエリアを視線一致エリアとして判定する(ステップS303)。対象物1には、前述したように、対象物1を区分けしたエリアを判定するためのマーカが設けられている。計測装置4の行動分析・アプリケーション制御部43は、視野映像内のマーカを識別し、そのマーカによって、視点が滞留している視線一致エリアを判定する。詳細については後述する。
計測装置4の行動分析・アプリケーション制御部43は、行動結果のデータを生成し、記憶媒体に格納する(ステップS304)。具体的には、計測装置4の行動分析・アプリケーション制御部43は、例えば、視線一致エリアにおける視点滞留時間を算出し、これを興味関心度合いのデータとして、視線一致エリア及び興味関心度合いを含む行動結果のデータを生成する。
移動体端末5の機能制御部51は、計測装置4の行動分析・アプリケーション制御部43から行動結果を受信し、行動結果に含まれる視線一致エリアに対応付けられたアプリケーションをアプリケーション情報から特定し、特定したアプリケーションを起動する(ステップS305)。
移動体端末5の機能制御部51は、起動したアプリケーションに伴い、利用者2が移動体端末5の画面に表示された情報に基づいて行動したり、移動体端末5を操作したりする情報を収集する。そして、このときの利用者2の行動、行為、動作等を反映した移動体端末5の操作をコンバージョン情報として、行動結果及びコンバージョン情報をサービスセンター6のサーバ10へ送信する(ステップS306)。
サービスセンター6の情報管理・分析部61は、移動体端末5の機能制御部51から行動結果及びコンバージョン情報を受信し、利用者2の行動を分析し、利用者2または事業者にとって有用な情報を生成して提示する(ステップS307)。尚、機能フローにはないが、計測装置4の行動分析・アプリケーション制御部43により生成された解析データ(時刻、視点位置、瞳孔径、利用者位置情報及び利用者方向)も、計測装置4から移動体端末5を介してサービスセンター6のサーバ10へ送信される。
〔計測装置〕
次に、図1及び図2に示した計測装置4について詳細に説明する。図4は、計測装置4の構成を示すブロック図である。計測装置4は、前述のように、眼球運動解析部41、位置方向解析部42及び行動分析・アプリケーション制御部43を備えている。また、眼球運動解析部41は、視点・瞳孔径解析部411及び視野映像解析部412を備え、位置方向解析部42は、緯度経度解析部421及び方向解析部422を備えている。また、行動分析・アプリケーション制御部43は、アプリケーション管理制御部431、記憶媒体432、データ同期管理制御部433、画像解析・エリア興味分析部434、データ転送管理制御部435及び機能間通信部436を備えている。
眼球運動解析部41の視点・瞳孔径解析部411は、めがね3の眼球画像用カメラ9から利用者2の眼球画像を入力し、眼球画像を解析することにより、後述する視野映像を平面としたときの視点(視野映像における視点の位置座標)及び瞳孔径を算出し、視点及び瞳孔径を行動分析・アプリケーション制御部43の画像解析・エリア興味分析部434に出力する。尚、眼球画像の解析手法についは既知であり、例えば、前述した特許文献1,2及び非特許文献1に記載されているから、ここでは説明を省略する。
視野映像解析部412は、めがね3の視野映像用カメラ8から利用者2の視野映像を入力し、例えば1/30秒毎に入力する視野映像と、視点・瞳孔径解析部411において算出される視点及び瞳孔径との時間的な対応付けを行い、視点・瞳孔径解析部411により出力される視点及び瞳孔径に時間的に対応した視野映像を行動分析・アプリケーション制御部43の画像解析・エリア興味分析部434に出力する。したがって、視点・瞳孔径解析部411により出力される視点及び瞳孔径と、視野映像解析部412により出力される視野映像とは、同期したデータとなる。
位置方向解析部42の緯度経度解析部421は、アンテナからGPSデータを入力し、GPSデータを解析することにより利用者2の位置情報(緯度及び経度)を生成し、その位置情報(緯度及び経度)を行動分析・アプリケーション制御部43のデータ同期管理制御部433に出力する。GPSデータは、GPS衛星との間の通信によって得られるデータである。
方向解析部422は、加速度センサから加速度センサデータを入力し、加速度センサデータを解析することにより利用者2の向き(方向)のデータを生成し、その方向を行動分析・アプリケーション制御部43のデータ同期管理制御部433に出力する。具体的には、方向解析部422は、加速度センサにより計測されたx,y,z方向の加速度センサデータを解析し、利用者2の向いている方向のデータを生成する。尚、利用者2の方向のデータを生成する手法の詳細については、例えば、特開2006−320566号公報を参照されたい。
行動分析・アプリケーション制御部43のアプリケーション管理制御部431は、記憶媒体432、データ同期管理制御部433、画像解析・エリア興味分析部434及びデータ転送管理制御部435の処理を統括的に制御して管理する。例えば、アプリケーション管理制御部431は、行動分析・アプリケーション処理の開始及び終了を各部に出力したり、各部の処理が同期して動作するように、同期信号を出力したりする。
データ同期管理制御部433は、位置方向解析部42の緯度経度解析部421から利用者2の位置情報(緯度及び経度)を入力すると共に、方向解析部422から利用者2の方向を入力し、位置情報(緯度及び経度)及び方向を同期させ、同期した位置情報(緯度及び経度)及び方向を画像解析・エリア興味分析部434及びデータ転送管理制御部435に出力する。尚、画像解析・エリア興味分析部434及びデータ転送管理制御部435からの要求に従って、同期した位置情報(緯度及び経度)及び方向を出力するようにしてもよい。
データ転送管理制御部435は、データ同期管理制御部433から同期した位置情報(緯度及び経度)及び方向を入力し、記憶媒体432が利用者2の位置情報(緯度及び経度)を中心として所定範囲内の全ての対象物1の対象物情報を常に記憶しているようにするため、取得対象の範囲を示す位置情報を含む対象物情報取得要求を、機能間通信部436を介して移動体端末5へ送信する。具体的には、データ転送管理制御部435は、利用者2の移動に伴って、既に入力した最新の位置情報(緯度及び経度)と新たに入力した位置情報(緯度及び経度)とを比較し、移動距離が所定距離以上である場合に、対象物情報取得要求を送信する。データ転送管理制御部435は、移動体端末5から機能間通信部436を介して、取得対象の範囲内に設置された全ての対象物1の対象物情報を受信し、その対象物情報を記憶媒体432に格納する。
例えば、データ転送管理制御部435は、利用者2の位置情報(緯度及び経度)及びそれを中心とした所定範囲の位置情報を取得対象の範囲の位置情報として、対象物取得要求を送信するようにしてもよい。この場合、データ転送管理制御部435は、移動体端末5から対象物情報を受信すると、記憶媒体432に既に格納されている対象物情報を削除し、受信した対象物情報を新たに格納する。
また、データ転送管理制御部435は、利用者2の移動に伴って、利用者2の位置情報(緯度及び経度)を中心とした所定範囲が変動した場合、その変動した範囲(新たな範囲)のみを取得対象の範囲として、対象物取得要求を送信するようにしてもよい。この場合、データ転送管理制御部435は、移動体端末5から対象物情報を受信すると、記憶媒体432に格納されている対象物情報のうち所定範囲外となった対象物情報を削除し、受信した新たな範囲内の対象物情報を記憶媒体432に格納する。これにより、記憶媒体432には、利用者2の位置情報(緯度及び経度)を中心とした所定範囲内の対象物情報が格納されていることになる。データ転送管理制御部435は、利用者2の位置情報(緯度及び経度)を中心とした所定範囲内の全ての対象物情報を受信する必要がなく、移動に伴う新たな範囲内の対象物情報のみを受信すればよいから、通信量を抑えることができ、効率の良い処理を実現することができる。
図9は、対象物情報の構成を示す図である。図9に示すように、対象物情報は、対象物ID、対象物の位置情報(緯度及び経度)、対象物の種類(例えば、POP、看板、ポスター、陳列棚)、マーカの形式(例えば、LED、QRコード、市松模様)、マーカの位置情報(対象物を正面から見たときの位置座標)、エリアとマーカとの関係を示す情報(関係情報)から構成される。これらの構成データは、対象物毎に存在する。ここで、マーカの位置情報は、例えば、利用者2が対象物を見たときの平面において、マーカが存在する座標を示す。また、エリアは、例えば4つのマーカにより囲まれる領域である場合、エリアとマーカとの関係情報は、1つのエリアと4つのマーカとの関係を示す情報となる。尚、エリア及びマーカには予め番号が付されている。これらのデータは、データ転送管理制御部435によって記憶媒体432に格納され、画像解析・エリア興味分析部434によって記憶媒体432から読み出される。
画像解析・エリア興味分析部434は、眼球運動解析部41から視点、瞳孔径及び視野映像を入力すると共に、データ同期管理制御部433から同期した位置情報(緯度及び経度)及び方向を入力し、これらのデータを時刻データと共に解析データとして記憶媒体432に格納する。
図11は、解析データの構成を示す図である。図11に示すように、解析データは、時刻、視点位置、瞳孔径、利用者2の位置情報(緯度及び経度)及び利用者2の方向のデータから構成される。前述したように、これらのデータは、画像解析・エリア興味分析部434によって記憶媒体432に格納され、データ転送管理制御部435によって記憶媒体432から読み出される。尚、視野映像は解析データに含まれるが、説明の便宜上省略してある。
画像解析・エリア興味分析部434は、記憶媒体432から対象物情報を読み出し、利用者2の位置情報(緯度及び経度)及び方向と、対象物情報に含まれる対象物1の位置情報(緯度及び経度)とに基づいて、利用者2と対象物1との位置関係を算出し、利用者2が注目している対象物1を特定する。具体的には、画像解析・エリア興味分析部434は、利用者2の位置情報(緯度及び経度)及び方向から、利用者2が存在する位置を中心として利用者2が見ている向きの所定距離内の領域を設定し、その範囲内にある対象物1を、対象物1の位置情報(緯度及び経度)から特定する。その範囲内にある対象物1が複数存在する場合は、最も近い対象物1を特定する。
そして、画像解析・エリア興味分析部434は、特定した対象物1において、利用者2が興味を示しているエリア(視線一致エリア)を、視野映像に含まれるマーカを識別することにより、また、特定した対象物1の対象物情報、利用者2の興味関心度合い等により判定する。以下、詳細に説明する。
図7は、対象物1、視野映像、視線一致場所及びマーカを説明する図である。図7に示すように、対象物1には複数のマーカ(図7において丸印の形態)が所定箇所に埋め込まれ、または貼り付けられており、そのマーカはそれぞれ固有の識別情報を有している。例えば、マーカがQRコードの場合、マーカにはそれぞれ0,1,2,3,・・・を示す情報が含まれている。マーカは、高輝度の赤外光LEDまたは蛍光体等からなり、LEDを並べて数字として表したものであってもよいし、市松模様のパターンであってもよい。
図7に示すように、利用者2が対象物1に注目し、めがね3に設けられた視野映像用カメラ8により視野映像が撮影されているものとする。この場合、視野映像には、対象物1に埋め込まれたマーカ(図7では4つのマーカ)が含まれ、利用者2の視点は、視野映像内に存在する。
図8は、視線一致エリアを判定する処理を説明する図である。図7と同様に、利用者2が対象物1に着目し、めがね3に設けられた視野映像用カメラ8により、4つのマーカM3,1、M3,2、M4,1及びM4,2を含む視野映像が撮影されているものとする。ここで、M3,1等はマーカの番号を示す。
画像解析・エリア興味分析部434は、対象物情報に含まれるマーカの形式に従ったマーカの識別処理を行い、眼球運動解析部41から入力した視野映像に含まれるマーカを識別する。図8の例では、4つのマーカM3,1、M3,2、M4,1、M4,2が識別される。そして、画像解析・エリア興味分析部434は、識別したマーカの位置情報を、特定した対象物1の対象物情報から取り出し、眼球運動解析部41から入力した視点の位置情報と、識別したマーカの位置情報とに基づいて、視点を囲む4つのマーカを特定する。
例えば、図9に示した対象物情報に含まれるマーカの位置情報が、(M3,1:x3,y1)(M3,2:x3,y2)等の情報であるとする。ここで、M3,1等はマーカの番号を示し、(x3,y1)等は対象物1におけるマーカの平面座標を示す。この場合、図8に示すように、画像解析・エリア興味分析部434は、識別したマーカM3,1の位置情報(x3,y1)等を対象物情報から取り出し、取り出したマーカの位置情報と視点の位置情報とに基づいて、視点を囲むマーカM3,1、M3,2、M4,1、M4,2を特定する。
そして、画像解析・エリア興味分析部434は、特定した対象物1の対象物情報に含まれるエリアとマーカの関係情報から、特定したマーカに囲まれるエリアを特定する。図8の例では、マーカM3,1、M3,2、M4,1及びM4,2に囲まれるエリアA3,1が特定される。
そして、画像解析・エリア興味分析部434は、特定したエリアに利用者2の視点が所定時間以上滞留していると判定した場合に、利用者2がそのエリアに興味を示したと判定し、そのエリアを視線一致エリアと判定する。この場合、画像解析・エリア興味分析部434は、視点滞留時間による判定に代えて、特定したエリアに対して、所定長以上の瞳孔径が所定時間以上継続していると判定した場合に、利用者2がそのエリアに興味を示したと判定し、そのエリアを視線一致エリアと判定するようにしてもよい。
画像解析・エリア興味分析部434は、どのエリアにどれだけの時間、視点が滞留していたかを算出する。つまり、画像解析・エリア興味分析部434は、同じエリアに視点が滞留している限り、その時間をカウントし、そのエリアにおける滞留時間を算出する。視点の滞留時間が長いほど、その視線一致エリアに対する興味関心度合いが高くなる。画像解析・エリア興味分析部434は、対象物1を識別するための対象物ID、エリア、そのエリアにおける視点の滞留時間、滞留開始時刻、滞留終了時刻及び視線一致エリアであるか否かの判定結果からなる行動結果を生成し、その行動結果を記憶媒体432に格納する。
図12は、行動結果の構成を示す図である。図12に示すように、行動結果は、対象物ID、エリア、そのエリアにおける視点の滞留時間、滞留開始時刻、滞留終了時刻及び視線一致エリアであるか否かの判定結果から構成される。これらのデータは、画像解析・エリア興味分析部434によって記憶媒体432に格納され、データ転送管理制御部435によって記憶媒体432から読み出される。尚、画像解析・エリア興味分析部434は、視点の滞留時間に代えて、瞳孔径の平均値を格納するようにしてもよい。この場合、瞳孔径の平均値が大きいほど、その視線一致エリアに対する興味関心度合いが高くなる。
画像解析・エリア興味分析部434は、視線一致エリアを判定し、視点が視線一致エリアから外れたときに、利用者2が興味を示したときの行動結果(対象物ID、エリア、そのエリアにおける視点の滞留時間、滞留開始時刻、滞留終了時刻、視線一致エリアである旨)を送信するようにアプリケーション管理制御部431を介してデータ転送管理制御部435に指示する。そして、データ転送管理制御部435は、利用者2が興味を示したときの行動結果を、機能間通信部436を介して移動体端末5へ送信する。また、データ転送管理制御部435は、所定の周期にて記憶媒体432から解析データ及び行動結果を読み出し、機能間通信部436を介して移動体端末5へ送信する。
〔移動体端末〕
次に、図1及び図2に示した移動体端末5について詳細に説明する。図5は、移動体端末5の構成を示すブロック図である。移動体端末5は、前述のように、機能制御部51を備えている。また、機能制御部51は、図5に示すように、中央制御部511、記憶媒体512、機能間通信部513及び移動体通信部514を備えている。
中央制御部511は、計測装置4から機能間通信部513を介して、取得対象の範囲を示す位置情報を含む対象物情報取得要求を受信し、取得対象の範囲の対象物情報に加えてアプリケーション情報も取得するために、対象物情報及びアプリケーション情報取得要求を、移動体通信部514を介してサービスセンター6へ送信する。そして、中央制御部511は、サービスセンター6から移動体通信部514を介して、取得対象の範囲の対象物情報及びアプリケーション情報を受信し、アプリケーション情報を記憶媒体512に格納する。
図10は、アプリケーション情報の構成を示す図である。図10に示すように、アプリケーション情報は、対象物ID、エリア番号、エリアに対応付けられるアプリケーション及びアプリケーションの起動方法から構成されている。記憶媒体512に格納されるアプリケーション情報は、利用者2の位置情報(緯度及び経度)を中心とした所定範囲内に設置された全ての対象物1における対象物1内のエリアについて、そのエリアに対応付けられたアプリケーション等の情報である。エリアに対応付けられているアプリケーションは、例えば、指定URLのウェブページの閲覧、指定アドレスへの電子メールの送信、アプリケーションの指定である。また、アプリケーションの起動方法には、例えば、即起動、興味関心度合いに応じた起動、移動体端末5を計測装置4に近づけたときに起動、がある。移動体端末5を計測装置4に近づけたときに起動するとは、計測装置4を近づけたときに反応するセンサが移動体端末5に設けられており、移動体端末5と計測装置4との間の距離が所定距離以上のときにはそのセンサは反応せず、移動体端末5と計測装置4との間の距離が所定距離よりも短いときにそのセンサが反応し、アプリケーションが起動することをいう。
尚、複数のエリア番号に同一のアプリケーションを割り付けるようにしてもよいし、1つのエリア番号に複数のアプリケーションを割り付けるようにしてもよい。また、興味関心度合い(例えば、視点滞留時間、瞳孔径)に応じたアプリケーションを割り付けておき、例えば、所定の設定値以上の興味関心度合いのときに、第1のアプリケーション(例えば、利用者2が興味を示していたエリアに表示されていた商品について、その商品購入用画面を表示するアプリケーション)が起動し、所定の設定値未満の興味関心度合いのときに、第2のアプリケーション(例えば、利用者2が興味を示していたエリアに表示されていた商品について、その商品の詳細な説明用画面を表示するアプリケーション)が起動するように割り付けてもよい。また、利用者2の位置情報(緯度及び経度)、利用者2の方向、時刻等のそれぞれの条件に応じたアプリケーションが起動するように、アプリケーション及びその起動方法を割り付けるようにしてもよい。
また、中央制御部511は、計測装置4から機能間通信部513を介して、解析データ及び行動結果を受信し、これらのデータを、移動体通信部514を介してサービスセンター6へ送信する。
また、中央制御部511は、計測装置4から機能間通信部513を介して、利用者2が興味を示したときの行動結果(対象物ID、エリア、そのエリアにおける視点の滞留時間、滞留開始時刻、滞留終了時刻、視線一致エリアである旨)を受信する。そして、中央制御部511は、記憶媒体512からアプリケーション情報を読み出し、受信した行動結果に含まれる対象物ID及びエリア(エリア番号)をキーとして、アプリケーション情報に含まれる、エリアに対応付けられるアプリケーション及びアプリケーションの起動方法を取り出す。
中央制御部511は、視線一致エリアに対応付けられているアプリケーションを、その起動方法で起動する。利用者2は、アプリケーションの起動に伴い、移動体端末5の画面に表示された情報を見て次の行動等を判断する。中央制御部511は、そのときの利用者2による行動、行為、動作を、移動体端末5への操作入力を介して、時刻データを含むコンバージョン情報として収集する。そして、中央制御部511は、行動結果、起動したアプリケーション(起動しなかった場合も含む)、起動方法及びコンバージョン情報を、移動体通信部514を介してサービスセンター6へ送信する。
〔サービスセンター〕
次に、図2に示したサービスセンター6のサーバ10について詳細に説明する。図6は、サーバ10の構成を示すブロック図である。サーバ10は、情報管理・分析部61を備えており、情報管理・分析部61は、移動体通信部62、対象物情報管理部63、情報分析部64及びパラメータ設定部65を備えている。
対象物情報管理部63は、管理部631、設定部632及び記憶媒体633を備えている。設定部632は、図9に示した対象物情報及び図10に示したアプリケーション情報を構成する各データを設定し、これらの情報を記憶媒体633に格納する。また、設定部632は、記憶媒体633から対象物情報及びアプリケーション情報を読み出し、これらの情報を構成する各データを修正し、記憶媒体633に格納する。つまり、記憶媒体633には、位置情報(緯度及び経度)に対応した対象物情報(図9を参照)及びアプリケーション情報(図10を参照)が格納されている。
管理部631は、移動体端末5から移動体通信部62を介して、取得対象の範囲を示す位置情報を含む対象物情報及びアプリケーション情報取得要求を受信する。管理部631は、対象物情報及びアプリケーション情報取得要求に含まれる取得対象の範囲を示す位置情報をキーにして記憶媒体633を検索し、その取得対象の範囲の対象物情報及びアプリケーション情報を読み出し、移動体通信部62を介して移動体端末5へ送信する。これにより、計測装置4は、利用者2の移動に伴い、利用者2の位置情報(緯度及び経度)を中心とした所定範囲内に設けられた対象物1の対象物情報を取得し、記憶媒体432に格納することができる。また、移動体端末5も同様に、利用者2の位置情報(緯度及び経度)を中心とした所定範囲内に設けられた対象物1のアプリケーション情報を取得し、記憶媒体512に格納することができる。
情報分析部64は、情報収集部641、対象物効果測定部642、行動分析部643、お薦め情報生成部644及び記憶媒体645を備えている。情報収集部641は、移動体端末5から移動体通信部62を介して、解析データ、行動結果、利用者2が興味を示したときの行動結果、起動したアプリケーション、起動方法及びコンバージョン情報等を受信し、記憶媒体645に格納する。
対象物効果測定部642は、利用者2が興味を示したときの行動結果等を用いることにより、対象物1が利用者2の行動に影響を及ぼしているか否かを数値化する。すなわち、対象物効果測定部642は、記憶媒体645から利用者2が興味を示したときの行動結果等のデータを読み出し、利用者2が注目した対象物において興味を示した視線一致エリア毎に、対象物効果測定結果を算出及び整理し、記憶媒体645に格納する。具体的には、対象物効果測定部642は、利用者2が興味を示したときの行動結果に含まれる視点滞留時間と、その時間において解析データに含まれる瞳孔径とを、視点の滞留開始時刻から滞留終了時刻までの間で積分処理を行い、その積分値である興味度を算出する。また、対象物効果測定部642は、最初に起動したアプリケーションの名称等を特定し、利用者2の行動、行為等を示すコンバージョン情報を特定する。起動したアプリケーションがない場合には、未起動のアプリケーションの名称等を特定する。コンバージョン情報には、例えば、アプリケーションの起動によって画面に表示された商品についての詳細な情報を取得するための操作、その商品の申し込み、購入決済等の操作がある。
また、対象物効果測定部642は、利用者2が興味を示した視線一致エリアが判定されてからアプリケーションが起動するまでの間の時間(T1)を算出し、アプリケーションが起動してから所定の行為を行うまでの間の時間(T2)を算出する。T2の算出において、所定の行為とは、例えば、アプリケーションの起動によって画面に表示された商品を購入する操作をいう。対象物効果測定部642は、所定の行為がコンバージョン情報に含まれている場合は時間T2を算出し、含まれていない場合は時間T2を算出しない。前述の例では、商品を購入する操作を行わなかった場合は、時間T2は算出されない。
また、対象物効果測定部642は、興味度、特定したアプリケーション及びコンバージョン情報、時間T1及び時間T2に基づいて、評価点(0〜100点)を算出する。例えば、興味度等のデータにそれぞれ重み付けをして、合計が100点以下になるように正規化する。これらのデータは、対象物効果測定結果として記憶媒体645に格納され、利用者2に通知するために移動体端末5へ送信され、また、有用なマーケティング情報として事業者へ提供される。
図13は、対象物効果測定結果の構成を示す図である。図13に示すように、対象物効果測定結果は、利用者2毎のデータであり、対象物、エリア、興味度、アプリケーション、コンバージョン情報、時間T1、時間T2及び評価点から構成される。前述したように、これらのデータは、対象物効果測定部642によって記憶媒体645に格納される。
このように、対象物効果測定部642が、利用者2の行動結果を対象物1毎に数値化することにより、利用者2の行動に対する対象物1の有用性を分析することができる。
行動分析部643は、利用者2である消費者の行動を分析するために、利用者2毎に、利用者2の行動結果を数値化する。すなわち、行動分析部643は、記憶媒体645から対象物効果測定結果を読み出し、利用者2毎に各対象物1に対する評価点を整理し、行動分析結果として記憶媒体645に格納する。
図14は、行動分析結果の構成を示す図である。図14に示すように、行動分析結果は、利用者2毎における各対象物1の評価点から構成される。例えば、利用者2である消費者1は、対象物aについて評価点が85、対象物bについての評価点が60であることが示されている。このような行動分析結果は、行動分析部643によって記憶媒体645に格納される。
このように、行動分析部643が、図14に示した行動分析結果を生成することにより、利用者2である消費者及び消費者モニターについて、対象物1が示す商品の購買パターン及び消費行動パターンを分析することができる。また、第1の利用者2の行動分析結果を、その第1の利用者2のグループ(年齢、性別、性格等)に属する他の利用者2に用いることにより、例えば、同じアプリケーションを起動して同じ商品情報を提示することにより、他の利用者2は所望する商品情報を見ることができ、結果として商品の購買を促進することができる。
尚、前記実施形態では、商品に対する消費行動を分析する例を示したが、アミューズメントパーク等の娯楽性の強い施設においても適用することができる。
お薦め情報生成部644は、利用者2である消費者の行動分析結果を、お薦め情報として整理し、リアルタイムに利用者2に提示する。すなわち、お薦め情報生成部644は、記憶媒体645から対象物効果測定結果及び行動分析結果を読み出し、起動したアプリケーション及びコンバージョン情報から商品名及び店舗名を特定し、購買点を決定し、興味度及び総合点(評価点)を含めたお薦め情報を生成し、記憶媒体645に格納し、利用者2が携帯する移動体端末5へ送信する。商品名及び店舗名は、例えば、アプリケーションの起動によって画面に表示される複数のデータに含まれており、利用者2が操作によって選択されたものとする。購買点は、予め点数が付けられたコンバージョン情報から決定される。例えば、アプリケーションの起動によって画面に表示された商品についての詳細な情報を取得するための操作をした場合の点数、その商品の申し込みの操作をした場合の点数、購入決済等の操作をした場合の点数等が予め用意されており、お薦め情報生成部644は、実際のコンバージョン情報に対応した点数を購買点として決定する。また、興味度及び総合点(評価点)は、対象物効果測定結果から取り出される。
図15は、お薦め情報の構成を示す図である。図15に示すように、お薦め情報は、利用者2毎、商品名及び店舗名における興味度、購買度及び総合点(評価点)により構成される。このようなお薦め情報は、お薦め情報生成部644によって記憶媒体645に格納される。
このように、お薦め情報生成部644が、利用者2に対するお薦め情報を生成し利用者2へ提示することにより、利用者2は、自らの興味に沿った商品及び店舗等について認識することができる。例えば、お薦め情報生成部644は、対象物1が設置されている対象地域の商店街及びショッピングセンター等に限定したお薦め情報を利用者2へ提示することができる。
パラメータ設定部65は、情動反応重み値設定部651、有意時間しきい値設定部652及び記憶媒体653を備えている。パラメータ設定部65は、計測装置4及び移動体端末5が動作するために必要な各種パラメータを設定し、移動体通信部62を介して送信する。ここで、パラメータ設定部65による各種パラメータの設定には、計測装置4及び移動体端末5に対し、所定の動作をさせるために必要なパラメータを設定することに加え、ある動作をしている計測装置4及び移動体端末5に対して新たな動作をさせるために、既に設定されてるパラメータを変更することも含まれる。設定した各種パラメータは、記憶媒体653に格納される。例えば、計測装置4における行動分析・アプリケーション制御部43のデータ転送管理制御部435は、利用者2の位置情報(緯度及び経度)を中心とした所定範囲内の対象物情報を取得する。この場合、パラメータ設定部65は、その所定範囲を定める距離を設定して送信する。また、計測装置4における行動分析・アプリケーション制御部43の画像解析・エリア興味分析部434は、利用者2が興味を示した視線一致エリアを判定する際にその設定値を設定して送信する。このように、パラメータ設定部65は、計測装置4及び移動体端末5が動作するために必要な各種パラメータを設定し変更するようにしたから、サービスセンター6側から計測装置4及び移動体端末5を制御することができる。尚、情動反応重み値設定部651、有意時間しきい値設定部652及び記憶媒体653の詳細については、後述する図16及び図17を用いた本発明の他の実施形態が適用される全体システムにおいて説明する。
以上のように、本発明の実施形態によれば、計測装置4は、利用者2の位置情報(緯度及び経度)及び方向、並びに対象物情報に含まれる対象物1の位置情報(緯度及び経度)に基づいて、利用者2が注目する対象物1を特定するようにした。これにより、利用者2が移動している場合であっても、複数の対象物の中から利用者2が注目している対象物1を特定することができる。
また、本発明の実施形態によれば、計測装置4は、視野映像内のマーカを識別し、対象物情報に含まれるマーカの形式及び位置情報、エリアとマーカとの関係情報、興味関心度合い、利用者2の視点のデータから、その対象物1内において視点が存在するエリアを判定し、利用者2が興味を示している視線一致エリアを判定することができる。
また、本発明の実施形態によれば、移動体端末5は、対象物1内で利用者2が興味をもっているエリアに対応付けられたアプリケーションを、アプリケーション情報に基づいて特定し起動するようにした。これにより、アプリケーションの起動に伴い、例えば画面表示された情報に基づいた利用者2の行動等のコンバージョン情報を得ることができ、利用者2の行動を分析することできる。
このように、本発明の実施形態によれば、移動する利用者2が注目している対象物1を特定し、その対象物1内で興味を示しているエリアを判定すると共に、利用者2の視線に基づいた情動反応を算出して客観的な結果を得るようにした。これにより、移動している利用者2に対して、客観的な行動分析を行うことができる。したがって、アンケート等の主観的な手段ではなく、客観的な手段を用いるようにしたから、行動要因分析の高精度化を実現することが可能となる。
〔変形例〕
次に、図2に示したシステムの変形例について説明する。図16は、本発明の他の実施形態が適用される全体システムを示すブロック図である。このシステムは、図2に示したシステムと同様に、計測装置4、移動体端末5、及びサービスセンター6のサーバ10により、対象物1内の特定のエリアに興味を示す利用者2について、その行動を分析することを目的とするものである。図2に示したシステムと、図16に示すシステムとを比較すると、図16の計測装置4は、図2の計測装置4における眼球運動解析部41、位置方向解析部42及び行動分析・アプリケーション制御部43に加えて、さらに、生理反応解析部44及び外界条件解析部45を備えている点で相違する。また、この相違に伴い、計測装置4の行動分析・アプリケーション制御部43及びサーバ10の情報管理・分析部61による処理が相違する。
図16において、計測装置4は、眼球運動解析部41、位置方向解析部42、行動分析・アプリケーション制御部43、生理反応解析部44及び外界条件解析部45を備えている。眼球運動解析部41及び位置方向解析部42については、図2のものと同様であるので、ここでは説明を省略する。
生理反応解析部44は、利用者2の所定箇所に付けられた脇下体温センサ及び体表センサから各種センサデータを入力し、入力した各種センサデータを解析し、体温、脈拍、体表温度及び発汗量を行動分析・アプリケーション制御部43に出力する。脇下体温センサは、利用者2の脇の下に付けられ、体温を検出するためのデータを出力する。体表センサは、例えば、下着または腕時計に付けられ、脈拍、体表温度及び発汗量を検出するためのデータを出力する。脈拍計を耳たぶに付けるようにしてもよい。
外界条件解析部45は、利用者2が保持している温度センサ、湿度センサ及び光量センサから各種センサデータを入力し、入力した各種センサデータを解析し、利用者2の周囲環境の外界条件に関するデータである外気温、湿度及び光量を行動分析・アプリケーション制御部43に出力する。
行動分析・アプリケーション制御部43は、対象物1の対象物情報を取得するための対象物取得要求を移動体端末5へ送信し、対象物情報を受信して記憶媒体に記憶する。また、行動分析・アプリケーション制御部43は、眼球運動解析部41から利用者2の視点及び瞳孔径並びに視野映像を、位置方向解析部42から利用者2の位置情報(緯度及び経度)及び方向を、生理反応解析部44から利用者2の体温、脈拍、体表温度及び発汗量を、外界条件解析部45から外気温、湿度及び光量をそれぞれ入力する。そして、行動分析・アプリケーション制御部43は、入力したこれらのデータを時系列に記憶媒体に格納する。
また、行動分析・アプリケーション制御部43は、利用者2が注目している対象物1を特定し、対象物1について、利用者2が興味を示しているエリアである視線一致エリアを判定し、視線一致エリアの情動反応を算出し、算出した情動反応の値が所定の閾値より大きくなる時間帯を有意時間として設定し、これらの行動結果を記憶媒体に格納すると共に移動体端末5へ送信する。行動分析・アプリケーション制御部43は、有意時間における各データに対し、興味誘導要因としてフラグ付けする。
以下、行動分析・アプリケーション制御部43による情動反応の算出及び有意時間の設定等の処理について詳細に説明する。行動分析・アプリケーション制御部43によるその他の処理については図2〜図4を用いて既に説明済みであるので、ここでは詳細な説明を省略する。
行動分析・アプリケーション制御部43のデータ同期管理制御部433は、位置方向解析部42から利用者2の位置情報(緯度及び経度)及び方向を入力すると共に、外界条件解析部45から外気温、湿度及び光量を入力し、入力したこれらのデータを同期させ、同期した位置情報(緯度及び経度)、方向、外気温、湿度及び光量を画像解析・エリア興味分析部434に出力する。
画像解析・エリア興味分析部434は、眼球運動解析部41から視点、瞳孔径及び視野映像を、生理反応解析部44から体温、脈拍、体表温度及び発汗量を、データ同期管理制御部433から同期した位置情報(緯度及び経度)、方向、外気温、湿度及び光量をそれぞれ入力する。
そして、画像解析・エリア興味分析部434は、前述のように、対象物1を特定し、特定した対象物1において利用者2が興味を示している視線一致エリアを判定すると共に、瞳孔径、体温、脈拍、体表温度及び発汗量の時系列データ(各データは同期しているものとする)に基づいて情動反応を算出する。具体的には、画像解析・エリア興味分析部434は、瞳孔径の時系列データをp(t)、体温の時系列データをa(t)、脈拍の時系列データをb(t)、体表温度の時系列データをc(t)、発汗量の時系列データをd(t)、各時系列データへの重み値をそれぞれP,A,B,C,D、定数をSとすると、以下の式により情動反応E(t)を算出する。
E(t)=P・p(t)+A・a(t)+B・b(t)+C・c(t)+D・d(t)+S
画像解析・エリア興味分析部434は、算出した情動反応E(t)と所定の閾値thとを比較し、情動反応E(t)が閾値th以上の場合に、その時間帯を有意時間として設定し、その時間帯のデータに対し興味誘導要因としてラベル付けをする。すなわち、以下の式により、J(t)=1のときのtを有意時間として設定する。
J(t)=1(if E(t)≧th)
=0(else)
そして、画像解析・エリア興味分析部434は、特定した対象物1を識別するための対象物ID、エリア、視点、瞳孔径、視野映像、体温、脈拍、体表温度、発汗量、利用者2の位置情報(緯度及び経度)、利用者2の方向、外気温、湿度、光量、重み付けした瞳孔径の時系列データP・p(t)等、情動反応E(t)及びラベルを時刻データと共に解析データとして記憶媒体432に格納する。解析データは、移動体端末5を介してサービスセンター6へ送信される。
図17は、有意時間を説明する図である。図17に示すように、情動反応E(t)が閾値thよりも大きい時間帯をt1〜t2,t3〜t4とすると、有意時間はt1〜t2,t3〜t4となる。したがって、時間t1〜t2,t3〜t4においてJ(t)=1となるから、解析データは、有意時間t1〜t2,t3〜t4の各データにラベルが付けられ、有意時間t1〜t2,t3〜t4における各データが興味誘導要因となる。
また、画像解析・エリア興味分析部434は、前述のとおり、特定した対象物1を識別するための対象物ID、判定した視線一致エリア、その視線一致エリアにおける視点の滞留時間、滞留開始時刻及び滞留終了時刻からなる行動結果を生成し、その行動結果を記憶媒体432に格納する。行動結果は、移動体端末5を介してサービスセンター6へ送信される。
また、データ転送管理制御部435は、前述のとおり、視線一致エリアを判定し、視点が視線一致エリアから外れたときに、利用者2が興味を示したときの行動結果(対象物ID、エリア、そのエリアにおける視点の滞留時間、滞留開始時刻、滞留終了時刻、視線一致エリアである旨)を送信するようにアプリケーション管理制御部431を介してデータ転送管理制御部435に指示する。そして、データ転送管理制御部435は、利用者2が興味を示したときの行動結果を、機能間通信部436を介して移動体端末5へ送信する。移動体端末5は、前述のとおり、計測装置4から利用者2が興味を示したときの行動結果を受信すると、その行動結果に対応するアプリケーションをアプリケーション情報から特定し、そのアプリケーションを起動する。また、データ転送管理制御部435は、所定の周期にて記憶媒体432から解析データ及び行動結果を読み出し、機能間通信部436を介して移動体端末5へ送信する。
次に、図6に示したサーバ10における情報管理・分析部61のパラメータ設定部65について説明する。パラメータ設定部65は、前述のとおり、情動反応重み値設定部651、有意時間しきい値設定部652及び記憶媒体653を備えている。情動反応重み値設定部651は、情動反応E(t)を算出する際に用いる瞳孔径、体温、脈拍、体表温度及び発汗量の時系列データの重み値を設定し、移動体通信部62を介して送信する。設定した重み値は記憶媒体653に格納される。また、情動反応重み値設定部651は、記憶媒体653から重み値を読み出して修正し、移動体通信部62を介して送信すると共に、記憶媒体653に格納する。
また、有意時間しきい値設定部652は、有意時間を算出する際に用いる閾値thを設定し、移動体通信部62を介して送信する。設定した閾値thは記憶媒体653に格納される。また、有意時間しきい値設定部652は、記憶媒体653から閾値thを読み出して修正し、移動体通信部62を介して送信すると共に、記憶媒体653に格納する。
また、パラメータ設定部65は、情動反応E(t)を算出する際に用いる時系列データの項目を設定し、移動体通信部62を介して送信すると共に、記憶媒体653に格納する。これにより、情動反応E(t)は、計測装置4の行動分析・アプリケーション制御部43において、パラメータ設定部65により設定された時系列データの項目で算出される。このように、パラメータ設定部65は、計測装置4及び移動体端末5が動作するために必要な、重み値及び閾値th等の各種パラメータを設定し変更するようにしたから、サービスセンター6側から計測装置4及び移動体端末5を制御することができる。
以上のように、本発明の他の実施形態によれば、移動している利用者2が注目する対象物1を特定し、その対象物1内で興味をもったエリアを判定すると共に、利用者2の視線に基づいた情動反応E(t)を算出して客観的な結果を得るようにした。これにより、移動している利用者2に対して、客観的な行動分析を行うことができる。したがって、アンケート等の主観的な手段ではなく、客観的な手段を用いるようにしたから、行動要因分析の高精度化を実現することが可能となる。
また、本発明の他の実施形態によれば、サーバ10の情報管理・分析部61は、情動反応E(t)を算出するために必要な各時系列データの重み値P等を設定するようにした。また、情報管理・分析部61は、有意時間を算出するために必要な閾値thを設定するようにした。これにより、利用者2に応じて重み値P及び閾値thを設定することができるから、利用者2の体調、体質、環境等に応じた精度の高い情動反応E(t)を算出することができる。したがって、行動要因分析の高精度化を実現することができる。
以上、図2及び図16に示したシステムを用いて本発明の実施形態を説明したが、さらに、興味関心度合いの大きさに応じて、視野映像のズームアップ度及び解像度を変更するようにしてもよい。具体的には、画像解析・エリア興味分析部434は、利用者2が実際に対象物1を見ているときの興味関心度合い(例えば、視点滞留時間、瞳孔径の大きさ、図16の変形例における情動反応でもよい)を、前述したように算出する。そして、図示しないズーム制御部は、画像解析・エリア興味分析部434から興味関心度合いを入力し、閾値判定により興味関心度合いが大きいと判定したときは、ズームアップ度が大きくなるようにズームアップ度を設定し、視線方向映像用カメラ8のズームを制御する。これにより、視線方向映像解析部412及び画像解析・エリア興味分析部434は、図示しないズーム制御部により制御されたズームアップ度による視野映像を入力することができる。したがって、興味関心度合いに応じた行動分析を行うことができる。つまり、興味関心度合いが大きい場合は、鮮明な視野映像を得て利用者2が注目している箇所を一層明確にすることができるから、より以上に正確な行動分析を行うことができる。
また、視線方向映像解析部412は、画像解析・エリア興味分析部434から興味関心度合いを入力し、閾値判定により興味関心度合いが大きいと判定したときは、解像度が高くなるように解像度を設定し、その解像度による視野映像を生成して出力する。これにより、画像解析・エリア興味分析部434は、興味関心度合いが大きい場合に高い解像度の視野映像を入力することができる。したがって、興味関心度合いに応じた行動分析を行うことができる。つまり、興味関心度合いが大きい場合は、鮮明な視野映像を得て利用者2が注目している箇所を一層明確にすることができるから、より以上に正確な行動分析を行うことができる。
この場合、サーバ10における情報管理・分析部61のパラメータ設定部65は、前述した図示しないズーム制御部及び視線方向映像解析部412における閾値のパラメータを設定し変更することができる。また、通常時のズームアップ度及び解像度、興味関心度合いが大きいときのズームアップ度及び解像度を含む、興味関心度合いに応じたズームアップ度及び解像度を設定し変更することができる。
尚、計測装置4、移動体端末5及びサーバ10は、それぞれCPU、RAM等の揮発性の記憶媒体、ROM等の不揮発性の記憶媒体、及びインターフェース等を備えたコンピュータによって構成される。図2に示した計測装置4に備えた眼球運動解析部41、位置方向解析部42及び行動分析・アプリケーション制御部43の各機能、及び図16に示した眼球運動解析部41、位置方向解析部42、行動分析・アプリケーション制御部43、生理反応解析部44及び外界条件解析部45の各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。また、移動体端末5に備えた機能制御部51の機能は、この機能を記述したプログラムをCPUに実行させることにより実現される。また、サーバ10に備えた情報管理・分析部61の機能は、この機能を記述したプログラムをCPUに実行させることにより実現される。また、これらのプログラムは、磁気ディスク(フロッピィー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の記憶媒体に格納して頒布することもできる。
以上、実施形態を挙げて本発明を説明したが、本発明は前記実施形態に限定されるものではなく、その技術思想を逸脱しない範囲で種々変形可能である。例えば、前記実施形態では、めがね3を用いるようにしたが、必ずしもめがね3である必要はなく、例えば、カメラが設けられた帽子であってもよい。要するに、カメラによって、利用者2の眼球画像及び視野映像が撮影されればよい。
また、前記実施形態では、計測装置4が瞳孔径を含む解析データを生成し、記憶媒体432に格納するようにしたが、必ずしも瞳孔径を含む必要はなく、例えば、瞬目回数、視点の滞留時間であってもよい。要するに、眼球画像から得られる利用者2の興味関心度合いまたは情動反応に関するデータであればよい。
また、前記実施形態では、計測装置4が視点滞留時間を含む行動結果を生成し、記憶媒体432に格納するようにしたが、必ずしも視点滞留時間である必要はなく、例えば、瞳孔径、瞬目回数であってもよい。要するに、眼球画像から得られる利用者2の興味関心度合いまたは情動反応に関するデータであればよい。
また、前記実施形態では、計測装置4が、生理反応データとして体温、脈拍、体表温度及び発汗量を扱うようにしたが、必ずしもこれらのデータである必要はなく、利用者2の生理反応に関するデータであればよい。また、前記実施形態では、計測装置4が、環境条件である外界条件のデータとして外気温、湿度及び光量を扱うようにしたが、必ずしもこれらのデータである必要はなく、利用者2の周囲の環境に関するデータであればよい。
本発明の実施形態が適用される全体システムの概略図である。 本発明の実施形態が適用される全体システムの構成を示すブロック図である。 全体の処理を説明する機能フロー図である。 計測装置の構成を示すブロック図である。 移動体端末の構成を示すブロック図である。 サーバの構成を示すブロック図である。 対象物、視野映像、視線一致場所及びマーカを説明する図である。 視線一致エリアを判定する処理を説明する図である。 対象物情報の構成を示す図である。 アプリケーション情報の構成を示す図である。 解析データの構成を示す図である。 行動結果の構成を示す図である。 対象物効果測定結果の構成を示す図である。 行動分析結果の構成を示す図である。 お薦め情報の構成を示す図である。 本発明の他の実施形態が適用される全体システムの構成を示すブロック図である。 有意時間を説明する図である。
符号の説明
1 対象物
2 利用者
3 めがね
4 計測装置
5 移動体端末
6 サービスセンター
7 ネットワーク
8 視野映像用カメラ
9 眼球画像用カメラ
10 サーバ
41 眼球運動解析部
42 位置方向解析部
43 行動分析・アプリケーション制御部
44 生理反応解析部
45 外界条件解析部
51 機能制御部
61 情報管理・分析部
62 移動体通信部
63 対象物情報管理部
64 情報分析部
65 パラメータ設定部
411 視点・瞳孔径解析部
412 視野映像解析部
421 緯度経度解析部
422 方向解析部
431 アプリケーション管理制御部
432 記憶媒体
433 データ同期管理制御部
434 画像解析・エリア興味分析部
435 データ転送管理制御部
436 機能間通信部
511 中央制御部
512 記憶媒体
513 機能間通信部
514 移動体通信部
631 管理部
632 設定部
633 記憶媒体
641 情報収集部
642 対象物効果測定部
643 行動分析部
644 お薦め情報生成部
645 記憶媒体
651 情動反応重み値設定部
652 有意時間しきい値設定部
653 記憶媒体
本発明は、利用者の行動を分析するための情報を生成する装置、システム、方法及びプログラムに関し、特に、移動する利用者が注目する対象物に関するアプリーションによって利用者の行動を分析する技術に関する。
そこで、本発明は上記課題を解決するためになされたものであり、その目的は、移動している人に対して行動分析を行う場合に、その人が注目している対象物に対する情動反応によって客観的な結果を得ることにより、行動要因分析の高精度化を実現可能な行動分析端末装置、行動分析システム、行動分析情報収集方法及びプログラムを提供することにある。
上記目的を達成するために、請求項1の発明は、移動する利用者が携帯する装置であって、前記利用者が興味を示している対象物に関する情報を提示することにより利用者の行動が分析される行動分析端末装置において、対象物の位置情報及びアプリケーション情報が格納された記憶媒体と、利用者の生理反応を解析する手段と、利用者の位置及び方向を解析する手段と、前記生理反応に基づいて利用者が興味を示していると判定した場合に、利用者の位置及び方向の情報と前記記憶媒体に格納された対象物の位置情報とにより、利用者が興味を示している対象物に関する情報を、前記記憶媒体に格納されたアプリケーション情報に基づいて取得して利用者へ提示する手段と、を備えたことを特徴とする。また、請求項2の発明は、移動する利用者が携帯する装置であって、前記移動する利用者が注目している対象物を特定し、前記対象物内で興味を示しているエリアを判定し、前記エリアに関する情報を利用者に提示し、利用者の行動に関する情報を生成することにより、利用者の行動が分析される行動分析端末装置において、対象物の位置情報、対象物内に配置された複数のマーカの位置情報、対象物内をマーカによって区分けされたエリアと前記マーカとの関係情報、及び、前記エリアに対応付けられたアプリケーション情報が格納された記憶媒体と、利用者に装着されたカメラにより撮影された、当該利用者の眼球画像及び当該利用者が見ている視野映像を入力し、前記眼球画像から眼球運動を解析して前記視野映像内の利用者の視点位置を算出する眼球運動解析手段と、利用者の位置及び方向を解析する位置方向解析手段と、前記記憶媒体に格納された対象物の位置情報、並びに、前記位置方向解析手段により解析された利用者の位置及び方向の情報に基づいて、利用者が注目している対象物を特定する対象物特定手段と、前記眼球運動解析手段により算出された利用者の視点位置を囲むマーカを前記視野映像から識別し、前記記憶媒体に格納されたエリアとマーカとの関係情報によって、前記対象物内で利用者が興味を示しているエリアを判定するエリア判定手段と、前記エリア判定手段により利用者が興味を示していると判定されたエリアに対する興味関心度合いを、前記眼球運動に基づいて算出する興味関心度合い算出手段と、前記エリア判定手段により利用者が興味を示していると判定されたエリアに関する情報を、前記記憶媒体に格納された、エリアに対応付けられたアプリケーション情報に基づいて取得し、利用者へ提示する情報提示手段と、前記情報提示手段により提示された情報に基づいた利用者の行動を、コンバージョン情報として収集する情報収集手段と、を備えたことを特徴とする。
また、請求項の発明は、請求項に記載の行動分析端末装置において、前記情報提示手段が、前記エリア判定手段により判定されたエリアに対応付けられたアプリケーション情報に基づいてアプリケーションを起動し、当該起動したアプリケーションによって前記エリアに関する情報を利用者へ提示する、ことを特徴とする。
また、請求項の発明は、請求項またはに記載の行動分析端末装置において、前記興味関心度合い算出手段により算出される興味関心度合いを、前記エリア判定手段により判定されたエリアに視点が存在しているときの視点滞留時間または瞳孔径の平均値とする、ことを特徴とする。
また、請求項の発明は、請求項からまでのいずれか一項に記載の行動分析端末装置において、さらに、前記位置方向解析手段により解析された利用者の位置情報に基づいた所定範囲内の全ての対象物について、前記対象物の位置情報、前記対象物内に配置された複数のマーカの位置情報、前記対象物内をマーカによって区分けされたエリアと前記マーカとの関係情報、及び、前記エリアに対応付けられたアプリケーション情報を、これらの情報を管理している装置から受信し、前記記憶媒体に格納する対象物情報及びアプリケーション情報収集手段を備えたことを特徴とする。
また、請求項の発明は、請求項からまでのいずれか一項に記載の行動分析端末装置において、前記興味関心度合い算出手段により算出された興味関心度合いに基づいて、視野映像のズームアップ度、解像度、または、ズームアップ度及び解像度を変更する、ことを特徴とする。
また、請求項の発明は、請求項からまでのいずれか一項に記載の行動分析端末装置において、さらに、利用者に装着された各種センサからのデータを解析し、利用者の生理反応データを得る生理反応解析手段と、利用者の周囲環境における外界条件を解析し、外界条件データを得る外界条件解析部と、前記眼球運動解析手段により眼球運動から解析された瞳孔径、及び前記生理反応解析手段により得られた生理反応データに基づいて情動反応を算出し、前記算出した情動反応が所定の閾値以上になる時間を有意時間に設定する情動反応算出及び有意時間設定手段と、を備え、前記情動反応及び有意時間設定手段により設定された有意時間における、視野映像、利用者の位置情報及び方向、前記対象物特定手段により特定された対象物における前記エリア判定手段により判定されたエリア、生理反応データ、並びに外界条件データに基づいて、利用者の行動が分析される、ことを特徴とする。
また、請求項の発明は、請求項に記載の行動分析端末装置において、前記生理反応データには、体温、脈拍、体表温度及び発汗量のうちの少なくとも一つが含まれる、ことを特徴とする。
また、請求項の発明は、請求項またはに記載の行動分析端末装置において、前記外界条件データには、外気温、湿度及び光量のうちの少なくとも一つが含まれる、ことを特徴とする。
また、請求項10の発明は、請求項からまでのいずれか一項に記載の行動分析端末装置と、前記行動分析端末装置により生成された、利用者の行動に関する情報を受信し、当該受信した情報に基づいて、利用者の行動を分析するサーバとを備えた行動分析システムであって、前記行動分析端末装置が、さらに、眼球運動解析手段により解析された眼球運動データ、位置方向解析手段により解析された利用者の位置及び方向の情報、対象物特定手段により特定された対象物に関する情報、エリア判定手段により判定されたエリアに関する情報、興味関心度合い算出手段により算出された興味関心度合い、情報提示手段により取得されたアプリケーション情報、及び情報収集手段により収集されたコンバージョン情報を前記サーバへ送信する送信手段を備えた、ことを特徴とする。
また、請求項11の発明は、請求項からまでのいずれか一項に記載の行動分析端末装置と、前記行動分析端末装置により生成された、利用者の行動に関する情報を受信し、当該受信した情報に基づいて、利用者の行動を分析するサーバとを備えた行動分析システムにおいて、前記行動分析端末装置が、さらに、眼球運動解析手段により解析された眼球運動データ、位置方向解析手段により解析された利用者の位置及び方向の情報、対象物特定手段により特定された対象物に関する情報、エリア判定手段により判定されたエリアに関する情報、興味関心度合い算出手段により算出された興味関心度合い、情報提示手段により取得されたアプリケーション情報、及び情報収集手段により収集されたコンバージョン情報を前記サーバへ送信する送信手段を備え、前記サーバが、行動分析端末装置の動作を変更するための各種パラメータを設定するパラメータ設定手段を備えたことを特徴とする。
請求項12の発明は、請求項11に記載の行動分析システムにおいて、前記サーバのパラメータ設定手段が、前記行動分析端末装置により算出される情動反応における瞳孔径及び生理反応データの重み値を設定する重み値設定手段と、前記行動分析端末装置により有意時間が設定される際の閾値を設定する閾値設定手段と、を備えたことを特徴とする。
また、請求項13の発明は、対象物の位置情報及びアプリケーション情報が格納された記憶媒体を備え、移動する利用者が携帯する装置により、前記利用者が興味を示している対象物に関する情報を提示し、利用者の行動に関する情報を生成する行動分析情報生成方法において、利用者の生理反応を解析するステップと、利用者の位置及び方向を解析するステップと、前記生理反応に基づいて利用者が興味を示していると判定した場合に、利用者の位置及び方向の情報と前記記憶媒体に格納された対象物の位置情報とにより、利用者が興味を示している対象物に関する情報を、前記記憶媒体に格納されたアプリケーション情報に基づいて取得して利用者へ提示するステップと、を備えたことを特徴とする。また、請求項14の発明は、対象物の位置情報、対象物内に配置された複数のマーカの位置情報、対象物内をマーカによって区分けされたエリアと前記マーカとの関係情報、及び、前記エリアに対応付けられたアプリケーション情報が格納された記憶媒体を備え、移動する利用者が携帯する装置により、前記記憶媒体に格納された情報に基づいて、前記移動する利用者が注目する対象物を特定し、前記対象物内で興味を示しているエリアを判定し、前記エリアに関する情報を利用者に提示し、利用者の行動に関する情報を生成する行動分析情報生成方法において、利用者に装着されたカメラにより撮影された、当該利用者の眼球画像及び当該利用者が見ている視野映像を入力し、前記眼球画像から眼球運動を解析して前記視野映像内の利用者の視点位置を算出すると共に、利用者の位置及び方向を解析するステップと、前記記憶媒体に格納された対象物の位置情報、並びに、前記利用者の位置及び方向の情報に基づいて、利用者が注目している対象物を特定するステップと、前記算出した利用者の視点位置を囲むマーカを前記視野映像から識別し、前記記憶媒体に格納されたエリアとマーカとの関係情報によって、前記対象物内で利用者が興味を示しているエリアを判定するステップと、前記判定したエリアに対する興味関心度合いを、前記眼球運動に基づいて情動反応として算出するステップと、前記判定したエリアに関する情報を、前記記憶媒体に格納された、エリアに対応付けられたアプリケーション情報に基づいて取得し、利用者へ提示するステップと、前記提示した情報に基づいた利用者の行動を、コンバージョン情報として収集するステップと、を有することを特徴とする。
また、請求項15の発明は、移動する利用者が携帯する装置であって、対象物の位置情報及びアプリケーション情報が格納された記憶媒体を備え、前記記憶媒体に格納された情報に基づいて、前記利用者が興味を示している対象物に関する情報を提示し、利用者の行動に関する情報を生成する装置による行動分析情報生成プログラムであって、前記装置を構成するコンピュータに、利用者の生理反応を解析するステップと、利用者の位置及び方向を解析するステップと、前記生理反応に基づいて利用者が興味を示していると判定した場合に、利用者の位置及び方向の情報と前記記憶媒体に格納された対象物の位置情報とにより、利用者が興味を示している対象物に関する情報を、前記記憶媒体に格納されたアプリケーション情報に基づいて取得して利用者へ提示するステップと、を実行させることを特徴とする。また、請求項16の発明は、移動する利用者が携帯する装置であって、対象物の位置情報、対象物内に配置された複数のマーカの位置情報、対象物内をマーカによって区分けされたエリアと前記マーカとの関係情報、及び、前記エリアに対応付けられたアプリケーション情報が格納された記憶媒体を備え、前記記憶媒体に格納された情報に基づいて、前記移動する利用者が注目する対象物を特定し、前記対象物内で興味を示しているエリアを判定し、前記エリアに関する情報を利用者に提示し、利用者の行動に関する情報を生成する装置による行動分析情報生成プログラムであって、前記装置を構成するコンピュータに、利用者に装着されたカメラにより撮影された、当該利用者の眼球画像及び当該利用者が見ている視野映像を入力し、前記眼球画像から眼球運動を解析して前記視野映像内の利用者の視点位置を算出すると共に、利用者の位置及び方向を解析するステップと、前記記憶媒体に格納された対象物の位置情報、並びに、前記利用者の位置及び方向の情報に基づいて、利用者が注目している対象物を特定するステップと、前記算出した利用者の視点位置を囲むマーカを前記視野映像から識別し、前記記憶媒体に格納されたエリアとマーカとの関係情報によって、前記対象物内で利用者が興味を示しているエリアを判定するステップと、前記判定したエリアに対する興味関心度合いを、前記眼球運動に基づいて情動反応として算出するステップと、前記判定したエリアに関する情報を、前記記憶媒体に格納された、エリアに対応付けられたアプリケーション情報に基づいて取得し、利用者へ提示するステップと、前記提示した情報に基づいた利用者の行動を、コンバージョン情報として収集するステップと、を実行させることを特徴とする。
以上のように、本発明によれば、移動する利用者が注目している対象物に対して、利用者の情動反応により客観的な結果を得るようにした。これにより、移動する利用者に対して、客観的な行動分析を行うことができる。したがって、アンケート等の主観的な手段ではなく、客観的な手段を用いるようにしたから、行動要因分析の高精度化を実現することが可能となる。
本発明は、利用者の行動を分析するために用いる端末装置、情報処理方法及びプログラムに関し、特に、移動する利用者が注目する対象物を特定し、対象物内のエリアを判定し、エリアに関するアプリケーションを起動して利用者の行動に関する情報を収集する技術に関する。
そこで、本発明は上記課題を解決するためになされたものであり、その目的は、移動している人に対して行動分析を行う場合に、その人が注目している対象物を特定し、対象物内のエリアを判定し、エリアに関するアプリケーションを起動して利用者の行動に関する情報を収集し、客観的な結果を得ることにより、行動要因分析の高精度化を実現可能な端末装置、情報処理方法及びプログラムを提供することにある。
上記目的を達成するために、請求項1の発明は、移動する利用者が携帯する装置であって、前記移動する利用者が注目している対象物を特定し、前記対象物内に配置された複数のマーカにより囲まれるエリアを判定し、前記エリアに関するアプリケーションを起動する端末装置において、対象物の存在位置を示す位置情報、前記対象物内に配置されたマーカの存在位置を示す位置情報、及び、複数のマーカにより囲まれる前記エリアと前記マーカとの関係を示す関係情報を含む対象物情報を記憶する対象物情報記憶手段と、前記対象物内のエリアと前記エリアに関するアプリケーションを起動するためのアプリケーション情報とを対応付けて記憶するアプリケーション情報記憶手段と、前記利用者の移動に伴って変化する移動距離が所定距離以上である場合に、前記利用者の現在の存在位置を基点とした所定範囲を定める情報を含む取得要求を、ネットワークを介して、対象物情報及びアプリケーション情報を管理するサーバへ送信し、前記サーバから、前記取得要求における所定範囲内に設置された対象物についての対象物情報、及び前記対象物内のエリアに対応付けられたアプリケーション情報を受信し、前記対象物情報記憶手段及びアプリケーション情報記憶手段にそれぞれ格納する対象物情報及びアプリケーション情報収集手段と、前記対象物情報記憶手段に格納された対象物の位置情報を読み出し、前記利用者の現在の存在位置を基点とした前記利用者が向いている方向の所定範囲内に、前記読み出した対象物の位置情報が示す存在位置が含まれる場合に、前記対象物を、前記利用者が注目している対象物として特定する対象物特定手段と、前記利用者が向いている前方が撮影された視野映像から、前記対象物特定手段により特定された対象物に配置されたマーカを識別し、前記識別したマーカの位置情報を前記対象物情報記憶手段から読み出し、前記利用者が見ている視点位置と、前記読み出したマーカの位置情報が示すマーカ位置とにより、前記視点位置を囲む複数のマーカを特定し、前記対象物情報記憶手段に格納されたマーカとエリアとの関係情報を読み出し、前記複数のマーカが囲むエリアを特定し、前記特定したエリアに前記利用者の視点位置が所定時間以上滞留している場合に、前記特定したエリアを、前記利用者が注目している対象物内のエリアとして判定するエリア判定手段と、前記アプリケーション情報記憶手段から、前記エリア判定手段により判定されたエリアに対応付けられた複数のアプリケーション情報を読み出し、前記エリアへの視点滞留時間に応じて、前記複数のアプリケーション情報のうちの一つを特定してアプリケーションを起動するアプリケーション起動手段と、前記アプリケーション起動手段によるアプリケーションの起動に伴って、前記利用者の入力操作を、前記利用者が注目していた対象物内のエリアに対する行動情報として収集する情報収集手段と、を備えたことを特徴とする。
また、請求項の発明は、請求項1に記載の端末装置において、前記エリア判定手段が、前記特定したエリアに前記利用者の視点位置が存在し、前記利用者の眼球の瞳孔径が所定長以上である場合に、前記特定したエリアを、前記利用者が注目している対象物内のエリアとして判定する、ことを特徴とする。
また、請求項の発明は、請求項1または2に記載の端末装置において、前記アプリケーション起動手段が、前記アプリケーション情報記憶手段から、前記エリア判定手段により判定されたエリアに対応付けられた複数のアプリケーション情報を読み出し、前記エリアに視点が滞留したときの眼球の瞳孔径に応じて、前記複数のアプリケーション情報のうちの一つを特定してアプリケーションを起動する、ことを特徴とする。
また、請求項の発明は、請求項1から3までのいずれか一項に記載の端末装置において、前記アプリケーション情報を、ウェブページを指定するURLとする、ことを特徴とする。
また、請求項の発明は、移動する利用者が携帯する装置が、対象物の存在位置を示す位置情報、前記対象物内に配置されたマーカの存在位置を示す位置情報、及び、複数のマーカにより囲まれる前記エリアと前記マーカとの関係を示す関係情報を含む対象物情報を記憶する対象物情報記憶手段と、前記対象物内のエリアと前記エリアに関するアプリケーションを起動するためのアプリケーション情報とを対応付けて記憶するアプリケーション情報記憶手段と、対象物情報及びアプリケーション情報収集手段と、対象物特定手段と、エリア判定手段と、アプリケーション起動手段と、情報収集手段とを備え、前記移動する利用者が注目している対象物を特定し、前記対象物内に配置された複数のマーカにより囲まれるエリアを判定し、前記エリアに関するアプリケーションを起動する情報処理方法において、前記対象物情報及びアプリケーション情報収集手段が、前記利用者の移動に伴って変化する移動距離が所定距離以上である場合に、前記利用者の現在の存在位置を基点とした所定範囲を定める情報を含む取得要求を、ネットワークを介して、対象物情報及びアプリケーション情報を管理するサーバへ送信し、前記サーバから、前記取得要求における所定範囲内に設置された対象物についての対象物情報、及び前記対象物内のエリアに対応付けられたアプリケーション情報を受信し、前記対象物情報記憶手段及びアプリケーション情報記憶手段にそれぞれ格納する第1のステップと、前記対象物特定手段が、前記対象物情報記憶手段に格納された対象物の位置情報を読み出し、前記利用者の現在の存在位置を基点とした前記利用者が向いている方向の所定範囲内に、前記読み出した対象物の位置情報が示す存在位置が含まれる場合に、前記対象物を、前記利用者が注目している対象物として特定する第2のステップと、前記エリア判定手段が、前記利用者が向いている前方が撮影された視野映像から、前記対象物特定手段により特定された対象物に配置されたマーカを識別し、前記識別したマーカの位置情報を前記対象物情報記憶手段から読み出し、前記利用者が見ている視点位置と、前記読み出したマーカの位置情報が示すマーカ位置とにより、前記視点位置を囲む複数のマーカを特定し、前記対象物情報記憶手段に格納されたマーカとエリアとの関係情報を読み出し、前記複数のマーカが囲むエリアを特定し、前記特定したエリアに前記利用者の視点位置が所定時間以上滞留している場合に、前記特定したエリアを、前記利用者が注目している対象物内のエリアとして判定する第3のステップと、前記アプリケーション起動手段が、前記アプリケーション情報記憶手段から、前記エリア判定手段により判定されたエリアに対応付けられた複数のアプリケーション情報を読み出し、前記エリアへの視点滞留時間に応じて、前記複数のアプリケーション情報のうちの一つを特定してアプリケーションを起動する第4のステップと、前記情報収集手段が、前記アプリケーション起動手段によるアプリケーションの起動に伴って、前記利用者の入力操作を、前記利用者が注目していた対象物内のエリアに対する行動情報として収集する第5のステップと、を有することを特徴とする。
また、請求項の発明は、請求項5に記載の情報処理方法において、前記第3のステップが、前記エリア判定手段により、前記特定したエリアに前記利用者の視点位置が存在し、前記利用者の眼球の瞳孔径が所定長以上である場合に、前記特定したエリアを、前記利用者が注目している対象物内のエリアとして判定する、ことを特徴とする。
また、請求項の発明は、請求項5または6に記載の情報処理方法において、前記第4のステップが、前記アプリケーション起動手段により、前記アプリケーション情報記憶手段から、前記エリア判定手段により判定されたエリアに対応付けられた複数のアプリケーション情報を読み出し、前記エリアに視点が滞留したときの眼球の瞳孔径に応じて、前記複数のアプリケーション情報のうちの一つを特定してアプリケーションを起動する、ことを特徴とする。
また、請求項の発明は、請求項5から7までのいずれか一項に記載の情報処理方法において、前記アプリケーション情報を、ウェブページを指定するURLとする、ことを特徴とする。
また、請求項の発明は、請求項5から8までのいずれか一項に記載の情報処理方法をコンピュータに実行させることを特徴とする情報処理プログラムにある。
以上のように、本発明によれば、移動する利用者が注目している対象物を特定し、対象物内のエリアを判定し、エリアに関するアプリケーションを提示して利用者の行動に関する情報を収集することにより客観的な結果を得るようにした。これにより、移動する利用者に対して、客観的な行動分析を行うことができる。したがって、アンケート等の主観的な手段ではなく、客観的な手段を用いるようにしたから、行動要因分析の高精度化を実現することが可能となる。

Claims (13)

  1. 移動する利用者が携帯する装置であって、前記移動する利用者が注目している対象物を特定し、前記対象物内で興味を示しているエリアを判定し、前記エリアに関する情報を利用者に提示し、利用者の行動に関する情報を生成することにより、利用者の行動が分析される行動分析端末装置において、
    対象物の位置情報、対象物内に配置された複数のマーカの位置情報、対象物内をマーカによって区分けされたエリアと前記マーカとの関係情報、及び、前記エリアに対応付けられたアプリケーション情報が格納された記憶媒体と、
    利用者に装着されたカメラにより撮影された、当該利用者の眼球画像及び当該利用者が見ている視野映像を入力し、前記眼球画像から眼球運動を解析して前記視野映像内の利用者の視点位置を算出する眼球運動解析手段と、
    利用者の位置情報及び方向を解析する位置方向解析手段と、
    前記記憶媒体に格納された対象物の位置情報、並びに、前記位置方向解析手段により解析された利用者の位置情報及び方向に基づいて、利用者が注目している対象物を特定する対象物特定手段と、
    前記眼球運動解析手段により算出された利用者の視点位置を囲むマーカを前記視野映像から識別し、前記記憶媒体に格納されたエリアとマーカとの関係情報によって、前記対象物内で利用者が興味を示しているエリアを判定するエリア判定手段と、
    前記エリア判定手段により利用者が興味を示していると判定されたエリアに対する興味関心度合いを、前記眼球運動に基づいて算出する興味関心度合い算出手段と、
    前記エリア判定手段により利用者が興味を示していると判定されたエリアに関する情報を、前記記憶媒体に格納された、エリアに対応付けられたアプリケーション情報に基づいて取得し、利用者へ提示する情報提示手段と、
    前記情報提示手段により提示された情報に基づいた利用者の行動を、コンバージョン情報として収集する情報収集手段と、
    を備えたことを特徴とする行動分析端末装置。
  2. 請求項1に記載の行動分析端末装置において、
    前記情報提示手段は、前記エリア判定手段により判定されたエリアに対応付けられたアプリケーション情報に基づいてアプリケーションを起動し、当該起動したアプリケーションによって前記エリアに関する情報を利用者へ提示する、ことを特徴とする行動分析端末装置。
  3. 請求項1または2に記載の行動分析端末装置において、
    前記興味関心度合い算出手段により算出される興味関心度合いを、前記エリア判定手段により判定されたエリアに視点が存在しているときの視点滞留時間または瞳孔径の平均値とする、ことを特徴とする行動分析端末装置。
  4. 請求項1から3までのいずれか一項に記載の行動分析端末装置において、
    さらに、前記位置方向解析手段により解析された利用者の位置情報に基づいた所定範囲内の全ての対象物について、前記対象物の位置情報、前記対象物内に配置された複数のマーカの位置情報、前記対象物内をマーカによって区分けされたエリアと前記マーカとの関係情報、及び、前記エリアに対応付けられたアプリケーション情報を、これらの情報を管理している装置から受信し、前記記憶媒体に格納する対象物情報及びアプリケーション情報収集手段を備えたことを特徴とする行動分析端末装置。
  5. 請求項1から4までのいずれか一項に記載の行動分析端末装置において、
    前記興味関心度合い算出手段により算出された興味関心度合いに基づいて、視野映像のズームアップ度、解像度、または、ズームアップ度及び解像度を変更する、ことを特徴とする行動分析端末装置。
  6. 請求項1から5までのいずれか一項に記載の行動分析端末装置において、
    さらに、利用者に装着された各種センサからのデータを解析し、利用者の生理反応データを得る生理反応解析手段と、
    利用者の周囲環境における外界条件を解析し、外界条件データを得る外界条件解析部と、
    前記眼球運動解析手段により眼球運動から解析された瞳孔径、及び前記生理反応解析手段により得られた生理反応データに基づいて情動反応を算出し、前記算出した情動反応が所定の閾値以上になる時間を有意時間に設定する情動反応算出及び有意時間設定手段と、を備え、
    前記情動反応及び有意時間設定手段により設定された有意時間における、視野映像、利用者の位置情報及び方向、前記対象物特定手段により特定された対象物における前記エリア判定手段により判定されたエリア、生理反応データ、並びに外界条件データに基づいて、利用者の行動が分析される、ことを特徴とする行動分析端末装置。
  7. 請求項6に記載の行動分析端末装置において、
    前記生理反応データには、体温、脈拍、体表温度及び発汗量のうちの少なくとも一つが含まれる、ことを特徴とする行動分析端末装置。
  8. 請求項6または7に記載の行動分析端末装置において、
    前記外界条件データには、外気温、湿度及び光量のうちの少なくとも一つが含まれる、ことを特徴とする行動分析端末装置。
  9. 請求項1から8までのいずれか一項に記載の行動分析端末装置と、前記行動分析端末装置により生成された、利用者の行動に関する情報を受信し、当該受信した情報に基づいて、利用者の行動を分析するサーバとを備えた行動分析システムであって、
    前記行動分析端末装置は、さらに、
    眼球運動解析手段により解析された眼球運動データ、位置方向解析手段により解析された利用者の位置情報及び方向、対象物特定手段により特定された対象物に関する情報、エリア判定手段により判定されたエリアに関する情報、興味関心度合い算出手段により算出された興味関心度合い、情報提示手段により取得されたアプリケーション情報、及び情報収集手段により収集されたコンバージョン情報を前記サーバへ送信する送信手段を備えた、ことを特徴とする行動分析システム。
  10. 請求項6から8までのいずれか一項に記載の行動分析端末装置と、前記行動分析端末装置により生成された、利用者の行動に関する情報を受信し、当該受信した情報に基づいて、利用者の行動を分析するサーバとを備えた行動分析システムにおいて、
    前記行動分析端末装置は、さらに、
    眼球運動解析手段により解析された眼球運動データ、位置方向解析手段により解析された利用者の位置情報及び方向、対象物特定手段により特定された対象物に関する情報、エリア判定手段により判定されたエリアに関する情報、興味関心度合い算出手段により算出された興味関心度合い、情報提示手段により取得されたアプリケーション情報、及び情報収集手段により収集されたコンバージョン情報を前記サーバへ送信する送信手段を備え、
    前記サーバは、
    行動分析端末装置の動作を変更するための各種パラメータを設定するパラメータ設定手段を備えたことを特徴とする行動分析システム。
  11. 請求項10に記載の行動分析システムにおいて、
    前記サーバのパラメータ設定手段は、
    前記行動分析端末装置により算出される情動反応における瞳孔径及び生理反応データの重み値を設定する重み値設定手段と、
    前記行動分析端末装置により有意時間が設定される際の閾値を設定する閾値設定手段と、を備えたことを特徴とする行動分析システム。
  12. 対象物の位置情報、対象物内に配置された複数のマーカの位置情報、対象物内をマーカによって区分けされたエリアと前記マーカとの関係情報、及び、前記エリアに対応付けられたアプリケーション情報が格納された記憶媒体を備え、移動する利用者が携帯する装置により、前記記憶媒体に格納された情報に基づいて、前記移動する利用者が注目する対象物を特定し、前記対象物内で興味を示しているエリアを判定し、前記エリアに関する情報を利用者に提示し、利用者の行動に関する情報を生成する行動分析情報生成方法において、
    利用者に装着されたカメラにより撮影された、当該利用者の眼球画像及び当該利用者が見ている視野映像を入力し、前記眼球画像から眼球運動を解析して前記視野映像内の利用者の視点位置を算出すると共に、利用者の位置情報及び方向を解析するステップと、
    前記記憶媒体に格納された対象物の位置情報、並びに、前記利用者の位置情報及び方向に基づいて、利用者が注目している対象物を特定するステップと、
    前記算出した利用者の視点位置を囲むマーカを前記視野映像から識別し、前記記憶媒体に格納されたエリアとマーカとの関係情報によって、前記対象物内で利用者が興味を示しているエリアを判定するステップと、
    前記判定したエリアに対する興味関心度合いを、前記眼球運動に基づいて情動反応として算出するステップと、
    前記判定したエリアに関する情報を、前記記憶媒体に格納された、エリアに対応付けられたアプリケーション情報に基づいて取得し、利用者へ提示するステップと、
    前記提示した情報に基づいた利用者の行動を、コンバージョン情報として収集するステップと、
    を有することを特徴とする行動分析情報生成方法。
  13. 移動する利用者が携帯する装置であって、対象物の位置情報、対象物内に配置された複数のマーカの位置情報、対象物内をマーカによって区分けされたエリアと前記マーカとの関係情報、及び、前記エリアに対応付けられたアプリケーション情報が格納された記憶媒体を備え、前記記憶媒体に格納された情報に基づいて、前記移動する利用者が注目する対象物を特定し、前記対象物内で興味を示しているエリアを判定し、前記エリアに関する情報を利用者に提示し、利用者の行動に関する情報を生成する装置による行動分析情報生成プログラムであって、前記装置を構成するコンピュータに、
    利用者に装着されたカメラにより撮影された、当該利用者の眼球画像及び当該利用者が見ている視野映像を入力し、前記眼球画像から眼球運動を解析して前記視野映像内の利用者の視点位置を算出すると共に、利用者の位置情報及び方向を解析するステップと、
    前記記憶媒体に格納された対象物の位置情報、並びに、前記利用者の位置情報及び方向に基づいて、利用者が注目している対象物を特定するステップと、
    前記算出した利用者の視点位置を囲むマーカを前記視野映像から識別し、前記記憶媒体に格納されたエリアとマーカとの関係情報によって、前記対象物内で利用者が興味を示しているエリアを判定するステップと、
    前記判定したエリアに対する興味関心度合いを、前記眼球運動に基づいて情動反応として算出するステップと、
    前記判定したエリアに関する情報を、前記記憶媒体に格納された、エリアに対応付けられたアプリケーション情報に基づいて取得し、利用者へ提示するステップと、
    前記提示した情報に基づいた利用者の行動を、コンバージョン情報として収集するステップと、
    を実行させることを特徴とする行動分析情報生成プログラム。
JP2008227176A 2008-09-04 2008-09-04 端末装置、情報処理方法及びプログラム Expired - Fee Related JP4282091B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008227176A JP4282091B1 (ja) 2008-09-04 2008-09-04 端末装置、情報処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008227176A JP4282091B1 (ja) 2008-09-04 2008-09-04 端末装置、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP4282091B1 JP4282091B1 (ja) 2009-06-17
JP2010061452A true JP2010061452A (ja) 2010-03-18

Family

ID=40872225

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008227176A Expired - Fee Related JP4282091B1 (ja) 2008-09-04 2008-09-04 端末装置、情報処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP4282091B1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012065311A (ja) * 2010-08-20 2012-03-29 Panasonic Corp 撮像装置および撮像方法
JP2014514632A (ja) * 2011-03-07 2014-06-19 ケービーエー2,インコーポレイティド イベント又は地理的場所における画像プロバイダからの分析データ収集のためのシステム及び方法
JPWO2012161349A1 (ja) * 2011-05-24 2014-07-31 九州日本電気ソフトウェア株式会社 情報処理装置、その制御方法、制御プログラム、情報処理システム、及び情報処理方法
JP2016046730A (ja) * 2014-08-25 2016-04-04 学校法人早稲田大学 視聴者注目情報提供システム、時空間マーカ設定装置及びそのプログラム、並びに、情報提供装置及びそのプログラム
JP2017016287A (ja) * 2015-06-30 2017-01-19 パイオニア株式会社 送信装置、サーバ装置、制御方法、プログラム、及び記憶媒体
CN106951523A (zh) * 2017-03-20 2017-07-14 北京搜狐新媒体信息技术有限公司 一种对象处理方法及系统
JP6298561B1 (ja) * 2017-05-26 2018-03-20 株式会社コロプラ ヘッドマウントデバイスと通信可能なコンピュータによって実行されるプログラム、当該プログラムを実行するための情報処理装置、およびヘッドマウントデバイスと通信可能なコンピュータによって実行される方法
WO2019176846A1 (ja) * 2018-03-13 2019-09-19 株式会社カネカ 判定システムおよび判定方法
JP2020177066A (ja) * 2019-04-16 2020-10-29 凸版印刷株式会社 観察状態表示システム、観察状態表示方法及びプログラム
WO2024050264A1 (en) * 2022-08-31 2024-03-07 Snap Inc. Multi-dimensional experience presentation using augmented reality

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8830164B2 (en) * 2009-12-14 2014-09-09 Panasonic Intellectual Property Corporation Of America User interface device and input method
JP6933455B2 (ja) * 2016-09-29 2021-09-08 株式会社東芝 関心維持システム及びサーバ
CN112631677A (zh) * 2020-12-21 2021-04-09 上海影创信息科技有限公司 资源支持提示方法和系统

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9774830B2 (en) 2010-08-20 2017-09-26 Panasonic Intellectual Property Management Co., Ltd. Imaging apparatus and imaging method
JP2012065311A (ja) * 2010-08-20 2012-03-29 Panasonic Corp 撮像装置および撮像方法
JP2014514632A (ja) * 2011-03-07 2014-06-19 ケービーエー2,インコーポレイティド イベント又は地理的場所における画像プロバイダからの分析データ収集のためのシステム及び方法
JPWO2012161349A1 (ja) * 2011-05-24 2014-07-31 九州日本電気ソフトウェア株式会社 情報処理装置、その制御方法、制御プログラム、情報処理システム、及び情報処理方法
JP5711364B2 (ja) * 2011-05-24 2015-04-30 Necソリューションイノベータ株式会社 情報処理装置、その制御方法、制御プログラム、情報処理システム、及び情報処理方法
JP2016046730A (ja) * 2014-08-25 2016-04-04 学校法人早稲田大学 視聴者注目情報提供システム、時空間マーカ設定装置及びそのプログラム、並びに、情報提供装置及びそのプログラム
JP2017016287A (ja) * 2015-06-30 2017-01-19 パイオニア株式会社 送信装置、サーバ装置、制御方法、プログラム、及び記憶媒体
CN106951523B (zh) * 2017-03-20 2019-12-10 北京搜狐新媒体信息技术有限公司 一种对象处理方法及系统
CN106951523A (zh) * 2017-03-20 2017-07-14 北京搜狐新媒体信息技术有限公司 一种对象处理方法及系统
JP6298561B1 (ja) * 2017-05-26 2018-03-20 株式会社コロプラ ヘッドマウントデバイスと通信可能なコンピュータによって実行されるプログラム、当該プログラムを実行するための情報処理装置、およびヘッドマウントデバイスと通信可能なコンピュータによって実行される方法
JP2018200566A (ja) * 2017-05-26 2018-12-20 株式会社コロプラ ヘッドマウントデバイスと通信可能なコンピュータによって実行されるプログラム、当該プログラムを実行するための情報処理装置、およびヘッドマウントデバイスと通信可能なコンピュータによって実行される方法
WO2019176846A1 (ja) * 2018-03-13 2019-09-19 株式会社カネカ 判定システムおよび判定方法
JPWO2019176846A1 (ja) * 2018-03-13 2021-03-25 株式会社カネカ 判定システムおよび判定方法
JP7257381B2 (ja) 2018-03-13 2023-04-13 株式会社カネカ 判定システムおよび判定方法
JP2020177066A (ja) * 2019-04-16 2020-10-29 凸版印刷株式会社 観察状態表示システム、観察状態表示方法及びプログラム
JP7342409B2 (ja) 2019-04-16 2023-09-12 凸版印刷株式会社 観察状態表示システム、観察状態表示方法及びプログラム
WO2024050264A1 (en) * 2022-08-31 2024-03-07 Snap Inc. Multi-dimensional experience presentation using augmented reality

Also Published As

Publication number Publication date
JP4282091B1 (ja) 2009-06-17

Similar Documents

Publication Publication Date Title
JP4282091B1 (ja) 端末装置、情報処理方法及びプログラム
US10878636B2 (en) System and method for selecting targets in an augmented reality environment
US10367985B2 (en) Wearable apparatus and method for processing images including product descriptors
US10965975B2 (en) Systems and methods for recognizing faces using non-facial information
Huang et al. An augmented reality sign-reading assistant for users with reduced vision
KR101229078B1 (ko) 실내외 상황인식 기반의 모바일 혼합현실 콘텐츠 운용 장치 및 방법
US20170115742A1 (en) Wearable augmented reality eyeglass communication device including mobile phone and mobile computing via virtual touch screen gesture control and neuron command
KR20130065586A (ko) 모바일 광고 표시 장치 및 방법
KR101643915B1 (ko) 지역적 특성이 반영된 맞춤형 광고를 위한 빅데이터 구축시스템
US20100153180A1 (en) Generating Receptivity Cohorts
US20110161163A1 (en) Wearable advertising ratings methods and systems
JP2013251800A (ja) 情報処理装置、情報処理方法およびプログラム
WO2018127782A1 (en) Wearable augmented reality eyeglass communication device including mobile phone and mobile computing via virtual touch screen gesture control and neuron command
US9788164B2 (en) Method and apparatus for determination of kinematic parameters of mobile device user
Stuart et al. Do you see what I see? Mobile eye-tracker contextual analysis and inter-rater reliability
JP2014230616A (ja) 運動支援システム、端末装置、サーバー装置、情報提供方法、情報集計方法、情報提供プログラムおよび情報集計プログラム
KR101554776B1 (ko) 피사체의 촬영을 통한 피사체 소스정보의 제공방법 및 이를 위한 서버와 휴대용 단말기
WO2013024667A1 (ja) 関心地点抽出装置、関心地点抽出方法、及びコンピュータ読み取り可能な記録媒体
WO2018128542A1 (en) Method and system for providing information of an animal
US11798597B2 (en) Information output apparatus, information output method and design support system
JP7176792B1 (ja) 情報処理システム及び情報処理方法
Zhang et al. Enabling an augmented reality ecosystem: a content-oriented survey
WO2022259450A1 (ja) 情報処理装置、情報処理システム、情報処理方法及び非一時的なコンピュータ可読媒体
JP7159373B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
WO2022029894A1 (ja) 情報処理装置、情報処理システム、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090311

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090316

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120327

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120327

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150327

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees