JP4282091B1 - Terminal device, information processing method, and program - Google Patents

Terminal device, information processing method, and program Download PDF

Info

Publication number
JP4282091B1
JP4282091B1 JP2008227176A JP2008227176A JP4282091B1 JP 4282091 B1 JP4282091 B1 JP 4282091B1 JP 2008227176 A JP2008227176 A JP 2008227176A JP 2008227176 A JP2008227176 A JP 2008227176A JP 4282091 B1 JP4282091 B1 JP 4282091B1
Authority
JP
Japan
Prior art keywords
information
user
area
application
analysis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008227176A
Other languages
Japanese (ja)
Other versions
JP2010061452A (en
Inventor
功一 飯塚
剛 花村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mobile Business Promote Co Ltd
Original Assignee
Mobile Business Promote Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mobile Business Promote Co Ltd filed Critical Mobile Business Promote Co Ltd
Priority to JP2008227176A priority Critical patent/JP4282091B1/en
Application granted granted Critical
Publication of JP4282091B1 publication Critical patent/JP4282091B1/en
Publication of JP2010061452A publication Critical patent/JP2010061452A/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Position Input By Displaying (AREA)
  • Studio Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】移動する人が注目している対象物を特定し、対象物内で興味を示しているエリアを判定すると共に、情動反応を算出して客観的な結果を得ることにより、行動要因分析の高精度化を実現する。
【解決手段】計測装置4の行動分析・アプリケーション制御部43は、利用者2の位置情報、方向及び対象物1の位置情報に基づいて、利用者2が注目している対象物1を特定する。そして、行動分析・アプリケーション制御部43は、視野映像内のマーカを識別し、対象物情報に基づいて利用者2の視点位置から、その対象物1内において利用者2が興味を示しているエリアを判定し、情動反応を算出する。そして、移動体端末5の機能制御部51は、利用者2が興味を示しているエリアに対応付けられたアプリケーションを起動する。アプリケーションの起動に伴う利用者2のコンバージョン情報を得ることにより、利用者2の行動を分析することできる。
【選択図】図4
An object of the present invention is to analyze a behavior factor by identifying an object of interest by a moving person, determining an area of interest in the object, and calculating an objective response to obtain an objective result. Realization of high accuracy.
A behavior analysis / application control unit 43 of a measuring device 4 identifies a target object 1 that a user 2 is paying attention to based on the position information and direction of the user 2 and the position information of the target object 1. . Then, the behavior analysis / application control unit 43 identifies the marker in the visual field image, and from the viewpoint position of the user 2 based on the object information, the area where the user 2 is interested in the object 1 And emotional reaction is calculated. And the function control part 51 of the mobile terminal 5 starts the application matched with the area where the user 2 is interested. By obtaining the conversion information of the user 2 accompanying the activation of the application, the behavior of the user 2 can be analyzed.
[Selection] Figure 4

Description

本発明は、利用者の行動を分析するために用いる端末装置、情報処理方法及びプログラムに関し、特に、移動する利用者が注目する対象物を特定し、対象物内のエリアを判定し、エリアに関するアプリケーションを起動して利用者の行動に関する情報を収集する技術に関する。 The present invention relates to a terminal device, an information processing method, and a program used for analyzing a user's behavior, and in particular, to identify an object that a moving user is interested in , determine an area in the object, and relate to the area. The present invention relates to a technique for starting an application and collecting information on user behavior .

従来、コンテンツに対する興味関心度合いを評価するシステムとして、人間の眼球運動に基づくものが知られている(特許文献1を参照)。このシステムは、人間の情動反応が眼球運動に表れることに着目し、表示装置に表示されたコンテンツに対する利用者の視点滞留時間または瞳孔径を算出することによって、コンテンツへの興味関心度合いを定量的に算出し、コンテンツを評価するものである。   Conventionally, a system based on human eye movement is known as a system for evaluating the degree of interest in content (see Patent Document 1). This system focuses on the fact that human emotional responses appear in eye movements, and calculates the user's viewpoint dwell time or pupil diameter for the content displayed on the display device, thereby quantitatively determining the degree of interest in the content. The content is calculated and evaluated.

このようなシステムにおいて、利用者の視点滞留時間及び瞳孔径は、利用者の視線及び眼球画像に基づいて計測される。利用者の視線を検出するためには、例えば、眼球へ赤外線を照射して撮影した眼球画像と、赤外線を照射していないときに撮影した眼球画像との差分画像が用いられる(特許文献2を参照)。また、利用者の視線を一層精度高く検出するために、眼球形状モデルを用いる技術も知られている(非特許文献1を参照)。   In such a system, the user's viewpoint dwell time and pupil diameter are measured based on the user's line of sight and eyeball image. In order to detect the user's line of sight, for example, a difference image between an eyeball image captured by irradiating the eyeball with infrared rays and an eyeball image captured when the infrared rays are not irradiated is used (see Patent Document 2). reference). In addition, a technique using an eyeball shape model is also known in order to detect a user's line of sight with higher accuracy (see Non-Patent Document 1).

ところで、利用者の眼球を撮影するカメラ、及び、利用者が実際に見ているコンテンツ等を撮影するカメラが設けられためがねが知られている(非特許文献2を参照)。このめがねは、カメラにより撮影された眼球画像及びコンテンツ等の視野映像を格納する記録媒体も備えている。利用者がこのめがねをかけることにより、カメラで撮影した眼球画像及び視野映像が記録媒体に格納される。そして、制御装置は、記録媒体から眼球画像及び視野映像を読み出し、画像処理を行うことにより、視野映像内の視点位置、視点軌跡、滞留時間、瞳孔径、瞬目回数等を算出する。   By the way, it is known that a camera for photographing a user's eyeball and a camera for photographing a content actually viewed by the user are provided (see Non-Patent Document 2). The eyeglasses are also provided with a recording medium for storing eyeball images taken by a camera and visual field images such as contents. When the user wears the glasses, the eyeball image and the field-of-view image captured by the camera are stored in the recording medium. Then, the control device reads the eyeball image and the visual field image from the recording medium and performs image processing to calculate the viewpoint position, the viewpoint locus, the residence time, the pupil diameter, the number of blinks, and the like in the visual field image.

一方、携帯電話等の移動体端末を用いたナビゲーションシステムが知られている(特許文献3を参照)。このシステムは、移動体端末から情報を収集し、収集した情報を分析して加工し、ナビゲーションに関する各種の情報を生成して移動体端末へ送信するものである。例えば、移動体端末から利用者の位置情報を行動結果として収集し、予め設定された行動予定と収集した行動結果との間の違いを分析する。このようにして分析された結果は、マーケティング等の集計のために利用される。   On the other hand, a navigation system using a mobile terminal such as a mobile phone is known (see Patent Document 3). This system collects information from a mobile terminal, analyzes and processes the collected information, generates various types of information related to navigation, and transmits the information to the mobile terminal. For example, user location information is collected from the mobile terminal as an action result, and the difference between the preset action schedule and the collected action result is analyzed. The result analyzed in this way is used for tabulation such as marketing.

特開2004−282471号公報JP 2004-282471 A 特開2007−4448号公報JP 2007-4448 A 特開2003−196284号公報JP 2003-196284 A 大野健彦、他2名、「眼球形状モデルに基づく視線測定法」、第8回画像センシングシンポジウム、2002年、pp.307−312Takehiko Ohno and two others, “Gaze Measurement Method Based on Eyeball Shape Model”, 8th Image Sensing Symposium, 2002, pp. 307-312 “モバイル型アイマークレコーダ EMR−9”、[online]、株式会社ナックイメージテクノロジー、[平成20年8月1日検索]、インターネット<URL:http://www.eyemark.jp/product/emr_9/index.html>“Mobile Eye Mark Recorder EMR-9”, [online], NAC Image Technology, Inc. [searched on August 1, 2008], Internet <URL: http://www.eyemark.jp/product/emr_9/ index.html>

前述した特許文献1のシステムは、表示装置に表示されたコンテンツの画面を利用者が見ることにより、興味関心度合いを算出してコンテンツを評価する。このため、コンテンツが表示される画面を予め用意し、利用者が表示装置の前でそのコンテンツを見る必要があり、コンテンツを評価するための準備に手間がかかるという問題があった。また、利用者が様々な場所へ移動し、例えば、移動先で看板を見たときに、その看板内で注目したコンテンツ等が特定され、そのコンテンツ等に対応した利用者の行動が分析されるとすると、その分析結果は利用者及びコンテンツ提供者等にとって有用なものになり得る。   In the system disclosed in Patent Document 1 described above, when a user views a screen of content displayed on a display device, the degree of interest is calculated and content is evaluated. For this reason, there is a problem in that it is necessary to prepare a screen on which content is displayed in advance, and the user needs to view the content in front of the display device, so that preparation for evaluating the content takes time. In addition, when a user moves to various places, for example, when he sees a signboard at the destination, the content or the like noticed in the signboard is specified, and the behavior of the user corresponding to the content or the like is analyzed Then, the analysis result can be useful for users and content providers.

例えば、前述した非特許文献2のめがねを用いたシステムを想定した場合、そのめがねによって、移動する利用者が実際に見た視野映像を得ることができると共に、視野映像内の視点位置における興味関心度合いを算出することができる。しかしながら、利用者が例えば看板を見た場合、このシステムでは、視野映像が看板内のどの位置に存在するのか、利用者が看板内のどの箇所に興味をもったのか、また、利用者が看板内のどのコンテンツに注目したのかについて判断することができない。したがって、特許文献1のシステムに非特許文献2のめがめを適用したシステムを想定した場合であっても、移動する利用者の行動を分析することができず、有用な情報を生成することもできない。   For example, when the system using the glasses of Non-Patent Document 2 described above is assumed, it is possible to obtain a view image actually viewed by a moving user with the glasses, and interest in the viewpoint position in the view image. The degree can be calculated. However, when the user looks at the signboard, for example, in this system, the position where the view image exists in the signboard, the location in the signboard where the user is interested, and the user It is not possible to determine which content is noticed. Therefore, even when a system in which the glasses of Non-Patent Document 2 are applied to the system of Patent Document 1 is assumed, the behavior of the moving user cannot be analyzed, and useful information may be generated. Can not.

一般に、人間の行動を分析するには、例えばアンケートに対する回答を得て、その回答を集計する必要がある。しかし、このアンケートによる行動分析は主観的なものであるから、必ずしも客観的な分析結果が得られるとは限らない。   In general, in order to analyze human behavior, for example, it is necessary to obtain answers to a questionnaire and tabulate the answers. However, since the behavioral analysis by the questionnaire is subjective, objective analysis results are not always obtained.

そこで、本発明は上記課題を解決するためになされたものであり、その目的は、移動している人に対して行動分析を行う場合に、その人が注目している対象物を特定し、対象物内のエリアを判定し、エリアに関するアプリケーションを起動して利用者の行動に関する情報を収集し、客観的な結果を得ることにより、行動要因分析の高精度化を実現可能な端末装置、情報処理方法及びプログラムを提供することにある。 Therefore, the present invention has been made in order to solve the above-described problem, and its purpose is to identify an object that the person is paying attention to when performing behavior analysis on a moving person , Terminal device and information that can achieve high-precision behavioral factor analysis by determining the area within the target object, collecting information about user behavior by starting applications related to the area, and obtaining objective results It is to provide a processing method and a program.

上記目的を達成するために、請求項1の発明は、移動する利用者が携帯する装置であって、前記移動する利用者が注目している対象物を特定し、前記対象物内に配置された複数のマーカにより囲まれるエリアを判定し、前記エリアに関するアプリケーションを起動する端末装置において、対象物の存在位置を示す位置情報、前記対象物内に配置されたマーカの存在位置を示す位置情報、及び、複数のマーカにより囲まれる前記エリアと前記マーカとの関係を示す関係情報を含む対象物情報を記憶する対象物情報記憶手段と、前記対象物内のエリアと前記エリアに関するアプリケーションを起動するためのアプリケーション情報とを対応付けて記憶するアプリケーション情報記憶手段と、前記利用者の移動に伴って変化する移動距離が所定距離以上である場合に、前記利用者の現在の存在位置を基点とした所定範囲を定める情報を含む取得要求を、ネットワークを介して、対象物情報及びアプリケーション情報を管理するサーバへ送信し、前記サーバから、前記取得要求における所定範囲内に設置された対象物についての対象物情報、及び前記対象物内のエリアに対応付けられたアプリケーション情報を受信し、前記対象物情報記憶手段及びアプリケーション情報記憶手段にそれぞれ格納する対象物情報及びアプリケーション情報収集手段と、前記対象物情報記憶手段に格納された対象物の位置情報を読み出し、前記利用者の現在の存在位置を基点とした前記利用者が向いている方向の所定範囲内に、前記読み出した対象物の位置情報が示す存在位置が含まれる場合に、前記対象物を、前記利用者が注目している対象物として特定する対象物特定手段と、前記利用者が向いている前方が撮影された視野映像から、前記対象物特定手段により特定された対象物に配置されたマーカを識別し、前記識別したマーカの位置情報を前記対象物情報記憶手段から読み出し、前記利用者が見ている視点位置と、前記読み出したマーカの位置情報が示すマーカ位置とにより、前記視点位置を囲む複数のマーカを特定し、前記対象物情報記憶手段に格納されたマーカとエリアとの関係情報を読み出し、前記複数のマーカが囲むエリアを特定し、前記特定したエリアに前記利用者の視点位置が所定時間以上滞留している場合に、前記特定したエリアを、前記利用者が注目している対象物内のエリアとして判定するエリア判定手段と、前記アプリケーション情報記憶手段から、前記エリア判定手段により判定されたエリアに対応付けられた複数のアプリケーション情報を読み出し、前記エリアへの視点滞留時間に応じて、前記複数のアプリケーション情報のうちの一つを特定してアプリケーションを起動するアプリケーション起動手段と、前記アプリケーション起動手段によるアプリケーションの起動に伴って、前記利用者の入力操作を、前記利用者が注目していた対象物内のエリアに対する行動情報として収集する情報収集手段と、を備えたことを特徴とする。 In order to achieve the above object, the invention of claim 1 is an apparatus that is carried by a moving user, identifies an object that the moving user is paying attention to, and is arranged in the object. In a terminal device that determines an area surrounded by a plurality of markers and activates an application related to the area, position information indicating the position of the target object, position information indicating the position of the marker arranged in the target object, And object information storage means for storing object information including relationship information indicating the relationship between the area surrounded by a plurality of markers and the marker, and an area in the object and an application related to the area Application information storage means for storing the application information in association with each other, and a moving distance that changes as the user moves is a predetermined distance. If it is above, an acquisition request including information defining a predetermined range based on the current location of the user is transmitted to a server that manages object information and application information via the network, and the server Receiving the object information about the object installed within the predetermined range in the acquisition request and the application information associated with the area in the object, and the object information storage means and the application information storage means The object information and application information collecting means to be stored respectively in the object information and the position information of the object stored in the object information storage means are read out, and the user based on the current location of the user is suitable for the user. When the presence position indicated by the position information of the read target object is included within a predetermined range in the direction in which the target object is It is arranged on the object specified by the object specifying means from the object specifying means for specifying the object that the user is paying attention to and the visual field image in which the front facing the user is taken. The position of the identified marker is read out from the object information storage means, the viewpoint position that the user is viewing, and the position of the viewpoint indicated by the position information of the read marker A plurality of markers that surround the target object information storage means, read out the relationship information between the markers and the area stored in the object information storage means, specify the area that the plurality of markers surround, and the user's viewpoint in the specified area Area determination means for determining the identified area as an area within the object that the user is paying attention to when the position remains for a predetermined time or more; and the application Read out a plurality of pieces of application information associated with the area determined by the area determination unit from the application information storage unit, and specify one of the plurality of application information according to the viewpoint dwell time in the area And an application activation unit that activates the application, and the user's input operation is collected as action information for the area in the target object that the user has noticed as the application is activated by the application activation unit. And an information collecting means .

また、請求項の発明は、請求項1に記載の端末装置において、前記エリア判定手段が、前記特定したエリアに前記利用者の視点位置が存在し、前記利用者の眼球の瞳孔径が所定長以上である場合に、前記特定したエリアを、前記利用者が注目している対象物内のエリアとして判定する、ことを特徴とする。 In addition, according to a second aspect of the present invention, in the terminal device according to the first aspect, the area determining means has the viewpoint position of the user in the specified area, and a pupil diameter of the user's eyeball is predetermined. When the length is equal to or greater than the length, the identified area is determined as an area in the target object that the user is paying attention to.

また、請求項の発明は、請求項1または2に記載の端末装置において、前記アプリケーション起動手段が、前記アプリケーション情報記憶手段から、前記エリア判定手段により判定されたエリアに対応付けられた複数のアプリケーション情報を読み出し、前記エリアに視点が滞留したときの眼球の瞳孔径に応じて、前記複数のアプリケーション情報のうちの一つを特定してアプリケーションを起動する、ことを特徴とする。 Further, the invention according to claim 3 is the terminal device according to claim 1 or 2, wherein the application activation unit is associated with a plurality of areas associated with the areas determined by the area determination unit from the application information storage unit. Application information is read out, and one of the plurality of application information is specified and the application is activated in accordance with the pupil diameter of the eyeball when the viewpoint stays in the area.

また、請求項の発明は、請求項1から3までのいずれか一項に記載の端末装置において、前記アプリケーション情報を、ウェブページを指定するURLとする、ことを特徴とする。 According to a fourth aspect of the present invention, in the terminal device according to any one of the first to third aspects, the application information is a URL designating a web page.

また、請求項の発明は、移動する利用者が携帯する装置が、対象物の存在位置を示す位置情報、前記対象物内に配置されたマーカの存在位置を示す位置情報、及び、複数のマーカにより囲まれる前記エリアと前記マーカとの関係を示す関係情報を含む対象物情報を記憶する対象物情報記憶手段と、前記対象物内のエリアと前記エリアに関するアプリケーションを起動するためのアプリケーション情報とを対応付けて記憶するアプリケーション情報記憶手段と、対象物情報及びアプリケーション情報収集手段と、対象物特定手段と、エリア判定手段と、アプリケーション起動手段と、情報収集手段とを備え、前記移動する利用者が注目している対象物を特定し、前記対象物内に配置された複数のマーカにより囲まれるエリアを判定し、前記エリアに関するアプリケーションを起動する情報処理方法において、前記対象物情報及びアプリケーション情報収集手段が、前記利用者の移動に伴って変化する移動距離が所定距離以上である場合に、前記利用者の現在の存在位置を基点とした所定範囲を定める情報を含む取得要求を、ネットワークを介して、対象物情報及びアプリケーション情報を管理するサーバへ送信し、前記サーバから、前記取得要求における所定範囲内に設置された対象物についての対象物情報、及び前記対象物内のエリアに対応付けられたアプリケーション情報を受信し、前記対象物情報記憶手段及びアプリケーション情報記憶手段にそれぞれ格納する第1のステップと、前記対象物特定手段が、前記対象物情報記憶手段に格納された対象物の位置情報を読み出し、前記利用者の現在の存在位置を基点とした前記利用者が向いている方向の所定範囲内に、前記読み出した対象物の位置情報が示す存在位置が含まれる場合に、前記対象物を、前記利用者が注目している対象物として特定する第2のステップと、前記エリア判定手段が、前記利用者が向いている前方が撮影された視野映像から、前記対象物特定手段により特定された対象物に配置されたマーカを識別し、前記識別したマーカの位置情報を前記対象物情報記憶手段から読み出し、前記利用者が見ている視点位置と、前記読み出したマーカの位置情報が示すマーカ位置とにより、前記視点位置を囲む複数のマーカを特定し、前記対象物情報記憶手段に格納されたマーカとエリアとの関係情報を読み出し、前記複数のマーカが囲むエリアを特定し、前記特定したエリアに前記利用者の視点位置が所定時間以上滞留している場合に、前記特定したエリアを、前記利用者が注目している対象物内のエリアとして判定する第3のステップと、前記アプリケーション起動手段が、前記アプリケーション情報記憶手段から、前記エリア判定手段により判定されたエリアに対応付けられた複数のアプリケーション情報を読み出し、前記エリアへの視点滞留時間に応じて、前記複数のアプリケーション情報のうちの一つを特定してアプリケーションを起動する第4のステップと、前記情報収集手段が、前記アプリケーション起動手段によるアプリケーションの起動に伴って、前記利用者の入力操作を、前記利用者が注目していた対象物内のエリアに対する行動情報として収集する第5のステップと、を有することを特徴とする。 According to a fifth aspect of the present invention, there is provided an apparatus carried by a moving user, the position information indicating the position of the target object, the position information indicating the position of the marker arranged in the target object, and a plurality of Object information storage means for storing object information including relation information indicating the relationship between the area surrounded by the marker and the marker; application information for activating an area in the object and an application relating to the area; Application information storage means that associates and stores object information and application information collection means, object identification means, area determination means, application activation means, and information collection means, and the moving user Is identified, and an area surrounded by a plurality of markers arranged in the object is determined, and the error is determined. In the information processing method for activating an application related to a), the object information and application information collecting means, when the moving distance that changes with the movement of the user is a predetermined distance or more, the current presence of the user An acquisition request including information defining a predetermined range based on the position is transmitted to a server that manages object information and application information via the network, and is installed within the predetermined range in the acquisition request from the server. A first step of receiving object information about the object and application information associated with an area in the object, and storing the information in the object information storage unit and the application information storage unit; and The specifying means reads out the position information of the object stored in the object information storage means, When the existence position indicated by the position information of the read object is included in a predetermined range in the direction in which the user is facing based on the current existence position of the user, the object is A second step of specifying as an object that the user is paying attention to, and an object specified by the object specifying means from a field-of-view image in which the area determination means is taken in front of the user. A marker placed on an object is identified, position information of the identified marker is read from the object information storage means, a viewpoint position viewed by the user, and a marker position indicated by the position information of the read marker By specifying a plurality of markers surrounding the viewpoint position, reading the relationship information between the marker and the area stored in the object information storage means, specifying the area surrounded by the plurality of markers, A third step of determining the identified area as an area within the object that the user is paying attention to when the user's viewpoint position remains in the identified area for a predetermined time or more; An application activation unit reads a plurality of pieces of application information associated with the area determined by the area determination unit from the application information storage unit, and according to a viewpoint staying time in the area, A fourth step of activating an application by identifying one of them, and the information collecting means pays attention to the user's input operation as the application is activated by the application activation means. And a fifth step of collecting as behavior information for the area within the target object And wherein the door.

また、請求項の発明は、請求項5に記載の情報処理方法において、前記第3のステップが、前記エリア判定手段により、前記特定したエリアに前記利用者の視点位置が存在し、前記利用者の眼球の瞳孔径が所定長以上である場合に、前記特定したエリアを、前記利用者が注目している対象物内のエリアとして判定する、ことを特徴とする。 Further, the invention according to claim 6 is the information processing method according to claim 5, wherein the third step includes the use of the utilization point by the area determination unit, and the user's viewpoint position exists in the specified area. When the pupil diameter of the person's eyeball is greater than or equal to a predetermined length, the identified area is determined as an area within the object that the user is paying attention to.

また、請求項の発明は、請求項5または6に記載の情報処理方法において、前記第4のステップが、前記アプリケーション起動手段により、前記アプリケーション情報記憶手段から、前記エリア判定手段により判定されたエリアに対応付けられた複数のアプリケーション情報を読み出し、前記エリアに視点が滞留したときの眼球の瞳孔径に応じて、前記複数のアプリケーション情報のうちの一つを特定してアプリケーションを起動する、ことを特徴とする。 The invention according to claim 7 is the information processing method according to claim 5 or 6, wherein the fourth step is determined by the area determining unit from the application information storing unit by the application starting unit. Reading a plurality of pieces of application information associated with the area, specifying one of the plurality of pieces of application information according to the pupil diameter of the eyeball when the viewpoint is retained in the area, and starting the application It is characterized by.

また、請求項の発明は、請求項5から7までのいずれか一項に記載の情報処理方法において、前記アプリケーション情報を、ウェブページを指定するURLとする、ことを特徴とする。 The invention according to claim 8 is the information processing method according to any one of claims 5 to 7, wherein the application information is a URL designating a web page.

また、請求項の発明は、請求項5から8までのいずれか一項に記載の情報処理方法をコンピュータに実行させることを特徴とする情報処理プログラムにある。 A ninth aspect of the present invention is an information processing program that causes a computer to execute the information processing method according to any one of the fifth to eighth aspects.

以上のように、本発明によれば、移動する利用者が注目している対象物を特定し、対象物内のエリアを判定し、エリアに関するアプリケーションを提示して利用者の行動に関する情報を収集することにより客観的な結果を得るようにした。これにより、移動する利用者に対して、客観的な行動分析を行うことができる。したがって、アンケート等の主観的な手段ではなく、客観的な手段を用いるようにしたから、行動要因分析の高精度化を実現することが可能となる。 As described above, according to the present invention, a target object that a moving user is interested in is identified, an area in the target object is determined, and an application related to the area is presented to collect information related to user behavior. It was to obtain an objective result by. Thereby, objective behavior analysis can be performed for a moving user. Therefore, since objective means are used instead of subjective means such as a questionnaire, it is possible to realize high accuracy of behavior factor analysis.

以下、本発明を実施するための最良の形態について、図面を参照して説明する。
〔システムの概略〕
まず、本発明の実施形態が適用される全体システムの概略について説明する。図1は、全体システムの概略図である。このシステムは、対象物1内の特定のエリアに興味を示す利用者2について、その行動を分析することを目的とするものである。具体的には、このシステムは、複数の対象物のうち、利用者2が注目している対象物1を特定し、その対象物1内において、利用者2が興味を示しているエリアを判定し、そのエリアに関する情報を利用者2へ提示し、その情報に基づいた利用者2のコンバージョン(行動)の情報(コンバージョン情報)を収集して分析する。
The best mode for carrying out the present invention will be described below with reference to the drawings.
[Outline of the system]
First, an outline of an entire system to which an embodiment of the present invention is applied will be described. FIG. 1 is a schematic diagram of the entire system. This system is intended to analyze the behavior of a user 2 who is interested in a specific area in the object 1. Specifically, this system identifies the target object 1 that the user 2 is paying attention from among a plurality of target objects, and determines the area in which the user 2 is interested in the target object 1. Then, information regarding the area is presented to the user 2, and information (conversion information) on the conversion (action) of the user 2 based on the information is collected and analyzed.

対象物1は、例えば、POP(Point Of Purchase)、看板、ポスター、陳列棚であり、利用者2が興味を示しているエリアを特定するためのマーカが設けられている。エリア及びマーカの詳細については後述する。利用者2は、めがね3をかけており、計測装置4及び移動体端末5を携帯している。めがね3には、利用者2が向いている前方にある対象物1を撮影するための視野映像用カメラ8、及び利用者2の眼球を撮影するための眼球画像用カメラ9が設けられている。利用者2が対象物1を見たときに、視野映像用カメラ8により撮影される映像と、利用者2の視野に写る映像とが一致するように、めがね3における視野映像用カメラ8の位置等が予め調整されている。また、眼球画像用カメラ9も、利用者2の眼球が正しく撮影され、計測装置4によって眼球画像から視線等を解析できるように、予め調整されている。視野映像用カメラ8及び眼球画像用カメラ9により撮影されたデータは、ケーブルを介してまたは無線により計測装置4へ送信される。   The target object 1 is, for example, a POP (Point Of Purchase), a signboard, a poster, or a display shelf, and is provided with a marker for specifying an area in which the user 2 is interested. Details of the area and the marker will be described later. A user 2 wears glasses 3 and carries a measuring device 4 and a mobile terminal 5. The glasses 3 are provided with a field-of-view video camera 8 for photographing the object 1 in front of the user 2 and an eyeball image camera 9 for photographing the eyeball of the user 2. . The position of the visual field video camera 8 in the glasses 3 so that when the user 2 views the object 1, the video imaged by the visual field video camera 8 matches the video image of the user 2. Etc. are adjusted in advance. The eyeball image camera 9 is also adjusted in advance so that the eyeball of the user 2 can be correctly photographed and the line of sight etc. can be analyzed from the eyeball image by the measuring device 4. Data captured by the visual field image camera 8 and the eyeball image camera 9 is transmitted to the measuring device 4 via a cable or wirelessly.

計測装置4及び移動体端末5によって、行動分析端末装置が構成される。以下、計測装置4と移動体端末5とは別々の装置として説明するが、行動分析端末装置として一体的な一つの装置であってもよい。   The measuring device 4 and the mobile terminal 5 constitute a behavior analysis terminal device. Hereinafter, the measurement device 4 and the mobile terminal 5 will be described as separate devices, but may be an integrated device as a behavior analysis terminal device.

計測装置4は、例えばベルトに装着され、利用者2により注目された対象物1の情報、利用者2の位置情報(緯度及び経度)及び方向、視点の滞留時間等の各種データを順次格納する。計測装置4と移動体端末5との間で、トルカ(登録商標)、人体通信、Bluetooth等によりデータが送受信される。尚、計測装置4が各種データをSD(Secure Digital)カードに格納し、利用者2がそのSDカードを計測装置4から取り外して移動体端末5に取り付けることにより、データを受け渡すようにしてもよい。   The measuring device 4 is, for example, attached to a belt, and sequentially stores various data such as information on the target object 1 noted by the user 2, position information (latitude and longitude) and direction of the user 2, and a dwell time of the viewpoint. . Data is transmitted and received between the measuring device 4 and the mobile terminal 5 by ToruCa (registered trademark), human body communication, Bluetooth, or the like. The measuring device 4 stores various data in an SD (Secure Digital) card, and the user 2 removes the SD card from the measuring device 4 and attaches it to the mobile terminal 5 so that the data is delivered. Good.

移動体端末5は、例えば、携帯電話、携帯端末、PDA(Personal Digital Assistant)であり、アプリケーションを自動起動したり、利用者2の意思または選択によってアプリケーションを起動したり、移動体端末5を計測装置4に近づけることによってアプリケーションを起動したりする機能、電子メールを送受信する機能、ウェブページを表示する機能等を実現する。移動体端末5とサービスセンター6との間で、無線通信によりデータが送受信される。   The mobile terminal 5 is, for example, a mobile phone, a mobile terminal, or a PDA (Personal Digital Assistant), and automatically starts an application, starts an application according to the intention or selection of the user 2, or measures the mobile terminal 5. A function of starting an application, a function of transmitting / receiving an e-mail, a function of displaying a web page, and the like are realized by approaching the device 4. Data is transmitted and received between the mobile terminal 5 and the service center 6 by wireless communication.

サービスセンター6は、利用者2により注目された対象物1の情報及び視点の滞留時間等の情報(行動結果)、提示した情報に基づいた利用者2のコンバージョン情報を収集し、利用者2の行動を分析する。また、サービスセンター6は、分析結果を、利用者2が携帯する移動体端末5へ送信したり、マーケティング情報として事業者へ提示したりする。   The service center 6 collects information about the target object 1 that has been noticed by the user 2 and information (behavior results) such as the dwell time at the viewpoint, and conversion information of the user 2 based on the presented information. Analyze behavior. Further, the service center 6 transmits the analysis result to the mobile terminal 5 carried by the user 2 or presents it to the operator as marketing information.

〔システムの構成〕
図2は、図1に示した全体システムの構成を示すブロック図である。まず、計測装置4について説明する。計測装置4は、眼球運動解析部41、位置方向解析部42及び行動分析・アプリケーション制御部43を備えている。
[System configuration]
FIG. 2 is a block diagram showing a configuration of the entire system shown in FIG. First, the measuring device 4 will be described. The measuring device 4 includes an eye movement analysis unit 41, a position / direction analysis unit 42, and a behavior analysis / application control unit 43.

眼球運動解析部41は、めがね3に設けられた視野映像用カメラ8から視野映像を入力すると共に、眼球画像用カメラ9から眼球画像を入力する。そして、眼球運動解析部41は、視野映像及び眼球画像を解析し、眼球運動である視点及び瞳孔径、並びに視点と対応付けた視野映像を行動分析・アプリケーション制御部43に出力する。   The eye movement analysis unit 41 inputs a view image from the view image camera 8 provided in the glasses 3 and also receives an eye image from the eye image camera 9. Then, the eye movement analysis unit 41 analyzes the visual field image and the eyeball image, and outputs the viewpoint and pupil diameter, which are eye movements, and the visual field image associated with the viewpoint to the behavior analysis / application control unit 43.

位置方向解析部42は、計測装置4に設けられたアンテナ(図1には図示せず)からGPS(Global Positioning System)データを入力すると共に、計測装置4に設けられた加速度センサ(図1には図示せず)から加速度センサデータを入力する。そして、位置方向解析部42は、GPSデータ及び加速度センサデータを解析し、利用者2の位置情報(緯度及び経度)及び方向を行動分析・アプリケーション制御部43に出力する。   The position / direction analysis unit 42 inputs GPS (Global Positioning System) data from an antenna (not shown in FIG. 1) provided in the measuring device 4 and also includes an acceleration sensor (see FIG. 1) provided in the measuring device 4. Acceleration sensor data is input from (not shown). Then, the position / direction analysis unit 42 analyzes the GPS data and the acceleration sensor data, and outputs the position information (latitude and longitude) and direction of the user 2 to the behavior analysis / application control unit 43.

行動分析・アプリケーション制御部43は、対象物1に関する情報(対象物情報)を取得するための要求(対象物情報取得要求)を移動体端末5へ送信する。そして、行動分析・アプリケーション制御部43は、移動体端末5から対象物情報を受信し、記憶媒体に格納する。   The behavior analysis / application control unit 43 transmits a request (target object information acquisition request) for acquiring information (target object information) related to the target object 1 to the mobile terminal 5. Then, the behavior analysis / application control unit 43 receives the object information from the mobile terminal 5 and stores it in the storage medium.

また、行動分析・アプリケーション制御部43は、眼球運動解析部41から利用者2の視点及び瞳孔径並びに視野映像を入力すると共に、位置方向解析部42から利用者2の位置情報(緯度及び経度)及び方向を入力する。そして、行動分析・アプリケーション制御部43は、入力したこれらの解析データを時系列に記憶媒体に格納する。また、行動分析・アプリケーション制御部43は、利用者2が注目している対象物1を特定し、対象物1について、利用者2が興味を示しているエリアである視線一致エリアを判定すると共に、視線一致エリアの興味関心度合いを算出し、これらの行動結果を記憶媒体に格納すると共に移動体端末5へ送信する。   In addition, the behavior analysis / application control unit 43 inputs the viewpoint, pupil diameter, and visual field image of the user 2 from the eye movement analysis unit 41, and the position information (latitude and longitude) of the user 2 from the position direction analysis unit 42. And enter the direction. The behavior analysis / application control unit 43 stores the input analysis data in a storage medium in time series. In addition, the behavior analysis / application control unit 43 identifies the target object 1 that the user 2 is paying attention to, and determines a line-of-sight matching area that is an area in which the user 2 is interested in the target object 1. The degree of interest in the line-of-sight matching area is calculated, and these action results are stored in the storage medium and transmitted to the mobile terminal 5.

次に、移動体端末5について説明する。移動体端末5は、機能制御部51を備えている。機能制御部51は、計測装置4から対象物情報取得要求を受信し、取得対象の対象物情報に加えてアプリケーション情報も取得するために、対象物情報及びアプリケーション情報取得要求をサービスセンター6のサーバ10へ送信する。また、機能制御部51は、サービスセンター6のサーバ10から対象物情報及びアプリケーション情報を受信し、アプリケーション情報を記録媒体に格納する。そして、機能制御部51は、対象物情報を計測装置4へ送信する。   Next, the mobile terminal 5 will be described. The mobile terminal 5 includes a function control unit 51. The function control unit 51 receives the object information acquisition request from the measuring device 4 and sends the object information and the application information acquisition request to the server of the service center 6 in order to acquire the application information in addition to the object information to be acquired. 10 to send. Further, the function control unit 51 receives object information and application information from the server 10 of the service center 6 and stores the application information in a recording medium. Then, the function control unit 51 transmits the object information to the measuring device 4.

また、機能制御部51は、計測装置4から解析データ及び行動結果を受信し、解析データをサービスセンター6のサーバ10へ送信する。また、機能制御部51は、受信した行動結果に対応するアプリケーションをアプリケーション情報から特定し、そのアプリケーションを起動する。   Further, the function control unit 51 receives the analysis data and the action result from the measuring device 4 and transmits the analysis data to the server 10 of the service center 6. Moreover, the function control part 51 specifies the application corresponding to the received action result from application information, and starts the application.

利用者2は、起動したアプリケーションに伴い、移動体端末5の画面に表示された情報に基づいて行動したり、移動体端末5を操作したりする。機能制御部51は、このときの利用者2の行動、行為、動作等を移動体端末5の操作に反映したコンバージョン情報として収集し、行動結果及びコンバージョン情報をサービスセンター6のサーバ10へ送信する。   The user 2 acts based on information displayed on the screen of the mobile terminal 5 or operates the mobile terminal 5 in accordance with the activated application. The function control unit 51 collects the action, action, operation, etc. of the user 2 at this time as conversion information reflecting the operation of the mobile terminal 5, and transmits the action result and the conversion information to the server 10 of the service center 6. .

次に、サービスセンター6のサーバ10について説明する。サービスセンター6のサーバ10は、情報管理・分析部61を備えている。情報管理・分析部61は、移動体端末5から対象物情報及びアプリケーション情報取得要求を受信し、この要求に対応する対象物情報及びアプリケーション情報を移動体端末5へ送信する。   Next, the server 10 of the service center 6 will be described. The server 10 of the service center 6 includes an information management / analysis unit 61. The information management / analysis unit 61 receives the object information and application information acquisition request from the mobile terminal 5 and transmits the object information and application information corresponding to this request to the mobile terminal 5.

また、情報管理・分析部61は、移動体端末5の機能制御部51から解析データ、行動結果及びコンバージョン情報を受信し、利用者2の行動を分析し、利用者2及び事業者にとって有用な情報を生成して提示する。また、情報管理・分析部61は、計測装置4及び移動体端末5の処理において必要な各種パラメータを変更する。   The information management / analysis unit 61 receives analysis data, behavior results, and conversion information from the function control unit 51 of the mobile terminal 5, analyzes the behavior of the user 2, and is useful for the user 2 and the operator. Generate and present information. In addition, the information management / analysis unit 61 changes various parameters necessary for the processing of the measuring device 4 and the mobile terminal 5.

〔システムの機能〕
次に、図1及び図2に示したシステムの機能フローについて説明する。図3は、全体の処理を説明する機能フローであり、システムが行う主な処理を時系列に示したものである。まず、計測装置4の行動分析・アプリケーション制御部43は、利用者2の位置情報(緯度及び経度)に応じて必要となる対象物情報を、移動体端末5を介してサービスセンター6の情報管理・分析部61から取得し、記憶媒体に格納する(ステップS301)。また、移動体端末5の機能制御部51は、利用者2の位置情報(緯度及び経度)に応じて必要となるアプリケーション情報を、計測装置4の行動分析・アプリケーション制御部43からの要求に従って、サービスセンター6の情報管理・分析部61から取得し、記憶媒体に格納する(ステップS301)。
[System functions]
Next, the functional flow of the system shown in FIGS. 1 and 2 will be described. FIG. 3 is a functional flow for explaining the overall processing, and shows the main processing performed by the system in time series. First, the behavior analysis / application control unit 43 of the measuring device 4 manages the object information required according to the location information (latitude and longitude) of the user 2 via the mobile terminal 5 and information management of the service center 6. Obtained from the analysis unit 61 and stored in a storage medium (step S301). In addition, the function control unit 51 of the mobile terminal 5 obtains application information required according to the position information (latitude and longitude) of the user 2 in accordance with a request from the behavior analysis / application control unit 43 of the measuring device 4. The information is acquired from the information management / analysis unit 61 of the service center 6 and stored in the storage medium (step S301).

具体的には、計測装置4の行動分析・アプリケーション制御部43は、利用者2の位置情報(緯度及び経度)を中心として、所定範囲内に設けられた全ての対象物1について、これらの対象物情報を常に記憶媒体に格納しておく。これは、利用者2の移動に伴い、利用者2が注目するであろう対象物1が、利用者2の位置情報(緯度及び経度)に基づいて前もって推定できるからである。つまり、計測装置4は、対象物1を特定する前に、対象物1の対象物情報を取得する。   Specifically, the behavior analysis / application control unit 43 of the measuring device 4 applies these objects to all the objects 1 provided within a predetermined range centering on the position information (latitude and longitude) of the user 2. Object information is always stored in a storage medium. This is because the object 1 that the user 2 will pay attention to as the user 2 moves can be estimated in advance based on the position information (latitude and longitude) of the user 2. That is, the measuring device 4 acquires the object information of the object 1 before specifying the object 1.

計測装置4の行動分析・アプリケーション制御部43は、利用者2が注目している対象物1を特定する(ステップS302)。具体的には、計測装置4の行動分析・アプリケーション制御部43は、利用者2の位置情報(緯度及び経度)及び方向と、対象物1の位置情報(対象物情報に含まれる位置情報)とに基づいて、利用者2と対象物1との位置関係を算出し、利用者2の方向によって、利用者2が見ているであろう対象物1を、利用者2が注目している対象物1として特定する。   The behavior analysis / application control unit 43 of the measuring device 4 identifies the target object 1 that the user 2 is paying attention to (step S302). Specifically, the behavior analysis / application control unit 43 of the measuring device 4 includes the position information (latitude and longitude) and direction of the user 2, the position information of the target object 1 (position information included in the target object information), Based on the above, the positional relationship between the user 2 and the target object 1 is calculated, and the target that the user 2 is paying attention to the target object 1 that the user 2 will see according to the direction of the user 2 Identified as object 1.

計測装置4の行動分析・アプリケーション制御部43は、利用者2が注目している対象物1について、利用者2が興味を示しているエリアを視線一致エリアとして判定する(ステップS303)。対象物1には、前述したように、対象物1を区分けしたエリアを判定するためのマーカが設けられている。計測装置4の行動分析・アプリケーション制御部43は、視野映像内のマーカを識別し、そのマーカによって、視点が滞留している視線一致エリアを判定する。詳細については後述する。   The behavior analysis / application control unit 43 of the measuring device 4 determines an area in which the user 2 is interested in the object 1 that the user 2 is paying attention to as a line-of-sight matching area (step S303). As described above, the object 1 is provided with a marker for determining an area where the object 1 is divided. The behavior analysis / application control unit 43 of the measurement device 4 identifies a marker in the visual field image, and determines a line-of-sight matching area where the viewpoint is retained based on the marker. Details will be described later.

計測装置4の行動分析・アプリケーション制御部43は、行動結果のデータを生成し、記憶媒体に格納する(ステップS304)。具体的には、計測装置4の行動分析・アプリケーション制御部43は、例えば、視線一致エリアにおける視点滞留時間を算出し、これを興味関心度合いのデータとして、視線一致エリア及び興味関心度合いを含む行動結果のデータを生成する。   The behavior analysis / application control unit 43 of the measurement device 4 generates behavior result data and stores it in the storage medium (step S304). Specifically, the behavior analysis / application control unit 43 of the measuring device 4 calculates, for example, the viewpoint dwell time in the line-of-sight matching area, and uses this as the degree-of-interest degree data as an action including the line-of-sight matching area and the degree of interest. Generate the resulting data.

移動体端末5の機能制御部51は、計測装置4の行動分析・アプリケーション制御部43から行動結果を受信し、行動結果に含まれる視線一致エリアに対応付けられたアプリケーションをアプリケーション情報から特定し、特定したアプリケーションを起動する(ステップS305)。   The function control unit 51 of the mobile terminal 5 receives the behavior result from the behavior analysis / application control unit 43 of the measuring device 4, identifies the application associated with the line-of-sight matching area included in the behavior result from the application information, The identified application is activated (step S305).

移動体端末5の機能制御部51は、起動したアプリケーションに伴い、利用者2が移動体端末5の画面に表示された情報に基づいて行動したり、移動体端末5を操作したりする情報を収集する。そして、このときの利用者2の行動、行為、動作等を反映した移動体端末5の操作をコンバージョン情報として、行動結果及びコンバージョン情報をサービスセンター6のサーバ10へ送信する(ステップS306)。   The function control unit 51 of the mobile terminal 5 provides information for the user 2 to act based on information displayed on the screen of the mobile terminal 5 or to operate the mobile terminal 5 with the activated application. collect. Then, the operation result of the mobile terminal 5 reflecting the behavior, action, operation, etc. of the user 2 at this time is converted as conversion information, and the behavior result and the conversion information are transmitted to the server 10 of the service center 6 (step S306).

サービスセンター6の情報管理・分析部61は、移動体端末5の機能制御部51から行動結果及びコンバージョン情報を受信し、利用者2の行動を分析し、利用者2または事業者にとって有用な情報を生成して提示する(ステップS307)。尚、機能フローにはないが、計測装置4の行動分析・アプリケーション制御部43により生成された解析データ(時刻、視点位置、瞳孔径、利用者位置情報及び利用者方向)も、計測装置4から移動体端末5を介してサービスセンター6のサーバ10へ送信される。   The information management / analysis unit 61 of the service center 6 receives the behavior result and the conversion information from the function control unit 51 of the mobile terminal 5, analyzes the behavior of the user 2, and is useful information for the user 2 or the business operator. Is generated and presented (step S307). Although not in the functional flow, analysis data (time, viewpoint position, pupil diameter, user position information, and user direction) generated by the behavior analysis / application control unit 43 of the measurement apparatus 4 is also transmitted from the measurement apparatus 4. It is transmitted to the server 10 of the service center 6 via the mobile terminal 5.

〔計測装置〕
次に、図1及び図2に示した計測装置4について詳細に説明する。図4は、計測装置4の構成を示すブロック図である。計測装置4は、前述のように、眼球運動解析部41、位置方向解析部42及び行動分析・アプリケーション制御部43を備えている。また、眼球運動解析部41は、視点・瞳孔径解析部411及び視野映像解析部412を備え、位置方向解析部42は、緯度経度解析部421及び方向解析部422を備えている。また、行動分析・アプリケーション制御部43は、アプリケーション管理制御部431、記憶媒体432、データ同期管理制御部433、画像解析・エリア興味分析部434、データ転送管理制御部435及び機能間通信部436を備えている。
[Measurement equipment]
Next, the measuring device 4 shown in FIGS. 1 and 2 will be described in detail. FIG. 4 is a block diagram showing the configuration of the measuring device 4. The measuring device 4 includes the eye movement analysis unit 41, the position / direction analysis unit 42, and the behavior analysis / application control unit 43 as described above. The eye movement analysis unit 41 includes a viewpoint / pupil diameter analysis unit 411 and a visual field image analysis unit 412, and the position / direction analysis unit 42 includes a latitude / longitude analysis unit 421 and a direction analysis unit 422. The behavior analysis / application control unit 43 includes an application management control unit 431, a storage medium 432, a data synchronization management control unit 433, an image analysis / area interest analysis unit 434, a data transfer management control unit 435, and an inter-function communication unit 436. I have.

眼球運動解析部41の視点・瞳孔径解析部411は、めがね3の眼球画像用カメラ9から利用者2の眼球画像を入力し、眼球画像を解析することにより、後述する視野映像を平面としたときの視点(視野映像における視点の位置座標)及び瞳孔径を算出し、視点及び瞳孔径を行動分析・アプリケーション制御部43の画像解析・エリア興味分析部434に出力する。尚、眼球画像の解析手法についは既知であり、例えば、前述した特許文献1,2及び非特許文献1に記載されているから、ここでは説明を省略する。   The viewpoint / pupil diameter analysis unit 411 of the eye movement analysis unit 41 inputs the eyeball image of the user 2 from the eyeball image camera 9 of the glasses 3 and analyzes the eyeball image so that a visual field image to be described later is made flat. The viewpoint (positional coordinate in the visual field image) and pupil diameter are calculated, and the viewpoint and pupil diameter are output to the image analysis / area interest analysis unit 434 of the behavior analysis / application control unit 43. The eyeball image analysis method is already known, and is described in, for example, Patent Documents 1 and 2 and Non-Patent Document 1 described above.

視野映像解析部412は、めがね3の視野映像用カメラ8から利用者2の視野映像を入力し、例えば1/30秒毎に入力する視野映像と、視点・瞳孔径解析部411において算出される視点及び瞳孔径との時間的な対応付けを行い、視点・瞳孔径解析部411により出力される視点及び瞳孔径に時間的に対応した視野映像を行動分析・アプリケーション制御部43の画像解析・エリア興味分析部434に出力する。したがって、視点・瞳孔径解析部411により出力される視点及び瞳孔径と、視野映像解析部412により出力される視野映像とは、同期したデータとなる。   The visual field image analysis unit 412 receives the visual field image of the user 2 from the visual field image camera 8 of the glasses 3 and is calculated by the visual field image and the viewpoint / pupil diameter analysis unit 411 that are input every 1/30 seconds, for example. Perform temporal association with the viewpoint and the pupil diameter, and view the visual field image temporally corresponding to the viewpoint and the pupil diameter output from the viewpoint / pupil diameter analysis unit 411. Image analysis / area of the application control unit 43 The result is output to the interest analysis unit 434. Therefore, the viewpoint and pupil diameter output by the viewpoint / pupil diameter analysis unit 411 and the visual field image output by the visual field image analysis unit 412 are synchronized data.

位置方向解析部42の緯度経度解析部421は、アンテナからGPSデータを入力し、GPSデータを解析することにより利用者2の位置情報(緯度及び経度)を生成し、その位置情報(緯度及び経度)を行動分析・アプリケーション制御部43のデータ同期管理制御部433に出力する。GPSデータは、GPS衛星との間の通信によって得られるデータである。   The latitude / longitude analysis unit 421 of the position / direction analysis unit 42 receives GPS data from the antenna, analyzes the GPS data, generates position information (latitude and longitude) of the user 2, and the position information (latitude and longitude). ) To the data synchronization management control unit 433 of the behavior analysis / application control unit 43. GPS data is data obtained by communication with GPS satellites.

方向解析部422は、加速度センサから加速度センサデータを入力し、加速度センサデータを解析することにより利用者2の向き(方向)のデータを生成し、その方向を行動分析・アプリケーション制御部43のデータ同期管理制御部433に出力する。具体的には、方向解析部422は、加速度センサにより計測されたx,y,z方向の加速度センサデータを解析し、利用者2の向いている方向のデータを生成する。尚、利用者2の方向のデータを生成する手法の詳細については、例えば、特開2006−320566号公報を参照されたい。   The direction analysis unit 422 receives the acceleration sensor data from the acceleration sensor, generates data of the direction (direction) of the user 2 by analyzing the acceleration sensor data, and determines the direction of the data of the behavior analysis / application control unit 43. The data is output to the synchronization management control unit 433. Specifically, the direction analysis unit 422 analyzes acceleration sensor data in the x, y, and z directions measured by the acceleration sensor, and generates data in the direction in which the user 2 is facing. For details of the method for generating the data of the direction of the user 2, refer to, for example, Japanese Patent Application Laid-Open No. 2006-320666.

行動分析・アプリケーション制御部43のアプリケーション管理制御部431は、記憶媒体432、データ同期管理制御部433、画像解析・エリア興味分析部434及びデータ転送管理制御部435の処理を統括的に制御して管理する。例えば、アプリケーション管理制御部431は、行動分析・アプリケーション処理の開始及び終了を各部に出力したり、各部の処理が同期して動作するように、同期信号を出力したりする。   The application management control unit 431 of the behavior analysis / application control unit 43 controls the processing of the storage medium 432, the data synchronization management control unit 433, the image analysis / area interest analysis unit 434, and the data transfer management control unit 435 in an integrated manner. to manage. For example, the application management control unit 431 outputs the start and end of behavior analysis / application processing to each unit, or outputs a synchronization signal so that the processing of each unit operates in synchronization.

データ同期管理制御部433は、位置方向解析部42の緯度経度解析部421から利用者2の位置情報(緯度及び経度)を入力すると共に、方向解析部422から利用者2の方向を入力し、位置情報(緯度及び経度)及び方向を同期させ、同期した位置情報(緯度及び経度)及び方向を画像解析・エリア興味分析部434及びデータ転送管理制御部435に出力する。尚、画像解析・エリア興味分析部434及びデータ転送管理制御部435からの要求に従って、同期した位置情報(緯度及び経度)及び方向を出力するようにしてもよい。   The data synchronization management control unit 433 inputs the position information (latitude and longitude) of the user 2 from the latitude / longitude analysis unit 421 of the position / direction analysis unit 42, and inputs the direction of the user 2 from the direction analysis unit 422. The position information (latitude and longitude) and direction are synchronized, and the synchronized position information (latitude and longitude) and direction are output to the image analysis / area interest analysis unit 434 and the data transfer management control unit 435. Note that synchronized position information (latitude and longitude) and direction may be output in accordance with requests from the image analysis / area interest analysis unit 434 and the data transfer management control unit 435.

データ転送管理制御部435は、データ同期管理制御部433から同期した位置情報(緯度及び経度)及び方向を入力し、記憶媒体432が利用者2の位置情報(緯度及び経度)を中心として所定範囲内の全ての対象物1の対象物情報を常に記憶しているようにするため、取得対象の範囲を示す位置情報を含む対象物情報取得要求を、機能間通信部436を介して移動体端末5へ送信する。具体的には、データ転送管理制御部435は、利用者2の移動に伴って、既に入力した最新の位置情報(緯度及び経度)と新たに入力した位置情報(緯度及び経度)とを比較し、移動距離が所定距離以上である場合に、対象物情報取得要求を送信する。データ転送管理制御部435は、移動体端末5から機能間通信部436を介して、取得対象の範囲内に設置された全ての対象物1の対象物情報を受信し、その対象物情報を記憶媒体432に格納する。   The data transfer management control unit 435 receives the synchronized position information (latitude and longitude) and direction from the data synchronization management control unit 433, and the storage medium 432 has a predetermined range centered on the position information (latitude and longitude) of the user 2. In order to always store the object information of all the objects 1 in the mobile terminal, an object information acquisition request including position information indicating the range of the acquisition object is sent via the inter-function communication unit 436. To 5. Specifically, as the user 2 moves, the data transfer management control unit 435 compares the latest position information (latitude and longitude) already input with the newly input position information (latitude and longitude). When the moving distance is equal to or greater than the predetermined distance, the object information acquisition request is transmitted. The data transfer management control unit 435 receives the target object information of all the target objects 1 installed within the acquisition target range from the mobile terminal 5 via the inter-function communication unit 436, and stores the target object information. Store in the medium 432.

例えば、データ転送管理制御部435は、利用者2の位置情報(緯度及び経度)及びそれを中心とした所定範囲の位置情報を取得対象の範囲の位置情報として、対象物取得要求を送信するようにしてもよい。この場合、データ転送管理制御部435は、移動体端末5から対象物情報を受信すると、記憶媒体432に既に格納されている対象物情報を削除し、受信した対象物情報を新たに格納する。   For example, the data transfer management control unit 435 transmits the object acquisition request using the position information (latitude and longitude) of the user 2 and position information of a predetermined range centering on the position information as the position information of the acquisition target range. It may be. In this case, when receiving the object information from the mobile terminal 5, the data transfer management control unit 435 deletes the object information already stored in the storage medium 432 and newly stores the received object information.

また、データ転送管理制御部435は、利用者2の移動に伴って、利用者2の位置情報(緯度及び経度)を中心とした所定範囲が変動した場合、その変動した範囲(新たな範囲)のみを取得対象の範囲として、対象物取得要求を送信するようにしてもよい。この場合、データ転送管理制御部435は、移動体端末5から対象物情報を受信すると、記憶媒体432に格納されている対象物情報のうち所定範囲外となった対象物情報を削除し、受信した新たな範囲内の対象物情報を記憶媒体432に格納する。これにより、記憶媒体432には、利用者2の位置情報(緯度及び経度)を中心とした所定範囲内の対象物情報が格納されていることになる。データ転送管理制御部435は、利用者2の位置情報(緯度及び経度)を中心とした所定範囲内の全ての対象物情報を受信する必要がなく、移動に伴う新たな範囲内の対象物情報のみを受信すればよいから、通信量を抑えることができ、効率の良い処理を実現することができる。   In addition, when the predetermined range centering on the location information (latitude and longitude) of the user 2 changes as the user 2 moves, the data transfer management control unit 435 changes the changed range (new range). Alternatively, the object acquisition request may be transmitted using only the acquisition target range. In this case, when receiving the object information from the mobile terminal 5, the data transfer management control unit 435 deletes the object information out of the predetermined range from the object information stored in the storage medium 432, and receives the object information. The object information within the new range is stored in the storage medium 432. Thereby, the storage medium 432 stores object information within a predetermined range centered on the position information (latitude and longitude) of the user 2. The data transfer management control unit 435 does not need to receive all object information within a predetermined range centered on the position information (latitude and longitude) of the user 2, and object information within a new range accompanying movement. Therefore, the amount of communication can be suppressed, and efficient processing can be realized.

図9は、対象物情報の構成を示す図である。図9に示すように、対象物情報は、対象物ID、対象物の位置情報(緯度及び経度)、対象物の種類(例えば、POP、看板、ポスター、陳列棚)、マーカの形式(例えば、LED、QRコード、市松模様)、マーカの位置情報(対象物を正面から見たときの位置座標)、エリアとマーカとの関係を示す情報(関係情報)から構成される。これらの構成データは、対象物毎に存在する。ここで、マーカの位置情報は、例えば、利用者2が対象物を見たときの平面において、マーカが存在する座標を示す。また、エリアは、例えば4つのマーカにより囲まれる領域である場合、エリアとマーカとの関係情報は、1つのエリアと4つのマーカとの関係を示す情報となる。尚、エリア及びマーカには予め番号が付されている。これらのデータは、データ転送管理制御部435によって記憶媒体432に格納され、画像解析・エリア興味分析部434によって記憶媒体432から読み出される。   FIG. 9 is a diagram illustrating a configuration of the object information. As shown in FIG. 9, the object information includes an object ID, object position information (latitude and longitude), object type (for example, POP, signboard, poster, display shelf), marker format (for example, LED, QR code, checkerboard pattern), marker position information (position coordinates when the object is viewed from the front), and information indicating the relationship between the area and the marker (relation information). Such configuration data exists for each object. Here, the marker position information indicates, for example, the coordinates at which the marker exists on the plane when the user 2 views the object. Further, when the area is an area surrounded by, for example, four markers, the relationship information between the area and the marker is information indicating the relationship between one area and the four markers. Note that numbers are assigned in advance to the areas and markers. These data are stored in the storage medium 432 by the data transfer management control unit 435, and read from the storage medium 432 by the image analysis / area interest analysis unit 434.

画像解析・エリア興味分析部434は、眼球運動解析部41から視点、瞳孔径及び視野映像を入力すると共に、データ同期管理制御部433から同期した位置情報(緯度及び経度)及び方向を入力し、これらのデータを時刻データと共に解析データとして記憶媒体432に格納する。   The image analysis / area interest analysis unit 434 receives the viewpoint, pupil diameter, and visual field image from the eye movement analysis unit 41, and receives the synchronized position information (latitude and longitude) and direction from the data synchronization management control unit 433, These data are stored in the storage medium 432 as analysis data together with time data.

図11は、解析データの構成を示す図である。図11に示すように、解析データは、時刻、視点位置、瞳孔径、利用者2の位置情報(緯度及び経度)及び利用者2の方向のデータから構成される。前述したように、これらのデータは、画像解析・エリア興味分析部434によって記憶媒体432に格納され、データ転送管理制御部435によって記憶媒体432から読み出される。尚、視野映像は解析データに含まれるが、説明の便宜上省略してある。   FIG. 11 is a diagram showing a configuration of analysis data. As shown in FIG. 11, the analysis data includes time, viewpoint position, pupil diameter, user 2 position information (latitude and longitude), and user 2 direction data. As described above, these data are stored in the storage medium 432 by the image analysis / area interest analysis unit 434 and read out from the storage medium 432 by the data transfer management control unit 435. The visual field image is included in the analysis data, but is omitted for convenience of explanation.

画像解析・エリア興味分析部434は、記憶媒体432から対象物情報を読み出し、利用者2の位置情報(緯度及び経度)及び方向と、対象物情報に含まれる対象物1の位置情報(緯度及び経度)とに基づいて、利用者2と対象物1との位置関係を算出し、利用者2が注目している対象物1を特定する。具体的には、画像解析・エリア興味分析部434は、利用者2の位置情報(緯度及び経度)及び方向から、利用者2が存在する位置を中心として利用者2が見ている向きの所定距離内の領域を設定し、その範囲内にある対象物1を、対象物1の位置情報(緯度及び経度)から特定する。その範囲内にある対象物1が複数存在する場合は、最も近い対象物1を特定する。   The image analysis / area interest analysis unit 434 reads out the object information from the storage medium 432, the position information (latitude and longitude) and direction of the user 2, and the position information (latitude and latitude) of the object 1 included in the object information. The positional relationship between the user 2 and the object 1 is calculated based on the longitude, and the object 1 that the user 2 is paying attention to is specified. Specifically, the image analysis / area interest analysis unit 434 determines a predetermined direction in which the user 2 is looking from the position information (latitude and longitude) and direction of the user 2 around the position where the user 2 exists. An area within the distance is set, and the target object 1 within the range is specified from the position information (latitude and longitude) of the target object 1. When there are a plurality of objects 1 within the range, the closest object 1 is specified.

そして、画像解析・エリア興味分析部434は、特定した対象物1において、利用者2が興味を示しているエリア(視線一致エリア)を、視野映像に含まれるマーカを識別することにより、また、特定した対象物1の対象物情報、利用者2の興味関心度合い等により判定する。以下、詳細に説明する。   Then, the image analysis / area interest analysis unit 434 identifies, in the identified object 1, an area (line-of-sight matching area) in which the user 2 is interested by identifying a marker included in the visual field image, The determination is made based on the object information of the identified object 1, the degree of interest of the user 2, and the like. This will be described in detail below.

図7は、対象物1、視野映像、視線一致場所及びマーカを説明する図である。図7に示すように、対象物1には複数のマーカ(図7において丸印の形態)が所定箇所に埋め込まれ、または貼り付けられており、そのマーカはそれぞれ固有の識別情報を有している。例えば、マーカがQRコードの場合、マーカにはそれぞれ0,1,2,3,・・・を示す情報が含まれている。マーカは、高輝度の赤外光LEDまたは蛍光体等からなり、LEDを並べて数字として表したものであってもよいし、市松模様のパターンであってもよい。   FIG. 7 is a diagram for explaining the object 1, the visual field image, the line-of-sight matching location, and the marker. As shown in FIG. 7, a plurality of markers (in the form of circles in FIG. 7) are embedded or pasted on the target object 1 at predetermined positions, and each marker has unique identification information. Yes. For example, when the marker is a QR code, the marker includes information indicating 0, 1, 2, 3,. The marker is made of a high-intensity infrared light LED, a phosphor, or the like, and may be one in which LEDs are arranged and represented as numbers, or may be a checkered pattern.

図7に示すように、利用者2が対象物1に注目し、めがね3に設けられた視野映像用カメラ8により視野映像が撮影されているものとする。この場合、視野映像には、対象物1に埋め込まれたマーカ(図7では4つのマーカ)が含まれ、利用者2の視点は、視野映像内に存在する。   As shown in FIG. 7, it is assumed that the user 2 pays attention to the object 1 and the field-of-view video is captured by the field-of-view video camera 8 provided in the glasses 3. In this case, the visual field image includes markers embedded in the object 1 (four markers in FIG. 7), and the viewpoint of the user 2 exists in the visual field image.

図8は、視線一致エリアを判定する処理を説明する図である。図7と同様に、利用者2が対象物1に着目し、めがね3に設けられた視野映像用カメラ8により、4つのマーカM3,1、M3,2、M4,1及びM4,2を含む視野映像が撮影されているものとする。ここで、M3,1等はマーカの番号を示す。   FIG. 8 is a diagram illustrating processing for determining a line-of-sight matching area. As in FIG. 7, the user 2 pays attention to the object 1, and includes four markers M 3, 1, M 3, 2, M 4, 1 and M 4, 2 by the visual field image camera 8 provided on the glasses 3. It is assumed that a field of view image has been taken. Here, M3, 1 and the like indicate marker numbers.

画像解析・エリア興味分析部434は、対象物情報に含まれるマーカの形式に従ったマーカの識別処理を行い、眼球運動解析部41から入力した視野映像に含まれるマーカを識別する。図8の例では、4つのマーカM3,1、M3,2、M4,1、M4,2が識別される。そして、画像解析・エリア興味分析部434は、識別したマーカの位置情報を、特定した対象物1の対象物情報から取り出し、眼球運動解析部41から入力した視点の位置情報と、識別したマーカの位置情報とに基づいて、視点を囲む4つのマーカを特定する。   The image analysis / area interest analysis unit 434 performs marker identification processing according to the format of the marker included in the object information, and identifies the marker included in the visual field image input from the eye movement analysis unit 41. In the example of FIG. 8, four markers M3, 1, M3, 2, M4, 1, and M4, 2 are identified. Then, the image analysis / area interest analysis unit 434 extracts the position information of the identified marker from the object information of the identified object 1, and receives the position information of the viewpoint input from the eye movement analysis unit 41 and the identified marker. Based on the position information, four markers surrounding the viewpoint are specified.

例えば、図9に示した対象物情報に含まれるマーカの位置情報が、(M3,1:x3,y1)(M3,2:x3,y2)等の情報であるとする。ここで、M3,1等はマーカの番号を示し、(x3,y1)等は対象物1におけるマーカの平面座標を示す。この場合、図8に示すように、画像解析・エリア興味分析部434は、識別したマーカM3,1の位置情報(x3,y1)等を対象物情報から取り出し、取り出したマーカの位置情報と視点の位置情報とに基づいて、視点を囲むマーカM3,1、M3,2、M4,1、M4,2を特定する。   For example, the marker position information included in the object information shown in FIG. 9 is information such as (M3, 1: x3, y1) (M3, 2: x3, y2). Here, M3, 1 and the like indicate the marker number, and (x3, y1) and the like indicate the planar coordinates of the marker in the object 1. In this case, as shown in FIG. 8, the image analysis / area interest analysis unit 434 extracts the position information (x3, y1) and the like of the identified marker M3, 1 from the object information, and extracts the position information and viewpoint of the extracted marker. The markers M3, 1, M3, 2, M4, 1, and M4, 2 surrounding the viewpoint are specified based on the position information.

そして、画像解析・エリア興味分析部434は、特定した対象物1の対象物情報に含まれるエリアとマーカの関係情報から、特定したマーカに囲まれるエリアを特定する。図8の例では、マーカM3,1、M3,2、M4,1及びM4,2に囲まれるエリアA3,1が特定される。   Then, the image analysis / area interest analysis unit 434 specifies an area surrounded by the specified marker from the relationship information between the area and the marker included in the target object information of the specified target object 1. In the example of FIG. 8, the area A3, 1 surrounded by the markers M3, 1, M3, 2, M4, 1 and M4, 2 is specified.

そして、画像解析・エリア興味分析部434は、特定したエリアに利用者2の視点が所定時間以上滞留していると判定した場合に、利用者2がそのエリアに興味を示したと判定し、そのエリアを視線一致エリアと判定する。この場合、画像解析・エリア興味分析部434は、視点滞留時間による判定に代えて、特定したエリアに対して、所定長以上の瞳孔径が所定時間以上継続していると判定した場合に、利用者2がそのエリアに興味を示したと判定し、そのエリアを視線一致エリアと判定するようにしてもよい。   When the image analysis / area interest analysis unit 434 determines that the viewpoint of the user 2 has stayed in the specified area for a predetermined time or more, the image analysis / area interest analysis unit 434 determines that the user 2 has shown interest in the area. The area is determined as a line-of-sight matching area. In this case, instead of the determination based on the viewpoint dwell time, the image analysis / area interest analysis unit 434 is used when it is determined that the pupil diameter of a predetermined length or longer continues for a predetermined time for the specified area. It may be determined that the person 2 has shown interest in the area, and the area is determined as the line-of-sight matching area.

画像解析・エリア興味分析部434は、どのエリアにどれだけの時間、視点が滞留していたかを算出する。つまり、画像解析・エリア興味分析部434は、同じエリアに視点が滞留している限り、その時間をカウントし、そのエリアにおける滞留時間を算出する。視点の滞留時間が長いほど、その視線一致エリアに対する興味関心度合いが高くなる。画像解析・エリア興味分析部434は、対象物1を識別するための対象物ID、エリア、そのエリアにおける視点の滞留時間、滞留開始時刻、滞留終了時刻及び視線一致エリアであるか否かの判定結果からなる行動結果を生成し、その行動結果を記憶媒体432に格納する。   The image analysis / area interest analysis unit 434 calculates how long and in which time the viewpoint has stayed in which area. That is, as long as the viewpoint stays in the same area, the image analysis / area interest analysis unit 434 counts the time and calculates the stay time in the area. The longer the viewpoint stays, the higher the degree of interest in the line-of-sight matching area. The image analysis / area interest analysis unit 434 determines the object ID for identifying the object 1, the area, the dwell time of the viewpoint in the area, the dwell start time, the dwell end time, and the line-of-sight matching area. An action result including the result is generated, and the action result is stored in the storage medium 432.

図12は、行動結果の構成を示す図である。図12に示すように、行動結果は、対象物ID、エリア、そのエリアにおける視点の滞留時間、滞留開始時刻、滞留終了時刻及び視線一致エリアであるか否かの判定結果から構成される。これらのデータは、画像解析・エリア興味分析部434によって記憶媒体432に格納され、データ転送管理制御部435によって記憶媒体432から読み出される。尚、画像解析・エリア興味分析部434は、視点の滞留時間に代えて、瞳孔径の平均値を格納するようにしてもよい。この場合、瞳孔径の平均値が大きいほど、その視線一致エリアに対する興味関心度合いが高くなる。   FIG. 12 is a diagram illustrating a configuration of an action result. As shown in FIG. 12, the action result is composed of the object ID, the area, the staying time of the viewpoint in the area, the staying start time, the staying end time, and the determination result as to whether or not the line-of-sight matching area. These data are stored in the storage medium 432 by the image analysis / area interest analysis unit 434 and read from the storage medium 432 by the data transfer management control unit 435. The image analysis / area interest analysis unit 434 may store an average value of pupil diameters instead of the viewpoint dwell time. In this case, the greater the average value of the pupil diameter, the higher the degree of interest in the line-of-sight matching area.

画像解析・エリア興味分析部434は、視線一致エリアを判定し、視点が視線一致エリアから外れたときに、利用者2が興味を示したときの行動結果(対象物ID、エリア、そのエリアにおける視点の滞留時間、滞留開始時刻、滞留終了時刻、視線一致エリアである旨)を送信するようにアプリケーション管理制御部431を介してデータ転送管理制御部435に指示する。そして、データ転送管理制御部435は、利用者2が興味を示したときの行動結果を、機能間通信部436を介して移動体端末5へ送信する。また、データ転送管理制御部435は、所定の周期にて記憶媒体432から解析データ及び行動結果を読み出し、機能間通信部436を介して移動体端末5へ送信する。   The image analysis / area interest analysis unit 434 determines the line-of-sight matching area, and when the viewpoint deviates from the line-of-sight matching area, the behavior result when the user 2 is interested (the object ID, the area, in the area) The data transfer management control unit 435 is instructed via the application management control unit 431 to transmit the viewpoint retention time, residence start time, residence end time, and line-of-sight matching area). Then, the data transfer management control unit 435 transmits the behavior result when the user 2 is interested to the mobile terminal 5 via the inter-function communication unit 436. Further, the data transfer management control unit 435 reads the analysis data and the action result from the storage medium 432 at a predetermined cycle, and transmits the analysis data and the action result to the mobile terminal 5 via the inter-function communication unit 436.

〔移動体端末〕
次に、図1及び図2に示した移動体端末5について詳細に説明する。図5は、移動体端末5の構成を示すブロック図である。移動体端末5は、前述のように、機能制御部51を備えている。また、機能制御部51は、図5に示すように、中央制御部511、記憶媒体512、機能間通信部513及び移動体通信部514を備えている。
[Mobile terminal]
Next, the mobile terminal 5 shown in FIGS. 1 and 2 will be described in detail. FIG. 5 is a block diagram showing a configuration of the mobile terminal 5. The mobile terminal 5 includes the function control unit 51 as described above. Further, the function control unit 51 includes a central control unit 511, a storage medium 512, an inter-function communication unit 513, and a mobile communication unit 514, as shown in FIG.

中央制御部511は、計測装置4から機能間通信部513を介して、取得対象の範囲を示す位置情報を含む対象物情報取得要求を受信し、取得対象の範囲の対象物情報に加えてアプリケーション情報も取得するために、対象物情報及びアプリケーション情報取得要求を、移動体通信部514を介してサービスセンター6へ送信する。そして、中央制御部511は、サービスセンター6から移動体通信部514を介して、取得対象の範囲の対象物情報及びアプリケーション情報を受信し、アプリケーション情報を記憶媒体512に格納する。   The central control unit 511 receives the object information acquisition request including the position information indicating the range of the acquisition target from the measurement device 4 via the inter-function communication unit 513, and adds the application information in addition to the target object information in the acquisition target range. In order to acquire information, the object information and application information acquisition request is transmitted to the service center 6 via the mobile communication unit 514. Then, the central control unit 511 receives the object information and application information in the acquisition target range from the service center 6 via the mobile communication unit 514, and stores the application information in the storage medium 512.

図10は、アプリケーション情報の構成を示す図である。図10に示すように、アプリケーション情報は、対象物ID、エリア番号、エリアに対応付けられるアプリケーション及びアプリケーションの起動方法から構成されている。記憶媒体512に格納されるアプリケーション情報は、利用者2の位置情報(緯度及び経度)を中心とした所定範囲内に設置された全ての対象物1における対象物1内のエリアについて、そのエリアに対応付けられたアプリケーション等の情報である。エリアに対応付けられているアプリケーションは、例えば、指定URLのウェブページの閲覧、指定アドレスへの電子メールの送信、アプリケーションの指定である。また、アプリケーションの起動方法には、例えば、即起動、興味関心度合いに応じた起動、移動体端末5を計測装置4に近づけたときに起動、がある。移動体端末5を計測装置4に近づけたときに起動するとは、計測装置4を近づけたときに反応するセンサが移動体端末5に設けられており、移動体端末5と計測装置4との間の距離が所定距離以上のときにはそのセンサは反応せず、移動体端末5と計測装置4との間の距離が所定距離よりも短いときにそのセンサが反応し、アプリケーションが起動することをいう。   FIG. 10 is a diagram illustrating a configuration of application information. As illustrated in FIG. 10, the application information includes an object ID, an area number, an application associated with the area, and an application activation method. The application information stored in the storage medium 512 is the area of the target object 1 in all the target objects 1 set within a predetermined range centered on the position information (latitude and longitude) of the user 2. It is information such as associated applications. The application associated with the area includes, for example, browsing a web page with a specified URL, sending an e-mail to a specified address, and specifying an application. The application activation methods include, for example, immediate activation, activation according to the degree of interest, and activation when the mobile terminal 5 is brought close to the measuring device 4. The activation when the mobile terminal 5 is brought close to the measuring device 4 is provided with a sensor that reacts when the measuring device 4 is brought close to the mobile terminal 5. The sensor does not react when the distance is equal to or greater than the predetermined distance, and the sensor reacts when the distance between the mobile terminal 5 and the measuring device 4 is shorter than the predetermined distance, and the application is activated.

尚、複数のエリア番号に同一のアプリケーションを割り付けるようにしてもよいし、1つのエリア番号に複数のアプリケーションを割り付けるようにしてもよい。また、興味関心度合い(例えば、視点滞留時間、瞳孔径)に応じたアプリケーションを割り付けておき、例えば、所定の設定値以上の興味関心度合いのときに、第1のアプリケーション(例えば、利用者2が興味を示していたエリアに表示されていた商品について、その商品購入用画面を表示するアプリケーション)が起動し、所定の設定値未満の興味関心度合いのときに、第2のアプリケーション(例えば、利用者2が興味を示していたエリアに表示されていた商品について、その商品の詳細な説明用画面を表示するアプリケーション)が起動するように割り付けてもよい。また、利用者2の位置情報(緯度及び経度)、利用者2の方向、時刻等のそれぞれの条件に応じたアプリケーションが起動するように、アプリケーション及びその起動方法を割り付けるようにしてもよい。   The same application may be assigned to a plurality of area numbers, or a plurality of applications may be assigned to one area number. In addition, an application corresponding to the degree of interest (for example, viewpoint dwell time, pupil diameter) is allocated, and for example, when the degree of interest is greater than a predetermined set value, the first application (for example, the user 2 A second application (for example, a user) is activated when an application that displays a product purchase screen for a product displayed in an area that has shown interest and the degree of interest is less than a predetermined set value. For the product displayed in the area where 2 has shown interest, an application for displaying a detailed explanation screen of the product may be assigned to be activated. Moreover, you may make it allocate an application and its starting method so that the application according to each conditions, such as the positional information (latitude and longitude) of the user 2, the direction of the user 2, and time, may start.

また、中央制御部511は、計測装置4から機能間通信部513を介して、解析データ及び行動結果を受信し、これらのデータを、移動体通信部514を介してサービスセンター6へ送信する。   Further, the central control unit 511 receives the analysis data and the action result from the measurement device 4 via the inter-function communication unit 513 and transmits these data to the service center 6 via the mobile communication unit 514.

また、中央制御部511は、計測装置4から機能間通信部513を介して、利用者2が興味を示したときの行動結果(対象物ID、エリア、そのエリアにおける視点の滞留時間、滞留開始時刻、滞留終了時刻、視線一致エリアである旨)を受信する。そして、中央制御部511は、記憶媒体512からアプリケーション情報を読み出し、受信した行動結果に含まれる対象物ID及びエリア(エリア番号)をキーとして、アプリケーション情報に含まれる、エリアに対応付けられるアプリケーション及びアプリケーションの起動方法を取り出す。   In addition, the central control unit 511 performs an action result when the user 2 is interested from the measurement device 4 via the inter-function communication unit 513 (object ID, area, dwell time of viewpoint in the area, dwell start) Time, staying end time, and line-of-sight matching area). The central control unit 511 reads the application information from the storage medium 512, and uses the object ID and the area (area number) included in the received action result as keys, and the application associated with the area included in the application information and Get the application launch method.

中央制御部511は、視線一致エリアに対応付けられているアプリケーションを、その起動方法で起動する。利用者2は、アプリケーションの起動に伴い、移動体端末5の画面に表示された情報を見て次の行動等を判断する。中央制御部511は、そのときの利用者2による行動、行為、動作を、移動体端末5への操作入力を介して、時刻データを含むコンバージョン情報として収集する。そして、中央制御部511は、行動結果、起動したアプリケーション(起動しなかった場合も含む)、起動方法及びコンバージョン情報を、移動体通信部514を介してサービスセンター6へ送信する。   The central control unit 511 activates the application associated with the line-of-sight matching area using the activation method. The user 2 determines the next action or the like by looking at the information displayed on the screen of the mobile terminal 5 as the application is started. The central control unit 511 collects the action, action, and operation by the user 2 at that time as conversion information including time data via an operation input to the mobile terminal 5. Then, the central control unit 511 transmits the action result, the activated application (including the case where it has not been activated), the activation method and the conversion information to the service center 6 via the mobile communication unit 514.

〔サービスセンター〕
次に、図2に示したサービスセンター6のサーバ10について詳細に説明する。図6は、サーバ10の構成を示すブロック図である。サーバ10は、情報管理・分析部61を備えており、情報管理・分析部61は、移動体通信部62、対象物情報管理部63、情報分析部64及びパラメータ設定部65を備えている。
[Service Center]
Next, the server 10 of the service center 6 shown in FIG. 2 will be described in detail. FIG. 6 is a block diagram illustrating a configuration of the server 10. The server 10 includes an information management / analysis unit 61. The information management / analysis unit 61 includes a mobile communication unit 62, an object information management unit 63, an information analysis unit 64, and a parameter setting unit 65.

対象物情報管理部63は、管理部631、設定部632及び記憶媒体633を備えている。設定部632は、図9に示した対象物情報及び図10に示したアプリケーション情報を構成する各データを設定し、これらの情報を記憶媒体633に格納する。また、設定部632は、記憶媒体633から対象物情報及びアプリケーション情報を読み出し、これらの情報を構成する各データを修正し、記憶媒体633に格納する。つまり、記憶媒体633には、位置情報(緯度及び経度)に対応した対象物情報(図9を参照)及びアプリケーション情報(図10を参照)が格納されている。   The object information management unit 63 includes a management unit 631, a setting unit 632, and a storage medium 633. The setting unit 632 sets each piece of data constituting the object information shown in FIG. 9 and the application information shown in FIG. 10, and stores these pieces of information in the storage medium 633. In addition, the setting unit 632 reads the object information and application information from the storage medium 633, corrects each data constituting the information, and stores the data in the storage medium 633. That is, the storage medium 633 stores object information (see FIG. 9) and application information (see FIG. 10) corresponding to position information (latitude and longitude).

管理部631は、移動体端末5から移動体通信部62を介して、取得対象の範囲を示す位置情報を含む対象物情報及びアプリケーション情報取得要求を受信する。管理部631は、対象物情報及びアプリケーション情報取得要求に含まれる取得対象の範囲を示す位置情報をキーにして記憶媒体633を検索し、その取得対象の範囲の対象物情報及びアプリケーション情報を読み出し、移動体通信部62を介して移動体端末5へ送信する。これにより、計測装置4は、利用者2の移動に伴い、利用者2の位置情報(緯度及び経度)を中心とした所定範囲内に設けられた対象物1の対象物情報を取得し、記憶媒体432に格納することができる。また、移動体端末5も同様に、利用者2の位置情報(緯度及び経度)を中心とした所定範囲内に設けられた対象物1のアプリケーション情報を取得し、記憶媒体512に格納することができる。   The management unit 631 receives the object information and application information acquisition request including the position information indicating the range of the acquisition target from the mobile terminal 5 via the mobile communication unit 62. The management unit 631 searches the storage medium 633 using the position information indicating the acquisition target range included in the target information and application information acquisition request as a key, reads the target information and application information in the acquisition target range, It transmits to the mobile terminal 5 via the mobile communication unit 62. Thereby, the measurement apparatus 4 acquires the object information of the object 1 provided in the predetermined range centering on the positional information (latitude and longitude) of the user 2 as the user 2 moves, and stores it. It can be stored on medium 432. Similarly, the mobile terminal 5 can also acquire application information of the target 1 provided within a predetermined range centered on the position information (latitude and longitude) of the user 2 and store it in the storage medium 512. it can.

情報分析部64は、情報収集部641、対象物効果測定部642、行動分析部643、お薦め情報生成部644及び記憶媒体645を備えている。情報収集部641は、移動体端末5から移動体通信部62を介して、解析データ、行動結果、利用者2が興味を示したときの行動結果、起動したアプリケーション、起動方法及びコンバージョン情報等を受信し、記憶媒体645に格納する。   The information analysis unit 64 includes an information collection unit 641, an object effect measurement unit 642, a behavior analysis unit 643, a recommended information generation unit 644, and a storage medium 645. The information collection unit 641 receives the analysis data, the behavior result, the behavior result when the user 2 is interested, the activated application, the activation method, the conversion information, and the like from the mobile terminal 5 via the mobile communication unit 62. Receive and store in storage medium 645.

対象物効果測定部642は、利用者2が興味を示したときの行動結果等を用いることにより、対象物1が利用者2の行動に影響を及ぼしているか否かを数値化する。すなわち、対象物効果測定部642は、記憶媒体645から利用者2が興味を示したときの行動結果等のデータを読み出し、利用者2が注目した対象物において興味を示した視線一致エリア毎に、対象物効果測定結果を算出及び整理し、記憶媒体645に格納する。具体的には、対象物効果測定部642は、利用者2が興味を示したときの行動結果に含まれる視点滞留時間と、その時間において解析データに含まれる瞳孔径とを、視点の滞留開始時刻から滞留終了時刻までの間で積分処理を行い、その積分値である興味度を算出する。また、対象物効果測定部642は、最初に起動したアプリケーションの名称等を特定し、利用者2の行動、行為等を示すコンバージョン情報を特定する。起動したアプリケーションがない場合には、未起動のアプリケーションの名称等を特定する。コンバージョン情報には、例えば、アプリケーションの起動によって画面に表示された商品についての詳細な情報を取得するための操作、その商品の申し込み、購入決済等の操作がある。   The object effect measurement unit 642 quantifies whether the object 1 has an influence on the action of the user 2 by using an action result or the like when the user 2 shows interest. That is, the object effect measuring unit 642 reads out data such as behavior results when the user 2 is interested from the storage medium 645, and for each line-of-sight matching area that shows interest in the object that the user 2 has paid attention to. Then, the object effect measurement result is calculated, organized, and stored in the storage medium 645. Specifically, the object effect measurement unit 642 calculates the viewpoint dwell time included in the action result when the user 2 is interested and the pupil diameter included in the analysis data at that time to start dwelling of the viewpoint. The integration process is performed between the time and the residence end time, and the degree of interest that is the integration value is calculated. The object effect measurement unit 642 identifies the name of the application that is activated first, and identifies conversion information indicating the behavior, action, etc. of the user 2. If there is no activated application, the name of the unactivated application is specified. The conversion information includes, for example, an operation for acquiring detailed information about a product displayed on the screen by starting up an application, an application for the product, and an operation such as purchase settlement.

また、対象物効果測定部642は、利用者2が興味を示した視線一致エリアが判定されてからアプリケーションが起動するまでの間の時間(T1)を算出し、アプリケーションが起動してから所定の行為を行うまでの間の時間(T2)を算出する。T2の算出において、所定の行為とは、例えば、アプリケーションの起動によって画面に表示された商品を購入する操作をいう。対象物効果測定部642は、所定の行為がコンバージョン情報に含まれている場合は時間T2を算出し、含まれていない場合は時間T2を算出しない。前述の例では、商品を購入する操作を行わなかった場合は、時間T2は算出されない。   In addition, the object effect measurement unit 642 calculates a time (T1) from when the line-of-sight matching area in which the user 2 has shown interest is determined to when the application is started, The time (T2) until the action is performed is calculated. In the calculation of T2, the predetermined action refers to, for example, an operation of purchasing a product displayed on the screen by starting an application. The object effect measurement unit 642 calculates the time T2 when the predetermined action is included in the conversion information, and does not calculate the time T2 when the predetermined action is not included. In the above-described example, the time T2 is not calculated when an operation for purchasing a product is not performed.

また、対象物効果測定部642は、興味度、特定したアプリケーション及びコンバージョン情報、時間T1及び時間T2に基づいて、評価点(0〜100点)を算出する。例えば、興味度等のデータにそれぞれ重み付けをして、合計が100点以下になるように正規化する。これらのデータは、対象物効果測定結果として記憶媒体645に格納され、利用者2に通知するために移動体端末5へ送信され、また、有用なマーケティング情報として事業者へ提供される。   The object effect measurement unit 642 calculates an evaluation score (0 to 100 points) based on the degree of interest, the identified application and conversion information, time T1 and time T2. For example, the data such as the degree of interest is respectively weighted and normalized so that the total becomes 100 points or less. These data are stored in the storage medium 645 as the object effect measurement results, transmitted to the mobile terminal 5 for notification to the user 2, and provided to the operator as useful marketing information.

図13は、対象物効果測定結果の構成を示す図である。図13に示すように、対象物効果測定結果は、利用者2毎のデータであり、対象物、エリア、興味度、アプリケーション、コンバージョン情報、時間T1、時間T2及び評価点から構成される。前述したように、これらのデータは、対象物効果測定部642によって記憶媒体645に格納される。   FIG. 13 is a diagram illustrating a configuration of the object effect measurement result. As shown in FIG. 13, the object effect measurement result is data for each user 2 and includes an object, an area, an interest level, an application, conversion information, time T1, time T2, and an evaluation point. As described above, these data are stored in the storage medium 645 by the object effect measurement unit 642.

このように、対象物効果測定部642が、利用者2の行動結果を対象物1毎に数値化することにより、利用者2の行動に対する対象物1の有用性を分析することができる。   Thus, the object effect measuring unit 642 can analyze the usefulness of the object 1 with respect to the action of the user 2 by digitizing the action result of the user 2 for each object 1.

行動分析部643は、利用者2である消費者の行動を分析するために、利用者2毎に、利用者2の行動結果を数値化する。すなわち、行動分析部643は、記憶媒体645から対象物効果測定結果を読み出し、利用者2毎に各対象物1に対する評価点を整理し、行動分析結果として記憶媒体645に格納する。   The behavior analysis unit 643 digitizes the behavior result of the user 2 for each user 2 in order to analyze the behavior of the consumer who is the user 2. That is, the behavior analysis unit 643 reads the object effect measurement results from the storage medium 645, organizes evaluation points for each object 1 for each user 2, and stores them in the storage medium 645 as behavior analysis results.

図14は、行動分析結果の構成を示す図である。図14に示すように、行動分析結果は、利用者2毎における各対象物1の評価点から構成される。例えば、利用者2である消費者1は、対象物aについて評価点が85、対象物bについての評価点が60であることが示されている。このような行動分析結果は、行動分析部643によって記憶媒体645に格納される。   FIG. 14 is a diagram illustrating a configuration of a behavior analysis result. As shown in FIG. 14, the behavior analysis result is composed of evaluation points of the respective objects 1 for each user 2. For example, it is shown that the consumer 1 who is the user 2 has an evaluation score of 85 for the object a and an evaluation score of 60 for the object b. Such behavior analysis results are stored in the storage medium 645 by the behavior analysis unit 643.

このように、行動分析部643が、図14に示した行動分析結果を生成することにより、利用者2である消費者及び消費者モニターについて、対象物1が示す商品の購買パターン及び消費行動パターンを分析することができる。また、第1の利用者2の行動分析結果を、その第1の利用者2のグループ(年齢、性別、性格等)に属する他の利用者2に用いることにより、例えば、同じアプリケーションを起動して同じ商品情報を提示することにより、他の利用者2は所望する商品情報を見ることができ、結果として商品の購買を促進することができる。   As described above, the behavior analysis unit 643 generates the behavior analysis result shown in FIG. 14, whereby the purchase pattern and the consumption behavior pattern of the product indicated by the target object 1 for the consumer who is the user 2 and the consumer monitor. Can be analyzed. Further, by using the behavior analysis result of the first user 2 for another user 2 belonging to the group (age, gender, personality, etc.) of the first user 2, for example, the same application is started. By presenting the same product information, the other users 2 can view the desired product information, and as a result, the purchase of the product can be promoted.

尚、前記実施形態では、商品に対する消費行動を分析する例を示したが、アミューズメントパーク等の娯楽性の強い施設においても適用することができる。   In addition, although the example which analyzes the consumption action with respect to goods was shown in the said embodiment, it can apply also in facilities with strong recreation property, such as an amusement park.

お薦め情報生成部644は、利用者2である消費者の行動分析結果を、お薦め情報として整理し、リアルタイムに利用者2に提示する。すなわち、お薦め情報生成部644は、記憶媒体645から対象物効果測定結果及び行動分析結果を読み出し、起動したアプリケーション及びコンバージョン情報から商品名及び店舗名を特定し、購買点を決定し、興味度及び総合点(評価点)を含めたお薦め情報を生成し、記憶媒体645に格納し、利用者2が携帯する移動体端末5へ送信する。商品名及び店舗名は、例えば、アプリケーションの起動によって画面に表示される複数のデータに含まれており、利用者2が操作によって選択されたものとする。購買点は、予め点数が付けられたコンバージョン情報から決定される。例えば、アプリケーションの起動によって画面に表示された商品についての詳細な情報を取得するための操作をした場合の点数、その商品の申し込みの操作をした場合の点数、購入決済等の操作をした場合の点数等が予め用意されており、お薦め情報生成部644は、実際のコンバージョン情報に対応した点数を購買点として決定する。また、興味度及び総合点(評価点)は、対象物効果測定結果から取り出される。   The recommended information generation unit 644 organizes the behavior analysis result of the consumer who is the user 2 as recommended information and presents it to the user 2 in real time. That is, the recommendation information generation unit 644 reads the object effect measurement result and the behavior analysis result from the storage medium 645, specifies the product name and the store name from the activated application and conversion information, determines the purchase point, Recommendation information including the total score (evaluation score) is generated, stored in the storage medium 645, and transmitted to the mobile terminal 5 carried by the user 2. For example, it is assumed that the product name and the store name are included in a plurality of data displayed on the screen when the application is started, and the user 2 is selected by an operation. Purchase points are determined from conversion information that has been previously scored. For example, when the operation for acquiring detailed information about the product displayed on the screen by starting up the application, the score when the application for the product is operated, the purchase settlement etc. A score and the like are prepared in advance, and the recommended information generation unit 644 determines a score corresponding to actual conversion information as a purchase point. Further, the degree of interest and the total score (evaluation score) are extracted from the object effect measurement result.

図15は、お薦め情報の構成を示す図である。図15に示すように、お薦め情報は、利用者2毎、商品名及び店舗名における興味度、購買度及び総合点(評価点)により構成される。このようなお薦め情報は、お薦め情報生成部644によって記憶媒体645に格納される。   FIG. 15 is a diagram showing a configuration of recommendation information. As shown in FIG. 15, the recommended information is composed of the interest level, the purchase level, and the total score (evaluation score) for each user 2, the product name and the store name. Such recommendation information is stored in the storage medium 645 by the recommendation information generation unit 644.

このように、お薦め情報生成部644が、利用者2に対するお薦め情報を生成し利用者2へ提示することにより、利用者2は、自らの興味に沿った商品及び店舗等について認識することができる。例えば、お薦め情報生成部644は、対象物1が設置されている対象地域の商店街及びショッピングセンター等に限定したお薦め情報を利用者2へ提示することができる。   As described above, the recommendation information generation unit 644 generates recommendation information for the user 2 and presents the recommendation information to the user 2, so that the user 2 can recognize a product, a store, and the like according to his / her own interest. . For example, the recommendation information generation unit 644 can present to the user 2 recommendation information limited to a shopping street and a shopping center in the target area where the target object 1 is installed.

パラメータ設定部65は、情動反応重み値設定部651、有意時間しきい値設定部652及び記憶媒体653を備えている。パラメータ設定部65は、計測装置4及び移動体端末5が動作するために必要な各種パラメータを設定し、移動体通信部62を介して送信する。ここで、パラメータ設定部65による各種パラメータの設定には、計測装置4及び移動体端末5に対し、所定の動作をさせるために必要なパラメータを設定することに加え、ある動作をしている計測装置4及び移動体端末5に対して新たな動作をさせるために、既に設定されてるパラメータを変更することも含まれる。設定した各種パラメータは、記憶媒体653に格納される。例えば、計測装置4における行動分析・アプリケーション制御部43のデータ転送管理制御部435は、利用者2の位置情報(緯度及び経度)を中心とした所定範囲内の対象物情報を取得する。この場合、パラメータ設定部65は、その所定範囲を定める距離を設定して送信する。また、計測装置4における行動分析・アプリケーション制御部43の画像解析・エリア興味分析部434は、利用者2が興味を示した視線一致エリアを判定する際にその設定値を設定して送信する。このように、パラメータ設定部65は、計測装置4及び移動体端末5が動作するために必要な各種パラメータを設定し変更するようにしたから、サービスセンター6側から計測装置4及び移動体端末5を制御することができる。尚、情動反応重み値設定部651、有意時間しきい値設定部652及び記憶媒体653の詳細については、後述する図16及び図17を用いた本発明の他の実施形態が適用される全体システムにおいて説明する。   The parameter setting unit 65 includes an emotion reaction weight value setting unit 651, a significant time threshold value setting unit 652, and a storage medium 653. The parameter setting unit 65 sets various parameters necessary for the measurement device 4 and the mobile terminal 5 to operate, and transmits the parameters via the mobile communication unit 62. Here, in the setting of various parameters by the parameter setting unit 65, in addition to setting parameters necessary for causing the measuring device 4 and the mobile terminal 5 to perform predetermined operations, measurement in which certain operations are performed. In order to cause the device 4 and the mobile terminal 5 to perform a new operation, changing parameters that have already been set is also included. Various set parameters are stored in the storage medium 653. For example, the data transfer management control unit 435 of the behavior analysis / application control unit 43 in the measurement device 4 acquires object information within a predetermined range centered on the position information (latitude and longitude) of the user 2. In this case, the parameter setting unit 65 sets and transmits a distance that defines the predetermined range. Further, the image analysis / area interest analysis unit 434 of the behavior analysis / application control unit 43 in the measurement device 4 sets and transmits the set value when determining the line-of-sight matching area in which the user 2 is interested. As described above, the parameter setting unit 65 sets and changes various parameters necessary for the measurement device 4 and the mobile terminal 5 to operate. Therefore, the measurement device 4 and the mobile terminal 5 are provided from the service center 6 side. Can be controlled. The details of the emotion reaction weight value setting unit 651, the significant time threshold value setting unit 652, and the storage medium 653 are the entire system to which another embodiment of the present invention using FIGS. 16 and 17 described later is applied. Will be described.

以上のように、本発明の実施形態によれば、計測装置4は、利用者2の位置情報(緯度及び経度)及び方向、並びに対象物情報に含まれる対象物1の位置情報(緯度及び経度)に基づいて、利用者2が注目する対象物1を特定するようにした。これにより、利用者2が移動している場合であっても、複数の対象物の中から利用者2が注目している対象物1を特定することができる。   As described above, according to the embodiment of the present invention, the measuring device 4 includes the position information (latitude and longitude) and direction of the user 2 and the position information (latitude and longitude) of the object 1 included in the object information. ) To identify the target object 1 that the user 2 is interested in. Thereby, even if the user 2 is moving, the target object 1 which the user 2 is paying attention to can be specified from among a plurality of target objects.

また、本発明の実施形態によれば、計測装置4は、視野映像内のマーカを識別し、対象物情報に含まれるマーカの形式及び位置情報、エリアとマーカとの関係情報、興味関心度合い、利用者2の視点のデータから、その対象物1内において視点が存在するエリアを判定し、利用者2が興味を示している視線一致エリアを判定することができる。   Further, according to the embodiment of the present invention, the measuring device 4 identifies the marker in the visual field image, the marker type and position information included in the object information, the relationship information between the area and the marker, the degree of interest, From the viewpoint data of the user 2, it is possible to determine an area where the viewpoint exists in the target object 1 and to determine a line-of-sight matching area where the user 2 is interested.

また、本発明の実施形態によれば、移動体端末5は、対象物1内で利用者2が興味をもっているエリアに対応付けられたアプリケーションを、アプリケーション情報に基づいて特定し起動するようにした。これにより、アプリケーションの起動に伴い、例えば画面表示された情報に基づいた利用者2の行動等のコンバージョン情報を得ることができ、利用者2の行動を分析することできる。   Further, according to the embodiment of the present invention, the mobile terminal 5 specifies and activates an application associated with an area in the object 1 that the user 2 is interested in based on the application information. . Thereby, with the start of the application, for example, conversion information such as the behavior of the user 2 based on the information displayed on the screen can be obtained, and the behavior of the user 2 can be analyzed.

このように、本発明の実施形態によれば、移動する利用者2が注目している対象物1を特定し、その対象物1内で興味を示しているエリアを判定すると共に、利用者2の視線に基づいた情動反応を算出して客観的な結果を得るようにした。これにより、移動している利用者2に対して、客観的な行動分析を行うことができる。したがって、アンケート等の主観的な手段ではなく、客観的な手段を用いるようにしたから、行動要因分析の高精度化を実現することが可能となる。   As described above, according to the embodiment of the present invention, the target object 1 that the moving user 2 is interested in is identified, the area showing interest in the target object 1 is determined, and the user 2 The objective response was obtained by calculating the emotional response based on the gaze. Thereby, objective behavior analysis can be performed on the moving user 2. Therefore, since objective means are used instead of subjective means such as a questionnaire, it is possible to realize high accuracy of behavior factor analysis.

〔変形例〕
次に、図2に示したシステムの変形例について説明する。図16は、本発明の他の実施形態が適用される全体システムを示すブロック図である。このシステムは、図2に示したシステムと同様に、計測装置4、移動体端末5、及びサービスセンター6のサーバ10により、対象物1内の特定のエリアに興味を示す利用者2について、その行動を分析することを目的とするものである。図2に示したシステムと、図16に示すシステムとを比較すると、図16の計測装置4は、図2の計測装置4における眼球運動解析部41、位置方向解析部42及び行動分析・アプリケーション制御部43に加えて、さらに、生理反応解析部44及び外界条件解析部45を備えている点で相違する。また、この相違に伴い、計測装置4の行動分析・アプリケーション制御部43及びサーバ10の情報管理・分析部61による処理が相違する。
[Modification]
Next, a modification of the system shown in FIG. 2 will be described. FIG. 16 is a block diagram showing an overall system to which another embodiment of the present invention is applied. As in the system shown in FIG. 2, this system uses the measurement device 4, the mobile terminal 5, and the server 10 of the service center 6 to provide a user 2 who is interested in a specific area in the object 1. The purpose is to analyze behavior. When the system shown in FIG. 2 is compared with the system shown in FIG. 16, the measurement device 4 in FIG. 16 has an eye movement analysis unit 41, a position / direction analysis unit 42, and behavior analysis / application control in the measurement device 4 in FIG. 2. In addition to the unit 43, it further differs in that it includes a physiological reaction analysis unit 44 and an external condition analysis unit 45. In addition, with this difference, processing by the behavior analysis / application control unit 43 of the measuring device 4 and the information management / analysis unit 61 of the server 10 is different.

図16において、計測装置4は、眼球運動解析部41、位置方向解析部42、行動分析・アプリケーション制御部43、生理反応解析部44及び外界条件解析部45を備えている。眼球運動解析部41及び位置方向解析部42については、図2のものと同様であるので、ここでは説明を省略する。   In FIG. 16, the measuring device 4 includes an eye movement analysis unit 41, a position / direction analysis unit 42, a behavior analysis / application control unit 43, a physiological reaction analysis unit 44, and an external condition analysis unit 45. The eye movement analysis unit 41 and the position / direction analysis unit 42 are the same as those shown in FIG.

生理反応解析部44は、利用者2の所定箇所に付けられた脇下体温センサ及び体表センサから各種センサデータを入力し、入力した各種センサデータを解析し、体温、脈拍、体表温度及び発汗量を行動分析・アプリケーション制御部43に出力する。脇下体温センサは、利用者2の脇の下に付けられ、体温を検出するためのデータを出力する。体表センサは、例えば、下着または腕時計に付けられ、脈拍、体表温度及び発汗量を検出するためのデータを出力する。脈拍計を耳たぶに付けるようにしてもよい。   The physiological reaction analysis unit 44 inputs various sensor data from the armpit body temperature sensor and the body surface sensor attached to a predetermined location of the user 2, analyzes the input various sensor data, and calculates the body temperature, pulse, body surface temperature, and The amount of sweating is output to the behavior analysis / application control unit 43. The armpit body temperature sensor is attached to the armpit of the user 2 and outputs data for detecting body temperature. The body surface sensor is attached to an underwear or a wristwatch, for example, and outputs data for detecting a pulse, a body surface temperature, and a sweat rate. A pulse meter may be attached to the earlobe.

外界条件解析部45は、利用者2が保持している温度センサ、湿度センサ及び光量センサから各種センサデータを入力し、入力した各種センサデータを解析し、利用者2の周囲環境の外界条件に関するデータである外気温、湿度及び光量を行動分析・アプリケーション制御部43に出力する。   The external condition analysis unit 45 inputs various sensor data from the temperature sensor, the humidity sensor, and the light quantity sensor held by the user 2, analyzes the input various sensor data, and relates to the external conditions of the ambient environment of the user 2. The outside air temperature, humidity and light quantity as data are output to the behavior analysis / application control unit 43.

行動分析・アプリケーション制御部43は、対象物1の対象物情報を取得するための対象物取得要求を移動体端末5へ送信し、対象物情報を受信して記憶媒体に記憶する。また、行動分析・アプリケーション制御部43は、眼球運動解析部41から利用者2の視点及び瞳孔径並びに視野映像を、位置方向解析部42から利用者2の位置情報(緯度及び経度)及び方向を、生理反応解析部44から利用者2の体温、脈拍、体表温度及び発汗量を、外界条件解析部45から外気温、湿度及び光量をそれぞれ入力する。そして、行動分析・アプリケーション制御部43は、入力したこれらのデータを時系列に記憶媒体に格納する。   The behavior analysis / application control unit 43 transmits an object acquisition request for acquiring object information of the object 1 to the mobile terminal 5, receives the object information, and stores the object information in a storage medium. Further, the behavior analysis / application control unit 43 obtains the viewpoint and pupil diameter and visual field image of the user 2 from the eye movement analysis unit 41, and the position information (latitude and longitude) and direction of the user 2 from the position / direction analysis unit 42. The body temperature, pulse, body surface temperature and perspiration amount of the user 2 are input from the physiological reaction analysis unit 44, and the outside air temperature, humidity and light intensity are input from the external condition analysis unit 45, respectively. Then, the behavior analysis / application control unit 43 stores these input data in a storage medium in time series.

また、行動分析・アプリケーション制御部43は、利用者2が注目している対象物1を特定し、対象物1について、利用者2が興味を示しているエリアである視線一致エリアを判定し、視線一致エリアの情動反応を算出し、算出した情動反応の値が所定の閾値より大きくなる時間帯を有意時間として設定し、これらの行動結果を記憶媒体に格納すると共に移動体端末5へ送信する。行動分析・アプリケーション制御部43は、有意時間における各データに対し、興味誘導要因としてフラグ付けする。   In addition, the behavior analysis / application control unit 43 identifies the target object 1 that the user 2 is paying attention to, and determines a line-of-sight matching area that is an area in which the user 2 is interested in the target object 1. The emotional reaction in the line-of-sight matching area is calculated, a time zone in which the calculated emotional response value is greater than a predetermined threshold is set as a significant time, and these action results are stored in the storage medium and transmitted to the mobile terminal 5 . The behavior analysis / application control unit 43 flags each data in the significant time as an interest induction factor.

以下、行動分析・アプリケーション制御部43による情動反応の算出及び有意時間の設定等の処理について詳細に説明する。行動分析・アプリケーション制御部43によるその他の処理については図2〜図4を用いて既に説明済みであるので、ここでは詳細な説明を省略する。   Hereinafter, processing such as calculation of emotional reaction and setting of significant time by the behavior analysis / application control unit 43 will be described in detail. Since the other processes by the behavior analysis / application control unit 43 have already been described with reference to FIGS. 2 to 4, detailed description thereof is omitted here.

行動分析・アプリケーション制御部43のデータ同期管理制御部433は、位置方向解析部42から利用者2の位置情報(緯度及び経度)及び方向を入力すると共に、外界条件解析部45から外気温、湿度及び光量を入力し、入力したこれらのデータを同期させ、同期した位置情報(緯度及び経度)、方向、外気温、湿度及び光量を画像解析・エリア興味分析部434に出力する。   The data synchronization management control unit 433 of the behavior analysis / application control unit 43 inputs the position information (latitude and longitude) and direction of the user 2 from the position / direction analysis unit 42, and the outside air temperature and humidity from the external condition analysis unit 45. Then, the input data are synchronized, and the input data are synchronized, and the synchronized position information (latitude and longitude), direction, outside temperature, humidity and light amount are output to the image analysis / area interest analysis unit 434.

画像解析・エリア興味分析部434は、眼球運動解析部41から視点、瞳孔径及び視野映像を、生理反応解析部44から体温、脈拍、体表温度及び発汗量を、データ同期管理制御部433から同期した位置情報(緯度及び経度)、方向、外気温、湿度及び光量をそれぞれ入力する。   The image analysis / area interest analysis unit 434 receives the viewpoint, pupil diameter, and visual field image from the eye movement analysis unit 41, the body temperature, pulse, body surface temperature, and sweating amount from the physiological reaction analysis unit 44, and the data synchronization management control unit 433. Synchronized position information (latitude and longitude), direction, outside air temperature, humidity and light quantity are input.

そして、画像解析・エリア興味分析部434は、前述のように、対象物1を特定し、特定した対象物1において利用者2が興味を示している視線一致エリアを判定すると共に、瞳孔径、体温、脈拍、体表温度及び発汗量の時系列データ(各データは同期しているものとする)に基づいて情動反応を算出する。具体的には、画像解析・エリア興味分析部434は、瞳孔径の時系列データをp(t)、体温の時系列データをa(t)、脈拍の時系列データをb(t)、体表温度の時系列データをc(t)、発汗量の時系列データをd(t)、各時系列データへの重み値をそれぞれP,A,B,C,D、定数をSとすると、以下の式により情動反応E(t)を算出する。
E(t)=P・p(t)+A・a(t)+B・b(t)+C・c(t)+D・d(t)+S
Then, as described above, the image analysis / area interest analysis unit 434 identifies the target object 1 and determines the line-of-sight matching area in which the user 2 is interested in the identified target object 1 as well as the pupil diameter, Emotional responses are calculated based on time series data of body temperature, pulse, body surface temperature, and sweat rate (each data is synchronized). Specifically, the image analysis / area interest analysis unit 434 sets the time series data of the pupil diameter to p (t), the time series data of the body temperature to a (t), the time series data of the pulse to b (t), the body When the time series data of the table temperature is c (t), the time series data of the sweating amount is d (t), the weight values for each time series data are P, A, B, C, D, and the constant is S, The emotional reaction E (t) is calculated by the following equation.
E (t) = P * p (t) + A * a (t) + B * b (t) + C * c (t) + D * d (t) + S

画像解析・エリア興味分析部434は、算出した情動反応E(t)と所定の閾値thとを比較し、情動反応E(t)が閾値th以上の場合に、その時間帯を有意時間として設定し、その時間帯のデータに対し興味誘導要因としてラベル付けをする。すなわち、以下の式により、J(t)=1のときのtを有意時間として設定する。
J(t)=1(if E(t)≧th)
=0(else)
The image analysis / area interest analysis unit 434 compares the calculated emotional response E (t) with a predetermined threshold th, and sets the time zone as a significant time when the emotional response E (t) is equal to or greater than the threshold th. Then, the data of the time zone is labeled as an interest inducing factor. That is, t when J (t) = 1 is set as a significant time according to the following equation.
J (t) = 1 (if E (t) ≧ th)
= 0 (else)

そして、画像解析・エリア興味分析部434は、特定した対象物1を識別するための対象物ID、エリア、視点、瞳孔径、視野映像、体温、脈拍、体表温度、発汗量、利用者2の位置情報(緯度及び経度)、利用者2の方向、外気温、湿度、光量、重み付けした瞳孔径の時系列データP・p(t)等、情動反応E(t)及びラベルを時刻データと共に解析データとして記憶媒体432に格納する。解析データは、移動体端末5を介してサービスセンター6へ送信される。   The image analysis / area interest analysis unit 434 then identifies an object ID for identifying the identified object 1, area, viewpoint, pupil diameter, visual field image, body temperature, pulse, body surface temperature, perspiration, user 2 Position information (latitude and longitude), direction of user 2, outside air temperature, humidity, light quantity, weighted pupil diameter time series data P · p (t), etc., emotional response E (t) and label together with time data The data is stored in the storage medium 432 as analysis data. The analysis data is transmitted to the service center 6 via the mobile terminal 5.

図17は、有意時間を説明する図である。図17に示すように、情動反応E(t)が閾値thよりも大きい時間帯をt1〜t2,t3〜t4とすると、有意時間はt1〜t2,t3〜t4となる。したがって、時間t1〜t2,t3〜t4においてJ(t)=1となるから、解析データは、有意時間t1〜t2,t3〜t4の各データにラベルが付けられ、有意時間t1〜t2,t3〜t4における各データが興味誘導要因となる。   FIG. 17 is a diagram for explaining the significant time. As shown in FIG. 17, when the time zone in which the emotional reaction E (t) is larger than the threshold th is t1 to t2 and t3 to t4, the significant time is t1 to t2, t3 to t4. Therefore, since J (t) = 1 at times t1 to t2 and t3 to t4, the analysis data is labeled with each data of significant times t1 to t2 and t3 to t4, and significant times t1 to t2 and t3. Each data at ~ t4 becomes an interest induction factor.

また、画像解析・エリア興味分析部434は、前述のとおり、特定した対象物1を識別するための対象物ID、判定した視線一致エリア、その視線一致エリアにおける視点の滞留時間、滞留開始時刻及び滞留終了時刻からなる行動結果を生成し、その行動結果を記憶媒体432に格納する。行動結果は、移動体端末5を介してサービスセンター6へ送信される。   Further, as described above, the image analysis / area interest analysis unit 434 determines the object ID for identifying the specified object 1, the determined line-of-sight matching area, the dwell time of the viewpoint in the line-of-sight matching area, the dwell start time, and An action result including the residence end time is generated, and the action result is stored in the storage medium 432. The action result is transmitted to the service center 6 via the mobile terminal 5.

また、データ転送管理制御部435は、前述のとおり、視線一致エリアを判定し、視点が視線一致エリアから外れたときに、利用者2が興味を示したときの行動結果(対象物ID、エリア、そのエリアにおける視点の滞留時間、滞留開始時刻、滞留終了時刻、視線一致エリアである旨)を送信するようにアプリケーション管理制御部431を介してデータ転送管理制御部435に指示する。そして、データ転送管理制御部435は、利用者2が興味を示したときの行動結果を、機能間通信部436を介して移動体端末5へ送信する。移動体端末5は、前述のとおり、計測装置4から利用者2が興味を示したときの行動結果を受信すると、その行動結果に対応するアプリケーションをアプリケーション情報から特定し、そのアプリケーションを起動する。また、データ転送管理制御部435は、所定の周期にて記憶媒体432から解析データ及び行動結果を読み出し、機能間通信部436を介して移動体端末5へ送信する。   Further, as described above, the data transfer management control unit 435 determines the line-of-sight coincidence area, and when the viewpoint deviates from the line-of-sight coincidence area, the action result (object ID, area) when the user 2 shows interest. The data transfer management control unit 435 is instructed via the application management control unit 431 to transmit the staying time of the viewpoint in the area, the staying start time, the staying end time, and the line-of-sight matching area. Then, the data transfer management control unit 435 transmits the behavior result when the user 2 is interested to the mobile terminal 5 via the inter-function communication unit 436. As described above, when the mobile terminal 5 receives an action result when the user 2 is interested from the measuring device 4, the mobile terminal 5 specifies an application corresponding to the action result from the application information and starts the application. Further, the data transfer management control unit 435 reads the analysis data and the action result from the storage medium 432 at a predetermined cycle, and transmits the analysis data and the action result to the mobile terminal 5 via the inter-function communication unit 436.

次に、図6に示したサーバ10における情報管理・分析部61のパラメータ設定部65について説明する。パラメータ設定部65は、前述のとおり、情動反応重み値設定部651、有意時間しきい値設定部652及び記憶媒体653を備えている。情動反応重み値設定部651は、情動反応E(t)を算出する際に用いる瞳孔径、体温、脈拍、体表温度及び発汗量の時系列データの重み値を設定し、移動体通信部62を介して送信する。設定した重み値は記憶媒体653に格納される。また、情動反応重み値設定部651は、記憶媒体653から重み値を読み出して修正し、移動体通信部62を介して送信すると共に、記憶媒体653に格納する。   Next, the parameter setting unit 65 of the information management / analysis unit 61 in the server 10 shown in FIG. 6 will be described. As described above, the parameter setting unit 65 includes the emotion reaction weight value setting unit 651, the significant time threshold value setting unit 652, and the storage medium 653. The emotional response weight value setting unit 651 sets weight values of time series data of pupil diameter, body temperature, pulse, body surface temperature, and sweating amount used when calculating the emotional response E (t), and the mobile communication unit 62 To send through. The set weight value is stored in the storage medium 653. The emotion reaction weight value setting unit 651 reads out and corrects the weight value from the storage medium 653, transmits it through the mobile communication unit 62, and stores it in the storage medium 653.

また、有意時間しきい値設定部652は、有意時間を算出する際に用いる閾値thを設定し、移動体通信部62を介して送信する。設定した閾値thは記憶媒体653に格納される。また、有意時間しきい値設定部652は、記憶媒体653から閾値thを読み出して修正し、移動体通信部62を介して送信すると共に、記憶媒体653に格納する。   The significant time threshold setting unit 652 sets a threshold th used when calculating the significant time, and transmits the threshold th through the mobile communication unit 62. The set threshold th is stored in the storage medium 653. The significant time threshold value setting unit 652 reads and corrects the threshold value th from the storage medium 653, transmits the threshold value th through the mobile communication unit 62, and stores it in the storage medium 653.

また、パラメータ設定部65は、情動反応E(t)を算出する際に用いる時系列データの項目を設定し、移動体通信部62を介して送信すると共に、記憶媒体653に格納する。これにより、情動反応E(t)は、計測装置4の行動分析・アプリケーション制御部43において、パラメータ設定部65により設定された時系列データの項目で算出される。このように、パラメータ設定部65は、計測装置4及び移動体端末5が動作するために必要な、重み値及び閾値th等の各種パラメータを設定し変更するようにしたから、サービスセンター6側から計測装置4及び移動体端末5を制御することができる。   Further, the parameter setting unit 65 sets items of time series data used when calculating the emotional reaction E (t), transmits the items via the mobile communication unit 62, and stores them in the storage medium 653. Thereby, the emotional reaction E (t) is calculated by the time series data item set by the parameter setting unit 65 in the behavior analysis / application control unit 43 of the measuring device 4. As described above, since the parameter setting unit 65 sets and changes various parameters such as the weight value and the threshold value th necessary for the operation of the measuring device 4 and the mobile terminal 5, from the service center 6 side. The measuring device 4 and the mobile terminal 5 can be controlled.

以上のように、本発明の他の実施形態によれば、移動している利用者2が注目する対象物1を特定し、その対象物1内で興味をもったエリアを判定すると共に、利用者2の視線に基づいた情動反応E(t)を算出して客観的な結果を得るようにした。これにより、移動している利用者2に対して、客観的な行動分析を行うことができる。したがって、アンケート等の主観的な手段ではなく、客観的な手段を用いるようにしたから、行動要因分析の高精度化を実現することが可能となる。   As described above, according to another embodiment of the present invention, the object 1 to which the moving user 2 is interested is specified, and the area in which the object 1 is interested is determined and used. The emotional reaction E (t) based on the gaze of the person 2 was calculated to obtain an objective result. Thereby, objective behavior analysis can be performed on the moving user 2. Therefore, since objective means are used instead of subjective means such as a questionnaire, it is possible to realize high accuracy of behavior factor analysis.

また、本発明の他の実施形態によれば、サーバ10の情報管理・分析部61は、情動反応E(t)を算出するために必要な各時系列データの重み値P等を設定するようにした。また、情報管理・分析部61は、有意時間を算出するために必要な閾値thを設定するようにした。これにより、利用者2に応じて重み値P及び閾値thを設定することができるから、利用者2の体調、体質、環境等に応じた精度の高い情動反応E(t)を算出することができる。したがって、行動要因分析の高精度化を実現することができる。   Further, according to another embodiment of the present invention, the information management / analysis unit 61 of the server 10 sets the weight value P and the like of each time-series data necessary for calculating the emotional reaction E (t). I made it. In addition, the information management / analysis unit 61 sets a threshold th necessary for calculating a significant time. Thereby, since the weight value P and the threshold value th can be set according to the user 2, it is possible to calculate the emotional reaction E (t) with high accuracy according to the physical condition, constitution, environment, etc. of the user 2. it can. Therefore, it is possible to achieve high accuracy in behavior factor analysis.

以上、図2及び図16に示したシステムを用いて本発明の実施形態を説明したが、さらに、興味関心度合いの大きさに応じて、視野映像のズームアップ度及び解像度を変更するようにしてもよい。具体的には、画像解析・エリア興味分析部434は、利用者2が実際に対象物1を見ているときの興味関心度合い(例えば、視点滞留時間、瞳孔径の大きさ、図16の変形例における情動反応でもよい)を、前述したように算出する。そして、図示しないズーム制御部は、画像解析・エリア興味分析部434から興味関心度合いを入力し、閾値判定により興味関心度合いが大きいと判定したときは、ズームアップ度が大きくなるようにズームアップ度を設定し、視線方向映像用カメラ8のズームを制御する。これにより、視線方向映像解析部412及び画像解析・エリア興味分析部434は、図示しないズーム制御部により制御されたズームアップ度による視野映像を入力することができる。したがって、興味関心度合いに応じた行動分析を行うことができる。つまり、興味関心度合いが大きい場合は、鮮明な視野映像を得て利用者2が注目している箇所を一層明確にすることができるから、より以上に正確な行動分析を行うことができる。   As described above, the embodiment of the present invention has been described using the system shown in FIGS. 2 and 16, but the zoom-up degree and resolution of the visual field image are changed according to the degree of interest. Also good. Specifically, the image analysis / area interest analysis unit 434 displays the degree of interest (for example, viewpoint dwell time, pupil diameter size, deformation of FIG. 16) when the user 2 is actually looking at the object 1. The emotional reaction in the example may be calculated as described above. A zoom control unit (not shown) inputs the degree of interest from the image analysis / area interest analysis unit 434, and when it is determined that the degree of interest is high by the threshold determination, the zoom-up degree is increased so that the zoom-up degree is increased. To control the zoom of the camera 8 for the visual line direction video. As a result, the line-of-sight image analysis unit 412 and the image analysis / area interest analysis unit 434 can input a visual field image based on a zoom-up degree controlled by a zoom control unit (not shown). Therefore, behavior analysis corresponding to the degree of interest can be performed. In other words, when the degree of interest is high, it is possible to obtain a clear visual field image and further clarify the portion that the user 2 is paying attention to, so that more accurate behavior analysis can be performed.

また、視線方向映像解析部412は、画像解析・エリア興味分析部434から興味関心度合いを入力し、閾値判定により興味関心度合いが大きいと判定したときは、解像度が高くなるように解像度を設定し、その解像度による視野映像を生成して出力する。これにより、画像解析・エリア興味分析部434は、興味関心度合いが大きい場合に高い解像度の視野映像を入力することができる。したがって、興味関心度合いに応じた行動分析を行うことができる。つまり、興味関心度合いが大きい場合は、鮮明な視野映像を得て利用者2が注目している箇所を一層明確にすることができるから、より以上に正確な行動分析を行うことができる。   The line-of-sight image analysis unit 412 inputs the degree of interest from the image analysis / area interest analysis unit 434, and sets the resolution so that the resolution increases when the degree of interest is determined to be large by the threshold determination. , Generate and output a visual field image with the resolution. Accordingly, the image analysis / area interest analysis unit 434 can input a high-resolution visual field image when the degree of interest is high. Therefore, behavior analysis corresponding to the degree of interest can be performed. In other words, when the degree of interest is high, it is possible to obtain a clear visual field image and further clarify the portion that the user 2 is paying attention to, so that more accurate behavior analysis can be performed.

この場合、サーバ10における情報管理・分析部61のパラメータ設定部65は、前述した図示しないズーム制御部及び視線方向映像解析部412における閾値のパラメータを設定し変更することができる。また、通常時のズームアップ度及び解像度、興味関心度合いが大きいときのズームアップ度及び解像度を含む、興味関心度合いに応じたズームアップ度及び解像度を設定し変更することができる。   In this case, the parameter setting unit 65 of the information management / analysis unit 61 in the server 10 can set and change the threshold parameters in the zoom control unit and the line-of-sight image analysis unit 412 (not shown). Also, it is possible to set and change the zoom-up degree and resolution according to the degree of interest, including the normal zoom-up degree and resolution, and the zoom-up degree and resolution when the degree of interest is large.

尚、計測装置4、移動体端末5及びサーバ10は、それぞれCPU、RAM等の揮発性の記憶媒体、ROM等の不揮発性の記憶媒体、及びインターフェース等を備えたコンピュータによって構成される。図2に示した計測装置4に備えた眼球運動解析部41、位置方向解析部42及び行動分析・アプリケーション制御部43の各機能、及び図16に示した眼球運動解析部41、位置方向解析部42、行動分析・アプリケーション制御部43、生理反応解析部44及び外界条件解析部45の各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。また、移動体端末5に備えた機能制御部51の機能は、この機能を記述したプログラムをCPUに実行させることにより実現される。また、サーバ10に備えた情報管理・分析部61の機能は、この機能を記述したプログラムをCPUに実行させることにより実現される。また、これらのプログラムは、磁気ディスク(フロッピィー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の記憶媒体に格納して頒布することもできる。   The measuring device 4, the mobile terminal 5, and the server 10 are each configured by a computer having a CPU, a volatile storage medium such as a RAM, a non-volatile storage medium such as a ROM, and an interface. Each function of the eye movement analysis unit 41, the position / direction analysis unit 42, and the behavior analysis / application control unit 43 provided in the measurement device 4 shown in FIG. 2, and the eye movement analysis unit 41, the position / direction analysis unit shown in FIG. 42, each function of the behavior analysis / application control unit 43, the physiological reaction analysis unit 44, and the external condition analysis unit 45 is realized by causing the CPU to execute a program describing these functions. The function of the function control unit 51 provided in the mobile terminal 5 is realized by causing the CPU to execute a program describing this function. The function of the information management / analysis unit 61 provided in the server 10 is realized by causing the CPU to execute a program describing this function. These programs can also be stored and distributed in a storage medium such as a magnetic disk (floppy (registered trademark) disk, hard disk, etc.), optical disk (CD-ROM, DVD, etc.), semiconductor memory, or the like.

以上、実施形態を挙げて本発明を説明したが、本発明は前記実施形態に限定されるものではなく、その技術思想を逸脱しない範囲で種々変形可能である。例えば、前記実施形態では、めがね3を用いるようにしたが、必ずしもめがね3である必要はなく、例えば、カメラが設けられた帽子であってもよい。要するに、カメラによって、利用者2の眼球画像及び視野映像が撮影されればよい。   The present invention has been described with reference to the embodiment. However, the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the technical idea thereof. For example, in the above embodiment, the glasses 3 are used, but the glasses 3 are not necessarily required. For example, a hat provided with a camera may be used. In short, the eyeball image and field-of-view image of the user 2 may be taken by the camera.

また、前記実施形態では、計測装置4が瞳孔径を含む解析データを生成し、記憶媒体432に格納するようにしたが、必ずしも瞳孔径を含む必要はなく、例えば、瞬目回数、視点の滞留時間であってもよい。要するに、眼球画像から得られる利用者2の興味関心度合いまたは情動反応に関するデータであればよい。   In the embodiment, the measurement apparatus 4 generates analysis data including the pupil diameter and stores the analysis data in the storage medium 432. However, the measurement apparatus 4 does not necessarily include the pupil diameter. It may be time. In short, any data relating to the degree of interest or emotional reaction of the user 2 obtained from the eyeball image may be used.

また、前記実施形態では、計測装置4が視点滞留時間を含む行動結果を生成し、記憶媒体432に格納するようにしたが、必ずしも視点滞留時間である必要はなく、例えば、瞳孔径、瞬目回数であってもよい。要するに、眼球画像から得られる利用者2の興味関心度合いまたは情動反応に関するデータであればよい。   In the embodiment, the measurement device 4 generates an action result including the viewpoint dwell time and stores it in the storage medium 432. However, the measurement result is not necessarily the viewpoint dwell time. For example, the pupil diameter, blink It may be the number of times. In short, any data relating to the degree of interest or emotional reaction of the user 2 obtained from the eyeball image may be used.

また、前記実施形態では、計測装置4が、生理反応データとして体温、脈拍、体表温度及び発汗量を扱うようにしたが、必ずしもこれらのデータである必要はなく、利用者2の生理反応に関するデータであればよい。また、前記実施形態では、計測装置4が、環境条件である外界条件のデータとして外気温、湿度及び光量を扱うようにしたが、必ずしもこれらのデータである必要はなく、利用者2の周囲の環境に関するデータであればよい。   Moreover, in the said embodiment, although the measuring device 4 handled the body temperature, the pulse, the body surface temperature, and the amount of perspiration as physiological reaction data, it is not necessary to be these data, and it is related to the physiological reaction of the user 2. Any data can be used. Moreover, in the said embodiment, although the measuring device 4 handled external temperature, humidity, and light quantity as data of the external condition which is environmental conditions, it does not necessarily need to be these data, and the circumference | surroundings of the user 2 around Any data related to the environment may be used.

本発明の実施形態が適用される全体システムの概略図である。1 is a schematic diagram of an entire system to which an embodiment of the present invention is applied. 本発明の実施形態が適用される全体システムの構成を示すブロック図である。It is a block diagram which shows the structure of the whole system with which embodiment of this invention is applied. 全体の処理を説明する機能フロー図である。It is a functional flowchart explaining the whole process. 計測装置の構成を示すブロック図である。It is a block diagram which shows the structure of a measuring device. 移動体端末の構成を示すブロック図である。It is a block diagram which shows the structure of a mobile terminal. サーバの構成を示すブロック図である。It is a block diagram which shows the structure of a server. 対象物、視野映像、視線一致場所及びマーカを説明する図である。It is a figure explaining a target object, a visual field image, a gaze coincidence place, and a marker. 視線一致エリアを判定する処理を説明する図である。It is a figure explaining the process which determines a visual line coincidence area. 対象物情報の構成を示す図である。It is a figure which shows the structure of target object information. アプリケーション情報の構成を示す図である。It is a figure which shows the structure of application information. 解析データの構成を示す図である。It is a figure which shows the structure of analysis data. 行動結果の構成を示す図である。It is a figure which shows the structure of an action result. 対象物効果測定結果の構成を示す図である。It is a figure which shows the structure of a target object effect measurement result. 行動分析結果の構成を示す図である。It is a figure which shows the structure of an action analysis result. お薦め情報の構成を示す図である。It is a figure which shows the structure of recommendation information. 本発明の他の実施形態が適用される全体システムの構成を示すブロック図である。It is a block diagram which shows the structure of the whole system with which other embodiment of this invention is applied. 有意時間を説明する図である。It is a figure explaining significant time.

符号の説明Explanation of symbols

1 対象物
2 利用者
3 めがね
4 計測装置
5 移動体端末
6 サービスセンター
7 ネットワーク
8 視野映像用カメラ
9 眼球画像用カメラ
10 サーバ
41 眼球運動解析部
42 位置方向解析部
43 行動分析・アプリケーション制御部
44 生理反応解析部
45 外界条件解析部
51 機能制御部
61 情報管理・分析部
62 移動体通信部
63 対象物情報管理部
64 情報分析部
65 パラメータ設定部
411 視点・瞳孔径解析部
412 視野映像解析部
421 緯度経度解析部
422 方向解析部
431 アプリケーション管理制御部
432 記憶媒体
433 データ同期管理制御部
434 画像解析・エリア興味分析部
435 データ転送管理制御部
436 機能間通信部
511 中央制御部
512 記憶媒体
513 機能間通信部
514 移動体通信部
631 管理部
632 設定部
633 記憶媒体
641 情報収集部
642 対象物効果測定部
643 行動分析部
644 お薦め情報生成部
645 記憶媒体
651 情動反応重み値設定部
652 有意時間しきい値設定部
653 記憶媒体
DESCRIPTION OF SYMBOLS 1 Object 2 User 3 Glasses 4 Measuring device 5 Mobile terminal 6 Service center 7 Network 8 Field of view image camera 9 Eyeball image camera 10 Server 41 Eye movement analysis unit 42 Position direction analysis unit 43 Behavior analysis / application control unit 44 Physiological reaction analysis unit 45 External condition analysis unit 51 Function control unit 61 Information management / analysis unit 62 Mobile communication unit 63 Object information management unit 64 Information analysis unit 65 Parameter setting unit 411 Viewpoint / pupil diameter analysis unit 412 Visual field image analysis unit 421 Latitude / longitude analysis unit 422 Direction analysis unit 431 Application management control unit 432 Storage medium 433 Data synchronization management control unit 434 Image analysis / area interest analysis unit 435 Data transfer management control unit 436 Inter-function communication unit 511 Central control unit 512 Storage medium 513 Inter-function communication unit 514 Mobile communication unit 631 Management unit 32 setting unit 633 storage medium 641 information collecting unit 642 object effect measuring unit 643 behavioral analysis unit 644 recommendation information generating unit 645 storage medium 651 emotional response weighting value setting unit 652 significantly time threshold setting unit 653 storage medium

Claims (9)

移動する利用者が携帯する装置であって、前記移動する利用者が注目している対象物を特定し、前記対象物内に配置された複数のマーカにより囲まれるエリアを判定し、前記エリアに関するアプリケーションを起動する端末装置において、A device carried by a moving user, which identifies an object of interest by the moving user, determines an area surrounded by a plurality of markers arranged in the object, and relates to the area In the terminal device that starts the application,
対象物の存在位置を示す位置情報、前記対象物内に配置されたマーカの存在位置を示す位置情報、及び、複数のマーカにより囲まれる前記エリアと前記マーカとの関係を示す関係情報を含む対象物情報を記憶する対象物情報記憶手段と、Object including position information indicating the position of the object, position information indicating the position of the marker arranged in the object, and relation information indicating the relationship between the area surrounded by a plurality of markers and the marker Object information storage means for storing object information;
前記対象物内のエリアと前記エリアに関するアプリケーションを起動するためのアプリケーション情報とを対応付けて記憶するアプリケーション情報記憶手段と、Application information storage means for storing an area in the object and application information for starting an application related to the area in association with each other;
前記利用者の移動に伴って変化する移動距離が所定距離以上である場合に、前記利用者の現在の存在位置を基点とした所定範囲を定める情報を含む取得要求を、ネットワークを介して、対象物情報及びアプリケーション情報を管理するサーバへ送信し、前記サーバから、前記取得要求における所定範囲内に設置された対象物についての対象物情報、及び前記対象物内のエリアに対応付けられたアプリケーション情報を受信し、前記対象物情報記憶手段及びアプリケーション情報記憶手段にそれぞれ格納する対象物情報及びアプリケーション情報収集手段と、When the moving distance that changes with the movement of the user is equal to or greater than a predetermined distance, an acquisition request including information defining a predetermined range based on the current location of the user is sent via the network. Object information and application information transmitted to a server that manages the object information about the object installed within a predetermined range in the acquisition request from the server, and application information associated with an area in the object And object information and application information collection means for storing the object information storage means and application information storage means, respectively,
前記対象物情報記憶手段に格納された対象物の位置情報を読み出し、前記利用者の現在の存在位置を基点とした前記利用者が向いている方向の所定範囲内に、前記読み出した対象物の位置情報が示す存在位置が含まれる場合に、前記対象物を、前記利用者が注目している対象物として特定する対象物特定手段と、Read the position information of the object stored in the object information storage means, and within the predetermined range in the direction the user is facing, based on the current location of the user Object specifying means for specifying the object as the object that the user is paying attention to when the presence position indicated by the position information is included;
前記利用者が向いている前方が撮影された視野映像から、前記対象物特定手段により特定された対象物に配置されたマーカを識別し、前記識別したマーカの位置情報を前記対象物情報記憶手段から読み出し、前記利用者が見ている視点位置と、前記読み出したマーカの位置情報が示すマーカ位置とにより、前記視点位置を囲む複数のマーカを特定し、前記対象物情報記憶手段に格納されたマーカとエリアとの関係情報を読み出し、前記複数のマーカが囲むエリアを特定し、前記特定したエリアに前記利用者の視点位置が所定時間以上滞留している場合に、前記特定したエリアを、前記利用者が注目している対象物内のエリアとして判定するエリア判定手段と、Identifying a marker placed on the object specified by the object specifying means from the field-of-view image taken in front of the user, and position information of the identified marker on the object information storage means From the viewpoint position that the user is viewing and the marker position indicated by the read marker position information, a plurality of markers that surround the viewpoint position are identified and stored in the object information storage means When the relationship information between the marker and the area is read, the area surrounded by the plurality of markers is specified, and when the user's viewpoint position stays in the specified area for a predetermined time or more, the specified area is Area determination means for determining the area within the target object that the user is paying attention to;
前記アプリケーション情報記憶手段から、前記エリア判定手段により判定されたエリアに対応付けられた複数のアプリケーション情報を読み出し、前記エリアへの視点滞留時間に応じて、前記複数のアプリケーション情報のうちの一つを特定してアプリケーションを起動するアプリケーション起動手段と、A plurality of pieces of application information associated with the area determined by the area determination unit are read out from the application information storage unit, and one of the plurality of pieces of application information is selected according to the viewpoint dwell time in the area. An application launching means for identifying and launching the application;
前記アプリケーション起動手段によるアプリケーションの起動に伴って、前記利用者による入力操作を、前記利用者が注目していた対象物内のエリアに対する行動情報として収集する情報収集手段と、Information collection means for collecting an input operation by the user as action information for an area in the target object that the user has been paying attention to in accordance with the activation of the application by the application activation means;
を備えたことを特徴とする端末装置。A terminal device comprising:
請求項1に記載の端末装置において、The terminal device according to claim 1,
前記エリア判定手段は、前記特定したエリアに前記利用者の視点位置が存在し、前記利用者の眼球の瞳孔径が所定長以上である場合に、前記特定したエリアを、前記利用者が注目している対象物内のエリアとして判定する、ことを特徴とする端末装置。The area determination means is configured to allow the user to pay attention to the specified area when the viewpoint position of the user exists in the specified area and the pupil diameter of the user's eyeball is equal to or larger than a predetermined length. The terminal device is characterized in that it is determined as an area within the target object.
請求項1または2に記載の端末装置において、In the terminal device according to claim 1 or 2,
前記アプリケーション起動手段は、前記アプリケーション情報記憶手段から、前記エリア判定手段により判定されたエリアに対応付けられた複数のアプリケーション情報を読み出し、前記エリアに視点が滞留したときの眼球の瞳孔径に応じて、前記複数のアプリケーション情報のうちの一つを特定してアプリケーションを起動する、ことを特徴とする端末装置。The application activation unit reads a plurality of pieces of application information associated with the area determined by the area determination unit from the application information storage unit, and according to the pupil diameter of the eyeball when the viewpoint stays in the area. A terminal device characterized in that one of the plurality of pieces of application information is specified and an application is activated.
請求項1から3までのいずれか一項に記載の端末装置において、In the terminal device according to any one of claims 1 to 3,
前記アプリケーション情報を、ウェブページを指定するURLとする、ことを特徴とする端末装置。A terminal device characterized in that the application information is a URL designating a web page.
移動する利用者が携帯する装置が、対象物の存在位置を示す位置情報、前記対象物内に配置されたマーカの存在位置を示す位置情報、及び、複数のマーカにより囲まれるエリアと前記マーカとの関係を示す関係情報を含む対象物情報を記憶する対象物情報記憶手段と、前記対象物内のエリアと前記エリアに関するアプリケーションを起動するためのアプリケーション情報とを対応付けて記憶するアプリケーション情報記憶手段と、対象物情報及びアプリケーション情報収集手段と、対象物特定手段と、エリア判定手段と、アプリケーション起動手段と、情報収集手段とを備え、前記移動する利用者が注目している対象物を特定し、前記対象物内に配置された複数のマーカにより囲まれるエリアを判定し、前記エリアに関するアプリケーションを起動する情報処理方法において、A device carried by a moving user includes position information indicating the position of an object, position information indicating the position of a marker placed in the object, an area surrounded by a plurality of markers, and the marker. Object information storage means for storing object information including relation information indicating the relationship between the area, and an application information storage means for storing an area in the object and application information for activating an application related to the area in association with each other And object information and application information collection means, object identification means, area determination means, application activation means, and information collection means, and identify the object that the moving user is paying attention to. , Determining an area surrounded by a plurality of markers arranged in the object, and an application related to the area In the information processing method for start-up,
前記対象物情報及びアプリケーション情報収集手段が、前記利用者の移動に伴って変化する移動距離が所定距離以上である場合に、前記利用者の現在の存在位置を基点とした所定範囲を定める情報を含む取得要求を、ネットワークを介して、対象物情報及びアプリケーション情報を管理するサーバへ送信し、前記サーバから、前記取得要求における所定範囲内に設置された対象物についての対象物情報、及び前記対象物内のエリアに対応付けられたアプリケーション情報を受信し、前記対象物情報記憶手段及びアプリケーション情報記憶手段にそれぞれ格納する第1のステップと、The object information and application information collecting means, when the moving distance that changes with the movement of the user is a predetermined distance or more, information that defines a predetermined range based on the current location of the user Including the acquisition request including the object information and the application information via the network to the server that manages the object information and the application information, and the object information about the object installed within the predetermined range in the acquisition request, and the object A first step of receiving application information associated with an area in the object and storing the information in the object information storage unit and the application information storage unit, respectively;
前記対象物特定手段が、前記対象物情報記憶手段に格納された対象物の位置情報を読み出し、前記利用者の現在の存在位置を基点とした前記利用者が向いている方向の所定範囲内に、前記読み出した対象物の位置情報が示す存在位置が含まれる場合に、前記対象物を、前記利用者が注目している対象物として特定する第2のステップと、The object specifying means reads out the position information of the object stored in the object information storage means, and is within a predetermined range in the direction in which the user is facing based on the current location of the user. A second step of identifying the object as an object that the user is paying attention to when the presence position indicated by the position information of the read object is included;
前記エリア判定手段が、前記利用者が向いている前方が撮影された視野映像から、前記対象物特定手段により特定された対象物に配置されたマーカを識別し、前記識別したマーカの位置情報を前記対象物情報記憶手段から読み出し、前記利用者が見ている視点位置と、前記読み出したマーカの位置情報が示すマーカ位置とにより、前記視点位置を囲む複数のマーカを特定し、前記対象物情報記憶手段に格納されたマーカとエリアとの関係情報を読み出し、前記複数のマーカが囲むエリアを特定し、前記特定したエリアに前記利用者の視点位置が所定時間以上滞留している場合に、前記特定したエリアを、前記利用者が注目している対象物内のエリアとして判定する第3のステップと、The area determining means identifies a marker placed on the object specified by the object specifying means from a visual field image taken in front of the user, and position information of the identified marker is obtained. A plurality of markers surrounding the viewpoint position are identified by the viewpoint position read from the object information storage means and viewed by the user and the marker position indicated by the position information of the read marker, and the object information When the relationship information between the marker and the area stored in the storage unit is read, the area surrounded by the plurality of markers is specified, and the user's viewpoint position stays in the specified area for a predetermined time or more, A third step of determining the identified area as an area within the object that the user is paying attention to;
前記アプリケーション起動手段が、前記アプリケーション情報記憶手段から、前記エリア判定手段により判定されたエリアに対応付けられた複数のアプリケーション情報を読み出し、前記エリアへの視点滞留時間に応じて、前記複数のアプリケーション情報のうちの一つを特定してアプリケーションを起動する第4のステップと、The application activation unit reads a plurality of pieces of application information associated with the area determined by the area determination unit from the application information storage unit, and the plurality of pieces of application information according to a viewpoint staying time in the area A fourth step of identifying one of the applications and launching the application;
前記情報収集手段が、前記アプリケーション起動手段によるアプリケーションの起動に伴って、前記利用者による入力操作を、前記利用者が注目していた対象物内のエリアに対する行動情報として収集する第5のステップと、A fifth step in which the information collecting means collects an input operation by the user as action information for an area in the target object that the user has noticed as the application is started by the application starting means; ,
を有することを特徴とする情報処理方法。An information processing method characterized by comprising:
請求項5に記載の情報処理方法において、The information processing method according to claim 5,
前記第3のステップは、前記エリア判定手段が、前記特定したエリアに前記利用者の視点位置が存在し、前記利用者の眼球の瞳孔径が所定長以上である場合に、前記特定したエリアを、前記利用者が注目している対象物内のエリアとして判定する、ことを特徴とする情報処理方法。In the third step, the area determination unit determines the specified area when the viewpoint position of the user exists in the specified area and the pupil diameter of the user's eyeball is equal to or larger than a predetermined length. The information processing method is characterized in that it is determined as an area in the target object that the user is paying attention to.
請求項5または6に記載の情報処理方法において、The information processing method according to claim 5 or 6,
前記第4のステップは、前記アプリケーション起動手段が、前記アプリケーション情報記憶手段から、前記エリア判定手段により判定されたエリアに対応付けられた複数のアプリケーション情報を読み出し、前記エリアに視点が滞留したときの眼球の瞳孔径に応じて、前記複数のアプリケーション情報のうちの一つを特定してアプリケーションを起動する、ことを特徴とする情報処理方法。In the fourth step, the application activation unit reads a plurality of pieces of application information associated with the area determined by the area determination unit from the application information storage unit, and a viewpoint is retained in the area. An information processing method comprising: starting an application by specifying one of the plurality of pieces of application information according to a pupil diameter of an eyeball.
請求項5から7までのいずれか一項に記載の情報処理方法において、In the information processing method according to any one of claims 5 to 7,
前記アプリケーション情報を、ウェブページを指定するURLとする、ことを特徴とする情報処理方法。An information processing method, wherein the application information is a URL designating a web page.
請求項5から8までのいずれか一項に記載の情報処理方法をコンピュータに実行させることを特徴とする情報処理プログラム。An information processing program for causing a computer to execute the information processing method according to any one of claims 5 to 8.
JP2008227176A 2008-09-04 2008-09-04 Terminal device, information processing method, and program Expired - Fee Related JP4282091B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008227176A JP4282091B1 (en) 2008-09-04 2008-09-04 Terminal device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008227176A JP4282091B1 (en) 2008-09-04 2008-09-04 Terminal device, information processing method, and program

Publications (2)

Publication Number Publication Date
JP4282091B1 true JP4282091B1 (en) 2009-06-17
JP2010061452A JP2010061452A (en) 2010-03-18

Family

ID=40872225

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008227176A Expired - Fee Related JP4282091B1 (en) 2008-09-04 2008-09-04 Terminal device, information processing method, and program

Country Status (1)

Country Link
JP (1) JP4282091B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2011074198A1 (en) * 2009-12-14 2013-04-25 パナソニック株式会社 User interface device and input method
CN109804407A (en) * 2016-09-29 2019-05-24 株式会社东芝 It is concerned about maintenance system and server
CN112631677A (en) * 2020-12-21 2021-04-09 上海影创信息科技有限公司 Resource support prompting method and system
CN117763230A (en) * 2023-12-21 2024-03-26 海南柠柠柒科技有限公司 Data analysis method and system based on neural network model

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5828070B2 (en) * 2010-08-20 2015-12-02 パナソニックIpマネジメント株式会社 Imaging apparatus and imaging method
KR101383238B1 (en) * 2011-03-07 2014-04-08 케이비에이2, 인코포레이티드 Systems and methods for analytic data gathering from image providers at an event or geographic location
JP5711364B2 (en) * 2011-05-24 2015-04-30 Necソリューションイノベータ株式会社 Information processing apparatus, control method therefor, control program, information processing system, and information processing method
JP6395296B2 (en) * 2014-08-25 2018-09-26 学校法人 芝浦工業大学 Viewer attention information providing system, information providing apparatus and program thereof
JP2017016287A (en) * 2015-06-30 2017-01-19 パイオニア株式会社 Transmission device, server device, control method, program, and storage medium
CN106951523B (en) * 2017-03-20 2019-12-10 北京搜狐新媒体信息技术有限公司 object processing method and system
JP6298561B1 (en) * 2017-05-26 2018-03-20 株式会社コロプラ Program executed by computer capable of communicating with head mounted device, information processing apparatus for executing the program, and method executed by computer capable of communicating with head mounted device
CN111837151A (en) * 2018-03-13 2020-10-27 株式会社钟化 Determination system and determination method
JP7342409B2 (en) * 2019-04-16 2023-09-12 凸版印刷株式会社 Observation status display system, observation status display method and program
US20240071007A1 (en) * 2022-08-31 2024-02-29 Snap Inc. Multi-dimensional experience presentation using augmented reality

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2011074198A1 (en) * 2009-12-14 2013-04-25 パナソニック株式会社 User interface device and input method
JP5602155B2 (en) * 2009-12-14 2014-10-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ User interface device and input method
CN109804407A (en) * 2016-09-29 2019-05-24 株式会社东芝 It is concerned about maintenance system and server
CN109804407B (en) * 2016-09-29 2023-07-18 株式会社东芝 Care maintenance system and server
CN112631677A (en) * 2020-12-21 2021-04-09 上海影创信息科技有限公司 Resource support prompting method and system
CN117763230A (en) * 2023-12-21 2024-03-26 海南柠柠柒科技有限公司 Data analysis method and system based on neural network model

Also Published As

Publication number Publication date
JP2010061452A (en) 2010-03-18

Similar Documents

Publication Publication Date Title
JP4282091B1 (en) Terminal device, information processing method, and program
US10878636B2 (en) System and method for selecting targets in an augmented reality environment
US11164213B2 (en) Systems and methods for remembering held items and finding lost items using wearable camera systems
US10965975B2 (en) Systems and methods for recognizing faces using non-facial information
KR101229078B1 (en) Apparatus And Method for Mixed Reality Content Operation Based On Indoor and Outdoor Context Awareness
KR101643915B1 (en) Construction system for big data reflect regional characteristics tailored ads
US9373123B2 (en) Wearable advertising ratings methods and systems
US8954433B2 (en) Generating a recommendation to add a member to a receptivity cohort
KR20130065586A (en) Apparatus and method for displaying mobile advertising
US10158979B2 (en) Method and system for wireless location and movement mapping, tracking and analytics
US20100153180A1 (en) Generating Receptivity Cohorts
CN106662458A (en) Wearable sensor data to improve map and navigation data
WO2018127782A1 (en) Wearable augmented reality eyeglass communication device including mobile phone and mobile computing via virtual touch screen gesture control and neuron command
JP2011096173A (en) System, terminal, server, method and program for providing information
JP2015005175A (en) Information processing device, communication system, and information processing method
JP2007156637A (en) Information retrieval device, program and information retrieval system
JP2014230616A (en) Sport supporting system, terminal device, server device, information providing method, information totaling method, information providing program, and information totaling program
US9788164B2 (en) Method and apparatus for determination of kinematic parameters of mobile device user
JP2017162374A (en) Information display effect measurement system and information display effect measurement method
JP2015004848A (en) Information processing device, communication system, and information processing method
WO2013024667A1 (en) Site of interest extraction device, site of interest extraction method, and computer-readable recording medium
KR102026209B1 (en) System for providing artificial intelligence based smart health care service
JP2017016287A (en) Transmission device, server device, control method, program, and storage medium
WO2018128542A1 (en) Method and system for providing information of an animal
WO2023037845A1 (en) Information processing system and information processing method

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090311

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090316

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120327

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120327

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150327

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees