JP2004110096A - User operation log visualizing method, user operation log visualizing device, program and its recording medium - Google Patents
User operation log visualizing method, user operation log visualizing device, program and its recording medium Download PDFInfo
- Publication number
- JP2004110096A JP2004110096A JP2002267828A JP2002267828A JP2004110096A JP 2004110096 A JP2004110096 A JP 2004110096A JP 2002267828 A JP2002267828 A JP 2002267828A JP 2002267828 A JP2002267828 A JP 2002267828A JP 2004110096 A JP2004110096 A JP 2004110096A
- Authority
- JP
- Japan
- Prior art keywords
- user operation
- video
- operation log
- log data
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Debugging And Monitoring (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、メインコンテンツとして提供される映像内の各被写体に対するユーザ操作を利用したインタラクティブ映像コンテンツ提供技術に関し、特に、ユーザ操作ログ情報をメインコンテンツである映像に重畳して可視化表示する方法および装置、プログラム並びにその記録媒体に関する。
【0002】
【従来の技術】
映像内の被写体を指示(マウスクリックなど)するというユーザ操作を利用したアプリケーションの例として、ユーザが指示した被写体に関連した情報を提示するというものが存在する(例えば、非特許文献1、非特許文献2参照)。
【0003】
図5は、このようなアプリケーションの一例であり、電子水族館アプリケーションの例を示したものである。図5において、画面500内に水族館の水槽の映像501が表示されており、この水槽の映像501内に被写体として魚502が登場しているとする。このとき、ユーザが魚502を指示するというイベントが発生すると、その魚の詳しい説明文であるテキスト503を提示するというものである。
【0004】
このようなアプリケーションでは、映像内の被写体を内包する時間および空間的部分領域をアンカーとして定義し、そのアンカーと別の素材の関連を定義しておく。図6に映像内の被写体を内包するアンカー領域を定義した例を示す。図6では、映像600の時間位置t1において被写体(魚)602を内包するように矩形601を定義している。同様に、時間位置t2、t3においてもそれぞれ被写体を内包するように矩形を定義している。時間位置t1およびt2において定義した矩形を2面とする6面体603が時間位置t1、t2間におけるアンカー領域である。同様にt2、t3における矩形を2面とする6面体604のアンカー領域も定義されている。
【0005】
アプリケーションは、ユーザがクリックした際の、映像内の時間位置および空間座標を取得し、その座標がアンカー領域に含まれるか否かを判断し、含まれる場合には予めそのアンカー領域に関連付けられた素材を表示する。このようなアプリケーションにおいては、ユーザがクリックした際の映像内時間位置および空間座標データを保存することでユーザの映像に対するクリック操作ログを取得することが可能である。
【0006】
さらに、ユーザの操作ログに、アンカー領域の識別子を含めておくことで、ユーザが映像内のどの被写体をクリックしたのかを識別することが可能である。図7にこのようなユーザ操作のログ出力例を示す。図7のログには、ユーザの映像をクリックする操作に対して、その映像時間位置および、映像内空間座標、アンカー領域の識別子、ユーザIDが出力されている。ログ702の例は、映像の先頭から1000msのフレームにおいて、(50、50)の座標をユーザ「tim」がクリックしたことを示している。また、この1000msのフレームにおける(50、50)の座標はアンカー領域「fish−A」に含まれていることを示している。
【0007】
インタラクテイブ映像コンテンツ提供サービスにおいては、このようなユーザの映像に対するクリック操作ログは、ユーザ興味の分析や、ユーザにクリックされやすいシーン、ユーザがあまりクリックしないシーン等の抽出等を行う上で重要なデータとなる。
【0008】
【非特許文献1】
池田哲夫、平野泰宏、湯口徹、星隆司著「マルチメディアアプリケーションのデータモデルの開発環境の考察」、情報処理学会論文誌、Vol.40,No.1,pp.2〜12,1999
【非特許文献2】
湯口徹、池田哲夫、星隆司著「PC版ビデオハイパーメディアを開発」、NTT技術ジャーナル、1999年3月
【0009】
【発明が解決しようとする課題】
しかしながら、上記のようなアプリケーションにおいて、1つのユーザ操作ログデータに注目したときに、ユーザがどの被写体をクリックしたのかは、ログデータ内のアンカー識別子により識別可能であるが、具体的にどのようなシーンにおいてクリックしたのか、被写体のどの部分をクリックしたのかを知ることは、従来は困難であった。
【0010】
図7のログ702の例で言えば、ユーザ「tim」がクリックした映像内の空間座標(50、50)は、「fish−A」のどの部位なのかはログ702からだけでは知ることができない。また、「fish−A」がアップで映っているシーンなのか、他に何匹の魚が同時に映っているシーンなのかなど、ユーザが具体的にどのようなシーンでクリックしたのかを知ることもできない。
【0011】
ユーザがクリックした具体的なシーンを知るためには、実際に映像を再生し、再生時間位置をログデータに記された時間情報のシーンにあわせる必要がある。また、そのシーンにおいてどの部分がクリックされたのかを映像内の空間座標との対応から求める必要がある。
【0012】
また、クリック可能な領域として予め定義されていない箇所をユーザがクリックすることも十分考えられる。この場合、クリックされた座標がアンカー領域として定義されていないため、識別子は存在せず、取得できない。そのため、取得できる情報は、ユーザがクリックした時の時間座標および映像内空間座標の数値データのみであり、ユーザが何をクリックしたのかを特定することは一層困難である。
【0013】
図7のログ703がこの例にあたる。ユーザ「joe」が時間位置1000msにおいて、座標(150、240)をクリックしているが、アンカー領域が定義されていない座標のため、ログ情報からのみでは、何をクリックしたのかを知ることはできない。
【0014】
このように、従来は、ユーザがどのシーンの何をクリックしたのかを特定するには煩わしい作業が必要であるという問題があった。
【0015】
一方、ユーザ操作の複数のログの時間軸および空間軸上における分布を求めることは従来も可能であった。図7のログデータを時間軸をもとに整形したものを図8に示す。図8のログデータから、時間位置1000msから1100msにかけてクリックが集中していることや、1100ms以降は1530msまでクリックされていないことがわかる。
【0016】
また、x・yの二次元空間上にログデータをマッピングすることで、よくクリックされた映像内空間座標やクリックが少なかった映像内空間座標を知ることができる。しかし、分布だけで分かる情報は、どの時間のどの空間座標にクリックが集中しているとか、分散しているということだけであり、どんなシーンの何が映っているシーンに分布が集中しているのかというようなことを知るためには、やはり、実際に映像を再生させて目的の時間座標および空間座標を確認する必要があり、これは大変煩わしい作業であった。
【0017】
特に、映像全体を通して、ユーザが多くクリックした空間、時間的部分領域、あまりクリックされなかった空間、時間的部分領域がどのようなシーンで何が映っているのかを把握するためには、再生シーンを少しずつ変化させながら、その映像の再生シーンにおける空間座標上の分布を作成し、映像画面と分布とを見比べて確認するという作業を行う必要があり、とても現実的な作業ではなかった。
【0018】
本発明の目的は、ユーザの映像に対するクリック操作ログに対して、それはどのようなシーンであったのか、何をクリックしたのかを容易に識別可能とすることにある。
また、本発明の目的は、複数のクリック操作ログの分布を実際に映像に対応付けて見ることを可能とし、クリック操作の傾向を容易に把握できるようにすることにある。
【0019】
【課題を解決するための手段】
本発明の一実施例では、蓄積されたユーザ操作ログデータから必要なログデータのみを選択するとともに、時間位置をキーとしたデータ検索を行いやすいように整形しておき、映像を再生しながら、該映像の再生時間位置を取得し、その再生時間位置におけるログデータを取得し、ログデータを可視化して映像画面に重畳表示する。これにより、ユーザがどのシーンの何をクリックしたのかを容易に識別することが可能になる。また、ユーザのクリック操作ログの分布を実際の映像に対応付けて見ることが可能になり、クリック操作の傾向を容易に把握できる。
【0020】
【発明の実施の形態】
図1に、本発明のユーザ操作ログ可視化方法の一実施例のフローチャートを示す。
ここでは、ユーザ操作ログデータは、すでに所定のログデータ蓄積手段に蓄積されているとする。まず、ログデータ蓄積手段に蓄積されたログデータから、所望ユーザ等、必要なログデータのみを選択抽出し(ステップ101)、この抽出したログデータを時間位置をキーとした検索が容易となるように整形しておく(ステップ102)。そして、目的の映像を再生する(ステップ103)。この映像再生中、映像の再生時間位置を取得し(ステップ104)、その再生時間位置におけるユーザのクリックログを取得し(ステップ105)、そのユーザクリック座標に応じた映像内空間座標にユーザクリックを示すマークを、再生映像画面に重畳して描画する(ステップ106)。
【0021】
上記ステップ104〜106の処理を映像を再生している間繰り返し(ステップ107)、再生する映像画面に重畳してユーザのクリックを示すマークを表示する。勿論、映像内の被写体をクリックすると、従来と同様に、該被写体に関連した情報が表示される。また、ユーザの指示により、再生映像の再生方法(再生速度、再生映像の大きさ等)を任意に変更することも可能である。
【0022】
図2に、本発明のユーザ操作ログ可視化装置の一実施例の機能ブロック図を示す。本ユーザ操作ログ可視化装置はログデータ蓄積手段201、フィタリング手段202、データ整形手段203、再生時間位置ログデータ取得手段204、ログデータ描画手段205、映像再生時間位置取得手段206、映像再生手段207、ユーザインタフェース208、映像蓄積手段209からなる。
【0023】
ログデータ蓄積手段201は、ユーザ操作ログを蓄積するデータベースであり、図7のようなユーザ操作ログデータを蓄積しておく。勿論、図7に示す情報は一例に過ぎず、これ以外にも必要な情報がある場合には、取得し蓄積しておく。本実施例では、1つの映像に関するログデータは1つのデータベースに格納されているとし、映像との対応もログデータ蓄積手段201に格納されているとする。勿論、複数の映像に関するログデータを1つのデータベースに格納することも可能であるが、その場合は、映像を識別するための識別子が必要となる。
【0024】
フィルタリング手段202は、ログデータ蓄積手段201に蓄積されたユーザ操作ログデータをフィルタリングし、目的とするログデータのみを選択し、データ整形手段203に渡す。例えば、図7のようにログデータにユーザIDが付与されている場合には、ユーザIDでフィルタリングすることで、ユーザ単位のクリック操作ログデータを取得することが可能である。勿論、フィルタリングを一切せずに、全ログデータをデータ整形手段203に渡してもよい。
【0025】
データ整形手段203は、フィルタリング手段202で選択抽出されたログデータを時間(t)をキーとして検索できるように、t、x、yの3次元を軸に整理する。図7のログデータについて、データ整形手段203で整形された例が図8である。図8の例では、映像の時間位置1000msでは、映像内空間座標(50、50)をユーザ「tim」に、また、(150、240)をユーザ「joe」にクリックされたことを示している。このように、ログデータは、ある時間位置tにおけるクリック座標(x、y)を取得しやすいように整形されている。映像蓄積手段209は映像(コンテンツ)を蓄積している。勿論、映像蓄積手段209はネットワーク上にあってもよい。
【0026】
ユーザインタフェース208では、ユーザのキー入力やマウス操作にもとづき、ログデータおよびユーザクリックの対象となった映像を指定し、また、映像再生手段207の制御を行う。映像再生手段207は、映像蓄積手段209よりユーザクリックの対象となった映像を取得し再生する。
【0027】
映像再生時間位置取得手段206は、映像再生手段207で再生中の映像の再生時間位置を取得し、再生時間位置ログデータ取得手段204に渡す。再生時間位置ログデータ取得手段204は、データ整形手段203で整形されたログデータから、映像再生時間位置取得手段206で取得された時間位置におけるログデータ(クリックログデータ)を検索し、そのユーザクリック座標を取得する。例えば、図8の例では、映像再生時間位置取得手段206で取得された時間位置が1000msであれば、ユーザクリック座標として映像内空間座標(50、50)および(150、240)が取得される。
【0028】
ログデータ描画手段205は、再生時間位置ログデータ取得手段204で取得されたクリックログデータの空間座標に応じた映像画面位置にクリックログを示すマークをある定められた時間描画する。例えば、再生時間位置が1000msの場合は、映像内空間座標(50、50)および(150、240)の位置に所定マークを描画する。
【0029】
図3に、この場合の画面例を示す。図3において、画面300内に、再生時間位置が1000msの映像301が表示され、被写体として魚(fish−A)302が登場している。この映像301内の空間座標(50、50)の位置(左上)にユーザ「tim」のクリックログを示すマーク303が、また、空間座標(150、240)の位置(中央下)にユーザ「joe」のクリックログを示すマーク304が、それぞれ映像301に重複して表示される。ユーザクリックログを示すマークは、例えば、ユーザ毎に異なるようにしてもよい。また、図3では、映像304の下には、映像再生を制御するユーザインタフェース例として、再生位置を示すスライダバー305、および、再生、一時留停止、停止の各ボタン306、307、308を示している。
【0030】
これにより、ログの分析者は、例えば、図7のログ702が、どのような映像シーンでクリックされたのか、アンカー領域「fish−A」のどの部位をクリックしたのか、を容易に認識することが可能である。また、アンカー領域が定義されていない箇所のクリックログ702が、何をクリックしたのかも容易に認識可能である。
【0031】
また、この動作を繰り返すことで、ユーザのクリックが集中していた1000msから1100msのシーンがどのようなシーンであるのかや、どのような被写体がよくクリックされているのかを容易に認識できる。また、クリックがない1100msから1530msがどのようなシーンであったのかも容易に認識することができる。
【0032】
また、ユーザインタフェース208に、再生映像の任意の時間位置を指定したり、再生速度や再生映像の大きさを変更する機能を持たせることで、認識をさらに容易にすることができる。
【0033】
図4は、図1や図2のユーザ操作ログ可視化方法および装置が適用されるハードウエア構成図を示したものである。図4において、情報処理装置(CPU)401が、図1の各ステップ101〜106の処理実行する装置、あるいは、図2の各手段202〜207の処理機能を実現する装置である。ディスプレイ402、キーボード403、マウス404はユーザインタフェースを構成する機器である。ハードディスク405には、映像やユーザ操作ログデータが蓄積されるが、映像は、CD−ROM等の他の記録媒体に蓄積されてもよく、さらには、インターネットなどのネットワーク406上に蓄積されてもよい。また、ユーザ操作ログ情報もネットワーク406上に蓄積され、これからダウンロードすることでもよい。
【0034】
本ユーザ操作ログ可視化方法および装置は、被写体に対する指示により関連情報を提供するシステムや、被写体に対する指示により得点が加算されるゲームシステムなど、被写体に対するユーザ操作を利用した様々なインタラクティブ映像コンテンツ提供システムに対して適用することができる。
【0035】
なお、図2で示した装置における各部の一部もしくは全部の処理機能をコンピュータのプログラムで構成し、そのプログラムをコンピュータを用いて実行して本発明を実現することができること、あるいは、図1で示した処理手順をコンピュータのプログラムで構成し、そのプログラムをコンピュータに実行させることができることは言うまでもない。また、コンピュータでその処理機能を実現するためのプログラム、あるいは、コンピュータにその処理手順を実行させるためのプログラムを、そのコンピュータが読み取り可能な記録媒体、例えば、FDやMO、ROM、メモリカード、CD、DVD、リムーバブルディスクなどに記録して、保存したり、提供したりすることができるとともに、インターネット等のネットワークを通してそのプログラムを配布したりすることが可能である。
【0036】
【発明の効果】
本発明によれば、ユーザの映像クリックに対するユーザ操作を利用したインタラクティプ映像コンテンツ提供サービスについて、ユーザのクリック操作ログを映像に重畳させて表示することで、ユーザのクリック操作ログを視覚的に認識することが可能となり、ユーザがどのようなシーンでクリックしたのか、何をクリックしたのかを容易に識別可能となる。また、複数のクリック操作ログの分布を実際に映像に対応付けて見ることが可能となり、クリック操作の傾向を容易に把握できるようになる。
【図面の簡単な説明】
【図1】本発明のユーザ操作ログ可視化方法の一実施例のフローチャートである。
【図2】本発明のユーザ操作ログ可視化装置の一実施例の機能ブロック図である。
【図3】本発明による画面表示例を示す図である。
【図4】本発明が適用されるハードウエア構成例を示す図である。
【図5】ユーザの映像内被写体クリックで関連情報を提示するアプリケーションの一例である。
【図6】映像内の被写体を内包する時間および空間的部分領域をアンカー定義する一例である。
【図7】ユーザの操作ログ情報の一例である。
【図8】ユーザの操作ログ情報を整形した一例である。
【符号の説明】
201 ログデータ蓄積手段
202 フィルタリング手段
203 データ整形手段
204 再生時間位置ログデータ取得手段
205 ログデータ描画手段
206 映像再生時間位置取得手段
207 映像再生手段
208 ユーザインタフェース
209 映像蓄積手段
300 画面
301 映像
302 被写体
303、304 ユーザクリックログマーク[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an interactive video content providing technology using a user operation on each subject in a video provided as main content, and in particular, a method, apparatus, and program for superimposing and displaying user operation log information on a video as main content And its recording medium.
[0002]
[Prior art]
As an example of an application utilizing a user operation of designating a subject in a video (such as mouse click), there is an application that presents information related to a subject designated by a user (for example, Non-Patent Document 1, Non-Patent Document 1). Reference 2).
[0003]
FIG. 5 is an example of such an application, and shows an example of an electronic aquarium application. In FIG. 5, it is assumed that an
[0004]
In such an application, a temporal and spatial partial region including a subject in a video is defined as an anchor, and the relationship between the anchor and another material is defined in advance. FIG. 6 shows an example in which an anchor area including a subject in a video is defined. In FIG. 6, a
[0005]
The application obtains the time position and spatial coordinates in the video when the user clicks, determines whether or not the coordinates are included in the anchor area, and if so, preliminarily associates with the anchor area. Display the material. In such an application, it is possible to acquire a click operation log for a user's video by saving the time position and spatial coordinate data in the video when the user clicks.
[0006]
Further, by including the identifier of the anchor area in the user operation log, it is possible to identify which subject in the video the user has clicked. FIG. 7 shows a log output example of such a user operation. In the log of FIG. 7, in response to the user's operation of clicking the video, the video time position, the spatial coordinates in the video, the identifier of the anchor area, and the user ID are output. The example of the
[0007]
In the interactive video content providing service, such a click operation log for the user's video is important for analyzing the user's interest, extracting scenes that are easily clicked by the user, and scenes that the user does not click often. Data.
[0008]
[Non-patent document 1]
Tetsuo Ikeda, Yasuhiro Hirano, Toru Yuguchi, Takashi Hoshi, "Consideration of Development Environment for Data Model of Multimedia Application", Transactions of Information Processing Society of Japan, Vol. 40, no. 1, pp. 2 to 12, 1999
[Non-patent document 2]
Toru Yuguchi, Tetsuo Ikeda, Takashi Hoshi, "Developing Video Hypermedia for PC", NTT Technical Journal, March 1999 [0009]
[Problems to be solved by the invention]
However, in the above application, when focusing on one user operation log data, it is possible to identify which subject the user clicked on by an anchor identifier in the log data. Conventionally, it has been difficult to know whether the user clicked in the scene or which part of the subject was clicked.
[0010]
In the example of the
[0011]
In order to know the specific scene clicked by the user, it is necessary to actually reproduce the video and adjust the reproduction time position to the scene of the time information described in the log data. In addition, it is necessary to determine which part of the scene has been clicked on the basis of correspondence with the spatial coordinates in the video.
[0012]
It is also conceivable that the user clicks on a location that is not defined in advance as a clickable area. In this case, since the clicked coordinates are not defined as the anchor area, the identifier does not exist and cannot be acquired. Therefore, the information that can be obtained is only the numerical data of the time coordinate and the space coordinate in the video when the user clicks, and it is more difficult to specify what the user clicked.
[0013]
The
[0014]
As described above, in the related art, there is a problem that a troublesome operation is required to specify which scene the user has clicked on.
[0015]
On the other hand, it has been conventionally possible to obtain distributions of a plurality of user operation logs on a time axis and a space axis. FIG. 8 shows the log data of FIG. 7 shaped based on the time axis. From the log data in FIG. 8, it can be seen that the clicks are concentrated from the
[0016]
Also, by mapping the log data on the x-y two-dimensional space, it is possible to know the spatial coordinates of the image that have been frequently clicked and the spatial coordinates of the image that have been clicked less. However, the information that can be understood only by the distribution is that the click is concentrated at which spatial coordinate at which time and is dispersed, and the distribution is concentrated at the scene where what is reflected in what scene In order to know the fact, it is necessary to actually play back the video and check the target time coordinates and space coordinates, which is a very troublesome operation.
[0017]
In particular, in order to grasp what scenes the user clicked frequently, the temporal partial area, the space where the user did not click much, and the temporal partial area throughout the entire video, the playback scene It is necessary to create a distribution on the spatial coordinates in the reproduction scene of the video while gradually changing the distribution of the video, and compare the distribution with the video screen to confirm the distribution, which is not a very realistic operation.
[0018]
SUMMARY OF THE INVENTION An object of the present invention is to make it possible to easily identify what kind of scene it was and what click was made in a click operation log for a video of a user.
Another object of the present invention is to make it possible to actually see the distribution of a plurality of click operation logs in association with a video, and to easily grasp the tendency of the click operation.
[0019]
[Means for Solving the Problems]
In one embodiment of the present invention, only the necessary log data is selected from the accumulated user operation log data, and the data is formatted so that the data search using the time position as a key is easily performed, and while reproducing the video, The reproduction time position of the video is obtained, the log data at the reproduction time position is obtained, and the log data is visualized and superimposed on the video screen. As a result, it is possible to easily identify which scene and what user clicked. In addition, the distribution of the user's click operation log can be viewed in association with the actual video, and the tendency of the click operation can be easily grasped.
[0020]
BEST MODE FOR CARRYING OUT THE INVENTION
FIG. 1 shows a flowchart of an embodiment of a method for visualizing a user operation log according to the present invention.
Here, it is assumed that the user operation log data is already stored in a predetermined log data storage unit. First, only necessary log data, such as a desired user, is selectively extracted from the log data stored in the log data storage means (step 101), so that the extracted log data can be easily searched using a time position as a key. (Step 102). Then, the target video is reproduced (step 103). During the video playback, the playback time position of the video is obtained (step 104), the click log of the user at the playback time position is obtained (step 105), and the user clicks on the space coordinates in the video corresponding to the user click coordinates. The indicated mark is drawn so as to be superimposed on the reproduced video screen (step 106).
[0021]
The
[0022]
FIG. 2 shows a functional block diagram of one embodiment of the user operation log visualization device of the present invention. The user operation log visualization device includes a log
[0023]
The log
[0024]
The
[0025]
The
[0026]
The
[0027]
The video reproduction time position obtaining means 206 obtains the reproduction time position of the video being reproduced by the video reproduction means 207 and passes it to the reproduction time position log
[0028]
The log data drawing means 205 draws a mark indicating a click log at a video screen position corresponding to the spatial coordinates of the click log data acquired by the reproduction time position log data acquisition means 204 for a predetermined time. For example, when the reproduction time position is 1000 ms, a predetermined mark is drawn at the positions of the spatial coordinates (50, 50) and (150, 240) in the video.
[0029]
FIG. 3 shows a screen example in this case. In FIG. 3, a video 301 whose reproduction time position is 1000 ms is displayed on a screen 300, and a fish (fish-A) 302 appears as a subject. A
[0030]
Thus, the log analyst can easily recognize, for example, what kind of video scene the
[0031]
Also, by repeating this operation, it is possible to easily recognize what kind of scene the scene from 1000 ms to 1100 ms where the user's clicks are concentrated and what kind of subject is often clicked. Also, it is possible to easily recognize what kind of scene was from 1100 ms to 1530 ms without a click.
[0032]
In addition, by making the
[0033]
FIG. 4 shows a hardware configuration diagram to which the user operation log visualization method and apparatus shown in FIGS. 1 and 2 are applied. In FIG. 4, an information processing device (CPU) 401 is a device that executes the processes of
[0034]
The user operation log visualization method and apparatus can be applied to various interactive video content providing systems utilizing user operations on a subject, such as a system for providing related information by an instruction for a subject and a game system in which a score is added by an instruction for a subject. Can be applied to
[0035]
Note that a part or all of the processing functions of each unit in the apparatus shown in FIG. 2 are configured by a computer program, and the program can be executed using a computer to realize the present invention. Needless to say, the processing procedure shown can be configured by a computer program and the computer can execute the program. In addition, a program for realizing the processing function by the computer or a program for causing the computer to execute the processing procedure is stored in a computer-readable recording medium such as an FD, an MO, a ROM, a memory card, and a CD. , A DVD, a removable disk, etc., and can be stored or provided, and the program can be distributed through a network such as the Internet.
[0036]
【The invention's effect】
According to the present invention, a user's click operation log is visually recognized by displaying a user's click operation log superimposed on a video for an interactive video content providing service using a user operation for a user's video click. It is possible to easily identify what scene the user clicked and what the user clicked. In addition, the distribution of the plurality of click operation logs can be actually seen in association with the video, and the tendency of the click operation can be easily grasped.
[Brief description of the drawings]
FIG. 1 is a flowchart of an embodiment of a method for visualizing a user operation log according to the present invention.
FIG. 2 is a functional block diagram of an embodiment of a user operation log visualization device according to the present invention.
FIG. 3 is a diagram showing a screen display example according to the present invention.
FIG. 4 is a diagram showing an example of a hardware configuration to which the present invention is applied.
FIG. 5 is an example of an application that presents related information by clicking a subject in a video of a user.
FIG. 6 is an example of anchor definition of a temporal and spatial partial region including a subject in a video.
FIG. 7 is an example of operation log information of a user.
FIG. 8 is an example of shaping user operation log information.
[Explanation of symbols]
201 log data storage means 202 filtering means 203 data shaping means 204 reproduction time position log data acquisition means 205 log data drawing means 206 video reproduction time position acquisition means 207 video reproduction means 208
Claims (10)
映像を再生するステップと、前記再生した映像の再生時間位置を取得するステップと、蓄積されたユーザ操作ログデータから、前記再生時間位置に関するログデータを取得するステップと、映像画面上に前記ログデータを可視化して表示するステップとを有することを特徴とするユーザ操作ログ可視化方法。A user operation log visualization method for visualizing log information of a user operation on a video,
Reproducing a video; obtaining a reproduction time position of the reproduced video; obtaining log data relating to the reproduction time position from accumulated user operation log data; and displaying the log data on a video screen. And a step of visualizing and displaying the user operation log.
ユーザ操作ログデータを蓄積する手段と、映像を再生する手段と、前記再生した映像の再生時間位置を取得する手段と、前記蓄積されたユーザ操作ログデータから、前記再生時間位置に関するログデータを取得する手段と、映像画面にログデータを可視化して表示する手段とを有することを特徴とするユーザ操作ログ可視化装置。A user operation log visualization device that visualizes log information of a user operation on a video,
Means for accumulating user operation log data, means for reproducing video, means for obtaining a reproduction time position of the reproduced video, and obtaining log data relating to the reproduction time position from the stored user operation log data And a means for visualizing and displaying log data on a video screen.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002267828A JP2004110096A (en) | 2002-09-13 | 2002-09-13 | User operation log visualizing method, user operation log visualizing device, program and its recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002267828A JP2004110096A (en) | 2002-09-13 | 2002-09-13 | User operation log visualizing method, user operation log visualizing device, program and its recording medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004110096A true JP2004110096A (en) | 2004-04-08 |
Family
ID=32266218
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002267828A Pending JP2004110096A (en) | 2002-09-13 | 2002-09-13 | User operation log visualizing method, user operation log visualizing device, program and its recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004110096A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008199340A (en) * | 2007-02-14 | 2008-08-28 | Fuji Xerox Co Ltd | Information processing device and program |
JP2008217585A (en) * | 2007-03-06 | 2008-09-18 | Casio Comput Co Ltd | Client device for server base computing system, and client control program |
WO2012086217A1 (en) * | 2010-12-24 | 2012-06-28 | 株式会社日立製作所 | Operation log collection method and device |
JP2012519918A (en) * | 2009-03-05 | 2012-08-30 | アリババ グループ ホールディング リミテッド | Method, apparatus and system for visualizing the behavior of a user browsing a web page |
KR20180002775A (en) * | 2015-05-05 | 2018-01-08 | 알리바바 그룹 홀딩 리미티드 | Method and apparatus for recording and restoring click positions within a page |
JP2018005735A (en) * | 2016-07-06 | 2018-01-11 | 富士ゼロックス株式会社 | Data processing device, system and program |
-
2002
- 2002-09-13 JP JP2002267828A patent/JP2004110096A/en active Pending
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008199340A (en) * | 2007-02-14 | 2008-08-28 | Fuji Xerox Co Ltd | Information processing device and program |
US8494393B2 (en) | 2007-02-14 | 2013-07-23 | Fuji Xerox Co., Ltd. | Information processing apparatus, information processing method and computer readable medium |
JP2008217585A (en) * | 2007-03-06 | 2008-09-18 | Casio Comput Co Ltd | Client device for server base computing system, and client control program |
JP2012519918A (en) * | 2009-03-05 | 2012-08-30 | アリババ グループ ホールディング リミテッド | Method, apparatus and system for visualizing the behavior of a user browsing a web page |
WO2012086217A1 (en) * | 2010-12-24 | 2012-06-28 | 株式会社日立製作所 | Operation log collection method and device |
JP2012133695A (en) * | 2010-12-24 | 2012-07-12 | Hitachi Ltd | Operation log collection method and device |
KR20180002775A (en) * | 2015-05-05 | 2018-01-08 | 알리바바 그룹 홀딩 리미티드 | Method and apparatus for recording and restoring click positions within a page |
JP2018515845A (en) * | 2015-05-05 | 2018-06-14 | アリババ グループ ホウルディング リミテッド | Method and apparatus for recording and restoring click position on web page |
KR102403024B1 (en) | 2015-05-05 | 2022-05-26 | 어드밴스드 뉴 테크놀로지스 씨오., 엘티디. | Methods and devices for recording and restoring click positions within a page |
JP2018005735A (en) * | 2016-07-06 | 2018-01-11 | 富士ゼロックス株式会社 | Data processing device, system and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10192583B2 (en) | Video editing using contextual data and content discovery using clusters | |
US5963203A (en) | Interactive video icon with designated viewing position | |
JP3615657B2 (en) | Video search method and apparatus, and recording medium | |
DeCamp et al. | An immersive system for browsing and visualizing surveillance video | |
JP5634111B2 (en) | Video editing apparatus, video editing method and program | |
CA2387404A1 (en) | Video summary description scheme and method and system of video summary description data generation for efficient overview and browsing | |
US20210098026A1 (en) | Providing context aware video searching | |
KR20090093904A (en) | Apparatus and method for scene variation robust multimedia image analysis, and system for multimedia editing based on objects | |
JPH0352070A (en) | Related information reference system for moving image | |
US8619096B2 (en) | Instant message analytics of historical conversations in relation to present communication | |
JP2007141092A (en) | Device, method and program for presenting information and information recording medium | |
Sugimoto et al. | Building movie map-a tool for exploring areas in a city-and its evaluations | |
JP2008109289A5 (en) | ||
JP2004110096A (en) | User operation log visualizing method, user operation log visualizing device, program and its recording medium | |
KR102261221B1 (en) | System And Method For Obtaining Image Information, And Method For Displaying Image Acquisition Information | |
JP4334898B2 (en) | Database construction device, database construction program, image retrieval device, image retrieval program, and image recording / reproducing device | |
JP2012053855A (en) | Content browsing device, content display method and content display program | |
JP5012644B2 (en) | Presentation recording apparatus, presentation playback apparatus, and program | |
JP2000244812A (en) | Device and method for integrating multimedia information and recording medium where same method is recorded | |
JP2005167822A (en) | Information reproducing device and information reproduction method | |
JP2020119368A (en) | Video information management system and video information management method | |
JP4967983B2 (en) | Information recording apparatus and program | |
JP2002330392A (en) | Device, method and program for generating video outline | |
JP4563099B2 (en) | Movie playback device and movie playback information generation device | |
CN115357810A (en) | Footprint recording method, footprint display method, terminal device and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040706 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070406 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070501 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070628 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071029 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080305 |