JP2004110096A - User operation log visualizing method, user operation log visualizing device, program and its recording medium - Google Patents

User operation log visualizing method, user operation log visualizing device, program and its recording medium Download PDF

Info

Publication number
JP2004110096A
JP2004110096A JP2002267828A JP2002267828A JP2004110096A JP 2004110096 A JP2004110096 A JP 2004110096A JP 2002267828 A JP2002267828 A JP 2002267828A JP 2002267828 A JP2002267828 A JP 2002267828A JP 2004110096 A JP2004110096 A JP 2004110096A
Authority
JP
Japan
Prior art keywords
user operation
video
operation log
log data
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002267828A
Other languages
Japanese (ja)
Inventor
Takehiko Ando
安藤 剛彦
Takashi Manabe
真鍋 考士
Yasushi Hanakago
花籠  靖
Yoshinobu Tonomura
外村 佳伸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2002267828A priority Critical patent/JP2004110096A/en
Publication of JP2004110096A publication Critical patent/JP2004110096A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Debugging And Monitoring (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To visually recognize the click operation log of a user to an image. <P>SOLUTION: This user operation log visualizing device is provided with a means 201 for storing user operation log data; a means 202 for selecting necessary log data from the stored log data; a means 203 for shaping the log data to facilitate retrieval with a time position as a key; a means 207 for reproducing the image; a means 206 for acquiring the reproduced time position of the image; a means 204 for acquiring log data in the reproduced time position; and a means 205 for visualizing the log data and making a superposed display on an image screen. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、メインコンテンツとして提供される映像内の各被写体に対するユーザ操作を利用したインタラクティブ映像コンテンツ提供技術に関し、特に、ユーザ操作ログ情報をメインコンテンツである映像に重畳して可視化表示する方法および装置、プログラム並びにその記録媒体に関する。
【0002】
【従来の技術】
映像内の被写体を指示(マウスクリックなど)するというユーザ操作を利用したアプリケーションの例として、ユーザが指示した被写体に関連した情報を提示するというものが存在する(例えば、非特許文献1、非特許文献2参照)。
【0003】
図5は、このようなアプリケーションの一例であり、電子水族館アプリケーションの例を示したものである。図5において、画面500内に水族館の水槽の映像501が表示されており、この水槽の映像501内に被写体として魚502が登場しているとする。このとき、ユーザが魚502を指示するというイベントが発生すると、その魚の詳しい説明文であるテキスト503を提示するというものである。
【0004】
このようなアプリケーションでは、映像内の被写体を内包する時間および空間的部分領域をアンカーとして定義し、そのアンカーと別の素材の関連を定義しておく。図6に映像内の被写体を内包するアンカー領域を定義した例を示す。図6では、映像600の時間位置t1において被写体(魚)602を内包するように矩形601を定義している。同様に、時間位置t2、t3においてもそれぞれ被写体を内包するように矩形を定義している。時間位置t1およびt2において定義した矩形を2面とする6面体603が時間位置t1、t2間におけるアンカー領域である。同様にt2、t3における矩形を2面とする6面体604のアンカー領域も定義されている。
【0005】
アプリケーションは、ユーザがクリックした際の、映像内の時間位置および空間座標を取得し、その座標がアンカー領域に含まれるか否かを判断し、含まれる場合には予めそのアンカー領域に関連付けられた素材を表示する。このようなアプリケーションにおいては、ユーザがクリックした際の映像内時間位置および空間座標データを保存することでユーザの映像に対するクリック操作ログを取得することが可能である。
【0006】
さらに、ユーザの操作ログに、アンカー領域の識別子を含めておくことで、ユーザが映像内のどの被写体をクリックしたのかを識別することが可能である。図7にこのようなユーザ操作のログ出力例を示す。図7のログには、ユーザの映像をクリックする操作に対して、その映像時間位置および、映像内空間座標、アンカー領域の識別子、ユーザIDが出力されている。ログ702の例は、映像の先頭から1000msのフレームにおいて、(50、50)の座標をユーザ「tim」がクリックしたことを示している。また、この1000msのフレームにおける(50、50)の座標はアンカー領域「fish−A」に含まれていることを示している。
【0007】
インタラクテイブ映像コンテンツ提供サービスにおいては、このようなユーザの映像に対するクリック操作ログは、ユーザ興味の分析や、ユーザにクリックされやすいシーン、ユーザがあまりクリックしないシーン等の抽出等を行う上で重要なデータとなる。
【0008】
【非特許文献1】
池田哲夫、平野泰宏、湯口徹、星隆司著「マルチメディアアプリケーションのデータモデルの開発環境の考察」、情報処理学会論文誌、Vol.40,No.1,pp.2〜12,1999
【非特許文献2】
湯口徹、池田哲夫、星隆司著「PC版ビデオハイパーメディアを開発」、NTT技術ジャーナル、1999年3月
【0009】
【発明が解決しようとする課題】
しかしながら、上記のようなアプリケーションにおいて、1つのユーザ操作ログデータに注目したときに、ユーザがどの被写体をクリックしたのかは、ログデータ内のアンカー識別子により識別可能であるが、具体的にどのようなシーンにおいてクリックしたのか、被写体のどの部分をクリックしたのかを知ることは、従来は困難であった。
【0010】
図7のログ702の例で言えば、ユーザ「tim」がクリックした映像内の空間座標(50、50)は、「fish−A」のどの部位なのかはログ702からだけでは知ることができない。また、「fish−A」がアップで映っているシーンなのか、他に何匹の魚が同時に映っているシーンなのかなど、ユーザが具体的にどのようなシーンでクリックしたのかを知ることもできない。
【0011】
ユーザがクリックした具体的なシーンを知るためには、実際に映像を再生し、再生時間位置をログデータに記された時間情報のシーンにあわせる必要がある。また、そのシーンにおいてどの部分がクリックされたのかを映像内の空間座標との対応から求める必要がある。
【0012】
また、クリック可能な領域として予め定義されていない箇所をユーザがクリックすることも十分考えられる。この場合、クリックされた座標がアンカー領域として定義されていないため、識別子は存在せず、取得できない。そのため、取得できる情報は、ユーザがクリックした時の時間座標および映像内空間座標の数値データのみであり、ユーザが何をクリックしたのかを特定することは一層困難である。
【0013】
図7のログ703がこの例にあたる。ユーザ「joe」が時間位置1000msにおいて、座標(150、240)をクリックしているが、アンカー領域が定義されていない座標のため、ログ情報からのみでは、何をクリックしたのかを知ることはできない。
【0014】
このように、従来は、ユーザがどのシーンの何をクリックしたのかを特定するには煩わしい作業が必要であるという問題があった。
【0015】
一方、ユーザ操作の複数のログの時間軸および空間軸上における分布を求めることは従来も可能であった。図7のログデータを時間軸をもとに整形したものを図8に示す。図8のログデータから、時間位置1000msから1100msにかけてクリックが集中していることや、1100ms以降は1530msまでクリックされていないことがわかる。
【0016】
また、x・yの二次元空間上にログデータをマッピングすることで、よくクリックされた映像内空間座標やクリックが少なかった映像内空間座標を知ることができる。しかし、分布だけで分かる情報は、どの時間のどの空間座標にクリックが集中しているとか、分散しているということだけであり、どんなシーンの何が映っているシーンに分布が集中しているのかというようなことを知るためには、やはり、実際に映像を再生させて目的の時間座標および空間座標を確認する必要があり、これは大変煩わしい作業であった。
【0017】
特に、映像全体を通して、ユーザが多くクリックした空間、時間的部分領域、あまりクリックされなかった空間、時間的部分領域がどのようなシーンで何が映っているのかを把握するためには、再生シーンを少しずつ変化させながら、その映像の再生シーンにおける空間座標上の分布を作成し、映像画面と分布とを見比べて確認するという作業を行う必要があり、とても現実的な作業ではなかった。
【0018】
本発明の目的は、ユーザの映像に対するクリック操作ログに対して、それはどのようなシーンであったのか、何をクリックしたのかを容易に識別可能とすることにある。
また、本発明の目的は、複数のクリック操作ログの分布を実際に映像に対応付けて見ることを可能とし、クリック操作の傾向を容易に把握できるようにすることにある。
【0019】
【課題を解決するための手段】
本発明の一実施例では、蓄積されたユーザ操作ログデータから必要なログデータのみを選択するとともに、時間位置をキーとしたデータ検索を行いやすいように整形しておき、映像を再生しながら、該映像の再生時間位置を取得し、その再生時間位置におけるログデータを取得し、ログデータを可視化して映像画面に重畳表示する。これにより、ユーザがどのシーンの何をクリックしたのかを容易に識別することが可能になる。また、ユーザのクリック操作ログの分布を実際の映像に対応付けて見ることが可能になり、クリック操作の傾向を容易に把握できる。
【0020】
【発明の実施の形態】
図1に、本発明のユーザ操作ログ可視化方法の一実施例のフローチャートを示す。
ここでは、ユーザ操作ログデータは、すでに所定のログデータ蓄積手段に蓄積されているとする。まず、ログデータ蓄積手段に蓄積されたログデータから、所望ユーザ等、必要なログデータのみを選択抽出し(ステップ101)、この抽出したログデータを時間位置をキーとした検索が容易となるように整形しておく(ステップ102)。そして、目的の映像を再生する(ステップ103)。この映像再生中、映像の再生時間位置を取得し(ステップ104)、その再生時間位置におけるユーザのクリックログを取得し(ステップ105)、そのユーザクリック座標に応じた映像内空間座標にユーザクリックを示すマークを、再生映像画面に重畳して描画する(ステップ106)。
【0021】
上記ステップ104〜106の処理を映像を再生している間繰り返し(ステップ107)、再生する映像画面に重畳してユーザのクリックを示すマークを表示する。勿論、映像内の被写体をクリックすると、従来と同様に、該被写体に関連した情報が表示される。また、ユーザの指示により、再生映像の再生方法(再生速度、再生映像の大きさ等)を任意に変更することも可能である。
【0022】
図2に、本発明のユーザ操作ログ可視化装置の一実施例の機能ブロック図を示す。本ユーザ操作ログ可視化装置はログデータ蓄積手段201、フィタリング手段202、データ整形手段203、再生時間位置ログデータ取得手段204、ログデータ描画手段205、映像再生時間位置取得手段206、映像再生手段207、ユーザインタフェース208、映像蓄積手段209からなる。
【0023】
ログデータ蓄積手段201は、ユーザ操作ログを蓄積するデータベースであり、図7のようなユーザ操作ログデータを蓄積しておく。勿論、図7に示す情報は一例に過ぎず、これ以外にも必要な情報がある場合には、取得し蓄積しておく。本実施例では、1つの映像に関するログデータは1つのデータベースに格納されているとし、映像との対応もログデータ蓄積手段201に格納されているとする。勿論、複数の映像に関するログデータを1つのデータベースに格納することも可能であるが、その場合は、映像を識別するための識別子が必要となる。
【0024】
フィルタリング手段202は、ログデータ蓄積手段201に蓄積されたユーザ操作ログデータをフィルタリングし、目的とするログデータのみを選択し、データ整形手段203に渡す。例えば、図7のようにログデータにユーザIDが付与されている場合には、ユーザIDでフィルタリングすることで、ユーザ単位のクリック操作ログデータを取得することが可能である。勿論、フィルタリングを一切せずに、全ログデータをデータ整形手段203に渡してもよい。
【0025】
データ整形手段203は、フィルタリング手段202で選択抽出されたログデータを時間(t)をキーとして検索できるように、t、x、yの3次元を軸に整理する。図7のログデータについて、データ整形手段203で整形された例が図8である。図8の例では、映像の時間位置1000msでは、映像内空間座標(50、50)をユーザ「tim」に、また、(150、240)をユーザ「joe」にクリックされたことを示している。このように、ログデータは、ある時間位置tにおけるクリック座標(x、y)を取得しやすいように整形されている。映像蓄積手段209は映像(コンテンツ)を蓄積している。勿論、映像蓄積手段209はネットワーク上にあってもよい。
【0026】
ユーザインタフェース208では、ユーザのキー入力やマウス操作にもとづき、ログデータおよびユーザクリックの対象となった映像を指定し、また、映像再生手段207の制御を行う。映像再生手段207は、映像蓄積手段209よりユーザクリックの対象となった映像を取得し再生する。
【0027】
映像再生時間位置取得手段206は、映像再生手段207で再生中の映像の再生時間位置を取得し、再生時間位置ログデータ取得手段204に渡す。再生時間位置ログデータ取得手段204は、データ整形手段203で整形されたログデータから、映像再生時間位置取得手段206で取得された時間位置におけるログデータ(クリックログデータ)を検索し、そのユーザクリック座標を取得する。例えば、図8の例では、映像再生時間位置取得手段206で取得された時間位置が1000msであれば、ユーザクリック座標として映像内空間座標(50、50)および(150、240)が取得される。
【0028】
ログデータ描画手段205は、再生時間位置ログデータ取得手段204で取得されたクリックログデータの空間座標に応じた映像画面位置にクリックログを示すマークをある定められた時間描画する。例えば、再生時間位置が1000msの場合は、映像内空間座標(50、50)および(150、240)の位置に所定マークを描画する。
【0029】
図3に、この場合の画面例を示す。図3において、画面300内に、再生時間位置が1000msの映像301が表示され、被写体として魚(fish−A)302が登場している。この映像301内の空間座標(50、50)の位置(左上)にユーザ「tim」のクリックログを示すマーク303が、また、空間座標(150、240)の位置(中央下)にユーザ「joe」のクリックログを示すマーク304が、それぞれ映像301に重複して表示される。ユーザクリックログを示すマークは、例えば、ユーザ毎に異なるようにしてもよい。また、図3では、映像304の下には、映像再生を制御するユーザインタフェース例として、再生位置を示すスライダバー305、および、再生、一時留停止、停止の各ボタン306、307、308を示している。
【0030】
これにより、ログの分析者は、例えば、図7のログ702が、どのような映像シーンでクリックされたのか、アンカー領域「fish−A」のどの部位をクリックしたのか、を容易に認識することが可能である。また、アンカー領域が定義されていない箇所のクリックログ702が、何をクリックしたのかも容易に認識可能である。
【0031】
また、この動作を繰り返すことで、ユーザのクリックが集中していた1000msから1100msのシーンがどのようなシーンであるのかや、どのような被写体がよくクリックされているのかを容易に認識できる。また、クリックがない1100msから1530msがどのようなシーンであったのかも容易に認識することができる。
【0032】
また、ユーザインタフェース208に、再生映像の任意の時間位置を指定したり、再生速度や再生映像の大きさを変更する機能を持たせることで、認識をさらに容易にすることができる。
【0033】
図4は、図1や図2のユーザ操作ログ可視化方法および装置が適用されるハードウエア構成図を示したものである。図4において、情報処理装置(CPU)401が、図1の各ステップ101〜106の処理実行する装置、あるいは、図2の各手段202〜207の処理機能を実現する装置である。ディスプレイ402、キーボード403、マウス404はユーザインタフェースを構成する機器である。ハードディスク405には、映像やユーザ操作ログデータが蓄積されるが、映像は、CD−ROM等の他の記録媒体に蓄積されてもよく、さらには、インターネットなどのネットワーク406上に蓄積されてもよい。また、ユーザ操作ログ情報もネットワーク406上に蓄積され、これからダウンロードすることでもよい。
【0034】
本ユーザ操作ログ可視化方法および装置は、被写体に対する指示により関連情報を提供するシステムや、被写体に対する指示により得点が加算されるゲームシステムなど、被写体に対するユーザ操作を利用した様々なインタラクティブ映像コンテンツ提供システムに対して適用することができる。
【0035】
なお、図2で示した装置における各部の一部もしくは全部の処理機能をコンピュータのプログラムで構成し、そのプログラムをコンピュータを用いて実行して本発明を実現することができること、あるいは、図1で示した処理手順をコンピュータのプログラムで構成し、そのプログラムをコンピュータに実行させることができることは言うまでもない。また、コンピュータでその処理機能を実現するためのプログラム、あるいは、コンピュータにその処理手順を実行させるためのプログラムを、そのコンピュータが読み取り可能な記録媒体、例えば、FDやMO、ROM、メモリカード、CD、DVD、リムーバブルディスクなどに記録して、保存したり、提供したりすることができるとともに、インターネット等のネットワークを通してそのプログラムを配布したりすることが可能である。
【0036】
【発明の効果】
本発明によれば、ユーザの映像クリックに対するユーザ操作を利用したインタラクティプ映像コンテンツ提供サービスについて、ユーザのクリック操作ログを映像に重畳させて表示することで、ユーザのクリック操作ログを視覚的に認識することが可能となり、ユーザがどのようなシーンでクリックしたのか、何をクリックしたのかを容易に識別可能となる。また、複数のクリック操作ログの分布を実際に映像に対応付けて見ることが可能となり、クリック操作の傾向を容易に把握できるようになる。
【図面の簡単な説明】
【図1】本発明のユーザ操作ログ可視化方法の一実施例のフローチャートである。
【図2】本発明のユーザ操作ログ可視化装置の一実施例の機能ブロック図である。
【図3】本発明による画面表示例を示す図である。
【図4】本発明が適用されるハードウエア構成例を示す図である。
【図5】ユーザの映像内被写体クリックで関連情報を提示するアプリケーションの一例である。
【図6】映像内の被写体を内包する時間および空間的部分領域をアンカー定義する一例である。
【図7】ユーザの操作ログ情報の一例である。
【図8】ユーザの操作ログ情報を整形した一例である。
【符号の説明】
201 ログデータ蓄積手段
202 フィルタリング手段
203 データ整形手段
204 再生時間位置ログデータ取得手段
205 ログデータ描画手段
206 映像再生時間位置取得手段
207 映像再生手段
208 ユーザインタフェース
209 映像蓄積手段
300 画面
301 映像
302 被写体
303、304 ユーザクリックログマーク
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an interactive video content providing technology using a user operation on each subject in a video provided as main content, and in particular, a method, apparatus, and program for superimposing and displaying user operation log information on a video as main content And its recording medium.
[0002]
[Prior art]
As an example of an application utilizing a user operation of designating a subject in a video (such as mouse click), there is an application that presents information related to a subject designated by a user (for example, Non-Patent Document 1, Non-Patent Document 1). Reference 2).
[0003]
FIG. 5 is an example of such an application, and shows an example of an electronic aquarium application. In FIG. 5, it is assumed that an image 501 of an aquarium tank is displayed on a screen 500, and a fish 502 appears as a subject in the image 501 of the aquarium. At this time, when an event occurs in which the user designates the fish 502, a text 503 that is a detailed description of the fish is presented.
[0004]
In such an application, a temporal and spatial partial region including a subject in a video is defined as an anchor, and the relationship between the anchor and another material is defined in advance. FIG. 6 shows an example in which an anchor area including a subject in a video is defined. In FIG. 6, a rectangle 601 is defined so as to include a subject (fish) 602 at a time position t1 of the video 600. Similarly, rectangles are defined at time positions t2 and t3 so as to include the subject. A hexahedron 603 having two rectangles defined at the time positions t1 and t2 is an anchor area between the time positions t1 and t2. Similarly, an anchor area of a hexahedron 604 having two rectangles at t2 and t3 is defined.
[0005]
The application obtains the time position and spatial coordinates in the video when the user clicks, determines whether or not the coordinates are included in the anchor area, and if so, preliminarily associates with the anchor area. Display the material. In such an application, it is possible to acquire a click operation log for a user's video by saving the time position and spatial coordinate data in the video when the user clicks.
[0006]
Further, by including the identifier of the anchor area in the user operation log, it is possible to identify which subject in the video the user has clicked. FIG. 7 shows a log output example of such a user operation. In the log of FIG. 7, in response to the user's operation of clicking the video, the video time position, the spatial coordinates in the video, the identifier of the anchor area, and the user ID are output. The example of the log 702 indicates that the user “tim” clicks the coordinates of (50, 50) in the 1000 ms frame from the beginning of the video. The coordinates of (50, 50) in the 1000 ms frame are included in the anchor area “fish-A”.
[0007]
In the interactive video content providing service, such a click operation log for the user's video is important for analyzing the user's interest, extracting scenes that are easily clicked by the user, and scenes that the user does not click often. Data.
[0008]
[Non-patent document 1]
Tetsuo Ikeda, Yasuhiro Hirano, Toru Yuguchi, Takashi Hoshi, "Consideration of Development Environment for Data Model of Multimedia Application", Transactions of Information Processing Society of Japan, Vol. 40, no. 1, pp. 2 to 12, 1999
[Non-patent document 2]
Toru Yuguchi, Tetsuo Ikeda, Takashi Hoshi, "Developing Video Hypermedia for PC", NTT Technical Journal, March 1999 [0009]
[Problems to be solved by the invention]
However, in the above application, when focusing on one user operation log data, it is possible to identify which subject the user clicked on by an anchor identifier in the log data. Conventionally, it has been difficult to know whether the user clicked in the scene or which part of the subject was clicked.
[0010]
In the example of the log 702 in FIG. 7, the spatial coordinates (50, 50) in the image clicked by the user “tim” cannot be determined from the log 702 only from which part of “fish-A”. . In addition, it is also possible to know what kind of scene the user clicked specifically, such as whether the “fish-A” is a scene reflected up, or how many other fish are simultaneously displayed. Can not.
[0011]
In order to know the specific scene clicked by the user, it is necessary to actually reproduce the video and adjust the reproduction time position to the scene of the time information described in the log data. In addition, it is necessary to determine which part of the scene has been clicked on the basis of correspondence with the spatial coordinates in the video.
[0012]
It is also conceivable that the user clicks on a location that is not defined in advance as a clickable area. In this case, since the clicked coordinates are not defined as the anchor area, the identifier does not exist and cannot be acquired. Therefore, the information that can be obtained is only the numerical data of the time coordinate and the space coordinate in the video when the user clicks, and it is more difficult to specify what the user clicked.
[0013]
The log 703 in FIG. 7 corresponds to this example. The user “joe” clicks the coordinates (150, 240) at the time position 1000 ms, but since the anchor area is not defined, it is not possible to know what was clicked only from the log information. .
[0014]
As described above, in the related art, there is a problem that a troublesome operation is required to specify which scene the user has clicked on.
[0015]
On the other hand, it has been conventionally possible to obtain distributions of a plurality of user operation logs on a time axis and a space axis. FIG. 8 shows the log data of FIG. 7 shaped based on the time axis. From the log data in FIG. 8, it can be seen that the clicks are concentrated from the time position 1000 ms to 1100 ms, and that the clicks are not performed until 1530 ms after 1100 ms.
[0016]
Also, by mapping the log data on the x-y two-dimensional space, it is possible to know the spatial coordinates of the image that have been frequently clicked and the spatial coordinates of the image that have been clicked less. However, the information that can be understood only by the distribution is that the click is concentrated at which spatial coordinate at which time and is dispersed, and the distribution is concentrated at the scene where what is reflected in what scene In order to know the fact, it is necessary to actually play back the video and check the target time coordinates and space coordinates, which is a very troublesome operation.
[0017]
In particular, in order to grasp what scenes the user clicked frequently, the temporal partial area, the space where the user did not click much, and the temporal partial area throughout the entire video, the playback scene It is necessary to create a distribution on the spatial coordinates in the reproduction scene of the video while gradually changing the distribution of the video, and compare the distribution with the video screen to confirm the distribution, which is not a very realistic operation.
[0018]
SUMMARY OF THE INVENTION An object of the present invention is to make it possible to easily identify what kind of scene it was and what click was made in a click operation log for a video of a user.
Another object of the present invention is to make it possible to actually see the distribution of a plurality of click operation logs in association with a video, and to easily grasp the tendency of the click operation.
[0019]
[Means for Solving the Problems]
In one embodiment of the present invention, only the necessary log data is selected from the accumulated user operation log data, and the data is formatted so that the data search using the time position as a key is easily performed, and while reproducing the video, The reproduction time position of the video is obtained, the log data at the reproduction time position is obtained, and the log data is visualized and superimposed on the video screen. As a result, it is possible to easily identify which scene and what user clicked. In addition, the distribution of the user's click operation log can be viewed in association with the actual video, and the tendency of the click operation can be easily grasped.
[0020]
BEST MODE FOR CARRYING OUT THE INVENTION
FIG. 1 shows a flowchart of an embodiment of a method for visualizing a user operation log according to the present invention.
Here, it is assumed that the user operation log data is already stored in a predetermined log data storage unit. First, only necessary log data, such as a desired user, is selectively extracted from the log data stored in the log data storage means (step 101), so that the extracted log data can be easily searched using a time position as a key. (Step 102). Then, the target video is reproduced (step 103). During the video playback, the playback time position of the video is obtained (step 104), the click log of the user at the playback time position is obtained (step 105), and the user clicks on the space coordinates in the video corresponding to the user click coordinates. The indicated mark is drawn so as to be superimposed on the reproduced video screen (step 106).
[0021]
The above steps 104 to 106 are repeated while the video is being reproduced (step 107), and a mark indicating the user's click is displayed superimposed on the video screen to be reproduced. Of course, when a subject in the video is clicked, information related to the subject is displayed as in the related art. Further, it is also possible to arbitrarily change the reproduction method (reproduction speed, reproduction image size, etc.) of the reproduction video according to a user's instruction.
[0022]
FIG. 2 shows a functional block diagram of one embodiment of the user operation log visualization device of the present invention. The user operation log visualization device includes a log data storage unit 201, a filtering unit 202, a data shaping unit 203, a reproduction time position log data acquisition unit 204, a log data drawing unit 205, a video reproduction time position acquisition unit 206, a video reproduction unit 207, It comprises a user interface 208 and a video storage means 209.
[0023]
The log data storage unit 201 is a database for storing user operation logs, and stores user operation log data as shown in FIG. Of course, the information shown in FIG. 7 is merely an example, and if there is any other necessary information, it is acquired and stored. In this embodiment, it is assumed that log data relating to one video is stored in one database, and the correspondence with the video is also stored in the log data storage unit 201. Of course, it is also possible to store log data relating to a plurality of videos in one database, but in that case, an identifier for identifying the videos is required.
[0024]
The filtering unit 202 filters the user operation log data stored in the log data storage unit 201, selects only target log data, and transfers the selected log data to the data shaping unit 203. For example, when a user ID is given to log data as shown in FIG. 7, it is possible to acquire click operation log data for each user by filtering by user ID. Of course, all the log data may be passed to the data shaping unit 203 without any filtering.
[0025]
The data shaping unit 203 arranges the three-dimensional t, x, and y axes so that the log data selected and extracted by the filtering unit 202 can be searched using time (t) as a key. FIG. 8 shows an example in which the data shaping unit 203 shapes the log data shown in FIG. In the example of FIG. 8, at the time position 1000 ms of the image, it is indicated that the spatial coordinates (50, 50) in the image are clicked by the user “tim” and (150, 240) are clicked by the user “joe”. . As described above, the log data is shaped so that the click coordinates (x, y) at a certain time position t can be easily obtained. Video storage means 209 stores video (content). Of course, the video storage means 209 may be on a network.
[0026]
The user interface 208 designates log data and a video to be clicked by the user based on a key input or a mouse operation of the user, and controls the video reproducing unit 207. The video reproducing unit 207 acquires and reproduces a video targeted for a user click from the video storage unit 209.
[0027]
The video reproduction time position obtaining means 206 obtains the reproduction time position of the video being reproduced by the video reproduction means 207 and passes it to the reproduction time position log data obtaining means 204. The reproduction time position log data obtaining means 204 searches the log data shaped by the data shaping means 203 for log data (click log data) at the time position obtained by the video reproduction time position obtaining means 206, Get coordinates. For example, in the example of FIG. 8, if the time position obtained by the video reproduction time position obtaining means 206 is 1000 ms, the space coordinates (50, 50) and (150, 240) in the video are obtained as the user click coordinates. .
[0028]
The log data drawing means 205 draws a mark indicating a click log at a video screen position corresponding to the spatial coordinates of the click log data acquired by the reproduction time position log data acquisition means 204 for a predetermined time. For example, when the reproduction time position is 1000 ms, a predetermined mark is drawn at the positions of the spatial coordinates (50, 50) and (150, 240) in the video.
[0029]
FIG. 3 shows a screen example in this case. In FIG. 3, a video 301 whose reproduction time position is 1000 ms is displayed on a screen 300, and a fish (fish-A) 302 appears as a subject. A mark 303 indicating the click log of the user “tim” is located at the position (upper left) of the spatial coordinates (50, 50) in the video 301, and the user “joe” is located at the position (lower center) of the spatial coordinates (150, 240). The mark 304 indicating the click log of "." The mark indicating the user click log may be different for each user, for example. In FIG. 3, a slider bar 305 indicating a playback position and playback, pause, and stop buttons 306, 307, and 308 are shown below the video 304 as an example of a user interface for controlling video playback. ing.
[0030]
Thus, the log analyst can easily recognize, for example, what kind of video scene the log 702 in FIG. 7 was clicked on and what part of the anchor area “fish-A” was clicked. Is possible. In addition, it is possible to easily recognize what the click log 702 at the place where the anchor area is not defined is clicked.
[0031]
Also, by repeating this operation, it is possible to easily recognize what kind of scene the scene from 1000 ms to 1100 ms where the user's clicks are concentrated and what kind of subject is often clicked. Also, it is possible to easily recognize what kind of scene was from 1100 ms to 1530 ms without a click.
[0032]
In addition, by making the user interface 208 have a function of designating an arbitrary time position of the reproduced video and changing the reproduction speed and the size of the reproduced video, the recognition can be further facilitated.
[0033]
FIG. 4 shows a hardware configuration diagram to which the user operation log visualization method and apparatus shown in FIGS. 1 and 2 are applied. In FIG. 4, an information processing device (CPU) 401 is a device that executes the processes of steps 101 to 106 in FIG. 1 or a device that realizes the processing functions of the units 202 to 207 in FIG. A display 402, a keyboard 403, and a mouse 404 are devices constituting a user interface. The hard disk 405 stores video and user operation log data. The video may be stored on another recording medium such as a CD-ROM, or may be stored on a network 406 such as the Internet. Good. Also, user operation log information may be accumulated on the network 406 and downloaded from now.
[0034]
The user operation log visualization method and apparatus can be applied to various interactive video content providing systems utilizing user operations on a subject, such as a system for providing related information by an instruction for a subject and a game system in which a score is added by an instruction for a subject. Can be applied to
[0035]
Note that a part or all of the processing functions of each unit in the apparatus shown in FIG. 2 are configured by a computer program, and the program can be executed using a computer to realize the present invention. Needless to say, the processing procedure shown can be configured by a computer program and the computer can execute the program. In addition, a program for realizing the processing function by the computer or a program for causing the computer to execute the processing procedure is stored in a computer-readable recording medium such as an FD, an MO, a ROM, a memory card, and a CD. , A DVD, a removable disk, etc., and can be stored or provided, and the program can be distributed through a network such as the Internet.
[0036]
【The invention's effect】
According to the present invention, a user's click operation log is visually recognized by displaying a user's click operation log superimposed on a video for an interactive video content providing service using a user operation for a user's video click. It is possible to easily identify what scene the user clicked and what the user clicked. In addition, the distribution of the plurality of click operation logs can be actually seen in association with the video, and the tendency of the click operation can be easily grasped.
[Brief description of the drawings]
FIG. 1 is a flowchart of an embodiment of a method for visualizing a user operation log according to the present invention.
FIG. 2 is a functional block diagram of an embodiment of a user operation log visualization device according to the present invention.
FIG. 3 is a diagram showing a screen display example according to the present invention.
FIG. 4 is a diagram showing an example of a hardware configuration to which the present invention is applied.
FIG. 5 is an example of an application that presents related information by clicking a subject in a video of a user.
FIG. 6 is an example of anchor definition of a temporal and spatial partial region including a subject in a video.
FIG. 7 is an example of operation log information of a user.
FIG. 8 is an example of shaping user operation log information.
[Explanation of symbols]
201 log data storage means 202 filtering means 203 data shaping means 204 reproduction time position log data acquisition means 205 log data drawing means 206 video reproduction time position acquisition means 207 video reproduction means 208 user interface 209 video storage means 300 screen 301 video 302 subject 303 , 304 user click log mark

Claims (10)

映像に対するユーザ操作のログ情報を可視化するユーザ操作ログ可視化方法であって、
映像を再生するステップと、前記再生した映像の再生時間位置を取得するステップと、蓄積されたユーザ操作ログデータから、前記再生時間位置に関するログデータを取得するステップと、映像画面上に前記ログデータを可視化して表示するステップとを有することを特徴とするユーザ操作ログ可視化方法。
A user operation log visualization method for visualizing log information of a user operation on a video,
Reproducing a video; obtaining a reproduction time position of the reproduced video; obtaining log data relating to the reproduction time position from accumulated user operation log data; and displaying the log data on a video screen. And a step of visualizing and displaying the user operation log.
蓄積されたユーザ操作ログデータから必要なログデータのみを選択するステップをさらに有することを特徴とする請求項1記載のユーザ操作ログ可視化方法。2. The method according to claim 1, further comprising the step of selecting only necessary log data from the accumulated user operation log data. 蓄積されたユーザ操作ログデータを扱いやすく整形するステップをさらに有することを特徴とする請求項1もしくは2記載のユーザ操作ログ可視化方法。3. The user operation log visualization method according to claim 1, further comprising a step of shaping the accumulated user operation log data so as to be easily handled. 再生映像の再生方法を任意に変更するステップをさらに有することを特徴とする請求項1、2もしくは3記載のユーザ操作ログ可視化方法。4. The user operation log visualization method according to claim 1, further comprising a step of arbitrarily changing a reproduction method of a reproduction video. 映像に対するユーザ操作のログ情報を可視化するユーザ操作ログ可視化装置であって、
ユーザ操作ログデータを蓄積する手段と、映像を再生する手段と、前記再生した映像の再生時間位置を取得する手段と、前記蓄積されたユーザ操作ログデータから、前記再生時間位置に関するログデータを取得する手段と、映像画面にログデータを可視化して表示する手段とを有することを特徴とするユーザ操作ログ可視化装置。
A user operation log visualization device that visualizes log information of a user operation on a video,
Means for accumulating user operation log data, means for reproducing video, means for obtaining a reproduction time position of the reproduced video, and obtaining log data relating to the reproduction time position from the stored user operation log data And a means for visualizing and displaying log data on a video screen.
蓄積されたユーザ操作ログデータから必要なログデータのみを選択する手段をさらに有することを特徴とする請求項5記載のユーザ操作ログ可視化装置。6. The user operation log visualization device according to claim 5, further comprising means for selecting only necessary log data from the stored user operation log data. 蓄積されたユーザ操作ログデータを扱いやすく整形する手段をさらに有することを特徴とする請求項5もしくは6記載のユーザ操作ログ可視化装置。7. The user operation log visualization device according to claim 5, further comprising means for shaping the accumulated user operation log data so as to be easy to handle. 再生映像の再生方法を任意に変更する手段をさらに有することを特徴とする請求項5、6もしくは7記載のユーザ操作ログ可視化装置。8. The user operation log visualization device according to claim 5, further comprising means for arbitrarily changing a reproduction method of a reproduction video. 請求項1、2、3もしくは4記載のユーザ操作ログ可視化方法の各ステップあるいは請求項5、6、7もしくは8記載のユーザ操作ログ可視化装置の各機能をコンピュータで実行させるためのプログラム。A program for causing a computer to execute each step of the user operation log visualization method according to claim 1, 2, 3, or 4, or each function of the user operation log visualization device according to claim 5, 6, 7, or 8. 請求項1、2、3もしくは4記載のユーザ操作ログ可視化方法の各ステップあるいは請求項5、6、7もしくは8記載のユーザ操作ログ可視化装置の各機能をコンピュータで実行させるためのプログラムを記録した記録媒体。A program for causing a computer to execute each step of the user operation log visualization method according to claim 1, 2, 3, or 4 or each function of the user operation log visualization device according to claim 5, 6, 7, or 8 is recorded. recoding media.
JP2002267828A 2002-09-13 2002-09-13 User operation log visualizing method, user operation log visualizing device, program and its recording medium Pending JP2004110096A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002267828A JP2004110096A (en) 2002-09-13 2002-09-13 User operation log visualizing method, user operation log visualizing device, program and its recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002267828A JP2004110096A (en) 2002-09-13 2002-09-13 User operation log visualizing method, user operation log visualizing device, program and its recording medium

Publications (1)

Publication Number Publication Date
JP2004110096A true JP2004110096A (en) 2004-04-08

Family

ID=32266218

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002267828A Pending JP2004110096A (en) 2002-09-13 2002-09-13 User operation log visualizing method, user operation log visualizing device, program and its recording medium

Country Status (1)

Country Link
JP (1) JP2004110096A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008199340A (en) * 2007-02-14 2008-08-28 Fuji Xerox Co Ltd Information processing device and program
JP2008217585A (en) * 2007-03-06 2008-09-18 Casio Comput Co Ltd Client device for server base computing system, and client control program
WO2012086217A1 (en) * 2010-12-24 2012-06-28 株式会社日立製作所 Operation log collection method and device
JP2012519918A (en) * 2009-03-05 2012-08-30 アリババ グループ ホールディング リミテッド Method, apparatus and system for visualizing the behavior of a user browsing a web page
KR20180002775A (en) * 2015-05-05 2018-01-08 알리바바 그룹 홀딩 리미티드 Method and apparatus for recording and restoring click positions within a page
JP2018005735A (en) * 2016-07-06 2018-01-11 富士ゼロックス株式会社 Data processing device, system and program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008199340A (en) * 2007-02-14 2008-08-28 Fuji Xerox Co Ltd Information processing device and program
US8494393B2 (en) 2007-02-14 2013-07-23 Fuji Xerox Co., Ltd. Information processing apparatus, information processing method and computer readable medium
JP2008217585A (en) * 2007-03-06 2008-09-18 Casio Comput Co Ltd Client device for server base computing system, and client control program
JP2012519918A (en) * 2009-03-05 2012-08-30 アリババ グループ ホールディング リミテッド Method, apparatus and system for visualizing the behavior of a user browsing a web page
WO2012086217A1 (en) * 2010-12-24 2012-06-28 株式会社日立製作所 Operation log collection method and device
JP2012133695A (en) * 2010-12-24 2012-07-12 Hitachi Ltd Operation log collection method and device
KR20180002775A (en) * 2015-05-05 2018-01-08 알리바바 그룹 홀딩 리미티드 Method and apparatus for recording and restoring click positions within a page
JP2018515845A (en) * 2015-05-05 2018-06-14 アリババ グループ ホウルディング リミテッド Method and apparatus for recording and restoring click position on web page
KR102403024B1 (en) 2015-05-05 2022-05-26 어드밴스드 뉴 테크놀로지스 씨오., 엘티디. Methods and devices for recording and restoring click positions within a page
JP2018005735A (en) * 2016-07-06 2018-01-11 富士ゼロックス株式会社 Data processing device, system and program

Similar Documents

Publication Publication Date Title
US10192583B2 (en) Video editing using contextual data and content discovery using clusters
US5963203A (en) Interactive video icon with designated viewing position
JP3615657B2 (en) Video search method and apparatus, and recording medium
DeCamp et al. An immersive system for browsing and visualizing surveillance video
JP5634111B2 (en) Video editing apparatus, video editing method and program
CA2387404A1 (en) Video summary description scheme and method and system of video summary description data generation for efficient overview and browsing
US20210098026A1 (en) Providing context aware video searching
KR20090093904A (en) Apparatus and method for scene variation robust multimedia image analysis, and system for multimedia editing based on objects
JPH0352070A (en) Related information reference system for moving image
US8619096B2 (en) Instant message analytics of historical conversations in relation to present communication
JP2007141092A (en) Device, method and program for presenting information and information recording medium
Sugimoto et al. Building movie map-a tool for exploring areas in a city-and its evaluations
JP2008109289A5 (en)
JP2004110096A (en) User operation log visualizing method, user operation log visualizing device, program and its recording medium
KR102261221B1 (en) System And Method For Obtaining Image Information, And Method For Displaying Image Acquisition Information
JP4334898B2 (en) Database construction device, database construction program, image retrieval device, image retrieval program, and image recording / reproducing device
JP2012053855A (en) Content browsing device, content display method and content display program
JP5012644B2 (en) Presentation recording apparatus, presentation playback apparatus, and program
JP2000244812A (en) Device and method for integrating multimedia information and recording medium where same method is recorded
JP2005167822A (en) Information reproducing device and information reproduction method
JP2020119368A (en) Video information management system and video information management method
JP4967983B2 (en) Information recording apparatus and program
JP2002330392A (en) Device, method and program for generating video outline
JP4563099B2 (en) Movie playback device and movie playback information generation device
CN115357810A (en) Footprint recording method, footprint display method, terminal device and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040706

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070501

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071029

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080305