JP4782033B2 - Video viewing history acquisition device and program - Google Patents

Video viewing history acquisition device and program Download PDF

Info

Publication number
JP4782033B2
JP4782033B2 JP2007032417A JP2007032417A JP4782033B2 JP 4782033 B2 JP4782033 B2 JP 4782033B2 JP 2007032417 A JP2007032417 A JP 2007032417A JP 2007032417 A JP2007032417 A JP 2007032417A JP 4782033 B2 JP4782033 B2 JP 4782033B2
Authority
JP
Japan
Prior art keywords
viewing
screen image
time
video
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007032417A
Other languages
Japanese (ja)
Other versions
JP2008197908A (en
Inventor
晶郁 寺中
秀信 長田
正志 森本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2007032417A priority Critical patent/JP4782033B2/en
Publication of JP2008197908A publication Critical patent/JP2008197908A/en
Application granted granted Critical
Publication of JP4782033B2 publication Critical patent/JP4782033B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、映像視聴履歴取得装置及びプログラムに係り、特に、個人がパーソナルコンピュータにおいて視聴した映像の履歴を取得するための映像視聴履歴取得装置及びプログラムに関する。 The present invention relates to a video viewing history acquisition apparatus and program, particularly relates to a video viewing history acquisition apparatus and a program for individuals to obtain a history of images viewed at the personal computer.

ブロードバンドの普及、ストレージの大容量化、及び、デジタル撮影機器の普及等により、動画共有サイトや動画ブログ等をはじめとする映像を活用した様々なサービスが一般に広く利用されるようなった。また、TVチューナ内蔵型のパーソナルコンピュータ(以下、PCと記す)の登場により、PCを用いてTVを視聴するユーザが増加している。このようにユーザが映像を扱う機会が増加する状況において、過去に視聴した映像を再び参照したいというニーズがある。   Due to the widespread use of broadband, an increase in storage capacity, and the widespread use of digital photography equipment, various services using video, such as video sharing sites and video blogs, have become widely used. In addition, with the advent of personal computers with built-in TV tuners (hereinafter referred to as PCs), the number of users who watch TV using PCs is increasing. Thus, there is a need to refer again to videos that have been viewed in the past in a situation where the opportunity for users to handle videos increases.

過去に参照した情報を再度参照するニーズに対し、従来のアプローチとしてPC上で扱われる様々なファイル(文書、画像、映像、音楽データ等)を対象に検討した例がある。これらの従来の技術は、PC上で参照したファイル及びWebページの参照時刻及び参照時刻前後のユーザの操作履歴を蓄積し、ファイル名と共に検索時に活用するものである(例えば、非特許文献1、2参照)。
Morita他、"Desktop search System based on the Action-Oriented algorism", APSITT 2005. 大澤亮他、"俺デスク:ユーザ操作履歴に基づく情報想起支援ツール"、情報処理学会第47回プログラミング・シンポジウム
There is an example in which various files (documents, images, videos, music data, etc.) handled on a PC are examined as a conventional approach for the need to refer to information referred to in the past again. These conventional techniques accumulate the user's operation history before and after the reference time of the file and Web page referred to on the PC and the Web page, and utilize them together with the file name (for example, Non-Patent Document 1, 2).
Morita et al., "Desktop search System based on the Action-Oriented algorism", APSITT 2005. Ryo Osawa et al., “Ode Desk: Information Recall Support Tool Based on User Operation History”, 47th Programming Symposium of Information Processing Society of Japan

当該従来技術をPC上での映像ファイル検索に適用しようとする場合、ファイル名や蓄積したファイルの再生日時などを検索時に用いることができるが、次のような問題がある。   When applying the related art to a video file search on a PC, the file name, the playback date of the stored file, and the like can be used at the time of the search, but there are the following problems.

・ファイルが取得できない問題:
PC上で視聴される映像は、PCの記憶装置(HDD,メモリ等)に実体が存在する映像ファイルの他に、近年特に増加している例として、動画ブログや動画共有サイト上で閲覧する映像及びTV放送映像がある。すなわち、ユーザが映像を確かに参照はしてはいるものの、それらはPC上の映像ファイルとして保存されていないことがある。このため、ファイル名や再生履歴の取得が困難な場合がある。
・ The file cannot be obtained:
In addition to video files that exist on a PC storage device (HDD, memory, etc.), videos viewed on a PC include videos that are viewed on video blogs and video sharing sites, as an example that has increased in recent years. And TV broadcast video. That is, although the user is certainly referring to the video, they may not be stored as video files on the PC. For this reason, it may be difficult to obtain a file name or a playback history.

・再生履歴が取得困難である問題:
映像ファイルはフォーマット(例えば、AVI,MPEG1,WMV)及び再生手順(例えば、Windows Media Player(登録商標)、Quick Time Player(登録商標)、Real Player Flash(登録商標)、Macromedia Flash Player(登録商標))が多岐に亘っている。そのため、PC上に実体が存在する映像ファイルの再生履歴を網羅的に取得することは容易でない。
・ Problems that the playback history is difficult to obtain:
Video file format (for example, AVI, MPEG1, WMV) and playback procedure (for example, Windows Media Player (registered trademark), Quick Time Player (registered trademark), Real Player Flash (registered trademark), Macromedia Flash Player (registered trademark)) ) Is wide-ranging. For this reason, it is not easy to comprehensively acquire the playback history of a video file whose entity exists on the PC.

・ファイルや再生履歴だけではユーザの記憶に関わる行動が判断できない問題:
過去に参照した映像を再度参照しようとする場合、ユーザの記憶は重要な手掛かりになり得る。しかし、これらは映像ファイルの再生履歴から取得することは難しい。例えば、再生手段のログ等から映像ファイルの再生履歴が取得できた場合でも、その間にユーザWebブラウザ上で別の操作(例えば、スクロール操作やページの切り替え等)を行っている場合があり、再生されている映像に注意が向けられない場合がある。このように、映像の再生手段の出力するログやWebページの閲覧履歴が必ずしも検索時に有効な情報となり得ない場合がある。
-Problems related to user's memory cannot be determined by file and playback history alone:
User's memory can be an important clue when trying to re-reference previously referenced video. However, it is difficult to obtain these from the playback history of the video file. For example, even if the playback history of a video file can be acquired from the log of the playback means, another operation (for example, scroll operation or page switching) may be performed on the user web browser during that time. Attention may not be directed to the video being displayed. As described above, there are cases where the log output from the video reproduction means and the browsing history of the Web page cannot always be effective information during the search.

上記のような問題から、従来技術では過去に見た映像ファイルを効率よく探し出すことが困難であると言える。   Due to the above problems, it can be said that it is difficult to efficiently search for video files that have been seen in the past with the prior art.

本発明は、上記の点に鑑みなされたもので、過去に見た映像を検索する場合にユーザの記憶が重要な手掛かりとなることに着目し、検索時に有効な視聴履歴情報を再生手段・プレイヤに依存しない方法で取得することが可能な映像視聴履歴取得装置及びプログラムを提供することを目的とする。 The present invention has been made in view of the above points, and pays attention to the fact that the user's memory is an important clue when searching for videos that have been viewed in the past. It is obtained in a manner independent of its object to provide a video viewing history preparative TokuSo location and program capable.

図1は、本発明の原理を説明するための図である。   FIG. 1 is a diagram for explaining the principle of the present invention.

本発明は、パーソナルコンピュータにおいて視聴した映像の履歴を取得する映像視聴履歴取得方法であって、
画面イメージ取得手段が、パーソナルコンピュータの画面上に表示されているウィンドウのうち操作対象となっているアクティブウィンドウの画面イメージを一定時間間隔Δtで時刻情報と共に取得し、記憶手段に格納する画面イメージ取得ステップ(ステップ1)と、
視聴判定手段が、記憶手段から読み出された画面イメージを用いて、映像視聴時の画面イメージとそれ以外の画面イメージとに分類する視聴判定ステップ(ステップ2)と、
視聴履歴保存手段が、視聴判定ステップにおいて映像視聴時と判定された画面イメージの時刻情報から映像視聴の開始時刻と終了時刻を取得し、該開始時刻と該終了時刻の区間に対応する画面イメージと共に、視聴履歴データベースに保存する視聴履歴保存ステップ(ステップ3)と、を行い、
視聴判定ステップ(ステップ2)において、
画面イメージ取得ステップで取得した時刻tの画面イメージItと、次時刻t+Δtの画面イメージIt+1の色差分から色変化のあるピクセルを1、色変化のないピクセルを0とした2値画像BItを生成し、
2値画像BItの各ピクセルに対し、その値と近傍8ピクセルの値との差分によって、ピクセル(i,j,t)が色変化の有無に関して近傍8ピクセルと同じ傾向にあるか否かを示す指標値v(i,j,t)を求め、
指標値v(i,j,t)が同じ傾向にあることを示す値をもつピクセル数の総和C(t)を、色変化の有無別に2値画像BItに渡って集計し、
色変化の有無別に、総和C(t)のピクセル総数における割合CR(t)を第1の特徴量として求め、
割合CR(t)と同様に求めたCR(t+1)を用い、色変化の有無別に、CR(t)とCR(t+1)との差ΔCR(t)を第2の特徴量として求め、
第1の特徴量CR(t)および第2の特徴量ΔCR(t)に対して、予め定められた閾値に基づいて条件判定を行い、映像視聴時の画面イメージとそれ以外の画面イメージとに分類する。
This onset Akira is a video viewing history acquisition method to get the history of the video you watched in the personal computer,
The screen image acquisition means acquires the screen image of the active window that is the operation target among the windows displayed on the screen of the personal computer together with time information at a fixed time interval Δt, and acquires the screen image stored in the storage means Step (step 1);
A viewing determination step (step 2) in which the viewing determination means classifies into a screen image at the time of video viewing and a screen image other than that using the screen image read from the storage means;
The viewing history storage means obtains the video viewing start time and end time from the time information of the screen image determined to be during video viewing in the viewing determination step, and together with the screen image corresponding to the section between the start time and the end time And a viewing history storing step (step 3) for storing in the viewing history database ,
In the viewing determination step (step 2),
From the color difference between the screen image It at the time t acquired in the screen image acquisition step and the screen image It + 1 at the next time t + Δt, a binary image BIt is generated with a pixel having a color change being 1 and a pixel having no color change being 0,
For each pixel of the binary image BIt, whether or not the pixel (i, j, t) has the same tendency as the neighboring 8 pixel with respect to the presence or absence of a color change is indicated by the difference between the value and the value of the neighboring 8 pixel. Obtaining an index value v (i, j, t);
The sum C (t) of the number of pixels having a value indicating that the index value v (i, j, t) has the same tendency is totaled over the binary image BIt according to the presence or absence of a color change,
For each presence / absence of color change, a ratio CR (t) in the total number of pixels of the sum C (t) is obtained as a first feature amount,
Using CR (t + 1) obtained in the same manner as the ratio CR (t), a difference ΔCR (t) between CR (t) and CR (t + 1) is obtained as a second feature amount for each color presence / absence,
Condition determination is performed on the first feature amount CR (t) and the second feature amount ΔCR (t) based on a predetermined threshold value, and a screen image at the time of video viewing and other screen images are determined. Classify.

図2は、本発明の原理構成図である。   FIG. 2 is a principle configuration diagram of the present invention.

本発明(請求項)は、パーソナルコンピュータにおいて視聴した映像の履歴を取得する映像視聴履歴取得装置であって、
パーソナルコンピュータの画面上に表示されているウィンドウのうち操作対象となっているアクティブウィンドウの画面イメージを一定時間間隔Δtで時刻情報と共に取得し、記憶手段に格納する画面イメージ取得手段10と、
画面イメージ取得手段10で取得した画面イメージを用いて、映像視聴時の画面イメージとそれ以外の画面イメージとに分類する視聴判定手段20と、
視聴判定手段20において映像視聴時と判定された画面イメージの時刻情報から映像視聴の開始時刻と終了時刻を取得し、該開始時刻と該終了時刻の区間に対応する画面イメージと共に、視聴履歴データベース220に保存する視聴履歴保存手段30と、を有し、
視聴判定手段20は、
画面イメージ取得手段10で取得した時刻tの画面イメージItと、次時刻t+Δtの画面イメージIt+1の色差分から色変化のあるピクセルを1、色変化のないピクセルを0とした2値画像BItを生成する手段と、
2値画像BItの各ピクセルに対し、その値と近傍8ピクセルの値との差分によって、ピクセル(i,j,t)が色変化の有無に関して近傍8ピクセルと同じ傾向にあるか否かを示す指標値v(i,j,t)を求める手段と、
指標値v(i,j,t)が同じ傾向にあることを示す値をもつピクセル数の総和C(t)を、色変化の有無別に2値画像BItに渡って集計する手段と、
色変化の有無別に、総和C(t)のピクセル総数における割合CR(t)を第1の特徴量として求める手段と、
割合CR(t)と同様に求めたCR(t+1)を用い、色変化の有無別に、CR(t)とCR(t+1)との差ΔCR(t)を第2の特徴量として求める手段と、
第1の特徴量CR(t)および第2の特徴量ΔCR(t)に対して、予め定められた閾値に基づいて条件判定を行い、映像視聴時の画面イメージとそれ以外の画面イメージとに分類する手段と、を含む
The present invention (Claim 1 ) is a video viewing history acquisition device for acquiring a history of videos viewed on a personal computer,
A screen image acquisition unit 10 that acquires a screen image of an active window that is an operation target among windows displayed on a screen of a personal computer together with time information at a predetermined time interval Δt, and stores the screen image in a storage unit;
Using the screen image acquired by the screen image acquisition means 10 to classify the image into a screen image at the time of video viewing and a screen image other than that;
From the time information of the screen image determined to be at the time of viewing the video by the viewing determining means 20, the start time and end time of viewing the video are acquired, and the viewing history database 220 together with the screen image corresponding to the section between the start time and the end time. includes a viewing history storage means 30 to store, into,
The viewing determination means 20
From the color difference between the screen image It at time t acquired by the screen image acquisition means 10 and the screen image It + 1 at the next time t + Δt, a binary image BIt is generated with 1 as a pixel having a color change and 0 as a pixel having no color change. Means,
For each pixel of the binary image BIt, whether or not the pixel (i, j, t) has the same tendency as the neighboring 8 pixel with respect to the presence or absence of a color change is indicated by the difference between the value and the value of the neighboring 8 pixel. Means for obtaining an index value v (i, j, t);
Means for totalizing C (t) of the number of pixels having a value indicating that the index value v (i, j, t) has the same tendency over the binary image BIt according to the presence or absence of a color change;
Means for determining, as a first feature amount, a ratio CR (t) in the total number of pixels of the total C (t) for each color change;
Means for obtaining a difference ΔCR (t) between CR (t) and CR (t + 1) as a second feature amount, using CR (t + 1) obtained in the same manner as the ratio CR (t), for each color presence / absence;
Condition determination is performed on the first feature amount CR (t) and the second feature amount ΔCR (t) based on a predetermined threshold value, and a screen image at the time of video viewing and other screen images are determined. Means for classifying .

本発明(請求項)は、コンピュータを、請求項記載の映像視聴履歴取得装置として機能させるプログラムである。

The present invention (Claim 2 ) is a program that causes a computer to function as the video viewing history acquisition apparatus according to Claim 1 .

上記のように本発明によれば、ウィンドウの画面イメージの特徴量に基づいて映像区間を抽出することにより、映像を視聴した時刻及びその映像の内容を表すデータ(映像が再生されているときの画面イメージ)の取得が可能となる。これにより、パーソナルコンピュータの画面上に映像を表示させている映像再生手段であれば、その種類に関わらず映像視聴の履歴を取得することが可能となる。また、実際にフォアグラウンド画面で表示されていた映像の情報を取得することが可能である。   As described above, according to the present invention, the video section is extracted based on the feature amount of the screen image of the window, and thereby data indicating the time when the video is viewed and the content of the video (when the video is played back). Screen image) can be obtained. As a result, any video playback means that displays video on the screen of a personal computer can acquire a video viewing history regardless of the type of video playback means. In addition, it is possible to acquire information on the video actually displayed on the foreground screen.

以下、図面と共に本発明の実施の形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

以下の説明において、「ウィンドウ」とは、PCの画面上のブラウザ、フォルダウィンドウといった独立した小さな画面のことをさす。また、「アクティブウィンドウ」とは、画面上に表示されているウィンドウの中で、現在、操作対象であり、最も前面に表示されているウィンドウのことを指す。   In the following description, “window” refers to an independent small screen such as a browser or folder window on a PC screen. The “active window” refers to a window that is currently an operation target and is displayed in the forefront among the windows displayed on the screen.

[第1の実施の形態]
本実施の形態では、ユーザがPCを用いてブラウザ上でインターネット上に存在する映像を視聴する例を示す。
[First Embodiment]
In the present embodiment, an example is shown in which a user views a video existing on the Internet on a browser using a PC.

図3は、本発明の第1の実施の形態における映像視聴履歴取得装置の構成を示す。   FIG. 3 shows the configuration of the video viewing history acquisition apparatus according to the first embodiment of the present invention.

同図に示す映像視聴履歴取得装置は、ブラウザイメージ取得部10、視聴判定部20、視聴履歴保存部30からなる履歴登録処理部100、記憶部210、視聴履歴データベース220から構成される。   The video viewing history acquisition apparatus shown in the figure includes a browser image acquisition unit 10, a viewing determination unit 20, a history registration processing unit 100 including a viewing history storage unit 30, a storage unit 210, and a viewing history database 220.

記憶部210は、ブラウザイメージ取得部10で取得したブラウザの画面イメージと時刻情報を格納する領域、視聴判定部20で生成されたラベル情報を格納する領域を有する。   The storage unit 210 has an area for storing the browser screen image and time information acquired by the browser image acquisition unit 10 and an area for storing the label information generated by the viewing determination unit 20.

視聴履歴データベース220は、視聴履歴保存部30においてラベル情報と時刻情報から生成された視聴履歴情報を格納する。   The viewing history database 220 stores viewing history information generated from the label information and time information in the viewing history storage unit 30.

上記の構成における動作を以下に説明する。   The operation in the above configuration will be described below.

図4は、本発明の第1の実施の形態における動作概要のフローチャートである。   FIG. 4 is a flowchart of the operation outline in the first embodiment of the present invention.

ステップ11) ブラウザイメージ取得部10において、画面キャプチャツールを用いてブラウザの画面イメージを一定時間間隔で取得し、取得した時刻情報と共に記憶部210の画面イメージと時刻情報を格納する領域に格納する。   Step 11) The browser image acquisition unit 10 acquires a screen image of the browser at a predetermined time interval using a screen capture tool, and stores the screen image and time information in the storage unit 210 together with the acquired time information.

ステップ12) 次に、視聴判定部20において、記憶部210から時刻情報に基づいて2つの画面イメージを読み込んで、色変化特徴を用いて映像視聴時の画面イメージとそれ以外の画面イメージとに分類し、ラベル(視聴/視聴以外)を付与して記憶部210に格納する。   Step 12) Next, the viewing determination unit 20 reads two screen images from the storage unit 210 based on the time information, and classifies them into screen images at the time of viewing the video and other screen images using the color change characteristics. Then, a label (viewing / other than viewing) is assigned and stored in the storage unit 210.

ステップ13) 視聴履歴保存部30において、記憶部210から映像視聴時と判定された(『視聴』ラベルが付与された)画面イメージの時刻情報を取得し、当該時刻情報から映像視聴の開始時刻と終了時刻を取得し、その区間に対応する画面イメージと共に視聴履歴データベース220に履歴として格納する。   Step 13) The viewing history storage unit 30 acquires the time information of the screen image determined to be at the time of video viewing (with the “viewing” label) from the storage unit 210, and the video viewing start time from the time information. The end time is acquired and stored as a history in the viewing history database 220 together with the screen image corresponding to the section.

次に、上記のステップ12の視聴判定ステップの動作を詳細に説明する。   Next, the operation of the viewing determination step of step 12 will be described in detail.

図5は、本発明の第1の実施の形態における視聴判定ステップ(S12)のフローチャートである。当該視聴判定ステップは、特徴量計算ステップ(S121)と特徴量判定ステップ(S122)からなる。   FIG. 5 is a flowchart of the viewing determination step (S12) in the first embodiment of the present invention. The viewing determination step includes a feature amount calculation step (S121) and a feature amount determination step (S122).

ステップ121) 視聴判定部20において、ステップ11で取得した画面イメージを映像視聴時の画面イメージと、それ以外の画面イメージとに分類するための特徴量として、図6に示す特徴量1生成ステップの処理及び図10に示す特徴量2生成ステップの処理により2つの特徴量(C(t),△CR(t))を計算する。 Step 121) In the viewing determination unit 20, a feature amount 1 generation step shown in FIG. 6 is performed as a feature amount for classifying the screen image acquired in Step 11 into a screen image at the time of viewing the video and other screen images. Two feature amounts (C m (t), ΔCR m (t)) are calculated by the processing and the feature amount 2 generation step shown in FIG.

図6は、本発明の第1の実施の形態における特徴量1生成ステップのフローチャートである。   FIG. 6 is a flowchart of the feature quantity 1 generation step according to the first embodiment of the present invention.

ステップ1211) 特徴量1生成ステップ:
ステップ12111) ステップ11で取得した画面イメージにおいて、時刻tに取得した画面イメージIと時刻t+△tに取得した画面イメージIt+1の各ピクセルについて色差分を計算し、色変化のあったものを1、なかったものを0として2値画像BIを生成する。
Step 1211) Feature 1 generation step:
Step 12111) in the screen image obtained in step 11, the color difference is calculated for each pixel in the screen image I t + 1 which has been acquired screen image I t and time t + △ t obtained at time t, those for which the color change A binary image BI t is generated by setting 1 or 0 to 0.

ステップ12112) ステップ12111で生成した2値画像BIにおける(i,j)のピクセル値P(i,j,t)(但し、iはx軸方向のピクセル番号を表し、i=0,1,2,…,I−1、jはy軸方向のピクセル番号を表し、j=0,1,2,…,J−1、tは時刻、P(i,j,t)は1または0のいずれかをとる)に基づいて、P(i,j,t)=1となるピクセル数N(1,t)及びP(i,j,t)=0となるピクセル数N(0,t)を数え、出力する。 Step 12112) Pixel value P (i, j, t) of (i, j) in the binary image BI t generated in Step 12111 (where i represents a pixel number in the x-axis direction, i = 0, 1, 2,..., I-1, j represents pixel numbers in the y-axis direction, j = 0, 1, 2,..., J-1, t is time, and P (i, j, t) is 1 or 0. The pixel number N (1, t) where P (i, j, t) = 1 and the pixel number N (0, t) where P (i, j, t) = 0. Are counted and output.

ステップ12113) ステップ12111で出力した2値画像BIに含まれるピクセルのうち、周囲の1ピクセル分のみ除外した範囲に含まれる任意のP(i,j,t)(i=1,2,3,…,I−2,j=1,2,…,J−2)(i,jの範囲に関しては図7参照)に対し、P(i−1,r−1,t)〜P(i+1,j+1,t)で表されるP(i,j,t)の近傍8ピクセルを抽出し、当該近傍8ピクセルとその中心のピクセルとの色差分に基づく指標v(i,j,t)を下記のアルゴリズムにより求める。 Step 12113) Among the pixels included in the binary image BI t output in Step 12111, any P (i, j, t) (i = 1, 2, 3) included in a range excluding only one surrounding pixel. ,..., I−2, j = 1, 2,..., J−2) (see FIG. 7 for the range of i, j), P (i−1, r−1, t) to P (i + 1) , j + 1, t) represented by P (i, extracting j, t) near 8 pixels, the index based on the color difference of the neighboring eight pixels and its center pixel v m (i, j, t ) Is obtained by the following algorithm.

Figure 0004782033
次に上記で求めたv(i,j,t)(ただし、m=0または1)を、以下の式により2値画像全体にわたって積分し、その値C(t)を出力する。
Figure 0004782033
Next, v m (i, j, t) (where m = 0 or 1) obtained above is integrated over the entire binary image by the following equation, and its value C m (t) is output.

Figure 0004782033
ステップ12114) ステップ12112で出力されるN(m,t)の値及びステップ12113で出力されたC(t)の値を入力し、次の式で与えられる特徴量1CR(t)を出力する。
Figure 0004782033
Step 12114) The value of N (m, t) output in step 12112 and the value of C m (t) output in step 12113 are input, and the feature value 1CR m (t) given by the following equation is output. To do.

Figure 0004782033
この特徴量は、動きのある部分(1)または、動きのない部分(0)の集中度を表す指標である。映像視聴時は画面を基本的に動かさない。このため、映像視聴時は、動いている部分が映像の表示されている部分に集中する。そのため、映像視聴時においては、この値は大きくなる傾向がある。PCにおけるアクティブウィンドウの画面イメージ(約6時間半分 2秒間隔)から計算した映像視聴時及び映像視聴時以外の特徴量1の分布を図8、図9に示す。
Figure 0004782033
This feature amount is an index representing the degree of concentration of a portion (1) with motion or a portion (0) without motion. The screen is not basically moved when viewing the video. For this reason, when viewing the video, the moving part is concentrated on the part where the video is displayed. Therefore, this value tends to increase during video viewing. 8 and 9 show the distribution of the feature amount 1 calculated during the viewing of the video and the time other than the viewing of the video calculated from the screen image of the active window on the PC (approximately 6 hours and half 2 seconds).

次に、特徴量2生成ステップについて説明する。   Next, the feature amount 2 generation step will be described.

図10は、本発明の第1の実施の形態における特徴量2生成ステップ(S1212)のフローチャートである。   FIG. 10 is a flowchart of the feature quantity 2 generation step (S1212) in the first embodiment of the present invention.

ステップ1212)特徴量2生成ステップ:
ステップ12121) 上記のステップ1211で、時刻t及びt+1について特徴量1の生成が終了しているか判定し、終了していない場合はステップ1211の処理に戻る。終了している場合は、ステップ12122に移行する。
Step 1212) Feature quantity 2 generation step:
Step 12121) In the above step 1211, it is determined whether or not the generation of the feature quantity 1 has been completed for the times t and t + 1. If not, the process returns to the step 1211. If completed, the process proceeds to step 12122.

ステップ12122) 本ステップでは、時刻t及びt+1におけるステップ1211の出力CR(t)、及びCR(t+1)を入力し、次の式で与えられる特徴量2△CR(t)をメモリ(図示せず)に出力する。 Step 12122) In this step, the outputs CR m (t) and CR m (t + 1) of Step 1211 at the times t and t + 1 are input, and the feature value 2ΔCR m (t) given by the following equation is stored in the memory ( (Not shown).

Figure 0004782033
映像視聴時は、動いている部分、動いていない部分がほぼ同じであること、また、前述したように特徴量1が大きい値で安定している傾向があることから、差分は小さくなる傾向がある。PCにおけるアクティブウィンドウの画面イメージ(約6時間半分 2秒間隔)から計算した映像視聴時および映像視聴時以外の特徴量2の分布を図11、図12に示す。
Figure 0004782033
During video viewing, the moving part and the non-moving part are almost the same, and since the feature amount 1 tends to be stable at a large value as described above, the difference tends to be small. is there. FIGS. 11 and 12 show the distribution of the feature amount 2 calculated during the viewing of the video and the time other than the viewing of the video calculated from the screen image of the active window on the PC (approximately 6 hours and half 2 seconds).

ステップ122) 特徴量判定ステップ:
図13は、本発明の第1の実施の形態における特徴量判定ステップのフローチャートである。
Step 122) Feature amount determination step:
FIG. 13 is a flowchart of the feature amount determination step in the first embodiment of the present invention.

ステップ1221) 視聴判定部20において、前述のステップ121で生成され、メモリ(図示せず)に格納されている特徴量F(CR(t),CR(t),△CR(t),△CR(t))が、予め設定されている閾値条件を満たしているかどうかを判定する。満たしている場合は、ステップ1222に移行し、満たしていない場合はステップ1225に移行する。なお、閾値は、予め映像視聴区間にラベルを付与した学習サンプル用の画面イメージを用いて事前に定めておくものとする。 In step 1221) viewing determination unit 20, it is generated in step 121 above, the memory (amount characteristics stored in not shown) F n (CR 0 (t ), CR 1 (t), △ CR 0 (t ), ΔCR 1 (t)) determines whether or not a preset threshold condition is satisfied. If the condition is satisfied, the process proceeds to step 1222, and if not, the process proceeds to step 1225. Note that the threshold value is determined in advance using a screen image for a learning sample in which a label is added to the video viewing section in advance.

ステップ1222) 全ての特徴量について条件判定が終了したかを判定し、終了した場合はステップ1224に移行し、終了していない場合はステップ1223に移行する。   Step 1222) It is determined whether or not the condition determination has been completed for all feature amounts. If completed, the process proceeds to Step 1224. If not completed, the process proceeds to Step 1223.

ステップ1223) n=n+1とし、ステップ1221に戻る。   Step 1223) Set n = n + 1 and return to Step 1221.

ステップ1224) 画面イメージIに対し、映像視聴時を表すラベル(『視聴』)を付与し、記憶部210に格納する。 To step 1224) Screen image I t, grants label ( "viewing") representing the time of image viewing, and stores in the storage unit 210.

ステップ1225) 画面イメージIに対し、映像視聴時以外を表すラベル(『視聴以外』)を付与し、記憶部210に格納する。 Step 1225) A label ("non-viewing") other than the time of video viewing is assigned to the screen image It and stored in the storage unit 210.

次に、図4のステップ13(視聴履歴保存ステップ)について詳細に説明する。   Next, step 13 (viewing history storage step) in FIG. 4 will be described in detail.

図14は、本発明の第1の実施の形態における視聴履歴保存ステップ(S13)のフローチャートである。   FIG. 14 is a flowchart of the viewing history storing step (S13) in the first embodiment of the present invention.

ステップ131) 視聴履歴保存部30は、ステップ123での判定の結果(ラベル情報)及び画面イメージの時刻情報から映像視聴の開始時刻と終了時刻を取得する。   Step 131) The viewing history storage unit 30 acquires the start time and the end time of video viewing from the determination result (label information) in Step 123 and the time information of the screen image.

ステップ132) ステップ131で取得した開始時刻と終了時刻と共にその区間に対応する画面イメージを視聴履歴データベース220に格納する。   Step 132) The screen image corresponding to the section is stored in the viewing history database 220 together with the start time and end time acquired in Step 131.

次に、図14の時刻情報取得ステップ(S131)の詳細な動作を説明する。   Next, the detailed operation of the time information acquisition step (S131) in FIG. 14 will be described.

図15は、本発明の第1の実施の形態における時刻情報取得ステップ(S131)のフローチャートである。   FIG. 15 is a flowchart of the time information acquisition step (S131) in the first embodiment of the present invention.

ステップ1311) 視聴履歴保存部30は、記憶部210から上記のステップ12で付与された画面イメージIのラベル情報及びステップ11で格納された時刻を取得する。 Step 1311) viewing history storage unit 30 obtains the time from the storage unit 210 is stored in the label information and the step 11 of the applied screen image I t at step 12 above.

ステップ1312) 画面イメージItのラベルが『視聴』であるかを判定し、そうであればステップ1314に移行し、そうでなければ、ステップ1313に移行する。   Step 1312) It is determined whether the label of the screen image It is “viewing”. If so, the process proceeds to Step 1314, and if not, the process proceeds to Step 1313.

ステップ1313) 時刻tをt=t+1とし、ステップ1311に移行する。   Step 1313) The time t is set to t = t + 1, and the process proceeds to Step 1311.

ステップ1314) 画面イメージItの時刻を開始時刻とする。   Step 1314) The time of the screen image It is set as the start time.

ステップ1315) 記憶部210から画面イメージIのラベルと時刻を取得する。 Step 1315) to get the label and time of screen image I t from the storage unit 210.

ステップ1316) 取得した画面イメージItのラベルが『視聴』であるかを判定し、そうであれば、ステップ1317に移行し、そうでなければステップ1318に移行する。   Step 1316) It is determined whether the label of the acquired screen image It is “viewing”. If so, the process proceeds to Step 1317, and if not, the process proceeds to Step 1318.

ステップ1317) 時刻tをt=t+1とし、ステップ1315に移行する。   Step 1317) The time t is set to t = t + 1, and the process proceeds to Step 1315.

ステップ1318) ステップ1316において画面イメージItのラベルが『視聴』である場合には、画面イメージIt−1の時刻を視聴終了時刻とする。 Step 1318) When the label of the screen image It is “viewing” in step 1316, the time of the screen image It -1 is set as the viewing end time.

ステップ132) 視聴履歴保存部30は、ステップ131で取得した開始時刻と終了時刻と共に、その映像区間に対応する画面イメージI(t=T〜Te)を視聴履歴として記憶部210に格納する。 Step 132) viewing history storage unit 30, stored along with the acquired start time and end time in step 131, the screen image I t (t = T s ~T e) storage unit 210 as viewing history corresponding to the video section To do.

[第2の実施の形態]
本実施の形態では、第1の実施の形態で取得し、視聴履歴データベース220に格納されているデータを用いて映像を検索する例を説明する。
[Second Embodiment]
In this embodiment, an example will be described in which a video is searched using data acquired in the first embodiment and stored in the viewing history database 220.

図16は、本発明の第2の実施の形態における映像視聴履歴取得装置の構成を示す。   FIG. 16 shows the configuration of the video viewing history acquisition apparatus according to the second embodiment of the present invention.

同図に示す映像視聴履歴取得装置は、図3の構成に映像視聴履歴を検索するための検索部300が付加された構成である。   The video viewing history acquisition apparatus shown in the figure has a configuration in which a search unit 300 for searching a video viewing history is added to the configuration of FIG.

図17は、本発明の第2の実施の形態における検索処理のフローチャートである。   FIG. 17 is a flowchart of search processing according to the second embodiment of the present invention.

ステップ21) まず、検索部300は、ユーザから入力手段301を介して指定された検索条件となる時刻情報を取得する。   Step 21) First, the search unit 300 acquires time information serving as a search condition designated by the user via the input unit 301.

ステップ22) 指定された時刻の検索条件に合致する視聴履歴情報(視聴開始時刻、視聴終了時刻、画面イメージ)を視聴履歴データベース220から取得する。   Step 22) The viewing history information (viewing start time, viewing end time, screen image) that matches the search conditions at the specified time is acquired from the viewing history database 220.

ステップ23) ステップ22で取得した検索結果を表示手段302に出力することによりユーザに提示する。   Step 23) The search result acquired in Step 22 is output to the display means 302 and presented to the user.

[第3の実施の形態]
本実施の形態では、第1の実施の形態で取得したデータに加え、キー操作監視ツール、マウス操作監視ツール、クリップボード監視ツール、プロセス監視ツールの4つのツール情報及び表示手段(図示せず)に表示されたページのテキスト情報を用いて視聴履歴を生成する例を説明する。
[Third Embodiment]
In this embodiment, in addition to the data acquired in the first embodiment, four tool information of a key operation monitoring tool, a mouse operation monitoring tool, a clipboard monitoring tool, and a process monitoring tool and display means (not shown) are displayed. An example of generating a viewing history using text information of a displayed page will be described.

図18は、本発明の第3の実施の形態における動作のフローチャートである。   FIG. 18 is a flowchart of the operation in the third embodiment of the present invention.

ステップ31) 第1の実施の形態と同様に、ブラウザイメージ取得部10において、視聴の開始時刻、終了時刻情報及びその区間の画面イメージを取得する。   Step 31) Similar to the first embodiment, the browser image acquisition unit 10 acquires viewing start time and end time information and a screen image of the section.

ステップ32) 視聴判定部20において、ステップ31で取得した視聴区間の時刻情報に基づき、上記の4つのツール及びページ情報を、当該映像視聴履歴取得装置として利用しているPCから取得して視聴区間に対応付ける。具体的には、視聴区間に行われたキー及びマウス操作、クリップボードの情報、起動していたアプリケーション名、及び、表示されたページのテキスト情報をその視聴区間の関連情報とする。   Step 32) Based on the time information of the viewing section acquired in Step 31, the viewing determination unit 20 acquires the above four tools and page information from the PC that is used as the video viewing history acquisition device, and the viewing section Associate with. Specifically, the key and mouse operation performed in the viewing section, the information on the clipboard, the name of the activated application, and the text information of the displayed page are set as related information of the viewing section.

ステップ33) ステップ31で取得した情報及び、ステップ32で視聴区間に対応付けられたツール及びページ情報を視聴履歴データベース220に格納する。   Step 33) The information acquired in Step 31 and the tool and page information associated with the viewing section in Step 32 are stored in the viewing history database 220.

上記のようなデータベースを作成することで、第2の実施の形態における時刻情報に加え、キーワードや同時に起動していたアプリケーション名を用いて、視聴区間を検索することが可能になる。   By creating the database as described above, it is possible to search the viewing section by using the keyword and the application name that has been started at the same time in addition to the time information in the second embodiment.

[その他の実施の形態]
第1の実施の形態において、ブラウザ上で視聴する場合を説明したが、その他の映像再生手段であっても、パーソナルコンピュータの画面上に表示されるものであれば適用可能である。
[Other embodiments]
In the first embodiment, the case of viewing on a browser has been described, but other video playback means can be applied as long as they are displayed on the screen of a personal computer.

また、第3の実施の形態において、関連情報として視聴区間に行われたものを用いたが、この範囲を広げ、前後の一定時間内に行われた情報を付加することで、前後に起動していたアプリケーション、クリップボードの情報、ページの情報から検索することが可能になる。   In the third embodiment, information related to the viewing section is used as the related information. However, by expanding the range and adding information performed within a certain period of time before and after, the information is started before and after. It is possible to search from the application, clipboard information and page information.

上記のように本発明によれば、ウィンドウの画面イメージ情報に基づいて映像視聴区間を抽出することが可能となる。これにより、PCの画面上に表示するという特徴があるものであれば、再生手段、プレイヤ(例えば、Windows Media Player(登録商標)、Quick Time Player(登録商標)、Real Player Flash(登録商標)、Macromedia Flash Player(登録商標))によれず、視聴時間及びそのときのウィンドウの画面情報を取得することが可能となる。   As described above, according to the present invention, the video viewing section can be extracted based on the screen image information of the window. Thus, if there is a feature of being displayed on the screen of the PC, playback means, a player (for example, Windows Media Player (registered trademark), Quick Time Player (registered trademark), Real Player Flash (registered trademark), Regardless of Macromedia Flash Player (registered trademark), viewing time and screen information of the window at that time can be acquired.

また、画面イメージという実際にユーザが目にしている情報を用いることによって、単にバックグラウンドで再生されていたものではなく、能動的に視聴していた映像の情報を取得することが可能となる。これにより、過去に視聴した映像を検索する際に、視聴したときの画面情報の記憶を活用することが可能となる。結果として、過去に視聴した映像の再参照を効率的に行うことが可能となる。   Further, by using information that is actually viewed by the user, such as a screen image, it is possible to acquire information of a video that is being actively watched, not simply being played back in the background. Thereby, when searching for videos viewed in the past, it is possible to utilize the storage of screen information when viewed. As a result, it is possible to efficiently re-reference previously viewed videos.

なお、本発明は、上記の実施の形態に限定されることなく、特許請求の範囲内において種々変更・応用が可能である。   The present invention is not limited to the above-described embodiment, and various modifications and applications can be made within the scope of the claims.

本発明では、ウィンドウの画面イメージ情報に基づいて映像視聴区間を抽出することが可能となるため、PCの画面上に表示するという特徴がある再生手段やプレイヤ(例えば、Windows Media Player(登録商標)、Quick Time Player(登録商標)、Real Player Flash(登録商標)、Macromedia Flash Player(登録商標))に適用可能である。   In the present invention, since it is possible to extract a video viewing section based on the screen image information of a window, a playback means or player (for example, Windows Media Player (registered trademark)) characterized by being displayed on a PC screen. , Quick Time Player (registered trademark), Real Player Flash (registered trademark), Macromedia Flash Player (registered trademark)).

本発明の原理を説明するための図である。It is a figure for demonstrating the principle of this invention. 本発明の原理構成図である。It is a principle block diagram of this invention. 本発明の第1の実施の形態における映像視聴履歴取得装置の構成図である。It is a block diagram of the video viewing history acquisition apparatus in the 1st Embodiment of this invention. 本発明の第1の実施の形態における動作概要のフローチャートである。It is a flowchart of the operation | movement outline | summary in the 1st Embodiment of this invention. 本発明の第1の実施の形態における視聴判定ステップ(S12)のフローチャートである。It is a flowchart of the viewing determination step (S12) in the first embodiment of the present invention. 本発明の第1の実施の形態における特徴量1生成ステップ(S1211)のフローチャートである。It is a flowchart of the feature-value 1 production | generation step (S1211) in the 1st Embodiment of this invention. 本発明の第1の実施の形態における特徴量1生成ステップのステップ1213における処理対象ピクセルである。It is a pixel to be processed in step 1213 of the feature quantity 1 generation step in the first embodiment of the present invention. 本発明の第1の実施の形態における特徴量1CRの分布(映像視聴時)である。The distribution of the feature 1CR m in the first embodiment of the present invention (at the time of image viewing). 本発明の第1の実施の形態における特徴量1CRの分布(映像視聴時以外)である。The distribution of the feature 1CR m in the first embodiment of the present invention (except when image viewing). 本発明の第1の実施の形態における特徴量2生成ステップ(S1212)のフローチャートである。It is a flowchart of the feature-value 2 production | generation step (S1212) in the 1st Embodiment of this invention. 本発明の第1の実施の形態における特徴量2△CRの分布(映像視聴時)である。A first distribution of the feature quantity 2 △ CR m in the embodiment of the present invention (at the time of image viewing). 本発明の第1の実施の形態における特徴量2△CRの分布(映像視聴時以外)である。6 is a distribution of feature amount 2ΔCR m (except when viewing video) in the first embodiment of the present invention. 本発明の第1の実施の形態における特徴量判定ステップ(S122)のフローチャートである。It is a flowchart of the feature-value determination step (S122) in the 1st Embodiment of this invention. 本発明の第1の実施の形態における視聴履歴保存ステップ(S13)のフローチャートである。It is a flowchart of the viewing history preservation | save step (S13) in the 1st Embodiment of this invention. 本発明の第1の実施の形態における時刻情報取得ステップ(S131)のフローチャートである。It is a flowchart of the time information acquisition step (S131) in the 1st Embodiment of this invention. 本発明の第2の実施の形態における検索時の映像視聴装置の構成図である。It is a block diagram of the video viewing apparatus at the time of the search in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における検索処理のフローチャートである。It is a flowchart of the search process in the 2nd Embodiment of this invention. 本発明の第3の実施の形態における動作のフローチャートである。It is a flowchart of the operation | movement in the 3rd Embodiment of this invention.

符号の説明Explanation of symbols

10 画面イメージ取得手段、ブラウザイメージ取得部
20 視聴判定手段、視聴判定部
30 視聴履歴保存手段、視聴履歴保存部
100 履歴登録処理部
210 記憶部
220 視聴履歴データベース
300 検索部
301 入力手段
302 表示手段
DESCRIPTION OF SYMBOLS 10 Screen image acquisition means, Browser image acquisition part 20 Viewing determination means, Viewing determination part 30 Viewing history preservation | save means, Viewing history preservation | save part 100 History registration process part 210 Storage part 220 Viewing history database 300 Search part 301 Input means 302 Display means

Claims (2)

パーソナルコンピュータにおいて視聴した映像の履歴を取得する映像視聴履歴取得装置であって、
前記パーソナルコンピュータの画面上に表示されているウィンドウのうち操作対象となっているアクティブウィンドウの画面イメージを一定時間間隔Δtで時刻情報と共に取得し、記憶手段に格納する画面イメージ取得手段と、
前記記憶手段から読み出された前記画面イメージを用いて、映像視聴時の画面イメージとそれ以外の画面イメージとに分類する視聴判定手段と、
前記視聴判定手段において映像視聴時と判定された画面イメージの時刻情報から映像視聴の開始時刻と終了時刻を取得し、該開始時刻と該終了時刻の区間に対応する画面イメージと共に、視聴履歴データベースに保存する視聴履歴保存手段と、
を有し、
前記視聴判定手段は、
前記画面イメージ取得手段で取得した時刻tの画面イメージItと、次時刻t+Δtの画面イメージIt+1の色差分から色変化のあるピクセルを1、色変化のないピクセルを0とした2値画像BItを生成する手段と、
2値画像BItの各ピクセルに対し、その値と近傍8ピクセルの値との差分によって、ピクセル(i,j,t)が色変化の有無に関して近傍8ピクセルと同じ傾向にあるか否かを示す指標値v(i,j,t)を求める手段と、
指標値v(i,j,t)が同じ傾向にあることを示す値をもつピクセル数の総和C(t)を、色変化の有無別に2値画像BItに渡って集計する手段と、
色変化の有無別に、前記総和C(t)のピクセル総数における割合CR(t)を第1の特徴量として求める手段と、
前記割合CR(t)と同様に求めたCR(t+1)を用い、色変化の有無別に、CR(t)とCR(t+1)との差ΔCR(t)を第2の特徴量として求める手段と、
前記第1の特徴量CR(t)および第2の特徴量ΔCR(t)に対して、予め定められた閾値に基づいて条件判定を行い、映像視聴時の画面イメージとそれ以外の画面イメージとに分類する手段と、
を含むことを特徴とする映像視聴履歴取得装置。
A video viewing history acquisition device for acquiring a history of videos viewed on a personal computer,
A screen image acquisition unit that acquires a screen image of an active window that is an operation target among windows displayed on the screen of the personal computer together with time information at a predetermined time interval Δt, and stores the screen image in a storage unit;
Using the screen image read from the storage means, viewing determination means for classifying into a screen image at the time of video viewing and a screen image other than that,
From the time information of the screen image determined to be at the time of video viewing by the viewing determination means, the video viewing start time and end time are acquired, and together with the screen image corresponding to the start time and end time interval, the viewing history database Viewing history storage means for storing;
Have
The viewing determination means includes
From the color difference between the screen image It acquired at the time t acquired by the screen image acquisition means and the screen image It + 1 at the next time t + Δt, a binary image BIt is generated in which a pixel having a color change is 1 and a pixel having no color change is 0. Means,
For each pixel of the binary image BIt, whether or not the pixel (i, j, t) has the same tendency as the neighboring 8 pixel with respect to the presence or absence of a color change is indicated by the difference between the value and the value of the neighboring 8 pixel. Means for obtaining an index value v (i, j, t);
Means for totalizing C (t) of the number of pixels having a value indicating that the index value v (i, j, t) has the same tendency over the binary image BIt according to the presence or absence of a color change;
Means for determining, as a first feature amount, a ratio CR (t) of the total C (t) in the total number of pixels for each color presence / absence;
Means for obtaining a difference ΔCR (t) between CR (t) and CR (t + 1) as a second feature amount using CR (t + 1) obtained in the same manner as the ratio CR (t), depending on whether or not there is a color change; ,
Condition determination is performed on the first feature amount CR (t) and the second feature amount ΔCR (t) based on a predetermined threshold, and a screen image at the time of video viewing and other screen images Means to classify
Video viewing history acquisition apparatus characterized by comprising.
コンピュータを、
請求項記載の映像視聴履歴取得装置として機能させることを特徴とするプログラム。
Computer
A program that functions as the video viewing history acquisition device according to claim 1 .
JP2007032417A 2007-02-13 2007-02-13 Video viewing history acquisition device and program Expired - Fee Related JP4782033B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007032417A JP4782033B2 (en) 2007-02-13 2007-02-13 Video viewing history acquisition device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007032417A JP4782033B2 (en) 2007-02-13 2007-02-13 Video viewing history acquisition device and program

Publications (2)

Publication Number Publication Date
JP2008197908A JP2008197908A (en) 2008-08-28
JP4782033B2 true JP4782033B2 (en) 2011-09-28

Family

ID=39756792

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007032417A Expired - Fee Related JP4782033B2 (en) 2007-02-13 2007-02-13 Video viewing history acquisition device and program

Country Status (1)

Country Link
JP (1) JP4782033B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4424590B2 (en) * 2004-03-05 2010-03-03 株式会社Kddi研究所 Sports video classification device
US7730505B2 (en) * 2004-09-02 2010-06-01 Panasonic Corporation Stream reproducing device
JP2006285822A (en) * 2005-04-04 2006-10-19 Mitsumasa Egashira Moving object detection device

Also Published As

Publication number Publication date
JP2008197908A (en) 2008-08-28

Similar Documents

Publication Publication Date Title
US11340754B2 (en) Hierarchical, zoomable presentations of media sets
US8799300B2 (en) Bookmarking segments of content
JP5651231B2 (en) Media fingerprint for determining and searching content
US8001143B1 (en) Aggregating characteristic information for digital content
CN109286850B (en) Video annotation method and terminal based on bullet screen
US20090083781A1 (en) Intelligent Video Player
KR20040044373A (en) Video thumbnail
JP5226784B2 (en) Method and apparatus for providing moving image search service
US9177341B2 (en) Determining search relevance from user feedback
US8375312B2 (en) Classifying digital media based on content
US9449027B2 (en) Apparatus and method for representing and manipulating metadata
JP5286732B2 (en) Information processing apparatus and method, program, and recording medium
TWI556640B (en) Media file management method and system, and computer-readable medium
US20170242554A1 (en) Method and apparatus for providing summary information of a video
KR20160104067A (en) Generating a news timeline and recommended news editions
JP2007058562A (en) Content classification device, content classification method, content classification program and recording medium
JP5271015B2 (en) Image processing apparatus, image processing method, and program
JP4782033B2 (en) Video viewing history acquisition device and program
JP5018148B2 (en) Information processing apparatus, information processing method, and program
US20180077362A1 (en) Method, System, and Apparatus for Operating a Kinetic Typography Service
JP6037443B2 (en) Inter-video correspondence display system and inter-video correspondence display method
US20140189769A1 (en) Information management device, server, and control method
JP6548621B2 (en) Delivery device, delivery method and delivery program
JP7188478B2 (en) SEARCH DEVICE, SEARCH METHOD, AND PROGRAM
KR20180037290A (en) Scrubber biasing for digital content

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110412

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110608

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110705

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110706

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140715

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees