JP2006155384A - Video comment input/display method and device, program, and storage medium with program stored - Google Patents

Video comment input/display method and device, program, and storage medium with program stored Download PDF

Info

Publication number
JP2006155384A
JP2006155384A JP2004347280A JP2004347280A JP2006155384A JP 2006155384 A JP2006155384 A JP 2006155384A JP 2004347280 A JP2004347280 A JP 2004347280A JP 2004347280 A JP2004347280 A JP 2004347280A JP 2006155384 A JP2006155384 A JP 2006155384A
Authority
JP
Japan
Prior art keywords
video
comment
time
comment information
identifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004347280A
Other languages
Japanese (ja)
Inventor
Kazu Miyagawa
和 宮川
Satoshi Shimada
聡 嶌田
Masashi Morimoto
正志 森本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2004347280A priority Critical patent/JP2006155384A/en
Publication of JP2006155384A publication Critical patent/JP2006155384A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To prescribe a video recorded/downloaded/manufactured by an individual, and to share comments by synchronizing the time of the prescribed video for realizing communication. <P>SOLUTION: This video comment input/display method is provided to acquire a video for realizing communication selected by a user, and to calculate a video identifier for prescribing the video, and to calculate a synchronizing place identifier for realizing temporal synchronization between videos, and to acquire a designated video time for viewing/comment, and to express the designated video time by using the video identifier and the synchronizing place identifier, and to acquire comment input by the user, and to store the comment and a video virtual time when the comment is input in a storage means by linking them with each other, and to acquire the comment information associated with the acquired video time from the storage means by using the video temporary time, and to display it at a display means. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、映像コメント入力・表示方法及び装置及びプログラム及びプログラムを格納した記憶媒体に係り、特に、映像を介したコミュニケーション方法において、ユーザが視聴している映像とその場所を映像に付与された識別子を用いて特定することで、個々のユーザが保有する不特定の映像間において、コミュニケーションが可能となる、映像コメント入力・表示方法及び装置及びプログラム及びプログラムを格納した記憶媒体に関する。   The present invention relates to a video comment input / display method and apparatus, a program, and a storage medium storing the program, and in particular, in a communication method via video, a video that a user is viewing and its location are assigned to the video. The present invention relates to a video comment input / display method and apparatus, a program, and a storage medium storing the program, which enable communication between unspecified videos held by individual users by specifying using an identifier.

近年、ネットワーク上で行われるユーザ間のコミュニケーションにおいて、映像を介したコミュニケーション方法が注目を集めている。   In recent years, a communication method using video has attracted attention in communication between users performed on a network.

例えば、複数のユーザが特定のTV番組(例では、サッカー番組)を同時視聴しつつ、ネットワーク上の掲示板でリアルタイムにコメントを書きあうことでコミュニケーションを図る方法がある(例えば、非特許文献1参照)。同時刻に同番組を見なければならない制約があるが、まるで家族と共にTV番組を見るかのごとく、遠く離れたユーザとその時の感動を共有しながらコミュニケーションを図ることができるため、特に生放送番組において利用価値が高い。このようなコミュニケーション方法は、「ユーザのいる場所を選ばない」というネットワークの特性を活かした方法であると言える。   For example, there is a method in which a plurality of users can simultaneously communicate by writing comments in real time on a bulletin board on a network while simultaneously watching a specific TV program (in the example, a soccer program) (see Non-Patent Document 1, for example). ). Although there is a restriction that the same program must be watched at the same time, it is possible to communicate with a distant user while sharing the impression at that time as if watching a TV program with a family. High utility value. Such a communication method can be said to be a method that takes advantage of the characteristic of the network that “anywhere the user is present” is utilized.

一方、上記のような「リアルタイムのTV映像」と「ネットワーク上の掲示板」という異なるメディアを組み合わせたコミュニケーション方法から一歩踏み込んで、映像を介したコミュニケーションを、ネットワーク上で一元的に図る方法も利用されつつある。例えば、映像配信サーバから配信される映像とユーザが入力したコメントを同期して蓄積・表示するシステムである。このシステムでは、ユーザの映像視聴に合わせて、映像上の時間に関連付けられたDB上のコメントを次々とユーザ側に同期表示する。また、映像視聴中に入力されたコメントを、入力された映像上の時間と関連付けてDB上に蓄積し、映像の同時刻を視聴しているユーザに同期表示する。ユーザは映像を視聴しつつ、刻々と変化する映像上の時間に関連付けられた他ユーザのコメントを順次閲覧し、また、コメントを入力して他のユーザに意見を提示することで、映像を介して相互にコミュニケーションを図っていく。このシステムを用いたコミュニケーションの方法の特徴は、「ユーザの場所を選ばない」ことと共に、「ユーザがコミュニケーションする時間を選ばない」ことと言える。映像とコメントはサーバ側に蓄積されているため、ユーザはサーバに接続すれば何時でも映像とコメントを閲覧でき、コメントを入力できる。リアルタイム性を要求するコミュニケーション方法では、映像とコメントの内容が刻々と変化していくため、過去のコメントに対してコメントすることはコミュニケーションの流れを阻止するため限度がある。しかし、上記のようなシステムを用いた場合、例えば、1週間前に入力されたコメントに対してコメントができるため、ユーザは時間的な制約がより緩いコミュニケーションを図ることができる(例えば、非特許文献2参照)。
http://soccer.pos.to/ 山田一穂、宮川和、森本正志、児島治彦“映像の構造情報を活用した視聴者間コミュニケーション方法の提案”情報処理学会研究報告グループウェアとネットワークサービス、No.43-007,2001
On the other hand, it is also possible to use a method that centralizes communication via video on the network by taking a step further from the communication method combining different media such as “real-time TV video” and “bulletin board on the network” as described above. It's getting on. For example, it is a system that stores and displays a video distributed from a video distribution server and a comment input by a user in synchronization. In this system, in accordance with the user's video viewing, comments on the DB associated with the time on the video are synchronously displayed on the user side one after another. In addition, comments input during video viewing are stored on the DB in association with the time on the input video, and are displayed synchronously to the user viewing the same time of the video. While viewing the video, the user sequentially browses the comments of other users associated with the time on the video that changes every moment, and also inputs the comments and presents the opinions to other users, allowing the user to view the video. To communicate with each other. The feature of the method of communication using this system can be said to be “no choice of user's location” and “no choice of time for the user to communicate”. Since the video and comments are stored on the server side, the user can view the video and comments at any time by connecting to the server and can input comments. In a communication method that requires real-time characteristics, the content of video and comments changes every moment, so commenting on past comments is limited in order to prevent communication flow. However, when the system as described above is used, for example, since a comment can be made on a comment input one week ago, the user can achieve communication with less time constraints (for example, non-patent) Reference 2).
http://soccer.pos.to/ Kazuho Yamada, Kazu Miyagawa, Masashi Morimoto, Haruhiko Kojima “Proposal for Interviewer Communication Method Using Structural Information of Video” Information Processing Society of Japan Research Groupware and Network Service, No.43-007,2001

近年、パーソナルコンピュータ(PC)の性能向上に伴い、個々人で不特定の映像をPC上に蓄積し、所有するユーザが増えつつある。反面、上記のような従来の技術では、映像とコメントの同期表示を行うために、ユーザが視聴している映像とその場所を特定できるよう、一元的にそれらを管理している。そのためユーザは、配信サーバから配信される映像や公開先からダウンロード可能な映像などの特定の映像を利用しなければならず、個人的に保有する不特定な映像についてコミュニケーションを図りたいとしても、対象の映像がシステム上で一元的に管理されない限りコミュニケーションができない。   In recent years, with the improvement in performance of personal computers (PCs), an increasing number of users own and store unspecified videos on PCs. On the other hand, in the conventional technology as described above, in order to display the video and the comment synchronously, the video being viewed by the user and the location thereof are managed in a unified manner. Therefore, the user must use specific video such as video distributed from the distribution server and video that can be downloaded from the public site. Even if he wants to communicate about unspecified video personally held, Communication is not possible unless the video is centrally managed on the system.

このような問題は、ユーザの映像をサーバ側に登録する方法を用いて回避できる。しかし、ほんの数人で共有したい映像などもすべて登録されるため、サーバ側には非常に大きな設備投資コストや映像配信による負荷を強いることになる。   Such a problem can be avoided by using a method of registering the user's video on the server side. However, since all the videos that only a few people want to share are registered, the server side is forced to have a very large capital investment cost and a load due to video distribution.

また、上記の問題は著作権などにも絡み、個人視聴目的を逸脱するような利用は不可能なため、全ての不特定の映像についてサーバ側に登録し、公開するような方法は現実的ではない。よって、個々人が保有する映像を公開することなくその映像に対するコメント情報のみを共有する必要がある。   In addition, the above problems are also related to copyrights and the like, and use that deviates from the purpose of individual viewing is impossible. Therefore, it is not realistic to register and publish all unspecified videos on the server side. Absent. Therefore, it is necessary to share only the comment information for the video without releasing the video held by the individual.

しかし、個々人が保有する映像は、個々人の嗜好に合わせて部分的にカットするなどの編集が行われている可能性があり、「どの映像のどの部分に対するコメントであるのか」を特定しなければ、ある映像について統一的にコミュニケーションを図ることが難しい。   However, the video held by each individual may have been edited, such as being partially cut according to the preference of the individual, and it is necessary to specify “which part of which video is the comment” It is difficult to communicate uniformly about a certain video.

本発明は、上記の点に鑑みなされたもので、映像を介したコミュニケーションを行う状況において、ユーザが視聴している映像と基準点となる場所を映像に付与された識別子を用いて特定することで、個々のユーザが保有する不特定の映像においても、同一の映像と判定される映像間において従来のようなコミュニケーションが可能となる映像コメント入力・表示方法及び装置及びプログラム及びプログラムを格納した記憶媒体を提供することを目的とする。   The present invention has been made in view of the above points, and in a situation where communication is performed via video, the video being viewed by the user and the location serving as a reference point are specified using an identifier assigned to the video. Thus, even in an unspecified video held by each user, a video comment input / display method and apparatus, a program, and a program storing the program that enable conventional communication between videos determined to be the same video The purpose is to provide a medium.

図1は、本発明の原理構成図である。   FIG. 1 is a principle configuration diagram of the present invention.

本発明(請求項1)は、ネットワーク上での映像に関するコミュニケーションにおいて、個々のユーザが保有する不特定の映像においても、同一の映像と判定される映像間でコメントを共有できる映像コメント入力・表示装置であって、
ユーザによって選択されたコミュニケーションを行う映像を取得する映像取得手段103と、
取得した映像を特定するための映像識別子を算出する映像識別子算出手段104と、
映像間の時間的な同期を取る同期箇所識別子を算出する同期箇所識別子算出手段105と、
ユーザにより指定された視聴・コメントする映像上の時間(映像時間)を取得する映像時間指定手段107と、
指定された映像時間を、映像識別子、同期箇所識別子を用いて相対時間として表現する映像仮想時間算出手段108と、
ユーザにより入力されたコメントを取得するコメント情報入力手段109と、
コメントと映像仮想時間算出手段108で算出された該コメントが入力された映像仮想時間を関連付けてコメント情報・映像仮想時間データベース111に蓄積するコメント情報・映像仮想時間蓄積手段110と、
映像仮想時間を用いて、映像時間指定手順で取得した映像時間に関連するコメント情報をコメント情報・映像仮想時間データベース111から取得するコメント情報取得手段112と、
コメント情報取得手段112で取得されたコメント情報を表示手段に表示するコメント情報表示手段113と、を有する。
The present invention (Claim 1) is a video comment input / display capable of sharing a comment between videos determined as the same video even in an unspecified video held by each user in communication related to video on a network. A device,
Video acquisition means 103 for acquiring video for communication selected by the user;
Video identifier calculating means 104 for calculating a video identifier for specifying the acquired video;
Synchronization part identifier calculating means 105 for calculating a synchronization part identifier for temporal synchronization between videos;
Video time designating means 107 for obtaining the time (video time) on the video to be viewed / commented designated by the user;
Video virtual time calculation means 108 for expressing the designated video time as relative time using the video identifier and the synchronization part identifier;
Comment information input means 109 for acquiring a comment input by the user;
Comment information / video virtual time storage means 110 for associating the comment with the video virtual time when the comment calculated by the video virtual time calculation means 108 is input and storing it in the comment information / video virtual time database 111;
Comment information acquisition means 112 for acquiring comment information related to the video time acquired in the video time specification procedure from the comment information / video virtual time database 111 using the video virtual time;
Comment information display means 113 for displaying the comment information acquired by the comment information acquisition means 112 on the display means.

本発明では、これらの手段を用いることで、個々のユーザが保有する映像において、例えば、部分的な編集(カット)を行ったり、異なるエンコード方式の映像であったり、あるいは本放送と再放送を録画したりした場合でも、映像識別子を用いることで、同一の映像であることを判定でき、また、同期箇所識別子及び映像仮想時間を用いることでコメントが入力された映像時間を適切に算出できるため、上記に挙げたような映像であってもユーザ間で問題なくコミュニケーションを行うことが可能となる。   In the present invention, by using these means, for example, partial editing (cutting), video of different encoding methods, or main broadcasting and re-broadcasting are performed on videos held by individual users. Even when recording, it can be determined that the same video is used by using the video identifier, and the video time when the comment is input can be appropriately calculated by using the synchronization part identifier and the video virtual time. Even in the case of the video as mentioned above, it is possible to communicate without problem between users.

また、本発明(請求項2)は、同期箇所識別子算出手段105において、
同期箇所識別子を算出する際に、映像特徴量を用いて同期箇所識別子を算出する。
Further, the present invention (Claim 2), in the synchronization part identifier calculating means 105,
When calculating the synchronization location identifier, the synchronization location identifier is calculated using the video feature amount.

また、本発明(請求項3)は、映像識別子算出手段104において、映像識別子を算出する際に、映像特徴量を用いる。   In the present invention (Claim 3), the video identifier calculation unit 104 uses the video feature amount when calculating the video identifier.

また、本発明(請求項4)は、コメント情報取得手段112は、
コメント情報・映像仮想時間蓄積手段において、コメント情報・映像仮想時間データベース111に蓄積されたコメント情報を併用して、コメント情報を取得する。
In the present invention (claim 4), the comment information acquisition means 112
In the comment information / video virtual time storage means, the comment information is acquired by using the comment information stored in the comment information / video virtual time database 111 together.

図2は、本発明の原理を説明するための図である。   FIG. 2 is a diagram for explaining the principle of the present invention.

本発明(請求項5)は、ネットワーク上での映像に関するコミュニケーションにおいて、個々のユーザが保有する不特定の映像においても、同一の映像と判定される映像間でコメントを共有できる映像コメント入力・表示装置における映像コメント入力・表示方法であって、
ユーザによって選択されたコミュニケーションを行う映像を取得する映像取得手順(ステップ1)と、
取得した映像を特定するための映像識別子を算出する映像識別子算出手順(ステップ2)と、
映像間の時間的な同期を取る同期箇所識別子を算出する同期箇所識別子算出手順(ステップ3)と、
ユーザにより指定された視聴・コメントする映像上の時間(映像時間)を取得する映像時間指定手順(ステップ4)と、
指定された映像時間を、映像識別子、同期箇所識別子を用いて相対時間として表現する映像仮想時間算出手順(ステップ5)と、
ユーザにより入力されたコメントを取得するコメント情報入力手順(ステップ6)と、
コメントと映像仮想時間算出手順(ステップ5)で算出された該コメントが入力された映像仮想時間を関連付けて記憶手段に蓄積するコメント情報・映像仮想時間蓄積手順(ステップ7)と、
映像仮想時間を用いて、映像時間指定手順で取得した映像時間に関連するコメント情報を記憶手段から取得するコメント情報取得手順(ステップ8)と、
コメント情報取得手順で取得されたコメント情報を表示手段に表示するコメント情報表示手順(ステップ9)と、を行う。
The present invention (Claim 5) is a video comment input / display capable of sharing a comment between videos determined as the same video even in an unspecified video held by each user in communication related to video on a network. A video comment input / display method in the apparatus,
A video acquisition procedure (step 1) for acquiring a video for communication selected by the user;
A video identifier calculation procedure (step 2) for calculating a video identifier for specifying the acquired video;
A synchronization location identifier calculation procedure (step 3) for calculating a synchronization location identifier for temporal synchronization between videos;
A video time designation procedure (step 4) for acquiring a time (video time) on the video to be viewed / commented designated by the user;
A video virtual time calculation procedure (step 5) for expressing the designated video time as a relative time using the video identifier and the synchronization part identifier;
A comment information input procedure (step 6) for acquiring a comment input by the user;
Comment information / video virtual time accumulation procedure (step 7) for associating the comment with the video virtual time inputted in the video virtual time calculation procedure (step 5) and accumulating it in the storage means;
A comment information acquisition procedure (step 8) for acquiring comment information related to the video time acquired in the video time specification procedure from the storage means using the video virtual time;
A comment information display procedure (step 9) for displaying the comment information acquired in the comment information acquisition procedure on the display means is performed.

これらの手順を行うことにより、まず、映像識別子を用いることでコミュニケーション対象となる映像を特定できる。映像識別子は部分的に編集された映像やTV放送における本放送映像・再放送映像、異なるエンコード方式の映像などにおいて、元となる映像ソースが同一であることを判別するための識別子である。次に、同期箇所識別子、映像仮想時間を用いることで、現在視聴中の映像上の時間を特定できる。例えば、設定時間の不備により途中から録画してしまったTV映像や編集などが行われた映像において、映像ファイル上に記録されている時間が異なる場合でも、同期箇所識別子、映像仮想時間を用いることで部分的な欠落などに影響されない映像上の時間が特定されると共に、映像時間と関連付けられたコメントを取得できる。そのため、編集などが行われた映像においても適切な箇所にコメントを入力でき、また、表示できる。   By performing these procedures, first, the video to be communicated can be specified by using the video identifier. The video identifier is an identifier for discriminating that the original video source is the same in a partially edited video, a main broadcast video / rebroadcast video in TV broadcasting, a video of a different encoding method, or the like. Next, by using the synchronization location identifier and the video virtual time, the time on the currently viewed video can be specified. For example, in the case of a TV video that has been recorded from the middle due to inadequate setting time or a video that has been edited, even if the time recorded on the video file is different, the synchronization location identifier and video virtual time should be used The time on the video that is not affected by the partial omission is specified, and a comment associated with the video time can be acquired. For this reason, comments can be input and displayed at appropriate locations in the edited video.

よって、これらの手順を踏まえてコメントを入力・表示すれば、個々のユーザが保有する不特定の映像においても、同一の映像と判定される映像間で適切にコメントを共有でき、スムーズにユーザ間のコミュニケーションが図られる。   Therefore, if comments are input and displayed based on these procedures, comments can be appropriately shared between videos that are determined to be the same video even for unspecified videos owned by individual users, and smoothly between users. Communication is planned.

また、本発明(請求項6)は、同期箇所識別子算出手順において、
同期箇所識別子を算出する際に、映像特徴量を用いて同期箇所識別子を算出する。
Further, the present invention (Claim 6), in the synchronization location identifier calculation procedure,
When calculating the synchronization location identifier, the synchronization location identifier is calculated using the video feature amount.

当該請求項のように、同期箇所識別子を算出する際に、映像の画像特徴量から同期箇所を算出することにより、例えば、過去に蓄積・編集がなされた映像において同期箇所を巧く算出できない場合、カット点などの画像特徴量を利用することにより同期箇所を特定できるため、様々な映像において適切なコメントの表示・入力が可能となる。   When calculating the synchronization part identifier as described in the claim, by calculating the synchronization part from the image feature amount of the video, for example, when the synchronization part cannot be calculated skillfully in the video that has been accumulated and edited in the past Since the synchronization part can be specified by using the image feature amount such as the cut point, it is possible to display and input an appropriate comment in various videos.

また、本発明(請求項7)は、映像識別子算出手順において、映像識別子を算出する際に、映像特徴量を用いる。   Further, according to the present invention (Claim 7), the video feature amount is used when calculating the video identifier in the video identifier calculation procedure.

当該請求項のように、映像識別子を算出する際に、映像全体から算出される映像特徴量から映像識別子を算出ことにより、例えば、複数の映像を繋ぎ合わせて編集した映像においても、それぞれの編集箇所毎に映像特徴量を算出し、映像識別子を求めることで、個々の部分映像を特定でき、複雑な編集が行われた映像を用いてのコミュニケーションが可能となる。   As described in the claims, when calculating the video identifier, by calculating the video identifier from the video feature amount calculated from the entire video, for example, even in a video edited by connecting a plurality of videos, By calculating the video feature amount for each location and obtaining the video identifier, each partial video can be specified, and communication using a video that has been subjected to complicated editing becomes possible.

また、本発明(請求項8)は、コメント情報取得手順において、コメント情報・映像仮想時間蓄積手順において、記憶手段に蓄積されたコメント情報を併用して、コメント情報を取得する。   Further, according to the present invention (claim 8), in the comment information acquisition procedure, the comment information is acquired by using the comment information stored in the storage means in the comment information / video virtual time storage procedure.

当該請求項のように、蓄積されたコメント情報を併用してコメント情報を取得することにより、映像識別子や同期箇所識別子によって特定されるコメント情報に曖昧性が存在した場合、例えば、指定された映像仮想区間に関連すると既に判定されたコメントに対する返信コメントは同様に映像仮想時間に関連するコメントであると判断できるため、より正確にコメントを取得でき、安定したコミュニケーションが可能となる。   If there is ambiguity in the comment information specified by the video identifier or the synchronization part identifier by acquiring the comment information together with the accumulated comment information as in the claim, for example, the specified video Since it is possible to determine that a reply comment for a comment already determined to be related to the virtual section is a comment related to the video virtual time, the comment can be acquired more accurately and stable communication is possible.

本発明(請求項9)は、ネットワーク上での映像に関するコミュニケーションにおいて、個々のユーザが保有する不特定の映像においても、同一の映像と判定される映像間でコメントを共有できるサーバ装置とクライアント装置からなる映像コメント入力・表示システムであって、
クライアント装置は、
ユーザによって選択されたコミュニケーションを行う映像を取得する映像取得手段と、
取得した映像を特定するための映像識別子を算出する映像識別子算出手段と、
映像間の時間的な同期を取る同期箇所識別子を算出する同期箇所識別子算出手段と、
ユーザにより指定された視聴・コメントする映像上の時間(映像時間)を取得する映像時間指定手段と、
指定された映像時間を、映像識別子、同期箇所識別子を用いて相対時間として表現する映像仮想時間算出手段と、
ユーザにより入力されたコメントを取得するコメント情報入力手段と、
コメントと映像仮想時間算出手順で算出された該コメントが入力された映像仮想時間を関連付けてサーバ装置に送信するコメント情報・映像仮想時間転送手段と、
サーバ装置から受信したコメント情報を表示手段に表示するコメント情報表示手段と、を有し、
サーバ装置は、
クライアント装置から受信したコメントと該コメントが入力された映像仮想時間が関連付けられた情報を蓄積するコメント情報・映像仮想時間データベースと、
映像仮想時間を用いて、映像時間指定手順で取得した映像時間に関連するコメント情報をコメント情報・映像仮想時間データベースから取得し、クライアント装置に送信するコメント情報取得手段と、を有する。
The present invention (Claim 9) provides a server device and a client device capable of sharing a comment between videos determined to be the same video even in unspecified video held by individual users in communication related to video on a network. A video comment input / display system consisting of:
The client device
Video acquisition means for acquiring video for performing communication selected by the user;
Video identifier calculating means for calculating a video identifier for specifying the acquired video;
Synchronization location identifier calculating means for calculating a synchronization location identifier for temporal synchronization between videos;
Video time designation means for obtaining a time (video time) on the video for viewing / commenting designated by the user;
Video virtual time calculating means for expressing the specified video time as a relative time using a video identifier and a synchronization part identifier;
Comment information input means for obtaining a comment input by the user;
Comment information / video virtual time transfer means for associating the comment with the video virtual time in which the comment calculated in the video virtual time calculation procedure is input and transmitting it to the server device;
Comment information display means for displaying the comment information received from the server device on the display means,
Server device
A comment information / video virtual time database for storing information associated with the comment received from the client device and the video virtual time when the comment is input;
Comment information acquisition means for acquiring comment information related to the video time acquired in the video time specification procedure from the comment information / video virtual time database using the video virtual time, and transmitting the comment information to the client device.

また、本発明(請求項10)は、請求項9の映像コメント入力・表示システムのクライアント装置の同期箇所識別子算出手段において、同期箇所識別子を算出する際に、映像特徴量を用いて同期箇所識別子を算出する。   According to the present invention (Claim 10), the synchronization part identifier calculating means of the client device of the video comment input / display system according to claim 9 uses the video feature amount to calculate the synchronization part identifier when calculating the synchronization part identifier. Is calculated.

また、本発明(請求項11)は、請求項9または10の映像コメント入力・表示システムのクライアント装置の映像識別子算出手段において、映像識別子を算出する際に、映像特徴量を用いる。   The present invention (Claim 11) uses the video feature amount when calculating the video identifier in the video identifier calculation means of the client device of the video comment input / display system according to Claim 9 or 10.

また、本発明(請求項12)は、請求項9の映像コメント入力・表示システムのサーバ装置のコメント情報取得手段は、コメント情報・映像仮想時間データベースに蓄積されたコメント情報を併用して、コメント情報を取得する。   Further, according to the present invention (claim 12), the comment information acquisition means of the server device of the video comment input / display system according to claim 9 uses the comment information accumulated in the comment information / video virtual time database in combination. Get information.

本発明(請求項13)は、ネットワーク上での映像に関するコミュニケーションにおいて、個々のユーザが保有する不特定の映像においても、同一の映像と判定される映像間でコメントを共有できる映像コメント入力・表示プログラムであって、
請求項5乃至8記載の映像コメント入力・表示方法を実現させるための処理をコンピュータに実行させるプログラムである。
The present invention (Claim 13) is a video comment input / display capable of sharing a comment between videos determined to be the same video even in an unspecified video held by each user in communication related to video on a network. A program,
A program for causing a computer to execute processing for realizing the video comment input / display method according to claim 5.

本発明(請求項14)は、ネットワーク上での映像に関するコミュニケーションにおいて、個々のユーザが保有する不特定の映像においても、同一の映像と判定される映像間でコメントを共有できる映像コメント入力・表示プログラムを格納した記憶媒体であって、
請求項5乃至8記載の映像コメント入力・表示方法を実現させるための処理をコンピュータに実行させるプログラムを格納した記憶媒体である。
The present invention (Claim 14) is a video comment input / display capable of sharing a comment between videos determined to be the same video even in an unspecified video held by individual users in video-related communication on a network. A storage medium storing a program,
A storage medium storing a program for causing a computer to execute processing for realizing the video comment input / display method according to claim 5.

上記のように、本発明によれば、ネットワーク上で映像を介したコミュニケーションを行う場合において、個々のユーザが映像を保有している場合でも、同一内容の映像を持つユーザ間でコメントのみを共有して閲覧、あるいは、書き込みを行うことができるため、従来の方法に比べて広範な映像を対象としてコミュニケーションを図ることができる。   As described above, according to the present invention, when communication is performed via a video on a network, only a comment is shared between users who have the same content even if each user has a video. Therefore, it is possible to perform communication for a wide range of videos compared to the conventional method.

以下、図面と共に本発明の実施の形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

以降の本発明の実施の形態の説明中、映像(映像コンテンツ)は、映像情報と音情報を含むコンテンツに限定されることなく、少なくとも画像情報を含むあらゆるコンテンツを映像と呼ぶ。   In the following description of the embodiments of the present invention, video (video content) is not limited to content including video information and sound information, and any content including at least image information is referred to as video.

また、コメントは、文字情報に限定されることなく、Web上のコンテンツを指し示すURLや感情を表現する画像など、コミュニケーションを図る上で利用可能な情報を含むものとする。   The comments are not limited to character information, but include information that can be used for communication, such as URLs pointing to contents on the Web and images expressing emotions.

[第1の実施の形態]
本実施の形態における映像コメント入力・表示システムは、ユーザ個々人が映像を蓄積すると共に、それらの映像について書き込んだコメントを他のユーザに見せ、映像に関するコミュニケーションを行うシステムである。
[First Embodiment]
The video comment input / display system according to the present embodiment is a system in which individual users accumulate videos, show comments written about those videos to other users, and communicate about the videos.

説明の簡便化のため、本実施の形態において、ユーザが蓄積する映像とは、個々人が録画するTV放送映像や知人からネットワーク等を通じて配布されたホームビデオなどを対象としているが、本実施の形態では、それらに限定されるものではない。   For the sake of simplicity of explanation, in this embodiment, the video accumulated by the user is intended for TV broadcast video recorded by an individual, home video distributed from an acquaintance through a network, and the like. Then, it is not limited to them.

図3は、本発明の第1の実施の形態のシステム構成図である。   FIG. 3 is a system configuration diagram according to the first embodiment of this invention.

同図に示す映像コメント入力・表示システムは、複数台のクライアント装置1とサーバ装置2を含む。クライアント装置1とサーバ装置2は、例えば、インターネットのようなネットワーク(図示せず)を介して接続される。クライアント装置1は複数台存在するが、説明の簡略化のため、以下では1台のクライアント装置1について説明する。   The video comment input / display system shown in the figure includes a plurality of client devices 1 and a server device 2. The client device 1 and the server device 2 are connected via a network (not shown) such as the Internet, for example. Although there are a plurality of client apparatuses 1, for the sake of simplicity of explanation, only one client apparatus 1 will be described below.

クライアント装置1は、放送映像やホームビデオなどを蓄積する映像蓄積手段101、映像蓄積手段101によって得られる映像を蓄積する映像DB102、映像DB102に蓄積された映像群から視聴したい映像を選択する映像選択手段103、映像選択手段103によって選択された映像から映像を識別するために用いる映像識別子を算出する映像識別子算出手段104、各ユーザが持つ同一内容の映像間で同期を取るための同期箇所識別子を算出する同期箇所識別子算出手段105、映像選択手段103により選択された映像を映像DB102より取り出して表示する映像再生手段106、映像選択手段103によって選択された映像内で他ユーザとのコミュニケーションを行いたい映像内時刻を指定する映像時間指定手段107、映像時間指定手段107によって指定された映像時間を映像識別子及び同期箇所識別子を用いて表現する映像仮想時間算出手段108、映像時間指定手段107によって指定された映像時間上にユーザのコメント入力を可能とするコメント情報入力手段109、映像仮想時間算出手段108によって算出された映像仮想時間とコメント情報入力手段109によって入力されたコメントを関連付けて、サーバ装置2が有するコメント情報・映像仮想時間DB111に蓄積するコメント情報・映像仮想時間蓄積手段110、サーバ装置2から取得したコメントを画面上に出力するコメント情報表示手段113から構成される。   The client apparatus 1 includes a video storage unit 101 that stores broadcast video and home video, a video DB 102 that stores video obtained by the video storage unit 101, and a video selection that selects a video to be viewed from a group of videos stored in the video DB 102. Means 103, video identifier calculation means 104 for calculating a video identifier used for identifying a video from the video selected by the video selection means 103, and synchronization location identifiers for synchronization between videos of the same content possessed by each user I want to communicate with other users in the video selected by the video selection means 103, the video playback means 106 that fetches and displays the video selected by the video selection means 103 from the video DB 102, and the video selection means 103 Video time specifying means 107 for specifying the time within the video, The video virtual time calculation means 108 for expressing the video time designated by the time designation means 107 using the video identifier and the synchronization location identifier, and the user's comment input on the video time designated by the video time designation means 107 is made possible. Comments stored in the comment information / video virtual time DB 111 of the server device 2 in association with the video virtual time calculated by the comment information input means 109 and the video virtual time calculation means 108 and the comments input by the comment information input means 109 The information / video virtual time storage unit 110 and the comment information display unit 113 for outputting the comment acquired from the server device 2 on the screen are configured.

また、サーバ装置2は、コメント情報・映像仮想時間DB111と、クライアント装置1の映像仮想時間算出手段108によって算出された映像仮想時間を元に、コメント情報・映像仮想時間DB111に蓄積されたコメント情報から、該映像仮想時間に関連するコメント情報を取得するコメント情報取得手段112から構成される。   Further, the server apparatus 2 uses the comment information / video virtual time DB 111 and the comment information accumulated in the comment information / video virtual time DB 111 based on the video virtual time calculated by the video virtual time calculation unit 108 of the client apparatus 1. To comment information acquisition means 112 for acquiring comment information related to the video virtual time.

なお、本実施の形態は、請求項1、5,9を実施した場合の具体例である。   In addition, this Embodiment is a specific example at the time of implementing Claim 1,5,9.

クライアント装置1の映像蓄積手段101自体は、本発明を構成する要素ではないが、本実施の形態を説明する上で利用する。この手段の例としては、例えば、TVチューナ内蔵型ビデオエンコーダボードを搭載したPC、HDDレコーダ、家庭用ビデオカメラなどが挙げられる。これらの映像蓄積手段101は、録画した時刻、チャンネル、iEPG(Internet Electronic Program Guide)(登録商標)による番組情報など、映像に付随する情報を蓄積する場合が一般的である。また、TVCMの自動カットや映像の必要な部分だけを抜き出す、簡易な映像編集機能が備わっている場合も多い。本実施の形態における映像蓄積手段101は、映像だけでなく、これらの映像情報・編集情報も蓄積するものとする。   The video storage unit 101 itself of the client device 1 is not an element constituting the present invention, but is used for explaining the present embodiment. Examples of this means include, for example, a PC equipped with a TV tuner built-in video encoder board, an HDD recorder, and a home video camera. These video storage means 101 generally store information associated with video, such as recorded time, channel, and program information by iEPG (Internet Electronic Program Guide) (registered trademark). In many cases, a simple video editing function for automatically cutting TVCM and extracting only a necessary part of the video is provided. The video storage means 101 in this embodiment is assumed to store not only videos but also these video information / edit information.

クライアント装置1の映像DB102は、上記の映像蓄積手段101によって得られる映像を蓄積する。映像DB102も本発明を構成する上で必須な要素ではないが、本実施の形態を説明する上で利用する。この手段に該当するものは、例えば、PC内のHDD、HDDレコーダ内のHDD、ハンディカム(登録商標)に挿入されているビデオテープなどが挙げられる。   The video DB 102 of the client device 1 stores the video obtained by the video storage unit 101 described above. The video DB 102 is not an essential element for configuring the present invention, but is used for explaining the present embodiment. Examples of this means include an HDD in a PC, an HDD in an HDD recorder, and a video tape inserted in a Handycam (registered trademark).

以下の上記のクライアント装置1とサーバ装置2の各構成要素について動作順に説明する。   Each component of the following client device 1 and server device 2 will be described in the order of operation.

(1)映像蓄積手段101は、上記映像蓄積手段101で述べたように、映像だけではなく、映像に付随する映像情報、その映像を編集した履歴である編集情報も蓄積する。   (1) As described in the video storage unit 101, the video storage unit 101 stores not only video but also video information accompanying the video and editing information that is a history of editing the video.

(2)クライアント装置1の映像選択手段103は、映像DB102に蓄積された映像群から視聴したい映像をユーザに選択させる。映像選択手段103については例示しないが、蓄積された映像のタイトルやファイル名、録画日時などを列挙して一覧したリスト内から映像を選択するなど、ファイルセレクタのような簡便なインタフェースで実装できる。ユーザは映像選択インタフェースを用いて、映像で102内に蓄積された映像をユーザに選択させる。これにより、映像選択手段103は、選択された映像を映像識別子算出手段104に転送する。   (2) The video selection unit 103 of the client device 1 causes the user to select a video to view from the video group stored in the video DB 102. Although the video selection means 103 is not illustrated, it can be implemented with a simple interface such as a file selector, such as selecting videos from a list that lists and lists the titles, file names, recording dates, etc. of stored videos. The user uses the video selection interface to cause the user to select video stored in the video 102. Thereby, the video selection unit 103 transfers the selected video to the video identifier calculation unit 104.

(3)クライアント装置1の映像識別子算出手段104は、映像選択手段103によって選択された映像から映像を識別するために用いる映像識別子を算出する。   (3) The video identifier calculation unit 104 of the client device 1 calculates a video identifier used to identify the video from the video selected by the video selection unit 103.

映像識別子は、同一内容の映像であることを識別する識別子であるから、TV映像の場合の単純な例としては、「映像を録画した時刻+チャンネル」という情報を用いればよい。
このような単純な情報においても、同チャネルの同時間帯のTV番組を録画したユーザ間で映像の同一性が保たれる。また、場合によっては、映像ID発行センタなど、同一の番組であることを保証するサービスを併設して一意なIDを取得することもできる。
Since the video identifier is an identifier for identifying videos having the same contents, information “time when video was recorded + channel” may be used as a simple example in the case of a TV video.
Even with such simple information, the identity of the video is maintained between users who have recorded TV programs of the same channel and at the same time. In some cases, a unique ID can be obtained by providing a service that guarantees the same program, such as a video ID issuing center.

本実施の形態で用いる映像識別子は、各ユーザによって映像の録画状態が異なる場合を想定して算出する。即ち、録画する機器、映像のエンコード形式やビットレート、編集の有無や放送地域(チャンネル)、放送時間の違い、本放送・再放送などに依らず映像内容に基づいて判別できるよう、例えば、録画時に取得されるiEPG(登録商標)情報内の番組タイトル・サブタイトルなどを利用する。また、撮影した映像を友人関係者にコピー・配布して利用する等、家庭用ホームビデオなどを想定する場合、その映像を録画した機器のシリアル番号(機器によって一意に特定されるID)や録画した時刻、場所などの情報を用いて映像を特定する。   The video identifier used in the present embodiment is calculated on the assumption that the video recording state differs for each user. In other words, for example, recording can be performed based on video content regardless of the recording device, video encoding format and bit rate, editing presence / absence, broadcast area (channel), broadcast time difference, main broadcast / rebroadcast, etc. Program titles and subtitles in iEPG (registered trademark) information acquired at times are used. In addition, when assuming home video for home use, such as copying and distributing the captured video to friends, etc., the serial number of the device that recorded the video (ID uniquely specified by the device) or recording The video is identified using information such as the time and place.

これらの情報のいずれを用いるかについては、例えば、映像蓄積手段101において映像を蓄積した方法(TV放送を受信して録画した場合と、家庭用ビデオカメラで撮影した場合)によって自動選択する方法や、ユーザによって選択させる方法などがある。本実施の形態では、前者を用い、放送映像の場合は番組タイトル・サブタイトル、個人撮影映像の場合は撮影機器のシリアル番号・撮影時刻から一意の識別符号を算出して映像識別子として用いる(例えば、該情報を文字列データとして扱い、MD5などの一方向関数を用いて算出する)。   As to which of these pieces of information is used, for example, a method of automatically selecting according to a method of storing video in the video storage means 101 (when receiving and recording a TV broadcast or shooting with a home video camera) And a method of selecting by the user. In the present embodiment, the former is used, and in the case of broadcast video, a program title / subtitle, and in the case of personal video, a unique identification code is calculated from the serial number and shooting time of the shooting device and used as a video identifier (for example, This information is treated as character string data and is calculated using a one-way function such as MD5).

(4)クライアント装置1の動機箇所識別子算出手段105は、各ユーザの持つ同一内容の映像間で同期を取るための同期箇所識別子を算出する。   (4) The motivation location identifier calculating unit 105 of the client device 1 calculates a synchronization location identifier for synchronizing between videos of the same content held by each user.

同期箇所識別子の単純な算出方法としては、映像の先頭時刻を同期箇所とする方法が考えられる。この方法は、同一内容の映像を保有するユーザが、映像に対してまったく編集作業を行っていないことを前提とする場合に適用できる。例えば、TV映像の場合、同チャンネルの同時間帯の番組映像を未編集で利用するユーザ間での同期が可能になる。   As a simple calculation method of the synchronization location identifier, a method in which the start time of the video is used as the synchronization location is conceivable. This method can be applied when it is assumed that a user who holds a video having the same content does not perform any editing work on the video. For example, in the case of a TV video, synchronization between users who use a program video of the same channel in the same time zone without editing is possible.

本実施の形態における同期箇所識別子は、上記の制限を緩和するため、映像DB102上に蓄積された映像情報・編集情報を用いる。本実施の形態における同期箇所識別子とその算出方法について、図4を用いて説明する。   The synchronization location identifier in the present embodiment uses video information / edit information stored on the video DB 102 in order to relax the above restriction. The synchronization location identifier and its calculation method in the present embodiment will be described with reference to FIG.

図4は、本発明の第1の実施の形態における映像DB102上に蓄積された映像に係る映像情報、編集情報との関連を表す模式図である。同図の例では、何等かの理由により放送時刻から少し遅れて録画された後、ユーザによって部分的にカット編集されたTV放送映像を例とする。   FIG. 4 is a schematic diagram showing the relationship between video information and editing information related to video stored in the video DB 102 according to the first embodiment of the present invention. In the example of the figure, an example is a TV broadcast video that is recorded with a slight delay from the broadcast time for some reason and then partially cut edited by the user.

「映像DB102上に蓄積された映像A」は、図4にあるように映像区間b(開始時刻t0)、映像区間d(開始時刻t1)…からなるが、録画が遅れたため本来あるべき映像と比べて欠損部分があり、また、編集による削除箇所がある。   As shown in FIG. 4, the “video A stored in the video DB 102” is composed of a video section b (start time t0), a video section d (start time t1)... In comparison, there are missing parts, and there are parts deleted by editing.

映像情報及び編集情報を用いて映像Aを復元したものが、「各情報を用いて再現される元映像A」である。映像情報(例えばiEPG(登録商標)による番組開始時刻)を用いて欠損部分を仮想的に補完し、また、編集情報からカットされた映像部分を再現する。   What restored | restored the image | video A using image | video information and edit information is "the original image | video A reproduced using each information." Using the video information (for example, program start time by iEPG (registered trademark)), the missing part is virtually complemented, and the video part cut from the editing information is reproduced.

このように再現された元映像Aから、同一の映像を録画した他のユーザと同期を取るための情報を算出する。具体的には、元映像Aの番組開始時刻を基準として、各映像区間までの相対時間を算出する。相対時間の算出は図4から明らかなように容易である。   Information for synchronizing with other users who recorded the same video is calculated from the original video A reproduced in this way. Specifically, the relative time to each video section is calculated based on the program start time of the original video A. The calculation of the relative time is easy as apparent from FIG.

これらの相対時刻と映像DB102に蓄積された映像A内の時刻を対応させることで、同期箇所識別子が図4のように算出される。これにより、映像A内の時刻t0は、元映像Aにおける基準時刻からの相対時刻T0であり、同様に、時刻t1は相対時刻T1、時刻t2は相対時刻T2…であると判別できるため、異なる時刻から録画を始めたユーザや異なる編集を行ったユーザ間で、相対時刻Tnを用いた同期が可能になる。   By associating these relative times with the times in the video A stored in the video DB 102, the synchronization location identifier is calculated as shown in FIG. Accordingly, the time t0 in the video A is a relative time T0 from the reference time in the original video A, and similarly, it can be determined that the time t1 is the relative time T1, the time t2 is the relative time T2, and so on. Synchronization using the relative time Tn is possible between the user who started recording from the time and the user who performed different editing.

図4は、録画が遅れた部分が削除されたTV放送映像を例としたが、録画が早まった場合や、映像の挿入などが行われた映像についても同様の仕組みを用いて容易に同期箇所識別子が算出できる。また、ホームビデオなどの映像においても、元映像の先頭時刻を基準にした相対時間を用いることで算出が可能である。これらの例については類推が容易であるため説明を省略する。   FIG. 4 shows an example of a TV broadcast video in which a portion where recording was delayed is deleted. However, if the recording is accelerated or a video in which video is inserted is used, it is easy to use a similar mechanism to synchronize points. An identifier can be calculated. In addition, even a video such as a home video can be calculated by using a relative time based on the start time of the original video. These examples are easy to analogize and will not be described.

(5)クライアント装置1の映像再生手段106は、上記映像選択手段103においてユーザにより選択された映像を、映像DB102より取り出し表示する。映像再生手段106の画面表示例を図5に示す。本実施の形態の映像再生手段106は、映像選択手段103によって選択された映像を表示すると共に、再生制御ボタン中の早送り・巻き戻しボタンやスライダインタフェースなどによって、映像内の所定の時刻へ容易にアクセス可能なインタフェースも備える。   (5) The video reproduction means 106 of the client device 1 takes out the video selected by the user in the video selection means 103 from the video DB 102 and displays it. A screen display example of the video reproduction means 106 is shown in FIG. The video playback means 106 of the present embodiment displays the video selected by the video selection means 103, and can easily reach a predetermined time in the video by using a fast forward / rewind button or a slider interface in the playback control button. It also has an accessible interface.

(6)クライアント装置1の映像時間指定手段107は、上記の映像選択手段103によって選択された映像内で他ユーザとのコミュニケーションを行いたい映像内時刻をユーザに指定させる。   (6) The video time specifying means 107 of the client device 1 causes the user to specify the time within the video in which the user wants to communicate with other users in the video selected by the video selection means 103.

映像内時刻を指定させる方法としては、例えば、図5に示す再生制御ボタンの早送り・巻き戻しボタンやスライダインタフェースなどを用いる直感的な方法や指摘時刻を数値入力する方法などが挙げられ、映像再生手段106と機能を共有できる。   Examples of the method for designating the time in the video include an intuitive method using a fast-forward / rewind button of the playback control button shown in FIG. 5 and a slider interface, and a method of inputting the indicated time numerically. The function can be shared with the means 106.

また、映像再生手段106において、再生中に映像時刻を逐次取得する方法も挙げられる。ユーザが任意に指定するのではなく、映像再生手段106が自動的に映像内時刻を指定していることになるため、ユーザはより簡便に本実施の形態におけるシステムを利用できる。本実施の形態では、映像再生手段016が蓄積映像内時刻を取得する方法を採用するものとする。   Another example is a method in which the video playback means 106 sequentially acquires video time during playback. Since the video reproduction means 106 automatically designates the time within the video instead of being arbitrarily designated by the user, the user can more easily use the system in the present embodiment. In the present embodiment, it is assumed that the video playback means 016 adopts a method of acquiring the stored video time.

(7)クライアント装置1の映像仮想時間算出手段108は、上記の映像時間指定手段107によって指定された映像時間を、映像識別子及び同期箇所識別子を用いて表現する。   (7) The video virtual time calculation unit 108 of the client device 1 expresses the video time specified by the video time specification unit 107 using the video identifier and the synchronization location identifier.

算出される映像仮想時間は、編集などが行われた映像ファイル上の時間ではなく、映像情報や編集情報から復元される元映像上の時間のことである。映像仮想時間を用いることで、編集等の行為に関わらず、他ユーザと同期可能な時間を得ることができる。   The calculated video virtual time is not the time on the video file in which editing or the like has been performed, but the time on the original video restored from the video information or the editing information. By using the video virtual time, it is possible to obtain a time that can be synchronized with other users regardless of actions such as editing.

映像仮想時間とその算出方法について、図6を用いて説明する。図6は、図4で用いた映像Aを用いているものとする。   The video virtual time and its calculation method will be described with reference to FIG. FIG. 6 assumes that the video A used in FIG. 4 is used.

今、ユーザが映像時間指定手段107によって指定した時間をtmとする。同期箇所識別子算出手段105によって算出された同期箇所識別子(図4参照)から、tmは、tmより以前の同期箇所識別子中の同期時刻t1より相対的にtd進んだ時間であると容易に算出される。よって再現された元映像A上の時間tiは、同期箇所識別子中のt1と同欄にある相対時刻T1を用いることで、ti=T1+tdであると直ちに算出される。   Now, let tm be the time specified by the video time specifying means 107 by the user. From the synchronization location identifier (see FIG. 4) calculated by the synchronization location identifier calculating means 105, tm is easily calculated as a time that is relatively advanced by td from the synchronization time t1 in the synchronization location identifier before tm. The Thus, the reproduced time ti on the original video A is immediately calculated as ti = T1 + td by using the relative time T1 in the same column as t1 in the synchronization location identifier.

映像識別子算出手段104によって算出された映像Aの映像識別子をmID(A)とすると、最終的にtmから算出される映像仮想時間は、映像識別子mID(A)及び同期時間tiからなるTiで表される。   If the video identifier of the video A calculated by the video identifier calculation means 104 is mID (A), the video virtual time finally calculated from tm is represented by Ti consisting of the video identifier mID (A) and the synchronization time ti. Is done.

上記の手順により、映像時間指定手段107によって指定された時間tmは、映像仮想時間Tiによって映像識別子及び該映像内の基準時刻からの相対時間として表現できるため、他ユーザと同期可能な統一的な時間として表現される。   According to the above procedure, the time tm designated by the video time designation means 107 can be expressed as a relative time from the video identifier and the reference time in the video by the video virtual time Ti. Expressed as time.

(8)クライアント装置1のコメント情報入力手段109は、映像時間指定手段107によって指定された映像時間上にユーザのコメント入力を可能とする。コメントの入力には一般的なテキスト入力インタフェースを用いることで容易に実装できるため、ここでは例示しない。   (8) The comment information input unit 109 of the client device 1 enables the user to input a comment on the video time specified by the video time specifying unit 107. Since a comment can be easily implemented by using a general text input interface, it is not illustrated here.

また、本実施の形態で扱うコメント情報とは、ユーザの意見を表すコメント本文と共に、ユーザIDや入力時刻などの付加情報を総称してコメント情報という。   The comment information handled in the present embodiment is collectively referred to as comment information, together with a comment text representing a user's opinion, and additional information such as a user ID and input time.

クライアント装置1のコメント情報・映像仮想時間蓄積手段110は、上記映像仮想時間算出手段108によって算出された映像仮想時間と上記コメント情報入力手段109によって入力されたコメントを関連付けて、サーバ装置2が有するコメント情報・映像仮想時間DB111に蓄積する。   The comment information / video virtual time storage unit 110 of the client device 1 has the server device 2 associating the video virtual time calculated by the video virtual time calculation unit 108 with the comment input by the comment information input unit 109. The comment information / video virtual time DB 111 is accumulated.

コメント情報・映像仮想時間DB111に蓄積されたコメント情報及び映像仮想時間の例を図7に示す。本実施の形態においてコメント情報は、コメントを入力したユーザのIDであるuID(n)と入力されたコメント本文cmt(n)からなる。また、映像仮想時間は、映像識別子mID(n)と同期時間t(n)からなる。これらは関係付けられているとしてct(n)としてコメント情報・映像仮想時間DB111上で管理される。   An example of comment information and video virtual time accumulated in the comment information / video virtual time DB 111 is shown in FIG. In the present embodiment, the comment information includes uID (n) that is the ID of the user who input the comment and the input comment text cmt (n). The video virtual time includes a video identifier mID (n) and a synchronization time t (n). These are managed on the comment information / video virtual time DB 111 as ct (n) as being related.

(10)サーバ装置2のコメント情報取得手段112は、クライアント装置1上の映像仮想時間算出手段108によって算出された映像仮想時間を元に、コメント情報・映像仮想時間DB111に蓄積されたコメント情報から、該映像仮想時間に関連するコメント情報を取得する。   (10) The comment information acquisition unit 112 of the server device 2 uses the comment information stored in the comment information / video virtual time DB 111 based on the video virtual time calculated by the video virtual time calculation unit 108 on the client device 1. , Comment information related to the video virtual time is acquired.

コメント情報を取得する単純な方法としては、コメント情報・映像仮想時間DB111上のエントリ内で映像仮想時間を合致するものを検索すればよい。あるいは、映像仮想時間は映像時間上の一点を指しており、その時間に対して正確に一致するコメントを入力することは難しいため、映像仮想時間算出手段108によって算出された映像仮想時間に対して一定の幅を持たせ、その範囲内にあるコメントを取得してもよい。幅の持たせ方はシステムで静的に定義してもよいし、ユーザに選択させるなど動的に決定してもよい。本実施の形態では、映像仮想時間算出手段108によって算出された映像仮想時間から前10秒以内に入力されたコメント情報を取得するものとする。   As a simple method for acquiring the comment information, it is only necessary to search for an entry that matches the video virtual time in the entry on the comment information / video virtual time DB 111. Alternatively, the video virtual time indicates one point on the video time, and it is difficult to input a comment that exactly matches the time, so the video virtual time calculated by the video virtual time calculation unit 108 A comment having a certain width may be acquired. The method of giving the width may be statically defined by the system, or may be determined dynamically such as by allowing the user to select. In the present embodiment, it is assumed that comment information input within 10 seconds before the video virtual time calculated by the video virtual time calculation unit 108 is acquired.

(11)クライアント装置1のコメント情報表示手段113は、コメント情報取得手段112によって取得されたコメントを画面上に出力する。コメント情報表示手段113は、取得されたコメント情報のうち全て、あるいは、いずれかをユーザ側に提示する。また、いくつかのコメント情報から生成される新たな情報(例えば、入力したユーザの性別によって切り替え表示される画像など)を提示してもよい。   (11) The comment information display unit 113 of the client device 1 outputs the comment acquired by the comment information acquisition unit 112 on the screen. The comment information display means 113 presents all or one of the acquired comment information to the user side. Moreover, you may show the new information (For example, the image etc. which are switched and displayed by the sex of the input user, etc.) produced | generated from some comment information.

本実施の形態によって実現されるシステムの画面表示結果例を図8に示す。   An example of the screen display result of the system realized by this embodiment is shown in FIG.

映像再生手段106によって映像再生中に取得される映像時間が逐次映像仮想時間に変換され、コメント情報表示手段113によって該映像仮想時間に関連するコメント情報が画面上に表示される。映像の再生進度によって映像仮想時間も逐次更新されるため、映像の再生に合わせてコメント情報も切り替わり、映像の、まさにその時入力されたコメントを閲覧できる。また、コメント情報入力手段109を用いることで、該当映像仮想時間を閲覧するユーザにコメントを提示でき、相互にコミュニケーションが図られる。   The video time acquired during video playback by the video playback means 106 is sequentially converted into video virtual time, and comment information related to the video virtual time is displayed on the screen by the comment information display means 113. The video virtual time is also sequentially updated according to the video playback progress, so that the comment information is switched in accordance with the video playback, so that the comment input at that time can be viewed. In addition, by using the comment information input unit 109, a comment can be presented to a user browsing the corresponding video virtual time, and communication can be achieved.

以上のような手段を用いることで、本発明の第1の実施の形態によれば、映像識別子によって個々人が持つ映像の同一性を判定でき、同期箇所識別子及び映像仮想時間によって映像内で指定される時間を映像間で統一的に表現できるため、映像のある時間に対してユーザ間で共有可能なコメントの表示・入力ができる。よって、ユーザ個々人が持つ映像解像度、フォーマット、編集箇所等が異なる映像間であってもコミュニケーションが可能となる。   By using the means as described above, according to the first embodiment of the present invention, it is possible to determine the identity of each person's video by the video identifier, which is specified in the video by the synchronization location identifier and the video virtual time. The time that can be shared between videos can be expressed in a unified manner, so that comments that can be shared between users can be displayed and input for a certain time of the video. Accordingly, communication is possible even between videos having different video resolutions, formats, editing locations, etc. of individual users.

[第2の実施の形態]
本発明の第2の実施の形態による映像コメント入力・表示システムは、ユーザ個々人が映像を蓄積すると共に、それらの映像について書き込んだコメントをサーバ装置上で共有することで、他のユーザのコメントを見たり、あるいは書き込んだコメントを他のユーザに見せ、映像に関するコミュニケーションを行うシステムである。
[Second Embodiment]
In the video comment input / display system according to the second embodiment of the present invention, each user accumulates videos, and comments written about the videos are shared on the server device, so that comments of other users can be shared. This is a system for showing comments that have been viewed or written to other users and communicating about video.

本実施の形態において、ユーザ個々人が蓄積する映像は、第1の実施の形態と異なり、蓄積後に本システム以外で編集が試された映像を想定する。すなわち、第1の実施例において、同期箇所識別子を算出する際に用いた編集情報が存在しない場合である。PCのビデオエンコーダボードには市販の映像編集ソフトが付属されている場合が多く、こういった状況は容易に想定される。   In the present embodiment, unlike the first embodiment, the video accumulated by each individual user is assumed to be a video that has been edited other than the present system after the accumulation. That is, in the first embodiment, there is no editing information used when calculating the synchronization location identifier. In many cases, commercially available video editing software is attached to a video encoder board of a PC, and such a situation is easily assumed.

本発明の第2の実施の形態におけるシステム構成は、第1の実施の形態と変わらないため、図3を参照しながら説明する。また、本実施の形態は、第1の実施の形態とは同期箇所識別子算出手段105で算出される同期箇所識別子以外の点でなんら異ならないため、同期箇所識別子に関わる手段以外についての説明は省略する。   The system configuration in the second embodiment of the present invention is the same as that in the first embodiment, and will be described with reference to FIG. Further, the present embodiment is not different from the first embodiment except for the synchronization location identifier calculated by the synchronization location identifier calculation means 105, and therefore description of the components other than those related to the synchronization location identifier is omitted. To do.

なお、本実施の形態は、請求項1、2,5,6,9,10を実施した場合の具体例を示している。   In addition, this Embodiment has shown the specific example at the time of implementing Claim 1, 2, 5, 6, 9, 10.

クライアント装置1上の映像蓄積手段101、映像DB102、映像選択手段103及び映像識別子算出手段104については、第1の実施の形態と変わらないため説明を省略する。   Since the video storage unit 101, the video DB 102, the video selection unit 103, and the video identifier calculation unit 104 on the client device 1 are the same as those in the first embodiment, description thereof is omitted.

以下、図3に示す各構成要素について、動作順に説明する。   Hereinafter, each component shown in FIG. 3 will be described in the order of operation.

(1)クライアント装置1の同期箇所識別子算出手段105は、各ユーザが持つ同一内容の映像間で同期をとるための同期箇所識別子を算出する。   (1) The synchronization location identifier calculating unit 105 of the client device 1 calculates a synchronization location identifier for synchronizing between videos of the same content held by each user.

本実施の形態で用いる同期箇所識別子は、第1の実施の形態とは異なり編集情報から算出できないため、映像から取り出される映像特徴量を用いて算出する。   Unlike the first embodiment, the synchronization location identifier used in the present embodiment cannot be calculated from editing information, and thus is calculated using video feature values extracted from the video.

映像特徴量とは、画面上の色情報や場面の切り替わり点、カメラワーク、撮影されている物体、文字、発話内容、発話者や音楽の認識結果など、映像上の物理的、あるいは意味的な特徴を示す情報であり、映像管理や映像検索などの分野で広く扱われる情報である。   Image features are physical or semantic information on the screen, such as color information on the screen, scene switching points, camerawork, objects being photographed, characters, utterance content, recognition results of speakers and music, etc. It is information indicating characteristics, and is information widely used in fields such as video management and video search.

映像特徴量は既知の映像解析技術を用いて取得できる。例えば、場面の切り替わり点やテロップ表示区間などに関しては、特許第2839132号広報、特開平9−238298号広報、及び、特開平11−178007号広報などに記載されており、それ以外の特徴量についても様々な研究が為されている。   The video feature amount can be acquired using a known video analysis technique. For example, scene switching points and telop display sections are described in Japanese Patent No. 2839132 Public Information, Japanese Patent Application Laid-Open No. 9-238298, and Japanese Patent Application Laid-Open No. 11-178007, etc. Various studies have been conducted.

本実施例における同期箇所識別子とその算出方法について、図9を用いて説明する。   The synchronization location identifier and its calculation method in the present embodiment will be described with reference to FIG.

1)まず、映像Aから既存技術を用いてカット点(場面切り替わり点)を検出し、カット点によって映像を区間に分割する。この例では、t0から始まる映像区間b及びt1から始まる映像区間d…となる。   1) First, a cut point (scene switching point) is detected from the video A using the existing technology, and the video is divided into sections by the cut point. In this example, the video section b starts from t0, the video section d starts from t1, and so on.

2)次に各映像区間における代表画像を求める。代表画像の求め方としては、各区間の先頭フレームから数フレーム目(場面変化後に安定したと思われるフレーム)の画像を取得する。   2) Next, a representative image in each video section is obtained. As a method for obtaining a representative image, an image of a few frames (a frame that seems to be stable after a scene change) from the first frame of each section is acquired.

3)次に、取り出された各代表画像から色ヒストグラムを求め、該色特徴量と映像区間の時間長を各映像区間における代表的な映像特徴量とする。   3) Next, a color histogram is obtained from each extracted representative image, and the color feature amount and the time length of the video section are set as representative video feature amounts in each video section.

このようにして取り出された映像特徴量は各映像区間を特徴付けるものであるから、ある映像において特徴量を指定すれば、それが映像内のどの区間に該当するのか判定できる。すなわち、ユーザが視聴している映像区間とコメントを同期させるには、映像区間に関連付けられた映像特徴量を用いればよい。但し、例えば、TV放送番組内で同じCMが複数回放送される場合なども想定されるため、一つの特徴量から複数の区間が対応してしまう場合もあり得る。   Since the video feature quantity extracted in this way characterizes each video section, if a feature quantity is designated in a certain video, it can be determined to which section in the video it corresponds. That is, in order to synchronize the comment with the video section that the user is viewing, the video feature amount associated with the video section may be used. However, for example, since the same CM is broadcast a plurality of times in a TV broadcast program, a plurality of sections may correspond from one feature amount.

よって、本実施の形態では、各映像区間に対して、該区間から算出される映像特徴量と、該映像内での映像特徴量の順序付きの集合、及び該集合内における該映像特徴量の位置を同期箇所識別子とする。映像特徴量の順序付きの集合とその位置も識別子とすることで、上記で懸念されるような同期箇所特定時の曖昧性を無くす。具体的な同期箇所識別子の使用方法については後述する。   Therefore, in this embodiment, for each video section, the video feature amount calculated from the section, the ordered set of video feature amounts in the video, and the video feature amount in the set Let the position be the synchronization location identifier. By using an ordered set of video feature quantities and their positions as identifiers, the ambiguity at the time of specifying the synchronization point as described above is eliminated. A specific method of using the synchronization location identifier will be described later.

なお、本実施の形態における映像特徴量ではカット点や色ヒストグラムなどを用いているが、例えば、「番組のオープニング」というような意味的な区間を用いて映像区間を特定してもよいし、各区間の特徴量として、カメラワークや区間内に映る物体の形状、認識された文字列など、より精度よく映像区間を特定できる映像特徴量を複合的に用いてもよい。   Note that the video feature quantities in the present embodiment use cut points, color histograms, and the like. For example, the video sections may be specified using semantic sections such as “program opening”, As the feature quantity of each section, a video feature quantity that can specify the video section more accurately, such as camera work, the shape of an object shown in the section, or a recognized character string, may be used in combination.

(2)クライアント装置1上の映像再生手段106及び映像時間指定手段107については、第1の実施の形態と同様であるため、説明を省略する。   (2) The video reproduction means 106 and the video time designation means 107 on the client apparatus 1 are the same as those in the first embodiment, and thus description thereof is omitted.

(3)クライアント装置1の映像仮想時間算出手段108は、映像時間指定手段107によって指定された映像時間を、映像識別子及び同期箇所識別子を用いて表現する。   (3) The video virtual time calculating unit 108 of the client device 1 represents the video time specified by the video time specifying unit 107 using the video identifier and the synchronization location identifier.

本実施の形態における映像仮想時間について、図10を用いて説明する。   The video virtual time in the present embodiment will be described with reference to FIG.

映像時間指定手段107によって指定された映像時間tmは、同期箇所識別子算出手段105によって算出された同期箇所識別子によって、映像区間内における相対時刻として表現される。すなわち、tmは、tmを含む映像区間(図では映像区間d)の同期時刻t1からの相対時間をtdとした場合、tm=t1+tdとして表される。   The video time tm designated by the video time designation means 107 is expressed as a relative time within the video section by the synchronization location identifier calculated by the synchronization location identifier calculation means 105. That is, tm is expressed as tm = t1 + td, where td is the relative time from the synchronization time t1 of the video section including tm (video section d in the figure).

t1は、映像A内における映像区間dの同期箇所識別子の先頭時刻であるから、最終的に映像仮想時間Tiは、映像識別子mID(A)、該同期箇所識別子及び相対時間tdによって図のように表現される。映像を特定する映像識別子と映像特徴量によって映像区間を特定する同期箇所識別子、該映像区間の先頭からの相対時間により、映像仮想時間は、他のユーザが同期可能な時間表現となる。   Since t1 is the start time of the synchronization location identifier of the video section d in the video A, the video virtual time Ti is finally determined by the video identifier mID (A), the synchronization location identifier, and the relative time td as shown in the figure. Expressed. The video virtual time is a time expression that other users can synchronize based on the video identifier for specifying the video, the synchronization location identifier for specifying the video section by the video feature amount, and the relative time from the head of the video section.

(4)クライアント装置1のコメント情報入力手段109については、第1の実施の形態と同様であるので、説明は省略する。   (4) The comment information input unit 109 of the client device 1 is the same as that in the first embodiment, and a description thereof will be omitted.

(5)クライアント装置1のコメント情報・映像仮想時間蓄積手段110は、映像仮想時間算出手段108によって算出された映像仮想時間とコメント情報入力手段109によって入力されたコメントを関連付けて、サーバ装置2が有するコメント情報・映像仮想時間DB111に蓄積する。   (5) The comment information / video virtual time storage unit 110 of the client device 1 associates the video virtual time calculated by the video virtual time calculation unit 108 with the comment input by the comment information input unit 109, and the server device 2 The comment information / video virtual time DB 111 is stored.

コメント情報・映像仮想時間DB111に蓄積されたコメント情報及び映像仮想時間の例を図11に示す。本実施の形態において、コメント情報は、コメントを入力したユーザのIDであるuID(n)と入力されたコメント本文cmt(n)からなる。また、映像仮想時間は、映像識別子mID(n)、同期箇所識別子の構成要素である同期時刻t(n)、映像特徴量f(n)、映像特徴量の順序付き集合F(n)、F(n)内におけるf(n)の位置p(n)、相対時間td(n)によって表され、これらは関係付けられてct(n)としてコメント情報・映像仮想時間DB111上で管理される。   An example of comment information and video virtual time stored in the comment information / video virtual time DB 111 is shown in FIG. In the present embodiment, the comment information includes uID (n) that is the ID of the user who has input the comment and the input comment text cmt (n). The video virtual time includes the video identifier mID (n), the synchronization time t (n) that is a component of the synchronization location identifier, the video feature amount f (n), and the ordered set F (n), F of the video feature amount. It is represented by the position p (n) of f (n) in (n) and the relative time td (n), and these are related and managed on the comment information / video virtual time DB 111 as ct (n).

(6)サーバ装置2のコメント情報取得手段112は、クライアント装置1上の映像仮想時間算出手段108によって算出された映像仮想時間を元に、コメント情報・映像仮想時間DB111に蓄積されたコメント情報から、該映像仮想時間に関連するコメント情報を取得する。   (6) The comment information acquisition unit 112 of the server device 2 is based on the comment information accumulated in the comment information / video virtual time DB 111 based on the video virtual time calculated by the video virtual time calculation unit 108 on the client device 1. , Comment information related to the video virtual time is acquired.

本実施の形態におけるコメント情報の取得方法について図12を用いて説明する。   A comment information acquisition method according to the present embodiment will be described with reference to FIG.

まず、同一映像の同一映像区間内の特定時間に入力されたと思われるコメント情報の候補を取得する。   First, comment information candidates that are considered to have been input at a specific time within the same video section of the same video are acquired.

ステップ11) まず、クライアント装置1の映像仮想時間算出手段108によって算出された映像仮想時間を定義する。すなわち、映像仮想時間ct(x)は、映像識別子mID(x)、同期時刻t(x)、映像特徴量f(x)、映像特徴量集合F(x)、F(x)内におけるf(x)の位置p(x)、相対時間td(x)からなるとする。   Step 11) First, the video virtual time calculated by the video virtual time calculation means 108 of the client device 1 is defined. That is, the video virtual time ct (x) is the video identifier mID (x), the synchronization time t (x), the video feature quantity f (x), and the video feature quantity set F (x), f (x) in the F (x). It is assumed that it consists of a position p (x) at x) and a relative time td (x).

ステップ12) サーバ装置2のコメント情報・映像仮想時間DB111内から、映像識別子がmID(x)と一致するコメント情報・映像仮想時間の集合S(x)を取得する。これにより、同一映像内のコメント情報が絞り込まれる。   Step 12) From the comment information / video virtual time DB 111 of the server device 2, a set S (x) of comment information / video virtual time whose video identifier matches mID (x) is acquired. Thereby, the comment information in the same video is narrowed down.

ステップ13) 上記集合S(x)内から、映像特徴量がf(x)に類似するコメント情報・映像仮想時間の部分集合S’(x)を取得する。映像特徴量は、映像の解像度や映像フォーマット、映像作成時のフィルタ設定などに依存して、同一の元映像であっても映像ファイルごとに微妙に異なる値となる。そのため、本実施の形態では、映像特徴量間の類似性によって、同一の映像区間であるかを判定する。   Step 13) From the set S (x), a subset S ′ (x) of comment information / video virtual time whose video feature amount is similar to f (x) is acquired. The video feature amount is a slightly different value for each video file, even for the same original video, depending on the video resolution, video format, filter setting at the time of video creation, and the like. For this reason, in the present embodiment, it is determined whether or not they are in the same video section based on the similarity between the video feature amounts.

映像特徴量の類似性判定には、例えば、画像内の色ヒストグラムを用いている場合、色ヒストグラム内の各色要素の値を持つn次元上の点として表現し、各点間のユークリッド距離によって判別する方法などが考えられる。すなわち、ct(x)における映像特徴量f(x)を(cx(1),cx(2),…,cn(N))とし、S’(x)内のあるコメント・映像仮想時間ct(a)における映像特徴量f(a)を(ca(1),…,ca(n))とした場合、類似度sim(X,A)は以下の式で求められる。   For example, when the color histogram in the image is used, the similarity of the video feature amount is expressed as an n-dimensional point having the value of each color element in the color histogram, and is determined by the Euclidean distance between the points. Possible ways to do this. That is, the video feature value f (x) at ct (x) is (cx (1), cx (2),..., Cn (N)), and a certain comment / video virtual time ct ( When the video feature value f (a) in a) is (ca (1),..., ca (n)), the similarity sim (X, A) is obtained by the following equation.

Figure 2006155384
映像特徴量間で類似性が高いほどsim(X,A)の値は「0」に近づくため、ある閾値以下となる映像特徴量f(a)を持つコメント情報・映像仮想時間ct(a)をS‘’(x)の要素とすればよい。
Figure 2006155384
Since the value of sim (X, A) approaches “0” as the similarity between the image feature amounts is higher, the comment information / image virtual time ct (a) having the image feature amount f (a) that is equal to or less than a certain threshold value. May be an element of S ″ (x).

なお、本実施の形態では、説明の簡略化のために色ヒストグラムにおける簡単な類似度計算方法を説明したが、実施の形態によっては様々な特徴量における類似度計算方法が適用できる。類似度計算方法ついては様々な既存技術が存在するため説明は省略する。   In the present embodiment, a simple similarity calculation method in a color histogram has been described for the sake of simplicity of explanation, but the similarity calculation method in various feature amounts can be applied depending on the embodiment. A description of the similarity calculation method is omitted because there are various existing technologies.

ステップ14)上記集合S’(x)内から、相対時間がtd(x)と同一とみなされるコメント情報・映像仮想時間の部分集合S’’(x)を取得する。相対時間を同一とみなすには、S’(x)内のあるコメント・映像仮想時間ct(i)における相対時間td(i)とtd(x)が正確に一致するか判定してもよいし、第1の実施の形態でも述べたように、td(x)からみて一定の範囲内にあるtd(i)を同一とみなしてもよい。本実施の形態では、td(x)より10秒前からtd(x)までの範囲内にあるtd(i)を同一とみなすこととする。   Step 14) From the set S ′ (x), a subset S ″ (x) of comment information / video virtual time that is regarded as having the same relative time as td (x) is obtained. In order to consider that the relative times are the same, it may be determined whether the relative times td (i) and td (x) in a certain comment / video virtual time ct (i) in S ′ (x) exactly match. As described in the first embodiment, td (i) within a certain range as viewed from td (x) may be regarded as the same. In the present embodiment, it is assumed that td (i) in the range from 10 seconds before td (x) to td (x) is the same.

上記のステップで取得されたS’’(x)は、同一映像の同一映像区間内の特定時間に入力されたと思われるコメント情報の候補である。これらの候補は、ある映像特徴量によって映像区間が一意に決定できる場合、同一映像上の同一時間に入力されたものと判断できる。しかしTV番組内のTVCMのように、同一映像内で同一内容の映像区間が複数存在している場合、意図しない映像区間(同一の映像特徴量を持つ異なる区間)に付与されたものである可能性がある。   S ″ (x) acquired in the above step is a candidate for comment information that seems to have been input at a specific time within the same video section of the same video. These candidates can be determined to be input at the same time on the same video if the video section can be uniquely determined by a certain video feature amount. However, if there are multiple video sections with the same content in the same video, such as TVCM in a TV program, it may be assigned to an unintended video section (different sections having the same video feature amount). There is sex.

そこで、次からのステップとして、候補内から映像仮想時間が正確に一致するコメント情報を絞り込む。   Therefore, as the next step, the comment information whose video virtual time exactly matches from the candidates is narrowed down.

ステップ15)まず、絞込みを行うための初期化処理を行う。具体的には、S’’(x)内のコメント情報・映像仮想時間をct(i)とし、S’’(x)内のct(i)の総数をnとする。また、ステップ16以降で用いるインデックスiを「0」とする。また、最終的な結果を保持するコメント・映像仮想時間集合R(x)を空集合とする。   Step 15) First, an initialization process for narrowing down is performed. Specifically, the comment information / video virtual time in S ″ (x) is ct (i), and the total number of ct (i) in S ″ (x) is n. In addition, the index i used in and after step 16 is set to “0”. Also, the comment / video virtual time set R (x) holding the final result is set as an empty set.

ステップ16) インデックスiの判定を行う。iの値が総数nより小さい場合はステップ17以降の処理を進める。また、iがn以上の場合は全てのct(i)に対して処理を行ったことになるため、処理を終了する。   Step 16) The index i is determined. If the value of i is smaller than the total number n, the processing after step 17 is advanced. If i is greater than or equal to n, all ct (i) have been processed, and the process ends.

ステップ17) ct(i)の各要素を定義する。ct(i)の映像識別子をmID(i)、同期時刻t(i)、映像特徴量f(i)、映像特徴量集合F(i)、F(i)内におけるf(i)の位置p(i)、相対時間td(i)とする。   Step 17) Define each element of ct (i). The video identifier of ct (i) is mID (i), the synchronization time t (i), the video feature quantity f (i), the video feature quantity set F (i), and the position p of f (i) in F (i). (I), relative time td (i).

ステップ18)ct(x)とct(i)が持つ映像特徴量の順序付き集合F(x)及びF(i)について、集合内の各映像特徴量の対応処理を行う。   Step 18) With respect to the ordered sets F (x) and F (i) of the video feature values of ct (x) and ct (i), the corresponding processing of each video feature value in the set is performed.

F(x)及びF(i)は、各ユーザが保有する映像から算出されるものである。よって、ユーザ毎に映像編集作業が行われていた場合、F(x)及びF(i)は異なる要素列を持つ。本ステップでの処理は、これら異なる要素列を比較し、F(x)内の要素がF(i)内のどの要素に対応するかを判定するものである。   F (x) and F (i) are calculated from videos held by each user. Therefore, when video editing work is performed for each user, F (x) and F (i) have different element strings. The process in this step compares these different element strings and determines which element in F (i) corresponds to the element in F (x).

本実施の形態では、要素列間の対応関係を調べる方法について特に限定はしないが、一般的な方法としては、DPマッチングが挙げられる。DPマッチングは、ある要素列に対して挿入・削除を行いながら、他の要素列との対応関係を効率よく探索する手法である。音声認識において音素列と言語モデルとの対応を調べたり、DNAの研究において塩基配列間の類似性を調べたりなど、様々な分野で用いられるアルゴリズムであり、詳細についてはここでは述べない。   In the present embodiment, the method for examining the correspondence relationship between the element strings is not particularly limited, but a general method includes DP matching. DP matching is a technique for efficiently searching for a correspondence relationship with another element sequence while inserting / deleting the element sequence. This algorithm is used in various fields, such as examining the correspondence between phoneme sequences and language models in speech recognition, and examining similarity between base sequences in DNA research, and details are not described here.

また、「特願2002−130746」にある手法も挙げられる。当該手法は、映像特徴量の算出には誤検出があり得ること、映像の解像度やフォーマットによって特徴量に誤差あることを配慮して、映像間の特徴量列を対応させながら類似度を算出することに特徴がある。当該手法を応用することで、映像特徴量における誤検出や誤差を考慮した対応関係が求められる。   Further, the technique described in “Japanese Patent Application No. 2002-130746” is also included. In this method, considering the possibility of erroneous detection in the calculation of video feature values and the fact that there is an error in the feature values depending on the resolution and format of the video, the similarity is calculated while matching the feature value sequences between videos. There is a special feature. By applying the method, a correspondence relationship in consideration of erroneous detection and error in the video feature amount is obtained.

図13は、これらの手法を用いてF(x)及びF(i)における要素列間の対応関係を模式的に表した図である。F(x)及びF(i)は相互に編集部分や欠損部分が存在するため、F(x)における2番目の要素がF(i)における2番目の要素に対応するとは限らないが、本ステップの処理によって、F(x)における要素F(x)_nがF(i)におけるどの要素に対応するか算出される。   FIG. 13 is a diagram schematically showing the correspondence between element strings in F (x) and F (i) using these methods. Since F (x) and F (i) have an edited part and a missing part, the second element in F (x) does not necessarily correspond to the second element in F (i). By the processing of the step, it is calculated which element in F (i) the element F (x) _n in F (x) corresponds to.

ステップ19)ステップ18の対応結果とp(x)及びp(i)から、f(x)とf(i)が対応しているかを判定し、対応している場合は最終結果の集合R(x)にct(i)を加える。   Step 19) From the correspondence result of Step 18 and p (x) and p (i), it is determined whether f (x) and f (i) correspond. If they correspond, the final result set R ( Add ct (i) to x).

図14は、ステップ19の処理を模式的に表した図である。すでに述べたようにF(x)及び、F(i)は異なる要素列であるが、ステップ18によって要素間が対応付けられているため、p(x)及びp(i)から簡単にf(x)とf(i)の対応を調べられる。すなわち、映像仮想時間算出手段108によって算出された映像仮想時間ct(x)とコメント情報・映像仮想時間DB111上のあるエントリct(i)が同一時間であるか判定できる。   FIG. 14 is a diagram schematically showing the processing in step 19. As already described, F (x) and F (i) are different element strings. However, since the elements are associated with each other in step 18, f (x) and p (i) can be simply changed to f ( The correspondence between x) and f (i) can be examined. That is, it can be determined whether the video virtual time ct (x) calculated by the video virtual time calculation unit 108 and a certain entry ct (i) on the comment information / video virtual time DB 111 are the same time.

ステップ20)インデックスiに1を足し、ステップ16に戻る。   Step 20) Add 1 to the index i and return to Step 16.

上記の処理ステップによって得られたR(x)からコメント情報を取り出すことにより、サーバ装置2のコメント情報取得手段112は、映像仮想時間算出手段108によって算出された映像仮想時間を元に、コメント情報・映像仮想時間DB111に蓄積されたコメント情報から該映像仮想時間に関するコメント情報を取得できる。   By extracting the comment information from R (x) obtained by the above processing steps, the comment information acquisition unit 112 of the server apparatus 2 uses the video virtual time calculated by the video virtual time calculation unit 108 to comment information. Comment information related to the video virtual time can be acquired from the comment information stored in the video virtual time DB 111.

(7)クライアント装置1上のコメント情報表示手段113については、第1の実施の形態と変わらないため説明は省略する。   (7) The comment information display means 113 on the client device 1 is not different from that of the first embodiment, and the description thereof is omitted.

以上のような手段を用いることで、本発明の第2の実施の形態によれば、映像識別子によって個々人が持つ映像の同一性を判定でき、同期箇所識別子及び映像仮想時間によって映像内で指定される時間を映像間で統一的に表現できるため、映像のある時間に対してユーザ間で共有可能なコメントの表示・入力ができる。よって、ユーザ個々人が持つ映像解像度、フォーマット、編集箇所等が異なる映像間であってもコミュニケーションが可能となる。   By using the means as described above, according to the second embodiment of the present invention, it is possible to determine the identity of an individual video by the video identifier, which is designated in the video by the synchronization location identifier and the video virtual time. The time that can be shared between videos can be expressed in a unified manner, so that comments that can be shared between users can be displayed and input for a certain time of video. Accordingly, communication is possible even between videos having different video resolutions, formats, editing locations, etc. of individual users.

また、請求項2、6,10記載の同期箇所識別子算出手段(手順)を用いることで、第1の実施例とは異なる状況、すなわちシステム外部で映像編集処理が為された映像においても、映像特徴量を用いて同期箇所を算出することにより、ある映像時間に関連付けられたコメント情報を取得でき、また、入力できる。よって、第1の実施の形態と比較してより広範囲な映像間でのコミュニケーションが可能になる。   Further, by using the synchronization part identifier calculating means (procedure) according to claims 2, 6 and 10, even in a situation different from that of the first embodiment, that is, in a video that has been subjected to video editing processing outside the system. By calculating the synchronization location using the feature quantity, comment information associated with a certain video time can be acquired and input. Therefore, communication between a wider range of images is possible as compared with the first embodiment.

[第3の実施の形態]
本発明の第3の実施の形態による映像コメント入力・表示システムは、ユーザ個々人が映像を蓄積すると共に、それらの映像について書き込んだコメントをサーバ上で共有することで、他のユーザのコメントを見たり、あるいは書き込んだコメントを他のユーザに見せ、映像に関するコミュニケーションを行うシステムである。
[Third Embodiment]
In the video comment input / display system according to the third embodiment of the present invention, each user accumulates videos, and comments written on the videos are shared on the server, so that comments of other users can be viewed. Or, it is a system for showing comments that have been written to other users and communicating about video.

本実施の形態において、ユーザ個々人が蓄積する映像は、第1、第2の実施の形態とは異なり、iEPG(登録商標)などから取得されるタイトル・サブタイトルなどの映像情報や編集情報などが存在しない映像を想定する。例えば、過去にビデオデッキで録画した映像を映像ファイル化して本システムに適応する場合などが考えられる。   In the present embodiment, unlike the first and second embodiments, the video accumulated by each individual user includes video information such as titles and subtitles acquired from iEPG (registered trademark), editing information, and the like. Suppose a video that does not. For example, it is conceivable that the video recorded in the past in the VCR is converted into a video file and adapted to this system.

本発明の第3の実施の形態におけるシステム構成は、第1の実施の形態と同様であるため、図3を参照しながら説明する。また、本実施の形態は、第1の実施の形態とは映像識別子算出手段104、同期箇所識別子算出手段105及びコメント情報・映像仮想時間蓄積手段110で算出・蓄積される、映像識別子、同期箇所識別子、コメント情報・映像仮想時間以外の点で何ら異ならないため、上記識別子及び情報に関わる手段以外についての説明は省略する。   The system configuration in the third embodiment of the present invention is the same as that in the first embodiment, and will be described with reference to FIG. Further, this embodiment is different from the first embodiment in that the video identifier and the synchronization part are calculated and stored by the video identifier calculation unit 104, the synchronization part identifier calculation unit 105, and the comment information / video virtual time storage unit 110. Since there is no difference in terms other than the identifier, comment information, and video virtual time, descriptions of the means other than the means related to the identifier and information are omitted.

なお、本実施の形態では、請求項1〜12を実施した場合の具体例を示している。   In addition, in this Embodiment, the specific example at the time of implementing Claims 1-12 is shown.

クライアント装置1上の映像蓄積手段101、映像DB102、映像選択手段103については、第1の実施の形態と同様であるため説明を省略する。   Since the video storage unit 101, the video DB 102, and the video selection unit 103 on the client device 1 are the same as those in the first embodiment, description thereof is omitted.

クライアント装置1の映像識別子算出手段104は、映像選択手段103によって選択された映像から映像を識別するために用いる映像識別子を算出する。   The video identifier calculation unit 104 of the client device 1 calculates a video identifier used for identifying a video from the video selected by the video selection unit 103.

本実施の形態における映像識別子算出手段104は、第1、第2の実施の形態とは異なり、映像蓄積時に映像情報が存在しない。そのため、一意に映像を特定できる別の識別子が必要となる。   Unlike the first and second embodiments, the video identifier calculation unit 104 in the present embodiment does not have video information during video storage. Therefore, another identifier that can uniquely identify the video is required.

本実施の形態では、これに映像特徴量を用いる。第2の実施の形態で説明したように、映像特徴量は映像上の物理的、あるいは意味的な特徴を示す情報であり、映像特徴量を用いた類似映像検索手法は様々に研究されている。   In the present embodiment, video feature amounts are used for this. As described in the second embodiment, the video feature amount is information indicating a physical or semantic feature on the video, and various similar video search methods using the video feature amount have been studied. .

本実施例においては、第2の実施の形態で用いた映像特徴量の順序付き集合を映像識別子として用いる。すなわち、映像間の同一性を判定する場合に、映像特徴量の順序付き集合を比較してその類似性を判定する。具体的な同一性の判定方法については、コメント情報取得手段112において別途説明する。   In this example, the ordered set of video feature values used in the second embodiment is used as a video identifier. That is, when determining the identity between videos, the similarity is determined by comparing ordered sets of video feature quantities. A specific identity determination method will be described separately in the comment information acquisition unit 112.

本実施の形態における映像識別子の例を図15に示す。   An example of a video identifier in the present embodiment is shown in FIG.

クライアント装置1の同期箇所識別子算出手段105は、各ユーザが持つ同一内容を映像間で同期を取るための同期箇所識別子を算出する。   The synchronization location identifier calculating unit 105 of the client device 1 calculates a synchronization location identifier for synchronizing the same contents of each user between videos.

本実施の形態における同期箇所識別子は、第2の実施の形態と同様に映像特徴量を用いて算出する。算出方法については、第2の実施の形態において説明したので、ここでは省略する。   The synchronization location identifier in the present embodiment is calculated using video feature amounts as in the second embodiment. Since the calculation method has been described in the second embodiment, it is omitted here.

クライアント装置1上の映像再生手段106及び映像時間指定手段107については、第1の実施の形態と同様であるので、説明は省略する。   Since the video reproduction means 106 and the video time designation means 107 on the client device 1 are the same as those in the first embodiment, description thereof will be omitted.

クライアント装置1の映像仮想時間算出手段108は、映像時間指定手段107によって指定された映像時間を、映像識別子及び同期箇所識別子を用いて表現する。   The video virtual time calculation means 108 of the client device 1 represents the video time designated by the video time designation means 107 using the video identifier and the synchronization location identifier.

本実施の形態における映像仮想時間は、第2の実施の形態と同様であり、構成要素は、図10に示す通りであるが、映像識別子mID(A)が映像特徴量の順序付き集合であることが第2の実施の形態と異なる。   The video virtual time in the present embodiment is the same as in the second embodiment, and the constituent elements are as shown in FIG. 10, but the video identifier mID (A) is an ordered set of video feature quantities. This is different from the second embodiment.

クライアント装置1上のコメント情報入力手段109については、基本的に第1の実施の形態で述べた通りであるが、本実施の形態では、指定したコメントに対してレス(レスポンス、返信)を行うコメントも入力できるものとする。   The comment information input means 109 on the client device 1 is basically as described in the first embodiment, but in this embodiment, a reply (response, reply) is performed for a specified comment. Comments can also be entered.

掲示板などの一般的なコミュニケーション手段では、あるコメントに対してレス(レスポンス、返信)を行うコメントを入力する機能が備わっている。レスを行うことで、どのコメントがどのコメントに対して述べられたものなのか容易に理解できるため、特に議論などを行う場合に効果が高い。以下、本実施の形態において、「親コメント」とはレスが行われたコメントを指し、「子コメント」とはレスを行うコメントを指す。   A general communication means such as a bulletin board has a function of inputting a comment for performing a response (response, reply) to a certain comment. By doing less, it is easy to understand which comment is said to which comment, so it is particularly effective when discussing. Hereinafter, in the present embodiment, “parent comment” refers to a comment for which a less was performed, and “child comment” refers to a comment for which a less is performed.

クライアント装置1のコメント情報・映像仮想時間蓄積手段110は、上記映像仮想時間算出手段108によって算出された映像仮想時間と上記コメント情報入力手段109によって入力されたコメントを関連付けて、サーバ装置2が有するコメント情報・映像仮想時間DB111に蓄積する。   The comment information / video virtual time storage unit 110 of the client device 1 has the server device 2 associating the video virtual time calculated by the video virtual time calculation unit 108 with the comment input by the comment information input unit 109. The comment information / video virtual time DB 111 is accumulated.

コメント情報・映像仮想時間DB111に蓄積されたコメント情報及び映像仮想時間の例を図16に示す。   An example of comment information and video virtual time stored in the comment information / video virtual time DB 111 is shown in FIG.

本実施の形態では、コメント情報の一つとして親コメントを示すpID(i)を持つ。pID(i)、は、ID(i)のコメントがレスを行った親コメントを指し、具体的には親コメントのIDであるct(p)を指す。もし親コメントを持たないコメントであった場合は、pID(i)をnull等にすることで、どのコメントがどのコメントに対してレスを行ったものであるか容易に判定できるようになる。   In this embodiment, pID (i) indicating a parent comment is included as one piece of comment information. pID (i) indicates a parent comment in which the comment of ID (i) has performed a reply, and specifically indicates ct (p) that is the ID of the parent comment. If the comment does not have a parent comment, pID (i) is set to null or the like, so that it is possible to easily determine which comment is the one for which the comment is performed.

それ以外の点については、第2の実施の形態と変わらないため説明を省略する。   Since other points are the same as those in the second embodiment, description thereof is omitted.

サーバ装置2は、クライアント装置1上の映像仮想時間算出手段108によって算出された映像仮想時間を元に、コメント情報・映像仮想時間DB111に蓄積されたコメント情報から、該映像仮想時間に関連するコメント情報を取得する。コメント情報取得手段112を有する。   Based on the video virtual time calculated by the video virtual time calculation unit 108 on the client device 1, the server apparatus 2 uses the comment information stored in the comment information / video virtual time DB 111 to make a comment related to the video virtual time. Get information. Comment information acquisition means 112 is included.

本実施の形態におけるコメント情報の取得方法について、図17を用いて説明する。   A comment information acquisition method according to the present embodiment will be described with reference to FIG.

ステップ111)まず、映像仮想時間算出手段108によって算出された映像仮想時間を定義する。すなわち映像仮想時間ct(x)、は、映像識別子mID(x)、同期時刻t(x)、映像特徴量f(x)、映像特徴量集合F(x)、F(x)内におけるf(x)の位置p(x)、相対時間td(x)からなるとする。   Step 111) First, the video virtual time calculated by the video virtual time calculation means 108 is defined. That is, the video virtual time ct (x) is the video identifier mID (x), the synchronization time t (x), the video feature quantity f (x), the video feature quantity set F (x), and f (x) in F (x). It is assumed that it consists of a position p (x) at x) and a relative time td (x).

ステップ112) コメント情報・映像仮想時間DB111に関する初期化処理を行う。具体的には、コメント情報・映像仮想時間DB111内のコメント情報・映像仮想時間の集合をCT、その要素数nとし、各要素をct(i)とする。また、最終的な結果を保持するコメント・映像仮想時間集合R(x)を空集合とする。   Step 112) An initialization process relating to the comment information / video virtual time DB 111 is performed. Specifically, a set of comment information / video virtual time in the comment information / video virtual time DB 111 is CT, the number of elements is n, and each element is ct (i). Also, the comment / video virtual time set R (x) holding the final result is set as an empty set.

ステップ113) 処理終了判定を行う。CT内に要素が残っている場合はステップ114以降の処理を進める。また、CTの要素数nが「0」以下の場合は、全てのct(i)に対して処理を行ったことになるため、処理を終了する。   Step 113) A process end determination is made. If elements remain in the CT, the processing from step 114 onward is advanced. When the number n of CT elements is “0” or less, the processing is terminated because all ct (i) have been processed.

ステップ114) ct(i)の各要素を定義する。ct(i)の映像識別子をmID(i)、同期時刻t(i)、映像特徴量f(i)、映像特徴量集合F(i)、F(i)内におけるf(i)の位置p(i)、相対時間td(i)、親コメントiD pID(i)とする。   Step 114) Define each element of ct (i). The video identifier of ct (i) is mID (i), the synchronization time t (i), the video feature quantity f (i), the video feature quantity set F (i), and the position p of f (i) in F (i). (I), relative time td (i), parent comment iD pID (i).

ステップ115) 映像識別子mID(x)とmID(i)との類似度Sim(mID(x),mID(i))を算出する。本実施の形態において、mID(x)とmID(i)は共に映像特徴量の順序付き集合であるから、順序を考慮しながら各要素間を比較して、類似する要素を互いに多く含む場合に類似した映像であると判定する。具体的な方法について、図17に示す。   Step 115) The similarity Sim (mID (x), mID (i)) between the video identifier mID (x) and mID (i) is calculated. In the present embodiment, both mID (x) and mID (i) are ordered sets of video feature quantities. Therefore, when elements are compared with each other while considering the order, many similar elements are included. It is determined that the video is similar. A specific method is shown in FIG.

1)まず、第2の実施の形態で述べたように、DPマッチングなどを用いて要素列間の対応付けを行う。   1) First, as described in the second embodiment, association between element strings is performed using DP matching or the like.

2)次に、対応付けられているF(x)及びF(i)内の要素をそれぞれfx(i),fi(j)としてその総数をmとし、要素間の類似度sim(fx(j),fi(j))を個別に計算してその平均値を計算し、F(x)における総要素数n(x)に対する対応要素数na(x)の逆数、及びF(i)における総要素数n(i)に対する対応要素数na(i)の逆数をかけた値を計算する。これをF(x)とF(i)の類似度sim(mID(x),mID(i))とする。具体的には以下の式になる。なお、要素間の類似度は類似性が高いほど小さな値になるものとする。   2) Next, the elements in the associated F (x) and F (i) are fx (i) and fi (j), respectively, the total number is m, and the similarity sim (fx (j ), Fi (j)) and the average value thereof is calculated, the reciprocal of the corresponding element number na (x) with respect to the total element number n (x) in F (x), and the total in F (i) A value obtained by multiplying the reciprocal of the corresponding element number na (i) to the element number n (i) is calculated. Let this be the similarity sim (mID (x), mID (i)) between F (x) and F (i). Specifically, the following equation is obtained. It is assumed that the similarity between elements is smaller as the similarity is higher.

Figure 2006155384
この式は、対応要素の類似度が高く、映像に対する対応要素数が多いほど小さな値となる。対応要素数na(x)及びna(i)を考慮するのは、映像の同一性における曖昧性を考慮するためである。例えば、図18に示すように、確かに一致する部分の類似性は高いかもしれないが、別の映像の断片である映像を同一の映像であると判定してしまう可能性がある。この曖昧性を解消するため、本計算方法では、映像全体としてどの程度要素が対応するかを類似性に含め、取得されるコメントに矛盾が生じないようにする。
Figure 2006155384
This expression has a smaller value as the degree of similarity between corresponding elements is higher and the number of corresponding elements for a video is larger. The reason why the number of corresponding elements na (x) and na (i) is taken into consideration is to consider ambiguity in video identity. For example, as shown in FIG. 18, the similarity of the matching parts may be high, but there is a possibility that a video that is a fragment of another video is determined to be the same video. In order to eliminate this ambiguity, in this calculation method, the degree to which elements correspond to the entire video is included in the similarity so that the acquired comment does not contradict.

ステップ116)sim(F(x),F(i))に対してある閾値以下のものを類似した映像とする。閾値はシステムで静的に決定したり、DBに登録された映像識別子から、より効率的に同一性を判断できるように動的に決定してもよい。類似していると判定される場合には、ステップ117に移行し、そうでない場合は、次のct(i)について処理を行うよう、ステップ113に戻る。   Step 116) A video having a certain threshold value or less with respect to sim (F (x), F (i)) is regarded as a similar video. The threshold value may be determined statically by the system or may be determined dynamically so that the identity can be determined more efficiently from the video identifier registered in the DB. If it is determined that they are similar, the process proceeds to step 117, and if not, the process returns to step 113 so as to perform the process for the next ct (i).

ステップ117)コメントが入力された区間における映像特徴量f(x)及びf(i)の類似度sim(f(x),f(i))を求める。類似度の算出方法については、第2の実施の形態に詳細を述べたため、ここでは省略する。   Step 117) The similarity sim (f (x), f (i)) of the video feature quantities f (x) and f (i) in the section in which the comment is input is obtained. The method for calculating the degree of similarity has been described in detail in the second embodiment, and is omitted here.

ステップ118)同一映像区間に対してコメントされているコメント情報・映像仮想時間を選別するため、sim(f(x),f(i))に対してある閾値以下であるかを判定する。閾値以下である場合はステップ119に進み、そうでない場合はステップ113へ戻る。   Step 118) In order to select comment information / video virtual time commented on the same video section, it is determined whether or not sim (f (x), f (i)) is below a certain threshold value. If it is equal to or less than the threshold value, the process proceeds to step 119; otherwise, the process returns to step 113.

ステップ119)相対時間td(x)及びtd(i)が同一時刻であるかを判定する。判定方法は第2の実施の形態で述べたためここでは省略する。同一時刻である場合は、ステップ120に進み、そうでない場合はステップ113に戻る。   Step 119) It is determined whether the relative times td (x) and td (i) are the same time. Since the determination method has been described in the second embodiment, it is omitted here. If it is the same time, the process proceeds to step 120; otherwise, the process returns to step 113.

ステップ120)ステップ119までの処理で選別されたコメント情報・映像仮想時間の中から正確に映像仮想時間の一致するコメント情報を絞り込むため、まず、映像特徴量の順序付き集合F(x)及びF(i)について、集合内の各映像特徴量の対応処理を行う。対応方法については第2の実施の形態に述べたため省略する。   Step 120) In order to narrow down the comment information having the same video virtual time from the comment information / video virtual time selected in the process up to Step 119, first, the ordered sets F (x) and F of the video feature amount are selected. For (i), the corresponding processing of each video feature amount in the set is performed. Since the correspondence method has been described in the second embodiment, the description thereof is omitted.

ステップ121)コメント情報・映像仮想時間の集合CTからct(i)を削除して、ステップ120の対応結果とp(x)及びp(i)が対応しているかを判定する。対応している場合は最終結果の集合R(x)にct(i)を加える。判定方法については、第2の実施の形態に述べたためここでは省略する。   Step 121) ct (i) is deleted from the set CT of comment information / video virtual time, and it is determined whether the correspondence result of Step 120 corresponds to p (x) and p (i). If it corresponds, ct (i) is added to the final result set R (x). Since the determination method has been described in the second embodiment, it is omitted here.

ステップ122) pID(i)を再帰的に調べ、ct(i)の親コメントct(p)がCTに含まれている場合、CTからct(p)を削除してR(x)に加える。   Step 122) Check pID (i) recursively, and if ct (i) 's parent comment ct (p) is included in CT, ct (p) is deleted from CT and added to R (x).

ステップ123)CT内に残っている各ct(n)についてct(n)の親コメントを示すpID(n)を再帰的に調べ、ct(i)を含んでいるかを調べる。ct(i)を含んでいる場合はCTからct(n)を削除してR(x)にct(n)を加える。   Step 123) For each ct (n) remaining in the CT, pID (n) indicating the parent comment of ct (n) is recursively checked to see if it contains ct (i). If ct (i) is included, ct (n) is deleted from CT and ct (n) is added to R (x).

ステップ112及びステップ123の処理によって、もし親コメントが指定時間と関連したコメントである場合に、その親・子コメントも取得できる。映像特徴量を用いた映像識別や同期箇所識別は、用いる特徴量やノイズによって巧く識別できない可能性がある。親コメントと子コメントが存在するようなコミュニケーションでは、あるコメントをフォローする子コメントが表示されないことで文脈が崩れ、相互にコミュニケーションを図ることが難しくなる恐れがある。ステップ122、及びステップ123はこれを防ぐ。   By the processing of step 112 and step 123, if the parent comment is a comment related to the specified time, the parent / child comment can also be acquired. Video identification and synchronization location identification using video feature amounts may not be skillfully discriminated depending on the feature amount or noise used. In communication in which a parent comment and a child comment exist, the context may be broken because a child comment following a certain comment is not displayed, and it may be difficult to communicate with each other. Steps 122 and 123 prevent this.

ステップ124)CT内の要素総数nを再計算してステップ113へ戻る。   Step 124) Recalculate the total number n of elements in the CT and return to Step 113.

以上のような処理ステップを経ることにより、コメント・映像仮想時間集合R(x)には、同一と判定される映像内において同一映像区間に対して入力されたコメント情報・映像仮想時間の組が保持される。   Through the above processing steps, the comment / video virtual time set R (x) includes a set of comment information / video virtual time input for the same video section in the video determined to be the same. Retained.

クライアント装置1上のコメント情報表示手段113については、第1の実施の形態と変わらないため説明は省略する。   The comment information display means 113 on the client device 1 is not different from that of the first embodiment, so that the description is omitted.

以上のような手段を用いることで、本発明の第3の実施の形態によれば、まず、請求項3,7,11記載の映像識別子算出手段(手順)を用いることで、第1、第2の実施例とは異なる状況、すなわち、過去に録画・撮影された映像においても、映像特徴量を用いて映像識別子によって映像の同一性を評価できる。   By using the means as described above, according to the third embodiment of the present invention, first, by using the video identifier calculating means (procedure) according to claims 3, 7, and 11, the first and first Even in a situation different from the second embodiment, that is, in a video recorded and photographed in the past, the video identity can be evaluated by the video identifier using the video feature amount.

また、請求項2,6,10記載の同期箇所識別子算出手段(手順)を用いることで、第1の実施の形態とは異なる状況、すなわち、システム外部で映像編集処理が為された映像においても、映像特徴量を用いて同期箇所を算出することにより、ある映像時間に関連付けられたコメント情報を取得でき、また、入力できる。   Further, by using the synchronization part identifier calculating means (procedure) according to claims 2, 6 and 10, even in a situation different from that of the first embodiment, that is, in a video that has undergone video editing processing outside the system. The comment information associated with a certain video time can be acquired and input by calculating the synchronization location using the video feature amount.

また、請求項4,8,12記載のコメント情報取得手段(手順)を用いることで、映像識別子、同期箇所識別子、映像仮想時間に依らず、コメント情報を元に関連性のあるコメントも取得できるため、コメント間の係り受け関係などに破綻をきたすことなく、コメントの提示が可能となる。よって、第1、第2の実施の形態と比較して、請求項1,5,9記載の映像コメント入力・表示方法において、より広範は映像を対象としたユーザ間のコミュニケーションを図ることが可能になる。   Further, by using the comment information acquisition means (procedure) described in claims 4, 8, and 12, it is possible to acquire a related comment based on the comment information regardless of the video identifier, the synchronization part identifier, and the video virtual time. Therefore, it is possible to present a comment without causing a failure in the dependency relationship between the comments. Therefore, compared with the first and second embodiments, in the video comment input / display method according to claims 1, 5, and 9, it is possible to achieve communication between users more broadly for video. become.

また、上記では、クライアント装置1、サーバス装置2からなるシステムに基づいて説明したが、クライアント装置、サーバ装置に依らず、1つの装置として構成してもよい。   In the above description, the system including the client device 1 and the server device 2 has been described. However, the system may be configured as one device regardless of the client device and the server device.

なお、上記の第1、第2、第3の実施の形態の各構成要素の動作をプログラムとして構築し、描画装置として利用されるコンピュータにインストールして実行する、または、ネットワークを介して流通させることも可能である。   In addition, the operation of each component of the first, second, and third embodiments is constructed as a program, installed and executed on a computer used as a drawing apparatus, or distributed via a network. It is also possible.

また、構築されたプログラムを描画装置として利用されるコンピュータに接続されるハードディスク装置や、フレキシブルディスク、CD−ROM等の可搬記憶媒体に格納することも可能である。   It is also possible to store the constructed program in a portable storage medium such as a hard disk device connected to a computer used as a drawing device, a flexible disk, or a CD-ROM.

なお、本発明は、上記の実施の形態に限定されることなく、特許請求の範囲内において種々変更・応用が可能である。   The present invention is not limited to the above-described embodiment, and various modifications and applications can be made within the scope of the claims.

本発明は、個々人が録画・ダウンロード・制作した映像に対して、コメントを共有する技術に適用可能である。   The present invention can be applied to a technology for sharing comments on video recorded, downloaded, and produced by an individual.

本発明の原理構成図である。It is a principle block diagram of this invention. 本発明の原理説明図である。It is a principle explanatory view of the present invention. 本発明の第1の実施の形態におけるシステム構成図である。It is a system configuration figure in a 1st embodiment of the present invention. 本発明の第1の実施の形態における映像DB102上に蓄積された映像情報、編集情報との関連を表す模式図である。It is a schematic diagram showing the relationship with the video information accumulate | stored on video DB102 in the 1st Embodiment of this invention, and edit information. 本発明の第1の実施の形態における映像再生手段106の画面表示例である。It is a screen display example of the video reproduction | regeneration means 106 in the 1st Embodiment of this invention. 本発明の第1の実施の形態における映像仮想時間とその算出方法を示す模式図である。It is a schematic diagram which shows the image | video virtual time in the 1st Embodiment of this invention, and its calculation method. 本発明の第1の実施の形態におけるコメント情報・映像仮想時間DB111に蓄積されたコメント情報及び映像仮想時間の例である。It is an example of the comment information and image | video virtual time which were accumulate | stored in comment information and image | video virtual time DB111 in the 1st Embodiment of this invention. 本発明の第1の実施の形態におけるシステムの画面表示結果例である。It is an example of a screen display result of the system in the 1st embodiment of the present invention. 本発明の第2の実施の形態における同期箇所識別子及びその算出方法を示す模式図である。It is a schematic diagram which shows the synchronization location identifier in the 2nd Embodiment of this invention, and its calculation method. 本発明の第2の実施の形態における映像仮想時間を示す模式図である。It is a schematic diagram which shows the video virtual time in the 2nd Embodiment of this invention. 本発明の第2の実施の形態におけるコメント情報・映像仮想時間DB111に蓄積されたコメント情報及び映像仮想時間の例である。It is an example of the comment information and video virtual time which were accumulate | stored in comment information and video virtual time DB111 in the 2nd Embodiment of this invention. 本発明の第2の実施の形態におけるコメント情報の取得方法を示す処理手順である。It is a processing procedure which shows the acquisition method of the comment information in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における特徴量要素列間の対応関係を表す模式図である。It is a schematic diagram showing the correspondence between the feature-value element strings in the 2nd Embodiment of this invention. 本発明の第2の実施の形態におけるコメント取得手段112内の処理ステップ19を示す模式図である。It is a schematic diagram which shows the process step 19 in the comment acquisition means 112 in the 2nd Embodiment of this invention. 本発明の第3の実施の形態における映像識別子の例である。It is an example of the video identifier in the 3rd Embodiment of this invention. 本発明の第3の実施の形態におけるコメント情報・映像仮想時間DB111に蓄積されたコメント情報及び映像仮想時間の例である。It is an example of the comment information and video virtual time which were accumulate | stored in comment information and video virtual time DB111 in the 3rd Embodiment of this invention. 本発明の第3の実施の形態におけるコメント情報の取得方法を示す処理手順である。It is a processing procedure which shows the acquisition method of the comment information in the 3rd Embodiment of this invention. 本発明の第3の実施の形態における映像特徴量列の対応に曖昧性が存在する場合の例である。It is an example in case there exists ambiguity in the correspondence of the image | video feature-value sequence in the 3rd Embodiment of this invention.

符号の説明Explanation of symbols

1 クライアント装置
2 サーバ装置
101 映像蓄積手段
102 映像DB
103 映像取得手段、映像選択手段
104 映像識別子算出手段
105 同期箇所識別子算出手段
106 映像再生手段
107 映像時間指定手段
108 映像仮想時間算出手段
109 コメント情報入力手段
110 コメント情報・映像仮想時間蓄積手段
111 コメント情報・映像仮想時間DB
112 コメント情報取得手段
113 コメント情報表示手段
1 Client device 2 Server device 101 Video storage means 102 Video DB
103 video acquisition means, video selection means 104 video identifier calculation means 105 synchronization location identifier calculation means 106 video playback means 107 video time designation means 108 video virtual time calculation means 109 comment information input means 110 comment information / video virtual time storage means 111 comment Information / Video Virtual Time DB
112 Comment information acquisition means 113 Comment information display means

Claims (14)

ネットワーク上での映像に関するコミュニケーションにおいて、個々のユーザが保有する不特定の映像においても、同一の映像と判定される映像間でコメントを共有できる映像コメント入力・表示装置であって、
ユーザによって選択されたコミュニケーションを行う映像を取得する映像取得手段と、
取得した前記映像を特定するための映像識別子を算出する映像識別子算出手段と、
映像間の時間的な同期を取る同期箇所識別子を算出する同期箇所識別子算出手段と、
前記ユーザにより指定された視聴・コメントする映像上の時間(映像時間)を取得する映像時間指定手段と、
指定された前記映像時間を、前記映像識別子、前記同期箇所識別子を用いて相対時間として表現する映像仮想時間算出手段と、
ユーザにより入力されたコメントを取得するコメント情報入力手段と、
前記コメントと前記映像仮想時間算出手段で算出されたコメントが入力された映像仮想時間を関連付けてコメント情報・映像仮想時間データベースに蓄積するコメント情報・映像仮想時間蓄積手段と、
前記映像仮想時間を用いて、前記映像時間指定手順で取得した前記映像時間に関連するコメント情報を前記コメント情報・映像仮想時間データベースから取得するコメント情報取得手段と、
前記コメント情報取得手段で取得された前記コメント情報を表示手段に表示するコメント情報表示手段と、
を有することを特徴とする映像コメント入力・表示装置。
A video comment input / display device capable of sharing comments between videos determined to be the same video even in unspecified video held by individual users in communication related to video on a network,
Video acquisition means for acquiring video for performing communication selected by the user;
Video identifier calculating means for calculating a video identifier for identifying the acquired video;
Synchronization location identifier calculating means for calculating a synchronization location identifier for temporal synchronization between videos;
Video time designation means for obtaining a time (video time) on the video to be viewed / commented designated by the user;
Video virtual time calculating means for expressing the specified video time as relative time using the video identifier and the synchronization location identifier;
Comment information input means for obtaining a comment input by the user;
Comment information / video virtual time storage means for associating the comment with the video virtual time when the comment calculated by the video virtual time calculation means is input and storing it in the comment information / video virtual time database;
Comment information acquisition means for acquiring comment information related to the video time acquired in the video time specification procedure from the comment information / video virtual time database using the video virtual time;
Comment information display means for displaying the comment information acquired by the comment information acquisition means on a display means;
A video comment input / display device characterized by comprising:
前記同期箇所識別子算出手段は、
前記同期箇所識別子を算出する際に、映像特徴量を用いて同期箇所識別子を算出する請求項1記載の映像コメント入力・表示装置。
The synchronization location identifier calculating means includes
The video comment input / display device according to claim 1, wherein when calculating the synchronization location identifier, the synchronization location identifier is calculated using a video feature amount.
前記映像識別子算出手段は、
前記映像識別子を算出する際に、映像特徴量を用いる請求項1または2記載の映像コメント・表示装置。
The video identifier calculation means includes
The video comment / display device according to claim 1, wherein a video feature amount is used when calculating the video identifier.
前記コメント情報取得手段は、
前記コメント情報・映像仮想時間蓄積手段において、前記コメント情報・映像仮想時間データベースに蓄積されたコメント情報を併用して、前記コメント情報を取得する請求項1乃至3記載の映像コメント・表示装置。
The comment information acquisition means
4. The video comment / display device according to claim 1, wherein the comment information / video virtual time storage means acquires the comment information by using the comment information stored in the comment information / video virtual time database together.
ネットワーク上での映像に関するコミュニケーションにおいて、個々のユーザが保有する不特定の映像においても、同一の映像と判定される映像間でコメントを共有できる映像コメント入力・表示装置における映像コメント入力・表示方法であって、
ユーザによって選択されたコミュニケーションを行う映像を取得する映像取得手順と、
取得した前記映像を特定するための映像識別子を算出する映像識別子算出手順と、
映像間の時間的な同期を取る同期箇所識別子を算出する同期箇所識別子算出手順と、
前記ユーザにより指定された視聴・コメントする映像上の時間(映像時間)を取得する映像時間指定手順と、
指定された前記映像時間を、前記映像識別子、前記同期箇所識別子を用いて相対時間として表現する映像仮想時間算出手順と、
ユーザにより入力されたコメントを取得するコメント情報入力手順と、
前記コメントと前記映像仮想時間算出手順で算出された該コメントが入力された映像仮想時間を関連付けて記憶手段に蓄積するコメント情報・映像仮想時間蓄積手順と、
前記映像仮想時間を用いて、前記映像時間指定手順で取得した前記映像時間に関連するコメント情報を前記記憶手段から取得するコメント情報取得手順と、
前記コメント情報取得手順で取得された前記コメント情報を表示手段に表示するコメント情報表示手順と、
を行うことを特徴とする映像コメント入力・表示方法。
In video communication on the network, video comment input / display method in the video comment input / display device can share comments between videos determined as the same video even for unspecified video held by individual users There,
A video acquisition procedure for acquiring video for communication selected by the user;
A video identifier calculation procedure for calculating a video identifier for specifying the acquired video;
A synchronization part identifier calculation procedure for calculating a synchronization part identifier for temporal synchronization between videos;
A video time designation procedure for obtaining a time (video time) on the video to be viewed / commented designated by the user;
Video virtual time calculation procedure for expressing the specified video time as relative time using the video identifier and the synchronization location identifier;
Comment information input procedure for obtaining comments input by the user,
Comment information / video virtual time storage procedure for associating the comment with the video virtual time in which the comment calculated in the video virtual time calculation procedure is input and storing it in a storage unit;
Comment information acquisition procedure for acquiring comment information related to the video time acquired in the video time specification procedure from the storage means using the video virtual time;
Comment information display procedure for displaying on the display means the comment information acquired in the comment information acquisition procedure;
A video comment input / display method characterized by:
前記同期箇所識別子算出手順において、
前記同期箇所識別子を算出する際に、映像特徴量を用いて同期箇所識別子を算出する請求項5記載の映像コメント入力・表示方法。
In the synchronization location identifier calculation procedure,
The video comment input / display method according to claim 5, wherein when calculating the synchronization location identifier, the synchronization location identifier is calculated using a video feature amount.
前記映像識別子算出手順において、
前記映像識別子を算出する際に、映像特徴量を用いる請求項5または6記載の映像コメント・表示方法。
In the video identifier calculation procedure,
The video comment / display method according to claim 5 or 6, wherein a video feature amount is used when calculating the video identifier.
前記コメント情報取得手順において、
前記コメント情報・映像仮想時間蓄積手順において、前記記憶手段に蓄積されたコメント情報を併用して、前記コメント情報を取得する請求項5乃至7記載の映像コメント・表示方法。
In the comment information acquisition procedure,
8. The video comment / display method according to claim 5, wherein, in the comment information / video virtual time storage procedure, the comment information is acquired by using the comment information stored in the storage means together.
ネットワーク上での映像に関するコミュニケーションにおいて、個々のユーザが保有する不特定の映像においても、同一の映像と判定される映像間でコメントを共有できるサーバ装置とクライアント装置からなる映像コメント入力・表示システムであって、
前記クライアント装置は、
ユーザによって選択されたコミュニケーションを行う映像を取得する映像取得手段と、
取得した前記映像を特定するための映像識別子を算出する映像識別子算出手段と、
映像間の時間的な同期を取る同期箇所識別子を算出する同期箇所識別子算出手段と、
前記ユーザにより指定された視聴・コメントする映像上の時間(映像時間)を取得する映像時間指定手段と、
指定された前記映像時間を、前記映像識別子、前記同期箇所識別子を用いて相対時間として表現する映像仮想時間算出手段と、
ユーザにより入力されたコメントを取得するコメント情報入力手段と、
前記コメントと前記映像仮想時間算出手段で算出された該コメントが入力された映像仮想時間を関連付けて前記サーバ装置に送信するコメント情報・映像仮想時間転送手段と、
前記サーバ装置から受信したコメント情報を表示手段に表示するコメント情報表示手段と、を有し、
前記サーバ装置は、
前記クライアント装置から受信した前記コメントと該コメントが入力された映像仮想時間が関連付けられた情報を蓄積するコメント情報・映像仮想時間データベースと、
前記映像仮想時間を用いて、前記映像時間指定手順で取得した前記映像時間に関連するコメント情報を前記コメント情報・映像仮想時間データベースから取得し、前記クライアント装置に送信するコメント情報取得手段と、を有する、
ことを特徴とする映像コメント入力・表示システム。
In a video communication on a network, a video comment input / display system comprising a server device and a client device that can share comments between videos determined to be the same video, even for unspecified videos held by individual users. There,
The client device is
Video acquisition means for acquiring video for performing communication selected by the user;
Video identifier calculating means for calculating a video identifier for identifying the acquired video;
Synchronization location identifier calculating means for calculating a synchronization location identifier for temporal synchronization between videos;
Video time designation means for obtaining a time (video time) on the video to be viewed / commented designated by the user;
Video virtual time calculating means for expressing the specified video time as relative time using the video identifier and the synchronization location identifier;
Comment information input means for obtaining a comment input by the user;
Comment information / video virtual time transfer means for associating the comment with the video virtual time in which the comment calculated by the video virtual time calculation means is input and transmitting it to the server device;
Comment information display means for displaying the comment information received from the server device on a display means,
The server device
Comment information / video virtual time database for storing information associated with the comment received from the client device and the video virtual time when the comment is input;
Comment information acquisition means for acquiring comment information related to the video time acquired in the video time specifying procedure from the comment information / video virtual time database using the video virtual time, and transmitting the comment information to the client device. Have
A video comment input / display system characterized by this.
前記クライアント装置の前記同期箇所識別子算出手段は、
前記同期箇所識別子を算出する際に、映像特徴量を用いて同期箇所識別子を算出する請求項9記載の映像コメント入力・表示システム。
The synchronization part identifier calculating means of the client device is:
The video comment input / display system according to claim 9, wherein when the synchronization location identifier is calculated, the synchronization location identifier is calculated using a video feature amount.
前記クライアント装置の前記映像識別子算出手段は、
前記映像識別子を算出する際に、映像特徴量を用いる請求項9または10記載の映像コメント・表示システム。
The video identifier calculation means of the client device is
11. The video comment / display system according to claim 9 or 10, wherein a video feature amount is used when calculating the video identifier.
前記サーバ装置の前記コメント情報取得手段は、
前記コメント情報・映像仮想時間データベースに蓄積されたコメント情報を併用して、前記コメント情報を取得する請求項9記載の映像コメント・表示システム。
The comment information acquisition means of the server device is
The video comment / display system according to claim 9, wherein the comment information is acquired by using the comment information accumulated in the comment information / video virtual time database together.
ネットワーク上での映像に関するコミュニケーションにおいて、個々のユーザが保有する不特定の映像においても、同一の映像と判定される映像間でコメントを共有できる映像コメント入力・表示プログラムであって、
前記請求項5乃至8記載の映像コメント入力・表示方法を実現させるための処理をコンピュータに実行させることを特徴とする映像コメント入力・表示プログラム。
A video comment input / display program capable of sharing comments between videos determined to be the same video even in unspecified video held by individual users in communication on video on a network,
9. A video comment input / display program for causing a computer to execute processing for realizing the video comment input / display method according to claim 5.
ネットワーク上での映像に関するコミュニケーションにおいて、個々のユーザが保有する不特定の映像においても、同一の映像と判定される映像間でコメントを共有できる映像コメント入力・表示プログラムを格納した記憶媒体であって、
前記請求項5乃至8記載の映像コメント入力・表示方法を実現させるための処理をコンピュータに実行させるプログラムを格納したことを特徴とする映像コメント入力・表示プログラムを格納した記憶媒体。
A storage medium storing a video comment input / display program capable of sharing comments between videos determined to be the same video even in unspecified video held by individual users in communication related to video on a network. ,
9. A storage medium storing a video comment input / display program, wherein a program for causing a computer to execute processing for realizing the video comment input / display method according to claim 5 is stored.
JP2004347280A 2004-11-30 2004-11-30 Video comment input/display method and device, program, and storage medium with program stored Pending JP2006155384A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004347280A JP2006155384A (en) 2004-11-30 2004-11-30 Video comment input/display method and device, program, and storage medium with program stored

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004347280A JP2006155384A (en) 2004-11-30 2004-11-30 Video comment input/display method and device, program, and storage medium with program stored

Publications (1)

Publication Number Publication Date
JP2006155384A true JP2006155384A (en) 2006-06-15

Family

ID=36633585

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004347280A Pending JP2006155384A (en) 2004-11-30 2004-11-30 Video comment input/display method and device, program, and storage medium with program stored

Country Status (1)

Country Link
JP (1) JP2006155384A (en)

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070260677A1 (en) * 2006-03-17 2007-11-08 Viddler, Inc. Methods and systems for displaying videos with overlays and tags
JP2008084133A (en) * 2006-09-28 2008-04-10 Toshiba Corp Comment domain extraction apparatus, program, and comment domain extraction method
JP2008092015A (en) * 2006-09-29 2008-04-17 Nec Personal Products Co Ltd Image identification system
JP2008148071A (en) * 2006-12-11 2008-06-26 Dowango:Kk Display apparatus, comment displaying method, and program
WO2008155974A1 (en) * 2007-06-20 2008-12-24 Olympus Corporation Image extraction apparatus, image extraction program, and image extraction method
JP2009077443A (en) * 2006-12-11 2009-04-09 Dowango:Kk Comment distribution system, terminal device, comment distribution method, and program
JP2009105719A (en) * 2007-10-24 2009-05-14 Hitachi Ltd Video content viewing terminal
WO2009105486A3 (en) * 2008-02-19 2009-11-26 Google Inc. Annotating video intervals
WO2010017304A3 (en) * 2008-08-05 2010-05-14 Google Inc. Annotating media content items
JP2011061528A (en) * 2009-09-10 2011-03-24 Xing Inc Video information distribution system
JP4774461B2 (en) * 2006-12-22 2011-09-14 グーグル インコーポレイテッド Video annotation framework
US20110286716A1 (en) * 2010-01-21 2011-11-24 Alderson Ross Communication apparatus
US8132200B1 (en) 2009-03-30 2012-03-06 Google Inc. Intra-video ratings
US8181197B2 (en) 2008-02-06 2012-05-15 Google Inc. System and method for voting on popular video intervals
EP2056214A3 (en) * 2007-10-30 2013-03-20 LG Electronics Inc. Mobile terminals for sending and receiving additional information linked to time stamps in presented data.
US8433611B2 (en) 2007-06-27 2013-04-30 Google Inc. Selection of advertisements for placement with content
US8566353B2 (en) 2008-06-03 2013-10-22 Google Inc. Web-based system for collaborative generation of interactive videos
US8667532B2 (en) 2007-04-18 2014-03-04 Google Inc. Content recognition for targeting video advertisements
US8719865B2 (en) 2006-09-12 2014-05-06 Google Inc. Using viewing signals in targeted video advertising
US8826117B1 (en) 2009-03-25 2014-09-02 Google Inc. Web-based system for video editing
US8933987B2 (en) 2008-12-01 2015-01-13 Sharp Kabushiki Kaisha Content reproducing apparatus and recording medium for switching graphics and video images from 2D to 3D
US9064024B2 (en) 2007-08-21 2015-06-23 Google Inc. Bundle generation
US9152708B1 (en) 2009-12-14 2015-10-06 Google Inc. Target-video specific co-watched video clusters
JP2015211290A (en) * 2014-04-24 2015-11-24 株式会社ドワンゴ Candidate extraction apparatus, comment distribution system, candidate extraction method, and program
JP2016224687A (en) * 2015-05-29 2016-12-28 キヤノン株式会社 Video processing device, video processing method, and program
US9824372B1 (en) 2008-02-11 2017-11-21 Google Llc Associating advertisements with videos
US10140379B2 (en) 2014-10-27 2018-11-27 Chegg, Inc. Automated lecture deconstruction
CN109600634A (en) * 2018-12-21 2019-04-09 东莞市纽格力信息技术有限公司 A kind of DTV barrage output system, method and remote controler
CN113810759A (en) * 2021-09-15 2021-12-17 上海哔哩哔哩科技有限公司 Video frequency praise realization method and device
JP2022075668A (en) * 2021-02-23 2022-05-18 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Method for processing video, apparatus, device, and storage medium
CN117336519A (en) * 2023-11-30 2024-01-02 江西拓世智能科技股份有限公司 Method and device for synchronous live broadcasting in multi-live broadcasting room based on AI digital person

Cited By (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070260677A1 (en) * 2006-03-17 2007-11-08 Viddler, Inc. Methods and systems for displaying videos with overlays and tags
US8392821B2 (en) * 2006-03-17 2013-03-05 Viddler, Inc. Methods and systems for displaying videos with overlays and tags
US8719865B2 (en) 2006-09-12 2014-05-06 Google Inc. Using viewing signals in targeted video advertising
JP2008084133A (en) * 2006-09-28 2008-04-10 Toshiba Corp Comment domain extraction apparatus, program, and comment domain extraction method
JP4709112B2 (en) * 2006-09-29 2011-06-22 Necパーソナルプロダクツ株式会社 Video identification system
JP2008092015A (en) * 2006-09-29 2008-04-17 Nec Personal Products Co Ltd Image identification system
JP4734401B2 (en) * 2006-12-11 2011-07-27 株式会社ドワンゴ Comment distribution system, terminal device, comment distribution method, and program
JP4695583B2 (en) * 2006-12-11 2011-06-08 株式会社ドワンゴ Display device, comment display method, and program
JP2008148071A (en) * 2006-12-11 2008-06-26 Dowango:Kk Display apparatus, comment displaying method, and program
JP7488870B2 (en) 2006-12-11 2024-05-22 株式会社ドワンゴ Comment distribution system, terminal device, comment distribution method, and program
JP2011055545A (en) * 2006-12-11 2011-03-17 Dowango:Kk Display device, comment display method, and program
JP2011193535A (en) * 2006-12-11 2011-09-29 Dowango:Kk Comment distribution system, terminal device, comment distribution method, and program
JP2011087314A (en) * 2006-12-11 2011-04-28 Dowango:Kk Terminal device, display method, and program
JP2023015114A (en) * 2006-12-11 2023-01-31 株式会社ドワンゴ Comment distribution system, terminal device, comment distribution method, and program
JP2009077443A (en) * 2006-12-11 2009-04-09 Dowango:Kk Comment distribution system, terminal device, comment distribution method, and program
US11727201B2 (en) 2006-12-22 2023-08-15 Google Llc Annotation framework for video
JP4774461B2 (en) * 2006-12-22 2011-09-14 グーグル インコーポレイテッド Video annotation framework
US10261986B2 (en) 2006-12-22 2019-04-16 Google Llc Annotation framework for video
US9805012B2 (en) 2006-12-22 2017-10-31 Google Inc. Annotation framework for video
US10853562B2 (en) 2006-12-22 2020-12-01 Google Llc Annotation framework for video
US11423213B2 (en) 2006-12-22 2022-08-23 Google Llc Annotation framework for video
US8151182B2 (en) 2006-12-22 2012-04-03 Google Inc. Annotation framework for video
US8667532B2 (en) 2007-04-18 2014-03-04 Google Inc. Content recognition for targeting video advertisements
US8689251B1 (en) 2007-04-18 2014-04-01 Google Inc. Content recognition for targeting video advertisements
WO2008155974A1 (en) * 2007-06-20 2008-12-24 Olympus Corporation Image extraction apparatus, image extraction program, and image extraction method
JP2009005020A (en) * 2007-06-20 2009-01-08 Olympus Corp Image extracting apparatus, and image extracting program
US8433611B2 (en) 2007-06-27 2013-04-30 Google Inc. Selection of advertisements for placement with content
US9569523B2 (en) 2007-08-21 2017-02-14 Google Inc. Bundle generation
US9064024B2 (en) 2007-08-21 2015-06-23 Google Inc. Bundle generation
JP2009105719A (en) * 2007-10-24 2009-05-14 Hitachi Ltd Video content viewing terminal
US8611963B2 (en) 2007-10-30 2013-12-17 Lg Electronics Inc. Mobile terminal processing and transmitting information related to data play and playing data according to information
EP2056214A3 (en) * 2007-10-30 2013-03-20 LG Electronics Inc. Mobile terminals for sending and receiving additional information linked to time stamps in presented data.
US8181197B2 (en) 2008-02-06 2012-05-15 Google Inc. System and method for voting on popular video intervals
US9824372B1 (en) 2008-02-11 2017-11-21 Google Llc Associating advertisements with videos
US8112702B2 (en) 2008-02-19 2012-02-07 Google Inc. Annotating video intervals
WO2009105486A3 (en) * 2008-02-19 2009-11-26 Google Inc. Annotating video intervals
US9690768B2 (en) 2008-02-19 2017-06-27 Google Inc. Annotating video intervals
US8826357B2 (en) 2008-06-03 2014-09-02 Google Inc. Web-based system for generation of interactive games based on digital videos
US8566353B2 (en) 2008-06-03 2013-10-22 Google Inc. Web-based system for collaborative generation of interactive videos
US9684432B2 (en) 2008-06-03 2017-06-20 Google Inc. Web-based system for collaborative generation of interactive videos
WO2010017304A3 (en) * 2008-08-05 2010-05-14 Google Inc. Annotating media content items
US8933987B2 (en) 2008-12-01 2015-01-13 Sharp Kabushiki Kaisha Content reproducing apparatus and recording medium for switching graphics and video images from 2D to 3D
US8826117B1 (en) 2009-03-25 2014-09-02 Google Inc. Web-based system for video editing
US8132200B1 (en) 2009-03-30 2012-03-06 Google Inc. Intra-video ratings
JP2011061528A (en) * 2009-09-10 2011-03-24 Xing Inc Video information distribution system
US9152708B1 (en) 2009-12-14 2015-10-06 Google Inc. Target-video specific co-watched video clusters
US8655144B2 (en) * 2010-01-21 2014-02-18 Visual Investments International Ltd Communication apparatus
US20110286716A1 (en) * 2010-01-21 2011-11-24 Alderson Ross Communication apparatus
JP2015211290A (en) * 2014-04-24 2015-11-24 株式会社ドワンゴ Candidate extraction apparatus, comment distribution system, candidate extraction method, and program
US11797597B2 (en) 2014-10-27 2023-10-24 Chegg, Inc. Automated lecture deconstruction
US11151188B2 (en) 2014-10-27 2021-10-19 Chegg, Inc. Automated lecture deconstruction
US10140379B2 (en) 2014-10-27 2018-11-27 Chegg, Inc. Automated lecture deconstruction
JP2016224687A (en) * 2015-05-29 2016-12-28 キヤノン株式会社 Video processing device, video processing method, and program
CN109600634A (en) * 2018-12-21 2019-04-09 东莞市纽格力信息技术有限公司 A kind of DTV barrage output system, method and remote controler
JP2022075668A (en) * 2021-02-23 2022-05-18 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Method for processing video, apparatus, device, and storage medium
JP7355865B2 (en) 2021-02-23 2023-10-03 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Video processing methods, apparatus, devices and storage media
US12108120B2 (en) 2021-02-23 2024-10-01 Beijing Baidu Netcom Science Technology Co., Ltd. Method for processing video, device and storage medium
CN113810759A (en) * 2021-09-15 2021-12-17 上海哔哩哔哩科技有限公司 Video frequency praise realization method and device
CN113810759B (en) * 2021-09-15 2024-03-01 上海哔哩哔哩科技有限公司 Video praise realization method and device
CN117336519A (en) * 2023-11-30 2024-01-02 江西拓世智能科技股份有限公司 Method and device for synchronous live broadcasting in multi-live broadcasting room based on AI digital person
CN117336519B (en) * 2023-11-30 2024-04-26 江西拓世智能科技股份有限公司 Method and device for synchronous live broadcasting in multi-live broadcasting room based on AI digital person

Similar Documents

Publication Publication Date Title
JP2006155384A (en) Video comment input/display method and device, program, and storage medium with program stored
US20210382929A1 (en) Multimedia content tags
US10714145B2 (en) Systems and methods to associate multimedia tags with user comments and generate user modifiable snippets around a tag time for efficient storage and sharing of tagged items
US9613143B2 (en) System and method for generating media bookmarks
US10192583B2 (en) Video editing using contextual data and content discovery using clusters
US7181757B1 (en) Video summary description scheme and method and system of video summary description data generation for efficient overview and browsing
US20050273812A1 (en) User profile editing apparatus, method and program
US20020108112A1 (en) System and method for thematically analyzing and annotating an audio-visual sequence
US20160171003A1 (en) An apparatus of providing comments and statistical information for each section of video contents and the method thereof
JP2008005010A (en) Motion picture editing method
BR112016006860B1 (en) APPARATUS AND METHOD FOR CREATING A SINGLE DATA FLOW OF COMBINED INFORMATION FOR RENDERING ON A CUSTOMER COMPUTING DEVICE
WO2003088665A1 (en) Meta data edition device, meta data reproduction device, meta data distribution device, meta data search device, meta data reproduction condition setting device, and meta data distribution method
JP2001028722A (en) Moving picture management device and moving picture management system
CA2387404A1 (en) Video summary description scheme and method and system of video summary description data generation for efficient overview and browsing
CN110046263B (en) Multimedia recommendation method, device, server and storage medium
JP2013536969A (en) Method and apparatus for providing community-based metadata
JP4476786B2 (en) Search device
JPWO2008136466A1 (en) Movie editing device
JP4513667B2 (en) VIDEO INFORMATION INPUT / DISPLAY METHOD AND DEVICE, PROGRAM, AND STORAGE MEDIUM CONTAINING PROGRAM
KR101328270B1 (en) Annotation method and augmenting video process in video stream for smart tv contents and system thereof
JP4331706B2 (en) Editing apparatus and editing method
US8971686B2 (en) Method and apparatus for managing digital contents and method and apparatus for executing digital contents according to playback positions
JP2014130536A (en) Information management device, server, and control method
TWI497959B (en) Scene extraction and playback system, method and its recording media

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090310

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090707