JP2007174477A - Object-related automatic display system in video reproduction system, player device and server device used for display system - Google Patents

Object-related automatic display system in video reproduction system, player device and server device used for display system Download PDF

Info

Publication number
JP2007174477A
JP2007174477A JP2005371756A JP2005371756A JP2007174477A JP 2007174477 A JP2007174477 A JP 2007174477A JP 2005371756 A JP2005371756 A JP 2005371756A JP 2005371756 A JP2005371756 A JP 2005371756A JP 2007174477 A JP2007174477 A JP 2007174477A
Authority
JP
Japan
Prior art keywords
video
information
metadata
unit
trajectory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005371756A
Other languages
Japanese (ja)
Other versions
JP2007174477A5 (en
Inventor
Hideki Sogabe
秀樹 曽我部
Yukio Adachi
幸雄 安立
Tomohito Tanizawa
智史 谷沢
Naoyuki Okamoto
直之 岡本
Takashi Taniguchi
貴志 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ASV KK
Original Assignee
ASV KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ASV KK filed Critical ASV KK
Priority to JP2005371756A priority Critical patent/JP2007174477A/en
Publication of JP2007174477A publication Critical patent/JP2007174477A/en
Publication of JP2007174477A5 publication Critical patent/JP2007174477A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an object-related automatic display system in a video reproduction system in which a motion picture can be reproduced in a manner to be comprehended easily for a user by automatically displaying a relational diagram of an object being displayed in a video image at present by the side of the video image or the like synchronously with video streaming. <P>SOLUTION: A player device 3a fetches a video image from a content server device 1b and simultaneously acquires the relation information of an object corresponding to that video image and track information from a metadata management server device 1a. The relational diagram of the object appearing in the acquired video image is also automatically displayed on a display device 11a together with the video image. The relational diagram displays a relationship between objects with pictures, characters, symbols and so on and enables the user to easily grasp the video image. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、再生映像に同期して映像内容に関連した情報(メタデータ)を動的に表示できるようにしたプレイヤ機能およびサーバ機能を備える映像再生システム、さらに詳しくいえば、プレイヤ装置の表示装置に表示される映像を、動画とともに現在表示されている動画に関連したオブジェクト(キャラクタ,アイテム,BGMなど)の関係図を同時に自動的に表示する方式に関する。   The present invention relates to a video playback system having a player function and a server function that can dynamically display information (metadata) related to video content in synchronization with a playback video, and more specifically, a display device of a player device. The method of automatically displaying a relational diagram of objects (characters, items, BGM, etc.) related to the currently displayed moving image together with the moving image.

静止画の再生については、そのファイル内に静止画に関する情報が付加され、ユーザの操作にしたがってその静止画のプロパティ情報や説明文を画面上に表示されるものが実施されている。この付加情報によりユーザは撮影した風景や人物などの写真などについて、より詳しい情報を得ることが可能である。
映像(動画)の再生については、再生映像に関連する情報(メタデータ)が付加され、映像再生にともない種々の利用形態が提案されている。
For reproduction of still images, information relating to still images is added to the file, and property information and explanatory text of the still images are displayed on the screen in accordance with user operations. With this additional information, the user can obtain more detailed information about a photograph of a photographed landscape or person.
Regarding the reproduction of video (moving image), information (metadata) related to the reproduced video is added, and various usage forms have been proposed along with video reproduction.

上記利用形態の1つとしてコンテンツ保存部分から映像コンテンツを受けて記録再生装置で再生し、ネットワークを介して多数の情報処理装置に配信する情報処理システムが提案されている(特許文献1)。これはメタデータの利用形態の一例を開示するものであり、ユーザは放送局,ネット放送局やユーザ自身が取得したコンテンツ記録媒体からコンテンツを取得し、取得したコンテンツを特定するための識別情報とともに記録再生装置の内部記録媒体などに記録するとともに再生するシステムである。記録再生装置はユーザの指示に基づき必要に応じてネットワークを介して検索サーバに接続し、コンテンツの特定シーンに登場するオブジェクトに関連する関連情報を含むメタデータの取得要求を行い、メタデータを取得する。そして取得したメタデータに基づき必要に応じてネットワークを介してWEBサーバからコンテンツの特定シーンに含まれるオブジェクトに関するさらに詳細な情報を取得する技術が開示されている。   As one of the above-mentioned usage forms, an information processing system has been proposed in which video content is received from a content storage portion, played back by a recording / playback device, and distributed to a number of information processing devices via a network (Patent Document 1). This is to disclose an example of the usage form of metadata, and a user acquires content from a broadcast station, a net broadcast station, or a content recording medium acquired by the user himself, and identification information for specifying the acquired content. This is a system for recording and reproducing on an internal recording medium of a recording / reproducing apparatus. Based on the user's instructions, the recording / playback device connects to the search server via the network as necessary, and makes a metadata acquisition request including related information related to the object appearing in the specific scene of the content, and acquires the metadata. To do. A technique for acquiring more detailed information about an object included in a specific scene of content from a WEB server via a network as needed based on the acquired metadata is disclosed.

この技術により従前に比較しコンテンツの特定シーンに含まれるオブジェクトの関連情報をより多くのユーザに提供する目的を達成している。   This technique achieves an object of providing related information of objects included in a specific scene of content to more users than before.

ところで、特許文献1は再生画面についてメタデータをどのように表示させるかの開示はない。例えば、再生されている映像のある場面についてユーザが操作した場合、それに関連するメタデータが、再生されている映像に対しどのような位置に、どのようなタイミングで表示され、その表示内容がどのような形で表示されるかは不明である。
特開2004−272490号公報
By the way, Patent Document 1 does not disclose how metadata is displayed on the playback screen. For example, when a user operates a scene of a video that is being played back, the related metadata is displayed at what position and at what timing with respect to the video that is being played back, It is unclear whether it will be displayed in such a form.
JP 2004-272490 A

一般にドラマやアニメーションなどの映像において、登場する人物が非常に多く次からつぎへと出現し、高速に移動し消えていく場合などにはユーザはその内容(登場人物の関係や名前,いまどのように状態にあるかなど)を理解するのは容易ではない。
かかる場合に、画像表示画面において、再生画像と同期して画面の一部に再生画像に登場するオブジェクト(キャラクタ,アイテム,BGMなど)に対し、その関係や現況を示す関係図を表示できれば、上記問題を解決することが可能であると考えられる。
本発明は上記状況に鑑みなしたもので、その目的は、映像の流れと同期して現在映像に表示されているオブジェクトの関係図を映像の脇などに自動的に表示することによりユーザにとって判り易い動画再生を行うことができる映像再生システムにおけるオブジェクト関連自動表示方式を提供することにある。
本発明の他の目的は、上記オブジェクト関連自動表示方式に用いられる映像を再生するプレイヤ装置および映像に関連するメタデータを供給するサーバ装置を提供することにある。
In general, in a video such as a drama or animation, when a large number of characters appear from one to the next and move and disappear at high speed, the user (such as the relationship and name of the character, how the character appears) It ’s not easy to understand.
In such a case, on the image display screen, if a relationship diagram showing the relationship and current status can be displayed for an object (character, item, BGM, etc.) appearing in the playback image in a part of the screen in synchronization with the playback image, It seems possible to solve the problem.
The present invention has been made in view of the above situation, and the purpose of the present invention can be understood by the user by automatically displaying a relationship diagram of objects currently displayed on the video on the side of the video in synchronization with the flow of the video. It is an object to provide an object-related automatic display method in a video playback system that can easily perform video playback.
Another object of the present invention is to provide a player device that reproduces video used in the object-related automatic display method and a server device that supplies metadata related to the video.

前記目的を達成するために本発明の請求項1は、映像コンテンツと該映像コンテンツの各映像に対応するメタデータを有し、映像の再生に伴い映像とメタデータを表示装置に表示する映像再生システムであって、映像を描画する映像描画手段と、前記映像に関係するメタデータを構成する関係情報より、映像に現れるオブジェクト間の関係を示す関係図を作成する関係図作成描画手段と、前記映像描画手段および前記関係図作成描画手段の描画データを合成する合成処理手段とを備え、前記表示装置に表示される動画に同期して該動画表示領域とは異なる表示位置または映像に一部重複するようにオブジェクトの関係図を表示することを特徴とする。
本発明の請求項2は、映像を供給するコンテンツ供給装置,映像を再生するプレイヤ装置および各映像に対応するメタデータをプレイヤ装置からの要求に応じて配信するサーバ装置とからなる映像再生システムであって、前記プレイヤ装置は、映像を描画する映像描画手段と、前記映像に関係するメタデータを前記サーバ装置に要求し、該サーバ装置から送られてくるメタデータを構成する関係情報より、映像に現れるオブジェクト間の関係を示す関係図を作成する関係図作成描画手段と、前記映像描画手段および前記関係図作成描画手段の描画データを合成する合成処理手段とを備え、プレイヤ装置の表示装置に表示される動画に同期して該動画表示領域とは異なる表示位置または映像に一部重複するようにオブジェクトの関係図を表示することを特徴とする。
本発明の請求項3は、請求項1または2記載の発明において前記メタデータを構成するオブジェクト軌跡情報より、映像に現れる各オブジェクトの軌跡を作成して描画するオブジェクト軌跡作成描画手段を有し、映像に該オブジェクト軌跡をオーバレイ表示することを特徴とする。
本発明の請求項4は、請求項1,2または3記載の発明において前記メタデータは少なくとも映像の1フレーム単位でオブジェクトの関係図と軌跡情報とを備えることを特徴とする。
本発明の請求項5は、請求項1,2,3または4記載の発明において前記オブジェクトの関係図は、オブジェクト毎に、オブジェクトを意味する文字を囲むように領域を形成してノードとなし、該ノード間は線分で引いて関係付け、該線分の近辺にノードの関係を文字で表示したことを特徴とする。
本発明の請求項6は、請求項3,4または5記載の発明において前記映像描画手段,前記関係図作成描画手段および前記オブジェクト軌跡作成描画手段はフレームバッファでそれぞれ構成され、各フレームバッファにそれぞれのイメージを表現するビットを書き込むことにより各描画を作成することを特徴とする。
本発明の請求項7は、請求項2記載の発明において前記プレイヤ装置は、メタデータ記憶手段とメタデータ合成手段を有し、前記メタデータ合成手段は、オブジェクトの関係情報と軌跡情報とを構成する知識情報が供給された場合、前記メタデータが前記メタデータ記憶手段に存在しない場合は供給されたオブジェクトの関係情報または軌跡情報を記憶させることによりメタデータを合成し、前記合成したメタデータ中のオブジェクトの関係情報を前記関係図作成描画手段に、前記合成したメタデータ中のオブジェクト軌跡情報を前記オブジェクト軌跡作成描画手段にそれぞれ渡すことを特徴とする。
本発明の請求項8は、請求項1乃至6の何れか1つの発明において前記映像と該映像に対応するオブジェクトの関係図は同期してそれぞれ異なる表示装置に表示することを特徴とする。
本発明の請求項9は、映像再生システムに用いられるプレイヤ装置であって、該プレイヤ装置は、映像を描画する映像描画手段と、前記映像に関係するメタデータをサーバ装置に要求し、該サーバ装置から送られてくるメタデータを構成する関係情報より、映像に現れるオブジェクト間の関係を示す関係図を作成する関係図作成描画手段と、前記映像描画手段および前記関係図作成描画手段の描画データを合成する合成処理手段とを備えたことを特徴とする。
本発明の請求項10は、請求項9記載の発明において前記サーバ装置から送られてくるメタデータを構成するオブジェクト軌跡情報より、映像に現れる各オブジェクトの軌跡を作成して描画するオブジェクト軌跡作成描画手段を有することを特徴とする。
本発明の請求項11は、請求項2記載の発明において前記映像再生システムに用いられるサーバ装置であって、該サーバ装置は、前記プレイヤ装置とはネットワークを介して、または直接接続され、プレイヤ装置からの要求に応じて映像対応のメタデータを供給することを特徴とする。
本発明の請求項12は、請求項11記載の発明において前記サーバ装置は、前記データベースを有し、前記データベースよりオブジェクト関係情報を検索するオブジェクト情報検索手段と、前記データベースよりオブジックト軌跡情報を検索するオブジェクト軌跡情報検索手段と、前記オブジェクト検索情報をXML形式に変換して前記プレイヤ装置に供給することを特徴とする。
In order to achieve the above object, claim 1 of the present invention provides video playback having video content and metadata corresponding to each video of the video content, and displaying the video and metadata on a display device as the video is played back. A system for drawing a video, a relationship drawing creation / drawing unit for creating a relationship diagram showing a relationship between objects appearing in a video from relationship information constituting metadata related to the video, Synthesizing drawing data of the image drawing means and the relation drawing creation drawing means, and partially overlaps with a display position or video different from the moving image display area in synchronization with the moving image displayed on the display device In this way, a relationship diagram of objects is displayed.
Claim 2 of the present invention is a video reproduction system comprising a content supply device for supplying video, a player device for reproducing video, and a server device for distributing metadata corresponding to each video in response to a request from the player device. The player device requests video rendering means for rendering a video and metadata related to the video to the server device, and from the relation information constituting the metadata sent from the server device, A display device of a player device, comprising: a relationship diagram creation / drawing means for creating a relationship diagram showing a relationship between objects appearing on the display; and a composition processing means for synthesizing drawing data of the video drawing means and the relationship diagram creation / drawing means. In synchronization with the displayed video, the object relationship diagram is displayed so that it partially overlaps the display position or video different from the video display area. It is characterized in.
Claim 3 of the present invention has object trajectory creation / drawing means for creating and drawing a trajectory of each object appearing in the video from the object trajectory information constituting the metadata in the invention of claim 1 or 2, The object trajectory is overlaid on the video.
According to a fourth aspect of the present invention, in the first, second, or third aspect, the metadata includes at least one object relation diagram and trajectory information for each frame of video.
According to a fifth aspect of the present invention, in the invention according to the first, second, third, or fourth aspect, the object relation diagram is formed as a node by forming an area so as to surround a character meaning the object for each object, The nodes are related by drawing with line segments, and the relationship between the nodes is displayed by characters in the vicinity of the line segments.
According to a sixth aspect of the present invention, in the invention according to the third, fourth, or fifth aspect, the image drawing means, the relationship diagram creating / drawing means, and the object locus creating / drawing means are each configured by a frame buffer, and each frame buffer has Each drawing is created by writing a bit representing the image.
According to a seventh aspect of the present invention, in the invention according to the second aspect, the player device includes a metadata storage unit and a metadata synthesis unit, and the metadata synthesis unit configures object relation information and trajectory information. When knowledge information to be supplied is supplied, if the metadata does not exist in the metadata storage means, metadata is stored by storing relationship information or trajectory information of the supplied object, and in the combined metadata The object relation information is passed to the relation diagram creation / drawing means, and the object locus information in the synthesized metadata is passed to the object locus creation / drawing means.
An eighth aspect of the present invention is characterized in that, in any one of the first to sixth aspects, the relationship diagram between the video and the object corresponding to the video is displayed on different display devices in synchronization.
Claim 9 of the present invention is a player device used in a video reproduction system, wherein the player device requests video rendering means for rendering a video and metadata relating to the video to the server device, and the server Relationship diagram creation / drawing means for creating a relationship diagram showing a relationship between objects appearing in a video based on relation information constituting metadata sent from the apparatus, and drawing data of the video drawing means and the relationship diagram creation / drawing means And a synthesis processing means for synthesizing.
According to a tenth aspect of the present invention, in the ninth aspect of the invention, an object trajectory creation / drawing is performed in which a trajectory of each object appearing in the video is created and drawn from the object trajectory information constituting the metadata sent from the server device. It has the means.
An eleventh aspect of the present invention is a server device used in the video reproduction system according to the second aspect of the present invention, wherein the server device is connected to the player device via a network or directly, and the player device. It is characterized in that video-compatible metadata is supplied in response to a request from.
According to a twelfth aspect of the present invention, in the invention according to the eleventh aspect, the server device has the database, and retrieves object-related information from the database, and retrieves object trajectory information from the database. Object trajectory information search means and the object search information are converted into XML format and supplied to the player device.

上記構成によれば、動画に同期して同一表示画面などに動画に登場するキャラクタ,アイテムなどのオブジェクトの間の関係や状態を関係図として自動的に表示するため、ユーザは動画の各場面で、主体キャラクタがどのような状態にあるかを容易に判断でき、例えばドラマであれば、その内容の推移について各画面毎に理解を深めることが可能となる。   According to the above configuration, since the relationship and state between objects such as characters and items appearing on the moving image are automatically displayed as a relationship diagram on the same display screen in synchronization with the moving image, the user can Thus, it is possible to easily determine the state of the main character. For example, in the case of a drama, it is possible to deepen understanding of the transition of the contents for each screen.

以下、図面を参照して本発明の実施の形態を詳しく説明する。
図1は、本発明による映像再生システムにおけるオブジェクト関連自動表示方式を説明するためのシステム概略図である。
ネットワーク2を介して多数のプレイヤ装置3a〜3nがサーバ装置1にアクセスして映像および映像に関連するメタデータを取得することができる。プレイヤ装置3a〜3nは操作部5a〜5nの操作により、映像コンテンツをコンテンツサーバ装置1bからダウンロードすることができ、ダウンロードした映像コンテンツを表示装置11a〜11nに動画を表示することができる。表示装置11a〜11nに表示される各映像コンテンツに対し、メタデータ管理サーバ装置1aにメタデータを要求し、そのメタデータによって表示装置11a〜11nの画面に動画を表示するとともにその動画に同期して動画に登場するオブジェクトの関係図を表示することができる。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a system schematic diagram for explaining an object-related automatic display method in a video reproduction system according to the present invention.
A large number of player devices 3 a to 3 n can access the server device 1 via the network 2 to obtain video and metadata related to the video. The player devices 3a to 3n can download video content from the content server device 1b by operating the operation units 5a to 5n, and can display the downloaded video content on the display devices 11a to 11n. For each video content displayed on the display devices 11a to 11n, the metadata is requested from the metadata management server device 1a, and a moving image is displayed on the screens of the display devices 11a to 11n by the metadata and is synchronized with the moving image. The relationship diagram of the objects appearing in the video can be displayed.

メタデータ管理サーバ装置1aが配信するメタデータはオーサリング装置4によって作成することができ、各映像コンテンツに対応した適切なメタデータに更新することも可能である。
コンテンツサーバ装置1bはドラマなどの各映像コンテンツを多数蓄積しているHDDなどからなるデータベースを有し、プレイヤ装置3a〜3nの要求に沿った映像コンテンツを提供することができる。コンテンツサーバ装置1bは、プレイヤ装置3a〜3nに映像コンテンツを提供するものであるので、プレイヤ装置3a〜3nに直接接続できる記憶媒体の中に蓄積しても良いし、また、プレイヤ装置3a〜3nにDVDのディスクデッキや大容量の半導体メモリ装置を内蔵させてディスク,半導体メモリより読み出して映像コンテンツを得ることも可能である。
サーバ装置1とプレイヤ装置3a〜3nの接続はネットワークを介さずに直接接続することも可能である。
The metadata distributed by the metadata management server device 1a can be created by the authoring device 4, and can be updated to appropriate metadata corresponding to each video content.
The content server device 1b has a database including an HDD or the like that stores a large number of video contents such as dramas, and can provide video content in accordance with the requests of the player devices 3a to 3n. Since the content server device 1b provides video content to the player devices 3a to 3n, it may be stored in a storage medium that can be directly connected to the player devices 3a to 3n, or the player devices 3a to 3n. In addition, a DVD disk deck or a large-capacity semiconductor memory device can be built in and read from the disk or semiconductor memory to obtain video content.
The server device 1 and the player devices 3a to 3n can be connected directly without going through a network.

図2は、本発明に用いられるプレイヤ装置の物理的構成の実施の形態を示すブロック図である。
プレイヤ装置3a〜3nはプレイヤ制御回路8,タイマ7,入力処理部6,メモリ部9,画像処理部10およびネットワーク通信部12を備えている。
プレイヤ制御回路8はプレイヤ装置全体の制御を司る他、制御部8a,映像制御部8b,オブジェクト軌跡ヒット判定部(キー選択矩形)8c,オブジェクト軌跡ヒット判定部(マウス座標)8d,メタデータ解析部8eおよびメタデータ合成部8fの各機能部を有している。メモリ部9はサーバ装置1から取得したメタデータを記憶するメタデータ記憶部9aおよびユーザが操作部5の操作により選択した情報を記憶する選択情報記憶部9bの各領域を備えている他、プレイヤ装置3a〜3nの制御に必要なデータの格納領域を有している。
FIG. 2 is a block diagram showing an embodiment of a physical configuration of the player device used in the present invention.
The player devices 3a to 3n include a player control circuit 8, a timer 7, an input processing unit 6, a memory unit 9, an image processing unit 10, and a network communication unit 12.
The player control circuit 8 controls the entire player device, and also includes a control unit 8a, a video control unit 8b, an object locus hit determination unit (key selection rectangle) 8c, an object locus hit determination unit (mouse coordinates) 8d, and a metadata analysis unit. 8e and the metadata composition unit 8f. The memory unit 9 includes areas of a metadata storage unit 9a for storing metadata acquired from the server device 1 and a selection information storage unit 9b for storing information selected by the user through the operation of the operation unit 5. It has a storage area for data necessary for controlling the devices 3a to 3n.

画像処理部10は取得した映像を描画する映像描画部10a,グリッド選択領域を描くグリッド選択領域描画部10b,動画を表示する画面の他の部分に関係図を描画する関係図描画部10c,動画のオブジェクトの軌跡を描くオブジェクト軌跡描画部10dおよび合成処理部10eより構成されている。関係図を作成して描画する関係図作成描画手段はメタデータ合成部8f,メタデータ記憶部9aおよび関係図描画部10cなどの連携により実現される。また、動画のオブジェクトの軌跡を作成して描画するオブジェクト軌跡作成描画手段は、同様にメタデータ合成部8f,メタデータ記憶部9aおよびオブジェクト軌跡描画部10dなどの連携により実現される。   The image processing unit 10 includes a video drawing unit 10a that draws the acquired video, a grid selection region drawing unit 10b that draws a grid selection region, a relationship diagram drawing unit 10c that draws a relationship diagram on another part of the screen that displays a moving image, and a moving image. The object locus drawing unit 10d for drawing the locus of the object and the composition processing unit 10e are configured. The relationship diagram creation / drawing means for creating and drawing the relationship diagram is realized by cooperation of the metadata composition unit 8f, the metadata storage unit 9a, the relationship diagram drawing unit 10c, and the like. Similarly, object trajectory creation / drawing means for creating and drawing a trajectory of a moving image object is realized by cooperation of the metadata composition unit 8f, the metadata storage unit 9a, the object trajectory drawing unit 10d, and the like.

図3は、本発明に用いられるサーバ装置の物理的構成の実施の形態を示すブロック図である。
サーバ装置1は、ネットワーク通信部21,サーバ制御回路22,データベース制御部24,メモリ部25,入力制御部27および画像処理部28より構成されている。
サーバ制御回路22は、サーバ装置全体の制御を司る他、パラメータ解析部22a,画像情報解析部22b,オブジェクト情報検索部22c,オブジェクト軌跡情報検索部22d,オブジェクト領域衝突判定部22e,応答出力生成部22fおよびXML変換部22gの各機能部を有している。
FIG. 3 is a block diagram showing an embodiment of a physical configuration of a server device used in the present invention.
The server device 1 includes a network communication unit 21, a server control circuit 22, a database control unit 24, a memory unit 25, an input control unit 27, and an image processing unit 28.
The server control circuit 22 controls the entire server device, and also includes a parameter analysis unit 22a, an image information analysis unit 22b, an object information search unit 22c, an object trajectory information search unit 22d, an object area collision determination unit 22e, and a response output generation unit. 22f and an XML conversion unit 22g.

ネットワーク通信部21は、出力部21a,ネットワークインタフェース21bおよび入力部21cを備えている。
データベース23は映像コンテンツを格納する動画データ記憶部23aおよび映像コンテンツのメタデータを記憶するメタデータ記憶部23bの記憶領域を有している。このデータベース23は動画も記憶されており、サーバ装置1はコンテンツサーバ装置1bの機能を兼ねるものである。
画像処理部28には表示装置29が、入力制御部27には操作装置26がそれぞれ接続されており、サーバ装置1に対しデータを操作装置26より入力してサーバ装置を制御し、その結果などを画像処理部28を介して表示装置29で表示できるようになっている。メモリ部25はその処理の際に用いられるRAMなどである。これら入出力を構成する装置部分は図1に示されているオーサリング装置4とは別にサーバ装置1を調整するためのものである。
The network communication unit 21 includes an output unit 21a, a network interface 21b, and an input unit 21c.
The database 23 includes storage areas for a moving image data storage unit 23a for storing video content and a metadata storage unit 23b for storing metadata of the video content. The database 23 also stores moving images, and the server device 1 also functions as the content server device 1b.
A display device 29 is connected to the image processing unit 28, and an operation device 26 is connected to the input control unit 27. Data is input to the server device 1 from the operation device 26 to control the server device. Can be displayed on the display device 29 via the image processing unit 28. The memory unit 25 is a RAM or the like used for the processing. These device parts constituting the input / output are for adjusting the server device 1 separately from the authoring device 4 shown in FIG.

つぎに本発明による映像再生システムの各機能部間の信号の送受および扱われるデータ構造について説明する。
図4は、プレイヤ装置とサーバ装置における各機能部の情報送受の関係を判り易くするために示したものである。
入力処理部6からの操作などの入力信号は制御部8aに供給され、制御部8aの出力は映像制御部8b,オブジェクト軌跡ヒット判定部(キー選択矩形)8cまたはオブジェクト軌跡ヒット判定部(マウス座標)8dに入力する。タイマ7の出力は映像制御部8bおよびネットワーク通信部12に供給される。選択情報記憶部9bはオブジェクト軌跡ヒット判定部(キー選択矩形)8cが選択領域とオブジェクト軌跡がヒットするか否かのために用いる選択情報を記憶するためのものである。メタデータ記憶部9aはオブジェクト軌跡ヒット判定部(キー選択矩形)8c,オブジェクト軌跡ヒット判定部(マウス座標)8dおよびメタデータ合成部8fによって使用される。ネットワーク通信部12はオブジェクト軌跡ヒット判定部(キー選択矩形)8c,オブジェクト軌跡ヒット判定部(マウス座標)8dおよびタイマ7からの出力に基づき軌跡ヒット判定をサーバ装置のネットワークインタフェース21bに送信する。また、サーバ装置から受けた情報はメタデータ解析部8eで解析されメタデータ合成部8fに送られる。映像描画部10aは映像制御部8bからの動画情報を入力し、グリッド選択領域描画部10bはオブジェクト軌跡ヒット判定部(キー選択矩形)8cからのグリッド情報を入力する。また、関係図描画部10cおよびオブジェクト軌跡描画部10dはメタデータ合成部8fからのメタデータを入力してそれぞれの描画情報を作成して合成処理部10eに渡す。合成処理部10eは表示装置が接続されていて動画およびその関係図が表示される。
Next, transmission / reception of signals between the functional units of the video reproduction system according to the present invention and data structures handled will be described.
FIG. 4 shows the information transmission / reception relationship between the function units of the player device and the server device for easy understanding.
An input signal such as an operation from the input processing unit 6 is supplied to the control unit 8a, and the output of the control unit 8a is an image control unit 8b, an object locus hit determination unit (key selection rectangle) 8c or an object locus hit determination unit (mouse coordinates). ) Input to 8d. The output of the timer 7 is supplied to the video control unit 8b and the network communication unit 12. The selection information storage unit 9b is for storing selection information used by the object locus hit determination unit (key selection rectangle) 8c for determining whether or not the selection region and the object locus are hit. The metadata storage unit 9a is used by the object locus hit determination unit (key selection rectangle) 8c, the object locus hit determination unit (mouse coordinates) 8d, and the metadata composition unit 8f. The network communication unit 12 transmits a trajectory hit determination to the network interface 21b of the server device based on outputs from the object trajectory hit determination unit (key selection rectangle) 8c, the object trajectory hit determination unit (mouse coordinates) 8d, and the timer 7. The information received from the server device is analyzed by the metadata analysis unit 8e and sent to the metadata synthesis unit 8f. The video drawing unit 10a inputs the moving image information from the video control unit 8b, and the grid selection area drawing unit 10b inputs the grid information from the object locus hit determination unit (key selection rectangle) 8c. Further, the relationship diagram drawing unit 10c and the object trajectory drawing unit 10d receive the metadata from the metadata synthesis unit 8f, create respective drawing information, and pass it to the synthesis processing unit 10e. The composition processing unit 10e is connected to a display device and displays a moving image and a related diagram thereof.

サーバ装置においてネットワークインタフェース21bはネットワーク通信部12との情報の受け渡しを行い,受けた信号を入力部21cを介してパラメータ解析部22aに送る。パラメータ解析部22aは受けた情報を解析した結果、解析内容に従って画像情報解析部22b,オブジェクト情報検索部22cまたはオブジェクト軌跡情報検索部22dに各情報を送る。画素情報解析部22bは画素情報にしたがって動画データ記憶部23aから該当する動画を読み出し、オブジェクト領域衝突判定部22eに送る。オブジェクト情報検索部22cはデータベース制御部24を介して要求されているオブジェクト情報をメタデータ記憶部23bより検索する。また、オブジェクト軌跡情報検索部22dはデータベース制御部24を介して要求されているオブジェクト軌跡情報をメタデータ記憶部23bより検索する。オブジェクト領域衝突判定部22eではオブジェクト軌跡情報検索部22dからのオブジェクト軌跡情報と画素情報解析部22bからのグリッド情報が重なっているか否かを判定し、重なっている場合にはオブジェクト情報検索部22cにそのオブジェクト情報を送る。応答出力生成部22fはオブジェクト軌跡情報検索部22dおよびオブジェクト情報検索部22cからのオブジェクト情報およびオブジェクト軌跡情報を集約しXML変換部22gに送り、XML変換部22gで各情報をXML形式に変換し、出力部21aを介してネットワークインタフェース21bに渡す。   In the server device, the network interface 21b exchanges information with the network communication unit 12, and sends the received signal to the parameter analysis unit 22a via the input unit 21c. As a result of analyzing the received information, the parameter analysis unit 22a sends each information to the image information analysis unit 22b, the object information search unit 22c, or the object trajectory information search unit 22d according to the analysis content. The pixel information analysis unit 22b reads the corresponding moving image from the moving image data storage unit 23a according to the pixel information, and sends it to the object area collision determination unit 22e. The object information search unit 22c searches the metadata storage unit 23b for the object information requested via the database control unit 24. Further, the object trajectory information search unit 22d searches the metadata storage unit 23b for the object trajectory information requested via the database control unit 24. The object area collision determination unit 22e determines whether or not the object trajectory information from the object trajectory information search unit 22d overlaps with the grid information from the pixel information analysis unit 22b. Send the object information. The response output generation unit 22f aggregates the object information and the object trajectory information from the object trajectory information search unit 22d and the object information search unit 22c and sends them to the XML conversion unit 22g. The XML conversion unit 22g converts each information into the XML format. The data is transferred to the network interface 21b via the output unit 21a.

図5は、本発明で送受されるメタデータのデータ構造の一例を示す図である。
動画ファイル40は知識情報50を有し、知識情報50はユーザ情報60,関係情報70および軌跡情報80を多数集合した情報で構成されている。関係情報70は関係文75,関係情報部76およびオブジェクト情報77より形成され、軌跡情報80は、軌跡情報部85および軌跡領域情報86より形成されている。
動画ファイル40は所在位置を示すIDの項目,動画ファイルを記した名前の項目,動画ファイルのファイル名を記した動画ファイルのURLの項目および関連する知識情報50の項目より構成されている。この知識情報は複数列挙されることが可能である。
知識情報50は、該知識情報のIDの項目,ドラマの名称などの名前の項目,動画ファイルの知識情報のID,ドラマなどの作成者の項目,オーサリングなどのために利用するドキュメントを記載した説明の項目(複数記載が可能),関係情報70を列挙した項目および軌跡情報80を列挙した項目より構成されている。
FIG. 5 is a diagram illustrating an example of a data structure of metadata transmitted and received according to the present invention.
The moving image file 40 has knowledge information 50, and the knowledge information 50 is configured by information obtained by collecting a large number of user information 60, relationship information 70, and trajectory information 80. The relation information 70 is formed from a relation sentence 75, a relation information section 76, and object information 77, and the trajectory information 80 is formed from a trajectory information section 85 and trajectory area information 86.
The moving image file 40 includes an ID item indicating the location, a name item indicating the moving image file, a URL item of the moving image file indicating the file name of the moving image file, and an associated knowledge information 50 item. A plurality of pieces of knowledge information can be listed.
The knowledge information 50 includes an ID item of the knowledge information, a name item such as a drama name, an ID of knowledge information of a moving image file, an item of a creator such as a drama, and a document used for authoring. (Multiple description is possible), items that list the relationship information 70, and items that list the trajectory information 80.

ユーザ情報60は、ユーザのIDの項目,ユーザの名前,ユーザを識別するためのログインIDおよびパスワードの項目より構成されている。
関係情報70は関係文75が中心であり、関係文75によりオブジェクト定義したオブジェクト情報77のオブジェクトの間を関係情報部76に示された述語関係により規定するものであり、関係文のIDの項目,関係文の名前の項目,主格オブジェクトID,目的格オブジェクトIDの項目およびそれらの間を説明する述語IDの項目より構成されている。オブジェクト情報77は、ユーザのクリックの対象となる例えば俳優などのキャラクタ,キャラクタが用いるアイテム,BGMなどであり、そのオブジェクトのIDの項目,オブジェクトの名前の項目,関係図に表示するオブジェクトの説明画像の項目ならびにオブジェクトを説明するための文言が記載された説明(クリックしたときに関係図に表示される文言)の項目より構成されている。該画像および説明の項目は複数列挙することが可能である。関係情報部76はオブジェクト間の関係を記述するもので、人物関係図であれば「敵,味方」など,人物とアイテムの関係であれば、「使用する」などを規定するものである。人物などのIDの項目,人物など名前の項目,オーサリングなどで判り易くするための画像の項目および同じくオーサリングなどで関係を判り易くするための説明文を記した説明の項目より構成されている。
関係情報70はこれらデータを積み重ねた集合体データである。
The user information 60 includes items of a user ID, a user name, a login ID for identifying the user, and a password.
The relational information 70 is centered on the relational sentence 75, and the object information 77 defined by the relational sentence 75 is defined by the predicate relationship indicated in the relational information section 76. , A related sentence name item, a main case object ID, a target case object ID item, and a predicate ID item that explains them. The object information 77 is, for example, a character such as an actor to be clicked by the user, an item used by the character, BGM, and the like. The object ID item, the object name item, and the object description image displayed in the relationship diagram And items for explaining the object (words displayed in the relation diagram when clicked) are described. A plurality of items of the image and description can be listed. The relationship information section 76 describes the relationship between objects, and prescribes “use” or the like if the relationship between a person and an item or the like if it is a person relationship diagram. It is composed of an ID item such as a person, a name item such as a person, an image item for easy understanding by authoring, and an explanatory item in which an explanatory text for making the relationship easy to understand by authoring or the like.
The relationship information 70 is aggregate data obtained by stacking these data.

軌跡情報80は、映像の動きに対応してオブジェクトの軌跡を動かすための情報であり、軌跡情報部85は、あるオブジェクトがある時間にある動きをしたことを列挙した情報部である。
軌跡情報部85は、オブジェクトのIDの項目,オブジェクトの位置を示すURIの項目,オブジェクトのZ方向の位置(同じ画面に複数のオブジェクトが現れて重なる場合、どちらが手前であるか判断するためのもの)を示すZ深度の項目,シーンの一部分においてオブジェクトが現れる時刻および消滅する時刻を示す開始時刻および終了時刻の項目ならびにある時間における領域情報86の項目より構成されている。領域情報86はある時間における領域の動きを規定するもので、複数列挙されることが可能である。領域情報86は、オブジェクトのIDの項目,領域が変位し、その変位した順番(例えばオブジェクトが出現から消滅まで移動領域が5回変化したとすると、何回目かの番号)を記するシーケンス番号の項目,変位時の再生時間を示す時刻(再生開始からのフレーム数)および領域パラメータの項目から構成されている。
The trajectory information 80 is information for moving the trajectory of the object in accordance with the motion of the video, and the trajectory information unit 85 is an information unit listing the movements of a certain object at a certain time.
The trajectory information unit 85 is an item for identifying an object, a URI item indicating the position of the object, a position in the Z direction of the object (when multiple objects appear and overlap on the same screen, it is for determining which is the front side. ) Indicating the Z depth, the time when the object appears and the time when the object disappears in a part of the scene, and the area information 86 at a certain time. The area information 86 defines the movement of the area at a certain time, and a plurality of areas can be listed. The area information 86 is a sequence number indicating the item of the ID of the object, the area is displaced, and the order in which the area is displaced (for example, if the moving area has changed five times from the appearance to the disappearance of the object). It consists of items, items indicating the time of reproduction at the time of displacement (number of frames from the start of reproduction) and area parameters.

領域パラメータは、楕円や四角形などの形状を規定する項目,形状が例えば4角形であれば、その中心座標を示すX座標およびY座標の項目,四角形の幅および高さを示す幅および高さの項目ならびに四角形の回転角度を示す回転角度の項目より構成されている。形状が楕円の場合も同様に規定されるが、かかる場合は楕円に外接する四角形が基準となる。軌跡情報80はこれらデータを積み重ねた集合体データである。   The area parameter is an item that defines a shape such as an ellipse or a rectangle. If the shape is a quadrangle, for example, an X coordinate and a Y coordinate item that indicate the center coordinate, and a width and height that indicate the width and height of the rectangle. It consists of an item and a rotation angle item indicating a square rotation angle. When the shape is an ellipse, it is similarly defined. In such a case, a rectangle circumscribing the ellipse is used as a reference. The trajectory information 80 is aggregate data obtained by stacking these data.

つぎに、図4の各機能部の構成について図6A〜図6I(プレイヤ装置)および図7A〜図7F(サーバ装置)を用いて説明する。
図6Aはプレイヤ装置の入力処理部の構成を説明するためのフローチャートである。
入力処理部6は、ユーザが操作部を操作したか否を監視し(ステップ(以下「S」という)6A01)、入力があれば、その入力情報を制御部8aに渡す(S6A02)。図6Bの制御部8aは入力情報を受け(S6B01)、入力情報が10キーまたは方向キーがあるか否かを判断する(S6B02)。10キーまたは方向キーであれば、オブジェクト軌跡ヒット判定部(キー選択矩形)8cにその入力情報を渡す(S6B03)。
一方、マウスまたはボタンによる入力情報であれば、入力されたデータが映像上のマウスクリックか否かを判断し(S6B04)、オブジェクト軌跡ヒット判定部(マウス座標)8dにマウス座標(入力情報)を渡す(S6B05)。マウスクリックでない場合には、ボタンによる入力情報であるとして映像の再生か、または停止ボタンの押し下げかを判断し(S6B06)、映像の再生などであるならば、その情報を映像制御部8bに渡し(S6B07)、映像の再生などでなければ、終了する。
4 will be described with reference to FIGS. 6A to 6I (player device) and FIGS. 7A to 7F (server device).
FIG. 6A is a flowchart for explaining the configuration of the input processing unit of the player device.
The input processing unit 6 monitors whether or not the user has operated the operation unit (step (hereinafter referred to as “S”) 6A01), and if there is an input, passes the input information to the control unit 8a (S6A02). The control unit 8a in FIG. 6B receives the input information (S6B01), and determines whether the input information has 10 keys or direction keys (S6B02). If the key is 10 keys or direction keys, the input information is passed to the object locus hit determination unit (key selection rectangle) 8c (S6B03).
On the other hand, if the input information is a mouse or a button, it is determined whether the input data is a mouse click on the video (S6B04), and the mouse coordinate (input information) is set in the object locus hit determination unit (mouse coordinate) 8d. Hand it over (S6B05). If it is not a mouse click, it is determined whether the video is to be reproduced or the stop button is pressed down as input information by the button (S6B06). If the video is to be reproduced, the information is passed to the video controller 8b. If (S6B07), video playback is not performed, the process ends.

図6Cの映像制御部8bは、制御部8aからボタン情報を受ける(S6C01)と、再生ボタンか否かの判断を行い(S6C02)、再生ボタンであれば、映像データ再生処理を行い(S6C03)、映像描画部10aに渡す(S6C06)。一方、再生ボタンでなければ、停止ボタンが押されたか否かを判断し(S6C04)、停止ボタンであれば、映像の停止処理を行う(S6C05)。停止ボタンが押されていなければ、引き続き映像データを映像描画部10aに渡す(S6C06)。
図6Dのオブジェクト軌跡ヒット判定部(マウス座標)8dは、制御部8aからマウス座標を受け取る(S6D01)と、メタデータ記憶部9aから軌跡情報を読み出す(S6D02)。そして、現在のオブジェクト軌跡の動きから最適な円の半径rを取得する。
半径rの具体的な大きさは、例えば、オブジェクトが停止情報であれば半径rは小さく、動いていれば、動きの速さに応じて半径rを大きくとる(S6D03)。これにより、マウス座標を中心とした半径rの円の領域を選択領域と決定する(S6D04)。そして、映像中のオブジェクトの軌跡情報とユーザがマウスで選択した選択領域とが重なるか否か、すなわちヒットしているか否かの判定に移行する(S6D05,S6D06)。僅かでも重なっていればヒット判定をする。例えば、図6D−1の場合、選択領域と軌跡領域とが僅かに重なっているため、ヒットしていると判断される。
ヒットした場合にはオブジェクト情報をネットワーク通信部12に渡す(S6D09)。ヒットしていない場合には、映像を1フレーム時間戻してS6D06で同様な判断を行う。依然としてヒットいない場合には予め決められているnフレームまで同様な判断を試みる(S6D06,S6D07,S6D08)。nフレーム値は、ユーザがオブジェクトを認識してからマウスをクリックするまでにオブジェクトが移動するであろう時間が設定される。なお、nフレームまで繰り返してもヒットしない場合、ユーザがオブジェクトを捕らえきらなかったものとして終了する。
When receiving the button information from the control unit 8a (S6C01), the video control unit 8b in FIG. 6C determines whether or not it is a playback button (S6C02), and if it is a playback button, performs video data playback processing (S6C03). Then, it is passed to the video drawing unit 10a (S6C06). On the other hand, if it is not a playback button, it is determined whether or not a stop button has been pressed (S6C04). If it is a stop button, a video stop process is performed (S6C05). If the stop button has not been pressed, the video data is continuously passed to the video drawing unit 10a (S6C06).
When the object locus hit determination unit (mouse coordinates) 8d in FIG. 6D receives the mouse coordinates from the control unit 8a (S6D01), the locus information is read from the metadata storage unit 9a (S6D02). Then, the optimum radius r of the circle is acquired from the current movement of the object locus.
For example, if the object is stop information, the radius r is small, and if the object is moving, the radius r is increased according to the speed of movement (S6D03). As a result, a circle area having a radius r centered on the mouse coordinates is determined as the selected area (S6D04). Then, the process proceeds to determination of whether or not the trajectory information of the object in the video overlaps the selection area selected by the user with the mouse, that is, whether or not it is hit (S6D05, S6D06). If there is even a slight overlap, a hit determination is made. For example, in the case of FIG. 6D-1, since the selection area and the trajectory area slightly overlap, it is determined that the hit has occurred.
In the case of a hit, the object information is passed to the network communication unit 12 (S6D09). If not hit, the video is returned by one frame time and the same determination is made in S6D06. If there is still no hit, a similar determination is attempted up to a predetermined n frame (S6D06, S6D07, S6D08). The n frame value is set to the time that the object will move from when the user recognizes the object until the user clicks the mouse. If there is no hit even after repeating up to n frames, it is assumed that the user has not caught the object and the process ends.

一方、図6Eのオブジェクト軌跡ヒット判定部(キー選択矩形)8cは、制御部8aから受けたキー情報(入力情報)を受ける(S6E01)と、領域の選択キーである10キー・方向キーか、またはそれ以外であるマウス・ボタンかを判断し(S6E02)、10キー・方向キーであれば、そのキー操作が決定キーであるか、選択中のキーであるかを判断し(S6E03)、決定キーでなければ、前回と同じキーで押されたか否かの判断を行う(S6E04)。前回と同じキーが操作(同じキーを2回連続して押せば、決定操作がなされたとする)されたと判断すれば、決定を行ったとしてS6E11に移行する。前回と同じキー操作でない場合には、既に記憶している選択開始時間(領域の選択キーが押されたときの時間)があるか否かを判断し(S6E05)、選択開始時間が記憶されている場合には押し下げされた10キー・方向キーに対応する領域を選択領域とする(S6E08)。選択開始時間が記憶されていない(10キー・方向キーによりどこも選択されていない)場合には今回10キー・方向キーが押し下げられた時間を選択開始時間として記憶し、画面全体に対し押し下げされた10キー・方向キーに対応する領域を選択領域とする(S6E06,S6E07)。そして、S6E07またはS6E08で決定した選択領域を現在の選択領域として記憶し(S6E09)、グリッド選択領域描画部10bに対し選択範囲の変更イベントを発行する(S6E10)。これにより、映像のグリッド領域が例えば特定の色(赤色など)で表示される。
図6E−1に映像中のグリッド領域の表示例を示す。映像の表示領域を多数に分割し、その分割した領域に対応してそれぞれ複数の10キーを割り当て、複数のキーの内、1つが押されることにより押されたキーが所属する分割領域を例えば赤で表示することにより選択されていることを示す。
この処理が終了すると、再度領域の選択キーか否かの判断のS6E02に戻る。
S6E03で決定キーと判断した場合には、記憶している選択開始時間まで時間を戻し(S6E11)、さらに利用者がオブジェクトを認識してからキー入力までの時間だけ戻す(S6E12)。この利用者のオブジェクト認識からキー入力までの時間は、人間の反応時間を考慮したもので、例えば0.2秒から0.5秒程度戻すこととなる。
そして、戻した時間のオブジェクト軌跡の位置情報を取得し、オブジェクト軌跡と現在の選択領域とで重なった部分が存在するか否かによってヒット判定を行い(S6E13,S6E14)、選択範囲の変更イベントをグリッド選択領域描画部10bに発行し、選択していることを示す表示を解除する(赤を消滅させる)(S6E15)。ヒットした場合にはヒットしたオブジェクト情報をネットワーク通信部12に渡す。ヒットしない場合は終了する(S6E16,S6E17)。
この処理によりユーザが選択した領域が映像中のオブジェクトを捕らえているか否かの判断がなされる。
On the other hand, when the object locus hit determination unit (key selection rectangle) 8c in FIG. 6E receives key information (input information) received from the control unit 8a (S6E01), Otherwise, it is determined whether it is a mouse button (S6E02). If it is a 10 key / direction key, it is determined whether the key operation is a determination key or a selected key (S6E03). If it is not a key, it is determined whether or not it has been pressed with the same key as before (S6E04). If it is determined that the same key as the previous operation has been operated (determining operation is performed if the same key is pressed twice in succession), the process proceeds to S6E11 because it has been determined. If it is not the same key operation as the previous time, it is determined whether or not there is an already stored selection start time (time when the area selection key is pressed) (S6E05), and the selection start time is stored. If so, the area corresponding to the pressed down 10 key / direction key is selected (S6E08). If the selection start time is not stored (nothing is selected by the 10 key / direction key), the time when the 10 key / direction key is pressed this time is stored as the selection start time, and is pressed down for the entire screen. The area corresponding to the 10 key / direction key is set as the selection area (S6E06, S6E07). Then, the selection area determined in S6E07 or S6E08 is stored as the current selection area (S6E09), and a selection range change event is issued to the grid selection area drawing unit 10b (S6E10). Thereby, the grid area of the video is displayed in, for example, a specific color (red or the like).
FIG. 6E-1 shows a display example of the grid area in the video. The video display area is divided into a large number, and a plurality of 10 keys are assigned to the divided areas, and the divided area to which the pressed key belongs when one of the keys is pressed is, for example, red. This indicates that it has been selected.
When this process ends, the process returns to S6E02 for determining whether or not the key is a region selection key.
If the determination key is determined in S6E03, the time is returned to the stored selection start time (S6E11), and only the time from the user's recognition of the object to the key input is returned (S6E12). The time from the user's object recognition to key input takes into account the human reaction time, and is returned, for example, from about 0.2 seconds to about 0.5 seconds.
Then, the position information of the object trajectory at the returned time is acquired, and hit determination is performed based on whether or not there is an overlapping portion between the object trajectory and the current selection area (S6E13, S6E14), and a selection range change event is generated. It is issued to the grid selection area drawing unit 10b, and the display indicating that it is selected is canceled (red is eliminated) (S6E15). In the case of a hit, the hit object information is passed to the network communication unit 12. If there is no hit, the process ends (S6E16, S6E17).
By this processing, it is determined whether or not the area selected by the user has captured an object in the video.

図6Fのネットワーク通信部12は、映像再生についてタイマ7から再生開始から現在までの時間情報が渡されたか否かを判定し(S6F01)、現在の映像の再生時間を渡された場合には現在時間のオブジェクト軌跡情報をサーバ装置(ネットワークインタフェース21b)に要求する(S6F02,S6F03)。そしてサーバ装置からオブジェクト軌跡情報のXMLを受信すると、取得したXMLをメタデータ解析部8eに渡す(S6F04,S6F05)。一方、クリックがなされた場合にはオブジェクト軌跡ヒット判定部(マウス座標)8dからオブジェクト情報が渡されたか否かを判定し、オブジェクト情報が渡された場合にはこの情報を受け取り、オブジェクト情報77のIDをキーに関係情報70をサーバ装置に要求する(S6F06,S6F07,S6F08)。そしてサーバ装置からオブジェクトの関係情報のXMLを受信すると、取得したXMLをメタデータ解析部8eに渡す(S6F09,S6F10)。
S6F06においてオブジェクト軌跡ヒット判定部8dからオブジェクト情報ではなくマウス座標が渡された場合は、該マウス座標を受け取り(S6F11)、サーバ装置にヒット結果オブジェクトの要求を行う(S6F12)。サーバ装置からオブジェクトのヒット結果を受け取ると、ヒットしたか否か判断し、ヒットした場合にはS6F08に移行する(S6F13,S6F14)。
ここでのネットワーク通信はプレイヤ装置で再生を行いながらサーバ装置から少しずつ情報を得るもので、数秒毎(例えば、2秒毎)に情報を得る。
The network communication unit 12 in FIG. 6F determines whether or not time information from the start of playback to the present time has been passed from the timer 7 for video playback (S6F01), and if the current video playback time is passed, Request the object trajectory information of time to the server device (network interface 21b) (S6F02, S6F03). When the XML of the object trajectory information is received from the server device, the acquired XML is passed to the metadata analysis unit 8e (S6F04, S6F05). On the other hand, when a click is made, it is determined whether or not the object information is passed from the object locus hit determination unit (mouse coordinates) 8d. When the object information is passed, this information is received and the object information 77 Using the ID as a key, the server device is requested for the related information 70 (S6F06, S6F07, S6F08). When the XML of the object relation information is received from the server device, the acquired XML is passed to the metadata analysis unit 8e (S6F09, S6F10).
If mouse coordinates instead of object information are passed from the object trajectory hit determination unit 8d in S6F06, the mouse coordinates are received (S6F11), and a hit result object is requested to the server device (S6F12). When the hit result of the object is received from the server device, it is determined whether or not it is hit. If it is hit, the process proceeds to S6F08 (S6F13, S6F14).
In this network communication, information is obtained little by little from the server device while being reproduced by the player device, and information is obtained every few seconds (for example, every 2 seconds).

ネットワーク通信部12からXMLデータを渡された図6Gのメタデータ解析部8eは、XMLからメタデータ(オブジェクト軌跡情報と関係情報)を抽出し(S6G01,S6G02)、メタデータをメタデータ合成部8fに渡す(S6G03)。
図6Hのメタデータ合成部8fがメタデータを受け取る(S6H01)と、すべてのメタデータに対し、メタデータ記憶部9aに追加予定のメタデータが存在するか否かを調べ、そのメタデータが記憶されていない場合には記憶し、既に同じメタデータが記憶されている場合には破棄する。所定の単位毎(リクエストに対する結果データのひとかたまり)に送られてくるメタデータに対し、上記処理を繰り返す(S6H02,S6H03,S6H04)。この処理により、オブジェクト軌跡情報80は例えば100フレーム〜150フレームの間のデータが時系列的に加えられ、また、オブジェクト関係情報70は同様に時系列的に加えられて合成される。
上記ひとかたまりのメタデータの合成が終了すると、メタデータ記憶部9aから合成したメタデータは読み出され関係情報70は関係図描画部10cに、オブジェクト軌跡情報80はオブジェクト軌跡描画部10dにそれぞれ送られ描画データが書き込まれる(S6H05,S6H06,S6H07)。メタデータ合成部8fはつぎから次ぎと送られてくるメタデータに対し繰り返し上記合成処理を行う。
The metadata analysis unit 8e in FIG. 6G to which the XML data is passed from the network communication unit 12 extracts the metadata (object trajectory information and relation information) from the XML (S6G01, S6G02), and the metadata is the metadata composition unit 8f. (S6G03).
When the metadata composition unit 8f in FIG. 6H receives the metadata (S6H01), it is checked whether or not there is metadata to be added to the metadata storage unit 9a for all metadata, and the metadata is stored. If it is not stored, it is stored, and if the same metadata is already stored, it is discarded. The above processing is repeated for the metadata sent in predetermined units (a group of result data for the request) (S6H02, S6H03, S6H04). By this processing, for example, data between 100 frames to 150 frames is added to the object trajectory information 80 in time series, and the object relation information 70 is similarly added and synthesized in time series.
When the synthesis of a set of metadata is completed, the synthesized metadata is read from the metadata storage unit 9a, the relationship information 70 is sent to the relationship diagram drawing unit 10c, and the object track information 80 is sent to the object track drawing unit 10d. Drawing data is written (S6H05, S6H06, S6H07). The metadata composition unit 8f repeatedly performs the composition process on the metadata sent next.

図6Iの関係図描画部10cは、メタデータ合成部8fより関係情報を渡されると、関係情報をフレームバッファに書き込むことにより関係図を描画する画像を作成する(S6I01,S6I02,S6I02)。同様に図6Iのオブジェクト軌跡描画部10dは、フレームバッファに書き込むことにより映像上に軌跡を描画する画像を作成する(S6I04,S6I05,S6I06)。さらにグリッド選択領域描画部10bはオブジェクト軌跡ヒット判定部(キー選択矩形)8cからグリッド領域の情報が渡されると、このグリッド領域の情報をフレームバッファに書き込むことによりグリッドを描画する画像を作成する(S6I07,S6I08,S6I09)。
合成処理部10eは、映像描画部10aの映像,グリッド選択領域描画部10bのグリッド画像,オブジェクト軌跡描画部10dの軌跡画像および関係図描画部10cの関係図の画像を重ねる処理を行うことにより合成を行い(S6I10,S6I11,S6I12,S6I13,S6I14)、この画像が表示装置に表示される(S6I15)。
図6I−1に表示装置で表示される合成画像の一例を示す。
オブジェクトに外接する楕円が軌跡領域であり、軌跡領域に一部重なっている円の領域がユーザがクリックしたグリッド領域である。映像の右側に関係図が表示されている。関係図は、映像のオブジックトに対応して同時に表示されるもので、表示位置の映像部分の他の部分(上側,左側,右側など)に表示することも可能であり、一部重ねて表示することも可能である。表示装置が2ディスプレイであれば、第1のディスプレイに映像を、近くに設置した第2のディスプレイに関係図を表示させることも可能である。また、軌跡の画面表示は、必要に応じて表示し、ユーザが視覚で確認できるように表示しても良いし、また、全く表示しなくても良い。全く表示しない場合には軌跡描画部は動作させない。
When the relationship information is passed from the metadata synthesis unit 8f, the relationship diagram drawing unit 10c in FIG. 6I creates an image for drawing the relationship diagram by writing the relationship information in the frame buffer (S6I01, S6I02, S6I02). Similarly, the object trajectory drawing unit 10d in FIG. 6I creates an image for drawing a trajectory on the video by writing to the frame buffer (S6I04, S6I05, S6I06). Further, when the grid area information is passed from the object locus hit determination unit (key selection rectangle) 8c, the grid selection area drawing unit 10b creates an image for drawing the grid by writing the grid area information in the frame buffer ( S6I07, S6I08, S6I09).
The composition processing unit 10e performs a process of superimposing the image of the image drawing unit 10a, the grid image of the grid selection region drawing unit 10b, the locus image of the object locus drawing unit 10d, and the relationship diagram image of the relationship diagram drawing unit 10c. (S6I10, S6I11, S6I12, S6I13, S6I14), and this image is displayed on the display device (S6I15).
FIG. 6I-1 shows an example of a composite image displayed on the display device.
The ellipse circumscribing the object is the trajectory area, and the circle area partially overlapping the trajectory area is the grid area clicked by the user. The relationship diagram is displayed on the right side of the video. The relationship diagram is displayed at the same time corresponding to the object of the image, and can be displayed on other parts (upper side, left side, right side, etc.) of the video portion of the display position, and is partially displayed. It is also possible. If the display device has two displays, it is possible to display an image on the first display and a relationship diagram on a second display installed nearby. Moreover, the screen display of the trajectory may be displayed as necessary, so that the user can visually confirm it, or may not be displayed at all. If no display is made, the locus drawing unit is not operated.

つぎにサーバ装置の構成を説明する。
図7Aの入力部は、サーバ装置の入力部およびパラメータ解析部の構成を説明するためのフローチャートである。
入力部21cは要求の待ち受けを開始し、プレイヤ装置から要求を受信した場合にはその要求をパラメータ解析部22aに渡す(S7A01,S7A02,S7A03)。パラメータ解析部22aは、入力部21cから要求を受け取り、要求の文字例を解析する。すなわち、どのような要求があったか否かを解釈する(S7A04,S7A05)。
このパラメータ解析部22aはサーバ装置1のコントローラとしての機能を果たし、プレイヤ装置3a〜3nからの4つの要求(1)(2)(3)および(4)に対し処理を実行することとなる。要求(1)はプレイヤ装置から静的知識情報を要求するものであり、かかる要求の場合にはその要求をオブジェクト情報検索部22cに渡す(S7A06,S7A07)。静的知識情報の要求でない場合にはオブジェクト軌跡情報の要求であるか否か判断し、オブジェクト軌跡情報80の要求である場合にはオブジェクト軌跡情報検索部22dにその要求を渡す(S7A08,S7A09)。なお、要求(3)はサーバ装置にオブジェクト軌跡ヒット判定部を持つ場合のフローであり、この実施の形態ではサーバ装置にオブジェクト領域衝突判定部22e(プレイヤ装置にオブジェクトヒット判定部が存在すれば実際は不要である)を記載してサーバ装置側でもヒット判定が可能であることを示している関係上、以後の説明ではサーバ装置側でヒット判定する場合についても併せて説明する。サーバ装置にオブジェクト軌跡ヒット判定部を持つ例として、プレイヤ装置が小型で、負荷を軽減化する場合などに適用される。
Next, the configuration of the server device will be described.
The input unit in FIG. 7A is a flowchart for explaining the configuration of the input unit and the parameter analysis unit of the server device.
The input unit 21c starts waiting for a request, and when receiving a request from the player device, passes the request to the parameter analysis unit 22a (S7A01, S7A02, S7A03). The parameter analysis unit 22a receives a request from the input unit 21c and analyzes a character example of the request. That is, it interprets what kind of request is made (S7A04, S7A05).
The parameter analysis unit 22a functions as a controller of the server device 1 and executes processing for the four requests (1), (2), (3), and (4) from the player devices 3a to 3n. The request (1) requests static knowledge information from the player device, and in the case of such a request, the request is passed to the object information search unit 22c (S7A06, S7A07). If it is not a request for static knowledge information, it is determined whether it is a request for object trajectory information. If it is a request for object trajectory information 80, the request is passed to the object trajectory information search unit 22d (S7A08, S7A09). . The request (3) is a flow when the server device has an object locus hit determination unit. In this embodiment, the server device has an object area collision determination unit 22e (if the player device has an object hit determination unit, it is actually In the following description, the case of hit determination on the server apparatus side will also be described. As an example in which the server device has an object locus hit determination unit, this is applied to a case where the player device is small and the load is reduced.

図8に各種要求(1)(2)(3)および(4)の具体例を示す。
静的情報取得の要求(1)は映像コンテンツのIDおよびユーザのIDのデータより構成されている。
オブジェクト軌跡データ取得の要求(2)は何フレームから何フレームまでの軌跡情報かを要求するもので、映像コンテンツのID,ユーザのID,要求する映像のフレームの開始時間および終了時間より構成されている。
オブジェクトヒット判定の要求(3)は上述したようにサーバ装置でヒット判定する場合である。
要求内容としては以下の6通りであり、記載内容は一例である。なお、以降に説明する遅延クリックとは、クリックの信号入力から所定時間まで随時1フレームずつ戻しながら判定を行うことであり、ユーザの操作の遅れを補完するものである。
それぞれについては映像コンテンツのID,ユーザのIDおよびヒットした時間が含まれている。1行目の要求は、遅延クリックの開始時間628(遅延分を考慮したさかのぼる時間)と終了時間688およびその対象座標の位置(X座標382,Y座標257)が示されており、60フレームだけさかのぼって判定を行うものである。2行目は、遅延クリックはなく、対象時間520のクリックした位置(X座標416とY座標154)のみが示されており、さかのぼることはない。3行目は、2行目の記載に加えて、半径10の判定幅でヒット判定を行うものである(マウスクリック)。4行目は、領域のヒット判定を行うもので、領域として幅213,高さ160の四角形の領域に対する判定要求である(領域クリック)。5行目は、遅延クリックが0フレームまでさかのぼり、かつ判定範囲が半径8の要求である(マウスクリック)。6行目は、遅延クリックが441までさかのぼり、幅80,高さ60の四角形の領域に対する判定要求である(領域クリック)。
要求(3)は、遅延クリックと領域クリックがプレイヤ装置によってオンオフできる場合などである。
オブジェクト詳細データ取得の要求(4)は、プレイヤ装置でヒットしたオブジェクトの要求をサーバ装置に行うもので、ヒットした映像コンテンツのID,ユーザのID,クリックした映像のフレームおよびクリックした映像中のオブジェクトのIDより構成されており、これによりクリックしてヒットしたオブジェクトの関係情報を得るものである。
FIG. 8 shows specific examples of various requests (1), (2), (3), and (4).
The static information acquisition request (1) is made up of video content ID and user ID data.
The object trajectory data acquisition request (2) is a request for the number of frames to which trajectory information, and is composed of video content ID, user ID, start time and end time of the requested video frame. Yes.
The object hit determination request (3) is a case where the server apparatus determines a hit as described above.
There are the following six request contents, and the description contents are an example. Note that the delayed click described below is to perform determination while returning one frame at a time from the input of the click signal until a predetermined time, and complements the delay in the operation of the user.
Each of them includes the video content ID, the user ID, and the hit time. The request on the first line shows the start time 628 of delayed click (the time to go back in consideration of the delay), the end time 688 and the position of the target coordinate (X coordinate 382, Y coordinate 257), and only 60 frames. The determination is made retroactively. In the second line, there is no delayed click, only the clicked position (X coordinate 416 and Y coordinate 154) of the target time 520 is shown, and it does not go back. The third line performs hit determination with a determination width of radius 10 in addition to the description of the second line (mouse click). The fourth line is used for determining hit of an area, and is a determination request for a rectangular area having a width of 213 and a height of 160 as an area (area click). The fifth line is a request that the delayed click goes back to 0 frame and the determination range is radius 8 (mouse click). The sixth line is a determination request for a square area with a delayed click going back to 441 and a width of 80 and a height of 60 (area click).
The request (3) is a case where delayed click and area click can be turned on / off by the player device.
The object detail data acquisition request (4) is a request for an object hit by the player device to the server device. The hit video content ID, the user ID, the clicked video frame, and the object in the clicked video Thus, the relation information of the object hit by clicking is obtained.

図7Bの画像情報解析部22bは、検索条件をパラメータ解析部22aから受け取ると、動画データ記憶部23aから検索条件に沿う動画データを読みだす(S7B01,S7B02)。そして画像の動き解析を行い、画像の秒当たりの動き速度を算出し、領域パラメータとしてオブジェクト領域衝突判定部22eに渡す(S7B03,S7B04)。
これは、クリック領域の半径rが指定されなかった場合にサーバ装置で作る過程である。すなわち、要求(3)に対応するもので、画面の動きや軌跡の動き(映像データのどの動画の、何フレームかのデータ)からどれだけの半径にすべきかを決めるもので、動画データに入っている動画を解析してその動きを解析して最適なrを計算するものである。
図7Bのオブジェクト情報検索部22cは、検索条件をパラメータ解析部22aから受け取ると、そのデータをデータベース制御部24に渡し、その結果を取得する(S7B05,S7B06,S7B07)。そしてオブジェクト情報に関係情報があるか否かを判断し(S7B08)、関係情報がある場合には関係情報の検索をデータベース制御部24に依頼し(S7B09)、その結果を取得し(S7B10)、得られた結果を応答出力生成部22fに渡す(S7B11)。要求(4)はオブジェクト詳細情報を得るもので、オブジェクトの関係文を求めものである。すなわち、関係文75の中にオブジェクトについてオブジェクト情報77,関係情報部76の情報を得るものである。
When the image information analysis unit 22b in FIG. 7B receives the search condition from the parameter analysis unit 22a, the image information analysis unit 22b reads the moving image data according to the search condition from the moving image data storage unit 23a (S7B01, S7B02). Then, the motion analysis of the image is performed, the motion speed per second of the image is calculated, and passed to the object region collision determination unit 22e as a region parameter (S7B03, S7B04).
This is a process in which the server device creates the click area radius r when it is not specified. In other words, it corresponds to the request (3) and determines how much radius should be taken from the motion of the screen and the motion of the trajectory (which video of which video in the video data), and is included in the video data. The moving image is analyzed, the motion is analyzed, and the optimum r is calculated.
When the object information search unit 22c in FIG. 7B receives the search condition from the parameter analysis unit 22a, the object information search unit 22c passes the data to the database control unit 24 and acquires the result (S7B05, S7B06, S7B07). Then, it is determined whether or not there is related information in the object information (S7B08). If there is related information, the database control unit 24 is requested to search for related information (S7B09), and the result is acquired (S7B10). The obtained result is passed to the response output generation unit 22f (S7B11). The request (4) is for obtaining detailed object information and for obtaining a relational sentence of the object. That is, the object information 77 and the information of the relationship information section 76 are obtained for the object in the relationship sentence 75.

図7Cのオブジェクト軌跡情報検索部22dはオブジェクト軌跡についてオブジェクト情報検索部22cと同様な検索を行うもので、パラメータ解析部22aから何フレーム目から何フレームまでという検索条件を受け取って、データベース制御部24に渡す(S7C01,S7C02)。データベース制御部24はその条件のものをメタデータ記憶部23bにアクセスして、検索条件にあった軌跡情報80を読み出す(S7C03)。ここでヒット判定要求(3)のための検索であるか否かの判定を行ない(S7C04)、ヒット判定のためである場合には、ヒットするオブジェクトの候補として軌跡情報をオブジェクト衝突判定部22eに渡す。オブジェクト軌跡データ取得要求(2)である場合には得られた結果を応答出力部22fに渡す(S7C06)。   The object trajectory information search unit 22d in FIG. 7C performs the same search for the object trajectory as the object information search unit 22c. The object trajectory information search unit 22d receives a search condition from what frame to what frame from the parameter analysis unit 22a. (S7C01, S7C02). The database control unit 24 accesses the metadata storage unit 23b with the conditions and reads the trajectory information 80 that meets the search conditions (S7C03). Here, it is determined whether or not the search is for the hit determination request (3) (S7C04). If it is for the hit determination, the trajectory information is sent to the object collision determination unit 22e as a candidate for the hit object. hand over. In the case of the object locus data acquisition request (2), the obtained result is passed to the response output unit 22f (S7C06).

図7Dのオブジェクト領域衝突判定部22eはオブジェクト軌跡情報検索部22dから判定候補のオブジェクト軌跡情報(その時間に存在するかも知れない軌跡)を受ける(S7D01)と、パラメータ解析部22aからどの座標について衝突(軌跡情報と重なっているか)判定を行うかという情報を受ける(S7D02)。そして衝突判定する対象は点か領域かを判断し(S7D03)、領域である場合には、衝突判定対象領域をクリック認識領域とする(S7D04)。一方、点である場合には更に領域クリック機能が有効(オン状態)になっているかを判定し(S7D05)、有効になっていない場合には衝突判定する点だけからなる領域を作成し、クリック認識領域とする(S7D06)。有効になっている場合には領域クリックパラメータ(半径rなど)を画素情報解析部22bから受け取り、クリック認識領域を算出する(S7D07,S7D08)。
このようにしてクリック認識領域した後、衝突オブジェクト軌跡リストを初期化する(S7D09)。そして判定時刻(フレーム番号)におけるオブジェクトの位置を算出し、衝突候補オブジェクト軌跡のそれぞれに対し、オブジェクト軌跡とクリック認識領域が共通領域(重なっている部分)を持つか判定し、共通領域を持っている場合には衝突オブジェクト軌跡リストに追加する(S7D10,S7D11,S7D12,S7D13)。
このような動作を衝突候補オブジェクト軌跡のそれぞれについて判定を繰り返し、終了すれば(S7D14)、遅延クリック機能(ユーザがクリックした時刻からさかのぼる)が有効になっているか否かを判定する(S7D15)。有効でない場合には、衝突オブジェクト軌跡リストをそのままオブジックト情報検索部22cに渡す(S7D18)。
遅延クリックが有効である場合には判定時刻を1フレーム戻し(S7D16)、このフレームが(最初に与えられた判定時刻−現在の判定時刻)すなわちn秒になっているか判断し(S7D17)、n(戻すフレーム数)秒になっていなければ、S7D10に戻って衝突判定を行う。n秒になった場合はS7D10〜S7D17のループを抜けて衝突オブジェクト軌跡リストをオブジェクト情報検索部22dに渡す(S7D18)。
When the object region collision determination unit 22e in FIG. 7D receives the object locus information of a candidate for determination (a locus that may exist at that time) from the object locus information search unit 22d (S7D01), the object region collision determination unit 22e collides with respect to which coordinate from the parameter analysis unit 22a. Information on whether to make a determination (whether it overlaps with the trajectory information) is received (S7D02). Then, it is determined whether the object of collision determination is a point or an area (S7D03), and if it is an area, the collision determination target area is set as a click recognition area (S7D04). On the other hand, if it is a point, it is further determined whether the area click function is enabled (ON state) (S7D05). If it is not enabled, an area consisting only of the collision determination point is created and clicked. It is set as a recognition area (S7D06). If it is valid, the area click parameter (radius r, etc.) is received from the pixel information analysis unit 22b, and the click recognition area is calculated (S7D07, S7D08).
After performing the click recognition area in this way, the collision object trajectory list is initialized (S7D09). Then, the position of the object at the determination time (frame number) is calculated, and it is determined whether the object trajectory and the click recognition area have a common area (overlapping part) for each of the collision candidate object trajectories. If it exists, it is added to the collision object trajectory list (S7D10, S7D11, S7D12, S7D13).
If such an operation is repeated for each of the collision candidate object trajectories and terminated (S7D14), it is determined whether or not the delayed click function (returning from the time when the user clicked) is enabled (S7D15). If it is not valid, the collision object trajectory list is directly passed to the object information search unit 22c (S7D18).
When the delayed click is valid, the determination time is returned by one frame (S7D16), and it is determined whether this frame is (initially given determination time-current determination time), that is, n seconds (S7D17), and n If it is not (number of frames to be returned), the process returns to S7D10 to make a collision determination. When it is n seconds, the process exits the loop of S7D10 to S7D17 and passes the collision object trajectory list to the object information search unit 22d (S7D18).

ここで、S7D10の判定時刻におけるオブジェクトの位置計算の詳細について図7EのAフローを用いて説明する。対象オブジェクトと時刻を受け取り、オブジェクト軌跡情報検索部22dから当該時刻が含まれる軌跡情報を取得する(S7E01,S7E02)。すなわち、どのオブジェクト情報について何フレーム目の位置かを算出するための情報を取得する。
まず、目的とするオブジェクトの軌跡情報が存在するか否かを判断し(S7E03)、当該オブジェクト軌跡が存在しない場合(戻りすぎた場合など)には終了とする(S7E04)。軌跡情報が存在する場合には、当該時刻が軌跡情報内にある定義領域で示された時刻と一致するか判定する(S7E05)。一致した領域が存在すればその定義領域をそのままオブジェクト領域とする(S7E09)。例えば、定義領域が100フレーム目,150フレーム目,180フレーム目が存在し、クリックした判定時刻が150フレーム目であるとすれば、定義領域の中に150フレーム目が存在するので、その150フレームをそのまま用いる。
定義領域に存在しない場合に当該時刻(=t)から見て直前の時刻(=a),直後の時刻(=b)の定義領域を抽出する(S7E06)。例えば、判定時刻が130フレーム目であれば、存在しないので、130フレーム目の軌跡情報を算出するために直前の100フレーム目と直後の150フレーム目の情報を抽出する。以下、(t−a)と(b−t)の比から比例係数ρを算出し、領域の各パラメータについて比例係数ρによって一次補完して領域を作成し、これをオブジェクト領域とする(S7E07,S7E08)。作成される定義領域の具体的位置は、前後の定義領域に対し、映像の変化の速度によって例えば、ピクセル単位で変動することとなる。
このように得られたオブジェクトの領域を呼び出し、元に返却する(S7E10)。
Here, the details of the calculation of the position of the object at the determination time of S7D10 will be described using the A flow of FIG. 7E. The target object and the time are received, and the trajectory information including the time is acquired from the object trajectory information search unit 22d (S7E01, S7E02). That is, information for calculating what frame position for which object information is acquired.
First, it is determined whether or not the trajectory information of the target object exists (S7E03), and if the object trajectory does not exist (such as when the object trajectory has returned too much), the process ends (S7E04). When the trajectory information exists, it is determined whether the time coincides with the time indicated by the definition area in the trajectory information (S7E05). If there is a matching area, the definition area is directly used as the object area (S7E09). For example, if the definition area includes the 100th frame, the 150th frame, and the 180th frame, and the clicked determination time is the 150th frame, the 150th frame exists in the definition area. Is used as is.
If it does not exist in the definition area, the definition area at the time immediately before (= a) and the time immediately after (= b) from the time (= t) is extracted (S7E06). For example, if the determination time is the 130th frame, it does not exist. Therefore, in order to calculate the trajectory information of the 130th frame, the information of the immediately preceding 100th frame and the immediately following 150th frame is extracted. Hereinafter, a proportional coefficient ρ is calculated from the ratio of (ta) and (b−t), and an area is created by firstly complementing each parameter of the area with the proportional coefficient ρ, which is defined as an object area (S7E07, S7E08). The specific position of the definition area to be created varies, for example, in units of pixels with respect to the previous and subsequent definition areas depending on the speed of change of the image.
The object area thus obtained is called and returned to the original (S7E10).

図7Fは、応答出力生成部,XML変換部および出力部の構成を説明するためのフローチャートである。
応答出力生成部22fはオブジェクト情報検索部22cおよびオブジェクト軌跡情報検索部22dからのオブジェクト情報を取得し(S7F01)、元のリクエストから要求タイプを取得する(S7F02)。そして要求タイプに従ってオブジェクトを整形する(S7F03)。例えば、オブジェクト軌跡情報が50フレーム,100フレーム,200フレーム,300フレーム,400フレームの定義領域がある場合、要求が100フレームから300フレームであるときは、50フレームと400フレームは破棄される。
整形したオブジェクト情報はXML変換部22gに渡される(S7F04)。
XML変換部22gは応答出力生成部22fからオブジェクト情報を受け取る(S7F05)と、XMLスキーマを読み込み、オブジェクト−XML変換エンジンを起動してオブジェクト情報をXMLデータに変換し、得られたXMLデータを出力部21aに渡す(S7F06,S7F07,S7F08)。出力部21aはXMLデータを取得すると出力ストリームにXMLデータを出力する(S7F09,S7F10)。
FIG. 7F is a flowchart for explaining the configuration of the response output generation unit, the XML conversion unit, and the output unit.
The response output generation unit 22f acquires the object information from the object information search unit 22c and the object trajectory information search unit 22d (S7F01), and acquires the request type from the original request (S7F02). Then, the object is shaped according to the request type (S7F03). For example, if the object trajectory information has a definition area of 50 frames, 100 frames, 200 frames, 300 frames, and 400 frames, and the request is from 100 frames to 300 frames, the 50 frames and 400 frames are discarded.
The shaped object information is passed to the XML conversion unit 22g (S7F04).
When the XML conversion unit 22g receives the object information from the response output generation unit 22f (S7F05), the XML conversion unit 22g reads the XML schema, activates the object-XML conversion engine, converts the object information into XML data, and outputs the obtained XML data. To the unit 21a (S7F06, S7F07, S7F08). When acquiring the XML data, the output unit 21a outputs the XML data to the output stream (S7F09, S7F10).

以上がプレイヤ装置およびサーバ装置の各機能部の構成,動作についての説明である。つぎに本発明の実施に係わる映像再生システム全体の処理の流れを図9,図9A〜図9Fを用いて説明する。図9における流れはサーバ装置の処理を主体にしたもので、処理シーケンスは以下の通りである。
プレイヤ装置3をユーザが操作して希望する映像コンテンツを要求する(S901)と、その要求はコンテンツ供給装置1bに送られ、コンテンツ供給装置1bは、その映像コンテンツをプレイヤ装置3に送信する(S902)。プレイヤ装置3はその映像コンテンツ(映像データ)の関係情報70をサーバ装置1aに要求する(S903)。サーバ装置1aは関係情報70の検索の要求を受けると、図9Aの流れに沿ってデータベース検索処理を起動する。これにより静的関係情報70の検索を図9Cのシーケンスに従って行い(S904)、得られた関係情報70をプレイヤ装置3に供給する(S905)。プレイヤ装置3は関係情報70を受けると映像の再生を開始する(S906)。表示装置には映像とともに自動的に関係図も表示される。つぎにプレイヤ装置3はオブジェクト軌跡情報80の取得を要求する(S907)。
The above is the description of the configuration and operation of each functional unit of the player device and the server device. Next, the processing flow of the entire video reproduction system according to the embodiment of the present invention will be described with reference to FIGS. 9 and 9A to 9F. The flow in FIG. 9 is mainly based on the processing of the server device, and the processing sequence is as follows.
When the user operates the player device 3 to request a desired video content (S901), the request is sent to the content supply device 1b, and the content supply device 1b transmits the video content to the player device 3 (S902). ). The player device 3 requests the server device 1a for the relationship information 70 of the video content (video data) (S903). When the server apparatus 1a receives a search request for the related information 70, the server apparatus 1a starts a database search process along the flow of FIG. 9A. Thus, the static relationship information 70 is searched according to the sequence of FIG. 9C (S904), and the obtained relationship information 70 is supplied to the player device 3 (S905). Upon receiving the relation information 70, the player device 3 starts playing the video (S906). The display device automatically displays the relationship diagram together with the video. Next, the player device 3 requests acquisition of the object trajectory information 80 (S907).

サーバ装置1は、図9Aの流れに沿ってデータベース検索処理を起動する。これによりオブジェクト軌跡情報の検索を図9Dのシーケンスに従って行い(S908)、得られたオブジェクト軌跡情報をプレイヤ装置3に供給する(S909)。ここまでのシーケンスは映像の進行にしたがって順次映像の関係情報とオブジェクト軌跡情報がプレイヤ装置に取り込まれ表示される。
プレイヤ装置3は現在映像が再生中であるか否かを判定し、映像が再生中でなければ、そこで終了する(S910)。映像が再生中であれば、ユーザの入力操作(操作部によって映像中のオブジェクトのクリックなど)を監視することとなる。
この状態でユーザが入力装置をしてクリックした領域がオブジェクト軌跡領域にヒットした場合にはヒットしたオブジェクトの情報をサーバ装置1に要求する(S912)。
サーバ装置1では図9Aの流れに沿ってデータベース検索処理を起動する。これにより、ヒットオブジェクト関係情報をプレイヤ装置3に供給する(S914)。なお、S913はプレイヤ装置3ではなくサーバ装置1bにオブジェクトヒット判定部を備える場合、行われるステップであり、その動作シーケンスは図9Eに示されている。
The server apparatus 1 starts the database search process along the flow of FIG. 9A. Thereby, the object trajectory information is searched according to the sequence of FIG. 9D (S908), and the obtained object trajectory information is supplied to the player device 3 (S909). In the sequence up to this point, the related information and object trajectory information of the video are sequentially taken into the player device and displayed as the video progresses.
The player device 3 determines whether or not the video is currently being played back, and if the video is not being played back, the player device 3 ends there (S910). If the video is being reproduced, the user's input operation (such as clicking on an object in the video by the operation unit) will be monitored.
In this state, when the area clicked by the user using the input device hits the object locus area, the server apparatus 1 is requested for information on the hit object (S912).
The server device 1 starts the database search process along the flow of FIG. 9A. Thereby, hit object relation information is supplied to the player apparatus 3 (S914). Note that S913 is a step performed when the server device 1b is provided with the object hit determination unit instead of the player device 3, and the operation sequence thereof is shown in FIG. 9E.

プレイヤ装置3a〜3nはヒットオブジェクト情報が供給されると、そのオブジェクトの詳細情報(オブジェクト情報77)をサーバ装置1に要求する(S915)。サーバ装置1では図9Aの流れに沿ってデータベース検索処理を起動する。これによりオブジェクトの詳細情報の検索を図9Fのシーケンスに従って行い(S916)、得られたオブジェクトの詳細情報をプレイヤ装置3に供給する(S917)。オブジェクトの詳細情報が供給されると、プレイヤ装置3はS910のステップに戻り、映像再生中の状態ではユーザの入力装置を監視し、入力操作があれば、S912〜S917のシーケンスを繰り返す。   When the hit object information is supplied, the player devices 3a to 3n request the server device 1 for detailed information (object information 77) of the object (S915). The server device 1 starts the database search process along the flow of FIG. 9A. Thereby, the detailed information of the object is searched according to the sequence of FIG. 9F (S916), and the obtained detailed information of the object is supplied to the player device 3 (S917). When the detailed information of the object is supplied, the player device 3 returns to the step of S910, monitors the user's input device during the video reproduction, and repeats the sequence of S912 to S917 if there is an input operation.

つぎに図9のサブフローチャートを示す図9A〜図9Fついて説明する。
図9Aは、サーバ装置の待ち受け処理の流れを示し、図9のS61,64,67,70の位置で起動する。プレイヤ装置3a〜3nからの処理要求を受け、要求を受信できると、要求を解析する。要求の内容が適切であれば、つぎのデータベース処理を起動する。適切でなければエラー情報を作成する(S9A01〜S9A06)。
図9Bは図9AのS9A05のデータベース検索処理のフローである。
サーバ装置1bは検索条件を受け取ると、データベース23に接続する。データベース23に接続できた場合にはデータベース23を検索して与えられたIDのコンテンツとユーザを探す。上記条件を満たすものが存在すれば、検索条件に従ってデータベース23を検索する。そしてユーザ操作履歴を記録して終了する(S9B01〜S9B07)。
S9B03においてデータベース23に接続できない場合、S9B05において条件を満たすものが存在しない場合にはエラー処理を行う(S9B08)。
Next, FIGS. 9A to 9F showing sub-flowcharts of FIG. 9 will be described.
FIG. 9A shows a flow of standby processing of the server device, which starts at the positions S61, 64, 67, and 70 in FIG. When processing requests are received from the player devices 3a to 3n and the requests can be received, the requests are analyzed. If the content of the request is appropriate, the next database processing is started. If not appropriate, error information is created (S9A01 to S9A06).
FIG. 9B is a flowchart of the database search process in S9A05 of FIG. 9A.
When the server device 1b receives the search condition, it connects to the database 23. If the connection to the database 23 is established, the database 23 is searched for the content and user with the given ID. If there is one that satisfies the above conditions, the database 23 is searched according to the search condition. Then, the user operation history is recorded and the process ends (S9B01 to S9B07).
If it is not possible to connect to the database 23 in S9B03, if there is no condition that satisfies the condition in S9B05, error processing is performed (S9B08).

図9Cは図9のS904のステップにおける、静的関係情報検索処理のフローチャートである。
検索条件を受け取り結果リストを初期化する(S9C01,S9C02)。そして当該コンテンツに属する知識情報50をすべて検索し、結果リストに保存する処理を下記のように行う(S9C03)。すなわち、検索された知識情報すべてについて主語(主キャラクタなど)・目的語(敵キャラクタ,アイテムなど)として知識情報に含まれるオブジェクト情報77を検索する(S9C04,S9C05)。そして検索されたオブジェクト情報が結果リストにない場合にはそのオブジェクト情報を結果リストに追加する(S9C06,S9C07)。つぎに述語として知識情報に含まれる関係情報部76の情報を検索し、検索された関係情報が結果リストにない場合にはその関係情報を結果リストに追加する(S9C08,S9C09,S9C10)。このS9C04〜S9C10のステップは繰り返し実行され、すべての知識情報について検索が終了する(S9C11)と、結果リストを呼び出して元に返す(S9C12)。
FIG. 9C is a flowchart of the static relationship information search process in step S904 of FIG.
The search condition is received and the result list is initialized (S9C01, S9C02). Then, all the knowledge information 50 belonging to the content is retrieved and stored in the result list as follows (S9C03). That is, the object information 77 included in the knowledge information is searched as a subject (main character, etc.) and object (enemy character, item, etc.) for all searched knowledge information (S9C04, S9C05). If the retrieved object information is not in the result list, the object information is added to the result list (S9C06, S9C07). Next, the information of the relation information part 76 included in the knowledge information as a predicate is searched. If the searched relation information is not in the result list, the relation information is added to the result list (S9C08, S9C09, S9C10). The steps of S9C04 to S9C10 are repeatedly executed, and when the search is completed for all knowledge information (S9C11), the result list is called back and returned to the original (S9C12).

図9Dは図9のS908のステップにおける、オブジェクト軌跡情報検索処理のフローチャートである。
検索条件を受け取り結果リストを初期化する(S9D01,S9D02)。そして当該コンテンツに属するオブジェクト軌跡情報80を検索し、結果リストに保存する処理を下記のように行う(S9D03)。すなわち、検索された軌跡情報すべてについて当該軌跡情報の開始時間・終了時間と検索に与えられた開始時間・終了時間がオーバラップするか否かを判断する。オーバラップしない場合にはS9D10に移行する。オーバラップする場合には当該軌跡の領域情報を検索する(S9D04,S9D05)。これは軌跡情報として例えば100フレーム〜200フレームまでである場合に、検索で与えられたフレームが1000〜1500である場合に、この場合の条件を除外するためである。検索された領域情報のうち、検索条件で与えられた時間内にあるものを結果リストに加える(S9D07)。そして結果リスト内の領域情報で検索開始または終了時刻と一致するものが存在するか判定し、一致するものが存在しない場合には領域情報のうち、検索条件外で最も時間的に近いものを結果リストに加える(S9D08,S9D09)。この処理は、例えば100フレーム,160フレーム,210フレームの領域情報が存在する場合に、検索条件として100フレームから200フレームまでであるとき、210フレームは検索条件外であるが、この210フレームがないと、200フレームの領域情報を算出することができないからである。
このようにしてS9D05〜S9D09までの検索を繰り返し行い、すべての軌跡情報について検索すると、結果リストを呼び出し元に返す(S9D10,S9D11)。
FIG. 9D is a flowchart of object trajectory information search processing in step S908 of FIG.
The search condition is received and the result list is initialized (S9D01, S9D02). Then, the object trajectory information 80 belonging to the content is retrieved and stored in the result list as follows (S9D03). That is, it is determined whether or not the start time / end time of the trajectory information overlaps the start time / end time given to the search for all the trajectory information searched. If there is no overlap, the process proceeds to S9D10. When overlapping, the area information of the locus is searched (S9D04, S9D05). This is to exclude the condition in this case when the trajectory information is from 100 frames to 200 frames and the frames given by the search are 1000 to 1500, for example. Of the searched area information, information within the time given by the search condition is added to the result list (S9D07). Then, it is determined whether there is a region that matches the search start or end time in the region information in the result list. If there is no region information that matches the search start or end time, the result is the region information that is closest in time outside the search condition. Add to list (S9D08, S9D09). In this process, for example, when region information of 100 frames, 160 frames, and 210 frames exists, if the search conditions are from 100 frames to 200 frames, 210 frames are outside the search conditions, but there are no 210 frames. This is because the area information of 200 frames cannot be calculated.
When the search from S9D05 to S9D09 is repeated in this way and all the trajectory information is searched, the result list is returned to the caller (S9D10, S9D11).

図9Eは図9のS913のステップにおける、サーバ装置でヒット判定を行う処理のオブジェクト軌跡情報検索処理のフローチャートである。
検索条件を受け取り結果リストを初期化する(S9E01,S9E02)。そして当該コンテンツに属するオブジェクト軌跡情報80を検索し(S9E03)、オブジェクト領域衝突を判定する(S9E04)。結果をリストに保存し、結果リストを呼び出し元に返す(S9E05,S9E06)。
FIG. 9E is a flowchart of the object trajectory information search process of the process of performing hit determination in the server device in the step of S913 in FIG.
The search condition is received and the result list is initialized (S9E01, S9E02). Then, the object trajectory information 80 belonging to the content is searched (S9E03), and an object area collision is determined (S9E04). The result is saved in the list, and the result list is returned to the caller (S9E05, S9E06).

図9Fは、図9のS916のステップにおける、オブジェクト詳細情報検索処理の流れを説明するためのフローチャートである。
検索条件(オブジェクトID,時間)を受け取り、結果リストを初期化する(S9F01,S9F02)。
条件に指定されたオブジェクトIDを持つオブジェクトを検索し(S9F03)、当該オブジェクトを主語または目的語とする知識情報のすべてについて下記のように検索する(S9F04)。すなわち、検索された知識情報すべてについて、主語(主キャラクタなど)・目的語(敵キャラクタ,アイテムなど)として知識情報に含まれるオブジェクト情報77を検索する(S9F05,S9F06)。そして検索されたオブジェクト情報が結果リストにない場合にはそのオブジェクト情報を結果リストに追加する(S9F07,S9F08)。つぎに述語として知識情報に含まれる関係情報部76の情報を検索し、検索された関係情報が結果リストにない場合にはその関係情報を結果リストに追加する(S9F09,S9F10,S9F11)。このS9F05〜S9F11のステップは繰り返し実行され、すべての知識情報について検索が終了する(S9F12)と、結果リストを呼び出して元に返す(S9F13)。
FIG. 9F is a flowchart for explaining the flow of object detailed information search processing in step S916 of FIG.
The search condition (object ID, time) is received and the result list is initialized (S9F01, S9F02).
An object having the object ID specified in the condition is searched (S9F03), and all knowledge information having the object as a subject or object is searched as follows (S9F04). That is, the object information 77 included in the knowledge information is searched for all the searched knowledge information as a subject (main character, etc.) and an object (enemy character, item, etc.) (S9F05, S9F06). If the retrieved object information is not in the result list, the object information is added to the result list (S9F07, S9F08). Next, the information of the relation information part 76 included in the knowledge information is searched as a predicate. If the searched relation information is not in the result list, the relation information is added to the result list (S9F09, S9F10, S9F11). The steps of S9F05 to S9F11 are repeatedly executed, and when the search is completed for all knowledge information (S9F12), the result list is called back to the original (S9F13).

図10は、本発明による映像再生システムにおけるオブジェクト関連自動表示方式の流れを説明するためのフローチャートである。
再生中の映像上に、例えば俳優が現れ、同時に俳優のノード(関係図に表示されるオブジェクト)の関係図を表示装置に自動的に表示するシーケンスを説明するもので、プレイヤ装置の制御部8a,関係図描画部10cなどが中心に動作するものである。なお、制御部8aは、以下の監視や判定を主体的に行う。
ユーザが映像再生のためのプレイヤ装置3を操作すると、プレイヤ装置3がコンテンツ供給装置とサーバ装置1にアクセスし、映像データおよび関係情報が供給され、コンテンツの準備が行われる(S1001)。すなわち、ユーザがプレイヤ装置を操作して再生すべき映像コンテンツA1を選択するためのキー操作を行うと、プレイヤ装置ではそのキー操作による設定ファイル(映像コンテンツA1を選択するため各データ)が形成され、設定ファイルが読み込まれ、インターネット上のコンテンツ供給装置1bにアクセスし、映像コンテンツA1を取得してプレイヤ装置のメモリ部9に格納する。さらにサーバ装置1にアクセスし、映像コンテンツA1対応の静的知的データ(関係情報70)およびオブジェクト軌跡データ(軌跡情報80)を検索させ、データベース23より読み出し、プレイヤ装置3に送信させる。プレイヤ装置3はこの情報もメモリ部に格納する(S1001)。
このコンテンツ準備によりプレイヤが再生操作をすれば、映像コンテンツA1が表示画面に表示される。制御部8aは取得した映像コンテンツA1が再生されているか否かを判定する(S1002)。再生されていなければ、当該シーケンスは終了し、再生中であれば、新たなオブジェクト軌跡が映像上に現れたか否かを監視する(S1003)。
FIG. 10 is a flowchart for explaining the flow of the object-related automatic display method in the video reproduction system according to the present invention.
For example, an explanation will be given of a sequence in which an actor appears on the video being played and at the same time, a relation diagram of actor nodes (objects displayed in the relation diagram) is automatically displayed on the display device. , The relationship diagram drawing unit 10c operates mainly. Note that the control unit 8a mainly performs the following monitoring and determination.
When the user operates the player device 3 for video reproduction, the player device 3 accesses the content supply device and the server device 1, and video data and related information are supplied to prepare the content (S1001). That is, when the user performs a key operation for selecting the video content A1 to be played by operating the player device, a setting file (each data for selecting the video content A1) is formed in the player device. The setting file is read, the content supply device 1b on the Internet is accessed, and the video content A1 is acquired and stored in the memory unit 9 of the player device. Further, the server device 1 is accessed, and the static intelligent data (relation information 70) and object trajectory data (trajectory information 80) corresponding to the video content A1 are retrieved, read from the database 23, and transmitted to the player device 3. The player device 3 also stores this information in the memory unit (S1001).
If the player performs a reproduction operation by this content preparation, the video content A1 is displayed on the display screen. The control unit 8a determines whether or not the acquired video content A1 is being reproduced (S1002). If it has not been reproduced, the sequence ends, and if it is being reproduced, it is monitored whether or not a new object locus has appeared on the video (S1003).

制御部8aは、新たにオブジェクト軌跡が映像上に現れていない場合にはつぎに現在現れているオブジェクトが映像中から消えたか否かを監視する(S1007)。関係図描画部10cは、映像中にオブジェクトが存在しているかぎりは、そのオブジェクトの関係図を例えば俳優が出現している映像に同期して表示する(S1011)。この動作が終了すると、再度S1002に戻り、映像の再生を確認し新たなオブジェクトの出現を監視して関係図の描画処理を繰り返す(S1003,S1007,S1011)。
S1003において、新たなオブジェクト軌跡が映像上に現れた場合には、制御部8aはそのオブジェクト詳細情報をサーバ装置1から取得し(S1004)、この詳細情報を渡された関係図描画部10cは関係図に表示するノードを作成し(S1005)、このノードを関係図中に追加し、既に存在しているノードとの関係図を作成する(S1006)。表示装置にはこの関係図が表示されることとなる。
つぎにS1007において、制御部8aは現在現れているオブジェクト軌跡が映像上から消えた場合には、消えたオブジェクトに対応するノードを取得する(S1008)。そして消えたオブジェクトが自動で追加されたものであるか否かの判定を行う(S1009)。これはユーザのクリックによって関係図に追加されたノードと、このフローによって自動的に関係図に追加されたノードを区別するためである。自動で追加されたものでない場合には、関係図の描画のS1011に移行する。自動で追加されたものである場合には、タイマ7をセットし、一定時間経過後に関係図からそのノードを削除する(S1010)。
以上により表示装置に再生される映像に同期して関係図を自動的に表示することかできる。
If a new object locus does not appear on the video, the control unit 8a next monitors whether or not the currently appearing object has disappeared from the video (S1007). As long as an object exists in the video, the relationship diagram drawing unit 10c displays the relationship diagram of the object in synchronization with, for example, a video in which an actor appears (S1011). When this operation ends, the process returns to S1002 again, confirms the reproduction of the video, monitors the appearance of a new object, and repeats the drawing process of the relationship diagram (S1003, S1007, S1011).
In step S1003, when a new object locus appears on the video, the control unit 8a acquires the object detailed information from the server device 1 (S1004), and the relationship diagram drawing unit 10c to which the detailed information is passed is related. A node to be displayed in the figure is created (S1005), this node is added to the relationship diagram, and a relationship diagram with an already existing node is created (S1006). This relationship diagram is displayed on the display device.
In step S1007, when the currently appearing object locus disappears from the video, the control unit 8a acquires a node corresponding to the disappeared object (S1008). Then, it is determined whether or not the disappeared object is automatically added (S1009). This is to distinguish between a node added to the relationship diagram by the user's click and a node automatically added to the relationship diagram by this flow. If not automatically added, the process proceeds to S1011 for drawing a relationship diagram. If it has been automatically added, the timer 7 is set, and the node is deleted from the relationship diagram after a lapse of a fixed time (S1010).
As described above, the relationship diagram can be automatically displayed in synchronization with the video reproduced on the display device.

図11は、本発明により表示装置に表示される再生映像および登場人物に関する関係図の例を示す図である。
この例は、ある時刻の映像100が表示装置の画面の左側に、関係図102が画面の右側に同時表示されている。映像100には主キャラクタ101が登場している。これに対し、関係図102には中央に、文字が楕円で囲まれた主キャラクタ(ノード)102aが描かれており、上側には文字が楕円で囲まれた追跡者(ノード)102bおよび102cがそれぞれ描かれている。追跡者102bから主キャラクタ102aのノードに対し、矢印が描かれており、「追跡する」という文字で表示されている。追跡者102bが主キャラク102aを追跡していることを示すものである。また、主キャラクタ102aと追跡者102cノード間には、相互に矢印が表示され、それぞれ「攻撃する」「追跡する」という状態が文字表示されている。
FIG. 11 is a diagram showing an example of a relationship diagram related to a reproduced video and characters displayed on the display device according to the present invention.
In this example, a video 100 at a certain time is simultaneously displayed on the left side of the screen of the display device, and the relationship diagram 102 is simultaneously displayed on the right side of the screen. A main character 101 appears in the video 100. On the other hand, in the relationship diagram 102, a main character (node) 102a in which characters are enclosed in an ellipse is drawn in the center, and trackers (nodes) 102b and 102c in which characters are enclosed in an ellipse are shown on the upper side. Each is drawn. An arrow is drawn from the tracker 102b to the node of the main character 102a, and is displayed with the characters “track”. This indicates that the tracker 102b is tracking the main character 102a. In addition, arrows are displayed between the main character 102a and the tracker 102c node, and the states “attack” and “track” are displayed as characters.

さらに、主キャラクタ102aの下部には文字が楕円で囲まれたアイテム102d,ピストル102eが表示されている。主キャラクタ102aからアイテム102dおよびピストル102eに対し矢印が描かれており、その状態が「使用する」と文字で表示されている。
このように関係図で各ノードを表示し、それらの関係を矢印,文字などで表示することにより、現時刻で表示されている映像100の状態をユーザは容易に理解することができる。
Further, an item 102d and a pistol 102e in which characters are surrounded by an ellipse are displayed below the main character 102a. An arrow is drawn from the main character 102a to the item 102d and the pistol 102e, and the state is displayed as “use”.
In this way, by displaying each node in the relationship diagram and displaying the relationship with arrows, characters, etc., the user can easily understand the state of the video 100 displayed at the current time.

図12は、再生映像中の登場人物の動きに合わせて関係図を同期させて動的に表示する状態を示す図である。
図11は映像のある時刻における表示装置に表示される例を示しているが、この例は映像の動きに対応して関係図も同様に変化して表示されることを示すものである。
図12(a)は主体キャラクタが通路に入ってくる瞬間の映像103が映し出されており、これに対応しキャラクタ104aのノードがアイテム104bを使用している状態の関係図が示されている。多数の登場人物がある場合でも、その時刻に登場するオブジェクトの関係図のみしか表示されないため、関係図自体も煩雑にはならずユーザは状況把握を容易にすることができる。
FIG. 12 is a diagram illustrating a state in which the relational diagram is dynamically displayed in synchronization with the movement of the character in the reproduced video.
FIG. 11 shows an example in which the video is displayed on the display device at a certain time. This example shows that the relationship diagram is also changed and displayed in accordance with the motion of the video.
FIG. 12A shows an image 103 at the moment when the main character enters the passage, and a relationship diagram in which the node of the character 104a uses the item 104b is shown correspondingly. Even when there are a large number of characters, only the relationship diagram of objects appearing at that time is displayed, so the relationship diagram itself is not complicated and the user can easily grasp the situation.

図12(b)は、(a)の映像からさらに進行した画面であり、映像の変化に対応して、関係図も変化する。
映像105は、主キャラクタが通路奥深く入り、他の分岐通路に向かう瞬間の映像である。関係図106では主キャラクタ106aが追跡者106cに対しピストル106bを使用している状況を示している。映像105だけでは、主キャラクタが何をしているか理解できない場合でも、関係図より主キャラクタが追跡者にピストルを使用していることが容易に理解することができる。さらに追跡者106cが主キャラクタ106aに対し追跡していることが明確となっている。映像105中には遠くの通路入り口付近に追跡者107が見え始めている。
FIG. 12B is a screen further advanced from the video in FIG. 12A, and the relationship diagram changes in accordance with the change in the video.
The video 105 is a video of the moment when the main character enters the passage deeply and heads for another branch passage. The relationship diagram 106 shows a situation in which the main character 106a is using the pistol 106b against the tracker 106c. Even if the video 105 alone does not understand what the main character is doing, it can be easily understood from the relationship diagram that the main character uses the pistol for the tracker. Furthermore, it is clear that the tracker 106c is tracking the main character 106a. In the video 105, a tracker 107 is starting to be seen near the entrance of a distant passage.

以上の実施の形態では、関係図として表示するノードを、キャラクタ名などを記載し楕円で囲んだ例を示したが、ノードの表示方法としてこのような表示に限られるものではなく、種々の形で表示することが可能である。例えば、楕円ではなく他の形状(丸,四角など)で文字や記号を囲んで表示したり、アニメ的に記載したりしても良い。また、関係を示す表示例として矢印を示したが、他の符号を用いても良い。さらに状態を文字で説明しているが、アイコンなどの簡単な絵などの表示で、より理解しやすく表示することも可能である。
また、映像コンテンツはネットワーク上のコンテンツサーバ装置のデータベースやメタデータを管理するサーバ装置のデータベースに格納しておく例を示したが、格納場所は、プレイヤ装置に直接接続できるローカルメモリやDVDやHDDなどのディスク装置に格納しても良い。また、プレイヤ装置自体が内蔵していても良い。
In the above embodiment, the node displayed as the relationship diagram is described as an example in which the character name is described and surrounded by an ellipse. However, the display method of the node is not limited to such display, and various forms are possible. Can be displayed. For example, a character or symbol may be surrounded by other shapes (circle, square, etc.) instead of an ellipse, or may be described in an animated manner. Moreover, although the arrow was shown as a display example which shows a relationship, you may use another code | symbol. Furthermore, although the state is described in characters, it is also possible to display it more easily by displaying simple pictures such as icons.
Moreover, although the example in which the video content is stored in the database of the content server device on the network and the database of the server device that manages the metadata has been shown, the storage location is a local memory, DVD, or HDD that can be directly connected to the player device It may be stored in a disk device such as Further, the player device itself may be built in.

また、オブジェクト軌跡ヒット判定はプレイヤ装置に備える場合を主に(一部サーバ装置側に存在する場合も説明している)構成やシーケンス説明をしたが、オブジェクト軌跡判定手段をプレイヤ装置に含まず、サーバ装置側に設けても良い。
さらにコンテンツサーバ装置,サーバ装置およびプレイヤ装置をネットワークで接続して構成される映像再生システムの実施の形態について説明したが、コンテンツサーバ装置,サーバ装置およびプレイヤ装置の各機能部を1つの装置内に内蔵させた装置、例えば映像再生装置システムとして構成することも可能である。かかる場合には映像に関するデータ構造は図5の例に示すような構造であり、各機能部は、図6A〜図6I,図7A〜図7Fで説明した構成と略同じである。ただし、サーバ装置とプレイヤ装置の間を通信する手段であるネットワークインタフェース21b,ネットワーク通信部12(図4参照)は不要である。この映像再生装置は映像およびメタデータならびに検索部なども持っているため、装置自体の処理の負担はサーバ装置,プレイヤ装置に分散する場合に比較し大きくなるが、ネットワーク通信の処理が省けるため映像および関係図表示のための表示処理速度は向上する。さらに映像,メタデータ,制御データ,選択データなどを各データ別に目的にあったメモリ媒体に記録でき、効率的なメモリ手段の構築が可能となる。
In addition, the object trajectory hit determination is mainly described in the case where it is provided in the player device (which also describes the case where it exists on the server device side), but the sequence of the object trajectory determination means is not included in the player device. You may provide in the server apparatus side.
Further, the embodiment of the video reproduction system configured by connecting the content server device, the server device, and the player device via the network has been described. However, the functional units of the content server device, the server device, and the player device are included in one device. It is also possible to configure as a built-in device, for example, a video playback device system. In such a case, the data structure relating to the video is the structure shown in the example of FIG. 5, and each functional unit is substantially the same as the configuration described in FIGS. 6A to 6I and FIGS. 7A to 7F. However, the network interface 21b and the network communication unit 12 (see FIG. 4), which are means for communicating between the server device and the player device, are unnecessary. Since this video playback device also has video and metadata, a search unit, etc., the processing burden on the device itself becomes larger than when it is distributed to the server device and the player device, but the video communication processing can be omitted to save the network communication processing. And the display processing speed for displaying the relationship diagram is improved. Furthermore, video, metadata, control data, selection data, etc. can be recorded in a memory medium for each data purpose, and an efficient memory means can be constructed.

映像コンテンツをプレイヤ装置で再生する映像再生システムにおけるオブジェクト関連自動表示方式ならびに該映像再生システムに用いるサーバ装置およびプレイヤ装置であり、家庭用や業務用に用いられる。   An object-related automatic display method in a video playback system that plays back video content on a player device, and a server device and a player device used in the video playback system, are used for home use and business use.

本発明による映像再生システムにおけるオブジェクト関連自動表示方式を説明するためのシステム概略図である。1 is a system schematic diagram for explaining an object-related automatic display method in a video reproduction system according to the present invention. 本発明に用いられるプレイヤ装置の物理的構成の実施の形態を示すブロック図である。It is a block diagram which shows embodiment of the physical structure of the player apparatus used for this invention. 本発明に用いられるサーバ装置の物理的構成の実施の形態を示すブロック図である。It is a block diagram which shows embodiment of the physical structure of the server apparatus used for this invention. プレイヤ装置とサーバ装置における各機能部の情報送受の関係を説明するための図である。It is a figure for demonstrating the relationship of the information transmission / reception of each function part in a player apparatus and a server apparatus. 本発明で送受される動画メタデータのデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of the moving image metadata transmitted / received by this invention. プレイヤ装置の入力処理部の構成を説明するためのフローチャートである。It is a flowchart for demonstrating the structure of the input process part of a player apparatus. プレイヤ装置の制御部の構成を説明するためのフローチャートである。It is a flowchart for demonstrating the structure of the control part of a player apparatus. プレイヤ装置の映像制御部の構成を説明するためのフローチャートである。It is a flowchart for demonstrating the structure of the video control part of a player apparatus. プレイヤ装置のオブジェクトヒット判定部(マウス座標)の構成を説明するためのフローチャートである。It is a flowchart for demonstrating the structure of the object hit determination part (mouse coordinate) of a player apparatus. 選択領域と軌跡領域とが僅かに重なっているため、ヒットしていると判断される例を示す図である。It is a figure which shows the example judged to have hit because the selection area | region and the locus | trajectory area | region have overlapped slightly. プレイヤ装置のオブジェクトヒット判定部(キー選択矩形)の構成を説明するためのフローチャートである。It is a flowchart for demonstrating the structure of the object hit determination part (key selection rectangle) of a player apparatus. 映像中のグリッド領域の表示例を示す図である。It is a figure which shows the example of a display of the grid area | region in an image | video. プレイヤ装置のネットワーク通信部の構成を説明するためのフローチャートである。It is a flowchart for demonstrating the structure of the network communication part of a player apparatus. プレイヤ装置のメタデータ解析部の構成を説明するためのフローチャートである。It is a flowchart for demonstrating the structure of the metadata analysis part of a player apparatus. プレイヤ装置のメタデータ合成部の構成を説明するためのフローチャートである。It is a flowchart for demonstrating the structure of the metadata synthetic | combination part of a player apparatus. プレイヤ装置のグリッド選択領域描画部,関係図描画部,オブジェクト軌跡描画部および合成処理部の構成を説明するためのフローチャートである。It is a flowchart for demonstrating the structure of the grid selection area | region drawing part of a player apparatus, a relationship figure drawing part, an object locus | trajectory drawing part, and a synthetic | combination process part. 表示装置で表示される合成画像の一例を示す図である。It is a figure which shows an example of the synthesized image displayed with a display apparatus. サーバ装置の入力部およびパラメータ解析部の構成を説明するためのフローチャートである。It is a flowchart for demonstrating the structure of the input part and parameter analysis part of a server apparatus. サーバ装置の画像情報解析部およびオブジェクト情報検索部の構成を説明するためのフローチャートである。It is a flowchart for demonstrating the structure of the image information analysis part of a server apparatus, and an object information search part. サーバ装置のオブジェクト軌跡情報検索部の構成を説明するためのフローチャートである。It is a flowchart for demonstrating the structure of the object locus | trajectory information search part of a server apparatus. サーバ装置のオブジェクト領域衝突判定部の構成を説明するためのフローチャートである。It is a flowchart for demonstrating the structure of the object area | region collision determination part of a server apparatus. 図7DのサブフローAの特定時刻におけるオブジェクト位置の算出方法を説明するためのフローチャートである。It is a flowchart for demonstrating the calculation method of the object position in the specific time of the subflow A of FIG. 7D. サーバ装置の応答出力生成部,XML変換部および出力部の構成を説明するためのフローチャートである。It is a flowchart for demonstrating the structure of the response output production | generation part of a server apparatus, an XML conversion part, and an output part. 本発明における各取得要求および判定要求の内容の一例を示す図である。It is a figure which shows an example of the content of each acquisition request and determination request | requirement in this invention. 本発明によるオブジェクト関連自動表示方式を適用した映像再生システムの処理シーケンスを説明するための図である。It is a figure for demonstrating the processing sequence of the video reproduction system to which the object related automatic display system by this invention is applied. サーバ装置の待ち受け処理の流れを説明するためのフローチャートである。It is a flowchart for demonstrating the flow of the standby process of a server apparatus. データベース検索処理の流れを説明するためのフローチャートである。It is a flowchart for demonstrating the flow of a database search process. 静的知識情報検索処理の流れを説明するためのフローチャートである。It is a flowchart for demonstrating the flow of a static knowledge information search process. オブジェクト軌跡情報検索処理の流れを説明するためのフローチャートである。It is a flowchart for demonstrating the flow of an object locus | trajectory information search process. オブジェクトヒット判定処理の流れを説明するためのフローチャートである。It is a flowchart for demonstrating the flow of an object hit determination process. オブジェクト詳細情報検索処理の流れを説明するためのフローチャートである。It is a flowchart for demonstrating the flow of an object detailed information search process. 本発明による映像再生システムにおけるオブジェクト関連自動表示方式の流れを説明するためのフローチャートである。5 is a flowchart for explaining a flow of an object-related automatic display method in the video reproduction system according to the present invention. 本発明により表示装置に表示される再生映像の例およびその登場人物に関する関係図の例を示す図である。It is a figure which shows the example of the related figure regarding the example of the reproduction | regeneration image | video displayed on a display apparatus by this invention, and its character. 再生映像中の登場人物の動きに合わせて関係図を同期させて動的に表示する例を示す図である。It is a figure which shows the example which synchronizes a relation figure according to a motion of the character in a reproduction | regeneration image | video, and displays it dynamically.

符号の説明Explanation of symbols

1 サーバ装置
1a メタデータ管理サーバ装置
1b コンテンツサーバ装置
2 ネットワーク
3(3a〜3n) プレイヤ装置
4 オーサリング装置
5 操作部
6 入力処理部
7 タイマ
8 プレイヤ制御回路
8a 制御部
8b 映像制御部
8c オブジェクト軌跡ヒット判定部(キー選択矩形)
8d オブジェクト軌跡ヒット判定部(マウス座標)
8e メタデータ解析部
8f メタデータ合成部
9 メモリ部(半導体メモリ)
9a メタデータ記憶部
9b 選択情報記憶部
10 画像処理部
10a 映像描画部
10b グリッド選択領域描画部
10c 関係図描画部
10d オブジェクト軌跡描画部
11 表示装置
12,21 ネットワーク通信部
21a 出力部
21b ネットワークインタフェース
21c 入力部
22 サーバ制御回路
22a パラメータ解析部
22b 画素情報解析部
22c オブジェクト情報検索部
22d オブジェクト軌跡情報検索部
22e オブジェクト領域衝突判定部
22f 応答出力生成部
22g XML変換部
23 データベース
24 データベース制御部
25 メモリ部
26 操作装置
27 入力制御部
28 画像処理部
29 表示装置
40 動画ファイル
50 知識情報
60 ユーザ情報
70 関係情報
75 関係文
76 関係情報部
77 オブジェクト情報
80 軌跡情報
85 軌跡情報部
86 軌跡領域情報
1 Server device 1a Metadata management server device
1b Content server device
2 network
3 (3a-3n) Player device
4 authoring device 5 operation unit 6 input processing unit 7 timer 8 player control circuit 8a control unit 8b video control unit 8c object locus hit determination unit (key selection rectangle)
8d Object locus hit determination part (mouse coordinates)
8e Metadata analysis unit
8f Metadata composition part 9 Memory part (semiconductor memory)
9a Metadata storage unit 9b Selection information storage unit 10 Image processing unit 10a Video drawing unit 10b Grid selection area drawing unit 10c Relationship diagram drawing unit 10d Object locus drawing unit 11 Display device 12, 21 Network communication unit 21a Output unit
21b Network interface 21c Input unit 22 Server control circuit 22a Parameter analysis unit
22b Pixel information analysis unit
22c Object information search unit 22d Object trajectory information search unit 22e Object area collision determination unit
22f response output generation unit 22g XML conversion unit 23 database 24 database control unit 25 memory unit 26 operation device 27 input control unit 28 image processing unit 29 display device 40 moving image file 50 knowledge information 60 user information 70 relation information 75 relation sentence 76 relation information Part 77 Object information 80 Trajectory information 85 Trajectory information part 86 Trajectory area information

Claims (12)

映像コンテンツと該映像コンテンツの各映像に対応するメタデータを有し、映像の再生に伴い映像とメタデータを表示装置に表示する映像再生システムであって、
映像を描画する映像描画手段と、
前記映像に関係するメタデータを構成する関係情報より、映像に現れるオブジェクト間の関係を示す関係図を作成する関係図作成描画手段と、
前記映像描画手段および前記関係図作成描画手段の描画データを合成する合成処理手段とを備え、
前記表示装置に表示される動画に同期して該動画表示領域とは異なる表示位置または映像に一部重複するようにオブジェクトの関係図を表示することを特徴とする映像再生システムにおけるオブジェクト関連自動表示方式。
A video playback system having video content and metadata corresponding to each video of the video content, and displaying the video and metadata on a display device as the video is played back,
Video rendering means for rendering video;
A relationship diagram creating / drawing means for creating a relationship diagram showing a relationship between objects appearing in the video from relationship information constituting metadata related to the video;
Combining processing means for combining drawing data of the video drawing means and the relation diagram creation drawing means,
An object-related automatic display in a video playback system, wherein a relational diagram of objects is displayed so as to partially overlap a display position or video different from the video display area in synchronization with the video displayed on the display device method.
映像を供給するコンテンツ供給装置,映像を再生するプレイヤ装置および各映像に対応するメタデータをプレイヤ装置からの要求に応じて配信するサーバ装置とからなる映像再生システムであって、
前記プレイヤ装置は、
映像を描画する映像描画手段と、
前記映像に関係するメタデータを前記サーバ装置に要求し、該サーバ装置から送られてくるメタデータを構成する関係情報より、映像に現れるオブジェクト間の関係を示す関係図を作成する関係図作成描画手段と、
前記映像描画手段および前記関係図作成描画手段の描画データを合成する合成処理手段とを備え、
プレイヤ装置の表示装置に表示される動画に同期して該動画表示領域とは異なる表示位置または映像に一部重複するようにオブジェクトの関係図を表示することを特徴とする映像再生システムにおけるオブジェクト関連自動表示方式。
A video playback system comprising a content supply device that supplies video, a player device that plays back video, and a server device that delivers metadata corresponding to each video in response to a request from the player device,
The player device includes:
Video rendering means for rendering video;
Requests metadata related to the video to the server device, and creates a relationship diagram drawing that creates a relationship diagram showing the relationship between objects appearing in the video from the relationship information constituting the metadata sent from the server device Means,
Combining processing means for combining drawing data of the video drawing means and the relation diagram creation drawing means,
An object relation in a video reproduction system, wherein a relation diagram of objects is displayed so as to partially overlap a display position or video different from the video display area in synchronization with a video displayed on a display device of a player device Automatic display method.
前記メタデータを構成するオブジェクト軌跡情報より、映像に現れる各オブジェクトの軌跡を作成して描画するオブジェクト軌跡作成描画手段を有し、
映像に該オブジェクト軌跡をオーバレイ表示することを特徴とする請求項1または2記載の映像再生システムにおけるオブジェクト関連自動表示方式。
Object trajectory creation and drawing means for creating and drawing a trajectory of each object appearing in the video from the object trajectory information constituting the metadata,
3. The object-related automatic display method in the video reproduction system according to claim 1, wherein the object trajectory is displayed as an overlay on the video.
前記メタデータは少なくとも映像の1フレーム単位でオブジェクトの関係図と軌跡情報とを備えることを特徴とする請求項1,2または3記載の映像再生システムにおけるオブジェクト関連自動表示方式。   4. The object-related automatic display method in a video reproduction system according to claim 1, wherein the metadata includes an object relation diagram and trajectory information in at least one frame unit of the video. 前記オブジェクトの関係図は、オブジェクト毎に、オブジェクトを意味する文字を囲むように領域を形成してノードとなし、該ノード間は線分で引いて関係付け、該線分の近辺にノードの関係を文字で表示したことを特徴とする請求項1,2,3または4記載の映像再生システムにおけるオブジェクト関連自動表示方式。   In the object relationship diagram, for each object, an area is formed so as to enclose characters that represent the object, and nodes are formed. The nodes are drawn by line segments, and the relationship between the nodes in the vicinity of the line segment. 5. The object-related automatic display method in the video reproduction system according to claim 1, 2, 3, or 4, wherein the character is displayed in characters. 前記映像描画手段,前記関係図作成描画手段および前記オブジェクト軌跡作成描画手段はフレームバッファでそれぞれ構成され、
各フレームバッファにそれぞれのイメージを表現するビットを書き込むことにより各描画を作成することを特徴とする請求項3,4または5記載の映像再生システムにおけるオブジェクト関連自動表示方式。
The video drawing means, the relationship diagram creation drawing means, and the object trajectory creation drawing means are each constituted by a frame buffer,
6. The object-related automatic display method in the video reproduction system according to claim 3, wherein each drawing is created by writing a bit representing each image in each frame buffer.
前記プレイヤ装置は、メタデータ記憶手段とメタデータ合成手段を有し、
前記メタデータ合成手段は、オブジェクトの関係情報と軌跡情報とを構成する知識情報が供給された場合、前記メタデータが前記メタデータ記憶手段に存在しない場合は供給されたオブジェクトの関係情報または軌跡情報を記憶させることによりメタデータを合成し、
前記合成したメタデータ中のオブジェクトの関係情報を前記関係図作成描画手段に、
前記合成したメタデータ中のオブジェクト軌跡情報を前記オブジェクト軌跡作成描画手段にそれぞれ渡すことを特徴とする請求項2記載の映像再生システムにおけるオブジェクト関連自動表示方式。
The player device has metadata storage means and metadata composition means,
When the metadata composition means is supplied with knowledge information constituting object relation information and trajectory information, if the metadata does not exist in the metadata storage means, the supplied object relation information or trajectory information Synthesize metadata by storing
The relationship information of the objects in the synthesized metadata is sent to the relationship diagram creation / drawing means.
3. The object-related automatic display method in the video reproduction system according to claim 2, wherein the object locus information in the synthesized metadata is passed to the object locus creation / drawing means.
前記映像と該映像に対応するオブジェクトの関係図は同期してそれぞれ異なる表示装置に表示することを特徴とする請求項1乃至6の何れか1つに記載の映像再生システムにおけるオブジェクト関連自動表示方式。   7. The object-related automatic display method in the video reproduction system according to claim 1, wherein the relationship diagram between the video and the object corresponding to the video is displayed on different display devices in synchronization with each other. . 映像再生システムに用いられるプレイヤ装置であって、
該プレイヤ装置は、
映像を描画する映像描画手段と、
前記映像に関係するメタデータをサーバ装置に要求し、該サーバ装置から送られてくるメタデータを構成する関係情報より、映像に現れるオブジェクト間の関係を示す関係図を作成する関係図作成描画手段と、
前記映像描画手段および前記関係図作成描画手段の描画データを合成する合成処理手段とを備えたことを特徴とする映像再生システムにおけるプレイヤ装置。
A player device used in a video reproduction system,
The player device includes:
Video rendering means for rendering video;
A relationship diagram creation / drawing means for requesting metadata related to the video to a server device and creating a relationship diagram showing a relationship between objects appearing in the video based on relationship information constituting metadata sent from the server device. When,
A player apparatus in a video reproduction system, comprising: synthesis processing means for synthesizing drawing data of the video drawing means and the relation diagram creation drawing means.
前記サーバ装置から送られてくるメタデータを構成するオブジェクト軌跡情報より、映像に現れる各オブジェクトの軌跡を作成して描画するオブジェクト軌跡作成描画手段を有することを特徴とする請求項9記載の映像再生システムにおけるプレイヤ装置。   10. The video reproduction according to claim 9, further comprising object trajectory creation / drawing means for creating and drawing a trajectory of each object appearing in the video from object trajectory information constituting the metadata sent from the server device. A player device in the system. 前記請求項2記載の映像再生システムに用いられるサーバ装置であって、
該サーバ装置は、前記プレイヤ装置とはネットワークを介して、または直接接続され、プレイヤ装置からの要求に応じて映像対応のメタデータを供給することを特徴とする映像再生システムにおけるサーバ装置。
A server device used in the video reproduction system according to claim 2,
The server device in a video playback system, wherein the server device is connected to the player device via a network or directly and supplies video-compatible metadata in response to a request from the player device.
前記サーバ装置は、
前記データベースを有し、
前記データベースよりオブジェクト関係情報を検索するオブジェクト情報検索手段と、
前記データベースよりオブジックト軌跡情報を検索するオブジェクト軌跡情報検索手段と、
前記オブジェクト検索情報をXML形式に変換して前記プレイヤ装置に供給することを特徴とする請求項11記載の映像再生システムにおけるサーバ装置。
The server device
Having the database;
Object information retrieval means for retrieving object relation information from the database;
Object trajectory information search means for searching object trajectory information from the database;
12. The server device in the video reproduction system according to claim 11, wherein the object search information is converted into an XML format and supplied to the player device.
JP2005371756A 2005-12-26 2005-12-26 Object-related automatic display system in video reproduction system, player device and server device used for display system Pending JP2007174477A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005371756A JP2007174477A (en) 2005-12-26 2005-12-26 Object-related automatic display system in video reproduction system, player device and server device used for display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005371756A JP2007174477A (en) 2005-12-26 2005-12-26 Object-related automatic display system in video reproduction system, player device and server device used for display system

Publications (2)

Publication Number Publication Date
JP2007174477A true JP2007174477A (en) 2007-07-05
JP2007174477A5 JP2007174477A5 (en) 2008-10-30

Family

ID=38300416

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005371756A Pending JP2007174477A (en) 2005-12-26 2005-12-26 Object-related automatic display system in video reproduction system, player device and server device used for display system

Country Status (1)

Country Link
JP (1) JP2007174477A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9661292B2 (en) 2011-12-28 2017-05-23 Panasonic Intellectual Property Management Co., Ltd. Content playback device and content playback method
US11431990B2 (en) 2015-06-04 2022-08-30 Thales Holdings Uk Plc Video compression with increased fidelity near horizon

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004362548A (en) * 1999-10-19 2004-12-24 Lg Electronics Inc Content retrieval method for multimedia
JP2005020773A (en) * 1999-09-22 2005-01-20 Lg Electronics Inc Method for constructing semantic connection information between segments of multimedia stream
JP2005124169A (en) * 2003-09-26 2005-05-12 Matsushita Electric Ind Co Ltd Video image contents forming apparatus with balloon title, transmitting apparatus, reproducing apparatus, provisioning system, and data structure and record medium used therein
JP2005151147A (en) * 2003-11-14 2005-06-09 Toshiba Corp Reproducing device and method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005020773A (en) * 1999-09-22 2005-01-20 Lg Electronics Inc Method for constructing semantic connection information between segments of multimedia stream
JP2004362548A (en) * 1999-10-19 2004-12-24 Lg Electronics Inc Content retrieval method for multimedia
JP2005124169A (en) * 2003-09-26 2005-05-12 Matsushita Electric Ind Co Ltd Video image contents forming apparatus with balloon title, transmitting apparatus, reproducing apparatus, provisioning system, and data structure and record medium used therein
JP2005151147A (en) * 2003-11-14 2005-06-09 Toshiba Corp Reproducing device and method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9661292B2 (en) 2011-12-28 2017-05-23 Panasonic Intellectual Property Management Co., Ltd. Content playback device and content playback method
US11431990B2 (en) 2015-06-04 2022-08-30 Thales Holdings Uk Plc Video compression with increased fidelity near horizon

Similar Documents

Publication Publication Date Title
US10430976B2 (en) Method and apparatus for producing and reproducing augmented reality contents in mobile terminal
US8074161B2 (en) Methods and systems for selection of multimedia presentations
US6144375A (en) Multi-perspective viewer for content-based interactivity
JP5499331B2 (en) Streaming media trick play
US6473096B1 (en) Device and method for generating scenario suitable for use as presentation materials
JP3921977B2 (en) Method for providing video data and device for video indexing
CN109783659A (en) Based on the pre- visual automation Storyboard of natural language processing and 2D/3D
JP2007192988A (en) Object enhancement display system in video reproduction system and object locus overlay display system, and player device and server device used for the display systems
US20060268007A1 (en) Methods for Providing Information Services Related to Visual Imagery
KR20160147978A (en) Displaying data associated with a program based on automatic recognition
JP2002135747A (en) System and method for allowing presentation and preparing collection of movie for private use
US20040001697A1 (en) Video data reproduction apparatus, schedule data, video data reproduction method, and video data reproduction program
JP2008236390A (en) Video seek control method in video reproduction system
JP2007207191A (en) Delay click mode in image reproduction system, and player device and server device used for mode thereof
JP4829357B2 (en) Image processing apparatus and image processing method
KR100989182B1 (en) Method and System for Providing Additional Service of Moving Picture with Transparent Layer
KR102261221B1 (en) System And Method For Obtaining Image Information, And Method For Displaying Image Acquisition Information
EP1517328B1 (en) Information editing device, information editing method, and computer program product
JP2007174477A (en) Object-related automatic display system in video reproduction system, player device and server device used for display system
KR20100118896A (en) Method and apparatus for providing information of objects in contents and contents based on the object
JP2007233542A (en) Region click selection system in video reproduction system and player device to which the same system is applied
JP2008257524A (en) Object locus selection method in image reproduction system
WO2000073914A1 (en) Synchronized spatial-temporal browsing of images for selection of indexed temporal multimedia titles
JP2008112425A (en) Data processor, data processing method, data processing program, and recording medium with data processing program recorded
JP5289527B2 (en) Image processing apparatus, image processing program, and image processing method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080912

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080912

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110510

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110913