JP2006018336A - Meta data generation device and method, and meta data generation program - Google Patents

Meta data generation device and method, and meta data generation program Download PDF

Info

Publication number
JP2006018336A
JP2006018336A JP2004192402A JP2004192402A JP2006018336A JP 2006018336 A JP2006018336 A JP 2006018336A JP 2004192402 A JP2004192402 A JP 2004192402A JP 2004192402 A JP2004192402 A JP 2004192402A JP 2006018336 A JP2006018336 A JP 2006018336A
Authority
JP
Japan
Prior art keywords
message
metadata
input
media data
phrase
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004192402A
Other languages
Japanese (ja)
Inventor
Toshihiko Manabe
俊彦 真鍋
Hideki Tsutsui
秀樹 筒井
Miyoshi Fukui
美佳 福井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2004192402A priority Critical patent/JP2006018336A/en
Publication of JP2006018336A publication Critical patent/JP2006018336A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To extract meta data including attribute information from a message inputted by natural language processing. <P>SOLUTION: This meta data generation device is constituted of a message input part 101, a message analysis part 102, a unique expression selecting part 103, a meta data registering part 104, a meta data storing part 105 and a control part 106. The unique expression and the attributes are estimated from text data inputted as a message by a user, and the unique expression having the attributes related with media data and the attributes are registered as meta data, so that it is possible to simplify meta data application to the media data. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、メディアデータのメタデータを生成するメタデータ生成装置に関する。   The present invention relates to a metadata generation apparatus that generates metadata of media data.

近年、メディアデータ、特にストリームメディアデータ(テレビジョン放送で送られる番組や、DVD等で提供される映画等)へのアクセスを容易にするため、メタデータをメディアデータに付加する試みが、例えばMPEG−7などにおいて行われている。   In recent years, attempts have been made to add metadata to media data to facilitate access to media data, particularly stream media data (programs sent on television broadcasts, movies provided on DVDs, etc.), for example, MPEG. -7 etc.

メタデータとは、あるデータに関する情報を記述したデータを指す。
例えば、テレビジョン放送では、映像や音声等のメディアデータに、このメディアデータに関する番組の内容や番組への出演者等の情報を記述しておくことにより、所望の内容や出演者関するメディアデータを検索する場合などに役立てることができる。或いは、メディアデータ内の特定の部分、例えば野球番組でAチームのB選手が登場する場面のみを選択的に検索して視聴するというような要求に応えることもできる。即ち、番組内で当該B選手が登場するシーンを示すデータをメタデータとしてメディアデータと共に予め記述しておくことにより、当該シーンを容易に検索できるようになる。
Metadata refers to data describing information about certain data.
For example, in television broadcasting, by describing the contents of a program related to the media data and information on the performers in the program in media data such as video and audio, the desired content and media data relating to the performers are stored. This can be useful when searching. Alternatively, it is possible to respond to a request to selectively search and view only a specific part in the media data, for example, only a scene where a B player of Team A appears in a baseball program. That is, the scene can be easily retrieved by preliminarily describing the data indicating the scene in which the B player appears in the program as metadata along with the media data.

マルチメディア・コンテンツに対するメタデータの表記方法に関しては、国際標準規格であるMPEG(Moving Picture Experts Group)において策定されたMPEG−7が知られている。   As a metadata notation method for multimedia contents, MPEG-7 established in the MPEG (Moving Picture Experts Group) which is an international standard is known.

従来、メタデータをメディアデータに付与する手段としては、従来、(1)メディアデータ中の音声やテロップなどのパターン情報を音声認識やOCRなどのメディア変換によりテキスト情報に変換する方法(例えば、特許文献1参照)や、(2)オーサリングツールと呼ばれる計算機上の専用ツールなどを用いて人手によりメディアデータと対応付けてメタデータを入力する方法(例えば、特許文献2参照)が知られている。   Conventionally, as means for adding metadata to media data, conventionally, (1) pattern information such as voice and telop in media data is converted into text information by media conversion such as voice recognition and OCR (for example, patents). There are known methods for inputting metadata in association with media data manually using a dedicated tool on a computer called an authoring tool (see Reference 1) and (2).

特開2003−296333公報JP 2003-296333 A 特開2003−178076公報JP 2003-178076 A

メディアデータにメタデータを付与するための従来の手段は、(1)音声認識やOCRなどのメディア変換によりメディアデータ中からテキスト情報をメタデータとして抽出する方式では、メディア変換の能力の限界(認識精度など)により、限られた種類のメディアデータ(例えば、ニュース番組)にしか適用できないという課題があり、かつ、テキスト情報がそのままメタデータとして入力されるので、メタデータが何(例えば、野球チームなのか、野球選手なのか等)を表現しているかの属性情報がなかった。   Conventional methods for adding metadata to media data are as follows: (1) In the method of extracting text information as metadata from media data by media conversion such as voice recognition or OCR, the limit of media conversion capability (recognition) Accuracy, etc.), there is a problem that it can only be applied to limited types of media data (for example, news programs), and text information is directly input as metadata, so what is the metadata (for example, a baseball team) There is no attribute information as to whether it is a baseball player or the like.

また、(2)専用ツールを用いた人手による方式では、メタデータを逐一定められたフォーマットで入力しなければならず作業者の負担が大きいことと、付与されるメタデータの質、量が作業者の知識に依存するという課題があった。   (2) In the manual method using a dedicated tool, the metadata must be input in a fixed format one by one, and the burden on the operator is great, and the quality and quantity of the metadata to be assigned are There was a problem of depending on the knowledge of the person.

本発明は、上記したような従来の問題点に鑑み、自然言語処理により入力されたメッセージから属性情報も含めてメタデータを抽出することとを目的とする。
また、複数のユーザが交換するメッセージを解析することで、1人のユーザの知識に依存しないメタデータを作成することができるメタデータ生成装置を提供することを目的とする。
SUMMARY OF THE INVENTION In view of the above-described conventional problems, an object of the present invention is to extract metadata including attribute information from a message input by natural language processing.
Moreover, it aims at providing the metadata production | generation apparatus which can produce | generate the metadata which does not depend on the knowledge of one user by analyzing the message which several users exchange.

上記の目的を達成するために、本発明においては、メディアデータのメタデータを生成するメタデータ生成装置において、前記メディアデータに関連したメッセージ情報を入力するメッセージ入力手段と、前記メッセージ入力手段により入力されたメッセージ情報から語句と当該語句の属性を抽出するメッセージ解析手段と、前記メッセージ解析手段の抽出結果の中から前記メディアデータに関連する属性をもつ語句を選別する語句選別手段と、前記選別された語句と当該語句の属性を前記メタデータとして蓄積手段に蓄積するメタデータ登録手段とを備えたことを特徴とするメタデータ生成装置を提供する。   In order to achieve the above object, according to the present invention, in a metadata generation apparatus for generating metadata of media data, message input means for inputting message information related to the media data, and input by the message input means A message analysis unit that extracts a phrase and an attribute of the phrase from the extracted message information; a phrase selection unit that selects a phrase having an attribute related to the media data from an extraction result of the message analysis unit; There is provided a metadata generation apparatus comprising: a metadata registration unit that stores the phrase and the attribute of the phrase in the storage unit as the metadata.

また、上記の目的を達成するために、本発明においては、メディアデータのメタデータを生成するメタデータ生成方法において、
前記メディアデータに関連したメッセージ情報を入力するメッセージ入力ステップと、前記メッセージ入力ステップにより入力されたメッセージ情報から語句と当該語句の属性を抽出するメッセージ解析ステップと、前記メッセージ解析ステップの抽出結果の中から前記メディアデータに関連する属性をもつ語句を選別する語句選別ステップと、前記選別された語句と当該語句の属性を前記メタデータとして蓄積手段に蓄積するメタデータ登録ステップとを備えたことを特徴とするメタデータ生成方法を提供する。
In order to achieve the above object, in the present invention, in a metadata generation method for generating metadata of media data,
A message input step for inputting message information related to the media data, a message analysis step for extracting words and attributes of the words from the message information input by the message input step, and an extraction result of the message analysis step. A phrase selecting step for selecting a phrase having an attribute related to the media data from the media, and a metadata registration step for storing the selected phrase and the attribute of the phrase in the storage means as the metadata. A metadata generation method is provided.

また、上記の目的を達成するために、本発明においては、メディアデータのメタデータをコンピュータに生成させるメタデータ生成プログラムにおいて、前記コンピュータに、前記メディアデータに関連したメッセージ情報を入力させ、前記入力されたメッセージ情報から語句と当該語句の属性を抽出させ、前記抽出結果の中から前記メディアデータに関連する属性をもつ語句を選別させ、前記選別された語句と当該語句の属性を前記メタデータとして蓄積手段に蓄積させることを特徴とするメタデータ生成プログラムを提供する。   In order to achieve the above object, according to the present invention, in a metadata generation program for causing a computer to generate metadata of media data, the computer is caused to input message information related to the media data, and the input A phrase and an attribute of the phrase are extracted from the extracted message information, a phrase having an attribute related to the media data is selected from the extraction result, and the selected phrase and the attribute of the phrase are used as the metadata. Provided is a metadata generation program that is stored in a storage means.

なお、装置に係る本発明は方法に係る発明としても成立し、方法に係る本発明は装置に係る発明としても成立する。
また、装置または方法に係る本発明は、コンピュータに当該発明に相当する手順を実行させるための(あるいはコンピュータを当該発明に相当する手段として機能させるための、あるいはコンピュータに当該発明に相当する機能を実現させるための)プログラムとしても成立し、該プログラムを記録したコンピュータ読み取り可能な記録媒体としても成立する。
The present invention relating to the apparatus is also established as an invention relating to a method, and the present invention relating to a method is also established as an invention relating to an apparatus.
Further, the present invention relating to an apparatus or a method has a function for causing a computer to execute a procedure corresponding to the invention (or for causing a computer to function as a means corresponding to the invention, or for a computer to have a function corresponding to the invention. It can also be realized as a program (for realizing the program), and can also be realized as a computer-readable recording medium on which the program is recorded.

以上述べたように、本発明によれば、自然言語処理により入力されたメッセージから属性情報も含めてメタデータを簡易に抽出することができる。   As described above, according to the present invention, metadata including attribute information can be easily extracted from a message input by natural language processing.

以下、図面を参照しながら本発明の実施形態について説明する。
(第1の実施形態)
図1は、本発明の第1の実施形態に係るメタデータ生成装置の構成を示す図である。
図1において、メタデータ生成装置は、メッセージ入力部101,メッセージ解析部102,固有表現選別部103,メタデータ登録部104,メタデータ蓄積部105および制御部106から構成されている。このメタデータ生成装置は、例えば図2に示す一般の計算機(コンピュータ)上で実現することができる。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 1 is a diagram showing a configuration of a metadata generation apparatus according to the first embodiment of the present invention.
In FIG. 1, the metadata generation apparatus includes a message input unit 101, a message analysis unit 102, a specific expression selection unit 103, a metadata registration unit 104, a metadata storage unit 105, and a control unit 106. This metadata generation apparatus can be realized, for example, on a general computer (computer) shown in FIG.

図2は、本発明のメタデータ生成装置をコンピュータで実現したときのハードウェアの一例を示す図である。
このコンピュータは、プログラムを実行する中央演算装置201と、プログラムやプログラムが処理中のデータを格納するメモリ202と、プログラム、検索対象のデータ及びOS(Operating System)を格納しておく磁気ディスクドライブ203と、光ディスクにプログラムやデータを読み書きする光ディスクドライブ204とを備える。
FIG. 2 is a diagram illustrating an example of hardware when the metadata generation apparatus of the present invention is realized by a computer.
The computer includes a central processing unit 201 that executes a program, a memory 202 that stores the program and data being processed by the program, and a magnetic disk drive 203 that stores the program, data to be searched, and an OS (Operating System). And an optical disc drive 204 for reading and writing programs and data on the optical disc.

さらに、ディスプレイ等に画面を表示させるためのインタフェースである画像出力部205と、キーボード・マウス・タッチパネル等からの入力を受ける入力受付部206と、外部装置との出入力インタフェース(例えばUSB(Universal Serial Bus)、音声出力端子等)である出入力部207とを備える。また、LCD、CRT、プロジェクタ等の表示装置208と、キーボードやマウス等の入力装置209と、メモリカードリーダ,スピーカーの外部装置210とを備える。外部装置210は、機器ではなくネットワークであっても良い。   Furthermore, an image output unit 205 that is an interface for displaying a screen on a display, an input receiving unit 206 that receives input from a keyboard, mouse, touch panel, and the like, and an input / output interface (for example, USB (Universal Serial) Bus), an audio output terminal, etc.). Further, the display device 208 includes a display device 208 such as an LCD, a CRT, and a projector, an input device 209 such as a keyboard and a mouse, and an external device 210 such as a memory card reader and a speaker. The external device 210 may be a network instead of a device.

中央演算装置201は、磁気ディスクドライブ203や光ディスクドライブ204からプログラムを読み出してメモリ202に記憶させた後にプログラムを実行することにより図1に示す各機能を実現する。プログラム実行中に、磁気ディスクドライブ203から検索対象データの一部或いは全部を読み出してメモリ202に記憶させておいても良い。   The central processing unit 201 implements each function shown in FIG. 1 by executing a program after reading the program from the magnetic disk drive 203 or the optical disk drive 204 and storing it in the memory 202. During execution of the program, part or all of the search target data may be read from the magnetic disk drive 203 and stored in the memory 202.

基本的な動作は、入力装置209を介してユーザからの検索要求を受け、検索要求に応じて磁気ディスクドライブ203やメモリ202に記憶させた検索対象データを検索する。そして、表示装置208に検索結果を表示させる。   The basic operation is to receive a search request from a user via the input device 209 and search for search target data stored in the magnetic disk drive 203 or the memory 202 in response to the search request. Then, the search result is displayed on the display device 208.

検索結果は表示装置208に表示させるだけでなく、例えば外部装置210としてスピーカーを接続しておいて音声でユーザに提示しても良い。あるいは、外部装置210としてプリンタを接続しておいて、印刷物として提示しても良い。   The search result may be displayed not only on the display device 208 but also presented to the user by voice by connecting a speaker as the external device 210, for example. Alternatively, a printer may be connected as the external device 210 and presented as a printed matter.

図1のメッセージ入力部101は、図2の入力装置209のキーボード等によりテキストデータを入力することで実現できる。また、キーボード等の他、メディアデータに含まれる音声情報あるいは画像情報中の文字パターンを認識してテキスト情報に変換する変換手段を備え、この変換手段の出力をメッセージとして入力するようにしてもよい。   The message input unit 101 in FIG. 1 can be realized by inputting text data using the keyboard of the input device 209 in FIG. In addition to a keyboard or the like, there may be provided conversion means for recognizing the character pattern in the audio information or image information included in the media data and converting it into text information, and the output of this conversion means may be input as a message. .

図3は、このテキストデータを入力するときの、図2の表示装置208に表示されるグラフィカルユーザインタフェース(GUI)画面の例を示す。このGUI画面は、映像表示領域301,映像制御領域302,映像ファイル名入力領域303,メッセージ入力領域304およびメッセージ制御領域305を有している。   FIG. 3 shows an example of a graphical user interface (GUI) screen displayed on the display device 208 of FIG. 2 when inputting this text data. This GUI screen has a video display area 301, a video control area 302, a video file name input area 303, a message input area 304, and a message control area 305.

映像表示領域301は、図2の例えば磁気ディスクドライブ203に格納された映像データを再生したものを表示するためのものである。ユーザが入力装置209のマウスやキーボード等を用いて、映像制御領域302内に配置された「再生」,「停止」,「巻き戻し」,「早送り」ボタンを操作することにより、映像データの再生を制御することができる。   The video display area 301 is for displaying a reproduction of video data stored in, for example, the magnetic disk drive 203 of FIG. When the user operates the “play”, “stop”, “rewind”, and “fast forward” buttons arranged in the video control area 302 using the mouse or keyboard of the input device 209, the video data is played back. Can be controlled.

なお、この実施形態ではメディアデータとしては、テレビジョン放送による番組や、DVDのように映像信号と共に音声信号を含んでいるものを例として説明するが、メディアデータはこれに限らない。例えばラジオ放送による番組の場合には、メディアデータとしては映像信号を含まず、音声信号のみとなる。   In this embodiment, the media data is described as an example of a television broadcast program or a DVD that includes an audio signal together with a video signal, but the media data is not limited to this. For example, in the case of a program by radio broadcasting, the media data does not include a video signal but only an audio signal.

本明細書中、メディアデータとは、文字や数値データに対して、画像や音声、映像、およびこれらを組み合わせた、人間の視聴の対象になるメディアを表現したデータのことを指す。   In this specification, media data refers to data representing media to be viewed by humans, combining text, numerical data, images, audio, video, and the like.

ユーザはメタデータ生成の処理を開始するにあたり、最初に、映像ファイル名入力領域303へ視聴する映像データのファイル名を入力し、メッセージ制御領域305内の「開始」ボタンを図2の入力装置209のマウスで押下する。これにより、入力されたファイル名のメディアデータに関するメタデータ生成の処理が開始される。   When starting the metadata generation process, the user first inputs the file name of the video data to be viewed in the video file name input area 303, and clicks the “START” button in the message control area 305 to input the input device 209 in FIG. 2. Press with the mouse. As a result, processing for generating metadata regarding the media data of the input file name is started.

次に、映像制御領域302内の「再生」ボタンを押下すると映像ファイル名入力領域303で指定されたファイル名の映像データが映像表示領域301に表示される。   Next, when a “play” button in the video control area 302 is pressed, video data having a file name specified in the video file name input area 303 is displayed in the video display area 301.

この後ユーザは、映像表示領域301に表示されている映像を視聴しながら、メッセージ入力領域304を通して図2の入力装置209内のキーボードを用いてテキストデータをメッセージとして入力する。そしてユーザは、一つのメッセージの入力が終了すると図3のメッセージ制御領域305内の「送信」ボタンをマウスで押下する。すると、メッセージ入力領域304に入力された一つのメッセージは図1のメッセージ入力部101に送信され、メッセージ入力領域304に入力されたメッセージはクリアされる。もし、ユーザがメッセージ入力領域304に入力したメッセージを取り消したい場合には、メッセージ制御領域305内の「クリア」ボタンを押下する。   Thereafter, the user inputs text data as a message through the message input area 304 using the keyboard in the input device 209 of FIG. 2 while viewing the video displayed in the video display area 301. When the input of one message is completed, the user presses the “Send” button in the message control area 305 in FIG. 3 with the mouse. Then, one message input to the message input area 304 is transmitted to the message input unit 101 in FIG. 1, and the message input to the message input area 304 is cleared. If the user wants to cancel the message input in the message input area 304, the user presses the “Clear” button in the message control area 305.

ユーザは、一つの映像データに関してメッセージ入力が終了したら、メッセージ制御領域305内の「終了」ボタンを押下する。
なお、本発明では映像表示領域301や、映像制御領域302は必須のものではない。
また、映像データは図2の磁気ディスクドライブ203ではなく、図2外部装置/ネットワーク210を通してメタデータ生成装置の外部から取得するものを対象としてもよい。
When the message input for one piece of video data is completed, the user presses an “end” button in the message control area 305.
In the present invention, the video display area 301 and the video control area 302 are not essential.
Further, the video data may be obtained from the outside of the metadata generation apparatus through the external apparatus / network 210 in FIG. 2 instead of the magnetic disk drive 203 in FIG.

図1のメッセージ解析部102,固有表現選別部103,メタデータ登録部104,制御部106は、それぞれ図2のCPU201とメモリ202で実行されるソフトウェアとして実現され、この処理内容については後述する。メタデータ蓄積部105は、図2の例えば磁気ディスクドライブ203により実現される。   The message analysis unit 102, the specific expression selection unit 103, the metadata registration unit 104, and the control unit 106 in FIG. 1 are realized as software executed by the CPU 201 and the memory 202 in FIG. 2, respectively, and the processing contents will be described later. The metadata storage unit 105 is realized by, for example, the magnetic disk drive 203 in FIG.

なお、この実施形態ではメタデータを蓄積するメタデータ蓄積部105については、必ずしもメタデータ生成装置内になくてもよい。例えば、ネットワークで接続されたサーバに蓄積してもよい。   In this embodiment, the metadata accumulation unit 105 that accumulates metadata is not necessarily in the metadata generation apparatus. For example, you may accumulate | store in the server connected with the network.

制御部106は、メッセージ解析部102,固有表現選別部103,メタデータ登録部104を順番に呼び出すことと、これら間でのデータの受け渡しを行う。
また、制御部106は、図3のメッセージ制御領域305内の「開始」ボタンが押下されたときには、映像ファイル名入力領域303に入力された映像ファイル名を内部のメモリ202等に記憶し、かつ、この映像ファイル名に対応するメタファイルの初期化を行う。
The control unit 106 calls the message analysis unit 102, the specific expression selection unit 103, and the metadata registration unit 104 in order, and exchanges data among them.
When the “start” button in the message control area 305 in FIG. 3 is pressed, the control unit 106 stores the video file name input in the video file name input area 303 in the internal memory 202 or the like, and Then, the metafile corresponding to the video file name is initialized.

制御部106は、作成したメタデータの映像ファイル名を、例えば映像ファイル名の拡張子の部分を置換したファイル名とする。例えばメディアデータの映像ファイル名が「sample.av」(avは映像ファイルの拡張子とする)である場合、メタデータのファイル名として「sample.md」(mdはメタデータファイルの拡張子とする)とする。このようにファイル名の拡張子を除いた部分、この例では「sample」を同じにしておくことにより制御部106は、メタデータを利用する際に映像ファイル名が分かれば、この映像ファイルに対応するメタファイルを容易に探すことができる。   The control unit 106 uses the created video file name of the metadata as a file name obtained by replacing the extension part of the video file name, for example. For example, when the video file name of the media data is “sample.av” (av is the extension of the video file), “sample.md” (md is the extension of the metadata file) as the metadata file name. ). In this way, the part excluding the extension of the file name, in this example, “sample” is made the same so that the control unit 106 can handle this video file if the video file name is known when using the metadata. You can easily find a metafile to do.

また、制御部106は映像データの映像表示領域301上での再生制御(再生,停止,巻き戻し,早送り)の制御も行う。
図4は、メッセージ解析部102内でのメッセージ解析処理の流れを示すフローチャートである。
まず、ステップS401では、メッセージ解析部102は、形態素解析辞書451に基づき、入力されたメッセージであるテキストデータから形態素と、形態素毎に品詞および属性を取りだす。
The control unit 106 also controls playback control (playback, stop, rewind, fast forward) of video data on the video display area 301.
FIG. 4 is a flowchart showing the flow of message analysis processing in the message analysis unit 102.
First, in step S401, the message analysis unit 102 extracts a morpheme and a part of speech and an attribute for each morpheme from text data that is an input message based on the morpheme analysis dictionary 451.

形態素解析辞書451には、形態素毎の品詞と、後段の固有名抽出処理S402の処理で必要となる属性が格納されている。この属性としては、例えば形態素「犬」には[動物]、形態素「ツツジ」には[植物]という属性を保持しておく。   The morpheme analysis dictionary 451 stores part-of-speech for each morpheme and attributes necessary for the subsequent proper name extraction process S402. As this attribute, for example, the attribute “animal” is retained in the morpheme “dog” and the attribute “plant” is retained in the morpheme “azalea”.

ここで属性とは、次のような情報である。
・名詞の意味分類に関する情報(上記の「犬」は[動物]、「ツツジ」は[植物]など)、
・固有表現と共起する語に関する情報(「大統領」は[人名共起語]、「区」は[地名共起語]、「グラム」は[重さ単位]など)、
・固有表現自身に関する情報(「ロンドン」は[首都名]、「守礼門」は[建造物]など)。
そしてメッセージから抽した形態素毎にその品詞と属性についても、形態素解析処理S401から固有名抽出処理S402へ渡される。なお、このステップS401の形態素解析処理は、機械翻訳などの自然言語処理で用いられる公知の技術であり本発明の要旨でないため説明を省略する。
Here, the attribute is the following information.
・ Information on semantic classification of nouns (above “dog” is [animal], azalea is [plant], etc.)
・ Information about words that co-occur with proper expressions ("President" is [Personal co-occurrence word], "Ku" is [Geo-co-occurrence word], "Gram" is [Weight unit], etc.],
・ Information about the proper expression itself (“London” is [Capital Name], “Guardian Gate” is [Building], etc.).
For each morpheme extracted from the message, its part of speech and attribute are also passed from the morpheme analysis process S401 to the proper name extraction process S402. Note that the morphological analysis processing in step S401 is a known technique used in natural language processing such as machine translation and is not the gist of the present invention, and thus the description thereof is omitted.

次に、ステップS402では、メッセージ解析部102は、ステップS401の処理によって渡された形態素およびその品詞と属性から固有名抽出ルール452に基づき固有表現とその属性の組のリストを抽出して固有表現選別部103へ渡し、メッセージ解析処理を終了する。詳細には、最初に名詞の形態素を単独の固有表現とし、形態素の属性をその固有表現の属性とする。次に、各固有表現を前後に拡張できないかを固有名抽出ルール452に基づき試みる。固有名抽出ルール452では単独の固有表現となった形態素の前後に隣接した形態素の属性の組み合わせにより、拡張できるパターンおよび拡張したときの属性が記述されている。例えば、「地名」と「番地」を持つ形態素が隣接していたらこれらを接続したものを新たな固有表現とし、この固有表現の属性を「住所」とする。メッセージ解析部102は、固有名抽出ルール452の中に適用できるルールが無くなったら、固有表現とその属性の組のリストを固有表現選別部103へ渡し、メッセージ解析処理を終了する。   Next, in step S402, the message analysis unit 102 extracts a list of a specific expression and a set of the attribute from the morpheme passed through the process of step S401 and its part of speech and attribute based on the specific name extraction rule 452, and the specific expression The message is passed to the selection unit 103, and the message analysis process ends. Specifically, first, a morpheme of a noun is set as a single specific expression, and an attribute of the morpheme is set as an attribute of the specific expression. Next, it is tried based on the proper name extraction rule 452 whether each proper expression can be extended back and forth. The proper name extraction rule 452 describes a pattern that can be expanded and an attribute when the morpheme is expanded by a combination of adjacent morpheme attributes before and after the morpheme that has become a single unique expression. For example, if morphemes having “place name” and “address” are adjacent to each other, the connected one is set as a new unique expression, and the attribute of the specific expression is set as “address”. When there is no applicable rule in the unique name extraction rule 452, the message analysis unit 102 passes the list of combinations of unique expressions and their attributes to the unique expression selection unit 103 and ends the message analysis process.

上記した固有表現とその属性を抽出する処理に関しては、例えば、「市村、斎藤、酒井、國分、小山:"質問応答と、日本語固有表現抽出および固有表現体系の関係についての考察"、情報処理学会、自然言語処理研究会、NL-161-3、2004.」等により知られている技術を用いればよい。   Regarding the processing of extracting the above-described specific expressions and their attributes, for example, “Ichimura, Saito, Sakai, Kokubun, Koyama:“ Study on the relationship between question answering, Japanese specific expression extraction and proper expression system ”, The technology known by the Information Processing Society of Japan, Natural Language Processing Study Group, NL-161-3, 2004. ”, etc. may be used.

次に、固有表現選別部103は、メッセージ解析部102から渡された固有表現(語句)とその属性の組のリストの中から、予め定められた属性をもつ固有表現(語句)だけを選別し、この選別した固有表現(語句)とその属性の組のリストをメタデータ登録部104へ渡す。この予め定められた属性とは、例えば、人名や曲名など映像データに関連する属性とし、この属性をもつ固有表現(語句)だけを固有表現選別部103は選択する。   Next, the specific expression selection unit 103 selects only a specific expression (word / phrase) having a predetermined attribute from the list of combinations of the specific expression (word / phrase) and its attributes passed from the message analysis unit 102. Then, a list of combinations of the selected unique expressions (phrases) and their attributes is passed to the metadata registration unit 104. The predetermined attribute is, for example, an attribute related to video data such as a person name or a song title, and the specific expression selecting unit 103 selects only a specific expression (word) having this attribute.

次に、制御部106は、メタデータのファイル名をメタデータ登録部104へ渡す。
次に、メタデータ登録部104は、制御部106から受けたメタデータのファイル名のデータに、固有表現選別部103により選別された固有表現とその属性の組のリストをメタデータとして追加する。この際、メタデータ登録部104は、メタデータのファイルに既に登録済みのメタデータを予め読み込み、未登録の固有表現とその属性の組のリストをメタデータとして追加する。
Next, the control unit 106 passes the metadata file name to the metadata registration unit 104.
Next, the metadata registration unit 104 adds, to the metadata file name data received from the control unit 106, a list of combinations of the specific expressions selected by the specific expression selection unit 103 and their attributes as metadata. At this time, the metadata registration unit 104 reads metadata already registered in the metadata file in advance, and adds a list of combinations of unregistered unique expressions and their attributes as metadata.

(変形例)
本実施形態の変形例として、次のようにしても良い。
更に、前記メディアデータの画像特徴量あるいは音声特徴量の特徴量の変化に基づき、特徴量が所定の範囲内に収まっている区間を前記メディアデータの中から検出する区間検出手段を設ける。例えば、この区間検出手段は、制御部106に機能として持たせる。そしてメッセージ入力部101に入力されたメッセージおよびこのメッセージの入力時点に基づくメディアデータの時間軸上の位置との対応関係を保持する保持手段を設ける。この保持手段としては、磁気ディスクドライブ203の一部を用い、上記対応関係を制御部106により保持させるようにしても良い。そしてメタデータの登録にあたって、前記保持手段により保持されている前記メタデータ抽出元のメッセージの入力時点に基づいて、前記区間検出手段により検出した区間に対応付けてメタデータを登録するようにする。
これにより、ある特定の区間、例えばシーンに対するものとしてメタデータを付与することができる。
(Modification)
As a modification of the present embodiment, the following may be performed.
Furthermore, section detecting means is provided for detecting a section in which the feature amount falls within a predetermined range from the media data based on a change in the feature amount of the image feature amount or audio feature amount of the media data. For example, this section detection means is provided to the control unit 106 as a function. Then, holding means for holding the correspondence relationship between the message input to the message input unit 101 and the position on the time axis of the media data based on the input time of the message is provided. As this holding means, a part of the magnetic disk drive 203 may be used, and the correspondence relationship may be held by the control unit 106. When registering the metadata, the metadata is registered in association with the section detected by the section detecting means based on the input time of the metadata extraction source message held by the holding means.
Thereby, metadata can be given as for a specific section, for example, a scene.

以上、本実施形態によれば、自然言語処理により入力されたメッセージから属性情報も含めてメタデータを簡易に抽出することができる。作成したメタデータは、例えば人名一覧や曲名一覧など、属性を利用し表示できるようになるので、興味のある視点で映像データの内容を調べられるようになる。   As described above, according to the present embodiment, metadata including attribute information can be easily extracted from a message input by natural language processing. Since the created metadata can be displayed using attributes such as a personal name list and a song name list, the contents of the video data can be examined from an interesting viewpoint.

(第2の実施形態)
本発明の第2の実施形態は図5に示すネットワーク500を介して接続された複数の計算機により実現される。
図5は、1台のサーバ計算機501に複数台のクライアント計算機502が接続した構成になっている。このサーバ計算機501,クライアント計算機502は共に、図2に示した構成になっている。
(Second Embodiment)
The second embodiment of the present invention is realized by a plurality of computers connected via a network 500 shown in FIG.
FIG. 5 shows a configuration in which a plurality of client computers 502 are connected to one server computer 501. Both the server computer 501 and the client computer 502 have the configuration shown in FIG.

図6は、クライアント計算機502側の構成を示す。なお、第1の実施形態の図1と同じものについては同一番号を付し説明を省略する。クライアント計算機502は、図1と比較して、新たに通信部607が設けられている。   FIG. 6 shows a configuration on the client computer 502 side. In addition, the same number is attached | subjected about the same thing as FIG. 1 of 1st Embodiment, and description is abbreviate | omitted. The client computer 502 is newly provided with a communication unit 607 as compared with FIG.

サーバ計算機501は、全てのクライアント計算機502に対して時間により定められた映像データを配信する。
複数台のクライアント計算機502は、サーバ計算機501が配信した映像データを、ネットワーク500を介して同時に受信、表示する。
クライアント計算機502での表示装置208上の画面構成を図7に示す。
図7において、画面は映像データ表示領域701,映像データ制御領域702,映像ファイル名表示領域703,メッセージ入力領域704,メッセージ制御領域705およびメッセージ表示領域706からなる。
The server computer 501 distributes video data determined by time to all the client computers 502.
The plurality of client computers 502 simultaneously receive and display the video data distributed by the server computer 501 via the network 500.
The screen configuration on the display device 208 in the client computer 502 is shown in FIG.
In FIG. 7, the screen includes a video data display area 701, a video data control area 702, a video file name display area 703, a message input area 704, a message control area 705, and a message display area 706.

映像データ表示領域701は、サーバ計算機501から受信した映像データをリアルタイムで表示する。
クライアント計算機502側では、映像データ制御領域702の「受信」ボタンが押下されるまでは映像データの受信を拒否する。
クライアント計算機502は、ユーザが映像データ制御領域702内の「受信」ボタンを押下すると、この時点にサーバ計算機501から配信されている映像データのファイル名について通信部607を介してサーバ計算機501へ問い合わせ、この結果として得られた映像データのファイル名を映像ファイル名表示領域703に表示すると共に、クライアント計算機502内の制御部607によって内部のメモリ202等に記憶する。
The video data display area 701 displays video data received from the server computer 501 in real time.
On the client computer 502 side, reception of video data is refused until the “Receive” button in the video data control area 702 is pressed.
When the user presses the “Receive” button in the video data control area 702, the client computer 502 makes an inquiry to the server computer 501 via the communication unit 607 for the file name of the video data distributed from the server computer 501 at this time. The file name of the video data obtained as a result is displayed in the video file name display area 703 and stored in the internal memory 202 or the like by the control unit 607 in the client computer 502.

また、クライアント計算機502は、「受信」ボタンが押下されると、この旨をサーバ計算機501にネットワーク500を介して伝え、映像データの受信を開始する。   When the “Receive” button is pressed, the client computer 502 informs the server computer 501 via the network 500 and starts receiving video data.

サーバ計算機501は、映像データを受信しているクライアント計算機502のリストを、例えばサーバ計算機501内のメモリ202に保持しており、このリストに基づき、視聴しているクライアント計算機502へ映像データを配信する。サーバ計算機501は、クライアント計算機502から「受信」ボタンが押下されたことが新たに伝えられると上記リストを更新する。   The server computer 501 holds a list of client computers 502 that are receiving video data, for example, in the memory 202 in the server computer 501, and distributes video data to the client computer 502 that is viewing based on this list. To do. The server computer 501 updates the list when it is newly notified from the client computer 502 that the “receive” button has been pressed.

クライアント計算機502で映像データ制御領域702の「停止」ボタンを押下するか、或いはサーバ計算機501からの映像データの配信が停止したときに、映像データ表示領域701による映像データの表示は終了し、かつ、この映像データに対するメタデータの生成処理を終了する。   When the client computer 502 depresses the “stop” button in the video data control area 702 or when the distribution of the video data from the server computer 501 is stopped, the display of the video data in the video data display area 701 is terminated, and Then, the metadata generation process for this video data is terminated.

ユーザは映像データ表示領域701に表示されている映像データを視聴しながらメッセージ入力領域704に入力装置209内のキーボードでテキスト情報を入力することによりメッセージを入力することができる。   The user can input a message by inputting text information to the message input area 704 with the keyboard in the input device 209 while viewing the video data displayed in the video data display area 701.

ユーザがメッセージ入力領域704にメッセージを入力した後にメッセージ制御領域705の「送信」ボタンを押下すると、制御部106は、メッセージ入力領域704に入力したメッセージをメッセージ表示領域706に表示すると共にメッセージ入力部101および通信部607を介してサーバ計算機501に渡す。このメッセージは、サーバ計算機501によって、当該メッセージを受けたときに映像データを受信している他のクライアント計算機502に送信される。なお、ユーザがメッセージ入力領域704にメッセージを入力した後に「クリア」ボタンを押下するとメッセージの入力はキャンセルされる。   When the user presses the “Send” button in the message control area 705 after inputting a message in the message input area 704, the control unit 106 displays the message input in the message input area 704 in the message display area 706 and the message input part. 101 and the server computer 501 via the communication unit 607. This message is transmitted by the server computer 501 to the other client computer 502 receiving the video data when the message is received. If the user presses the “Clear” button after inputting a message in the message input area 704, the message input is canceled.

クライアント計算機502は、他のクライアント計算機502からメッセージを受信すると、この受信したメッセージをメッセージ表示領域706に表示すると共にメッセージ入力部101に渡す。   When the client computer 502 receives a message from another client computer 502, the client computer 502 displays the received message in the message display area 706 and passes it to the message input unit 101.

入力装置209内のキーボードにより入力されたメッセージ、あるいは通信部607を介して他のクライアント計算機502から受信したメッセージは、メッセージ入力部101を通して制御部106に伝えられる。制御部106は、この伝えられたメッセージを、例えば磁気ディスクドライブ204に蓄積する。   A message input from the keyboard in the input device 209 or a message received from another client computer 502 via the communication unit 607 is transmitted to the control unit 106 through the message input unit 101. The control unit 106 stores the transmitted message in the magnetic disk drive 204, for example.

ユーザが図7のメッセージ制御領域705の解析ボタンを押下すると、制御部106はこれまで磁気ディスクドライブ204に蓄積したメッセージ群を読み出し、メッセージ解析部102へ渡す。   When the user presses the analysis button in the message control area 705 in FIG. 7, the control unit 106 reads out the message group accumulated so far in the magnetic disk drive 204 and passes it to the message analysis unit 102.

メッセージ解析部102は、この渡されたメッセージ群中の各メッセージ文について図8に示す処理を実行する。
図8は、メッセージの解析処理の動作を説明するためのフローチャートである。
図8において、最初にステップS801にて、文型判断処理S801が文型パターン851に基づき、メッセージ中の各文が質問文か否かを判定する。文型パターン851には、正規表現で質問文の文型パターンが記述されており、これらパターンの中の一つ以上の照合に成功すると質問文であると判定し、一つのパターンとも照合に成功しないものは質問文以外であると判定する。
The message analysis unit 102 executes the process shown in FIG. 8 for each message sentence in the passed message group.
FIG. 8 is a flowchart for explaining the operation of the message analysis process.
In FIG. 8, first, in step S801, the sentence pattern determination process S801 determines whether each sentence in the message is a question sentence based on the sentence pattern 851. The sentence pattern 851 describes a sentence pattern of a question sentence using a regular expression. If one or more of these patterns are successfully matched, the sentence pattern is determined to be a question sentence, and neither of the patterns can be successfully matched. Is determined to be other than a question sentence.

次に、形態素解析処理S802、固有表現抽出処理S803を実行する。形態素解析処理S802は、図4の形態素解析処理S401に対応し、固有表現抽出処理S803は、図4の固有表現抽出処理S402に対応しており、これらの処理は第1の実施形態のメッセージ解析部102と同じ処理なので説明を省略する。   Next, morphological analysis processing S802 and specific expression extraction processing S803 are executed. The morpheme analysis process S802 corresponds to the morpheme analysis process S401 of FIG. 4, the specific expression extraction process S803 corresponds to the specific expression extraction process S402 of FIG. 4, and these processes are the message analysis of the first embodiment. Since the processing is the same as that of the unit 102, description thereof is omitted.

ステップS803の次に、ステップS804では、文型判断処理S801でメッセージ中の全ての文が質問文以外と判定されていた場合には、メッセージを、そのまま制御部106を通して固有表現選別部103へ渡す。反対に、文型判断処理S801でメッセージ中の一文以上で質問文と判定されていた場合には、メッセージに対して次のステップS805にて回答タイプ推定処理を施す。   After step S803, in step S804, if all the sentences in the message are determined to be other than the question sentence in the sentence pattern determination process S801, the message is directly passed to the specific expression selection unit 103 through the control unit 106. On the other hand, if it is determined that the sentence is a question sentence in one or more sentences in the message in the sentence type determination process S801, the answer type estimation process is performed on the message in the next step S805.

ステップS805の回答タイプ判定処理では、固有表現抽出処理S803の結果と、メッセージ中で質問文と判定された文の文末表現から、回答タイプ推定ルール854に基づき、メッセージによる質問の回答として求められている情報の種類を推定する。   In the answer type determination process in step S805, the result of the specific expression extraction process S803 and the sentence end expression of the sentence determined as the question sentence in the message are obtained as the answer to the question by the message based on the answer type estimation rule 854. Estimate the type of information you have.

次のステップS806では、質問文を含むメッセージの次のメッセージを取り出し、回答抽出処理を施す。回答抽出処理後、当該処理の対象となったメッセージは蓄積された磁気ディスクドライブ204から削除し、文型判断処理S801以下の処理対象とならないようにする。   In the next step S806, a message next to the message including the question sentence is extracted and an answer extraction process is performed. After the answer extraction process, the message subject to the process is deleted from the accumulated magnetic disk drive 204 so that it is not subject to the processing after the sentence pattern determination process S801.

なお、上記「メッセージ」,「メッセージ文」については、「メッセージ」は複数の文から構成されているものであり、この複数の文の各文を「メッセージ文」と記載している。   Note that the “message” and “message sentence” are composed of a plurality of sentences, and each sentence of the plurality of sentences is described as a “message sentence”.

ステップS805の次に、ステップS806の回答抽出処理では、文頭、文末から予め指定された記述を削除することで回答部分を抽出し、この抽出された回答部分を固有表現とする。また、回答タイプ推定処理S805により推定された結果である、回答として求められている情報の種類を、この固有表現の属性として固有表現選別部103へ渡す。   Next to step S805, in the answer extraction process in step S806, the answer part is extracted by deleting a description specified in advance from the beginning of the sentence and the end of the sentence, and the extracted answer part is used as a unique expression. In addition, the type of information obtained as an answer, which is the result estimated in the answer type estimation process S805, is passed to the specific expression selection unit 103 as an attribute of this specific expression.

固有表現選別部103,メタデータ登録部104およびメタデータ蓄積部105は、第1の実施形態で説明した図1と同様の処理を行う。
以上述べたように、本発明によれば、自然言語処理により入力されたメッセージから属性情報も含めてメタデータを簡易に抽出することができる。そしてこの第2の実施形態では、更に、複数人が知識を出し合ってメタデータを作成することができる。また、単一では解析できなかったメッセージについても、それを引き出すきっかけとなった質問文を解析することで、メタデータとなる表現とその属性を取りだすことが可能となる。
The specific expression selection unit 103, the metadata registration unit 104, and the metadata storage unit 105 perform the same processing as that in FIG. 1 described in the first embodiment.
As described above, according to the present invention, metadata including attribute information can be easily extracted from a message input by natural language processing. In the second embodiment, metadata can be created by a plurality of people sharing knowledge. In addition, it is possible to extract expressions and their attributes as metadata by analyzing a question sentence that has led to a message that could not be analyzed alone.

(第3の実施形態)
本発明の第3の実施形態は第2の実施形態と同様に図5に示すネットワークで接続された複数の計算機により実現される。また、クライアント計算機502側で実施する構成も図6のとおりで第2の実施形態と変わらない。
(Third embodiment)
As in the second embodiment, the third embodiment of the present invention is realized by a plurality of computers connected by a network shown in FIG. Also, the configuration implemented on the client computer 502 side is as shown in FIG. 6 and is not different from the second embodiment.

但し、第2の実施形態とは、映像データがサーバ計算機501からクライアント計算機502に同時に配信されるのではなく、クライアント計算機502毎に要求された映像データを、要求されたタイミングで配信する点が異なる。   However, in the second embodiment, the video data is not distributed simultaneously from the server computer 501 to the client computer 502, but the requested video data is distributed for each client computer 502 at the requested timing. Different.

また、サーバ計算機501は映像データ毎にメッセージを蓄積する部を、例えば磁気ディスクドライブ203に備えており、クライアント計算機502のユーザは映像データを視聴する際、同じ映像データを視聴した他のクライアント計算機502のユーザが入力したメッセージを視聴している時間軸上の位置に合わせて参照、また、これらメッセージに対する返信を入力できるようにする。このためサーバ計算機501で保持するメッセージには、メッセージが入力されたときに表示されていた映像データの時間軸上の位置(例えば、映像データの先頭からの相対時間)を対応付けて格納する。   In addition, the server computer 501 includes a unit for storing a message for each video data, for example, in the magnetic disk drive 203. When the user of the client computer 502 views the video data, the other client computer that has viewed the same video data. Reference is made in accordance with the position on the time axis where the user inputs a message 502 and the user is viewing, and a reply to these messages can be input. For this reason, the message held by the server computer 501 stores the position on the time axis of the video data displayed when the message is input (for example, the relative time from the beginning of the video data) in association with it.

この他、異なる点があれば随時説明をする。
クライアント計算機502での表示装置21上の画面構成は図7と同様である。
この第3の実施形態の映像ファイル名表示領域703は、第1の実施形態で説明した図3の映像ファイル名入力領域303と同じである。各クライアント計算機502は、個別に映像ファイル名表示領域703を通して映像データ表示領域701に表示したい映像データの映像ファイル名を入力し、映像データ制御領域702の「受信」ボタンを押下することで、映像ファイル名の映像データの送信をサーバ計算機501に要求する。表示したい映像データの映像ファイル名の入力には、入力装置209のキーボード等が用いられる。
In addition, if there are different points, they will be described as needed.
The screen configuration on the display device 21 in the client computer 502 is the same as in FIG.
The video file name display area 703 of the third embodiment is the same as the video file name input area 303 of FIG. 3 described in the first embodiment. Each client computer 502 individually inputs a video file name of video data to be displayed in the video data display area 701 through the video file name display area 703, and presses a “receive” button in the video data control area 702, thereby The server computer 501 is requested to transmit video data with a file name. A keyboard or the like of the input device 209 is used for inputting a video file name of video data to be displayed.

サーバ計算機501は、クライアント計算機502から要求された映像ファイル名の映像データを当該要求されたクライアント計算機502へ配信すると共に、予め定められた一定時間間隔おきに、各時間間隔の間にクライアント計算機502からサーバ計算機501に送信された当該映像データに関するメッセージ、即ち、過去にサーバ計算機501に送信されたメッセージを送信する。すると、クライアント計算機502は、サーバ計算機501から受信した映像データを映像データ表示領域701に表示すると共に、サーバ計算機501から一定時間間隔おきに受信したメッセージをメッセージ表示領域706に表示する。   The server computer 501 distributes the video data of the video file name requested from the client computer 502 to the requested client computer 502, and at a predetermined time interval, the client computer 502 during each time interval. A message related to the video data transmitted from the server to the server computer 501, that is, a message transmitted to the server computer 501 in the past is transmitted. Then, the client computer 502 displays the video data received from the server computer 501 in the video data display area 701 and displays messages received from the server computer 501 at regular time intervals in the message display area 706.

ユーザは、映像データ表示領域701に表示されている映像データと、メッセージ表示領域706に表示されているメッセージとを見ながら、映像データの視聴している場面についてわからないことを質問する質問メッセージを入力したり、他のユーザからのメッセージへ回答するメッセージを入力したりする。他のユーザのメッセージへの返信、例えば、他のユーザの質問への回答メッセージとするには、当該メッセージを押下することにより可能となる。制御部106は、ユーザがメッセージ表示領域706内の他のユーザの質問メッセージを押下すると、図7のメッセージ入力領域704の上部に当該メッセージが表示される。例えば、メッセージ入力領域704の上側半分に質問メッセージが表示され、下側半分にユーザが新たに回答を入力するためのスペースが作成される。これによりユーザは、クライアント計算機502が、この表示されたメッセージへの返信を入力するモードにあることを知ることができる。   The user inputs a question message asking that he / she does not know the scene in which the video data is viewed while viewing the video data displayed in the video data display area 701 and the message displayed in the message display area 706. Or enter a message to answer a message from another user. A reply to another user's message, for example, an answer message to another user's question can be made by pressing the message. When the user presses a question message of another user in the message display area 706, the control unit 106 displays the message on the upper part of the message input area 704 in FIG. For example, a question message is displayed in the upper half of the message input area 704, and a space for the user to newly input an answer is created in the lower half. Thereby, the user can know that the client computer 502 is in a mode for inputting a reply to the displayed message.

このモードでメッセージ入力領域704に入力した返信メッセージは、メッセージ制御領域705の「送信」ボタンを押下することで当該メッセージへの返信関係を保持して制御部106によって例えば磁気ディスクドライブ203に蓄積され、かつ、メッセージ表示領域706に当該メッセージとの返信関係(例えば、「質問に対する回答」)を明示した形式で表示するとともに、入力された返信メッセージを、入力時間(映像データの先頭からの相対時間)および返信元のメッセージの関係と共にサーバ計算機501に送信する。   Reply messages input to the message input area 704 in this mode are stored in, for example, the magnetic disk drive 203 by the control unit 106 while holding the reply relation to the message by pressing the “Send” button in the message control area 705. In addition, the message display area 706 displays the reply relationship with the message (for example, “answer to the question”) in a format that is clearly indicated, and the input reply message is displayed in the input time (relative time from the top of the video data). ) And the message of the reply source are transmitted to the server computer 501.

サーバ計算機501は、この送信された返信メッセージを、入力時間(映像データの先頭からの相対時間)および返信元のメッセージの関係と共に、当該映像データに関するメッセージに追加し、これ以降、当該映像データを参照するユーザに対して、この返信メッセージを上記入力時間に合わせて視聴できるようにする。   The server computer 501 adds the transmitted reply message to the message related to the video data together with the relationship between the input time (relative time from the top of the video data) and the message of the reply source. This reply message can be viewed according to the input time for the referring user.

また、映像データに対する新しい質問など新規のメッセージを入力する場合、ユーザは、メッセージ制御領域705の「新規」ボタンを押下してからメッセージ入力領域704に入力する。この入力後、ユーザによってメッセージ制御領域705の「送信」ボタンが押下されると、この新規のメッセージはメッセージ入力部101を通して制御部106に送られる。制御部106では、新規メッセージおよび当該新規メッセージの入力時間(映像データの先頭からの相対時間)を磁気ディスクドライブ203に記憶すると同時に、通信部607を介してサーバ計算機501へ送る。これにより当該映像データに関する新規メッセージが入力されたことをサーバ計算機501に通知する。   When inputting a new message such as a new question about video data, the user presses a “new” button in the message control area 705 and then inputs it to the message input area 704. After the input, when the user presses the “Send” button in the message control area 705, the new message is sent to the control unit 106 through the message input unit 101. The control unit 106 stores the new message and the input time of the new message (relative time from the beginning of the video data) in the magnetic disk drive 203 and simultaneously sends it to the server computer 501 via the communication unit 607. As a result, the server computer 501 is notified that a new message related to the video data has been input.

メッセージ入力領域704に返信メッセージあるいは新規メッセージを入力後、これを取り消すには、メッセージ制御領域705の「クリア」ボタンを押下する。制御部106は、メッセージ制御領域705の「クリア」ボタンが押下されると、画面上のメッセージ入力領域704の表示をクリアする。   To cancel a reply message or new message after it has been entered in the message input area 704, a “clear” button in the message control area 705 is pressed. When the “clear” button in the message control area 705 is pressed, the control unit 106 clears the display of the message input area 704 on the screen.

メッセージ制御領域705の「解析」ボタンが押下されると、メッセージ表示領域706に表示されているメッセージが制御部106を通してメッセージ解析部102に送られる。メッセージ解析部102は、トップ階層のメッセージを一つずつ取り出し、第2の実施形態と同様の処理を行う。第2の実施形態と異なるのは、質問と推定されたメッセージについては、この推定されたメッセージに対して返信されたメッセージがあるとき、この返信されたメッセージを回答メッセージと見なして、回答抽出処理S806を施すところにある。   When the “analysis” button in the message control area 705 is pressed, the message displayed in the message display area 706 is sent to the message analysis section 102 through the control section 106. The message analysis unit 102 extracts top layer messages one by one and performs the same processing as in the second embodiment. The second embodiment is different from the second embodiment in that regarding a message estimated as a question, when there is a message replied to this estimated message, the replied message is regarded as a response message, and a response extraction process is performed. S806 is in place.

本実施形態におけるメタデータ登録部104は、サーバ計算機501がメッセージを切替える時間間隔でメタデータを分けて格納する。
メッセージ解析部102、固有表現選別部103の出力について、まず、メタデータの抽出元のメッセージが入力された入力時間を含む時間帯で同じメタデータが格納済みかを検査し、格納されていなければ、その時間帯のメタデータとして追加する。
In this embodiment, the metadata registration unit 104 stores the metadata separately at time intervals at which the server computer 501 switches messages.
Regarding the output of the message analysis unit 102 and the specific expression selection unit 103, first, it is checked whether the same metadata is stored in the time zone including the input time when the message from which the metadata is extracted is input. , And add it as metadata for that time zone.

なお、変形例としては、メタデータ蓄積部105はサーバ計算機501上に設けられていてもよい。
以上述べたように、本発明によれば、自然言語処理により入力されたメッセージから属性情報も含めてメタデータを簡易に抽出することができる。そしてこの第3の実施形態では、更に、各ユーザは一斉に同じ映像データを視聴することなくメッセージを交換でき、かつ、それらメッセージから抽出されたメタデータを、映像データ全体ではなく関連する一部分にだけ付与することができる。
As a modification, the metadata storage unit 105 may be provided on the server computer 501.
As described above, according to the present invention, metadata including attribute information can be easily extracted from a message input by natural language processing. Further, in the third embodiment, each user can exchange messages without viewing the same video data all at once, and the metadata extracted from the messages is not related to the entire video data but related parts. Can only be granted.

なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

第1の実施形態に係るメタデータ生成装置の構成を説明するためのブロック図。The block diagram for demonstrating the structure of the metadata production | generation apparatus which concerns on 1st Embodiment. メタデータ生成装置をコンピュータで実現したときのハードウェアの一例を示す図。The figure which shows an example of the hardware when a metadata production | generation apparatus is implement | achieved with the computer. テキストデータを入力するときの、図2の表示装置208に表示されるグラフィカルユーザインタフェース(GUI)画面の例を示す図。The figure which shows the example of the graphical user interface (GUI) screen displayed on the display apparatus 208 of FIG. 2 when inputting text data. メッセージ解析部102内でのメッセージ解析処理の流れを示すフローチャート。5 is a flowchart showing a flow of message analysis processing in the message analysis unit 102. 1台のサーバ計算機501に複数台のクライアント計算機502が接続した構成を説明するための図。The figure for demonstrating the structure with which the several client computer 502 was connected to the one server computer 501. FIG. クライアント計算機502側の構成を説明するためのブロック図。The block diagram for demonstrating the structure by the side of the client computer 502. FIG. クライアント計算機502での表示装置208上の画面構成を説明するための図。The figure for demonstrating the screen structure on the display apparatus 208 in the client computer 502. FIG. メッセージの解析処理の動作を説明するためのフローチャート。The flowchart for demonstrating operation | movement of the analysis process of a message.

符号の説明Explanation of symbols

101…メッセージ入力部、102…メッセージ解析部、103…固有表現選別部、104…メタデータ登録部、105…メタデータ蓄積部、106…制御部、201…中央演算装置、202…メモリ、203…磁気ディスクドライブ、204…光ディスクドライブ、205…画像出力部、206…入力受付部、207…出入力部、208…表示装置、209…入力装置、210…外部装置、451,852…形態素解析辞書、452…形態素解析ルール、607…通信部、851…文字パターン、853…固有名抽出ルール、854…回答タイプ推定ルール。   DESCRIPTION OF SYMBOLS 101 ... Message input part, 102 ... Message analysis part, 103 ... Specific expression selection part, 104 ... Metadata registration part, 105 ... Metadata storage part, 106 ... Control part, 201 ... Central processing unit, 202 ... Memory, 203 ... Magnetic disk drive, 204 ... Optical disk drive, 205 ... Image output unit, 206 ... Input reception unit, 207 ... I / O unit, 208 ... Display device, 209 ... Input device, 210 ... External device, 451, 852 ... Morphological analysis dictionary, 452 ... Morphological analysis rule, 607 ... Communication unit, 851 ... Character pattern, 853 ... Unique name extraction rule, 854 ... Answer type estimation rule.

Claims (8)

メディアデータのメタデータを生成するメタデータ生成装置において、
前記メディアデータに関連したメッセージ情報を入力するメッセージ入力手段と、
前記メッセージ入力手段により入力されたメッセージ情報から語句と当該語句の属性を抽出するメッセージ解析手段と、
前記メッセージ解析手段の抽出結果の中から前記メディアデータに関連する属性をもつ語句を選別する語句選別手段と、
前記選別された語句と当該語句の属性を前記メタデータとして蓄積手段に蓄積するメタデータ登録手段とを備えたことを特徴とするメタデータ生成装置。
In a metadata generation device that generates metadata of media data,
Message input means for inputting message information related to the media data;
Message analysis means for extracting a phrase and attributes of the phrase from the message information input by the message input means;
A phrase selection unit that selects a phrase having an attribute related to the media data from the extraction result of the message analysis unit;
A metadata generation apparatus comprising: a metadata registration unit that accumulates the selected word and the attribute of the word in the storage unit as the metadata.
前記メッセージ入力手段により入力されたメッセージ情報を他のメタデータ生成装置と交換する通信手段を有し、
前記メッセージ解析手段は、前記他のメタデータ生成装置から前記通信手段を介して受信したメッセージ情報中の語句とその属性を抽出することを特徴とする請求項1記載のメタデータ生成装置。
Communication means for exchanging message information input by the message input means with another metadata generation device;
2. The metadata generation apparatus according to claim 1, wherein the message analysis unit extracts a phrase and its attribute in message information received from the other metadata generation apparatus via the communication unit.
前記メッセージ情報には、メッセージに加えて当該メッセージが入力された時点に応じた前記メディアデータの時間軸上の位置に関する時間位置情報も含まれており、
前記メタデータ登録手段は、メタデータ抽出元のメッセージに対する前記時間位置情報に対応付けて前記メタデータを登録することを特徴とする請求項1または2記載のメタデータ生成装置。
The message information includes time position information related to the position on the time axis of the media data according to the time when the message is input in addition to the message,
The metadata generation apparatus according to claim 1, wherein the metadata registration unit registers the metadata in association with the time position information for a message from which metadata is extracted.
前記メッセージ入力手段は、更に他のメッセージとの関係を示すメッセージ間関係情報を含むメッセージ情報を入力し、
前記メッセージ解析手段は、
メッセージを解析して質問文を含む質問メッセージであることを判定する手段と、
前記メッセージ間関係情報を用いて前記質問メッセージに対する返信メッセージを前記質問メッセージに対する回答メッセージと見なし、前記質問メッセージに対しては前記質問メッセージ中の前記質問文が求める回答タイプを判定し、前記回答メッセージから前記質問文の回答となる語句を抽出すると共に、この語句の属性を前記回答タイプとする手段を有することを特徴とする請求項1乃至3のいずれか1項に記載のメタデータ生成装置。
The message input means inputs message information including inter-message relationship information indicating a relationship with another message,
The message analysis means includes
Means for analyzing the message and determining that it is a question message including a question sentence;
A reply message to the question message is regarded as an answer message to the question message using the inter-message relation information, and for the question message, an answer type required by the question text in the question message is determined, and the answer message 4. The metadata generation apparatus according to claim 1, further comprising means for extracting a word / phrase to be an answer to the question sentence from the attribute and setting an attribute of the word / phrase to the answer type. 5.
更に、前記メディアデータに含まれる音声情報あるいは画像情報中の文字パターンを認識してテキスト情報に変換する変換手段を備え、
前記メッセージ入力手段においては、前記変換手段の出力をメッセージとして入力することを特徴とする請求項1乃至4のいずれか1項に記載のメタデータ生成装置。
Furthermore, a conversion means for recognizing a character pattern in the audio information or image information included in the media data and converting it into text information,
5. The metadata generation apparatus according to claim 1, wherein the message input unit inputs an output of the conversion unit as a message. 6.
更に、前記メディアデータの画像特徴量あるいは音声特徴量の特徴量の変化に基づき、特徴量が所定の範囲内に収まっている区間を前記メディアデータの中から検出する区間検出手段を備え、
前記メッセージ入力手段は、
入力されたメッセージおよびこのメッセージの入力時点に基づく前記メディアデータの時間軸上の位置との対応関係を保持する保持手段を備え、
前記メタデータ登録手段は、
前記保持手段により保持されている前記メタデータ抽出元のメッセージの入力時点に基づいて、前記区間検出手段により検出した区間に対応付けてメタデータを登録することを特徴とする請求項1乃至5のいずれか1項に記載のメタデータ生成装置。
Furthermore, based on the change of the feature amount of the image feature amount or the audio feature amount of the media data, a section detecting means for detecting a section in which the feature amount is within a predetermined range from the media data,
The message input means includes
Holding means for holding a correspondence relationship between the input message and the position on the time axis of the media data based on the input time of the message;
The metadata registration means includes:
6. The metadata is registered in association with a section detected by the section detection unit based on an input time point of the metadata extraction source message held by the holding unit. The metadata generation apparatus of any one of Claims.
メディアデータのメタデータを生成するメタデータ生成方法において、
前記メディアデータに関連したメッセージ情報を入力するメッセージ入力ステップと、
前記メッセージ入力ステップにより入力されたメッセージ情報から語句と当該語句の属性を抽出するメッセージ解析ステップと、
前記メッセージ解析ステップの抽出結果の中から前記メディアデータに関連する属性をもつ語句を選別する語句選別ステップと、
前記選別された語句と当該語句の属性を前記メタデータとして蓄積手段に蓄積するメタデータ登録ステップとを備えたことを特徴とするメタデータ生成方法。
In a metadata generation method for generating metadata of media data,
A message input step for inputting message information related to the media data;
A message analysis step of extracting a phrase and an attribute of the phrase from the message information input by the message input step;
A phrase selection step of selecting a phrase having an attribute related to the media data from the extraction result of the message analysis step;
A metadata generation method comprising: a metadata registration step of storing the selected word and the attribute of the word in the storage unit as the metadata.
メディアデータのメタデータをコンピュータに生成させるメタデータ生成プログラムにおいて、
前記コンピュータに、
前記メディアデータに関連したメッセージ情報を入力させ、
前記入力されたメッセージ情報から語句と当該語句の属性を抽出させ、
前記抽出結果の中から前記メディアデータに関連する属性をもつ語句を選別させ、
前記選別された語句と当該語句の属性を前記メタデータとして蓄積手段に蓄積させることを特徴とするメタデータ生成プログラム。
In a metadata generation program that causes a computer to generate metadata of media data,
In the computer,
Allowing message information related to the media data to be entered,
Extracting the phrase and the attribute of the phrase from the input message information;
Selecting a phrase having an attribute related to the media data from the extraction result;
A metadata generation program characterized in that the selected word and attribute of the word are stored in the storage means as the metadata.
JP2004192402A 2004-06-30 2004-06-30 Meta data generation device and method, and meta data generation program Pending JP2006018336A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004192402A JP2006018336A (en) 2004-06-30 2004-06-30 Meta data generation device and method, and meta data generation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004192402A JP2006018336A (en) 2004-06-30 2004-06-30 Meta data generation device and method, and meta data generation program

Publications (1)

Publication Number Publication Date
JP2006018336A true JP2006018336A (en) 2006-01-19

Family

ID=35792590

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004192402A Pending JP2006018336A (en) 2004-06-30 2004-06-30 Meta data generation device and method, and meta data generation program

Country Status (1)

Country Link
JP (1) JP2006018336A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006049249A1 (en) * 2004-11-08 2006-05-11 Matsushita Electric Industrial Co., Ltd. Digital video reproduction device
JP2007264789A (en) * 2006-03-27 2007-10-11 Toshiba Corp Scene information extraction method, scene extraction method and extraction device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006049249A1 (en) * 2004-11-08 2006-05-11 Matsushita Electric Industrial Co., Ltd. Digital video reproduction device
US7953602B2 (en) 2004-11-08 2011-05-31 Panasonic Corporation Digital video reproducing apparatus for recognizing and reproducing a digital video content
JP2007264789A (en) * 2006-03-27 2007-10-11 Toshiba Corp Scene information extraction method, scene extraction method and extraction device
JP4580885B2 (en) * 2006-03-27 2010-11-17 株式会社東芝 Scene information extraction method, scene extraction method, and extraction apparatus

Similar Documents

Publication Publication Date Title
JP5178109B2 (en) Search device, method and program
KR101246917B1 (en) Method and system for sharing the information between users of the media reproducing systems
JP5135024B2 (en) Apparatus, method, and program for notifying content scene appearance
JP4388128B1 (en) Information providing server, information providing method, and information providing system
JP2007151057A (en) Video content browsing system using evaluation comment information
CN101422041A (en) Internet search-based television
CN109558513A (en) A kind of content recommendation method, device, terminal and storage medium
JP2007079745A (en) Network connection device, server device, terminal equipment, system, reception method, character input method, transmission method, program, and computer readable recording medium
CN103765910A (en) Methods and apparatus for keyword-based, non-linear navigation of video streams and other content
JP2009111871A (en) Information providing server and information providing method
JP2005295375A (en) Information acquisition support system
JP4547366B2 (en) CHARACTER INPUT DEVICE, ITS CONTROL METHOD, PROGRAM, AND INFORMATION STORAGE MEDIUM
JP4251634B2 (en) Multimedia data reproducing apparatus and multimedia data reproducing method
JP2015211290A (en) Candidate extraction apparatus, comment distribution system, candidate extraction method, and program
JP4757900B2 (en) Network connection device, server device, terminal device, system, character input method, program, and computer-readable recording medium
JPH1139343A (en) Video retrieval device
JP4865469B2 (en) Content production server, content presentation device, content production program, and content presentation program
JP2006018336A (en) Meta data generation device and method, and meta data generation program
JP4575786B2 (en) Content viewing system, content information processing method, and program
CN100347657C (en) Multimedia print driver dialogue interface
JP2008186235A (en) Character input device, its control method, program, and information storage medium
JP2001344251A (en) Method and device for contents retrieval, and recording medium with contents retrieval program recorded thereon
JP2004215094A (en) Electronic apparatus and keyword generation device
JP2010176207A (en) Device and method for managing message
JP2006195900A (en) Multimedia content generation device and method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081107

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090306