JP2007052626A - Metadata input device and content processor - Google Patents
Metadata input device and content processor Download PDFInfo
- Publication number
- JP2007052626A JP2007052626A JP2005237154A JP2005237154A JP2007052626A JP 2007052626 A JP2007052626 A JP 2007052626A JP 2005237154 A JP2005237154 A JP 2005237154A JP 2005237154 A JP2005237154 A JP 2005237154A JP 2007052626 A JP2007052626 A JP 2007052626A
- Authority
- JP
- Japan
- Prior art keywords
- metadata
- input
- content
- video
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明はカメラ撮影時に取得できるコンテンツ(映像、音声、データ)からメタデータを生成し、入力する方法と、検索と頭だしが高速化された編集システムに関して好適なものである。 The present invention is suitable for a method of generating and inputting metadata from contents (video, audio, data) that can be acquired at the time of camera shooting, and an editing system that speeds up searching and cueing.
従来、カメラ撮影されたコンテンツの編集作業はマスターとなる媒体(テープ、ディスクなど)上に記録されているオリジナルコンテンツ(映像、音声、データ)をコンテンツ制作者の意図に応じて選択、合成する作業であり、非常に多くの手間と時間を要する作業である。また編集作業に要する作業量及び作業時間は放送用や業務用、または家庭用などコンテンツの分野や内容に応じて大きく異なる。放送の分野におけるニュースやスポーツ番組の編集において、素材テープから数秒単位の映像コンテンツを抽出するのに多くの労力が必要である上、抽出したコンテンツが最もふさわしいシーンであるかどうかの信憑性に課題が残る。さらに、スポーツや運動会で特定の人物を追随して撮影する場合、撮影対象の動きが早かったり撮影者が撮影作業に集中できなくなると撮影対象が撮影ファインダーからフレームアウトしてしまうという課題がある。また、撮影場面(シーン)に関連したキーワードをタグとして自動で付加する方法や、簡単な動作でタグを付加する方法も確立されていないため、撮影コンテンツから求める場面にすぐにアクセスする、または、瞬時に頭出しして視聴することが困難である。視聴だけでなく、編集までの作業となると、撮影コンテンツの全貌を把握するのに、多くの作業を要し、結果として編集作業がコンテンツ制作に費用をかけることのできる放送など一部の分野に制限されてしまっている。
従来、メタデータ入力方法は特許文献1に記載されたものが知られている。収録される映像番組の各場面に関する番組付加データするため、入力フォームから対応場面を特定する情報を入力するものである。
また従来の編集支援システムは、特許文献2に記載されたものが知られている。これは、記録に関する各種の情報を示すメタデータであり、シリアル番号、カセット番号、コメントであるメタデータを用いて、記録した映像に関する文字情報を得、これにより、文字列を検索して、所望のシーンの映像を検索することにより編集作業を効率化するシステムである。
そこで、メタデータ入力方法と編集システムとして、特許文献3に記載されたものが知られている。まず、収録時に収録した画像に含まれる文字を検出し、検出された文字に文字認識を行い文字データを生成しメタデータとし、収録された画像データに付随させる。そして、収録時に自動的に生成されたメタデータを編集作業で活用することで、メタデータの入力に必要な労力と時間を必要としない。また、カチンコやメモに書かれている文字データでも認識を行えるため、編集に直接関連している情報をメタデータとして与えることが容易なので、メタデータを編集作業にそのまま活用できるという特徴を持つ。
Conventionally, the metadata input method described in Patent Document 1 is known. In order to provide program additional data relating to each scene of the recorded video program, information for identifying the corresponding scene is input from the input form.
As a conventional editing support system, the one described in Patent Document 2 is known. This is metadata that shows various information related to recording. Using the metadata that is serial number, cassette number, and comment, character information related to the recorded video is obtained, and thus the character string is searched and desired. It is a system that makes editing work more efficient by searching for the video of the scene.
Therefore, a metadata input method and an editing system described in Patent Document 3 are known. First, characters included in an image recorded at the time of recording are detected, character recognition is performed on the detected characters, character data is generated as metadata, and is attached to the recorded image data. And, by using metadata automatically generated at the time of recording in editing work, labor and time required for inputting metadata are not required. In addition, since it is possible to recognize text data written in clappers and memos, it is easy to give information directly related to editing as metadata, so that the metadata can be used as it is for editing work.
しかしながら上記した従来の方式ではメタデータを収録後に映像を見ながら、入力フォームにより人間の手で入力しなければならない。そのため、入力のための労力、時間を要する、と言う課題を有している。また、画像に付加されているメタデータがシリアル番号、カセット番号等から文字列信号を生成した場合、直接、編集に必要な情報をピンポイントで検出することは難しいと言う課題も有している。また、文字以外の情報、音声や人物や物体から直接メタデータを生成することができないという課題を有する。 However, in the conventional method described above, the metadata must be input manually by an input form while watching the video after recording. Therefore, there is a problem that labor and time for input are required. In addition, when the metadata added to the image generates a character string signal from the serial number, cassette number, etc., there is a problem that it is difficult to pinpoint information necessary for editing directly. . Further, there is a problem that metadata cannot be directly generated from information other than characters, voice, a person or an object.
収録時に収録したコンテンツ(映像、音声、データ)の映像に含まれる人物、物体を画像認識し、音声に含まれるキーワードなど音声の認識を行ない、それぞれの認識結果を文字データに変換してメタデータを生成する。そして、このメタデータを収録されたコンテンツと関連づける。収録時に自動的に生成されたメタデータや簡単な動作で生成したメタデータを頭だしや編集作業などで活用することにより、大幅な作業能率の向上を図ることができる。 Recognizes images of people and objects included in video (contents of video, audio, and data) recorded during recording, recognizes audio such as keywords included in audio, converts each recognition result into character data, and metadata Is generated. Then, this metadata is associated with the recorded content. By using metadata automatically generated at the time of recording and metadata generated by a simple operation for cueing and editing, the work efficiency can be greatly improved.
以上の発明により、収録時に収録したコンテンツ(映像、音声、データ)の映像に含まれる人物、物体を画像認識し、音声に含まれるキーワードなど音声の認識を行ない、それぞれの認識結果を文字データに変換してメタデータを生成する。そして、このメタデータを収録されたコンテンツと関連付ける。収録時に自動生成したメタデータや、簡単な動作で生成したメタデータを、頭出しや編集作業で活用し、大幅な作業能率の向上を図ることができる。 According to the above invention, a person or an object included in the video of the content (video, audio, data) recorded at the time of recording is recognized, voice such as a keyword included in the audio is recognized, and each recognition result is converted into character data. Convert to generate metadata. Then, this metadata is associated with the recorded content. The metadata automatically generated at the time of recording and the metadata generated by a simple operation can be used for cueing and editing work, and the work efficiency can be greatly improved.
さらに、画像認識手段で人を認識した場合、その人の着用している衣類やまた持っている鞄などを画像データベースに登録し、その人物と関連付けておくことより、視聴時の問い合わせに対して検索を簡単に実行できる。 Furthermore, when a person is recognized by the image recognition means, the clothing worn by the person or the bag he / she holds is registered in the image database and associated with the person, so that inquiries during viewing can be answered. Search can be performed easily.
また、音楽や人や人の動きなど著作権の発生するものを自動認識する手段を具備することにより、コンテンツ素材より編集を行った完パケを構成する各シーンの著作権関連項目を呼び出したり、表示したり、各著作権関連項目に著作権の管理元、連絡先、使用条件や著作権料などのメタデータを追記することにより、もし撮影コンテンツに著作権処理が必要な場合、編集素材や完パケに対して必要な著作権処理のリストを容易に作成できる。よって、コンテンツの再利用が促進される。 In addition, by providing means for automatically recognizing copyrighted items such as music and people and people's movements, you can call up copyright-related items for each scene that makes up the complete package edited from the content material, Display or add metadata such as copyright management source, contact information, usage conditions and copyright fee to each copyright-related item. You can easily create a list of copyright processing required for a complete package. Therefore, the reuse of content is promoted.
また、ユーザーは表示されたサムネイル画像を見て、自分の編集したい映像クリップを選び、各クリップ中で使用するシーンを選択し、順番を変えてプレイリストを生成することにより、ダイジェスト再生などが可能となる。 The user can also view the thumbnail images displayed, select the video clip that he / she wants to edit, select the scene to be used in each clip, generate a playlist by changing the order, and perform digest playback, etc. It becomes.
また、プレイリスト出力手段を持つことにより、プレイリストを外部に出力し、外部機器からプレイリストに従ったAVコンテンツだけを出力することができる。よて、リモートからのプレイリストによるダイジェスト再生が可能となる。 Further, by providing the playlist output means, it is possible to output the playlist to the outside and output only AV contents according to the playlist from the external device. Thus, it is possible to perform digest playback from a remote playlist.
さらに、メタデータ時刻修正手段を追加することによりプレイリストによる再生で、プレイリストとAVコンテンツ間のフレームまたはフィールド誤差取り除くことができる。これにより、ムービー撮影者や撮影監督などのユーザーは考えたとおりにメタデータと映像の同期を取ることが可能となり、AV信号の編集効率をアップし、映像表現の高精度化、高度化を図ることができる。 Further, by adding the metadata time correction means, it is possible to remove frame or field errors between the playlist and the AV content by reproduction by the playlist. As a result, users such as movie photographers and filmmakers can synchronize metadata and video as expected, improving the editing efficiency of AV signals, and improving the accuracy and sophistication of video expression. be able to.
(実施の形態1)
図1は本発明の説明図であり、カメラにおいて記録媒体(またはバッファメモリ)上に映像データと音声データとメタデータを作成するシステムのモデルを示している。101はカメラ、102はカメラのレンズ部、103はカメラのマイク、104はカメラの撮影対象(風景や人やペットなどの動物、車、建造物などの物)である。また、105はカメラで撮影したデータであり、映像データ106、音声データ107、メタデータ108により構成される。109はカメラで撮影されたデータシーケンスであり、時間軸上に映像、音声、メタデータが配置されている。メタデータはテキスト形式の文字データとして扱うが、バイナリィ形式のデータとしても良い。
(Embodiment 1)
FIG. 1 is an explanatory diagram of the present invention, and shows a model of a system that creates video data, audio data, and metadata on a recording medium (or buffer memory) in a camera.
ここでデータシーケンス109は、抽出されたシーン#1からシーン#5までを含んでいる。111は編集により、シーン#1からシーン#5までをつなぎ合わせたデータシーケンスである。ユーザはリモコン110によるリモート制御により、編集されたデータシーケンスの順番で各シーンをTV112に一覧表示することができる。
Here, the
113はメタデータ入力用ボタンであり、3つのボタンにより構成されている。カメラで撮影中に重要な場面でメタデータ入力用ボタンを押すことにより、その重要な撮影場面(シーン)にマークをつけることができる(マーキング機能)。この重要シーンを指すマークもメタデータであり、撮影後にマーク検索によりマークを付けたシーンを呼び出すことができる。3つのボタンは、たとえば、1つ目のボタンは重要シーンの登録に、2つ目のボタンはボタン操作を有効にしたり文字入力モードに切替えるモード切替えに、3つ目のボタンは登録のキャンセルに、それぞれ使用する。また、1つ目のボタンを押している期間を重要シーンとして登録するモードに切替えることもできる。さらに、1つ目のボタンを押した時点の前後5秒、あるいは前5秒、後10秒の合計15秒を重要シーンとして登録するモードに切替えることもできる。ボタンが3つあれば、押すボタンの種類、タイミング、押す長さの組み合わせにより、多くの機能に利用することができる。
ここで、#1から#5までのシーンの時間長は任意である。ユーザーはカメラ撮影した撮影素材であるデータシーケンスから、各シーンの開始位置(時間)と終了位置(時間)、または長さを選択して、各シーンを並べ替えることができる。各シーンをTVモニターなどに表示する場合、そのシーンの先頭または先頭以降最後尾のフレーム(またはフィールド)映像をそのシーンを代表する映像として表わすことができる。 Here, the time length of the scenes from # 1 to # 5 is arbitrary. The user can rearrange the scenes by selecting the start position (time) and end position (time) or length of each scene from the data sequence that is the photographing material taken by the camera. When each scene is displayed on a TV monitor or the like, the frame (or field) video at the head or the head after the head of the scene can be represented as a video representing the scene.
図2は、カメラ101における映像信号、音声信号、およびメタデータの取り扱いを説明する図である。201はカメラからの映像信号、音声信号の入力手段、202は音声と画像の認識ユニット手段、203は音声認識手段、204は画像認識手段、205はユーザーの声やユーザーが設定する重要さに関する情報の入力手段、206はカメラのセンサー情報入力手段、207はメタデータの生成ならびに映像音声との同期ならびにメタデータ管理を行うメタデータ生成・同期・管理手段である。
FIG. 2 is a diagram for explaining how the
また、208はMPEG−2圧縮やH.264圧縮を行ない記録媒体に記録するフォーマットに変換し記録媒体に記録するAV信号圧縮記録制御手段である。209はバッファメモリとしても動作する記録媒体であり、AVデータファイルを含むAVデータファイルディレクトリ210、タイトルリスト/プレイリスト/ナビゲーションデータファイルを含むタイトルリスト/プレイリスト/ナビゲーションデータファイルディレクトリ211、ならびにメタデータファイルを含むメタデータファイルディレクトリ212を持つ。
208 is MPEG-2 compression or H.264. This is an AV signal compression / recording control means that performs H.264 compression, converts it into a format for recording on a recording medium, and records it on the recording medium.
213は辞書群であり、内部に複数の分野別辞書(辞書A、辞書B、辞書C)を含む。214は辞書登録データの追加削除管理手段、215は映像信号に含まれる画像に存在する人、物の特定を行う画像認識手段、216は画像認識のデータベース(人や動物や物の特徴を記述したデータベース)、217はAV信号再生管理手段、218は時計、219は管理制御手段、220はAV信号出力手段である。
図2の動作について説明する。図2において、カメラ101で撮影した映像信号、音声信号は、それぞれAV信号入力手段201に入力される。AV信号入力手段201に入力された映像信号および音声信号は、それぞれ複数の系統に分けられバッファ(一時保持)された後、それぞれ音声と画像の認識ユニット手段202およびAV信号圧縮記録制御手段208に出力される。
The operation of FIG. 2 will be described. In FIG. 2, the video signal and the audio signal photographed by the
音声と画像の認識ユニット手段202は、音声認識手段203および画像の検出を行う画像認識手段204を内蔵しており、各々入力された音声の認識および映像に含まれる画像の検出を行う。 The voice and image recognition unit means 202 includes a voice recognition means 203 and an image recognition means 204 for detecting an image, and recognizes an input voice and detects an image included in the video.
ここで、音声認識手段203はユーザーのボタン入力などにより辞書群213内の複数の辞書A、辞書B、辞書Cなどから任意の辞書を選択する、そして、選択された辞書に登録された単語群データを用いて音声認識を行う。なお辞書A、辞書B、辞書Cの例としては、野球、サッカー、バスケットボールなどの各スポーツ分野別、あるいは運動会、お誕生会、結婚式などのイベント別に設定して登録単語の語彙や単語数を書く分野にふさわしい内容に選択して絞り込んだ辞書とする。そこで、音声認識の実行前に認識を行う分野を選択すれば、音声認識動作における誤認識を削減し、認識率の向上を図ることができる。また、各辞書は、辞書登録データの追加削除管理手段214を介して、分野別辞書自体の追加と削除、また各分野別辞書内の登録単語の追加、削除ができる。たとえば、運動会の辞書に、親が自分の子供や知人の子供の名前を追加することが可能であり、子供の名前を音声認識でテキスト化してメタデータとして映像に関連付けて(紐付けてとも言う)記録することにより、再生時に子供の名前を指定(たとえば、再生時にTV画面上に表示された登録メタデータ一覧から選択)することにより、子供の映っている映像に素早くアクセス(クイックアクセス)できる。このように音声認識において、分野の選定と、分野別に絞った辞書でのキーワート゛登録の2段階で行うことにより、認識速度と精度を向上させることができる。
Here, the
また、画像の検出を行う画像認識手段204は、映像信号が1枚の絵を構成する映像フレームまたは映像フィールド(映像と略する)内の意味のある画像を検出、認識する。本実施例における画像の意味として、映像信号が1枚の絵を構成する映像内における意味のあるオブジェクト画像のこととする。画像認識手段204は映像内の意味のあるオブジェクトとして人物、人の顔、動物(犬、猫などのペット)、車、電車、飛行機などの乗り物、家やビルなどの建造物、標識などを含んだ道路の景色、観光名所、田園、山岳、町の風景などがある。これら映像内の意味のあるオブジェクトに関する情報は、人や動物や物の特徴を記述した画像認識のデータベース216より入力される。たとえば、人の顔を認識する場合には、映像(映像フレームまたは映像フィールド)中の人の顔を認識して、映像において人の顔が存在する領域を例えば四角い領域や丸い領域として認識する。
The image recognition means 204 for detecting an image detects and recognizes a meaningful image in a video frame or a video field (abbreviated as video) whose video signal constitutes one picture. The meaning of an image in the present embodiment is a meaningful object image in a video whose video signal constitutes one picture. The image recognition means 204 includes a person, a human face, an animal (a pet such as a dog or a cat), a vehicle such as a car, a train or an airplane, a building such as a house or a building, or a sign as a meaningful object in the video. There are road views, tourist attractions, countryside, mountains, and town scenery. Information about these meaningful objects in the video is input from an
ここで認識された人の顔が存在する領域を例えば四角い領域や丸い領域は、たとえば、「非特定人物ナンバー1」、「非特定人物ナンバー123」などのメタデータを付ける。なお、連続する映像内で同人物と認識される人の顔に関する認識領域は、同じ非特定人物ナンバーを付けることにより、非特定人物ナンバーを削減できる。また、1秒や3秒など一定時間以上に渡って検出した場合のみ非特定人物ナンバーを付ける付加機能を追加することにより、非特定人物ナンバーを削減できる。これにより、撮影者の意図に反して一部の時間だけチラリと見えた人物の認識を排除することができるまた、メタデータ生成するタイミングについては、メタデータ作成ボタンがユーザーにより押されたとき、としても良い。さらに、映像画面上の位置により特定の大きさ以上の場合のみ非特定人物ナンバーを付加する機能を追加することによりさらに非特定人物ナンバーを削減できる。たとえば、画素数がVGAサイズ(横640ピクセル、縦480ピクセル)の場合、画面の真ん中(横320ピクセル、縦240ピクセル)の領域では、顔領域が縦、横60ピクセル以上の場合のみ検出し、画面の端の領域では、顔領域が縦、横40ピクセル以上の場合に検出する方法がある。これにより画面の真ん中で認識される人物の検出速度(計算速度)と精度を上げることができる。 For example, a square area or a round area where the recognized human face exists is attached with metadata such as “non-specific person number 1” and “non-specific person number 123”. It should be noted that non-specific person numbers can be reduced by assigning the same non-specific person number to the recognition area related to the face of a person who is recognized as the same person in successive images. In addition, the non-specific person number can be reduced by adding an additional function for assigning a non-specific person number only when it is detected over a certain time such as 1 second or 3 seconds. As a result, it is possible to eliminate the recognition of a person who seemed to flicker only for a part of the time against the photographer's intention.For the timing of generating metadata, when the metadata creation button is pressed by the user, It is also good. Furthermore, the non-specific person number can be further reduced by adding a function of adding the non-specific person number only when the size is larger than a specific size depending on the position on the video screen. For example, if the number of pixels is VGA size (horizontal 640 pixels, vertical 480 pixels), in the middle of the screen (horizontal 320 pixels, vertical 240 pixels), detect only when the facial area is vertical, horizontal 60 pixels or more, In the area at the edge of the screen, there is a method of detecting when the face area is vertical and horizontal 40 pixels or more. Thereby, the detection speed (calculation speed) and accuracy of the person recognized in the middle of the screen can be increased.
以上の様に、音声と画像の認識ユニット手段202は、音声認識および画像認識により得たテキスト情報をメタデータとしてメタデータ生成・同期・管理手段207に入力する。メタデータ生成・同期・管理手段207は時計218より時刻情報を受け取っており、AV信号圧縮記録制御手段208と連携して映像、音声、メタデータの時間管理(時刻同期)を行う。
As described above, the voice and image recognition unit means 202 inputs text information obtained by voice recognition and image recognition to the metadata generation / synchronization / management means 207 as metadata. The metadata generation / synchronization /
メタデータ生成・同期・管理手段207に入力される情報は、音声と画像の認識ユニット手段202から入力されるメタデータだけでなく、カメラに付いた重要場面設定ボタンや静止画取得ボタンなどからのボタン入力情報を受け付けるユーザー情報入力手段205や、カメラの動作状態を表わす各種パラメータ入力を受け付けるセンサー情報入力手段206からのメタデータなどがある。ここで、カメラの動作状態を表わすパラメータの例としては、GPSや携帯電話の位置センサーや加速度センサーを用いた存在位置、カメラの向きや傾き(仰角)情報、カメラ101が使用しているレンズ102の種類、ズーズ倍率、絞りなどの露光情報などがある。
The information input to the metadata generation / synchronization / management means 207 includes not only the metadata input from the voice and image recognition unit means 202 but also from the important scene setting button or the still image acquisition button attached to the camera. There are metadata from user information input means 205 that accepts button input information, and sensor information input means 206 that accepts various parameter inputs representing the operating state of the camera. Here, examples of parameters representing the operation state of the camera include a position using GPS or a position sensor or an acceleration sensor of a mobile phone, information on the direction and inclination (elevation angle) of the camera, and a
さて、AV信号圧縮記録制御手段208に入力された映像信号および音声信号および各種のメタデータは、それぞれに関連した映像信号、音声信号、メタデータ同士で紐付けを行う。この紐付けは、映像、音声、メタデータの発生した時間情報(タイムコード。精度としては、映像フレームや映像フィールドでよい。)を元に実行するが、ストリームやファイル中のデータ位置情報を用いて紐付け(関連付け)を行ってもよい。
The video signal, audio signal, and various metadata input to the AV signal compression /
AV信号圧縮記録制御手段208は、映像圧縮としてMPEG−2(または、ITU−T規格 H.262)およびH.264/AVC方式の圧縮エンジン、また、音声圧縮としてMPEG−2 AAC(Advanced Audio Coding)、MPEG−1 レイヤ3(MP3)の圧縮エンジンを内蔵している。なお、圧縮エンジンはこれらに限らず、DV(IEC 61834)方式、DVCPRO方式(SMPTE 314M)、DivX Video方式(www.divx.com)、XviD方式、WMV9(Windows(登録商標) Media Video 9)方式(www.microsoft.com))や他の形式の圧縮エンジンを選択することもできる。本実施例では、映像圧縮としてH.264/AVC方式(以下、AVCと略す)、音声圧縮としてMPEG−2 AAC(以下、AACと略す)を選択しているとする。 AV signal compression / recording control means 208 uses MPEG-2 (or ITU-T standard H.262) and H.264 as video compression. A compression engine of the H.264 / AVC system and MPEG-2 AAC (Advanced Audio Coding) and MPEG-1 Layer 3 (MP3) compression engines are incorporated as audio compression. The compression engine is not limited to these, and the DV (IEC 61834) method, the DVCPRO method (SMPTE 314M), the DivX Video method (www.divx.com), the XviD method, the WMV9 (Windows (registered trademark) Media Video 9) method. (Www.microsoft.com)) and other types of compression engines can also be selected. In this embodiment, H.264 is used as video compression. Assume that the H.264 / AVC format (hereinafter abbreviated as AVC) and MPEG-2 AAC (hereinafter abbreviated as AAC) are selected as audio compression.
ここで、本実施例で選択したAVC方式およびAAC方式について説明する。図3は、図2のAV信号圧縮記録制御手段208内の映像と音声の圧縮エンジンとその周辺処理手段の構成をより詳細に説明する図である。図3における代表的な構成要素として、映像符号化部301、VCL(Video Coding Layer)−NAL(Network Abstraction Layer)ユニットバッファ302、AAC方式による音声符号化部303、PS(Parameter Set)バッファ304、VUI(Video Usability Information)バッファ(305)、SEI(Supplemental Enhancement Information)バッファ306、non−VCL−NALユニットバッファ307、MPEG−TSマッピング処理手段308などにより構成される。図3に示すように入力された映像信号をVCL NALユニット形式のデータに変換する。また、音声信号、メタデータ、外部入力PS(Parameter Set)データ、外部入力VUI(Video Usability Information)データ、外部入力SEI(Supplemental Enhancement Information)データをNon VCL NALユニット形式のデータに変換する。これらVCL NALユニット形式のデータと、Non VCL NALユニット形式のデータをMPEG−2 TS形式に変換して出力する。なお、 H.264/AVC方式についての解説は、たとえば、「H.264/AVC教科書」、大久保榮監修、株式会社インプレス発行などがある。また、MPEG−TS(Moving Picture Experts Group、Transport Stream)信号はIEC 61883−4で規定されている。MPEG−TSはMPEGトランスポートパケット(TSパケットと略す)が複数個集まったものである。TSパケットは188byteの固定長パケットで、その長さはATMのセル長(53バイト中、ATMペイロードは47バイト)との整合性、およびリードソロモン符号などの誤り訂正符号化を行なう場合の適用性を考慮して決定されている。
TSパケットは4byte固定長のパケットヘッダと可変長のアダプテーションフィールド(adaptation field)およびペイロード(payload)で構成される。パケットヘッダにはPID(パケット識別子)や各種フラグが定義されている。このPIDによりTSパケットの種類を識別する。adaptation_fieldとpayloadは、片方のみが存在する場合と両方が存在する場合とがあり、その有無はパケットヘッダ内のフラグ(adaptation_field_control)により識別できる。adaptation_fieldは、PCR(Program_Clock_Reference)等の情報伝送、および、TSパケットを188byte固定長にするためのTSパケット内でのスタッフィング機能を持つ。また、MPEG−2の場合、PCRは27MHzのタイムスタンプで、符号化時の基準時間を復号器のSTC(System Time Clock)で再現するためにPCR値が参照される。各TSパケットに付加するタイムスタンプのクロックは、たとえば、MPEGのシステムクロック周波数に等しく、パケット送信装置はさらに、TSパケットを受信し、受信したTSパケットに付加されたタイムスタンプより、MPEG−TSのネットワーク伝送によりProgram Clock Reference(PCR)に付加された伝送ジッターを除去して、MPEGシステムクロックの再生を行うクロック再生手段を備える。
MPEG−2のTSでは復号器のSTCはPCRによるPLL動機機能を持つ。このPLL同期の動作を安定させるためにPCRの送信間隔は、MPEG規格で100msec以内と決められている。映像や音声などの個別ストリームが収められたMPEG−PESパケットは同じPID番号を持つ複数のTSパケットのペイロードに分割して伝送する。ここで、PESパケットの先頭は、TSパケットの先頭から開始するように構成される。
トランスポートストリームは複数のプログラムを混合して伝送することができるため、ストリームに含まれているプログラムとそのプログラムを構成している映像や音声ストリームなどのプログラムの要素との関係を表すテーブル情報が用いられる。このテーブル情報はPSI(Program Specific Information)と呼ばれ、PAT (Program Association Table)、PMT(Program Map Table)などのテーブルを用いる。PAT、PMTなどのPSIはセクションと呼ばれる単位でTSパケット中のペイロードに配置されて伝送される。
PATにはプログラム番号に対応したPMTのPIDなどが指定されており、PMTには対応するプログラムに含まれる映像、音声、付加データおよびPCRのPIDが記述されるため、PATとPMTを参照することにより、ストリームの中から目的のプログラムを構成するTSパケットを取り出すことができる。TSに関する参考文献としては、例えば、CQ出版社、TECH I Vo.4、「画像&音声圧縮技術のすべて(インターネット/ディジタルテレビ、モバイル通信時代の必須技術)」、監修、藤原洋、第6章、「画像や音声を多重化するMPEGシステム」があり、同書にて解説されている。
Here, the AVC method and AAC method selected in this embodiment will be described. FIG. 3 is a diagram for explaining in more detail the configuration of the video and audio compression engine and its peripheral processing means in the AV signal compression / recording control means 208 of FIG. As typical constituent elements in FIG. 3, a
The TS packet includes a 4-byte fixed-length packet header, a variable-length adaptation field (adaptation field), and a payload (payload). PID (packet identifier) and various flags are defined in the packet header. The type of TS packet is identified by this PID. Adaptation_field and payload can be either only one or both, and the presence / absence can be identified by a flag (adaptation_field_control) in the packet header. The adaptation_field has information transmission such as PCR (Program_Clock_Reference) and a stuffing function in the TS packet for making the TS packet have a fixed length of 188 bytes. In the case of MPEG-2, the PCR is a time stamp of 27 MHz, and the PCR value is referred to reproduce the reference time at the time of encoding by the STC (System Time Clock) of the decoder. The clock of the time stamp added to each TS packet is, for example, equal to the MPEG system clock frequency, and the packet transmitting apparatus further receives the TS packet, and from the time stamp added to the received TS packet, A clock recovery means for recovering the MPEG system clock by removing transmission jitter added to the Program Clock Reference (PCR) by network transmission is provided.
In MPEG-2 TS, the STC of the decoder has a PLL motive function by PCR. In order to stabilize the PLL synchronization operation, the PCR transmission interval is determined to be within 100 msec in the MPEG standard. An MPEG-PES packet containing individual streams such as video and audio is divided into a plurality of TS packet payloads having the same PID number and transmitted. Here, the head of the PES packet is configured to start from the head of the TS packet.
Since a transport stream can be transmitted by mixing a plurality of programs, table information indicating the relationship between a program included in the stream and program elements such as video and audio streams constituting the program is included. Used. This table information is called PSI (Program Specific Information) and uses tables such as PAT (Program Association Table) and PMT (Program Map Table). PSI such as PAT and PMT is transmitted by being arranged in a payload in a TS packet in units called sections.
Since PAT specifies the PID of the PMT corresponding to the program number, and the PMT describes the video, audio, additional data, and PID of the PCR included in the corresponding program, refer to the PAT and PMT. Thus, TS packets constituting the target program can be extracted from the stream. References regarding TS include, for example, CQ Publisher, TECH I Vo. 4. “All of image & audio compression technology (essential technology in the Internet / digital television and mobile communication era)”, supervised by Hiroshi Fujiwara, Chapter 6, “MPEG system for multiplexing images and audio” It is explained.
PSIやSIに関する論理的な階層構造、処理手順の例、選局処理の例に関して、「ディジタル放送受信機における選局技術」、三宅他、三洋電機技報、VOL.36、JUNE 2004、第74号、31ページから44ページにて解説されている。 Regarding the logical hierarchical structure regarding PSI and SI, examples of processing procedures, and examples of channel selection processing, “Channel selection technology in digital broadcast receivers”, Miyake et al., Sanyo Electric Technical Report, VOL. 36, JUNE 2004, No. 74, pages 31-44.
ところで、メタデータはSEIバッファ306に入力する。ここでは、メタデータはSEIのUser Data Unregistered SEIに格納する。メタデータの種類としては、前述したメタデータ以外にも、一般的なデータをメタデータ化したメタデータ、また、デジタル放送を受信してそのSI(Service Information; 番組配列情報)より得るメタデータ、EPG提供事業者より得たEPG情報などのメタデータ、Internetから得たEPGなどのメタデータ、また、個人でムービー撮影したAVコンテンツ(静止画、音声、クリップなどの動画)に関連付けたメタデータなどがある。メタデータの形式としては、たとえば、UPnPやUPnP−AVの標準仕様として、プロパティ(property)やアトリビュート(attribute)があり、http://upnp.orgで公開されており、XML(Extensible Markup Language)やBML(Broadcast Markup Language)などの記述言語で表現できる。http://upnp.orgにおいて、例えば、「Device Architecture V 1.0」、「ContentDirectory:1 Service Template Version 1.01」、「MediaServer V 1.0 and MediaRenderer V 1.0」に関して、「MediaServer V 1.0」、「MediaRenderer V 1.0」、「ConnectionManager V 1.0」、「ContentDirectory V 1.0」、「RenderingControl V 1.0」、「AVTransport V 1.0」、「UPnPTM AV Architecture V .83」などの仕様書が公開されている。また、メタデータ規格に関しては、EBUのP/Meta、SMPTEのKLV方式、TV Anytime、MPEG7などで決められたメタデータ形式があり、「映像情報メディア学会誌、55巻、3号、情報検索のためのメタデータの標準化動向」などで解説されている。
なお、ムービーなどの撮影者、コンテンツ制作者、またはコンテンツの著作権者が各メタデータに価値を付け、コンテンツを利用するユーザーの利用内容や頻度により利用料金を徴収するために、各メタデータに価値を与えるメタデータを関連づけることができる。この各メタデータに価値を与えるメタデータは該メタデータのアトリビュートで与えてもよいし、独立したプロパティとして与えてもよい。たとえば、録画機器と録画条件に関する情報、すなわち、ムービーの機器ID、ムービーなどの撮影者、コンテンツ制作者、またはコンテンツの著作権者が作成、登録するメタデータの価値が高くて使用許諾が必要と考える場合、該メタデータの利用には認証による使用許諾のプロセスを実行する構成を本発明に組み込んだ構成をとることもできる。
たとえば、自分で撮影した動画コンテンツを暗号化したファイルを作成し、Internet上のサーバーにその暗号化ファイルをアップロードする。その暗号化ファイルの説明や一部の画像などを公開して、気にいった人に購入してもらう構成をとることもできる。また、貴重なニュースソースが録画できた場合、複数の放送局のニュース部門間で競売(オークション)にかける構成をとることもできる。
これらメタデータを活用することにより、多くのAVコンテンツから所望のコンテンツを検索する、ライブラリに分類する、記録時間を長時間化する、自動表示を行う、コンテンツ販売するなどコンテンツの効率的な利用が可能となる。記録時間を長時間化するには、価値の低い動画コンテンツは解像度を低くするとか、音声と静止画(たとえば、MPEGのIピクチャーやH.264のIDRピクチャーを抜き出してもよい)だけにするとか、静止画だけにするなどの構成をとることにより実現できる。
Incidentally, the metadata is input to the
In addition, in order for photographers such as movies, content creators, or content copyright holders to add value to each metadata and collect usage fees according to the usage and frequency of users who use the content, You can associate metadata that gives value. The metadata giving value to each metadata may be given as an attribute of the metadata or may be given as an independent property. For example, information related to the recording device and recording conditions, that is, the device ID of the movie, the photographer of the movie, the content creator, or the metadata created and registered by the content copyright holder is highly valuable and requires a license. In the case of thinking, the use of the metadata can take a configuration in which a configuration for executing a process of permission for use by authentication is incorporated in the present invention.
For example, a file obtained by encrypting moving image content shot by the user is created, and the encrypted file is uploaded to a server on the Internet. The description of the encrypted file and some images can be made public so that those who like it can purchase it. In addition, when a valuable news source can be recorded, it is possible to adopt a configuration for auctioning among news departments of a plurality of broadcasting stations.
By using these metadata, it is possible to search for desired content from many AV contents, classify it into a library, increase recording time, perform automatic display, sell content, and use content efficiently. It becomes possible. In order to extend the recording time, the resolution of low-value video content should be reduced, or only audio and still images (for example, MPEG I picture or H.264 IDR picture may be extracted). It can be realized by taking a configuration such as only a still image.
さて、図2に戻って説明を行う。AV信号圧縮記録制御手段208で生成されたMPEG−TS信号は、記録媒体(または、バッファメモリ)209内のAVデータファイル用ディレクトリ210に記録(または、一時蓄積)される。なお、ここで、記録媒体(または、バッファメモリ)209として半導体メモリ、光ディスク(DVD−RAM、DVD−R、BDなど)、HDD(ハードディスクドライブ)を用いることによりクイックアクセスが可能となるし、一部のデータ、たとえば、メタデータを修正したり追加したりすることが容易に実行できる。また、このMPEG−TS信号のタイトルはAV信号圧縮記録制御手段208よりタイトルを記録媒体209内のタイトルリスト/プレイリスト/ナビゲーションデータファイル用ディレクトリ211に記録する。さらに、このMPEG−TS信号のメタデータはAV信号圧縮記録制御手段208より記録媒体209内のメタデータ用ディレクトリ212に記録する。
Now, returning to FIG. The MPEG-TS signal generated by the AV signal compression
次に、記録媒体209に記録されたAVデータファイルの内、画像認識手段204で検出された画像、たとえば、人(人物)の顔が誰であるか人の識別を行う方法について説明する。メタデータファイル212には、画像認識手段204で検出された画像がAVデータファイルに記録されたどのAVデータファイルのどの映像(映像フレームまたは映像フィールド)のどの位置にあるものであるかのメタ情報が記録されている。AV信号再生制御手段217は、メタデータファイルより人の識別を行うデータ位置に関する情報を受け取りAVデータファイルより該当の画像データを呼び出す。そして、呼び出した画像データを人の特定を行う画像認識手段215に入力する。画像認識手段215は、画像認識のデータベース(人や動物や物の特徴を記述したデータベース)216を用いて、照会された人が誰であるかを判定して、判定結果をメタデータファイルに追加する。この人の判定結果は、元のメタデータが前述の「非特定人物ナンバー123」である場合、人物判定結果、たとえば「田中次郎」が追加される。なお後にユーザーが確認した人物名と人物の顔が間違っていた場合、ユーザーは、管理制御手段219のボタン入力を介して、正しい名前である「田中一郎」に修正できる。なお、ボタン入力でも、最近の携帯電話で一般化されているように文字入力が実現できる。また、一枚の映像(映像フレームまたは映像フィールド)における人物の人数は一人に制限されず、検知領域の最小サイズ以上であれば、何人でも検知できる。すなわち、一枚の映像に、「田中一郎」、「鈴木あゆこ」、「加藤奈津子」など複数の人物名が同時に存在できる。なお、メタデータ生成・同期・管理手段207の設定によって、特定のファイルやファイル中の場面に対して、一枚の映像(映像フレームまたは映像フィールド)における人物の人数を特定の数、たとえば、5人に制限することができる。これにより人物データのデータ容量削減と、処理負荷の削減を図ることができる。
Next, a method for identifying a person who is an image detected by the
なお、画像認識手段215において認識する対象が人の顔でなく、文字、動物、車など画像認識のデータベース(人や動物や物の特徴を記述したデータベース)216内のそれぞれのデータベースファイルを参照して画像の認識、特定を行い、メタデータファイルに追加記述する。 It should be noted that the object recognized by the image recognition means 215 is not a human face, but refers to each database file in the image recognition database 216 (a database describing the characteristics of a person, animal or object) such as characters, animals and cars. Recognize and identify the image and add it to the metadata file.
たとえば、人を認識した場合、その人の着用している服、ネクタイ、メガネ、帽子、時計、靴、また持っている鞄やバッグを画像データベースに登録し、その人物と関連付けておくことより、問い合わせに対応する検索を簡単に実行することができる。この場合、人物をUPnPのプロパティとし、その人物の着用している服、ネクタイ、メガネ、帽子、時計、靴、また持っている鞄やバッグを人物プロパティのアトリビュートと定義することもできる。 For example, if you recognize a person, you can register his / her clothes, ties, glasses, hats, watches, shoes, bags and bags you have in the image database and associate them with that person, A search corresponding to the inquiry can be easily executed. In this case, a person can be a UPnP property, and clothes, ties, glasses, hats, watches, shoes, and a bag or bag that the person is wearing can be defined as attributes of the person property.
また、音楽や人や人の動きなど著作権の発生するものを自動認識する手段を具備することにより、コンテンツ素材より編集を行った完パケ(完成パケット、完成コンテンツ)を構成する各シーンの著作権関連項目を呼び出したり、表示したり、各著作権関連項目に著作権の管理元、連絡先、使用条件や著作権料などのメタデータを追記できる。これにより、もし撮影コンテンツに著作権処理が必要な場合、編集素材や完パケに対して必要な著作権処理のリストを用意に作成できる。よって、コンテンツの再利用が促進される。 In addition, by providing means for automatically recognizing copyrighted items such as music, people and people's movements, the work of each scene that composes a complete packet (completed packet, completed content) edited from the content material Rights-related items can be called out and displayed, and metadata such as copyright management source, contact information, usage conditions and copyright fees can be added to each copyright-related item. This makes it possible to prepare a list of necessary copyright processing for the editing material and the complete package if copyright processing is required for the photographed content. Therefore, the reuse of content is promoted.
さて、記録媒体209から映像を再生する場合、ユーザーは管理制御手段219よりAV信号再生制御手段217にアクセスし、記録されているファイルタイトルから再生ファイルを選ぶ。ユーザが複数のAVファイルの中から再生すべきファイルが特定できない場合には、ユーザーは管理制御手段219のユーザーインタフェース(ユーザーのボタン入力)より、検索キーワードを打ち込み、AV再生制御手段217に問い合わせる。AV再生制御手段217は、入力されたキーワードに全部または一部マッチングするメタデータをタイトルリスト/プレイリスト/ナビゲーションデータファイルディレクトリ211およびメタデータファイルディレクトリ212から検索して、その結果を、たとえばテキスト情報と該当映像のサムネイルをAV信号出力手段220の出力映像に重畳する。これによりユーザは検索結果を、テキストとサムネイルのペアとして、TV画面上で確認できる。なお、ここで、ユーザーへの検索結果の通知は、カメラに付いているファインダーなど一般の表示ディスプレイを用いてもよい。
When reproducing a video from the
さて、上記のタイトルリストやメタデータ検索結果などから、再生すべきAVデータを特定した後は、ユーザーは目的のAVファイルを呼び出し再生する。なお、このAVファイル中の特定の場面にすぐにアクセスする場合、ユーザーは管理制御手段219を介してAV信号と紐付けをしたメタデータを使用することによりアクセスしたい場面にすぐにアクセスして再生することができる。
(実施の形態2)
次に、本発明の第2の実施例について説明する。以下においては、実施の形態1と同じ部分は説明を省略し、異なる部分のみ説明する。図4は第2の実施例の説明図である。図4においては、プレイリスト生成・管理手段401を新たに追加する。
Now, after specifying the AV data to be reproduced from the title list and the metadata search result, the user calls and reproduces the target AV file. When a specific scene in the AV file is immediately accessed, the user can immediately access and play the scene to be accessed by using the metadata associated with the AV signal via the
(Embodiment 2)
Next, a second embodiment of the present invention will be described. In the following, description of the same parts as those in the first embodiment will be omitted, and only different parts will be described. FIG. 4 is an explanatory diagram of the second embodiment. In FIG. 4, a playlist generation / management means 401 is newly added.
プレイリスト生成・管理手段401は、複数のAVファイルから任意のAV信号部を選択して自由に組み合わせて(編集して)、新たなAVファイルを生成する。この生成方法としては、管理制御手段219においてユーザーがボタン入力で指定したファイルに対して、メタデータで指定される場面と、メタデータで指定されないがユ−ザが重要と考える場面を時間軸に沿って、AV信号出力手段220の出力信号にサムネイル表示させる(図1の112参照)。なお、サムネイルはユーザーが指定した長さなど特定長の映像クリップの先頭画像(または、サムネイルの代表画像)である。ユーザーは表示されたサムネイル画像を見て、自分の編集したい映像クリップを選び、各クリップ中で使用するシーンを選択し、順番を変えて新たな映像ファイルを生成する。この作業で実際に生成しているのは、ファイルからのクリップ切り出し位置情報の組み合わせとしての、いわゆるプレイリストであり、このプレイリストをタイトルリスト/プレイリスト/ナビゲーションデータファイルディレクトリ211に登録する。この様にプレイリストを用いると、余分なAV信号のないコンパクトなファイルをバーチャルに生成できる。
The playlist generation / management means 401 generates a new AV file by selecting arbitrary AV signal parts from a plurality of AV files and freely combining (editing) them. For this generation method, the management control means 219 uses a time axis based on the scene specified by the metadata for the file specified by the button input by the user and the scene that the user considers important but not specified by the metadata. Accordingly, thumbnails are displayed on the output signals of the AV signal output means 220 (see 112 in FIG. 1). The thumbnail is the head image (or thumbnail representative image) of a video clip having a specific length such as the length specified by the user. The user looks at the displayed thumbnail image, selects a video clip to be edited, selects a scene to be used in each clip, changes the order, and generates a new video file. What is actually generated in this operation is a so-called playlist as a combination of clip cut-out position information from the file, and this playlist is registered in the title list / playlist / navigation
さて、記録媒体209から映像を再生する場合、ユーザーは管理制御手段219よりAV信号再生制御手段217にアクセスし、記録されているファイルタイトルおよびプレイリストから再生ファイルを選ぶ。ユーザが複数のAVファイルの中から再生すべきファイルのタイトルまたはプレイリストが特定できない場合には、ユーザーは管理制御手段219のユーザーインタフェース(ユーザーのボタン入力)より、検索キーワードを打ち込み、AV再生制御手段217に問い合わせる。AV再生制御手段217は、入力されたキーワードに全部または一部マッチングするメタデータをタイトルリスト/プレイリスト/ナビゲーションデータファイルディレクトリ211およびメタデータファイルディレクトリ212から検索して、その結果を、たとえばテキスト情報と該当映像のサムネイルをAV信号出力手段220の出力映像に重畳する。これによりユーザは検索結果を、テキストとサムネイルのペアとして、TV画面上で確認できる。なお、ここで、ユーザーへの検索結果の通知は、カメラに付いているファインダーなど一般の表示ディスプレイを用いてもよい。
When reproducing a video from the
さて、上記のタイトルリスト、メタデータ検索結果に加えてプレイリストから、再生すべきAVデータを特定でき、特定後、目的のAVファイルを呼び出し再生する。なお、このAVファイル中の特定の場面にすぐにアクセスする場合、ユーザーは管理制御手段219を介してAV信号と関連付けしたメタデータを使用することにより、アクセスしたい場面にすぐにアクセスして再生できる。
(実施の形態3)
次に、本発明の第3の実施例について説明する。以下においては、実施の形態2と同じ部分は説明を省略し、異なる部分のみ説明する。図5は第3の実施例の説明図である。図5においては、プレイリスト出力手段501を新たに追加する。プレイリスト出力手段501は、第2の実施例で生成されタイトルリスト/プレイリスト/ナビゲーションデータファイルディレクトリ211に登録されたプレイリストを出力する。
Now, in addition to the above-described title list and metadata search results, AV data to be reproduced can be identified from the playlist, and after the identification, the target AV file is called and reproduced. When a specific scene in the AV file is immediately accessed, the user can immediately access and play the scene to be accessed by using the metadata associated with the AV signal via the management control means 219. .
(Embodiment 3)
Next, a third embodiment of the present invention will be described. In the following, description of the same parts as those of the second embodiment will be omitted, and only different parts will be described. FIG. 5 is an explanatory diagram of the third embodiment. In FIG. 5, a
記録媒体209から映像を再生する場合、ユーザーは管理制御手段219よりAV信号再生制御手段217にアクセスし、記録されているファイルタイトルおよびプレイリストから再生ファイルを選ぶ。ユーザが複数のAVファイルの中から再生すべきファイルのタイトルまたはプレイリストが特定できない場合には、ユーザーは管理制御手段219のユーザーインタフェース(ユーザーのボタン入力)より、検索キーワードを打ち込み、AV再生制御手段217に問い合わせる。AV再生制御手段217は、入力されたキーワードに全部または一部マッチングするメタデータをタイトルリスト/プレイリスト/ナビゲーションデータファイルディレクトリ211およびメタデータファイルディレクトリ212から検索して、その結果を、たとえばテキスト情報と該当映像のサムネイルをAV信号出力手段220の出力映像に重畳する。これによりユーザは検索結果を、テキストとサムネイルのペアとして、TV画面上で確認できる。なお、ここで、ユーザーへの検索結果の通知は、カメラに付いているファインダーなど一般の表示ディスプレイを用いてもよい。
When playing back video from the
さて、上記のタイトルリスト、プレイリストやメタデータ検索結果などから、再生すべきAVデータを特定した後は、ユーザーは目的のプレイリストをプレイリスト出力手段より出力する。 Now, after specifying the AV data to be reproduced from the above-mentioned title list, playlist, metadata search result, etc., the user outputs the target playlist from the playlist output means.
この様にプレイリストを出力するメリットを図6を用いて説明する。図6においてユーザー1とユーザー2がネットワークを介して接続されているとする。ネットワークの種類は問わず、IPベースのホームネットワークでもよいしインターネットでもよい。 The merit of outputting a playlist in this way will be described with reference to FIG. In FIG. 6, it is assumed that user 1 and user 2 are connected via a network. Regardless of the type of network, it may be an IP-based home network or the Internet.
ユーザー2がローカルのTV608のリモコン609から、ネットワークを介してリモートのムービー101にアクセスする場合を考える。ユーザー2がムービー101内の録画ファイルを遠隔から視聴する場合、ムービー101内のプレイリストに従ってAV信号を視聴できれば、プレイリストのファイルには編集前の余分なデータがない分、データ転送量が小さくなり、機器およびネットワークにかかる負荷を小さくできる。すなわち、ムービーでの生の撮影信号から不要な信号を削除して編集されたAV信号を、より効率的に視聴できる。
Consider a case where the user 2 accesses the
また、ユーザー1はAVファイル、AVファイルに関するメタデータおよびプレイリストをネットワーク605内のサーバー606や、ユーザー1ローカルのAVレコーダー602、ユーザー2ローカルのAVレコーダー602にアップロードできる。これにより、別のユーザー(たとえば、ユーザー3)がサーバー606や、AVレコーダー602、AVレコーダー602にアクセスしてプレイリストに従ったAV信号を効率的に送受信することができる。
Also, the user 1 can upload the AV file, metadata regarding the AV file, and the playlist to the
ここで、もし、ユーザー2や別のユーザー(たとえば、ユーザー3)が視聴したプレイリストよりもっと別のプレイリストを考案した場合、ユーザー2や別のユーザー(たとえば、ユーザー3)は新たなプレイリストを生成し、サーバー606や、AVレコーダー602、AVレコーダー602にアップロードする。これにより、限られた数のAV信号(コンテンツ)から多くの編集タイトル(プレイリスト)を生成でき、AV信号(コンテンツ)を色々な観点から鑑賞することが可能となる。いわゆる、ネットワーク型の映像編集、制作をネットワークを介して共同で行うことも可能となる。
Here, if a different playlist is devised than the playlist watched by the user 2 or another user (for example, the user 3), the user 2 or another user (for example, the user 3) will create a new playlist. Is uploaded to the
また、プレイリストを利用することにより別のアプリケーション(利用方法)も生まれる。たとえば、ムービー101からAV信号再生制御手段217で低解像度のAV信号に変換して、メタデータと共に携帯電話601に出力し、形態電話601でメタデータを用いて映像編集を行ない編集EDL(または、プレイリスト)をムービー101に送る。TV603はムービー101にアクセスし、プレイリストを選択し、ムービーでの生の撮影信号から不要な信号を削除してきれいに編集されたAV信号を視聴できる。
Also, another application (usage method) is born by using the playlist. For example, the
また、プレイリストに従ったAV信号をAVレコーダー602やサーバー605、AVレコーダー607にアップロード(または、ダウンロード)することにより、ネットワークに繋がったユーザーはネットワークを介して、より完成度が高く編集されたAVコンテンツ信号を効率的に視聴できる。
Also, by uploading (or downloading) AV signals according to the playlist to the
本発明は、プレイリストを利用したAVコンテンツ視聴に発展させることもできる。たとえば、図7においてネットワーク605をインターネットとした場合、ユーザー1はインターネット上のサーバー606にブログ(Blog、Weblogの別名)形式のサイトを公開し、そのブログサイトにアクセスして登録した複数のユーザーにRSS(RDF Site Summary)形式でAVコンテンツの追加、更新情報を知らせることができる。ここでユーザー1はAVコンテンツとそのAVコンテンツに対応した複数のプレイリストを公開する。個々のプレイリストには、たとえば、そのAVコンテンツのダイジェスト版、簡易版、完全版、編集前の生コンテンツなどの解説が付けられており、AVコンテンツを視聴するユーザーは好みのプレイリストを選びAVコンテンツを視聴することができる。これは、デジタル放送におけるEPG(Electronic Program Guide)配信をインターネット上の放送配信メディアに拡張したシステムと考えることができる。ダイジェスト版は1セグ放送や携帯電話での有料または無料のコンテンツ配信に有効であり、簡易版や完全版、編集前コンテンツはWEB上での有料または無料のコンテンツ配信に有効である。ユーザー1はインターネット上のを通じて多くのユーザーに知らせることができるので、小規模な企業体や個人でも音声や映像のインターネットベースの放送局を開局できる。また、ユーザーは、RSSフィードによるインターネット上のAVコンテンツを自動的に収集する仕組みである、いわゆる、Podcasting(ポッドキャスティング)を利用してインターネット上のAVコンテンツを視聴できる。
The present invention can also be developed for viewing AV content using a playlist. For example, when the
さらに、ムービー101にインターネットに接続してサーバーとして働く機能を持たせる(IPネットワーク接続機能付きムービーカメラ101)。この場合、ユーザー1は撮影中のコンテンツをメタデータと一緒にインターネットを介してライブ配信できる。すなわち、ユーザー1はライブ撮影の音声と映像を音声認識や画像認識やボタン入力ですばやくメタデータ化し、XML文書としてRSSでインターネットで公開することにより、メタデータによる解説付きの生中継を全世界に行うことができる。
Further, the
(実施の形態4)
次に、本発明の第4の実施例について説明する。以下においては、実施の形態3と同じ部分は説明を省略し、異なる部分のみ説明する。図7は第4の実施例の説明図である。図7においては、メタデータ時刻修正手段701を新たに追加する。プレイリスト出力手段501は、第2の実施例で生成されタイトルリスト/プレイリスト/ナビゲーションデータファイルディレクトリ211に登録されたプレイリストを出力する。
(Embodiment 4)
Next, a fourth embodiment of the present invention will be described. In the following, description of the same parts as those of the third embodiment will be omitted, and only different parts will be described. FIG. 7 is an explanatory diagram of the fourth embodiment. In FIG. 7, metadata time correction means 701 is newly added. The
記録媒体209から映像を再生する場合、ユーザーは管理制御手段219よりAV信号再生制御手段217にアクセスし、記録されているファイルタイトルおよびプレイリストから再生ファイルを選ぶ。ユーザが複数のAVファイルの中から再生すべきファイルのタイトルまたはプレイリストが特定できない場合には、ユーザーは管理制御手段219のユーザーインタフェース(ユーザーのボタン入力)より、検索キーワードを打ち込み、AV再生制御手段217に問い合わせる。AV再生制御手段217は、入力されたキーワードに全部または一部マッチングするメタデータをタイトルリスト/プレイリスト/ナビゲーションデータファイルディレクトリ211およびメタデータファイルディレクトリ212から検索して、その結果を、たとえばテキスト情報と該当映像のサムネイルをAV信号出力手段220の出力映像に重畳する。これによりユーザは検索結果を、テキストとサムネイルのペアとして、TV画面上で確認できるが、メタデータとサムネイルの間にムービー撮影者の意図しない時間ずれがあった場合、編集や視聴前にそのずれを修正する必要がある。そこでユーザーは、指定したメタデータに対するサムネイルを見ながら、管理制御手段219よりボタン入力によりメタデータとサムネイルの時間ずれを映像のフレームまたはフィールド単位で修正(トリミング)する。このとき、メタデータ時刻修正手段701がユーザーの指定した分だけメタデータに関連付けた映像信号の時間情報(タイムコードまたはデータ位置情報)を修正して新しい時間情報でメタデータと映像信号を関連付ける。これにより、ムービー撮影者や撮影監督などのユーザーは考えたとおりにメタデータと映像の同期を取ることが可能となる。よって、AV信号の編集効率をアップし、映像表現の高精度化、高度化を図ることができる。
When playing back video from the
また、本発明によればプレイリストの新たな利用方法として放送番組のプレイリスト配信を行うことができる。たとえば、ムービー101がTVチューナーを内蔵していて、TV放送を録画した場合、ユーザー1は録画したTV番組を前述の様に編集してそのプレイリストを生成する。この場合、ユーザー1は録画番組のタイトルとプレイリストだけをインターネット上のサーバーに公開する。他の一般ユーザ(たとえば、ユーザー123とする)もユーザー1と同じ番組を録画している場合、ユーザー123はユーザー1の生成したプレイリストをダウンロードすることにより、自分(ユーザー123)の録画したTV番組をユーザー1が生成したプレイリストに従った未知のストーリー仕立てで自分で録画した番組を視聴できる。たとえば、スポーツ番組ならばダイジェスト再生や、ニュースならばヘッドライン再生、CM(コマーシャル)だけを集めたプレイリストを生成できる。ここで、課題となるのは時刻同期であるが、ムービー、サーバーまたはAVレコーダーの時計精度を映像フレーム以内に合わせることは現在の技術で可能である。たとえば、日本のデジタル放送ではARIB規格で規定されたTOT(Time Offset Table)信号から共通の時刻情報を生成することができる。アナログ放送の場合には、標準電波や放送受信した映像フレームや音声の特徴より判別することができる。
Further, according to the present invention, playlist distribution of broadcast programs can be performed as a new usage method of playlists. For example, when the
また、本発明はテレビ録画だけでなく、映画やインターネット上での動画コンテンツ、携帯端末向けのコンテンツ作成にも応用できる。 Further, the present invention can be applied not only to television recording but also to movie creation, movie content on the Internet, and content creation for mobile terminals.
メタデータはテキストデータとして前記コンテンツに付随させることもできるし、メタデータをバイナリデータとして前記コンテンツに付随させることもできる、また、メタデータをウォーターマークとして前記コンテンツに付随させることもできる。 The metadata can be attached to the content as text data, the metadata can be attached to the content as binary data, or the metadata can be attached to the content as a watermark.
また、メタデータはウォーターマークとして画像データの中に埋め込んだ形でコンコードし、記録再生、伝送受信した後、デコードして使うこともできる。なお、上記の説明では同一のメディアへの記録、蓄積を例としたが、関連付けの行ってある2つ以上のメディアにメタデータと映像データを別々に保存しても良い。また、関連付けの行ってあるメディアであればメタデータのみの保存、または映像データのみの保存、またはメタデータと映像データの2つを保存、のどれかを行っても良い。 Also, the metadata can be concoded as a watermark embedded in the image data, recorded, reproduced, transmitted and received, and then decoded. In the above description, recording and storage on the same medium are taken as an example. However, metadata and video data may be stored separately in two or more associated media. Further, as long as the medium is associated, either metadata only, video data only, or both metadata and video data may be stored.
本発明はカメラ撮影時に取得できるコンテンツ(映像、音声、データ)からメタデータを生成し、入力する方法と、検索と頭だしが高速化された編集システムに関して好適なものである。 The present invention is suitable for a method of generating and inputting metadata from contents (video, audio, data) that can be acquired at the time of camera shooting, and an editing system that speeds up searching and cueing.
101 カメラ
102 カメラのレンズ部
103 カメラのマイク
104 カメラの撮影対象
105 カメラで撮影したデータ
106 映像データ
107 音声データ
108 メタデータ
109 カメラで撮影されたデータシーケンス
110 リモコン
111 編集により、シーン#1からシーン#5までをつなぎ合わせたデータシーケンス
112 テレビ(TV)
113 メタデータ入力用ボタン
DESCRIPTION OF
113 Button for entering metadata
Claims (20)
収録したコンテンツを分類する分野別タグを選択して付加する分野別辞書選択手段と、
前記分野別辞書選択手段で選択される各分野の辞書と、
前記辞書を参照した音声認識により前記コンテンツに含まれる音声を文字データに変換する音声認識手段または、前記辞書を参照した音声認識により外部入力音声を選択して文字データに変換する音声認識手段または、前記コンテンツに含まれる映像内の人物または物体を認識して文字データに変換する画像認識手段の少なくとも一つの手段と、
前記文字データをメタデータとして前記コンテンツに関連付ける手段と、
を備えることを特徴とするメタデータ入力装置。 For recording means of content containing either video, audio or data,
A field-specific dictionary selection means for selecting and adding a field-specific tag for classifying the recorded content,
A dictionary of each field selected by the field-specific dictionary selection means;
Speech recognition means for converting speech contained in the content into character data by speech recognition referring to the dictionary, or speech recognition means for selecting external input speech and converting it to character data by speech recognition referring to the dictionary, or At least one means of image recognition means for recognizing a person or object in the video included in the content and converting it into character data;
Means for associating the character data with the content as metadata;
A metadata input device comprising:
前記音声認識手段は、前記音声認識動作用ボタンを押した時に、前記音声選択手段の出力音声に識別フラグを付ける手段と、
前記識別フラグが付いた位置を含んだ別途指定された時間範囲の音声に対して音声認識動作を行うことを特徴とする請求項1記載のメタデータ入力装置。 The content recording means includes a voice recognition operation button,
The voice recognition means, a means for attaching an identification flag to the output voice of the voice selection means when the voice recognition operation button is pressed;
2. The metadata input device according to claim 1, wherein a speech recognition operation is performed for speech in a separately designated time range including a position with the identification flag.
前記人の顔の検出手段は、前記顔認識動作用ボタンを押した時に、前記映像に識別フラグを付ける手段と、
前記識別フラグが付いた位置を含んだ別途指定された時間範囲の映像に含まれる顔認識動作を行うことを特徴とする請求項7記載のメタデータ入力装置。 The content recording means includes a button for face recognition operation,
The human face detection means includes means for attaching an identification flag to the video when the face recognition operation button is pressed;
8. The metadata input device according to claim 7, wherein a face recognition operation included in a video of a separately designated time range including the position with the identification flag is performed.
生成コンテンツをファイル形式で出力する手段を具備することを特徴とするコンテンツ処理装置。 The content processing apparatus according to claim 15 or claim 16 or claim 17,
A content processing apparatus comprising means for outputting generated content in a file format.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005237154A JP2007052626A (en) | 2005-08-18 | 2005-08-18 | Metadata input device and content processor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005237154A JP2007052626A (en) | 2005-08-18 | 2005-08-18 | Metadata input device and content processor |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007052626A true JP2007052626A (en) | 2007-03-01 |
JP2007052626A5 JP2007052626A5 (en) | 2008-09-18 |
Family
ID=37917036
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005237154A Pending JP2007052626A (en) | 2005-08-18 | 2005-08-18 | Metadata input device and content processor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007052626A (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008262461A (en) * | 2007-04-13 | 2008-10-30 | Yahoo Japan Corp | Transmission method for content |
JP2009060542A (en) * | 2007-09-03 | 2009-03-19 | Sharp Corp | Data transmission apparatus, data transmission method, audiovisual environment control device, audiovisual environment control system, and audiovisual environment control method |
JP2010081277A (en) * | 2008-09-26 | 2010-04-08 | Nec Personal Products Co Ltd | Thumbnail display device, thumbnail display method, and, program |
JP2010245607A (en) * | 2009-04-01 | 2010-10-28 | Nikon Corp | Image recording device and electronic camera |
JP2011150649A (en) * | 2010-01-25 | 2011-08-04 | Canon Inc | System and method for processing information |
JP2012004901A (en) * | 2010-06-17 | 2012-01-05 | Toshiba Corp | Reproduction list creation/management method and video apparatus for performing the method |
JP2013534741A (en) * | 2010-06-02 | 2013-09-05 | ナクソス ファイナンス エスエー | Image recording / reproducing apparatus and image recording / reproducing method |
JP2013255289A (en) * | 2013-09-11 | 2013-12-19 | Toshiba Corp | Creation of reproduction list and electronic apparatus for executing the same |
JP2020036243A (en) * | 2018-08-31 | 2020-03-05 | 株式会社日立国際電気 | Editing system and editing method |
US11386658B2 (en) | 2018-04-20 | 2022-07-12 | Fujifilm Business Innovation Corp. | Information processing apparatus and non-transitory computer readable medium |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1084525A (en) * | 1996-02-05 | 1998-03-31 | Texas Instr Inc <Ti> | Method for generating index to video sources |
JPH10326278A (en) * | 1997-03-27 | 1998-12-08 | Minolta Co Ltd | Processor and method for information processing and recording medium for information processing program |
JP2001004368A (en) * | 1999-06-16 | 2001-01-12 | Honda Motor Co Ltd | Object recognizing apparatus |
JP2001084274A (en) * | 1999-07-14 | 2001-03-30 | Fuji Photo Film Co Ltd | Image retrieval method and image processing method |
JP2004153764A (en) * | 2002-11-01 | 2004-05-27 | Matsushita Electric Ind Co Ltd | Meta-data production apparatus and search apparatus |
JP2004171415A (en) * | 2002-11-21 | 2004-06-17 | Nippon Telegr & Teleph Corp <Ntt> | Method and device for utilizing recorded image |
JP2005101906A (en) * | 2003-09-25 | 2005-04-14 | Fuji Photo Film Co Ltd | Moving image recording device, moving image recording method, and program |
JP2005115607A (en) * | 2003-10-07 | 2005-04-28 | Matsushita Electric Ind Co Ltd | Video retrieving device |
JP2005210573A (en) * | 2004-01-26 | 2005-08-04 | Mitsubishi Electric Corp | Video image display system |
-
2005
- 2005-08-18 JP JP2005237154A patent/JP2007052626A/en active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1084525A (en) * | 1996-02-05 | 1998-03-31 | Texas Instr Inc <Ti> | Method for generating index to video sources |
JPH10326278A (en) * | 1997-03-27 | 1998-12-08 | Minolta Co Ltd | Processor and method for information processing and recording medium for information processing program |
JP2001004368A (en) * | 1999-06-16 | 2001-01-12 | Honda Motor Co Ltd | Object recognizing apparatus |
JP2001084274A (en) * | 1999-07-14 | 2001-03-30 | Fuji Photo Film Co Ltd | Image retrieval method and image processing method |
JP2004153764A (en) * | 2002-11-01 | 2004-05-27 | Matsushita Electric Ind Co Ltd | Meta-data production apparatus and search apparatus |
JP2004171415A (en) * | 2002-11-21 | 2004-06-17 | Nippon Telegr & Teleph Corp <Ntt> | Method and device for utilizing recorded image |
JP2005101906A (en) * | 2003-09-25 | 2005-04-14 | Fuji Photo Film Co Ltd | Moving image recording device, moving image recording method, and program |
JP2005115607A (en) * | 2003-10-07 | 2005-04-28 | Matsushita Electric Ind Co Ltd | Video retrieving device |
JP2005210573A (en) * | 2004-01-26 | 2005-08-04 | Mitsubishi Electric Corp | Video image display system |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008262461A (en) * | 2007-04-13 | 2008-10-30 | Yahoo Japan Corp | Transmission method for content |
JP2009060542A (en) * | 2007-09-03 | 2009-03-19 | Sharp Corp | Data transmission apparatus, data transmission method, audiovisual environment control device, audiovisual environment control system, and audiovisual environment control method |
JP2010081277A (en) * | 2008-09-26 | 2010-04-08 | Nec Personal Products Co Ltd | Thumbnail display device, thumbnail display method, and, program |
JP2010245607A (en) * | 2009-04-01 | 2010-10-28 | Nikon Corp | Image recording device and electronic camera |
JP2011150649A (en) * | 2010-01-25 | 2011-08-04 | Canon Inc | System and method for processing information |
JP2013534741A (en) * | 2010-06-02 | 2013-09-05 | ナクソス ファイナンス エスエー | Image recording / reproducing apparatus and image recording / reproducing method |
JP2012004901A (en) * | 2010-06-17 | 2012-01-05 | Toshiba Corp | Reproduction list creation/management method and video apparatus for performing the method |
JP2013255289A (en) * | 2013-09-11 | 2013-12-19 | Toshiba Corp | Creation of reproduction list and electronic apparatus for executing the same |
US11386658B2 (en) | 2018-04-20 | 2022-07-12 | Fujifilm Business Innovation Corp. | Information processing apparatus and non-transitory computer readable medium |
JP2020036243A (en) * | 2018-08-31 | 2020-03-05 | 株式会社日立国際電気 | Editing system and editing method |
JP7074618B2 (en) | 2018-08-31 | 2022-05-24 | 株式会社日立国際電気 | Editing system and editing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10482168B2 (en) | Method and apparatus for annotating video content with metadata generated using speech recognition technology | |
JP2007082088A (en) | Contents and meta data recording and reproducing device and contents processing device and program | |
JP2007052626A (en) | Metadata input device and content processor | |
CN1161984C (en) | Method and system for synchronizing video index between audio-frequency/video-frequency signals and datas | |
TWI362034B (en) | ||
JP2004357334A (en) | Av content generating apparatus and av program generating method | |
KR20050099488A (en) | Method and apparatus for encoding and decoding of a video multimedia application format including both video and metadata | |
JP4257103B2 (en) | Digital video recorder and digital recording method | |
JP5306550B2 (en) | Video analysis information transmitting apparatus, video analysis information distribution system and distribution method, video viewing system and video viewing method | |
JP2004173120A (en) | Moving image storage device and moving image distribution system | |
JP2007251891A (en) | Apparatus for photographing content | |
JP3766280B2 (en) | Content mediation apparatus and content mediation processing method | |
JP5198643B1 (en) | Video analysis information upload apparatus, video viewing system and method | |
US20110289085A1 (en) | Recording method | |
JP2008072572A (en) | Content photographing apparatus | |
JP2005539406A (en) | Video indexing method using high resolution still images | |
JP2008011235A (en) | Recording device and method, reproducing device and method, and program | |
WO2006030995A9 (en) | Index-based authoring and editing system for video contents | |
JP2004171053A (en) | Data processor | |
JP3774738B2 (en) | Conversion service method to digital recording media | |
JP2006101155A (en) | Image recording/reproducing device | |
JP5094907B2 (en) | Recording medium and reproducing apparatus | |
JP4826677B2 (en) | Recording medium and reproducing apparatus | |
JP4596080B2 (en) | Recording medium and reproducing apparatus | |
JP4462373B2 (en) | Recording medium and reproducing apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080804 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080804 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090825 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091023 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20091126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091208 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100413 |