JP2004363828A - Data reproducing device, method, computer program, and computer-readable storage medium - Google Patents

Data reproducing device, method, computer program, and computer-readable storage medium Download PDF

Info

Publication number
JP2004363828A
JP2004363828A JP2003158528A JP2003158528A JP2004363828A JP 2004363828 A JP2004363828 A JP 2004363828A JP 2003158528 A JP2003158528 A JP 2003158528A JP 2003158528 A JP2003158528 A JP 2003158528A JP 2004363828 A JP2004363828 A JP 2004363828A
Authority
JP
Japan
Prior art keywords
data
information
reproduction
processed
reproducing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003158528A
Other languages
Japanese (ja)
Inventor
Kazuhiro Takahashi
和弘 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2003158528A priority Critical patent/JP2004363828A/en
Publication of JP2004363828A publication Critical patent/JP2004363828A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To make an appreciator not feel uneasy and unpleasant even when a partial audio stream is absent when a scene formed by connecting a plurality of clips of, for example, a moving picture is reproduced and appreciated by preventing information from ceasing during a reproduction period of processed data. <P>SOLUTION: Stream data including an image stream and an audio stream, and a rendering clip generated by using the stream data are reproduced according to reproduction description data. In this case, if the rendering clip has no audio stream, the audio stream of the stream data is continuously reproduced in a reproduction period of the rendering clip as well as the reproduction of the rendering clip. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、再生記述データに従って画像データや音声データを再生するのに好適なデータ再生装置、方法、コンピュータプログラム、及びコンピュータ読み取り可能な記憶媒体に関するものである。
【0002】
【従来の技術】
近年、デジタルVTRやDVDプレーヤ等のデジタル画像データを扱う機器が普及し、また、AV機器やコンピュータの進歩により動画像の編集がスタジオだけでなく家庭においても行われるようになってきた。
【0003】
例えば、ノンリニア編集と呼ばれるビデオ編集システムにおいては、図12に示すような素材となる動画A(1301)、動画B(1302)の動画像データを編集し、動画C(1303)を生成する。このように従来のノンリニア編集では、素材となる動画像データを、カットイン、カットアウトによる時間方向の切り出しや、並べ替え、更にはカット間のワイプ効果等のエフェクトを加えて画像をレンダリングし、新たな動画像データを生成するシステムが一般的である。
【0004】
また、動画像データは一般にその情報量が多いので、圧縮符号化されていることが多く、素材データがこのように圧縮符号化されている場合には編集を行う際に一度デコードしてから編集を行い、その後再び符号化する。
【0005】
しかし、前記のノンリニア編集システムでは、ワイプやディゾルブのような追加効果の処理を直接画像データに対して施してしまうため、後で追加効果のみを削除することや、別の効果に差し替えることができず、また、素材となった部分と追加効果処理が施されている部分とを識別することができない。
【0006】
また、近年では、動画像データや音声データ等の再生処理を制御するための記述言語が提案されている。例えば、SMIL(Synchronized Multimedia Integration Language)等がその一例である。SMILでは、動画像や静止画像等の画像データの同期再生、逐次再生、或いは、テキストや音声等、他のメディアデータの再生処理を指示することができる。また、画像データの表示切り替え時に適用される特殊効果等も指定することができる。さらに、再生記述言語を用いてビデオエフェクトを付加することが可能であり、この再生記述言語を書き替えることで効果の内容を差し替えることもできる。
【0007】
しかし、SMILのような再生記述言語を用いて自由な再生手順や特殊効果が記述可能となっても、実際に再生処理を行う再生環境によっては指示されたとおりの再生が不可能である場合がある。例えば、再生環境によっては記述されている特殊効果をリアルタイムに実行することができず、特殊効果に関する記述が無視されてしまうこともある。そのため、高度で複雑なビデオエフェクトを記述することは、記述方式の仕様として不可能であった。
【0008】
前記問題の解決方法として、例えば特許文献1には、情報データ及び前記情報データの再生手順を示す再生記述データを処理する情報処理装置であって、前記情報データの一部のデータを用いて新たに加工データを生成する加工データ処理手段と、前記情報データのうち、前記一部のデータの代わりに前記加工データを再生するよう前記再生記述データを変更する記述データ処理手段とを備えるものについて提案がなされている。
【0009】
図11を参照して、前記特許文献1で提案されているデータ処理について説明する。同図(a)に示す動画A(401)と動画B(402)の接続点で効果AB(403)(例えばワイプ)を実現する場合の再生手順は、同図(b)に示すように、動画Aの再生終了点と動画Bの再生開始点を所定位置に移動して、その間に効果AB(403)(加工済みデータ)を挿入する再生記述をする。
【0010】
【特許文献1】
特開平2003−218385号公報
【0011】
【発明が解決しようとする課題】
しかしながら、前記特許文献1での提案は、情報データの一部のデータを用いて新たに加工データを生成するに際して、動画像データを加工することが主体であり、音声データに関しての対応が述べられていない。一般に動画像編集は、動画像中心にデータ編集及びデータ加工を行う。その場合、音声データをアフレコで編集、追加する場合以外は、音声データの加工処理が確実に行われる補償は少ない。特に、簡易的な動画編集ソフトでは、音声データ(音声ストリーム)の編集、加工をサポートするものは非常に少ない。しかし、動画像のクリップを複数接続したシーンを再生鑑賞する場合に、一部の音声ストリームが欠落していると、鑑賞者に不安と不快感を与えるコンテンツとなってしまう可能性がある。
【0012】
本発明は前述の如き問題点を解決べくなされたものであり、本発明の目的は、加工データの再生期間に情報が途絶えるのを防ぐようにすることを提案するものである。本発明の他の目的は、素材となる情報データの再生手順を容易に変更する手段を適応した場合の編集、再生過程においての制御動作を適切に行うことを提案するものである。
【0013】
【課題を解決するための手段】
本発明のデータ再生装置は、複数種のデータからなる第1のデータ列と、前記第1のデータ列を用いて生成された第2のデータ列とを再生記述データに従って再生するデータ再生装置であって、前記第2のデータ列に前記複数種のうち所定種類のデータが存在しない場合、前記第2のデータの再生期間に前記所定種類のデータに応じたデータを再生する点に特徴を有する。
【0014】
本発明の他のデータ再生装置は、情報データと前記情報データの一部のデータを用いて生成された加工データとを、前記情報データの一部のデータの代わりに前記加工データを再生するよう前記情報データと前記加工データの再生手順を指定する再生記述データに従い記録媒体から再生する再生手段と、前記加工データの情報不足を判定する判定手段と、前記判定手段において情報不足であると判定した場合、前記加工データの再生期間に前記加工データを再生すると共に、前記加工データ再生直前の情報データを継続的に再生するよう前記再生手段を制御する制御手段とを備えた点に特徴を有する。
【0015】
本発明の他のデータ再生装置は、情報データと、前記情報データの一部のデータを用いて生成された加工データとを、前記情報データの一部のデータの代わりに前記加工データを再生するよう前記情報データと前記加工データの再生手順を指定する再生記述データに従い記録媒体から再生する再生手段と、前記加工データの情報不足を判定する判定手段と、前記判定手段において情報不足であると判定した場合、前記加工データの再生期間に前記加工データと共に代替情報データを再生するよう制御手段とを備えた点に特徴を有する。
【0016】
本発明のデータ再生方法は、再生手段により、情報データと前記情報データの一部のデータを用いて生成された加工データとを、前記情報データの一部のデータの代わりに前記加工データを再生するよう前記情報データと前記加工データの再生手順を指定する再生記述データに従い記録媒体から再生する手順と、判定手段により、前記加工データの情報不足を判定する手順と、制御手段により、前記判定手段において情報不足であると判定した場合、前記加工データの再生期間に前記加工データを再生すると共に、前記加工データ再生直前の情報データを継続的に再生するよう前記再生手段を制御する手順とを有する点に特徴を有する。
【0017】
本発明の他のデータ再生方法は、再生手段により、情報データと、前記情報データの一部のデータを用いて生成された加工データとを、前記情報データの一部のデータの代わりに前記加工データを再生するよう前記情報データと前記加工データの再生手順を指定する再生記述データに従い記録媒体から再生する手順と、判定手段により、前記加工データの情報不足を判定する手順と、制御手段により、前記判定手段において情報不足であると判定した場合、前記加工データの再生期間に前記加工データと共に代替情報データを再生するよう手順とを有する点に特徴を有する。
【0018】
本発明のコンピュータプログラムは、情報データと前記情報データの一部のデータを用いて生成された加工データとを、前記情報データの一部のデータの代わりに前記加工データを再生するよう前記情報データと前記加工データの再生手順を指定する再生記述データに従い記録媒体から再生する処理と、前記加工データの情報不足を判定する処理と、前記判定処理において情報不足であると判定した場合、前記加工データの再生期間に前記加工データを再生すると共に、前記加工データ再生直前の情報データを継続的に再生するよう前記再生手段を制御する処理とをコンピュータに実行させる点に特徴を有する。
【0019】
本発明の他のコンピュータプログラムは、情報データと、前記情報データの一部のデータを用いて生成された加工データとを、前記情報データの一部のデータの代わりに前記加工データを再生するよう前記情報データと前記加工データの再生手順を指定する再生記述データに従い記録媒体から再生する処理と、前記加工データの情報不足を判定する処理と、前記判定処理において情報不足であると判定した場合、前記加工データの再生期間に前記加工データと共に代替情報データを再生するよう処理とをコンピュータに実行させる点に特徴を有する。
【0020】
本発明のコンピュータ読み取り可能な記憶媒体は、前記本発明のコンピュータプログラムを格納した点に特徴を有する。
【0021】
【発明の実施の形態】
以下、図面を参照して、本発明の実施の形態を説明する。図1は本発明を適用した実施形態の撮像装置200の構成を示す図であり、同図おいて、201は画像を取り込むレンズ、202は画像を電気信号に変換する固体センサ、203は固体センサ202から出力される電気信号をデジタルデータに変換するA/Dコンバータ、205はアイリス、204はレンズ201とアイリス205を駆動するモータである。
【0022】
209は音声を取り込むマイク、210は音声を増幅するマイクアンプ、211は音声をデジタルデータに変換するA/Dコンバータである。
【0023】
212は撮像装置200を操作する操作キーである。213は映像を表示形式にする表示ドライバ、214は映像を表示するためのLCD、EVF等の表示器である。215は音声を出力するためのスピーカドライバ、216はスピーカである。
【0024】
217は諸情報を入出力する入出力端子である。224は各種のセンサである。101は記憶媒体、223は記録媒体101を収納するソケットであり、記録媒体101はソケット223に脱着可能となっている。記録媒体101としては、MMC、SSFDC、コンパクトフラッシュ(R)、SD、PCカード等のメモリカードや、ハードディスクを使用する。或いは、CD−RW、FD、MD、DVD−RAM等の磁気(又は光磁気)記録メディア等を使用する。ソケット223の形状を複数の種類の記録媒体に対応させることで、複数の種類の記録媒体を使用することが可能である。
【0025】
230はシステムを制御するCPU、250はCPU230内に構成されるデコーダブロック、222はCPU230とシステムのためのメモリである。デコーダブロック250は、CPU230のファームウエア或いはCPU230内のハードウエアのいずれでも、又は、双方で構成することが可能である。
【0026】
221は撮像装置200のための電源であり、電力が各回路ブロックに供給される。
【0027】
225は記録再生制御回路である。
【0028】
次に、図1に示した撮像装置200での記録動作を説明する。映像記録動作では、レンズ201を通って入射した被写体からの光が固体センサ202で電気信号に変換され、A/Dコンバータ203によりサンプリングされてデジタルデータに変換される。デジタルデータは、輝度Y、色差Cr、Cb又はRGB等のデジタル映像信号としてCPU230に入力される。レンズ201は、オートフォーカス機能とズーム機能により、CPU230の制御命令でモータ204を駆動させることで移動させることができる。固体センサ202からデータを引き出すためのタイミング信号は、CPU230により生成される。アイリス205は、CPU230よりモータ204の駆動で制御がなされる。レンズ201が防振機能(加速度センサ、防振アクチュエータ等)を備えている場合、加速度センサと防振アクチュエータの位置センサからの信号がCPU230に入力され、防振制御出力信号として、防振アクチュエータをモータ204で駆動制御する。
【0029】
また、マイク209より取り込まれた音声がマイクアンプ210で増幅され、A/Dコンバータ211によりサンプリングされてデジタルデータに変換されて、デジタル音声信号としてCPU230に入力される。
【0030】
デジタル映像信号に対して、CPU230では、色分離、白バランス、ガンマ補正、アパーチャ補正等の基本処理と、操作キー212で設定された画像サイズ、画質調整、位置調整等の付加処理とを行う。そして、処理された信号は、設定された圧縮方法と圧縮パラメータ等によって圧縮符号化される。
【0031】
また、デジタル音声信号に対して、操作キー212で設定された音質調整等の付加処理を行う。そして、処理された信号は、設定された圧縮方法と圧縮パラメータ等によって圧縮される。
【0032】
前記映像圧縮データ及び音声圧縮データは、制御データとともにストリームデータとして形成される。ストリームデータ形式は、ISO/IEC13818−1で規定されるプログラムストリーム、或いは、トランスポートストリームを生成する。ストリームデータは、記録データとして記録再生制御回路225へと送られる。前記制御データとは、ストリームデータ形成のためのヘッダ、管理データ、また、撮像装置自体の情報、画像や音声等の記録設定情報、撮影履歴や撮影環境情報等の撮影付加情報、使用記録媒体等の媒体情報、記録時間や符号時間や再生復号時間や再生表示時間等の時間情報を意味する。
【0033】
さらに、前記各ファイルを、UDF(universal disk format)、FAT(file allocation table)、EXT(environmental audio extensions)2等のファイルシステム管理のもとに、例えばmov3.mpgというファイル名でファイルとして記録媒体101に書き込みを行う。ファイルシステムとは、ファイルの管理を行うための管理情報とファイルデータからなる構造体系を意味する。このファイルシステムを共通化することによって、異なった記録媒体或いは記録再生機器でもデータの認識、記録再生を行うことができるわけである。
【0034】
図2に、記録されるディレクトリ例を示す。ルートディレクトリ(Root)以下、記録媒体の情報等を記載するファイル(media.txt)、後述するプレイリストファイル(playlist.sml)、記録されるコンテンツ群を格納するコンテンツディレクトリ(content)を格納する。コンテンツディレクトリ以下、コンテンツ情報等を記載する情報ファイル(content.info)、動画コンテンツ(mov1.mpg、mov2.mpg)、音声コンテンツ(aud1.mpg)、静止画コンテンツ(img.jpg)、テキストコンテンツ(text.txt)等々を格納する。
【0035】
前記記録されたファイルmov3.mpgは、コンテンツ情報ファイル(content.info)に登録する。登録される項目としては、ファイル名、ファイル属性、記録設定情報、撮影付加情報、記録時間、再生復号時間、再生表示時間、著作権情報等を記載する。
【0036】
また、プレイリストファイル(playlist.sml)にも登録する。プレイリストは、コンテンツを再生するためのスクリプトであり、再生順序、再生手順、再生効果等を記載する。本実施の形態では、再生記述言語としてSMILで記述する。図3は、プレイリストの記述例であり、ここでは単にmov1.mpg、mov2.mpg、mov3.mpgの各動画ファイルを順次再生する例を示している。
【0037】
前記のようにして記録されたデータは、必要に応じて外部入出力端子217に送られる。また、符号化前の画像データを、記録画像の確認用として表示ドライバ213を通して表示器214に表示する。
【0038】
ここで、レンダリングクリップは、映像効果をレンダリングして作成したクリップのことである。従来例でも説明したが、SMILのような再生記述言語を用いて自由な再生手順や特殊効果が記述可能となっても、実際に再生処理を行う再生環境、特にビデオカメラのような組み込み機器では、フェード効果やリゾルブ効果はともかく、ワイプ効果やミックス効果等の複雑な処理を要する特殊効果では、指示されたとおりの再生がリアルタイムでは処理不可能である場合がある。そこで、前記特殊効果をクリップとして前もって用意しておき、これを通常再生することにより、機器の処理負担を軽くすることができる。
【0039】
レンダリングクリップの作成は、PC等の外部装置で作成するか、本実施の形態の撮像装置200本体で操作者が作成する。図9を参照して、レンダリングクリップの作成方法の一例を説明する。クリップ1(ストリーム1)の時間T1とストリーム2(クリップ2)の時間T2との間に、期間T3のワイプ(クロスフェード)効果のレンダリングクリップを作成する場合、クリップ1の時間T1から時間T2までの期間のデータと、クリップ2の時間T1から時間T2までの期間のデータをそれぞれデコードして、画像信号及び音声信号を抜き出す。そして、クリップ1信号を100%、クリップ2信号を0%から、順次クリップ1信号を0%、クリップ2信号を100%にミックスし、そのミックスした信号を符号化してレンダリングクリップして生成する。この操作は、専用回路で処理することも、ソフトウェアで処理することも可能である。
【0040】
図6に、レンダリングクリップを使用したプレイリストの例を示す。1行目は、V1のストリームファイルの先頭から5秒から21秒のクリップの再生指定をしている。tailShift=“2s”は、レンダリングクリップを挿入する期間2秒分を前方にシフトさせることを意味する。
【0041】
2行目は、RCのレンダリングクリップを2秒挿入することを指定しており、systemInsert=“true”は、このクリップがレンダリングクリップであることを意味している。3行目のefxTypeエレメントは、レンダリングされた映像効果の種類と、映像効果の適用範囲を保持するもので、transitionFilter=“true”として遷移効果のレンダリングであることを示す。
【0042】
4行目は、V2のストリームファイルの先頭から5秒から52秒のクリップの再生指定をしている。headShift=“2s”は、レンダリングクリップを挿入する期間2秒分を後方にシフトさせることを意味する。
【0043】
かかるスクリプトにより、VI、RC、V2の各クリップを所定期間順次再生する指定ができる。図6では、詳細遷移効果は記述していないが、パラメータエレメントを使用して、遷移効果種類、手法、期間等を記載することも可能である。
【0044】
次に、撮像装置200での再生動作について説明する。図4は、図1のブロック図におけるデコーダブロック250の詳細な構成を示す図であり、301はストリーム分離器デマックス1、302はストリーム分離器デマックス2、303はビデオストリーム切り替え器、304はオーディオストリーム切り替え器、305はビデオデコーダ、306はオーディオデコーダ、307は切り替え器、310は符号化ストリームの入力端子、311は後述するレンダリングクリップストリームの入力端子、312はビデオ復号信号の出力端子、313はオーディオ復号信号の出力端子、314はオーディオ信号の入力端子である。
【0045】
図1、4において、撮像装置200が再生モードの場合、記録媒体101に記録されているコンテンツ情報とプレイリストを読み出し、記録媒体101に記録されているコンテンツのリストとプレイリストを得る。そして、コンテンツリスト、プレイリスト、各コンテンツの整合性チェックを行う。記録媒体101に対して外部装置で直接ファイル操作(削除、編集等)された場合等、コンテンツリスト、プレイリストに登録されてあるコンテンツファイルが消失、又は、コンテンツファイルが編集されている状態で、コンテンツリストやプレイリストに基づいて再生動作を行った場合、再生ファイルがなかったり、再生時間に不整合が生じたりしてスムーズな再生動作ができなくなるため、これらを可能な限り防止するために整合性チェックを行う。整合チェックの例としては、コンテンツリスト、プレイリストに記載してあるコンテンツファイルとコンテンツファイルの情報が、各コンテンツファイルの実体と相違するか否かを比較する。比較項目は、ファイルの実体、ファイルのサイズや更新日時や種類等のファイル属性、ファイルの再生時間等である。比較項目を任意に設定する手段を備えることも考えられる。整合チェックでエラーが発生した場合は、可能な限りコンテンツリストやプレイリストを修正する。
【0046】
そして、コンテンツリストやプレイリストを表示器214に表示し、操作者が所望のコンテンツ或いはプレイリストを選択する。例えば図6に示したプレイリストを選択し再生実行を行った場合、そのプレイリストを読み込み、内容を解析する。このプレイリストは、transitionFilter=“true”の記述によりレンダリングクリップを含んでいる。この場合、まず、ファイルRCを先読みする。そして、RCファイルに音声ストリームが存在しているかチェックする。音声ストリームの有無チェックは、RCファイルがプログラムストリームの場合、プログラムストリームの先頭に記録されているシステムヘッダ内に記載してあるストリーム種別(MPEGビデオ、MPEGオーディオ等)を確認することにより判定することができる。
【0047】
まず、レンダリングクリップに音声ストリームが存在する場合、V1ファイルの先頭から5秒後のストリームをCPU230に読み込んで、ストリームを端子310に入力し、ストリーム分離器デマックス1(301)でシステムデータ、画像データ、音声データに分離する。切り替え器303は位置1V、切り替え器304は位置1Aに接続される。画像データを、切り替え器303を経由してビデオデコーダ305で復号し、出力端子312に出力する。音声データを、切り替え器304を経由してオーディオデコーダ306で復号し、出力端子313に出力する。ビデオ、オーディオの同期制御は、前記システムデータからのタイムスタンプを使用する。V1ファイルは先頭から21秒後の2秒前の19秒までが再生される。
【0048】
前記V1ファイルの再生終了前に、前記先読みしたRCファイルを端子311に入力し、ストリーム分離器デマックス2(302)でシステムデータ、画像データ、音声データに分離する。また、再生画像出力端子312、再生音声出力端子313時点で総合再生時間が19秒になるタイミングで、切り替え器303の位置2Vへの切り替えと、切り替え器304の位置2Aへの切り替えを行う。画像データを、切り替え器303を経由してビデオデコーダ305で復号し、出力端子312に出力する。音声データを、切り替え器304を経由してオーディオデコーダ306で復号し、出力端子313に出力する。ビデオ、オーディオの同期制御は、前記システムデータからのタイムスタンプを使用する。RCファイルは2秒再生される。
【0049】
さらに、前記RCファイルの再生終了前に、V2ファイルの先頭5秒から2秒後の7秒から読み込んで、ストリームデータを端子310に入力し、ストリーム分離器デマックス1(301)でシステムデータ、画像データ、音声データに分離する。また、再生画像出力端子312、再生音声出力端子313時点で総合再生時間が21秒になるタイミングで、切り替え器303の位置1Vへの切り替えと、切り替え器304の位置1Aへの切り替えを行う。画像データを、切り替え器303を経由してビデオデコーダ305で復号し、出力端子312に出力する。音声データを、切り替え器304を経由してオーディオデコーダ306で復号し、出力端子313に出力する。ビデオ、オーディオの同期制御は、前記システムデータからのタイムスタンプを使用する。V2ファイルは先頭から52秒までが再生される。
【0050】
なお、再生画像出力端子312と再生音声出力端子313時点で総合再生時間のタイミング調整のため、ビデオデコーダ305とオーディオデコーダ306内のバッファメモリを使用する。また、切り替え器307は位置3Aに接続されており、音声入力端子314の入力は無効になっている。
【0051】
次に、レンダリングクリップに音声ストリームが存在しない場合は、V1ファイルの先頭から5秒後のストリームをCPU230に読み込んで、ストリームを端子310に入力し、ストリーム分離器デマックス1(301)でシステムデータ、画像データ、音声データに分離する。切り替え器303は位置1V、切り替え器304は位置1Aに接続される。画像データを、切り替え器303を経由してビデオデコーダ305で復号し、出力端子312に出力する。音声データを、切り替え器304を経由してオーディオデコーダ306で復号し、出力端子313に出力する。ビデオ、オーディオの同期制御は、前記システムデータからのタイムスタンプを使用する。V1ファイルは先頭から21秒後までが再生される。
【0052】
前記V1ファイルの再生終了前に、前記先読みしたRCファイルを端子311に入力し、ストリーム分離器デマックス2(302)でシステムデータ、画像データに分離する。また、再生画像出力端子312時点で総合再生時間が19秒になるタイミングで、切り替え器303の位置2Vへの切り替えを行う。画像データを、切り替え器303を経由してビデオデコーダ305で復号し、出力端子312に出力する。この場合、レンダリングクリップに音声データが存在しないので、切り替え器304は位置1Aのまま切り替えを行わない。音声データを、ストリーム分離器デマックス301の出力より、切り替え器304を経由してオーディオデコーダ306で復号し、出力端子313に出力する。ビデオ、オーディオの同期制御は、前記双方のシステムデータからのタイムスタンプを使用する。この場合、ビデオ、オーディオは別ストリームのため、実時間のタイムスタンプに相違があるので、ビデオのタイムスタンプを基準にオーディオのタイムスタンプは相対的に同期をとるように制御する。RCファイルは2秒再生される。
【0053】
さらに、前記RCファイルの再生終了前に、V2ファイルの先頭5秒から2秒後の7秒から読み込んで、ストリームデータを端子310に入力し、ストリーム分離器デマックス1(301)でシステムデータ、画像データ、音声データに分離する。また、再生画像出力端子312時点で総合再生時間が21秒になるタイミングで、切り替え器303の位置1Vへの切り替えを行う。画像データを、切り替え器303を経由してビデオデコーダ305で復し、出力端子312に出力する。音声データを、切り替え器304を経由してオーディオデコーダ306で復号し、出力端子313に出力する。ビデオ、オーディオの同期制御は、前記システムデータからのタイムスタンプを使用する。V2ファイルは先頭から52秒までが再生される。
【0054】
なお、再生画像出力端子312と再生音声出力端子313時点で総合再生時間のタイミング調整のため、ビデオデコーダ305とオーディオデコーダ306内のバッファメモリを使用する。また、切り替え器307は3Aに接続されており、音声入力端子314の入力は無効になっている。
【0055】
図5は、図6のプレイリストを再生した場合の切り替え器の動作を説明するものであり、V1ファイル、V2ファイル、レンダリングクリップRCのファイル(クリップ)再生順序を示している。(1)、(2)、(3)、(4)は図4における切り替え器303、304、307の切り替え動作を説明したもので、(1)、(4)はレンダリングクリップの音声データの存在有無にかかわらない切り替え器303と307の動作、(2)はレンダリングクリップに音声データが存在する場合の切り替え器304の動作、(3)はレンダリングクリップに音声データが存在しない場合の切り替え器304の動作である。レンダリングクリップ再生期間T3で、音声が存在する場合、切り替え器304は位置2Aに接続され、存在しない場合は、切り替え器304は位置1Aに接続するように動作する。
【0056】
次に、レンダリングクリップに音声ストリームが存在しない場合に、前ストリームの音声を継続することとは別の手法について説明する。図8は、図6のプレイリストを再生した場合の切り替え器の動作を説明するものであり、V1ファイル、V2ファイル、レンダリングクリップRCのファイル(クリップ)再生順序を示している。(1)、(2)、(3)は、図4における切り替え器303、304と307の切り替え動作を説明したもので、(1)、(3)はレンダリングクリップの音声データの存在有無にかかわらない切り替え器303と304の動作、(2)はレンダリングクリップに音声データが存在しない場合の切り替え器307の動作である。図6のプレイリストの再生時、レンダリングクリップに音声データが存在する場合は前述と同様に動作し、音声データが存在しない場合は、代替音声となる音声信号を端子314に入力して、切り替え器307を位置3Aから位置4Aに切り替える。つまり、代替音声を使用する。代替音声は、特殊効果毎に機器内にデフォルトで備え持った音声ファイル、前もって用意した音声ファイルを操作者が予め設定したもの、機器が特殊効果に合わせて記録媒体或いは外部から取得した音声ファイル等を使用する。 音声ファイルが符号化されている場合は、復号化してから端子314に入力する。
【0057】
前記代替ファイルは音声ファイルであるが、代替ファイルとして、テキストファイル、画像ファイル等を使用して、テキストファイルの場合は、テキストをフォントデータとして、画像ファイルは画像表示に可能な形式に処理して、画像出力端子312にミキシングして表示することも可能である。さらに、音声ストリームがない場合、前ストリームの音声を継続することに加え、パラメータエレメントで記載された、遷移効果種類、手法、期間等が存在していた場合、それに対応した処理をできる限り行うことも可能である。例えばフェードアウト等の処理が記載されていれば、継続音声ストリームをフェードアウト動作させる。
【0058】
図10は、本実施形態を適応した場合の表示例であり、214は図1中の表示器である。この表示例は、前述したレンダリングクリップを含むプレイリストの再生時、使用するレンダリングクリップに音声ストリームが存在しない場合の表示例である。表示501中、”レンダリングクリップ.RC 再生中”という表示は、レンダリングクリップを再生していることを示している。”***代表音声フェード.mp3”という表示は、代替音声としてフェード.mp3というストリームファイルを使用していることを示している。
【0059】
この表示は、現在どのファイルストリームが再生されているか告知する。特にレンダリングクリップの音声ストリームが存在しない場合、操作者に告知し注意を促す。その場合、装置が自動選択したファイルストリームを報告することに有意義な情報となる。また、この表示期間中、操作者が自動選択をキャンセルし再生停止させるための情報としても効果がある。
【0060】
図7は、本実施形態でのプレイリスト再生を説明するフローチャート図である。ステップS401でプレイリストの動画再生開始指示が発生した場合、ステップS402でSMIL等で記載されたプレイリストを解析し、コンテンツ内容、再生手順等をスケジューリングする。また、ステップS403で再生(デコード)のための各回路(或いはファームウエア)の初期化を行う。ステップS404ではプレイリストでレンダリングクリップが使用されているか判定する。
【0061】
レンダリングクリップが使用されない場合、ステップS411に移行する。使用する場合、ステップS405に移行して前記レンダリングクリップをプリロードする。そして、ステップS406で読み込んだレンダリングクリップのストリーム解析を行い、音声データが存在するかの否かの解析を行う(もし、レンダリングクリップの音声情報の有無が前記コンテンツ情報ファイルに記載されていれば、その情報を判定することにより、ステップS404とステップS405の処理を代行してもよい)。音声データが存在する場合(ステップS407)、ステップS410でFlagに“1”をセットし、存在しない場合(ステップS407)、ステップS409でFlagに“0”をセットする。
【0062】
ステップS411で再生(デコート)を開始する。ステップS412でデコードされる再生ストリームがレンダリングクリップか否かを判定する。レンダリングクリップでなければ、ステップS413に移行し、通常再生(デコード処理)を行いステップS414に移行する。レンダリングクリップであれば、ステップS420に移行し、前記Flagを判定する。
【0063】
Flagが“0”の場合、ステップS421に移行し、レンダリングクリップに音声データが存在していない情報、また、その代替処理を実行していることを表示器に表示する。そして、ステップS423で処理0を実行して、その後ステップS414に移行する。処理0は前述説明したレンダリングクリップに音声が存在しない場合の処理である。
【0064】
Flagが“1”の場合、ステップS421に移行し、処理1を実行して、その後ステップS414に移行する。処理1は前述説明したレンダリングクリップに音声が存在している場合の処理である。
【0065】
ステップS414では再生終了でなければステップS412に移行し、再生終了であればステップS450に移行して終了する。
【0066】
前記処理0の再生使用ファイルと、再生動作履歴をスクリプト言語(プレイリストとして)と、記録媒体等に自動登録することもできる。前記履歴登録されたプレイリストは、他装置で再生互換が補償されるプレイリストとなるため有効な機能となる。
【0067】
また、本実施形態では、レンダリングクリップにおける不足情報が音声データである場合を説明したが、不足データが画像データ、管理データ、付加情報データの場合においても、レンダリングクリップ前のデータもしくはファイルを継続再生、または、代替データもしくはファイルの置き換えをすることは可能である。前記の場合の継続再生または代替データもしくはファイルとしては、不足データが画像データの場合は、レンダリングクリップ前の画像ファイル。不足データがファイル日時等の管理データや付加情報データの場合は、レンダリングクリップ前の管理データや付加情報データを使用する。
【0068】
以上の動作を行うことによって、本実施形態では、民生用ビデオカメラ等の撮像装置において、レンダリングクリップを用いるプレイリスト再生を実行した場合、音声ストリームが存在していないレンダリングクリップの場合、無音期間となってしまうことを防止することができる。
【0069】
(その他の実施の形態)
なお、本発明の目的は、前記実施の形態のいずれかの装置又はシステムの機能を実現するソフトウェアのプログラムコードを記憶した記憶媒体を、装置又はシステムに供給し、その装置又はシステムのコンピュータ(CPU又はMPU等)が記憶媒体に格納されたプログラムコードを読み出して実行することによっても、達成されることは言うまでもない。
【0070】
この場合、記憶媒体から読み出されたプログラムコード自体が前記実施の形態で説明した機能を実現することとなり、そのプログラムコードを記憶した記憶媒体及び当該プログラムコードは本発明を構成することとなる。
【0071】
プログラムコードを供給するための記憶媒体としては、ROM、フロッピー(R)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード等を用いることができる。
【0072】
また、コンピュータが読み出したプログラムコードを実行することにより、前記実施の形態で説明した機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS等を利用して実際の処理の一部又は全部が行われ、その処理によって前記実施の形態で説明した機能が実現される場合も本発明の実施の態様に含まれることは言うまでもない。
【0073】
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部又は全部を行い、その処理によって前記実施の形態で説明した機能が実現される場合も本発明の実施の態様に含まれることは言うまでもない。
【0074】
なお、前記実施の形態において示した各部の形状及び構造は、何れも本発明を実施するにあたっての具体化のほんの一例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその精神、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
【0075】
【発明の効果】
以上述べたように本発明によれば、加工データの再生期間に、その加工データに情報不足があった場合でも、情報が途絶えるのを防ぐことができる。
【0076】
特に、情報データが画像データ及び音声データを含む鑑賞用画像音声データである場合には、快適な画像音声鑑賞を妨げないようにすることができる。
【0077】
また、情報不足の場合に、そのことを表示するようにすれば、操作者は容易に再生状態を把握することができる。
【図面の簡単な説明】
【図1】撮像装置200の構成を示す図である。
【図2】ディレクトリ例を示す図である。
【図3】プレイリストの記述例を示す図である。
【図4】デコーダブロック250の詳細な構成を示す図である。
【図5】図6のプレイリストを再生した場合の切り替え器の動作を説明するための図である。
【図6】レンダリングクリップを使用したプレイリストの例を示す図である。
【図7】プレイリスト再生を説明するフローチャートである。
【図8】図6のプレイリストを再生した場合の切り替え器の動作を説明するための図である。
【図9】レンダリングクリップの作成方法の一例を説明するための図である。
【図10】表示器214での表示例を示す図である。
【図11】従来のデータ処理を説明するための図である。
【図12】ノンリニア編集の一例を説明するための図である。
【符号の説明】
200 撮像装置
201 レンズ
202 固体センサ
203 A/Dコンバータ
204 モータ
205 アイリス
209 マイク
210 マイクアンプ
211 A/Dコンバータ
212 操作キー
213 表示ドライバ
214 表示器
215 スピーカドライバ
216 スピーカ
217 外部入出力端子
221 電源
223 ソケット
230 CPU
301 ストリーム分離機デマックス
302 ストリーム分離機デマックス
303 ビデオストリーム切り替え器
304 オーディオストリーム切り替え器
305 ビデオデコーダ
306 オーディオデコーダ
307 切り替え器
310〜314 端子
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a data reproducing apparatus, a method, a computer program, and a computer-readable storage medium suitable for reproducing image data and audio data according to reproduction description data.
[0002]
[Prior art]
In recent years, devices handling digital image data such as digital VTRs and DVD players have become widespread, and moving images have been edited not only in studios but also at home due to advances in AV devices and computers.
[0003]
For example, in a video editing system called non-linear editing, moving image data of a moving image A (1301) and a moving image B (1302) as materials shown in FIG. 12 are edited to generate a moving image C (1303). In this way, in conventional nonlinear editing, moving image data as a material is cut out, cut out in the time direction by cutout, rearranged, and rendered with an effect such as a wipe effect between cuts, and rendered. A system for generating new moving image data is generally used.
[0004]
Also, moving image data generally has a large amount of information, and thus is often compression-encoded. If the material data is compression-encoded in this way, it is necessary to decode the data once and then edit it. And then encode again.
[0005]
However, in the above-described nonlinear editing system, processing of an additional effect such as wipe or dissolve is directly performed on image data, so that only the additional effect can be deleted later or replaced with another effect. In addition, it is not possible to distinguish between the portion that has become the material and the portion that has been subjected to the additional effect processing.
[0006]
In recent years, a description language for controlling reproduction processing of moving image data, audio data, and the like has been proposed. For example, SMIL (Synchronized Multimedia Integration Language) is one example. In SMIL, synchronous reproduction, sequential reproduction of image data such as moving images and still images, or reproduction processing of other media data such as text and audio can be instructed. In addition, it is possible to specify a special effect or the like to be applied when the display of the image data is switched. Furthermore, it is possible to add a video effect by using a reproduction description language, and the contents of the effect can be replaced by rewriting the reproduction description language.
[0007]
However, even if a free reproduction procedure and a special effect can be described using a reproduction description language such as SMIL, the reproduction as instructed may not be possible depending on the reproduction environment in which the reproduction processing is actually performed. is there. For example, the special effect described cannot be executed in real time depending on the reproduction environment, and the description about the special effect may be ignored. Therefore, it is impossible to describe a sophisticated and complicated video effect as a description method specification.
[0008]
As a solution to the above problem, for example, Patent Literature 1 discloses an information processing apparatus that processes information data and reproduction description data indicating a reproduction procedure of the information data, and newly uses a part of the information data. And a description data processing means for changing the reproduction description data so as to reproduce the processing data in place of the partial data in the information data. Has been made.
[0009]
With reference to FIG. 11, the data processing proposed in Patent Document 1 will be described. The playback procedure for realizing the effect AB (403) (for example, wipe) at the connection point between the moving image A (401) and the moving image B (402) shown in FIG. The reproduction end point of the moving image A and the reproduction start point of the moving image B are moved to predetermined positions, and a reproduction description in which the effect AB (403) (processed data) is inserted therebetween is described.
[0010]
[Patent Document 1]
JP-A-2003-218385
[0011]
[Problems to be solved by the invention]
However, the proposal in Patent Literature 1 mainly deals with processing of moving image data when generating new processing data using a part of information data. Not. Generally, moving image editing performs data editing and data processing mainly on moving images. In such a case, there is little compensation for reliably processing the audio data except when the audio data is edited and added by post-recording. In particular, very few simple video editing software supports editing and processing of audio data (audio stream). However, when a scene in which a plurality of clips of a moving image are connected is played back and viewed, if a part of the audio stream is missing, there is a possibility that the content may cause anxiety and discomfort to the viewer.
[0012]
The present invention has been made to solve the above-mentioned problems, and an object of the present invention is to prevent information from being interrupted during a reproduction period of processed data. Another object of the present invention is to propose to appropriately perform a control operation in an editing and reproducing process when a means for easily changing a reproducing procedure of information data as a material is applied.
[0013]
[Means for Solving the Problems]
A data reproducing apparatus according to the present invention is a data reproducing apparatus that reproduces a first data string including a plurality of types of data and a second data string generated using the first data string according to reproduction description data. When the second data string does not include a predetermined type of data among the plurality of types, data is reproduced according to the predetermined type of data during a reproduction period of the second data. .
[0014]
Another data reproducing apparatus of the present invention reproduces information data and processed data generated by using a part of the information data, instead of the part of the information data. A reproducing unit that reproduces from the recording medium according to reproduction description data that specifies a reproduction procedure of the information data and the processed data; a determining unit that determines that the information of the processed data is insufficient; and that the determining unit determines that the information is insufficient. In this case, the method is characterized in that the processing data is reproduced during the reproduction period of the processed data, and the control means controls the reproducing means so as to continuously reproduce the information data immediately before the reproduction of the processed data.
[0015]
Another data reproducing apparatus of the present invention reproduces the processed data from the information data and the processed data generated by using a part of the information data instead of the part of the information data. A reproducing means for reproducing from the recording medium in accordance with reproduction description data for specifying a reproduction procedure of the information data and the processed data; a judging means for judging information shortage of the processed data; and judging that the information is insufficient in the judging means. In this case, a control means is provided to reproduce the alternative information data together with the processed data during the reproduction period of the processed data.
[0016]
In the data reproducing method of the present invention, the reproducing means reproduces the processed data generated by using the information data and the partial data of the information data, instead of the partial data of the information data. A procedure for reproducing from the recording medium in accordance with reproduction description data for specifying a reproduction procedure of the information data and the processed data, a procedure for determining information shortage of the processed data by a determining unit, Controlling the reproducing means to reproduce the processed data during the reproduction period of the processed data and to continuously reproduce the information data immediately before the reproduction of the processed data when it is determined that the information is insufficient. It is characterized by points.
[0017]
In another data reproducing method of the present invention, the reproducing means converts the information data and the processed data generated by using a part of the information data into the processed data instead of a part of the information data. A step of reproducing from the recording medium according to the reproduction description data specifying the reproduction procedure of the information data and the processed data so as to reproduce data, a step of determining information shortage of the processed data by a determination unit, and a control unit A step of reproducing alternative information data together with the processed data during a reproduction period of the processed data when the determining means determines that the information is insufficient.
[0018]
The computer program according to the present invention, the information data and processed data generated using a part of the information data, the information data so as to reproduce the processed data instead of a part of the information data A process of reproducing from the recording medium in accordance with reproduction description data specifying a reproduction procedure of the processed data, a process of determining information shortage of the processed data, and a process of determining that the information is insufficient in the determination process. And reproducing the processed data during the reproduction period, and controlling the reproducing means to continuously reproduce the information data immediately before the reproduction of the processed data.
[0019]
Another computer program of the present invention reproduces information data and processed data generated by using a part of the information data, instead of the part of the information data. A process of reproducing from the recording medium in accordance with the reproduction description data specifying the reproduction procedure of the information data and the processed data, a process of determining information shortage of the processed data, and when it is determined that the information is insufficient in the determination process, A feature is that a process is executed by a computer to reproduce the alternative information data together with the processed data during the reproduction period of the processed data.
[0020]
The computer-readable storage medium of the present invention is characterized in that the computer program of the present invention is stored.
[0021]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a diagram showing a configuration of an imaging apparatus 200 according to an embodiment to which the present invention is applied. In FIG. 1, reference numeral 201 denotes a lens for capturing an image, 202 denotes a solid-state sensor that converts an image into an electric signal, and 203 denotes a solid-state sensor. An A / D converter for converting an electric signal output from the digital camera 202 into digital data, an iris 205, and a motor 204 for driving the lens 201 and the iris 205.
[0022]
Reference numeral 209 denotes a microphone that captures audio, 210 denotes a microphone amplifier that amplifies audio, and 211 denotes an A / D converter that converts audio into digital data.
[0023]
Reference numeral 212 denotes an operation key for operating the imaging device 200. Reference numeral 213 denotes a display driver for converting an image into a display format, and 214 denotes a display such as an LCD or EVF for displaying an image. Reference numeral 215 denotes a speaker driver for outputting sound, and 216 denotes a speaker.
[0024]
An input / output terminal 217 inputs / outputs various information. Reference numeral 224 denotes various sensors. Reference numeral 101 denotes a storage medium, and 223, a socket for storing the recording medium 101. The recording medium 101 is detachable from the socket 223. As the recording medium 101, a memory card such as an MMC, an SSFDC, a compact flash (R), an SD, a PC card, or a hard disk is used. Alternatively, a magnetic (or magneto-optical) recording medium such as a CD-RW, FD, MD, or DVD-RAM is used. By making the shape of the socket 223 compatible with a plurality of types of recording media, a plurality of types of recording media can be used.
[0025]
230 is a CPU for controlling the system, 250 is a decoder block configured in the CPU 230, and 222 is a memory for the CPU 230 and the system. The decoder block 250 can be constituted by either firmware of the CPU 230 or hardware in the CPU 230, or both.
[0026]
Reference numeral 221 denotes a power supply for the imaging device 200, and power is supplied to each circuit block.
[0027]
225 is a recording / reproduction control circuit.
[0028]
Next, a recording operation in the imaging device 200 shown in FIG. 1 will be described. In the image recording operation, light from a subject incident through the lens 201 is converted into an electric signal by the solid-state sensor 202, sampled by the A / D converter 203, and converted into digital data. The digital data is input to the CPU 230 as a digital video signal such as luminance Y, color difference Cr, Cb, or RGB. The lens 201 can be moved by driving the motor 204 according to a control command of the CPU 230 by the autofocus function and the zoom function. A timing signal for extracting data from the solid-state sensor 202 is generated by the CPU 230. The iris 205 is controlled by driving the motor 204 from the CPU 230. When the lens 201 has an anti-vibration function (acceleration sensor, anti-vibration actuator, etc.), signals from the acceleration sensor and the position sensor of the anti-vibration actuator are input to the CPU 230, and the anti-vibration actuator is used as an anti-vibration control output signal. Drive control is performed by the motor 204.
[0029]
Further, the sound taken in from the microphone 209 is amplified by the microphone amplifier 210, sampled by the A / D converter 211, converted into digital data, and input to the CPU 230 as a digital sound signal.
[0030]
For the digital video signal, the CPU 230 performs basic processing such as color separation, white balance, gamma correction, and aperture correction, and additional processing such as image size, image quality adjustment, and position adjustment set by the operation keys 212. Then, the processed signal is compression-coded according to the set compression method and compression parameters.
[0031]
Further, the digital audio signal is subjected to additional processing such as sound quality adjustment set by the operation keys 212. Then, the processed signal is compressed according to the set compression method and compression parameter.
[0032]
The compressed video data and compressed audio data are formed as stream data together with the control data. The stream data format generates a program stream or a transport stream specified by ISO / IEC13818-1. The stream data is sent to the recording / reproduction control circuit 225 as recording data. The control data includes a header for forming stream data, management data, information on the image pickup apparatus itself, recording setting information such as images and sounds, additional photographing information such as photographing history and photographing environment information, a recording medium used, and the like. Media information, and time information such as recording time, code time, reproduction decoding time, reproduction display time, and the like.
[0033]
Further, the files are stored in a file system management system such as UDF (universal disk format), FAT (file allocation table), EXT (environmental audio extension) 2, and the like. Writing is performed on the recording medium 101 as a file with a file name of mpg. The file system means a structure system including management information for managing a file and file data. By sharing this file system, data can be recognized and recorded / reproduced by different recording media or recording / reproducing devices.
[0034]
FIG. 2 shows an example of a directory to be recorded. Below the root directory (Root), a file (media.txt) describing information of the recording medium and the like, a playlist file (playlist.sml) described later, and a content directory (content) for storing a group of recorded contents are stored. Below the content directory, information files (content.info) describing content information and the like, moving image contents (mov1.mpg, mov2.mpg), audio contents (aud1.mpg), still image contents (img.jpg), text contents ( text.txt) and so on.
[0035]
The recorded file mov3. mpg is registered in the content information file (content.info). Items to be registered include a file name, a file attribute, recording setting information, shooting additional information, recording time, reproduction decoding time, reproduction display time, copyright information, and the like.
[0036]
It is also registered in a playlist file (playlist.sml). The playlist is a script for reproducing the content, and describes a reproduction order, a reproduction procedure, a reproduction effect, and the like. In the present embodiment, the reproduction description language is described in SMIL. FIG. 3 is a description example of a playlist, and here, mov1. mpg, mov2. mpg, mov3. An example in which each moving image file of mpg is sequentially reproduced is shown.
[0037]
The data recorded as described above is sent to the external input / output terminal 217 as needed. Further, the image data before encoding is displayed on the display 214 through the display driver 213 for checking the recorded image.
[0038]
Here, the rendering clip is a clip created by rendering a video effect. As described in the conventional example, even if a free reproduction procedure and a special effect can be described using a reproduction description language such as SMIL, in a reproduction environment for actually performing reproduction processing, particularly in an embedded device such as a video camera. Aside from the fade effect and the resolve effect, special effects that require complicated processing such as a wipe effect and a mix effect may not be able to be processed in real time as instructed in real time. Therefore, by preparing the special effect as a clip in advance and playing it back normally, the processing load on the device can be reduced.
[0039]
The rendering clip is created by an external device such as a PC, or is created by an operator using the imaging apparatus 200 of the present embodiment. An example of a method for creating a rendering clip will be described with reference to FIG. When a rendering clip of the wipe (crossfade) effect of the period T3 is created between the time T1 of the clip 1 (stream 1) and the time T2 of the stream 2 (clip 2), from the time T1 of the clip 1 to the time T2 And the data of the clip 2 during the period from time T1 to time T2 are respectively decoded to extract the image signal and the audio signal. Then, the clip 1 signal is mixed to 100%, the clip 2 signal is set to 0%, the clip 1 signal is sequentially mixed to 0%, and the clip 2 signal is mixed to 100%. The mixed signal is encoded and rendered and clipped. This operation can be processed by a dedicated circuit or by software.
[0040]
FIG. 6 shows an example of a playlist using a rendering clip. The first line specifies reproduction of a clip of 5 to 21 seconds from the beginning of the V1 stream file. TailShift = "2s" means that the rendering clip insertion period is shifted forward by 2 seconds.
[0041]
The second line specifies that the RC rendering clip is to be inserted for 2 seconds, and systemInsert = “true” means that this clip is a rendering clip. The efxType element in the third line holds the type of the rendered video effect and the applicable range of the video effect, and indicates that the transition effect is rendered by setting transitionFilter = “true”.
[0042]
The fourth line specifies reproduction of a clip of 5 to 52 seconds from the beginning of the V2 stream file. headShift = “2s” means that the rendering clip insertion period is shifted backward by 2 seconds.
[0043]
With such a script, it is possible to specify that each clip of VI, RC, and V2 is sequentially reproduced for a predetermined period. In FIG. 6, the detailed transition effect is not described, but it is also possible to describe the transition effect type, the method, the period, and the like using the parameter element.
[0044]
Next, a reproduction operation in the imaging device 200 will be described. FIG. 4 is a diagram showing a detailed configuration of the decoder block 250 in the block diagram of FIG. 1, where 301 is a stream separator demux 1, 302 is a stream separator demux 2, 303 is a video stream switcher, and 304 is an audio stream. A switch 305 is a video decoder, 306 is an audio decoder, 307 is a switch, 310 is an input terminal of an encoded stream, 311 is an input terminal of a rendering clip stream described later, 312 is an output terminal of a video decoded signal, and 313 is an audio terminal. An output terminal 314 of the decoded signal is an input terminal of the audio signal.
[0045]
1 and 4, when the imaging apparatus 200 is in the reproduction mode, the content information and the playlist recorded on the recording medium 101 are read, and a list of the content recorded on the recording medium 101 and the playlist are obtained. Then, a consistency check of the content list, the playlist, and each content is performed. When a file operation (deletion, editing, or the like) is directly performed on the recording medium 101 by an external device, the content file registered in the content list or the play list is lost, or the content file is edited. When a playback operation is performed based on a content list or a playlist, there is no playback file or inconsistency in the playback time, which prevents smooth playback operation. Perform sex check. As an example of the consistency check, it is compared whether or not the content file and the information of the content file described in the playlist differ from the substance of each content file. The comparison items include the file entity, file attributes such as file size, update date and time, and type, and file playback time. It is also conceivable to provide means for arbitrarily setting comparison items. If an error occurs during the consistency check, modify the content list and playlist as much as possible.
[0046]
Then, the content list or the playlist is displayed on the display 214, and the operator selects a desired content or playlist. For example, when the play list shown in FIG. 6 is selected and playback is performed, the play list is read and the contents are analyzed. This play list includes a rendering clip according to the description of the transition filter = "true". In this case, first, the file RC is pre-read. Then, it is checked whether an audio stream exists in the RC file. If the RC file is a program stream, the presence / absence check of the audio stream is determined by checking the stream type (MPEG video, MPEG audio, etc.) described in the system header recorded at the head of the program stream. Can be.
[0047]
First, when an audio stream is present in the rendering clip, a stream 5 seconds after the beginning of the V1 file is read into the CPU 230, the stream is input to the terminal 310, and the system data and image data are input by the stream separator Demax 1 (301). , And separate into audio data. The switch 303 is connected to the position 1V, and the switch 304 is connected to the position 1A. The video data is decoded by the video decoder 305 via the switch 303 and output to the output terminal 312. The audio data is decoded by the audio decoder 306 via the switch 304 and output to the output terminal 313. Video and audio synchronization control uses a time stamp from the system data. The V1 file is reproduced up to 19 seconds, 2 seconds before, 21 seconds after the beginning.
[0048]
Before the reproduction of the V1 file is completed, the pre-read RC file is input to a terminal 311 and separated into system data, image data, and audio data by a stream separator Demax 2 (302). Further, at the timing when the total playback time becomes 19 seconds at the playback image output terminal 312 and the playback audio output terminal 313, switching of the switch 303 to the position 2V and switching of the switch 304 to the position 2A are performed. The video data is decoded by the video decoder 305 via the switch 303 and output to the output terminal 312. The audio data is decoded by the audio decoder 306 via the switch 304 and output to the output terminal 313. Video and audio synchronization control uses a time stamp from the system data. The RC file is played for 2 seconds.
[0049]
Further, before the end of the reproduction of the RC file, the V2 file is read from the beginning 5 seconds to 7 seconds after 2 seconds, the stream data is input to the terminal 310, and the system data and image data are input to the stream separator Demax 1 (301). Separate into data and audio data. Further, at the timing when the total playback time becomes 21 seconds at the playback image output terminal 312 and the playback audio output terminal 313, switching of the switch 303 to the position 1V and switching of the switch 304 to the position 1A are performed. The video data is decoded by the video decoder 305 via the switch 303 and output to the output terminal 312. The audio data is decoded by the audio decoder 306 via the switch 304 and output to the output terminal 313. Video and audio synchronization control uses a time stamp from the system data. The V2 file is reproduced up to 52 seconds from the beginning.
[0050]
The buffer memories in the video decoder 305 and the audio decoder 306 are used for adjusting the timing of the total playback time at the playback image output terminal 312 and the playback audio output terminal 313. Further, the switch 307 is connected to the position 3A, and the input of the audio input terminal 314 is invalid.
[0051]
Next, when there is no audio stream in the rendering clip, the stream 5 seconds after the beginning of the V1 file is read into the CPU 230, the stream is input to the terminal 310, and the stream separator Demax 1 (301) outputs system data, Separate into image data and audio data. The switch 303 is connected to the position 1V, and the switch 304 is connected to the position 1A. The video data is decoded by the video decoder 305 via the switch 303 and output to the output terminal 312. The audio data is decoded by the audio decoder 306 via the switch 304 and output to the output terminal 313. Video and audio synchronization control uses a time stamp from the system data. The V1 file is reproduced up to 21 seconds after the beginning.
[0052]
Before the reproduction of the V1 file is completed, the pre-read RC file is input to a terminal 311 and separated into system data and image data by a stream separator Demax 2 (302). Further, at the timing of the playback image output terminal 312, at the timing when the total playback time becomes 19 seconds, the switch 303 is switched to the position 2V. The video data is decoded by the video decoder 305 via the switch 303 and output to the output terminal 312. In this case, since there is no audio data in the rendering clip, the switch 304 does not perform switching at the position 1A. The audio data is decoded by the audio decoder 306 via the switch 304 from the output of the stream separator Demax 301, and output to the output terminal 313. Video and audio synchronization control uses time stamps from both system data. In this case, since the video and the audio are different streams, there is a difference in the real-time time stamp. Therefore, the audio time stamp is controlled to be relatively synchronized with the video time stamp. The RC file is played for 2 seconds.
[0053]
Further, before the end of the reproduction of the RC file, the V2 file is read from the beginning 5 seconds to 7 seconds after 2 seconds, the stream data is input to the terminal 310, and the system data and image data are input to the stream separator Demax 1 (301). Separate into data and audio data. Further, at the timing of the reproduction image output terminal 312, at the timing when the total reproduction time becomes 21 seconds, the switch 303 is switched to the position 1V. The video data is restored by the video decoder 305 via the switch 303 and output to the output terminal 312. The audio data is decoded by the audio decoder 306 via the switch 304 and output to the output terminal 313. Video and audio synchronization control uses a time stamp from the system data. The V2 file is reproduced up to 52 seconds from the beginning.
[0054]
The buffer memories in the video decoder 305 and the audio decoder 306 are used for adjusting the timing of the total playback time at the playback image output terminal 312 and the playback audio output terminal 313. The switch 307 is connected to 3A, and the input of the audio input terminal 314 is invalid.
[0055]
FIG. 5 illustrates the operation of the switch when the playlist of FIG. 6 is reproduced, and shows the file (clip) reproduction order of the V1 file, the V2 file, and the rendering clip RC. (1), (2), (3), and (4) explain the switching operation of the switches 303, 304, and 307 in FIG. 4, and (1) and (4) show the presence of audio data of a rendering clip. The operation of the switches 303 and 307 regardless of the presence or absence, (2) the operation of the switch 304 when audio data exists in the rendering clip, and (3) the operation of the switch 304 when audio data does not exist in the rendering clip. Action. In the rendering clip reproduction period T3, when sound is present, the switch 304 is connected to the position 2A, and when no sound is present, the switch 304 operates to connect to the position 1A.
[0056]
Next, a method different from continuing the audio of the previous stream when the audio stream does not exist in the rendering clip will be described. FIG. 8 illustrates the operation of the switch when the playlist in FIG. 6 is reproduced, and shows the file (clip) reproduction order of the V1 file, the V2 file, and the rendering clip RC. (1), (2) and (3) explain the switching operation of the switches 303, 304 and 307 in FIG. 4, and (1) and (3) show whether or not the audio data of the rendering clip exists. (2) is the operation of the switch 307 when there is no audio data in the rendering clip. When the playlist shown in FIG. 6 is reproduced, if audio data is present in the rendering clip, the operation is the same as described above. If there is no audio data, an audio signal serving as an alternative audio is input to the terminal 314, and a switch is performed. Switch 307 from position 3A to position 4A. That is, an alternative voice is used. The alternative sound is a sound file provided in the device by default for each special effect, a sound file prepared in advance by an operator, a sound file obtained from a recording medium or an external device by the device according to the special effect, etc. Use If the audio file has been encoded, it is decoded and then input to the terminal 314.
[0057]
The substitute file is an audio file, but as a substitute file, a text file, an image file, or the like is used.In the case of a text file, the text is processed as font data, and the image file is processed into a format that can be displayed in an image. , Can be mixed with the image output terminal 312 for display. Furthermore, if there is no audio stream, in addition to continuing the audio of the previous stream, if there is a transition effect type, method, period, etc. described in the parameter element, perform the corresponding processing as much as possible Is also possible. For example, if a process such as fade-out is described, the continuous audio stream is faded out.
[0058]
FIG. 10 is a display example when the present embodiment is applied, and 214 is a display in FIG. This display example is a display example in a case where an audio stream does not exist in a rendering clip to be used when a playlist including the above-described rendering clip is reproduced. In the display 501, the display of "rendering clip. RC is being reproduced" indicates that the rendering clip is being reproduced. The display "*** representative voice fade.mp3" indicates that the fade-in voice is replaced as a substitute voice. This indicates that the stream file mp3 is used.
[0059]
This indication tells which file stream is currently being played. In particular, when the audio stream of the rendering clip does not exist, the operator is notified and alerted. In this case, the information is meaningful for reporting the file stream automatically selected by the device. Further, during this display period, the information is effective as information for the operator to cancel the automatic selection and stop the reproduction.
[0060]
FIG. 7 is a flowchart illustrating play list reproduction in the present embodiment. If an instruction to start reproducing a moving image of a playlist is issued in step S401, the playlist described in SMIL or the like is analyzed in step S402, and the contents, the playback procedure, and the like are scheduled. In step S403, each circuit (or firmware) for reproduction (decoding) is initialized. In step S404, it is determined whether a rendering clip is used in the playlist.
[0061]
If the rendering clip is not used, the process moves to step S411. If so, the process moves to step S405 to preload the rendering clip. Then, a stream analysis of the rendering clip read in step S406 is performed to determine whether or not audio data exists (if the presence or absence of the audio information of the rendering clip is described in the content information file, By determining the information, the processing of step S404 and step S405 may be performed instead.) If audio data exists (step S407), Flag is set to "1" in step S410, and if audio data does not exist (step S407), flag is set to "0" in step S409.
[0062]
In step S411, reproduction (decoding) is started. In step S412, it is determined whether the playback stream to be decoded is a rendering clip. If it is not a rendering clip, the flow shifts to step S413 to perform normal reproduction (decoding process), and shifts to step S414. If it is a rendering clip, the process proceeds to step S420 to determine the flag.
[0063]
If the flag is “0”, the process proceeds to step S421 to display on the display unit information indicating that no audio data is present in the rendering clip and that the alternative processing is being executed. Then, the process 0 is executed in the step S423, and thereafter, the process shifts to the step S414. Process 0 is a process performed when there is no audio in the above-described rendering clip.
[0064]
If the flag is “1”, the flow shifts to step S421 to execute processing 1, and then shifts to step S414. Process 1 is a process in the case where audio is present in the above-described rendering clip.
[0065]
In step S414, if the reproduction is not completed, the process proceeds to step S412, and if the reproduction is completed, the process proceeds to step S450 and ends.
[0066]
The reproduction use file of the process 0 and the reproduction operation history can be automatically registered in a script language (as a playlist), a recording medium, or the like. The playlist registered in the history becomes an effective function because it becomes a playlist whose playback compatibility is compensated by another device.
[0067]
Also, in the present embodiment, the case where the missing information in the rendering clip is audio data has been described. Even when the missing data is image data, management data, and additional information data, the data or file before the rendering clip is continuously reproduced. Alternatively, it is possible to replace alternative data or files. In the above case, as the continuous reproduction or the substitute data or file, if the missing data is image data, the image file before the rendering clip. When the missing data is management data such as file date and time or additional information data, management data or additional information data before the rendering clip is used.
[0068]
By performing the above operation, in the present embodiment, when a playlist playback using a rendering clip is executed in an imaging device such as a consumer video camera, in the case of a rendering clip having no audio stream, Can be prevented.
[0069]
(Other embodiments)
It is to be noted that an object of the present invention is to supply a storage medium storing program codes of software for realizing the functions of any of the devices or systems of the above-described embodiments to the device or system, and to provide a computer (CPU Or, the MPU or the like) can read and execute the program code stored in the storage medium, and needless to say, it can be achieved.
[0070]
In this case, the program code itself read from the storage medium realizes the function described in the above embodiment, and the storage medium storing the program code and the program code constitute the present invention.
[0071]
As a storage medium for supplying the program code, a ROM, a floppy (R) disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, or the like can be used. .
[0072]
When the computer executes the readout program code, not only the functions described in the above-described embodiments are realized, but also an OS or the like running on the computer is used based on the instructions of the program code. It goes without saying that a case where some or all of the actual processing is performed and the functions described in the above embodiments are realized by the processing is also included in the embodiment of the present invention.
[0073]
Further, after the program code read from the storage medium is written into a memory provided on a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. It goes without saying that a case where a CPU or the like provided in a board or a function expansion unit performs part or all of actual processing and the functions described in the above-described embodiments are realized by the processing is also included in the embodiment of the present invention. No.
[0074]
It should be noted that the shapes and structures of the respective parts shown in the above-described embodiments are merely examples of the specific embodiments for carrying out the present invention, and the technical scope of the present invention is limited thereby. It must not be interpreted. That is, the present invention can be embodied in various forms without departing from the spirit or main features thereof.
[0075]
【The invention's effect】
As described above, according to the present invention, it is possible to prevent the information from being interrupted even if the processed data has insufficient information during the reproduction period of the processed data.
[0076]
In particular, in the case where the information data is viewing image and sound data including image data and sound data, comfortable image and sound viewing can be prevented.
[0077]
Further, if information is insufficient, the fact is displayed, so that the operator can easily grasp the reproduction state.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration of an imaging device 200.
FIG. 2 is a diagram illustrating an example of a directory.
FIG. 3 is a diagram illustrating a description example of a playlist.
FIG. 4 is a diagram showing a detailed configuration of a decoder block 250.
FIG. 5 is a diagram for explaining the operation of the switch when the play list in FIG. 6 is reproduced.
FIG. 6 is a diagram illustrating an example of a playlist using a rendering clip.
FIG. 7 is a flowchart illustrating play list reproduction.
FIG. 8 is a diagram for explaining the operation of the switch when the play list in FIG. 6 is reproduced.
FIG. 9 is a diagram for explaining an example of a method of creating a rendering clip.
FIG. 10 is a diagram showing a display example on a display 214.
FIG. 11 is a diagram for explaining conventional data processing.
FIG. 12 is a diagram for describing an example of non-linear editing.
[Explanation of symbols]
200 Imaging device
201 lens
202 Solid-state sensor
203 A / D converter
204 motor
205 Iris
209 microphone
210 microphone amplifier
211 A / D converter
212 operation keys
213 Display Driver
214 display
215 Speaker driver
216 Speaker
217 External input / output terminal
221 power supply
223 socket
230 CPU
301 Stream Separator Demax
302 Stream Separator Demax
303 Video Stream Switcher
304 audio stream switcher
305 video decoder
306 audio decoder
307 switch
310-314 terminal

Claims (13)

複数種のデータからなる第1のデータ列と、前記第1のデータ列を用いて生成された第2のデータ列とを再生記述データに従って再生するデータ再生装置であって、
前記第2のデータ列に前記複数種のうち所定種類のデータが存在しない場合、前記第2のデータの再生期間に前記所定種類のデータに応じたデータを再生することを特徴とするデータ再生装置。
What is claimed is: 1. A data reproducing apparatus for reproducing a first data string composed of a plurality of types of data and a second data string generated using the first data string in accordance with reproduction description data,
A data reproducing device that reproduces data corresponding to the predetermined type of data during a reproduction period of the second data when the second data sequence does not include the predetermined type of data among the plurality of types. .
情報データと前記情報データの一部のデータを用いて生成された加工データとを、前記情報データの一部のデータの代わりに前記加工データを再生するよう前記情報データと前記加工データの再生手順を指定する再生記述データに従い記録媒体から再生する再生手段と、
前記加工データの情報不足を判定する判定手段と、
前記判定手段において情報不足であると判定した場合、前記加工データの再生期間に前記加工データを再生すると共に、前記加工データ再生直前の情報データを継続的に再生するよう前記再生手段を制御する制御手段とを備えたことを特徴とするデータ再生装置。
A reproduction procedure of the information data and the processed data so that the information data and the processed data generated by using a part of the information data are reproduced as the processed data instead of a part of the information data. Playback means for playing back from a recording medium according to playback description data specifying
Determining means for determining the lack of information of the processing data;
When the determination unit determines that the information is insufficient, the control unit controls the reproduction unit to reproduce the processed data during the reproduction period of the processed data and to continuously reproduce the information data immediately before the reproduction of the processed data. And a data reproducing apparatus.
情報データと、前記情報データの一部のデータを用いて生成された加工データとを、前記情報データの一部のデータの代わりに前記加工データを再生するよう前記情報データと前記加工データの再生手順を指定する再生記述データに従い記録媒体から再生する再生手段と、
前記加工データの情報不足を判定する判定手段と、
前記判定手段において情報不足であると判定した場合、前記加工データの再生期間に前記加工データと共に代替情報データを再生するよう制御手段とを備えたことを特徴とするデータ再生装置。
Reproduction of the information data and the processed data so that the processed data generated by using the information data and a part of the information data is reproduced instead of the part of the information data. Reproducing means for reproducing from a recording medium according to reproduction description data specifying a procedure;
Determining means for determining the lack of information of the processing data;
A data reproducing apparatus, comprising: a control unit for reproducing alternative information data together with the processed data during a reproduction period of the processed data when the determining unit determines that the information is insufficient.
前記情報データは少なくとも画像データ及び音声データを含むことを特徴とする請求項2又は3に記載のデータ再生装置。4. The data reproducing apparatus according to claim 2, wherein the information data includes at least image data and audio data. 前記判定手段は、前記加工データに音声データ又は画像データが不足しているか否かを判定することを特徴とする請求項4に記載のデータ再生装置。5. The data reproducing apparatus according to claim 4, wherein the determination unit determines whether audio data or image data is insufficient in the processed data. 前記判定手段において情報不足であると判定した場合、情報不足の表示を行うことを特徴とする請求項2〜5のいずれか1項に記載のデータ再生装置。6. The data reproducing apparatus according to claim 2, wherein when the information is determined to be insufficient, the information shortage is displayed. 前記情報データと、前記加工データと、前記再生記述データとは外部記録媒体に記録されていることを特徴とする請求項2〜6のいずれか1項のデータ再生装置。7. The data reproducing apparatus according to claim 2, wherein the information data, the processed data, and the reproduction description data are recorded on an external recording medium. 音声を入力する手段及び画像を入力する撮像手段を備えた撮像装置に含まれることを特徴とする請求項2〜7のいずれか1項に記載のデータ再生装置。The data reproducing apparatus according to any one of claims 2 to 7, wherein the data reproducing apparatus is included in an image pickup apparatus including a unit for inputting audio and an image pickup unit for inputting an image. 再生手段により、情報データと前記情報データの一部のデータを用いて生成された加工データとを、前記情報データの一部のデータの代わりに前記加工データを再生するよう前記情報データと前記加工データの再生手順を指定する再生記述データに従い記録媒体から再生する手順と、
判定手段により、前記加工データの情報不足を判定する手順と、
制御手段により、前記判定手段において情報不足であると判定した場合、前記加工データの再生期間に前記加工データを再生すると共に、前記加工データ再生直前の情報データを継続的に再生するよう前記再生手段を制御する手順とを有することを特徴とするデータ再生方法。
The information processing unit is configured to reproduce the information data and the processed data generated by using a part of the information data by the reproducing unit so that the processed data is reproduced instead of the part of the information data. A procedure for reproducing from a recording medium according to reproduction description data specifying a data reproduction procedure;
A step of determining information shortage of the processing data by a determining unit;
When the control means determines that the information is insufficient, the reproduction means reproduces the processed data during the reproduction period of the processed data and continuously reproduces the information data immediately before the reproduction of the processed data. And a procedure for controlling the data reproduction.
再生手段により、情報データと、前記情報データの一部のデータを用いて生成された加工データとを、前記情報データの一部のデータの代わりに前記加工データを再生するよう前記情報データと前記加工データの再生手順を指定する再生記述データに従い記録媒体から再生する手順と、
判定手段により、前記加工データの情報不足を判定する手順と、
制御手段により、前記判定手段において情報不足であると判定した場合、前記加工データの再生期間に前記加工データと共に代替情報データを再生するよう手順とを有することを特徴とするデータ再生方法。
By the reproducing means, the information data and the processed data generated by using a part of the information data, the information data and the processed so as to reproduce the processed data instead of a part of the information data A procedure for reproducing from the recording medium according to the reproduction description data specifying the reproduction procedure of the processed data;
A step of determining information shortage of the processing data by a determining unit;
A step of, when the control means determines that the information is insufficient, reproducing the substitute information data together with the processed data during a reproduction period of the processed data.
情報データと前記情報データの一部のデータを用いて生成された加工データとを、前記情報データの一部のデータの代わりに前記加工データを再生するよう前記情報データと前記加工データの再生手順を指定する再生記述データに従い記録媒体から再生する処理と、
前記加工データの情報不足を判定する処理と、
前記判定処理において情報不足であると判定した場合、前記加工データの再生期間に前記加工データを再生すると共に、前記加工データ再生直前の情報データを継続的に再生するよう前記再生手段を制御する処理とをコンピュータに実行させることを特徴とするコンピュータプログラム。
A reproduction procedure of the information data and the processed data so that the information data and the processed data generated by using a part of the information data are reproduced as the processed data instead of a part of the information data. Processing to reproduce from a recording medium according to reproduction description data specifying
Processing for determining the lack of information of the processing data;
When it is determined in the determination process that the information is insufficient, the process of reproducing the processed data during the reproduction period of the processed data and controlling the reproducing unit to continuously reproduce the information data immediately before the reproduction of the processed data. And a computer program for causing a computer to execute the following.
情報データと、前記情報データの一部のデータを用いて生成された加工データとを、前記情報データの一部のデータの代わりに前記加工データを再生するよう前記情報データと前記加工データの再生手順を指定する再生記述データに従い記録媒体から再生する処理と、
前記加工データの情報不足を判定する処理と、
前記判定処理において情報不足であると判定した場合、前記加工データの再生期間に前記加工データと共に代替情報データを再生するよう処理とをコンピュータに実行させることを特徴とするコンピュータプログラム。
Reproduction of the information data and the processed data so that the processed data generated by using the information data and a part of the information data is reproduced instead of the part of the information data. A process of reproducing from a recording medium according to reproduction description data specifying a procedure;
Processing for determining the lack of information of the processing data;
A computer program for causing a computer to execute a process of reproducing alternative information data together with the processed data during a reproduction period of the processed data when it is determined that the information is insufficient in the determination process.
請求項11又は12に記載のコンピュータプログラムを格納したことを特徴とするコンピュータ読み取り可能な記憶媒体。A computer-readable storage medium storing the computer program according to claim 11.
JP2003158528A 2003-06-03 2003-06-03 Data reproducing device, method, computer program, and computer-readable storage medium Pending JP2004363828A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003158528A JP2004363828A (en) 2003-06-03 2003-06-03 Data reproducing device, method, computer program, and computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003158528A JP2004363828A (en) 2003-06-03 2003-06-03 Data reproducing device, method, computer program, and computer-readable storage medium

Publications (1)

Publication Number Publication Date
JP2004363828A true JP2004363828A (en) 2004-12-24

Family

ID=34051905

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003158528A Pending JP2004363828A (en) 2003-06-03 2003-06-03 Data reproducing device, method, computer program, and computer-readable storage medium

Country Status (1)

Country Link
JP (1) JP2004363828A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114173067A (en) * 2021-12-21 2022-03-11 科大讯飞股份有限公司 Video generation method, device, equipment and storage medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114173067A (en) * 2021-12-21 2022-03-11 科大讯飞股份有限公司 Video generation method, device, equipment and storage medium

Similar Documents

Publication Publication Date Title
JP4355659B2 (en) Data processing device
JP4923517B2 (en) Imaging device, imaging method, and semiconductor device
US20040141722A1 (en) Apparatus and method for video edition
JP2009225361A (en) Recording device and recording method, and editing device and editing method
JP2005217816A (en) Video-reproducing unit and recording medium
JP4330968B2 (en) REPRODUCTION DEVICE, RECORDING DEVICE, REPRODUCTION PROGRAM, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING THE REPRODUCTION PROGRAM
JP2014096766A (en) Recording apparatus and recording method
US7830421B2 (en) Reproducing apparatus
JP5076457B2 (en) Video signal processing apparatus and video signal processing method
US20070297767A1 (en) Image reproducing apparatus and reproducing program creation apparatus
JP2008283708A (en) Playback apparatus
JP2004363828A (en) Data reproducing device, method, computer program, and computer-readable storage medium
JP2006157697A (en) Recording and reproducing apparatus
US8134607B2 (en) Recording apparatus
KR100429793B1 (en) Recording medium containing thumbnail
JP2007166553A (en) Moving image processing apparatus and moving image processing method
KR100429818B1 (en) Thumbnail data recording method
JP2015159484A (en) Recording device, recording method, program and imaging apparatus
JP5072636B2 (en) Playback apparatus and playback method
JP7327950B2 (en) IMAGING DEVICE, CONTROL METHOD THEREOF, AND PROGRAM
JP2007295070A (en) Recording device and method, program, and recording medium
JP2015029211A (en) Imaging device
KR100429821B1 (en) Thumnail data reproducing apparatus
KR100429820B1 (en) Thumbnail data recording apparatus
JP2022095374A (en) Moving image file creation device, creation method for the same, and program