JP4985766B2 - 動画記録方法および情報処理装置 - Google Patents

動画記録方法および情報処理装置 Download PDF

Info

Publication number
JP4985766B2
JP4985766B2 JP2009508853A JP2009508853A JP4985766B2 JP 4985766 B2 JP4985766 B2 JP 4985766B2 JP 2009508853 A JP2009508853 A JP 2009508853A JP 2009508853 A JP2009508853 A JP 2009508853A JP 4985766 B2 JP4985766 B2 JP 4985766B2
Authority
JP
Japan
Prior art keywords
information
data
digitized
audio
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009508853A
Other languages
English (en)
Other versions
JPWO2008126311A1 (ja
Inventor
潤 ▲吉▼村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2008126311A1 publication Critical patent/JPWO2008126311A1/ja
Application granted granted Critical
Publication of JP4985766B2 publication Critical patent/JP4985766B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
    • H04N9/8063Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Description

本発明は動画記録方法および情報処理装置に関する。
カメラによる撮影およびマイクを介した録音によって得た動画情報をデジタル化して記録する場合の記録フォーマットとして例えばMP4がある。
MP4によれば映像および音声のデジタル化データが時刻順に記録されるとともに、対応する時間情報が同じく時刻順に記録される。
ここで時間情報とは、記録された映像情報および音声情報がそれぞれ記録された時刻を示す時刻情報、およびその時刻に記録された情報のデータサイズを示す情報とよりなる。
このようなフォーマットにしたがってデジタル化して動画を記録する場合、カメラからの映像入力を所定の時間の経過ごとに区切り、その時間間隔ごとに、対応する時間情報を伴う映像データとして得る。又マイクからの音声入力を所定の時間の経過ごとに区切り、その時間間隔ごとに、対応する時間情報を伴う音声データとして得る。
これらは一旦映像バッファ部および音声バッファ部にそれぞれ格納され,その後これらが読み出され、時間同期処理およびフォーマット変換処理を介して上記MP4のフォーマットによる1つの映像/音声/時間ファイルとして記録される。
この映像/音声/時間ファイルから動画を再生する場合、時間の経過に伴って、まず時刻ごとの時間情報に含まれる映像データ、音声データのデータサイズの情報が、動画再生の際の制御情報として読み取られる。そしてこのように読み出された制御情報にしたがって、指定されたデータサイズ分、映像データおよび音声データがそれぞれ順次読み出され再生される。その結果当初撮影および録音により同時刻に取得された動画の映像データと音声データとが同期して順次再生される。
しかしながら上記時間同期処理およびフォーマット変換処理は一定の処理時間を要する。このため高速且つ高品質の映像入力或いは音声入力を処理するような場合、上記同期処理およびフォーマット変換処理が追いつかず、結果的に許容処理量を超える入力データを破棄せざるを得ない状況が想定される。
特に携帯電話機等の小型軽量化が要求される情報処理装置においてはデータ処理能力を高めることに限界があるため、このような状況が生ずる可能性が高いと考えられる。
特開平7−95522号公報
本発明はこのような状況に鑑みてなされたものであり、たとえデータ処理量が多いような場合でも入力データを破棄する必要が無く確実に動画を記録可能な動画記録方法および同方法を実行する情報処理装置を提供することを目的とする。
この目的の達成のため本発明では、それぞれが撮影および録音により得られた映像情報および音声情報をそれぞれデジタル化し、各々が時間情報を伴うデジタル化映像データとデジタル化音声データとを得、前記時間情報を伴うデジタル化映像データを一旦その時間情報とデジタル化映像データとに分けて格納し、前記時間情報を伴うデジタル化音声データを一旦その時間情報とデジタル化音声データとに分けて格納し、このようにそれぞれに分けて格納された時間情報およびデジタル化映像データと、それぞれに分けて格納された時間情報およびデジタル化音声データとを互いに同期をとりながら組み合わせ、所定のフォーマットで格納するようにした。
本発明によればデータ処理量が多い場合でも入力データを破棄することなく確実に記録を行うことが可能な構成を提供し得る。
本発明の実施例による動画記録方法を実施する情報処理装置の機能ブロック図である。 本発明の実施例による動画記録方法による処理の流れを説明するための図(その1)である。 本発明の実施例による動画記録方法による処理の流れを説明するための図(その2)である。 本発明の実施例による動画記録方法による処理の流れを説明するための図(その3)である。 本発明の実施例による動画記録方法において、個別に記録されたデジタル化映像データおよびこれに対応する時間情報並びにデジタル化音声データおよびこれに対応する時間情報が、時間同期処理およびフォーマット変換処理によって合成され1つの映像/音声/時間ファイルとして記録される様子を示す図である。 本発明の実施例による動画記録方法においてデジタル化映像データおよびこれに対応する時間情報が個別に記録された状態を示す図である。 本発明の実施例による動画記録方法においてデジタル化音声データおよびこれに対応する時間情報が個別に記録された状態を示す図である。 本発明の実施例による動画記録方法における時間同期処理の流れを説明するための動作フローチャートである。 図1に示された情報処理装置におけるモード遷移に係る動作の流れを説明するための動作フローチャートである。: 図1に示された情報処理装置におけるモード遷移について説明するため図である。 図1に示された情報処理装置の低負荷モード時の動作を説明するための図である。 図1に示された情報処理装置の高負荷モード時の動作を説明するための図である。 図1に示された情報処理装置の復帰モード時の動作を説明するための図である。 図1に示された情報処理装置における処理負荷の変化に伴うモード遷移について説明するためのグラフである。 図1に示された情報処理装置をコンピュータで実現する場合における当該コンピュータのハードウェアブロック図である。
符号の説明
11 カメラ
12 映像デジタル化部
13 映像バッファ部
14 映像一時バッファ部
14a 映像用時間情報ファイル
14b 映像データファイル
21 マイク
22 音声デジタル化部
23 音声バッファ部
24 音声一時バッファ部
24a 音声用時間情報ファイル
24b 音声データファイル
25 合成部
26 映像/音声/時間ファイル
26A 映像/音声/時間ファイル格納部
以下に図とともに本発明の実施例につき詳細に説明する。
図1は上記本発明の実施例による動画記録方法を実行する構成を有する情報処理装置、例えば携帯電話機の機能ブロック図である。
同情報処理装置は映像入力装置としてのカメラ11と、音声入力装置としてのマイク21と、カメラ11から出力された映像情報をデジタル化する映像デジタル化部12と、マイク21から出力された音声情報をデジタル化する音声デジタル化部22と、映像バッファ部13と、音声バッファ部23と、映像用時間情報ファイル14aおよび映像データファイル14bを格納する映像一時バッファ部14と、音声用時間情報ファイル24aおよび音声データファイル24bを格納する音声一時バッファ部24と、時間同期処理部15およびフォーマット変換処理部16を含む(図2A,2C参照)合成部25と、映像/音声/時間ファイル26を格納する映像/音声/時間ファイル格納部26Aとを有する。
映像デジタル化部12および音声デジタル化部22は、カメラ11による撮影およびマイク21を介した録音によって得た動画情報を例えばデジタル化して出力する。
映像バッファ部13および音声バッファ部23は映像デジタル化部12および音声デジタル化部22から出力されたデジタル化映像データおよびデジタル化音声データをそれぞれ格納する。
合成部25は映像バッファ部13および音声バッファ部23からデジタル化映像データおよびデジタル化音声データを読み出し、これらに対し時間同期処理部15にて時間同期処理を行いデータフォーマット処理部16にてデータフォーマット処理を行うことにより、映像/音声/時間ファイル26を生成し、これを記録媒体である映像/音声/時間ファイル格納部26Aに格納する。
映像一時バッファ部14および音声一時バッファ部24は、後述する高負荷モード時にデジタル化映像データおよびデジタル化音声データを一時的に格納する。
図2Aは図1とともに上述した情報処理部において、後述する低負荷モード時における動作を説明するための図である。
本発明の実施例によれば、図2Aに示す如く、カメラ11からの映像入力を所定の時間の経過ごとに区切り、その時間間隔ごとに、対応する時間情報を伴う映像データとして得る。又マイク21からの音声入力を所定の時間の経過ごとに区切り、その時間間隔ごとに、対応する時間情報を伴う音声データとして得る。そしてこれらが一旦映像バッファ部13および音声バッファ部23にそれぞれ格納され,その後これらが読み出され、合成部25の時間同期処理部15およびフォーマット変換処理部16を介して上記MP4のフォーマットによる1つの映像/音声/時間ファイル26として記録される。
この映像/音声/時間ファイル26は図3の右側に示されるデータ構造を有し、動画を再生する場合、時間の経過に伴って、まず上段の時間情報部26aに格納された時刻ごとの時間情報、すなわち映像データ、音声データの時刻情報およびデータサイズの情報が、動画再生の際の制御情報として読み取られる。そしてこのように読み出された制御情報にしたがって、指定されたサイズ分、下段の映像/音声データ部26bの映像データおよび音声データがそれぞれ順次読み出され再生される。その結果当初撮影および録音により同時刻に取得された動画の映像データと音声データとが同期して順次再生される。
しかしながら上記時間同期処理部15およびフォーマット変換処理部16によるそれぞれの時間同期処理およびフォーマット変換処理には一定の処理時間を要する。このため高速且つ高品質の映像入力或いは音声入力を処理するような場合、上記同期処理15およびフォーマット変換処理部16による処理が追いつかず、結果的に許容処理量を超える入力データを破棄せざるを得ない状況が想定される。
特に携帯電話機等の小型軽量化が要求される情報処理装置においてはデータ処理能力を高めることに限界があるため、このような状況が生ずる可能性が高いと考えられる。
そこで本発明の実施例では高負荷モード時、図2Bに示す如く、撮影および録音によって得られた映像情報および音声情報がデジタル化された後、上記時間同期処理部15およびデータフォーマット部16による処理を行うことなく、それぞれ時間情報(14a)とデジタル化映像データ(14b)とに分離して映像一時バッファ部14に記録され、同様に時間情報(24a)とデジタル化音声データ(24b)とに分離して音声一時バッファ部24に記録される。
ここでの処理は時間同期処理およびデータフォーマット処理を含まず、単にデジタル化データを時間情報と映像データ又は音声データとに分離してそのまま記録するだけの処理であるためデータ処理量が少なくてすむ。したがって入力データを破棄する必要が無く確実に記録することが可能となる。
そして後述する復帰モードにおいて図2Cに示される如く、このようにして個別に記録されたデジタル化映像情報14bおよびこれに対応する時間情報14a、並びにデジタル化音声情報24bおよびこれに対応する時間情報24aを順次時刻順に読み出して時間同期処理部15およびフォーマット変換処理部16による処理を実行する。その結果図3の右側に示す如くのデータ構造の映像/音声/時間ファイル26が得られる。
本発明の実施例ではこのように、動画記録において、高負荷モード時にデジタル化映像データ、デジタル化音声データおよびそれらの時間情報を分離してそれぞれ個別に一時的に保存し、このように一時的に保存されたデータを読み出して時系列に並べ直し、所定のフォーマットにフォーマット変換する。この構成によれば従来技術では高負荷時に許容処理量を超えて入力データを破棄するような場合でも、入力データを破棄することなく確実に保存することが可能となる。
すなわち従来技術では例えば携帯電話機でカメラとマイクを使って動画を記録するような場合、映像と音声との同期再生を実現するためデジタル化映像データ、デジタル化音声データおよびそれぞれの時間情報を一つのファイルとして所定のフォーマット(たとえばMP4のフォーマット)に変換して記録していた。
このようは従来技術の場合、携帯電話機のように比較的処理能力が低い情報処理装置では高品質の映像を大量に処理する場合上記時間同期処理およびフォーマット変換処理に時間を要し、その結果入力データの処理が追いつかず、もってオーバーフローするデータを破棄せざるを得ない状況が想定された。
本発明の実施例ではこのような状況に鑑み、図2Aに示す如く、低負荷モード時の動画記録の際は上述の従来技術同様、カメラ11から出力された映像情報とマイク21から出力された音声情報とを映像デジタル化部12および音声デジタル化部22でデジタル化した後、映像バッファ部13又は音声バッファ部23の格納率が80%を超えていないと判定され,現在のデータ保存先が映像一時バッファ部14および音声一時バッファ部24でない場合には、デジタル化映像データ/音声データをそれぞれ映像データを一時格納する映像バッファ部13および音声データを一時格納する音声バッファ部23でバッファリングする。そしてこのように映像バッファ部13および音声バッファ部23に格納されたデジタル化映像データ、デジタル化音声データおよびそれぞれの時間情報を一定のフォーマット(MP4フォーマット等)に変換して1つの映像/音声/時間ファイル26として映像/音声/時間ファイブ格納部26Aに保存する。
ここで上記低負荷モードは、カメラ11およびマイク21並びにそれぞれ映像デジタル化部12および音声デジタル化部22を介して入力される映像情報および音声情報のデータ量が、合成部25による同期処理およびフォーマット変換処理能力を超え結果的に入力データを破棄せざるを得ない状況に陥る程度には至っていない状態、すなわち低負荷時のためのモードである。
そしてカメラ11から出力されるデジタル化映像データ或いはマイク21から出力されるデジタル化音声データの単位時間当たりのデータ量、すなわちフレームレート、ビットレート等が一定値を超えた場合、当該情報処理装置は上記高負荷モードに移行する。
ここで、カメラ11から出力されるデジタル化映像データ、或いはマイク21から出力されるデジタル化音声データの単位時間当たりのデータ量が一定値を超えたことを検出する方法として、映像バッファ部13或いは音声バッファ部23に格納されたデータ量で判別する方法が考えられる。例えば、上記映像バッファ部13或いは音声バッファ部23を構成するバッファメモリの格納データ量がその格納容量の80%に達した場合に、カメラ11から出力されるデジタル化映像データ、或いはマイク21から出力されるデジタル化音声データの単位時間当たりのデータ量が一定値を超えたものと判断することができる。
この高負荷モードにおける動画記録は図2Bに示す如く、カメラ11から出力された映像情報およびマイク21から出力された音声情報をそれぞれの映像デジタル化部12および音声デジタル化部22にてデジタル化した後にそれぞれ映像一時バッファ14および音声一時バッファ部24に個別に保存する。すなわち上記映像用時間情報ファイル14a、映像データファイル14b、音声用時間情報ファイル24aおよび音声データファイル24bとして個別に記録する。
これら映像用時間情報ファイル14a、映像データファイル14b、音声用時間情報ファイル24aおよび音声データファイル24bについて以下に説明する。
映像用時間情報ファイル14aには映像データが記録された時刻およびその時刻に記録された映像データのデータサイズが格納され、映像データファイル14bにはその映像データ自体が格納される。又音声用時間情報ファイル24aには音声データが記録された時刻およびその時刻に記録された音声データのデータサイズが格納され、音声データファイル24bにはその音声データ自体が格納される。
ここで、カメラ11から出力された映像情報およびマイク21から出力された音声情報がそれぞれデジタル化されたデジタル化映像データおよびデジタル化音声データには、所定の時間間隔のデータ単位で、それぞれの時間情報、すなわちその情報が記録された時刻を示す情報、すなわち時刻情報およびそのデータサイズを示す情報が付与される。
本発明の実施例では上記高負荷モード時、前記デジタル化映像データからその時間情報を分離し、図4Aに示すごとく、デジタル化映像データとこれに対応する時間情報とを、それぞれ個別に時刻順(すなわち時刻0,1,2,...,N)に映像データファイル14bおよび映像用時間情報ファイル14aとして一時バッファ14に記録する。
同様に前記所定の時間間隔ごとのデジタル化音声データからその時間情報を分離し、デジタル化音声データとこれに対応する時間情報とを、図4Bに示す如く、それぞれ個別に時刻順(すなわち時刻0,1,2,...,N)に一時バッファ24に記録する(音声データファイル24bおよび音声用時間情報ファイル24a)。
又この高負荷モード時、上記の如く入力データを映像一時バッファ部14および音声一時バッファ部24に記録する間、図2Aとともに上述の如く、映像バッファ部13および音声バッファ部23からは順次格納データが読み出され、時間同期処理部15およびフォーマット変換処理部16による処理が実行され、映像/音声/時間ファイル26として記録されてゆく。
そしてこのように映像バッファ部13および音声バッファ部23から格納データが読み出され時間同期処理およびフォーマット変換処理がなされた結果として、上記の如く一旦その格納容量の80%を超えたバッファメモリの格納データ量が一定値未満に減ったことが検出された場合、復帰モードに移行する。
ここで復帰モードとは、上記の高負荷モードにて映像一時バッファ部14および音声一時バッファ部24に格納されたデジタル化映像/音声データに対し合成部25の時間同期処理部15およびフォーマット変換処理16による処理を行って映像/音声/時間ファイル26として映像/音声/時間ファイル格納部26Aに格納することによって映像一時バッファ部14および音声一時バッファ部24の格納データを処理するモードをいう。
ここで上記映像バッファ部13および音声バッファ部23の格納データ量が一定値未満に減ったことが検出された場合とは、具体的に、たとえば映像バッファ部13および音声バッファ部23を構成する各バッファメモリの格納データ量がその格納容量の80%未満となった場合、或いは映像バッファ部13および音声バッファ部23の各々格納データが全て処理された場合等とすることが可能である。
この復帰モードでは図2Cに示す如く、映像データファイル14bに記録されたデジタル化映像データ、映像用時間情報ファイル14aに記録された上記デジタル化映像データに対応する時間情報、音声データファイル24bに記録されたデジタル化音声データおよび音声用時間情報ファイル24aに記録された上記デジタル化音声データに対応する時間情報の時間同期処理およびフォーマット変換処理が、それぞれ時間同期処理部15およびフォーマット変換処理部16によって開始される。
この時間同期処理部15およびフォーマット変換処理部16による処理では、上記デジタル化映像データとこれに対応する時間情報とがそれぞれ個別に時刻順に記録された映像データファイル14bおよび映像用時間情報ファイル14a、並びにデジタル化音声データとこれに対応する時間情報とがそれぞれ個別に時刻順に記録された音声データファイル24bおよび音声用時間情報ファイル24aを時系列に記録し直して上記映像/音声/時間ファイル26を生成する。
この処理につき、以下図3とともに説明する。
図3は上記映像用時間情報ファイル14a、映像データファイル14b、音声用時間情報ファイル24aおよび音声データファイル24bのそれぞれの記録情報、並びにこれらに対し時間同期処理およびフォーマット変換処理を施すことによって得られる映像/音声/時間ファイル26の記録情報をそれぞれ示す図である。
図3に示す如く、映像用時間情報ファイル14aには映像データが記録された時刻を示す時刻情報およびその時刻に記録された映像データのデータサイズが格納され、映像データファイル14bには対応する映像データ自体が時刻順に格納されている。
同様に音声用時間情報ファイル24aには音声データが記録された時刻を示す時刻情報およびその時刻に取得された音声データのデータサイズが格納され、音声データファイル24bには対応する音声データ自体が時刻順に格納される。
映像/音声/時間情報ファイル26の前段部の時間情報部26aには、映像データおよび音声データが記録された時刻を示す時刻情報、その時刻に記録された映像データおよび音声データのそれぞれのデータサイズが時刻順に格納され、後段の映像/音声データ部26bには、対応する映像データ自体および音声データ自体が交互に時刻順に格納される。
上記時間同期処理およびフォーマット変換処理により、図3に示す如く、それぞれ個別に時刻順(すなわち時刻0,1,2,...,N)に記録された映像データファイル14bおよび映像用時間情報ファイル14a、並びにそれぞれ個別に時刻順(すなわち時刻0,1,2,...,N)に記録された音声データファイル24bおよび音声用時間情報ファイル24aのうち、映像データファイル14bおよび音声データファイル24bに格納された同時刻の映像データおよび音声データが、それぞれ時刻順に交互に映像/音声/時間ファイル26の映像/音声データ部26bに格納される。すなわち映像/音声/時間ファイル26の映像/音声データ部26bには、時刻0のデジタル化映像データ、時刻0のデジタル化音声データ、時刻1のデジタル化映像データ、時刻1のデジタル化音声データ、...、時刻Nのデジタル化映像データ、時刻Nのデジタル化音声データの順に記録される。
同様に映像/音声/時間ファイル26の時間情報部26aには、映像用時間情報ファイル14aおよび音声用時間情報ファイル24aに格納された同時刻の時間情報が、それぞれ時刻順に交互に記録される。すなわち時刻0の時間情報としての時刻0の時刻情報、映像データのデータサイズおよび音声データのデータサイズ、時刻1の時間情報としての時刻1の時刻情報、映像データのデータサイズおよび音声データのデータサイズ、...、時刻Nの時間情報としての時刻Nの時刻情報、映像データのデータサイズおよび音声データのデータサイズの順に記録される。
このようにして生成された映像/音声/時間ファイル26から実際に動画を再生する場合、以下の処理がなされる。
すなわち、映像/音声/時間ファイル26の時間情報部26aの先頭から順次時刻ごとに時刻情報、その時刻の映像データサイズおよび音声データサイズが読み出される。そしてこれら映像データサイズおよび音声データサイズで指定されたサイズ分、映像/音声/時間ファイル26の映像/音声データ部26bから対応する時刻の映像データおよび音声データが読み出される。映像/音声データ部26bにおいて時刻ごとに映像データおよび音声データが交互に時刻順に格納されているため、時間情報部26aに格納された各時刻の映像データサイズおよび音声データサイズにしたがって映像/音声データ部26bから対応するデータ量のデータを順次読み出す動作により、対応する時刻の映像データおよび音声データが順次交互に読み出され、再生される。
このように本発明の実施例では高負荷モード時、各データ記録当初は、デジタル化映像データおよびデジタル化音声データの時間同期処理およびフォーマット変換処理を行うことなく、一旦所定時間間隔ごとのデジタル化映像データおよびデジタル化音声データの各々から時間情報を分離した後、それらをそのまま個別に記録する(映像用時間情報ファイル14a、映像データファイル14b、音声用時間情報ファイル24a,音声データファイル24b)。そして復帰モード時にこれら映像用時間情報ファイル14a、映像データファイル14b、音声用時間情報ファイル24a,音声データファイル24bに対し時間同期処理およびフォーマット変換処理を行って合成し映像/音声/時間ファイル26を生成する。すなわち入力データ量が時間同期処理およびフォーマット変換処理に係る情報処理装置の処理能力を超えるような場合には高負荷モードに移行し、入力データに対する時間同期処理およびフォーマット変換処理を後回しにしてとりあえずこれを一時的に格納する。
このため時間同期処理およびフォーマット変換処理に係る情報処理装置の処理能力を超えてオーバーフローした入力データを破棄する状況は生じず、入力データを確実に記録可能となる。
ここでこれらのデジタル化映像データおよびデジタル化音声データは、それぞれの単位時間当たりのデータ量、すなわちビットレート、フレームレート等が異なる。このため、これらが保存された映像バッファ部13および音声バッファ部23から一定の読み出し速度で各データを順次読み出した場合、読み出されるデータはデジタル化映像データとデジタル化音声データとの間で必ずしも同期がとれていない状態となる。したがってデジタル化映像データとデジタル化音声データとの間で同期をとる時間同期処理が必要となる。
図5は上記本発明の実施例による時間同期処理部15による時間同期処理の動作の手順を説明するための図である。尚ここでは映像バッファ部13および音声バッファ部23から格納データを読み出す際の時間同期処理と、映像一時バッファ部14および音声一時バッファ部24から格納データを読み出す際の時間同期処理とを、順に説明する。
まず映像バッファ部13および音声バッファ部23から格納データを読み出す際の時間同期処理について説明する。
この場合最初にステップS51にて上記映像バッファ部13から時刻i(i=0〜N)のデジタル化映像データをこれに伴っている時間情報とともに読み出す。
次にステップS52にて上記音声バッファ部23から、映像バッファ部13から取得された映像データと同じ時刻iを示す時間情報を有するデジタル化音声データを検索する。
カメラ11により得た映像情報およびマイク21により得た音声情報はその単位時間当たりのデータ量が互いに相違し、特に映像情報に比して音声情報の方が単位時間当たりのデータ量が少ないことが多い。このため全ての時刻のデジタル化映像データに対し、対応するデジタル化音声データが全て存在するとは限らない。これは音声情報の単位時間当たりのデータ量が比較的小さい場合、デジタル化の段階でデジタル化音声データの生成頻度がデジタル化映像データの生成頻度に比して小さくなる場合があるからである。したがって、ある時刻のデジタル化映像データに対応するデジタル化音声データが存在しない場合があり、そのような場合にはステップS52の判断はNoとなる。
ステップS52の判断がNoの場合、ステップS53にて、ステップS51にて読み出したデジタル化映像データおよびその時間情報を映像/音声/時間ファイル26に書き込む(すなわち図3の右側のデータ構造中、時刻iの時刻情報、映像データサイズおよび映像データ)。
ステップS52で、対応する時刻iのデジタル化音声データが見いだされた場合(Yes),ステップS54にて当該デジタル化音声データをこれに伴っている時間情報とともに音声バッファ部23から読み出し、ステップS55にてこれらを映像/音声/時間ファイル26に書き込む(すなわち図3の右側のデータ構造中、時刻iの音声データサイズおよび音声データ)。
ステップS56にて映像データファイル14bの全てのデジタル化映像データが処理済みか否か(すなわちi=Nとなったか否か)を判断する。
処理済みであれば(Yes)当該時間同期処理を終了する。そうでない場合(No),ステップS57で時刻変数iに1を加え、ステップS51に戻り、上記処理を繰り返す。このようにして映像/音声/時間ファイル26が生成される。
次に映像一時バッファ部14および音声一時バッファ部24から格納データを読み出す際の時間同期処理について説明する。
この場合、ステップS51にて映像一時バッファ部14に格納された映像データファイル14bから時刻i(i=0〜N)のデジタル化映像データを読み出すとともに映像用時間情報ファイル14aから同じ時刻iの映像用時間情報である時刻情報および映像データサイズを読み出す。
次にステップS52にて音声一時バッファ部24に格納された音声用時間情報ファイル24a或いは音声データファイル24bから、同じ時刻iの音声用時間情報又はデジタル化音声データを検索する。
検索の結果時刻iの音声用時間情報又はデジタル化音声データが見いだされなかった場合(ステップS52のNo),ステップS51にて取得されたデジタル化映像データおよび時間情報を映像/音声/時間ファイル26に書き込む(すなわち図3の右側のデータ構造中、時刻iの時刻情報、映像データサイズおよび映像データ)。
検索の結果時刻iの音声用時間情報又はデジタル化音声データが見いだされた場合(ステップS52のYes),ステップS54にて対応する音声用時間情報およびデジタル化音声データを音声一時バッファ部24に格納された音声用時間情報ファイル24aおよび音声データファイル24bからそれぞれ読み出し、ステップS55にてこれら映像/音声/時間ファイル26に書き込む(すなわち図3の右側のデータ構造中、時刻iの時刻情報、音声データサイズおよび音声データ)。
ステップS56にて映像一時バッファ部14に格納された映像用時間情報ファイル14aおよび映像データファイル14bの全ての時間情報およびデジタル化映像データを処理済みか否か(すなわちi=Nとなったか否か)を判断する。
処理済みであれば(Yes)当該時間同期処理を終了する。そうでない場合(No),ステップS57で時刻変数iに1を加え、ステップS51に戻り、上記処理を繰り返す。このようにして映像/音声/時間ファイル26が生成される。
以下図1および図6〜図11とともに、この情報処理装置における動画記録動作の流れ,特に上記低負荷モード、高負荷モードおよび復帰モードの間のモード遷移の動作について説明する。
図6はこの情報処理装置における動画記録動作の流れ,特に上記モード遷移動作に着目した動作フローチャートである。
動画記録、すなわちユーザによる撮影および録音操作が開始されると、カメラ11およびマイク21から映像情報および音声用時間情報が出力され、これらがそれぞれ映像デジタル化部12および音声デジタル化部22によりデジタル化され、それぞれが時間情報を伴うデジタル化映像データおよびデジタル化音声データが生成される。
ステップS2では映像バッファ部13或いは音声バッファ部23の格納データ量が、その格納容量の80%を超えているか否かを判定する。
超えていなかった場合(No),次にステップS3にて現在のデジタル化映像データおよびデジタル化音声データの格納先が映像一時バッファ部14および音声一時バッファ24か否かを判定する。
その結果格納先が映像一時バッファ部14および音声一時バッファ24でない場合(No)、すなわち格納先が映像バッファ部13および音声バッファ部23であった場合、引き続き映像バッファ部13および音声バッファ部23にデジタル化映像データおよびデジタル化音声データを、それぞれ対応する時間情報を伴った状態で格納する(ステップS4)。
ステップS5にて映像バッファ部13或いは音声バッファ部23の格納データ量がその格納容量の80%を超えたか判定する。
超えていない場合(No),合成部25の時間同期処理部15およびデータフォーマット処理部16により、映像バッファ部13および音声バッファ部23に格納されている、それぞれが時間情報を伴うデジタル化映像データおよびデジタル化音声データの時間同期処理およびフォーマット変換処理が実行され、映像/音声/時間ファイル26が生成される(ステップS6)。
以後、ステップS2或いはステップS5にて映像バッファ部13或いは音声バッファ部23の格納データ量がその格納容量の80%を超えたと判定される迄、上記ステップS1,S2,S3,S4,S5,S6によるループが繰り返される。
この状態が上記低負荷モードである。
この低負荷モードでは図7および図8に示す如く、映像バッファ部13および音声バッファ部23に対し、それぞれが時間情報を伴うデジタル化映像データおよびデジタル化音声データがそれぞれ蓄積される。又同時に映像バッファ部13および音声バッファ部23に対する時間情報を伴うデジタル化映像データおよびデジタル化音声データの蓄積と並行して、映像バッファ部13および音声バッファ部23に格納されたデジタル化映像データおよびデジタル化音声データに対し、合成部25の時間同期処理部15およびフォーマット変換処理部による処理が実施され、映像/音声/時間ファイル26が生成され、映像/音声/時間ファイル格納部26Aに格納される。
ここで図7は低負荷モードから高負荷モード、さらには復帰モードへとモードが遷移する際、映像デジタル化部12および音声デジタル化部22から出力されたデジタル化映像データおよびデジタル化音声データの格納先が、映像バッファ部13および音声バッファ部23と映像一時バッファ部14および音声一時バッファ部24との間で遷移する様子を示す。又そのようにして格納されたデジタル化映像データおよびデジタル化音声データが蓄積合成部25にて処理される際の処理対象のデータの格納場所が、映像バッファ部13および音声バッファ部23と映像一時バッファ部14および音声一時バッファ部24との間で遷移する様子を示す。
又図8は低負荷モードにおける、図1とともに上述した情報処理装置の動作を説明するための図である。
この間図11の時間t1〜t4の如く、処理負荷、すなわち映像デジタル化部12および音声デジタル化部22から供給されるデジタル化映像データおよびデジタル化音声データの単位時間当たりのデータ量が漸増した場合、合成部25の時間同期処理部15およびフォーマット変換処理部16による処理が追いつかなくなり、その結果映像バッファ部13および音声バッファ部23の格納データ量が漸増する。
ここで図9は高負荷モードにおける図1に示された情報処理装置における動作を説明するための図であり、図11は図1に示された情報処理装置における処理負荷の変化に伴う低負荷モード、高負荷モードおよび復帰モード間のモード遷移について説明するための図である。
そして映像バッファ部13或いは音声バッファ部23の格納データ量がその格納容量の80%を超えると(図11中、時間t4)、図6のステップS2がYesとなり、ステップS8にてデジタル化映像データおよびデジタル化音声データの格納先が、映像バッファ部13および音声バッファ部23から、映像一時バッファ部14および音声一時バッファ24に切り替えられる。
或いはこれとは別の動作の流れとして、図6のステップS5がYesとなり、ステップS7にてデジタル化映像データおよびデジタル化音声データの格納先が、映像バッファ部13および音声バッファ部23から、映像一時バッファ部14および音声一時バッファ24に切り替えられるとともに、ステップS6にて、既に映像バッファ部13および音声バッファ部23に記録されている、各々が時間情報を伴うデジタル化映像データおよびデジタル化音声データの時間同期処理およびフォーマット変換処理が、引き続き合成部25の時間同期処理部15およびデータフォーマット処理部16により実行される。
すなわち当該情報処理装置は、図6のステップS2或いはS5にてYesと判定された場合に、上記高負荷モードに移行する。
この高負荷モードでは、図7および図9に示す如く、映像デジタル化部12および音声デジタル化部22から供給される、各々が時間情報を伴うデジタル化映像データおよびデジタル化音声データは一旦映像一時バッファ部14および音声一時バッファ24に格納される。
その際は上記の如く、各々が時間情報を伴うデジタル化映像データおよびデジタル化音声データから、それぞれ時間情報が分離され、映像用時間情報ファイル14a、映像データファイル14b、音声用時間情報ファイル24a,音声データファイル24bとして個別に記録される(図2B,図4A,4B参照)。
その間これと並列して、既に映像バッファ部13および音声バッファ部23に格納されている、各々が時間情報を伴うデジタル化映像データおよびデジタル化音声データに対し、引き続き合成部25により時間同期処理およびフォーマット変換処理が実行される。
このようにしてデジタル化映像データおよびデジタル化音声データ並びにそれぞれに対応する時間情報は、上記の低負荷モードの場合と同様に、映像/音声/時間ファイル26として映像/音声/時間ファイル格納部26Aに保存される。
このように高負荷モードでは図7,図9に示される如く、デジタル化映像データおよびデジタル化音声データの格納先が映像バッファ部13および音声バッファ部23から映像一時バッファ部14および音声一時バッファ部24にそれぞれ切り替わるため、映像バッファ部13および音声バッファ部23の格納データはそれ以降増加することが無く、合成部25による処理によって映像バッファ部13および音声バッファ部23に格納されたデータが次第に減らされる(図11中、時間t4〜t7)。
図6の説明に戻り、上記の如くステップS2がYesとなりステップS8にてデジタル化映像データおよびデジタル化音声データの格納先が、映像バッファ部13および音声バッファ部23から、映像一時バッファ部14および音声一時バッファ24に切り替えられた場合、次にステップS9にて、映像バッファ部13および音声バッファ部23の格納データが全て処理済みか否かが判定される。
上記の如く高負荷モードではデジタル化映像データおよびデジタル化音声データ並びにそれらの対応する時間情報が映像一時バッファ部14および音声一時バッファ部24に格納されるのと並行して、既に映像バッファ部13および音声バッファ部23に格納済みの、各々が時間情報を伴うデジタル化映像データおよびデジタル化音声データの時間同期処理およびフォーマット変換処理が合成部25によって実行される。このように映像バッファ部13および音声バッファ部23の格納データが順次処理されてゆくことにより、図11の時間t4〜t7に示される如く、これら映像バッファ部13および音声バッファ部23の格納データ量(すなわちバッファ使用率)は漸減する。その結果映像バッファ部13および音声バッファ部23の格納データ量が全て処理済みとなった場合ステップS9の判定結果がYesとなる。
なおここで、ステップS9の判定基準は上記の如く「映像バッファ部13および音声バッファ部23の格納データ量が全て処理済みとなった場合」に限られず、「映像バッファ部13および音声バッファ部23の各々の格納データ量が所定の閾値(例えば各々の格納容量の80%)まで減った場合」とすることも可能である。
ステップS9の判定結果がNoの場合、すなわち未だ映像バッファ部13および音声バッファ部23に格納データが残存している場合、ステップS1に戻り、以降ステップS9の判定結果がYesに切り替わるまで、ステップS1,S2,S8,S9のループが繰り返される。
又上記高負荷モードに移行する上記別の動作の流れとして、上記低負荷モードにおいて上記の如くステップS5がYesとなりステップS7にてデジタル化映像データおよびデジタル化音声データの格納先が、映像バッファ部13および音声バッファ部23から、映像一時バッファ部14および音声一時バッファ24に切り替えられるとともに、ステップS6にて既に映像バッファ部13および音声バッファ部23に記録されている、各々が時間情報を伴うデジタル化映像データおよびデジタル化音声データの時間同期処理およびフォーマット変換処理が引き続き合成部25により実行される。
この場合、ステップS1に戻り、上記の場合同様に次のステップS2の判定がYesとなりステップS8にてデジタル化映像データおよびデジタル化音声データの格納先が、映像バッファ部13および音声バッファ部23から、映像一時バッファ部14および音声一時バッファ24に切り替えられる。それ以降の処理は上記の場合と同様であり、以降、ステップS9の判定結果がYesに切り替わるまで、ステップS1,S2,S8,S9のループが繰り返される。
他方ステップS9の判定がYesとなった場合、すなわち映像バッファ部13および音声バッファ部23の格納データが全て合成部25により処理された場合、すなわち図11の時間t8の状態となった場合、ステップS10にて映像デジタル化部12および音声デジタル化部22から出力された、各々が時間情報を伴うデジタル化映像データおよびデジタル化音声データは、それぞれの時間情報を伴った状態のまま映像バッファ部13および音声バッファ部23に格納される状態となる。
更にステップS11にて、上記の如く映像一時バッファ部14および音声一時バッファ部24に個々に蓄積された映像用時間情報ファイル14a、映像データファイル14b、音声用時間情報ファイル24a,音声データファイル24bの時間同期処理およびフォーマット変換処理が合成部25により実行される状態となる。
この状態が図2Cとともに上述の復帰モードである。
図10はこの復帰モードにおけるデータの処理の流れを示す。
この復帰モードでは上記の低負荷モードの場合同様に、映像デジタル化部12および音声デジタル化部22から出力された、各々が時間情報を伴うデジタル化映像データおよびデジタル化音声データがそれぞれの時間情報を伴った状態のまま映像バッファ部13および音声バッファ部23に格納され、これと並行して映像一時バッファ部14および音声一時バッファ部24に個々に蓄積された映像用時間情報ファイル14a、映像データファイル14b、音声用時間情報ファイル24a,音声データファイル24bの時間同期処理およびフォーマット変換処理が合成部25により実行される(図7参照)。
この復帰モードでは映像デジタル化部12および音声デジタル化部22から出力されたデジタル化映像データおよびデジタル化音声データの格納先が映像バッファ部13および音声バッファ部23に切り替わるため、図11の時間t8,t9に示す如く、映像一時バッファ部14および音声一時バッファ部24の格納データ量は、合成部25による映像一時バッファ部14および音声一時バッファ部24の格納データの処理により漸減する。
その間映像バッファ部13および音声バッファ部23の格納データ量は、上記の如く映像デジタル化部12および音声デジタル化部22から出力される、各々が時間情報を伴うデジタル化映像データおよびデジタル化音声データが記録されることにより漸増する。
図6の説明に戻り、ステップS12にて、映像一時バッファ部14および音声一時バッファ部24の格納データが全て合成部25により処理されたか否かが判定される。
上記の如く映像一時バッファ部14および音声一時バッファ部24の格納データ量は合成部25による映像一時バッファ部14および音声一時バッファ部24の格納データの処理により漸減し、その結果映像一時バッファ部14および音声一時バッファ部24の格納データ量がゼロになるとステップS12の判定結果がYesとなる。
なおここで、ステップS12の判定基準は上記の如く「映像一時バッファ部14および音声一時バッファ部24の格納データ量がゼロとなる」場合に限られず、「映像一時バッファ部14および音声一時バッファ部24の格納データ量が所定の閾値(例えば各々の格納容量の80%)まで減った場合」等とすることも可能である。
このように映像一時バッファ部14および音声一時バッファ部24の格納データ量がゼロとなりステップS12の判定結果がYesとなるまで、ステップS11,S12のループが繰り返され、復帰モードが維持される。
映像一時バッファ部14および音声一時バッファ部24の格納データ量がゼロとなりステップS12の判定結果がYesとなるとステップS6に移行し、図7に示す如く、合成部25による時間同期処理およびフォーマット変換処理の処理対象が、上記の如く既に映像バッファ部13および音声バッファ部23に格納された、各々が時間情報を伴うデジタル化映像データおよびデジタル化音声データに切り替えられる。
その結果、図8とともに上述の低負荷モードに戻る。
ここで図11に示す如く、時間t1〜t9の高負荷モードおよびそれに続く復帰モードの間に処理負荷、すなわち映像デジタル化部12および音声デジタル化部22から出力される単位時間当たりのデータ量が減少した場合、上記の如く図8に示される低負荷モードに戻った後、再び処理負荷が増加することによってステップS2又はステップS5の判定結果がYesとなる迄上述の如く低負荷モードが維持される。
他方時間t1〜t9の高負荷モードおよびそれに続く復帰モードの間に処理負荷、すなわち映像デジタル化部12および音声デジタル化部22から出力される単位時間当たりのデータ量が減少せずに高水準が維持された場合、上記の如く図8に示される低負荷モードに戻った後、合成部25による映像バッファ部13および音声バッファ部23の格納データ量の処理が追いつかないことによって映像バッファ部13および音声バッファ部23の格納データ量が80%を超えてステップS2又はステップS5の判定結果がYesとなり、図9の高負荷モードに切り替わり、その後処理負荷が低減するまで、図7に示す如く、高負荷モード→復帰モード→低負荷モード→高負荷モード→...のループが繰り返される。
このような本発明の実施例によれば、以下の効果が得られる。
すなわち映像、音声および時間情報を記録する際、デジタル化映像データおよびデジタル化音声データを同時に一つのファイルに記録する際、同じ時刻のデジタル化映像データおよびデジタル化音声データを検索することにより両者間の同期をとる時間同期処理およびフォーマット変換処理を行って記録する必要がある。この場合、記録する映像や音声の品質の向上にしたがい、上記時間同期処理およびフォーマット変換処理に時間が要され、処理能力に限界が生じる場合が想定された。
本発明の実施例によれば高負荷時にはデジタル化映像データおよびデジタル化音声データをそれぞれ個別に異なるファイルへ格納するとともに、その時間情報も別のファイルに格納するようにした。すなわちデジタル化映像データとデジタル化音声データとの間の同期をとる時間同期処理を経ずに逐次記録していくようにした。
その結果記録する映像、音声の品質が向上したような場合であっても、時間同期処理に係る装置の処理能力によらず、入力データを確実に記録することが可能となる。
又本発明の実施例では、このように高負荷時に個別に記録したデジタル化映像データおよびデジタル化音声データをその後読み出して時間同期処理およびフォーマット変換処理を実行する。その結果決められたフォーマットの映像/音声/時間ファイルを記録媒体に保存することが可能となる。
図12は上述の本発明の実施例における情報処理装置をコンピュータで実現する場合について説明するための、コンピュータの構成例を示すブロック図である。
図12に示すごとく、同コンピュータ500は、与えられたプログラムを構成する命令を実行することによって様々な動作を実行するためのCPU501と、キーボード、マウス等よりなりユーザが操作内容又はデータを入力するための操作部502と、ユーザにCPU101による処理経過、処理結果等を表示するCRT、液晶表示器等よりなる表示部503と、ROM、RAM等よりなりCPU504が実行するプログラム、データ等を記憶したり作業領域として使用されるメモリ504と,プログラム、データ等を格納するハードディスク装置505と、CD−ROM507を媒介として外部からプログラムをロードしたりデータをロードするためのCD−ROMドライブ506と、インターネット、LAN等の通信網509を介して外部サーバからプログラムをダウンロード等するためのモデム508とを有する。
更にこのコンピュータ500は、前記カメラ11およびマイク12並びにそれぞれから出力された映像情報および音声情報をデジタル化してデジタル化映像データおよびデジタル化音声データを生成する映像デジタル化部12および音声デジタル化部22を有する。
同コンピュータ500はCD−ROM507を媒介として、あるいは通信ネットワーク509を媒介として、上述の本発明の実施例による情報処理装置が実行する処理をCPU501に実行させるための命令よりなるプログラムをロードあるいはダウンロードする。そしてこれをハードディスク装置505にインストールし、適宜メモリ504にロードしてCPU501が実行する。その結果、同コンピュータ500により本発明の実施例による情報処理装置が実現される。

Claims (10)

  1. 撮影により得られた映像情報および録音により得られた音声情報をそれぞれデジタル化し、各々が時間情報を伴うデジタル化映像データとデジタル化音声データとを得るデジタル化段階と、
    前記時間情報を伴うデジタル化映像データを、前記時間情報と前記デジタル化映像データとに分けて格納する映像データ一時格納段階と、
    前記時間情報を伴うデジタル化音声データを、前記時間情報と前記デジタル化音声データとに分けて格納する音声データ一時格納段階と、
    前記映像データ一時格納段階にて分けて格納された時間情報およびデジタル化映像データと、前記音声データ一時格納段階にて分けて格納された時間情報およびデジタル化音声データとを、互いの時間情報に基づいて互いに同期をとりながら組み合わせ、所定のフォーマットで格納する時間情報分離後フォーマット変換段階とを有する動画記録方法。
  2. 第1のモードでは、前記デジタル化段階で得られた、各々が時間情報を伴うデジタル化映像データとデジタル化音声データとを、互いに同期をとりながら組み合わせ、所定のフォーマットで格納する時間情報非分離フォーマット変換段階を実行し、
    第2のモードでは、前記デジタル化段階で得られた、各々が時間情報を伴うデジタル化映像データとデジタル化音声データとを、前記映像データ一時格納段階にて時間情報とデジタル化映像データとに分けて格納し、音声データ一時格納段階にて時間情報とデジタル化音声データとに分けて格納し、
    第3のモードでは、前記時間情報分離後フォーマット変換段階にて、映像データ一時格納段階において分けて格納された時間情報およびデジタル化映像データと音声データ一時格納段階において分けて格納された時間情報およびデジタル化音声データとを、互いに同期をとりながら組み合わせて格納する、請求項1に記載の動画記録方法。
  3. 前記デジタル化段階では、前記撮影および録音にて得られた映像情報および音声情報を、所定の時間間隔ごとに区切り、当該所定の時間間隔ごとのデジタル化映像データおよびデジタル化音声データを生成し、前記時間情報はそれぞれ前記所定の時間間隔ごとの、対応するデジタル化映像データおよびデジタル化音声データのデータサイズの情報を有し、
    前記映像データ一時格納段階では、前記所定の時間間隔ごとのデジタル化映像データを時刻順に記録するとともに、対応する時間情報を時刻順に記録し、
    前記音声データ一時格納段階では、前記所定の時間間隔ごとのデジタル化音声データを時刻順に記録するとともに、対応する時間情報を時刻順に記録し、
    前記時間情報分離後フォーマット変換段階では、前記映像データ一時格納段階および前記音声データ一時格納段階で一旦格納された前記所定の時間間隔ごとのデジタル化映像データおよび前記所定の時間間隔ごとのデジタル化音声データを、対応する時間間隔ごとに順次交互に記録するとともに、それらに対応する時間情報も、対応する時間間隔ごとに順次交互に記録する、請求項1又は2に記載の動画記録方法。
  4. 前記デジタル化段階で得られた各々が時間情報を伴うデジタル化映像データおよびデジタル化音声データを一旦格納するバッファを設け、前記第1のモードでは、当該バッファに格納された各々が時間情報を伴うデジタル化映像データおよびデジタル化音声データを読み出して互いに同期をとりながら組み合わせ所定のフォーマットで格納する時間情報非分離フォーマット変換段階を実行し、
    前記第1のモードでは前記バッファのデータ格納量が第1の所定値に至った場合に前記第2のモードに移行し、
    前記第2のモードでは、前記時間情報非分離フォーマット変換段階による処理によって前記バッファのデータ格納量が前記第1の所定値より小さい第2の所定値に至った場合に前記第3のモードに移行し、
    前記第3のモードでは、前記時間情報分離後フォーマット変換段階による処理によって前記映像データ一時格納段階および前記音声データ一時格納段階の各々による格納量が第3の所定値に至った場合には前記第1のモードに移行する、請求項2に記載の動画記録方法。
  5. 前記第1のモードでは、前記バッファから各々が時間情報を伴うデジタル化映像データおよびデジタル化音声データを読み出し互いに同期をとりながら組み合わせ所定のフォーマットで格納する前記時間情報非分離フォーマット変換段階を、撮影および録音にて得られた映像情報および音声情報をデジタル化し各々が時間情報を伴うデジタル化映像データおよびデジタル化音声データを得る前記デジタル化段階と並行して実行し、
    前記第2のモードでは、前記バッファから各々が時間情報を伴うデジタル化映像データおよびデジタル化音声データを読み出し互いに同期をとりながら組み合わせ所定のフォーマットで格納する前記時間情報非分離フォーマット変換段階を、撮影および録音にて得られた映像情報および音声情報をデジタル化し、当該デジタル化映像データおよびデジタル化音声データを、時間情報とデジタル化映像データとに分けて格納する前記映像データ一時格納段階および時間情報とデジタル化音声データとに分けて格納する音声データ一時格納段階と並行して実行し、
    前記第3のモードでは、前記映像データ一時格納段階において分けて格納された時間情報およびデジタル化映像データと前記音声データ一時格納段階において分けて格納された時間情報およびデジタル化音声データとを互いに同期をとりながら組み合わせて格納する時間情報分離後フォーマット変換段階を、撮影および録音にて得られた映像情報および音声情報をデジタル化してデジタル化映像データおよびデジタル化音声データを得るデジタル化段階と並行して実行する、請求項2に記載の動画記録方法。
  6. それぞれが撮影および録音により得られた映像情報および音声情報をそれぞれデジタル化し、各々が時間情報を伴うデジタル化映像データとデジタル化音声データとを得るデジタル化手段と、
    前記時間情報を伴うデジタル化映像データを、一旦その時間情報とデジタル化映像データとに分けて格納する映像データ一時格納手段と、
    前記時間情報を伴うデジタル化音声データを、一旦その時間情報とデジタル化音声データとに分けて格納する音声データ一時格納手段と、
    前記映像データ一時格納手段にて分けて格納された時間情報およびデジタル化映像データと、前記音声データ一時格納手段にて分けて格納された時間情報およびデジタル化音声データとを、互いに同期をとりながら組み合わせ、所定のフォーマットで格納する時間情報分離後フォーマット変換手段とを有する情報処理装置。
  7. 前記デジタル化手段で得られた、各々が時間情報を伴うデジタル化映像データとデジタル化音声データとを、互いに同期をとりながら組み合わせ、所定のフォーマットで格納する時間情報非分離フォーマット変換手段を設け、
    第1のモードでは前記時間情報非分離フォーマット変換手段が前記デジタル化手段で得られた、各々が時間情報を伴うデジタル化映像データとデジタル化音声データとを互いに同期をとりながら組み合わせ所定のフォーマットで格納し、
    第2のモードでは前記デジタル化手段で得られた、各々が時間情報を伴うデジタル化映像データとデジタル化音声データとを、一旦前記映像データ格納手段が時間情報とデジタル化映像データとに分けて格納し、音声データ格納手段が時間情報とデジタル化音声データとに分けて格納し、
    第3のモードでは、前記時間情報分離後フォーマット変換手段が、映像データ格納手段において分けて格納された時間情報およびデジタル化映像データと音声データ格納手段において分けて格納された時間情報およびデジタル化音声データとを互いに同期をとりながら組み合わせて格納する、請求項6に記載の情報処理装置。
  8. 前記デジタル化手段は、前記撮影および録音にて得られた映像情報および音声情報を、所定の時間間隔ごとに区切り、当該所定の時間間隔ごとのデジタル化映像データおよびデジタル化音声データを生成し、前記時間情報はそれぞれ前記所定の時間間隔ごとの、対応するデジタル化映像データおよびデジタル化音声データのデータサイズの情報を有し、
    前記映像データ一時格納手段は、前記所定の時間間隔ごとのデジタル化映像データを時刻順に記録するとともに、対応する時間情報を時刻順に記録し、
    前記音声データ一時格納手段は、前記所定の時間間隔ごとのデジタル化音声データを時刻順に記録するとともに、対応する時間情報を時刻順に記録し、
    前記時間情報分離後フォーマット変換手段は、前記映像データ一時格納手段および前記音声データ一時格納手段で一旦格納された前記所定の時間間隔ごとのデジタル化映像データおよび前記所定の時間間隔ごとのデジタル化音声データを、対応する時間間隔ごとに順次交互に記録するとともに、対応する時間情報も、対応する時間間隔ごとに順次交互に記録する、請求項6又は7に記載の情報処理装置。
  9. 撮像手段により撮像された、撮像に伴う第一の時間情報が付加された映像情報を格納する第一の記憶手段と、
    音声入力手段により取得された、音声取得に伴う第二の時間情報が付加された音声情報を格納する第二の記憶手段と、
    前記第一の時間情報および前記第二の時間情報に基づいて、前記映像情報と前記音声情報との同期を取る同期手段と、
    前記同期手段により同期が取られた映像情報と音声情報とを格納する第三の記憶手段と、
    前記撮像手段から入力する映像情報あるいは前記音声入力手段から入力する音声情報の情報量が所定値を超えているか否かを判別する判別手段と、
    前記判別手段により、前記映像情報あるいは前記音声情報の情報量が所定値を超えていると判別された場合、前記映像情報から前記第一の時間情報を分離すると共に、前記音声情報から前記第二の時間情報を分離する処理手段と、
    前記処理手段により分離された、前記第一の時間情報、前記第一の時間情報が分離された前記映像情報、前記第二の時間情報および前記第二の時間情報が分離された音声情報を、前記第一の記憶手段および前記第二の記憶手段に代替して格納する第四の記憶手段と、を備える情報処理装置。
  10. 撮像手段により撮像された、撮像に伴う第一の時間情報が付加された映像情報から、前記第一の時間情報と前記映像情報とを分離する第一の分離手段と、
    音声入力手段により取得された、音声取得に伴う第二の時間情報が付加された音声情報から、前記第二の時間情報と前記音声情報とを分離する第二の分離手段と、
    前記映像情報を格納する映像記憶手段と、
    前記第一の時間情報を格納する映像用時間記憶手段と、
    前記音声情報を格納する音声記憶手段と、
    前記第二の時間情報を格納する音声用時間記憶手段と、
    前記第一の時間情報および前記第二の時間情報に基づいて、前記映像情報と前記音声情報との同期を取る同期手段と、
    前記同期手段により同期された前記映像情報と前記音声情報とを格納する第の記憶手段と、
    前記第一の時間情報が分離される前の映像情報が格納される第一の記憶手段と、
    前記第二の時間情報が分離される前の音声情報が格納される第二の記憶手段と、
    前記情報処理装置における負荷量を判別する判別手段と、
    前記判別手段による判別結果に基づいて、情報の格納先を前記映像記憶手段、前記映像用時間記憶手段、前記音声記憶手段および前記音声用時間記憶手段か、前記第一の記憶手段および前記第二の記憶手段かのいずれかに選択する処理手段と、を備える情報処理装置。
JP2009508853A 2007-03-30 2007-03-30 動画記録方法および情報処理装置 Expired - Fee Related JP4985766B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2007/057259 WO2008126311A1 (ja) 2007-03-30 2007-03-30 動画記録方法および情報処理装置

Publications (2)

Publication Number Publication Date
JPWO2008126311A1 JPWO2008126311A1 (ja) 2010-07-22
JP4985766B2 true JP4985766B2 (ja) 2012-07-25

Family

ID=39863487

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009508853A Expired - Fee Related JP4985766B2 (ja) 2007-03-30 2007-03-30 動画記録方法および情報処理装置

Country Status (3)

Country Link
US (1) US8526777B2 (ja)
JP (1) JP4985766B2 (ja)
WO (1) WO2008126311A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5595101B2 (ja) * 2010-04-26 2014-09-24 本田技研工業株式会社 データ送信方法及び装置
EP2759126B8 (en) 2011-09-18 2021-03-31 Touchtunes Music Corporation Digital jukebox device with karaoke and/or photo booth features, and associated methods
TWI513320B (zh) * 2012-06-25 2015-12-11 Hon Hai Prec Ind Co Ltd 視訊會議裝置及其唇形同步的方法
JP6137980B2 (ja) * 2013-07-30 2017-05-31 キヤノン株式会社 記録装置およびその制御方法
JP2016040872A (ja) * 2014-08-12 2016-03-24 リコーイメージング株式会社 撮像装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002238050A (ja) * 2000-12-08 2002-08-23 Matsushita Electric Ind Co Ltd データ変換装置、データ符号化装置、及びデータ記録装置
JP2004201266A (ja) * 2002-05-28 2004-07-15 Matsushita Electric Ind Co Ltd 画像データ再生装置
JP2005065110A (ja) * 2003-08-19 2005-03-10 Canon Inc ファイル記録方法、ファイル記録装置、コンピュータプログラム及びコンピュータ読み取り可能な記録媒体
JP2005117447A (ja) * 2003-10-09 2005-04-28 Nec Corp 動画記録装置、動画記録方法および動画記録プログラム
JP2005275706A (ja) * 2004-03-24 2005-10-06 Canon Inc 情報処理装置及びその方法、プログラム
WO2007007556A1 (ja) * 2005-07-07 2007-01-18 Sharp Kabushiki Kaisha 放送記録装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2643795B2 (ja) 1993-09-17 1997-08-20 日本電気株式会社 動画像情報と音声情報の再生システム
US20030002578A1 (en) * 2000-12-11 2003-01-02 Ikuo Tsukagoshi System and method for timeshifting the encoding/decoding of audio/visual signals in real-time
JP3769752B2 (ja) * 2002-12-24 2006-04-26 ソニー株式会社 情報処理装置および情報処理方法、データ通信システム、並びに、プログラム
US7558221B2 (en) * 2004-02-13 2009-07-07 Seiko Epson Corporation Method and system for recording videoconference data
US7664057B1 (en) * 2004-07-13 2010-02-16 Cisco Technology, Inc. Audio-to-video synchronization system and method for packet-based network video conferencing

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002238050A (ja) * 2000-12-08 2002-08-23 Matsushita Electric Ind Co Ltd データ変換装置、データ符号化装置、及びデータ記録装置
JP2004201266A (ja) * 2002-05-28 2004-07-15 Matsushita Electric Ind Co Ltd 画像データ再生装置
JP2005065110A (ja) * 2003-08-19 2005-03-10 Canon Inc ファイル記録方法、ファイル記録装置、コンピュータプログラム及びコンピュータ読み取り可能な記録媒体
JP2005117447A (ja) * 2003-10-09 2005-04-28 Nec Corp 動画記録装置、動画記録方法および動画記録プログラム
JP2005275706A (ja) * 2004-03-24 2005-10-06 Canon Inc 情報処理装置及びその方法、プログラム
WO2007007556A1 (ja) * 2005-07-07 2007-01-18 Sharp Kabushiki Kaisha 放送記録装置

Also Published As

Publication number Publication date
US20100092157A1 (en) 2010-04-15
US8526777B2 (en) 2013-09-03
WO2008126311A1 (ja) 2008-10-23
JPWO2008126311A1 (ja) 2010-07-22

Similar Documents

Publication Publication Date Title
US8732210B2 (en) Data recording system, data recording method and data recording program
JP4777274B2 (ja) 映像再生装置及びその制御方法
KR101396409B1 (ko) 동영상 촬영장치 및 그 방법
JP4549260B2 (ja) 記録再生装置、記録再生方法、及びコンピュータプログラム
US8004594B2 (en) Apparatus, method, and program for controlling display of moving and still images
JP4985766B2 (ja) 動画記録方法および情報処理装置
US8768072B2 (en) Apparatus and methods to compress still images
US10033931B2 (en) Image processing apparatus and image processing method for processing still image data
CN102387292B (zh) 运动图像处理装置、运动图像再现装置、运动图像处理方法及运动图像再现方法
JP2014096757A (ja) 画像処理装置および画像処理方法、並びにプログラム
JP2006094058A (ja) 静止画を動画再生するための前処理を行う画像処理装置、プログラム、および方法
JP4958758B2 (ja) 記録装置、再生装置、記録方法、再生方法及びプログラム
JP6641045B1 (ja) コンテンツ生成システム、及びコンテンツ生成方法
JP5474417B2 (ja) 動画データ生成装置、動画データ生成システム、動画データ生成方法およびコンピュータープログラム
JP2008047985A (ja) データ処理装置及びデータ処理方法、並びにコンピュータ・プログラム
JP2008131617A (ja) 映像処理装置
US20210264948A1 (en) Audio processing apparatus and method of controlling audio processing apparatus
JP2008166895A (ja) 映像表示装置及びその制御方法、プログラム、記録媒体
JP2006041794A (ja) 画像処理装置および画像処理プログラム
JP2014110446A (ja) 動画記録装置、動画記録方法及びプログラム
JP6236856B2 (ja) 画像処理装置および画像処理プログラム
JP2013135416A (ja) 撮像装置及び再生装置
JP2013058853A (ja) 動画再生装置、動画再生方法及びプログラム
US20210067788A1 (en) Information processing apparatus, information processing method, and storage medium
JP2007206932A (ja) 映像信号記録装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120403

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120416

R150 Certificate of patent or registration of utility model

Ref document number: 4985766

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150511

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees