JP2005117400A - ビデオカメラ - Google Patents

ビデオカメラ Download PDF

Info

Publication number
JP2005117400A
JP2005117400A JP2003349524A JP2003349524A JP2005117400A JP 2005117400 A JP2005117400 A JP 2005117400A JP 2003349524 A JP2003349524 A JP 2003349524A JP 2003349524 A JP2003349524 A JP 2003349524A JP 2005117400 A JP2005117400 A JP 2005117400A
Authority
JP
Japan
Prior art keywords
image
audio
video camera
image signal
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003349524A
Other languages
English (en)
Other versions
JP4190384B2 (ja
Inventor
Daisuke Amano
大輔 天野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2003349524A priority Critical patent/JP4190384B2/ja
Publication of JP2005117400A publication Critical patent/JP2005117400A/ja
Application granted granted Critical
Publication of JP4190384B2 publication Critical patent/JP4190384B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

【構成】 動画像と音声との記録時に、音声フレームに対応する画像のフィールド番号とビデオエンコーダ22から取得した画像成分の垂直ライン位置および水平画素位置とを音声フレームに付加する。再生時には、再生する音声フレームから取り出した画像フィールド番号情報,垂直ライン位置情報および水平画素位置情報(同期サンプル情報)と、現在再生されている画像のフィールド番号,垂直ライン位置および水平画素位置とから音声と画像との同期のズレを算出する。そして、このズレが許容範囲を超える場合に、画像を一時停止するかもしくは画像をスキップすることによってズレを修正する。
【効果】 簡単な回路構成によって動画像データと音声データとの同期を実現できる。
【選択図】 図1

Description

この発明は、ビデオカメラに関し、特にたとえば、画像データおよび音声データを記録再生する、ビデオカメラに関する。
従来のこの種の信号処理装置の一例が、特許文献1および2に開示されている。特許文献1で開示された従来技術(1)は、ビデオ信号に付加されたタイムスタンプとオーディオ信号に付加されたタイムスタンプとの差分を求め、ディスプレイに送出する垂直帰線消去信号期間をこの差分に応じて変更し、これによってビデオ信号およびオーディオ信号の滑らかな同期再生を実現しようとするものである。
また、特許文献2で開示された従来技術(2)は、音声データの再生量を監視して求められた再生時刻と画像データに割り当てられたタイムスタンプとに基づいて、音声および画像の間で同期を確保しようとするものである。
特開平8−140054号公報[H04N 5/93,G11B 20/10] 特開平11−134804号公報[G11B 20/10,H04N 5/937,7/08,7/081]
しかし、従来技術(1)では、記録時にビデオ信号およびオーディオ信号の両方にタイムスタンプを付加するため、タイムスタンプの生成に時計回路が必要となる。従来技術(2)でも、記録時に画像データにタイムスタンプを付加するため、タイムスタンプを生成するための時計回路を準備する必要がある。つまり、従来技術(1)および(2)のいずれにおいても、回路構成が複雑になるという問題がある。
それゆえに、この発明の主たる目的は、簡単な回路構成で再生画像と再生音声との同期を確保することができる、ビデオカメラを提供することである。
請求項1の発明は、イメージセンサによって撮影された被写体の動画像信号とマイクロフォンによって取り込まれた音声信号とを記録媒体に記録するビデオカメラにおいて、動画像信号を形成する各画面の静止画像信号をラスタ走査態様でモニタに向けて出力する第1画像出力手段、第1画像出力手段によって走査されている画素位置を間欠的に検出する第1検出手段、および第1検出手段によって検出された画素位置を第1検出手段による検出時点でマイクロフォンによって取り込まれた音声信号に割り当てる割り当て手段を備えることを特徴とする、ビデオカメラである。
請求項1の発明では、第1画面出力手段が動画像信号を形成する各画面の静止画像信号をラスタ走査態様でモニタに向けて出力し、第1検出手段が第1画像出力手段によって走査されている画素位置を間欠的に検出する。そして、割り当て手段が第1検出手段によって検出された画素位置を第1検出手段による検出時点でマイクロフォンによって取り込まれた音声信号に割り当てる。したがって、再生時に、音声信号に割り当てられた画素位置と現在再生(走査)されている静止画像信号の画素位置とを比較することによって再生画像と再生音声との同期を確保することができる。
請求項2の発明は、マイクロフォンによって取り込まれた音声信号の記録に先立って所定量毎の符号化処理を施す符号化手段をさらに備え、第1検出手段は所定量の音声信号が取り込まれる毎に画素位置を検出する、請求項1記載のビデオカメラである。
請求項2の発明では、符号化手段がマイクロフォンによって取り込まれた音声信号の記録に先立って所定量毎の音声信号に対して符号化処理を施し、第1検出手段は所定量の音声信号が取り込まれる毎に走査されている画素位置を検出する。したがって、音声信号が取り込まれた時点での画素位置が音声信号に割り当てられる。
請求項3の発明は、記録媒体から読み出された動画像信号を形成する各画像の静止画像信号をラスタ走査態様でモニタに向けて出力する第2画像出力手段、記録媒体から読み出された音声信号をスピーカに向けて出力する音声出力手段、音声出力手段によって出力される音声信号に割り当てられた画素位置を検出する第2検出手段、第2検出手段の検出時点で第2画像出力手段によって走査されている画素位置と第2検出手段によって検出された画素位置とのずれを判別する判別手段、および第2画像出力手段によって出力される静止画像信号の画面数を判別手段の判別結果に応じて調整する調整手段をさらに備える、請求項1または2記載のビデオカメラである。
請求項3の発明では、第2画像出力手段が記録媒体から読み出された動画像信号を形成する各画像の静止画像信号をラスタ走査態様でモニタに向けて出力し、音声出力手段が記録媒体から読み出された音声信号をスピーカに向けて出力する。第2検出手段が音声出力手段によって出力される音声信号に割り当てられた画素位置を検出する。判別手段が第2検出手段の検出時点で第2画像出力手段によって走査されている画素位置と第2検出手段によって検出された画素位置とのずれを判別する。そして、調整手段は第2画像出力手段によって出力される静止画像信号の画面数を判別手段の判別結果に応じて調整する。したがって、音声と画像との同期のずれを画素位置レベルで検出し、ずれに応じて画像の枚数を調整することによって音声と画像との同期を確保することができる。
請求項4の発明は、動画像信号は1画面ずつ符号化された状態で記録媒体に記録され、第2画像出力手段は各画面の符号化静止画像信号を復号命令に応答して復号する復号手段を含み、調整手段は復号命令の発生タイミングを制御する、請求項1ないし3のいずれかに記載のビデオカメラである。
請求項4の発明では、動画像信号は1画面ずつ符号化された状態で記録媒体に記録され、復号手段が各画面の符号化静止画像信号を復号命令に応じて復号する。そして、調整手段が復号手段に与える復号命令の発生タイミングを制御する。したがって、符号化静止画像信号の復号のタイミングを制御することによって、音声と画像との同期のずれを調整し、同期を確保することができる。
請求項5の発明は、復号手段は、復号命令に応答して復号された静止画像信号を第1メモリに書き込み、かつ第1メモリに格納された静止画像信号を所定周期で第1メモリから読み出す、請求項4記載のビデオカメラである。
請求項5の発明では、復号手段は、復号命令に応答して復号した静止画像信号をバッファである第1メモリに書き込み、第1メモリに書き込まれた静止画像信号を一定の周期で第1メモリから読み出す。第1メモリに書き込まれた静止画像信号が再生されるので、復号手段に与える復号命令の周期を第1メモリに書き込まれた静止画像信号を読み出す周期よりも短くしたり長くしたりすることによって、再生される動画像を見かけ上スキップしたり停止したりして音声との同期を調整することができる。
請求項6の発明は、調整手段は、画面数を増大させるとき復号命令の発生周期を延長し、画面数を減少させるとき復号命令の発生周期を短縮する、請求項4または5記載のビデオカメラである。
請求項6の発明では、調整手段は、画像数を増大させるとき画像の復号命令の発生周期を延長し、画面数を減少させるとき復号命令の発生周期を短縮する。つまり、復号命令の発生周期を第1メモリからの静止画像信号の読み出し周期よりも長くすると、第1メモリに記録されている静止画像信号が更新されないうちに第1メモリから静止画像信号が読み出されるので同一画像が再生されて画面数が増大する。これによって画像の表示が一時停止されて音声が画像に追いつくことができる。逆に、復号命令の発生周期を第1メモリからの静止画像信号の読み出し周期よりも短くすると、第1メモリから静止画像信号が読み出される前に第1メモリの内容が上書きされるので、第1メモリから読み出される静止画像信号は1画面分スキップされる。したがって、再生される画面数が減少する。これによって、音声に対する画像の遅れを取り戻すことができる。
請求項7の発明は、第2画像出力手段は、復号手段から出力された静止画像信号を第2メモリに書き込む書き込み手段、および第2メモリに格納された静止画像信号を読み出す読み出し手段をさらに含む、請求項4ないし6に記載のビデオカメラである。
請求項7の発明では、書き込み手段が復号手段から出力された静止画像信号をSDRAMなどの第2メモリに書き込み、読み出し手段が第2メモリに書き込まれた静止画像信号を読み出す。こうして第2メモリに書き込まれた静止画像信号が読み出されて再生される。
請求項8の発明は、第2メモリは第1エリアおよび第2エリアを含み、書き込み手段は復号手段から出力された静止画像信号を第1エリアおよび第2エリアに交互に書き込み、読み出し手段は静止画像信号を第1エリアおよび第2エリアから交互に読み出す、請求項7記載のビデオカメラである。
請求項8の発明では、第2メモリは第1エリアおよび第2エリアを含んでいる。そして、書き込み手段は復号手段のバッファ(第1メモリ)から出力された静止画像信号を第1エリアおよび第2エリアに交互に書き込み、読み出し手段は静止画像信号を第1エリアおよび第2エリアから交互に読み出す。
請求項9の発明は、書き込み手段による書き込みと読み出し手段による読み出しとは相補的に行われる、請求項8記載のビデオカメラである。
請求項9の発明では、書き込み手段による第2メモリへの書き込みと読み出し手段による第2メモリからの読み出しとは相補的に行われる。したがって、第2メモリにおける書き込みアドレスに対する読み出しアドレスの追い越しが発生しないので再生画面にフレームのずれが出現することがない。
請求項10の発明は、動画像信号はMPEG4方式に従って符号化される、請求項4ないし9のいずれかに記載のビデオカメラである。
請求項10の発明では、動画像信号はMPEG4方式に従って符号化される。
この発明によれば、動画像データの画素位置に基づいて動画像データの再生タイミングを制御するので、時計回路を必要としないのでより簡単な回路構成によって動画像データと音声データとの同期を実現することができる。
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1に示すこの発明の一実施例であるビデオカメラ10は、タイムスタンプを用いることなく画像(動画)データおよび音声データの同期を確保しようとするものである。再生時に画像と音声との同期を取るために、記録時に音声データにこの音声データの入力タイミングにおいて表示されているスルー画像データのフィールド番号情報,垂直ライン位置情報および水平画素位置情報(これらを“同期サンプル情報”と呼ぶ)を付加する。そして、再生時には、音声フレームから同期サンプル情報を取り出し、取り出された同期サンプル情報と、現在再生されている画像のフィールド番号,垂直ライン位置および水平画素位置とから音声と画像との同期のずれを算出する。このずれが許容範囲を超えるときには、画像を一時停止するかもしくは画像をスキップすることによって画面数を調整してずれを修正する。
この実施例のビデオカメラ10では、上述の構成によって画像と音声との同期をとるので、従来とは違って時計回路が必要でなく、簡単な回路構成で画像と音声との同期を実現できる。
図1を参照して、ビデオカメラ10は、イメージセンサ12を含む。被写界の光学像は、図示しない光学レンズを介してこのイメージセンサ12の受光面に照射される。
オペレータが操作パネル42に設けられたモード切換スイッチ42mdによってカメラモードを選択すると、CPU40によってスルー画像処理が実行される。イメージセンサ12は被写界の生画像信号を1/30秒ごとに出力し、CDS/AGC/AD回路14は出力された生画像信号にノイズ除去,レベル調整およびA/D変換の一連の処理を実行する。CDS/AGC/AD回路14からはディジタル信号である生画像データが出力される。信号処理回路16は、出力された生画像データに白バランス調整,色分離,YUV変換などの信号処理を施し、これによってYUV形式の画像データが生成される。生成された画像データは、メモリ制御回路32によってSDRAM30の伸長画像記録領域に書き込まれる。伸長画像記録領域は、AおよびBの2つのバンクに区切られており、画像データの第1フレームは、まず、バンクAに書き込まれる。1/30秒ごとにバンクが切り換えられ、第2フレームはバンクBに書き込まれ、第3フレームは再びバンクAに書き込まれる。
ビデオエンコーダ22は、SDRAM30のバンクに書き込まれた画像データを1/60秒ごとにメモリ制御回路32を通してプログレッシブ方式で読み出す。まずバンクAから画像データを読み出し、次にバンクBから画像データを読み出す。SDRAM30のバンクAもしくはバンクBから読み出された画像データはビデオエンコーダ22によってコンポジットビデオ信号に変換されて640画素×240ラインのサイズに縮小される。この縮小されたコンポジットビデオ信号が疑似インタレーススキャン方式でLCD24に与えられる。これによって、1/60秒(16.6ミリ秒)に1フィールドの割合で画像がLCD24に表示される。
また、ビデオエンコーダ22では、現フィールドの何ライン目までの描画が終了したかをVカウンタ22vを用いてカウントし、現ラインの何画素目までを描画し終えたかをHカウンタ22hを用いてカウントしている。Vカウンタ22vの最高値は240であり、Hカウンタ22hの最高値は640である。
操作パネル42に設けられたシャッタボタン42stがオペレータによって操作されると、CPU40は、信号処理回路20を能動化するとともに、画像圧縮(符号化)命令および音声圧縮(符号化)命令の各々を周期的にMPEG−4コーデック34に与える。
能動化された信号処理回路20は、マイクロフォン18から入力される音声信号を48kHzの周期でサンプリングしてディジタル信号である音声データに変換し、この音声データをメモリ制御回路32を通してSDRAM30に書き込む。48kHzのサンプリング処理では、1024サンプルによって約21ミリ秒分の音声データが生成される。詳しくは後述するが、音声データは1024サンプル単位で音声フレームというデータに加工される。CPU40は、SDRAM30への音声データの書き込み量を監視しており、1024サンプル分の音声データの書き込みが開始されるごとに、書き込み開始のタイミングでビデオエンコーダ22からVカウンタ22vのカウント値(垂直ライン位置情報)およびHカウンタ22hのカウント値(水平画素位置情報)を取得する。
また、CPU40はLCD24に表示されるスルー画像の画像フィールド番号を画像の表示開始時からフィールドカウンタ40fによってカウントしている。このフィールドカウンタ40fのカウント値(フィールド番号情報)は、ビデオエンコーダ22から取得された垂直ライン位置情報および水平画素位置情報とともに、1024サンプルごとの音声データに対応付けられてRAM46上のテーブル46tに記録される。
画像フィールドは1/60秒(16.6ミリ秒)ごとに生成され、音声フレームは21ミリ秒ごとに生成されるため、画像フィールドと音声フレームとの発生タイミングは図2に示すようになる。図2からわかるように、音声フレーム番号と音声フレームに同期サンプル情報として付加されるフィールド番号(情報)とは1対1の対応関係にはない。図2の例では、フィールド番号“4”が添付される音声フレームは存在しない。
MPEG−4コーデック34は、画像圧縮命令が与えられると、メモリ制御回路32を通してSDRAM30から音声データを随時読み出し、読み出した画像データにMPEG−4圧縮を施す。1回の画像圧縮命令によって1フレームの画像データが圧縮される。MPEG−4圧縮によって再生された圧縮画像データはメモリ制御回路32を通して再びSDRAM30に書き込まれる。
また、MPEG−4コーデック34は、音声圧縮命令が与えられると、メモリ制御回路32を通してSDRAM30から音声データを随時読み出す。そして、読み出した音声データにMPEG−4圧縮を施す。1回の音声圧縮命令によって1024サンプルの音声データが圧縮される。MPEG−4圧縮によって生成された圧縮音声データはメモリ制御回路32を通して再びSDRAM30に書き込まれる。
シャッタボタン42stが再度押されない限り、CPU40は、MPEG−4コーデック34に画像圧縮命令および音声圧縮命令を繰り返し与え、信号処理回路20を能動化し続ける。これによって、圧縮画像データおよび圧縮音声データがSDRAM30に蓄積されてゆく。
メモリカード38には、最初のシャッタボタン42stの操作に応答してMPEGファイルが新規に作成される。CPU40は、上述の圧縮処理の出力と並行して、SDRAM30に蓄積された圧縮画像データおよび圧縮音声データをメモリ制御回路32を通して読み出す。読み出された圧縮画像データおよび圧縮音声データは、I/F36を通してメモリカード38に与えられて記録される。
圧縮音声データは、SDRAM30から読み出されてメモリカード38に記録されるときに、図3に示すように、1024サンプルごとに音声データヘッダを有する音声フレームという単位にまとめられる。1024サンプルの音声データが音声フレームにまとめられると、RAM46に形成されたテーブル46tを参照して当該1024サンプルの音声データに対応する同期サンプル情報が特定され、特定された同期サンプル情報が音声フレームに付加される。図3には音声フレームが連続した状態で示されているが、メモリカード38に形成されるMPEGファイルには、圧縮画像データと圧縮音声データとが混在した状態で記録される。
圧縮画像データおよび圧縮音声データの記録が終了すると、総ファイルサイズ,総フレーム数,総音声サイズ,フレームレートなどの情報がMPEGファイルのファイルヘッダに書き込まれる。また、ファイルヘッダには第何画像フレームの画像データおよび第何音声フレームの音声データがどのアドレスに記録されているかとう情報を保持したテーブルが含まれている。このテーブルを参照することによって所望のフレームの画像データおよび音声データを読み出すことができる。
シャッタボタン42stがオペレータによって操作されると、CPU40は、信号処理回路20を不能化し、MPEG−4コーデック34への圧縮命令の出力を停止する。これによって、圧縮画像データおよび圧縮音声データの生成が終了し、その後、メモリカード38への圧縮画像データおよび圧縮音声データの書き込みが終了する。
このように、MPEGファイルに記録された音声データは1024サンプルごとに音声フレームという単位にまとめられ、各音声フレームには1024サンプルの音声データがSDRAM30に記録され始めたタイミングの画像データのフィールド番号,垂直ライン位置および水平画素位置を示す情報(同期サンプル情報)が付加されている。
オペレータがモード切換スイッチ42mdによって再生モードを選択し、かつ、ファイル選択キー42fsによって所望のMPEGファイルを選択すると、CPU40は、ファイルヘッダに含まれる上述のテーブルを参照して、第1フレームである圧縮画像データおよび第1音声フレームである圧縮音声データをメモリカード38から読み出す。読み出された圧縮画像データおよび圧縮音声データはメモリ制御回路32を通してSDRAM30に書き込まれる。
CPU40はまた、MPEG−4コーデック34に画像伸長(復号)命令および音声伸長(復号)命令を繰り返し与える。画像伸長命令は1/30秒(33ミリ秒)ごとに発行され、音声伸長命令は21ミリ秒ごとに発行される。
CPU40から音声伸長命令が与えられると、MPEG−4コーデック34は、メモリ制御回路32を通して圧縮音声データをSDRAM30から読み出し、読み出した圧縮音声データにMPEG−4伸長を施す。1回の音声伸長命令によって1フレームの圧縮音声データが伸長される。伸長された音声データは、メモリ制御回路32を通して再びSDRAM30に書き込まれる。信号処理回路26は、伸長音声データをメモリ制御回路32を通して読み出し、読み出した伸長音声データをアナログ信号に変換し、そして、変換した音声データをスピーカ28に与える。これによって、再生音声がスピーカ28から出力される。圧縮音声データは、順次メモリカード38から読み出され、MPEG−4コーデック34によって伸長されて、スピーカ28から出力される。これによって、途切れることなく音声がスピーカ28から出力される。
また、MPEG−4コーデック34は、CPU40から画像伸長命令が与えられると、メモリ制御回路32を通して圧縮画像データをSDRAM30から読み出す。読み出した圧縮画像データはMPEG−4伸長が施される。1回の画像伸長命令によって1フレームの圧縮画像データが伸長される。伸長された画像データはMPEG−4コーデック34が備えるバッファ34a(第1メモリ)に蓄積される。 バッファ34aに蓄積された1フレームの画像データは、1/30秒(33ミリ秒)ごとに読み出され、メモリ制御回路32を通してSDRAM30の伸長画像記録領域(第2メモリ)に記録される。伸長画像記録領域は、上述したように、AおよびBの2つのバンクに区切られており、伸長された画像データは、まず、バンクA(第1エリア)に記録される。1/30秒ごとにバンクが切り換えられ、次に伸長された第2画像フレームはバンクB(第2エリア)に記録され、第3画像フレームは再びバンクAに記録される。
ビデオエンコーダ22は、1/60秒ごとにメモリ制御回路32を通してSDRAM30のバンクから伸長された画像データをプログレッシブスキャン方式によって読み出す。まず、バンクAに記録されている画像データを読み出し、次にバンクを切り換えてバンクBに記録されている画像データを読み出す。ビデオエンコーダ22は、SDRAM30から読み出した画像データをコンポジットビデオ信号に変換して640画素×240ラインのサイズに縮小し、縮小した画像データを疑似インタレーススキャン方式でLCD24に与える。この疑似インタレーススキャン方式によって、LCD24には1/60秒に1フィールドの割合で画像が表示される。
また、ビデオエンコーダ22は、記録時と同様に再生時においても、Vカウンタ22vおよびHカウンタ22hを用いて、現フィールドの何ライン目までの描画が終了したか、および現ラインの何画素目までを描画し終えたかをそれぞれカウントしている。さらに、第何番目の画像フィールドが描画されているかがCPU40のフィールドカウンタ40fによってカウントされている。
図2に示したように、音声フレームと画像フィールドとは1対1の対応関係にないので、音声フレームと画像フィールドとの同期を確保する仕組みが必要になる。音声は1音声フレームずつ順番に逐次の再生を行い、途中でスキップされたり停止されたりすることはない。一方、画像は、現在再生されている画像データの描画位置(フィールドカウンタ40fの値,Vカウンタ22vの値およびHカウンタ22hの値)と音声フレームに付加されている同期サンプル情報(画像フィールド番号情報,垂直ライン位置情報および水平画素位置情報)とから音声フレームと画像フィールドとのずれが算出され、ずれが許容範囲外であるときには、ずれを修正するためにスキップされたり停止されたりする。
図4を用いてより具体的に説明する。メモリカード38から音声フレームが読み出されると、読み出された音声フレームから同期サンプル情報(画像フィールド番号情報,垂直ライン位置情報および水平画素位置情報)が抽出される。この同期サンプル情報が示す画面上の位置をA点とする。このA点は、この音声フレームがサンプリングされたときに再生されていた画像の画素の位置を示している。つまり、この音声フレームがサンプリングされていたときには、第Xフィールドの第(Xa+1)ラインの第Ya画素が描画されたところであったことを示している。
また、音声フレームから同期サンプル情報が抽出されるタイミングで、CPU40は、ビデオエンコーダ22からVカウンタ22vおよびHカウンタ22hのカウント値を取得する。取得したカウント値とフィールドカウンタ40fのカウント値とが示す位置をB点とする。つまり、音声フレームから同期サンプル情報が抽出された時点では、第Xフィールドの第(Xb+1)ラインの第Yb画素が描画されていたことになる。
A点とB点とが一致する場合に音声と画像とが記録時と同じタイミングで再生されていることになる。したがって、A点とB点との位置の差が音声と画像との同期のずれとなる。図4の例の場合、画像の再生が音声の再生に比べて、(Xb−Xa)ラインと(Yb−Ya)画素分だけ進んでいることになる。なお、図4の例ではA点とB点とは同一の画像フィールド上に存在するが、A点とB点とが異なる画像フィールド上に存在する場合もある。
音声と画像との同期のずれが許容範囲を超える場合はずれの修正を行う。つまり、画像が音声よりも進んでいる場合には画像を1フレーム時間分(1/30秒)だけ停止させ、画像が音声よりも遅れている場合には画像を1フレーム分だけスキップさせる。
画像を停止させる場合には、CPU40は、1/30秒おきに発生させるMPEG−4コーデック34への画像伸長命令を1回中止する。MPEG−4コーデック34によって伸長された画像データはバッファ34aに格納され、バッファ34aに格納された画像データは1/30秒おきにメモリ制御回路32を通してSDRAM30のバンクAもしくはバンクBに書き込まれる。CPU40が画像伸長命令の発生を1回中止すると、バッファ34aに蓄積されている伸長された画像データは更新されない。したがって、SDRAM30のバンクAもしくはバンクBには前回と同じ画像データが書き込まれる。つまり、バンクAとバンクBには同じ画像データが書き込まれた状態となる。
このため、ビデオエンコーダ22は、バンクは異なるものの2回続けて同じ画像データを読み出して再生することになる。したがって、LCD24には前回と同じ画像が表示され、見かけ上画像が1フレーム時間分停止されることになる。
一方、画像をスキップさせる場合には、CPU40は、通常1/30秒に1回発生させるMPEG−4コーデック34への画像伸長命令を1/30秒の間に2回発生させる。すると、1/30秒に1回読み出されてSDRAM30のバンクに書き込まれるバッファ34aの内容が、読み出される前に次の伸長画像データによって上書きされる。このためSDRAM30のバンクAもしくはバンクBにはバッファ34aに上書きされた画像データが書き込まれる。そして、この上書きされた画像データがビデオエンコーダ22によって読み出されて再生される。したがって、連続した画像フレームがMPEG−4コーデック34によって伸長されるが、LCD24には1フレーム分スキップされて画像が表示される。このようにして音声と画像とのずれが修正され、同期が保たれる。
以下に、図5から図10に示すフロー図を用いて、画像圧縮タスク,音声取込タスク,音声圧縮タスク,音声再生タスクおよび画像再生タスクにおけるCPU40の動作について説明する。なお、画像圧縮タスク,音声取込タスクおよび音声圧縮タスクは同時に平行して実行され、音声再生タスクおよび画像再生タスクは同時に平行して実行される。また、CPU40はフラッシュメモリ44に格納されているプログラムにしたがって動作する。
画像圧縮タスクにおけるCPU40の動作は図5のフロー図に示される。まず、CPU40は、ステップS1において、オペレータによって記録開始操作が行われたかどうかを判断する。ステップS1においてYESと判断すると、次にステップS3において、記録開始操作から1/30秒が経過するまで待機する。この1/30秒の待機は、1フレーム分の画像データが信号処理回路16を経てメモリ制御回路32によってSDRAM30に書き込まれるのを待つためのものである。
ステップS3においてYESと判断すると、ステップS5では、MPEG−4コーデック34に対して画像圧縮命令を与える。すると、MPEG−4コーデック34はメモリ制御回路32を通してSDRAM30から1フレーム分の画像データを読み出してMPEG−4圧縮を施す。そして、圧縮画像データは再びメモリ制御回路32を通してSDRAM30に書き込まれる。SDRAM30に書き込まれた圧縮画像データは別のタスクによって順次メモリカード38に書き込まれる。
ステップS5において画像の圧縮命令をMPEG−4コーデック34に対して与えると、ステップS7では、圧縮命令の発生から1/30秒が経過したかどうかを判断する。ステップS7においてYESと判断すると、ステップS5に戻って再びMPEG−4コーデック34に対して画像の圧縮命令を与える。
ステップS7においてNOと判断すると、ステップS9においてオペレータによって記録停止の操作が行われたかどうかを判断する。ステップS7においてNOと判断するとステップS7に戻り、YESと判断すると画像圧縮タスクを終了する。
音声取込タスクにおけるCPU40の動作は図6のフロー図に示される。まず、CPU40は、ステップS11において、オペレータによって記録開始操作が行われたかどうかを判断する。記録開始操作が行われると、マイクロフォン18から入力された音声が信号処理回路20によって音声データに変換され、この音声データがメモリ制御回路32を通してSDRAM30に書き込まれる。ステップS13では、SDRAM30における音声データの書き込み開始位置(アドレス)を取得してレジスタW1に格納する。なお、レジスタW1に格納されている値を“W1”で表現する。
ステップS15では、第1同期サンプル処理を行う。第1同期サンプル処理では、1番目の1024サンプル(第1フレーム)に対応する同期サンプル情報を取得し、取得した同期サンプル情報を当該1024サンプルの音声データに対応させてRAM46のテーブル46tに記録する。つまり、音声データのSDRAM30への書き込みが開始された時点で、ビデオエンコーダ22からVカウンタ22vおよびHカウンタ22hの値を取得し、CPU40がカウントしている画像フィールド番号の値をフィールドカウンタ40fから取得する。
ステップS17では、SDRAM30における音声データの現状での書き込み終了位置(アドレス)を取得してレジスタW2に格納する。なお、レジスタW2に格納されている値を“W2”で表現する。
ステップS19では、レジスタW1に格納されている値とレジスタW2に格納されている値とから、SDRAM30に書き込まれた音声データのデータ量を算出する。そして、ステップS21では、SDRAM30に書き込まれた音声データの量が1024サンプル分となったかどうかを判断する。
ステップS21においてNOと判断すると、ステップS17に戻って再び書き込み終了位置を取得する。一方、ステップS21においてYESと判断すると、ステップS23において第1同期サンプル処理を行う。この第1同期サンプル処理では、上述したように、次にSDRAM30に書き込まれる1024サンプル分の音声データに対応する同期サンプル情報を取得して、RAM46に形成されたテーブル46tに記録する。
ステップS25では、次の1024サンプル分の音声データを算出するために、書き込み開始位置(W1)を現状における書き込み終了アドレスの次のアドレス(W2+1)で更新する。そして、ステップS27では、オペレータがシャッタボタン42stを操作して記録終了操作を行ったかどうかを判断する。ステップS27においてNOと判断するとステップS17に戻る。ステップS27でYESと判断すると音声取込タスクを終了する。
音声圧縮タスクにおけるCPU40の動作は図7のフロー図に示される。まず、CPU40は、オペレータが記録開始の操作を行うと、その旨がステップS31において判断される。ステップS33では、記録開始の操作から1024サンプル期間(21ミリ秒)が経過するまで待機する。この待機は、マイクロフォン18から入力された1024サンプル分の音声が信号処理回路20およびメモリ制御回路32を通してSDRAM30に書き込まれるのを待つために行われる。
ステップS33においてYESと判断すると、CPU40は、ステップS35において音声データの圧縮命令をMPEG−4コーデック34に対して与える。これによって、1フレーム、つまり、1024サンプル分の音声データがMPEG−4コーデック34に取り込まれMPEG−4圧縮が施される。圧縮された音声データはメモリ制御回路32を通して再びSDRAM30に書き込まれる。
音声データの圧縮命令の発行を行うと、ステップS37において、RAM46に形成されたテーブル46tを参照して当該1024サンプルの音声データに対応する同期サンプル情報を取得する。そして、ステップS39において、取得した同期サンプル情報を音声データに付加する。これによって1音声フレームがSDRAM30上に形成される。こうして形成された音声フレームは、別のタスクによって適宜SDRAM30から読み出されてI/F36を通してメモリカード38に書き込まれる。
ステップS41では、ステップS35における音声の圧縮命令の発生から1024サンプル期間(21ミリ秒)が経過したかどうかを判断する。ステップS41においてYESと判断すると、ステップS35に戻って再びMPEG−4コーデック34に音声の圧縮命令を与える。ステップS41においてNOと判断すると、ステップS43において、オペレータがシャッタボタン42stを操作して記録終了操作を行ったかどうかを判断する。ステップS43においてNOと判断するとステップS41に戻る。ステップS43でYESと判断すると音声圧縮タスクを終了する。
以上に説明した画像圧縮タスク,音声取込タスクおよび音声圧縮タスクによって、メモリカード38に音声データと画像データとを含むMPEGファイルが形成される。次に、音声再生タスクおよび画像再生タスクについて説明する。
音声再生タスクにおけるCPU40の動作は図9のフロー図に示される。まず、ステップS51において音声停止フラグがオン状態であるかどうかを判断し、オン状態である場合には音声停止フラグがオフ状態になるまで待機する。音声停止フラグがオフ状態になると、ステップS53において位置特定フラグがオン状態であるかどうかを判断する。
音声停止フラグおよび位置特定フラグは、後述する画像再生タスクにおいてオン状態に設定される。画像再生タスクにおいて、画像のコマ送り再生やスキップ再生を行っているときには、音声の再生は行わない。そこで、コマ送り再生やスキップ再生を行っている間は、音声停止フラグをオン状態にして音声の再生を停止する。また、画像を第1フレームから再生するときには音声も第1音声フレームから再生すればよいが、画像のコマ送り再生やスキップ再生を行った後に、途中の画像から再生する場合には、再生される画像フレームに対応した音声フレームを特定し、特定された音声フレームから再生しなければならない。そのため、画像のコマ送り再生やスキップ再生を行ったときに位置特定フラグをオン状態に設定して再生する音声フレームの特定が必要なことを画像再生タスクに知らせる。
ステップS53でYESと判断すると、ステップS55で、画像再生タスクにおいてCPU40がレジスタFpを用いてカウントしている再生画像フレームの番号Fpを参照して第Fp番目の画像フレームに対応する音声フレームを特定する。なお、レジスタFpに格納されている値を“Fp”で表す。音声フレームは、画像フレームの番号ではなく、画像フィールドの番号を保持しているので、(Fp×2−1)番のフィールド番号を保持している音声フレームを第Fp画像フレームに対応する音声フレームとして特定する。そして、ステップS57では、音声フレームの特定を終えたので位置特定フラグをオフ状態に設定する。
ステップS59では、ステップS55において特定された音声フレームの伸長命令をMPEG−4コーデック34に与える。ステップS53でNOと判断された場合には、第1音声フレームから伸長される。
ステップS61では、伸長命令の対象となった音声フレームから、同期サンプル情報(画像フィールド番号情報,垂直ライン位置情報および水平画素位置情報)を取得して、RAM46に記録する。そして、ステップS63では、同期サンプリング情報の取得を画像再生タスクに知らせるために同期サンプル情報取得フラグをオン状態に設定する。
ステップS65では、ステップS59で音声フレームの伸長命令を発してから1音声フレームの再生にかかる時間である21ミリ秒が経過したかどうかを判断する。ステップS65においてYESと判断するとステップS51に戻る。一方、ステップS65においてNOと判断するとステップS67に進む。
ステップS67では、オペレータによって再生終了操作が行われるか、もしくは、すべてのデータ(音声フレームおよび画像フレーム)の再生が終了したかどうかを判断する。ステップS67でNOと判断したときにはステップS65に戻り、YESと判断したときには音声再生タスクを終了する。
画像再生タスクにおけるCPU40の動作は図9および図10のフロー図に示される。まず、図9のステップS71では、再生される画像フレームをカウントするためにレジスタFpに1を格納して初期化する。ステップS73では、オペレータによってコマ送り再生もしくはスキップ再生の操作が行われたかどうかを判断する。ステップS73においてYESと判断すると、ステップS87においてコマ送り再生もしくはスキップ再生が行われている旨を音声再生タスクに知らせるために音声停止フラグをオン状態に設定する。また、ステップS89では、コマ送り再生もしくはスキップ再生によって画像が途中から再生されるので再生を開始する音声フレームを特定する必要がある旨を音声再生タスクに知らせるために位置特定フラグをオン状態に設定する。
ステップS91ではコマ送り再生もしくはスキップ再生の処理を行う。コマ送り再生およびスキップ再生の処理の詳細な説明は省略する。コマ送り再生およびスキップ再生の処理では、コマ送り再生もしくはスキップ再生に応じた画像フレームの伸長命令を発行するとともに、画像フレームカウンタFpの更新が行われる。
ステップS73においてNOと判断すると、ステップS75において音声停止フラグをオフ状態に設定する。これによって、音声再生タスクにおいて、音声フレームの再生が開始される。
次に、ステップS77では同期サンプル情報取得フラグがオン状態であるかどうか、つまり、音声再生タスクにおいて音声フレームから同期サンプル情報が取得され、画像と音声とのずれを確認するタイミングが到来したかどうかを判断する。
ステップS77においてNOと判断すると、ステップS93において前回画像フレームの伸長命令が発生されてから1/30秒が経過したかどうかを判断する。画像フレームは1/30秒ごとに再生されるため、1/30秒が経過していなければステップS73に戻る。
ステップS93においてYESと判断すると、ステップS95において、第Fp画像フレームの伸長命令をMPEG−4エンコーダ34に対して発生する。これによって、第Fp画像フレームが伸長されて再生される。そして、ステップS97において、カウンタFpに格納されている値を1だけインクリメントする。
一方、ステップS77においてYESと判断すると、画像と音声とのずれの確認および修正を行う。まず、ステップS79では、同期サンプル情報取得フラグをオフ状態に設定する。
ステップS81では、第2同期サンプル処理を行う。この第2同期サンプル処理では、ビデオエンコーダ22からVカウンタ22vおよびHカウンタ22hの値を取得してRAM46に記録するとともに、CPU40がカウントしている画像フィールド番号の値をフィールドカウンタ40fから取得してRAM46に記録する。
そして、ステップS83では、先の音声再生タスクのステップS61(図8)において音声フレームから取り出されてRAM46に記録された、フィールド番号情報が示す値,垂直ライン位置情報が示す値および水平画素位置情報が示す値と、この画像再生タスクのステップS81における第2同期サンプル処理において取得されてRAM46に記録された、フィールドカウンタ40fの値,Vカウンタ22vの値およびHカウンタ22hの値とから、音声と画像との再生タイミングが何フィールド,何ラインそして何画素分ずれているかを計算する。
ステップS85では、音声と画像とタイミングのずれが許容範囲内であるかどうかを判断する。ステップS85でYESと判断すると前述のステップS93に進んで前回の画像フレームの伸長から1/30秒が経過したかどうかを判断し、判断結果がYESであればステップS95においてMPEG−4コーデック34に対する画像フレームの伸長命令を発生する。
一方、ステップS85においてNOと判断すると、図10のステップS101において、音声と画像とのずれは画像の遅れによるものであるかどうかを判断する。ステップS101においてYESと判断すると、画像の遅れを取り戻すために画像のスキップ処理を行う。つまり、ステップS103において、前回の画像フレームの伸長命令の発生から1/30秒の経過を待たずに第Fp画像フレームの伸長命令をMPEG−4コーデック34に対して発生する。そして、ステップS105では、レジスタFpに格納されている値を1だけインクリメントして図9のステップS73に戻る。
MPEG−4コーデック34によって伸長されてバッファ34aに蓄積された伸長画像データは、1/30秒ごとに読み出されてメモリ制御回路32を通してSDRAM30のバンク(バンクAもしくはバンクB)に書き込まれる。そして、バンクに書き込まれた伸長画像データがビデオエンコーダ22によって読み出されて再生される。
しかし、ステップS103では、1/30秒を待たずに画像の伸長命令がMPEG−4コーデック34に与えられるので、バッファ34aの内容は1/30秒の間に2回更新される。そのため、SDRAM30のバンクには1フレーム分とんで伸長画像データが書き込まれる。そして、ビデオエンコーダ22はそのまま伸長画像データを読み出すので、LCD24に表示される画像は1フレーム分スキップされる。このようにして、画像を音声に追いつかせる。
一方、ステップS101においてNOと判断すると、画像の先行を修正するために画像の表示を1フレーム分停止させる。つまり、ステップS107において、1/15秒(1/30秒の2回分)待機し、ステップS103に進む。
MPEG−4エンコーダ34のバッファ34aの内容は1/30秒ごとに読み出されてSDRAM30のバンクに書き込まれる。しかし、MPEG−4エンコーダ34に画像の伸長命令が与えられないまま1/30秒が経過するので、1/30秒経ってもバッファ34aの内容は更新されない。そのため、SDRAM30のバンクには前回と同じ伸長画像データがバッファ34aから読み出されて書き込まれ、バンクAとバンクBとの内容が同じになる。したがって、ビデオエンコーダ22は、バンクは異なるが前回と同じ伸長画像データをSDRAM30から読み出して再生するので、LCD24に表示される画像は見かけ上停止することになる。画像が停止している間にも音声は再生されるので、音声が画像に追いつく。
以上に説明したように、この実施例のビデオカメラ10においては、画像と音声とを記録するときに音声フレームに対応する画像のフィールド番号,垂直ライン位置および水平画素位置の各情報を音声フレームに付加する。そして、再生するときには、再生される音声フレームから取り出した画像フィールド番号情報,垂直ライン位置情報および水平画素位置情報と、現在再生されている画像のフィールド番号,垂直ライン位置および水平画素位置とから音声と画像との同期のずれを算出する。そして、このずれが許容範囲を超えるときには、画像を一時停止するかもしくは画像をスキップすることによってずれを修正する。したがって、従来とは異なりタイムスタンプ用の時計回路を必要とせず、簡単な回路構成によって音声と画像との同期を実現することができる。
この発明の一実施例の全体構成を示す図解図である。 音声フレームと画像フィールドとの発生タイミングを示す図解図である。 音声フレームのデータ構成例を示す図解図である。 音声と画像とのずれの計算方法を示す図解図である。 画像圧縮タスクにおけるCPUの動作を示すフロー図である。 音声取込タスクにおけるCPUの動作を示すフロー図である。 音声圧縮タスクにおけるCPUの動作を示すフロー図である。 音声再生タスクにおけるCPUの動作を示すフロー図である。 画像再生タスクにおけるCPUの動作を示すフロー図である。 図9のフロー図に続くフロー図である。
符号の説明
10 …ビデオカメラ
16,20,26 …信号処理回路
22 …ビデオエンコーダ
30 …SDRAM
32 …メモリ制御回路
34 …MPEG−4コーデック
38 …メモリカード
40 …CPU
44 …フラッシュメモリ
46 …RAM

Claims (10)

  1. イメージセンサによって撮影された被写体の動画像信号とマイクロフォンによって取り込まれた音声信号とを記録媒体に記録するビデオカメラにおいて、
    前記動画像信号を形成する各画面の静止画像信号をラスタ走査態様でモニタに向けて出力する第1画像出力手段、
    前記第1画像出力手段によって走査されている画素位置を間欠的に検出する第1検出手段、および
    前記第1検出手段によって検出された画素位置を前記第1検出手段による検出時点で前記マイクロフォンによって取り込まれた音声信号に割り当てる割り当て手段を備えることを特徴とする、ビデオカメラ。
  2. 前記マイクロフォンによって取り込まれた音声信号の記録に先立って所定量毎の符号化処理を施す符号化手段をさらに備え、
    前記第1検出手段は前記所定量の音声信号が取り込まれる毎に前記画素位置を検出する、請求項1記載のビデオカメラ。
  3. 前記記録媒体から読み出された動画像信号を形成する各画像の静止画像信号を前記ラスタ走査態様で前記モニタに向けて出力する第2画像出力手段、
    前記記録媒体から読み出された音声信号をスピーカに向けて出力する音声出力手段、
    前記音声出力手段によって出力される音声信号に割り当てられた画素位置を検出する第2検出手段、
    前記第2検出手段の検出時点で前記第2画像出力手段によって走査されている画素位置と前記第2検出手段によって検出された画素位置とのずれを判別する判別手段、および
    前記第2画像出力手段によって出力される静止画像信号の画面数を前記判別手段の判別結果に応じて調整する調整手段をさらに備える、請求項1または2記載のビデオカメラ。
  4. 前記動画像信号は1画面ずつ符号化された状態で前記記録媒体に記録され、
    前記第2画像出力手段は各画面の符号化静止画像信号を復号命令に応答して復号する復号手段を含み、
    前記調整手段は前記復号命令の発生タイミングを制御する、請求項1ないし3のいずれかに記載のビデオカメラ。
  5. 前記復号手段は、前記復号命令に応答して復号された静止画像信号を第1メモリに書き込み、かつ前記第1メモリに格納された静止画像信号を所定周期で前記第1メモリから読み出す、請求項4記載のビデオカメラ。
  6. 前記調整手段は、前記画面数を増大させるとき前記復号命令の発生周期を延長し、前記画面数を減少させるとき前記復号命令の発生周期を短縮する、請求項4または5記載のビデオカメラ。
  7. 前記第2画像出力手段は、前記復号手段から出力された静止画像信号を第2メモリに書き込む書き込み手段、および前記第2メモリに格納された静止画像信号を読み出す読み出し手段をさらに含む、請求項4ないし6に記載のビデオカメラ。
  8. 前記第2メモリは第1エリアおよび第2エリアを含み、
    前記書き込み手段は前記復号手段から出力された静止画像信号を前記第1エリアおよび前記第2エリアに交互に書き込み、
    前記読み出し手段は前記静止画像信号を前記第1エリアおよび前記第2エリアから交互に読み出す、請求項7記載のビデオカメラ。
  9. 前記書き込み手段による書き込みと前記読み出し手段による読み出しとは相補的に行われる、請求項8記載のビデオカメラ。
  10. 前記動画像信号はMPEG4方式に従って符号化される、請求項4ないし9のいずれかに記載のビデオカメラ。
JP2003349524A 2003-10-08 2003-10-08 ビデオカメラ Expired - Fee Related JP4190384B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003349524A JP4190384B2 (ja) 2003-10-08 2003-10-08 ビデオカメラ

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003349524A JP4190384B2 (ja) 2003-10-08 2003-10-08 ビデオカメラ

Publications (2)

Publication Number Publication Date
JP2005117400A true JP2005117400A (ja) 2005-04-28
JP4190384B2 JP4190384B2 (ja) 2008-12-03

Family

ID=34541367

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003349524A Expired - Fee Related JP4190384B2 (ja) 2003-10-08 2003-10-08 ビデオカメラ

Country Status (1)

Country Link
JP (1) JP4190384B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006333038A (ja) * 2005-05-26 2006-12-07 Casio Comput Co Ltd カメラ装置及び録画装置並びにプログラム
CN1758772B (zh) * 2005-11-04 2010-05-05 无敌科技(西安)有限公司 多媒体文件影音同步的播放方法及其系统
JP2011199477A (ja) * 2010-03-18 2011-10-06 Hitachi Kokusai Electric Inc 映像信号取り込み装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006333038A (ja) * 2005-05-26 2006-12-07 Casio Comput Co Ltd カメラ装置及び録画装置並びにプログラム
JP4560788B2 (ja) * 2005-05-26 2010-10-13 カシオ計算機株式会社 カメラ装置及び録画装置並びにプログラム
CN1758772B (zh) * 2005-11-04 2010-05-05 无敌科技(西安)有限公司 多媒体文件影音同步的播放方法及其系统
JP2011199477A (ja) * 2010-03-18 2011-10-06 Hitachi Kokusai Electric Inc 映像信号取り込み装置

Also Published As

Publication number Publication date
JP4190384B2 (ja) 2008-12-03

Similar Documents

Publication Publication Date Title
JP4724577B2 (ja) 撮像装置及びその制御方法
US7705904B2 (en) Moving-image recording device for recording moving image
JP4525561B2 (ja) 撮像装置、画像処理方法、並びにプログラム
US8743227B2 (en) Imaging apparatus and control method for reducing a load of writing image data on a recording medium
JP2007312006A (ja) ストリーム生成装置、撮像装置、データ処理装置、およびストリーム生成方法
JP4958758B2 (ja) 記録装置、再生装置、記録方法、再生方法及びプログラム
US20110199496A1 (en) Image capturing apparatus, image capturing control method, and storage medium
JP2010074323A (ja) 記録装置および方法、並びに記録再生装置および方法
JP2007266659A (ja) 撮像再生装置
JP5600405B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5164610B2 (ja) 撮像装置及びその制御方法
JP4252015B2 (ja) 画像撮像装置、画像再生装置及び画像撮像再生システム
JP4190384B2 (ja) ビデオカメラ
JP4973497B2 (ja) 撮像画像記録装置、撮像画像記録方法、撮像画像再生装置、撮像画像再生方法及び撮像画像記録再生システム
JP2005318180A (ja) ハードディスクレコーダ、映像記録装置
JP2008160564A (ja) カメラ装置およびカメラ装置におけるチャプタデータ生成方法
JP2007228119A (ja) 撮像装置、画像処理方法、およびプログラム
JP2020188415A (ja) 撮像装置及びその制御方法及びプログラム
JP7374698B2 (ja) 撮像装置、制御方法およびプログラム
JP2742111B2 (ja) ビデオカメラ
JP2006238041A (ja) ビデオカメラ
JP2005229553A (ja) 画像処理装置
JP2015029211A (ja) 撮像装置
JP2010141717A (ja) 画像記録再生装置
JP5084586B2 (ja) 画像記録再生装置及び画像再生装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080527

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080819

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080916

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110926

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees