JP4501854B2 - 映像音声記録装置 - Google Patents

映像音声記録装置 Download PDF

Info

Publication number
JP4501854B2
JP4501854B2 JP2005369023A JP2005369023A JP4501854B2 JP 4501854 B2 JP4501854 B2 JP 4501854B2 JP 2005369023 A JP2005369023 A JP 2005369023A JP 2005369023 A JP2005369023 A JP 2005369023A JP 4501854 B2 JP4501854 B2 JP 4501854B2
Authority
JP
Japan
Prior art keywords
video
audio data
time information
reproduction
reproduced
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005369023A
Other languages
English (en)
Other versions
JP2007174256A (ja
Inventor
弘典 小味
進 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2005369023A priority Critical patent/JP4501854B2/ja
Priority to EP20060256315 priority patent/EP1801809B1/en
Priority to US11/637,988 priority patent/US7907812B2/en
Priority to CN2006101699076A priority patent/CN1988641B/zh
Publication of JP2007174256A publication Critical patent/JP2007174256A/ja
Application granted granted Critical
Publication of JP4501854B2 publication Critical patent/JP4501854B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • G11B27/3027Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is digitally coded
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234318Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2368Multiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4135Peripherals receiving signals from specially adapted client devices external recorder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4341Demultiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4348Demultiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/24Systems for the transmission of television signals using pulse code modulation
    • H04N7/52Systems for transmission of a pulse code modulated video signal with one or more other pulse code modulated signals, e.g. an audio signal or a synchronizing signal
    • H04N7/54Systems for transmission of a pulse code modulated video signal with one or more other pulse code modulated signals, e.g. an audio signal or a synchronizing signal the signals being synchronous
    • H04N7/56Synchronising systems therefor

Description

本発明は、映像音声信号を符号化して記録再生する映像音声記録装置に関する。
本技術分野の背景技術として、例えば、特開平11−238359号公報(特許文献1)がある。該公報には、課題として「記録に関して高い自由度が得られるなど、優れた有用性を得ることができるビデオ記録再生装置を提供する。」ことが記載されており、解決手段として「ビデオ記録再生装置は、固体メモリからなる記録媒体6に既に記録されているメイン画像データに対して関連するサブ画像データを新たに追加記録するときには、メイン画像データの再生と並行してメイン画像データに対応付けてサブ画像データの記録を行い、再生時には、メイン画像データの再生と連動してメイン画像データに対応付けたサブ画像データの再生を行うことが可能なように構成されている。」と記載されている。
特開平11−238359号公報
DVDやHDDなどの記録メディアに符号化された映像音声信号を記録する映像音声信号記録再生装置がある。これらの装置は、大容量化、メディアへの読み出し/書き込みスピードの向上に伴い、例えば、記録しながら、既記録データの再生を行う追いかけ再生などの機能が搭載されているものもある。これらの技術は、例えば、MPEG2技術(ISO/IEC13818−1〜3)に代表されるようなデジタル符号化圧縮技術に基づいている。
今後複数の映像、音声ストリームを一つの記録メディアに符号化して記録し、同時に出力するような使い方が必要とされている。例えば、一度ビデオカメラ機器で記録したものに、解説映像をつけるような使い方である。
特許文献1には、「記録媒体6に既に記録されているメイン画像データに対して関連するサブ画像データを新たに追加記録するときには、メイン画像データの再生と並行してメイン画像データに対応付けてサブ画像データの記録を行い、再生時には、メイン画像データの再生と連動してメイン画像データに対応付けたサブ画像データの再生を行うこと」が記載されているが、メイン画像の再生に対し、サブ画像をいつ再生するのか、また同期をどのように取るのかについて説明されていない。また、1つのメイン画像に対し複数のサブ画像を追加記録する点についても何ら考慮されていない。
すなわち、例えば、1つのメイン画像の前半に1つ目のサブ画像を追加記録し、中盤に2つ目のサブ画像を追加記録し、後半に3つ目のサブ画像を追加記録するというように、メイン画像の所望する各部分に対してのみサブ画像を追加記録したい場合、特許文献1に記載の発明では、1対1の対応しかできず、またメイン画像とサブ画像の再生タイミングの制御もなされていないので、上記のような実使用シーンを実現することができない。
また、一旦サブ画像の追加記録をした後に、メイン画像の再生に対して、サブ画像の再生のタイミングを変えたい場合もある。しかし、特許文献1においては、メイン画像とサブ画像の再生タイミングの制御がなされていないので、再生のタイミングを変えるということはできない。
このような、メイン画像の所望する各部分に対してのみサブ画像を追加記録することや、サブ画像の再生タイミングを変えることは、映像音声記録再生装置の実使用シーンにおいて頻出する重要機能となり得るものであり、これを実現する映像音声記録再生装置は使い勝手が良い。
本発明の目的は、映像音声記録再生装置の使い勝手を向上することである。
上記目的は、特許請求の範囲に記載の発明により達成される。
本発明によれば、映像音声記録再生装置の使い勝手が向上する。
以下、図を用いて、本発明を実施するための最良の形態を説明する。
本実施例は、光ディスクを記録媒体とし、一度記録した第一の符号化映像音声データを再生し、該再生中に、別の第二の符号化映像音声データを記録する。また、記録された、第一と第二の映像音声データは、その後、再生時には、ピクチャインピクチャ画面として出力する機能を有するデジタルビデオカメラである。
図1は、実施例1のブロック図を示したものである。以下本図に即して説明を行う。最初に通常の第一の符号化映像音声データを記録する時の動作を説明する。図示されていないユーザの記録開始ボタン押下によって、CPU22は各ブロック1〜11を制御し、記録動作を行う。レンズ部3によって取り込まれた映像信号は、CCDなどのセンサ部4によって電気的信号に変換され、信号処理部5において、デジタルビデオ信号として、AudioVideo符号化ブロック8に転送される。一方、音声は、マイク部6によって取り込まれ、アナログ/デジタル変換ブロック7によってデジタル音声データとしてAudioVideo符号化ブロック8に送られる。AudioVideo符号化ブロックでは、映像と音声信号は、例えばMPEG2のビデオおよびMPEG1LayerIIに準拠したエレメンタリストリーム(ES)として符号化される。符号化された各ESはシステム多重化部9において光ディスクに記録可能なパケタイズ処理が行われる。例えばMPEG2Systemsに準拠したプログラムストリーム(PS)の形で記録される。記録時には、システム全体の基準クロック(例えば27MHz)を元に標準時刻情報(STC)がSTCカウンタ10においてカウントアップされる。PS化される際には、上記標準時刻情報STCに基づいてデコードタイムスタンプ(DTS)と呼ばれる再生時刻情報がビデオ、オーディオの両パケットに付加される。本情報は、デコードする際に、DTSが付加されたストリーム部分がSTCのどのタイミングでデコードされるべきかを示す情報である。デコードする際には、エンコード時と同様に再生開始時からSTCカウンタをカウントアップし、STCがDTSと一致するタイミングで対応するビデオとオーディオのストリームをデコードすることで、記録時と同じ映像と音声の同期(リップシンク)を保つことが可能になる。
本実施例では、システム多重化部9でDTS情報をビデオとオーディオのパケタイズドエレメンタリストリーム(PacketizedElementaryStream:PES)内に付加する。
システム多重化部9でパケット化されたデータは、ディスク内の記録データを管理するための管理情報(各記録の開始点終了点のメディア内論理ブロック情報や、時刻情報との対応など)とともに、メディアドライブ11に転送される。メディアドライブ11は、光ディスクの回転数、レーザ強度、ピップアップ装置の制御を行い、上記光ディスク12にデータを記録する。
次に本実施例で、光ディスクに記録したデータを再生する場合の動作について説明する。光ディスク12に記録されたデータは、ユーザが再生指示した場合、メディアドライブ11によって光ディスクから読み出され、システム分離部13に転送される。システム分離部13では、管理情報を最初に読出しCPU22に転送し、所望のデータの光ディスク上の位置を認識したのち、ストリームを随時、メディアドライブ11からシステム分離部13に転送されるよう制御する。システム分離部13でパケットのヘッダ類が解かれESになったビデオおよびオーディオデータは、AudioVideoデコーダ14に転送される。デコード開始時からSTCがカウントアップを開始されており、AudioVideoデコーダ4部分では、DTSがSTCと一致した時刻から、各々ビデオ、オーディオのデコードを開始し、ビデオとオーディオの同期を取りながら復号映像と復号音声を出力する。映像に関しては、ピクチャインピクチャ(PinP)ブロック15に転送される。本動作時は、一組の映像音声信号が出力されているのみなので、映像に関しては、PinP処理なしに、液晶ディスプレイ16もしくは外部モニタへの出力端子21に出力される。また、音声に関しては、ミキサ17に出力され、デジタルアナログ変換回路18を介してスピーカブロック18もしくは、外部への音声出力端子20から出力される。
次に、光ディスクから既に記録済みの第一の映像音声データを再生しつつ、第二の映像音声データを記録する動作について説明する。第一の映像音声データの再生動作については上記と同等である。例えば、ユーザは、再生中の映像音声をLCDもしくは、外部に接続されたモニタを介して視聴し、第二の映像音声データを付加したい部分になった時点で、第二の映像音声記録開始ボタンを押す。これに基づき、CPUは、ブロック3〜11を上述の通りエンコード動作させる。ただし、STCカウンタについては、既に復号のためにSTCがカウントアップされており、エンコード時にはこのデコード時にすでにカウントが開始されているSTC値を参照する。そして、システム多重化部9において付加させるDTSは、このデコードのためにカウントアップしているSTCに対応したDTS値を算出し、パケットに挿入する。このとき、第二の映像音声信号がレンズに入力された時刻にLCDに表示されていた第一の映像音声信号のフレームのDTSと同じ時刻のDTSが付加されるように調整する。
上記動作においてメディアドライブ11には第一の映像音声データのリード要求と第二の映像音声データのライト要求がそれぞれ、デコーダ側、エンコード側から入力されるが、光ディスクはリードライトの動作の切り替えにピックアップの移動などのために時間を要し、オーバーヘッドが生じる。CPU22は、このオーバーヘッドを低減するため、再生側と記録側のデータをメディアドライブに転送する前にバッファリングし、切り替え回数が減るように処理を行う。
また、光ディスクに記録する管理情報の中に第一の映像音声データと第二の映像音声データが共通のSTCで同期して同時出力されるべきデータであるかの対応情報を記録しておく。
以上の方法で、再生中の映像音声を確認しながら、再生画面に同期した映像音声を記録することが可能になる。例えば本機能を用いることで、屋外ですでに記録した野球の試合の映像を、後に屋内において再生し、更にそれを視聴しているコーチを撮影し、技術的な指導をしている画面を副映像として取り込むことが可能である。
上記第一と第二の映像を同時に再生する時には、メディアドライブから第一のデータを再生開始する。この際、第一の映像音声データと同一のSTCを共有し、同時出力されるべきデータが管理情報に記載されているため、これに基づいて、第一と第二の映像音声データをメディアドライバ12に切り替えてリードするようにCPU22は制御を行う。システム分離ブロック13に入力された第一と第二のデータはそれぞれ、AudioVideoデコーダ14とAudioVideoデコーダ15に入力され、それぞれ、復号開始時からカウントアップしているSTCカウンタ10のSTC値とDTSとを比較し、一致した段階でデコードを開始する。出力された映像信号は、PinP回路15において、PinP処理される。PinP処理は、たとえば図2の30と31のように第一の画面を全画面サイズで、第二の画面を小画面サイズで合成して出力したり、32、33のように並列に並べて出力するなどの形態をとっても良い。また、音声信号については、ミキサ回路17において第一、第二の音声信号を例えばステレオ信号内にミキシングして出力する。
次に第一の映像音声信号の再生停止、第三の映像音声信号の再生開始点をまたがる再生中に第二の映像音声を記録する場合、および第三の映像音声信号の再生停止後も第二の映像音声の記録が継続している場合の動作について説明する。
図3は、各映像音声信号(SeqA,B,P,Q,R)とこれらを記録あるいは再生する時刻を示しており、上段は、第一の映像音声信号(SeqA)と第三の映像音声信号(SeqB)を記録する時を示し、中段は、第一、第三の映像音声信号(SeqA、B)を再生中に、3つの第二の映像音声信号(SeqP、Q、R)を追記している時を示し、下段は、第一、第二、第三の映像音声信号を再生している時を示している。
まず、上段に示したとおり、第一の映像音声信号(SeqA)の記録を開始する。この記録開始によりSTCが初期化されカウントアップが開始される。そして、第一の映像音声信号(SeqA)は、対応するSTCをDTSとして記録する。これらは実施例1で示したエンコードと同等である。次に、第一の映像音声信号(SeqA)の記録を終了した後、第三の映像音声信号(SeqB)の記録を開始すると、これらは別個の信号であるため、STCを初期化し、カウントアップを開始する。そして、このSTCに対応して第三の映像音声信号(SeqB)のDTSを記録する。
次に、中段に示すように、第一、第三の映像音声信号(SeqA、B)を再生中に、3つの第二の映像音声信号(SeqP、Q、R)を追記する場合を説明する。第一、第三の映像音声信号(SeqA、B)は、記録のタイミングは上段に示すように離れているが、再生のタイミングは連続であり、シームレスに再生処理が行われる。この際、STCはそれぞれの再生開始時に初期化される。
1つ目の第二の映像音声信号(SeqP)の記録は、実施例1と同様に、第一の映像音声信号(SeqA)の再生に生成されるSTCに同期するように、対応するSTCをDTSとして記録する。
2つ目の第二の映像音声信号(SeqQ)の記録は、基本的には実施例1と同様であるが、第二の映像音声信号(SeqQ)の記録中に、第一の映像音声信号(SeqA)の再生が終了し、第三の映像音声信号(SeqB)の再生が開始され、STCが初期化される点が異なる。そこで、第二の映像音声信号(SeqQ)のDTSに関しては、第一の映像音声信号(SeqA)の再生終了前は第一の映像音声信号(SeqA)のSTCに同期するように、対応するSTCをDTSとして記録し、第一の映像音声信号(SeqA)の再生終了後は第三の映像音声信号(SeqB)のSTCに同期するように、対応するSTCをDTSとして記録するようにする。この場合、第二の映像音声信号をデコードする際に、DTSとPTSとの同期確認処理中に不連続が生じ両値の比較処理が正しく行われない不都合が生じる。このため、本実施例では、再生側のSTCの不連続点が検出された場合には、第二の映像音声信号のデータ中の対応する時刻のパケットにSTCの不連続を示す情報を付記する。
3つ目の第二の映像音声信号(SeqR)の記録は、基本的には実施例1と同様であるが、第二の映像音声信号(SeqR)の記録中に、第三の映像音声信号(SeqB)の再生が終了する点が異なる。そこで、この場合は、第三の映像音声信号(SeqB)の再生が終了した後も、STCのカウントアップを継続するようにし、この継続するSTCに同期するように、対応するSTCをDTSとして記録するようにする。
そして、下段に示したとおり、第一、第二、第三の映像音声信号の再生は、次のようにして行う。まず、第一、第二の映像音声信号(SeqA、P)の再生については実施例1と同様である。すなわち、第一の映像音声信号(SeqA)の再生が開始され、STCが初期化されカウントアップが開始され、第一の映像音声信号(SeqA)のDTCとSTCが同期しながら再生される。そして、第二の映像音声信号(SeqP)のDTSとSTCを対比し、対応するSTCになったタイミングで第二の映像音声信号(SeqP)の再生が開始される。
次に、同様にして、第二の映像音声信号(SeqQ)が再生開始されるが、この再生中に第一の映像音声信号(SeqA)の再生が終了し、第三の映像音声信号(SeqB)が再生を開始され、STCが初期化される点が異なる。この場合、既に説明したように、第二の映像音声信号(SeqQ)のDTSには、STCが不連続になることを示す情報が付記されているので、第二の映像音声信号(SeqQ)は、第一の映像音声信号(SeqA)の再生終了までは第一の映像音声信号(SeqA)のSTCに同期しながら再生され、その後は第三の映像音声信号(SeqB)のSTCに同期しながら再生される。
次に、3つ目の第二の映像音声信号(SeqR)が再生開始されるが、この再生中に第三の映像音声信号(SeqB)が再生を終了する。この場合、第三の映像音声信号(SeqB)の再生が終了しても、STCを継続してカウントアップするようにし、第二の映像音声信号(SeqR)は、この継続される第三の映像音声信号(SeqB)のSTCに同期して再生される。
次に、実施例2の変形例を説明する。
図4は、図3と同様に、各映像音声信号(SeqA,B,P,Q,R)とこれらを記録あるいは再生する時刻を示しており、上段は、第一の映像音声信号(SeqA)と第三の映像音声信号(SeqB)を記録する時を示し、中段は、第一、第三の映像音声信号(SeqA、B)を再生中に、3つの第二の映像音声信号(SeqP、Q、R)を追記している時を示し、下段は、第一、第二、第三の映像音声信号を再生している時を示している。図3と同様である部分については説明を省略する。
図3との違いは、図4の中段に示したとおり、第三の映像音声信号(SeqB)の再生開始の際に、第二の映像音声信号(SeqQ)を追記している場合、図3においてはSTCを初期化したが、図4においてはSTCを継続してカウントアップする点である。このようにすることで、第一、第二、第三の映像音声信号(SeqA,B,P,Q,R)の再生を、連続したSTCでタイミング制御をすることができる。この場合、図4の中段に示したとおり、第三の映像音声信号(SeqB)のDTCは、継続してカウントアップされるSTCに同期するように、変更する必要がある。また、2つ目の第二の映像音声信号(SeqQ)のDTCは、図3ではSTCが不連続になるため、この旨を示す情報を付記したが、図4においては不要である。
次に、図3の実施例2のようにして、第一、第二、第三の映像音声信号(SeqA,B,P,Q,R)を記録した後に、これらとは別個に、第四の映像音声信号(SeqC)を記録し、再生する場合を説明する。
図5は、図3と同様に、各映像音声信号(SeqA,B,P,Q,R)とこれらを記録あるいは再生する時刻を示しており、さらに、第四の映像音声信号(SeqC)について示している。ここに示されているように、第一、第二、第三の映像音声信号(SeqA,B,P,Q,R)とは別個に、第四の映像音声信号(SeqC)を記録し、または再生する場合は、第一、第二、第三の映像音声信号(SeqA,B,P,Q,R)の最後の映像音声信号(SeqR)の停止してから、STCを初期化し、第四の映像音声信号(SeqC)を記録し、または再生するようにする。
なお、図4の実施例3において、第四の映像音声信号(SeqC)を記録し、再生する場合も同様である。
実施例1のビデオカメラのブロック図である。 実施例1にピクチャインピクチャを示す図である。 実施例2に係る第一、第二、第三の映像音声信号とSTCの関係を示す図である。 実施例3に係る第一、第二、第三の映像音声信号とSTCの関係を示す図である。 実施例4に係る第一、第二、第三、第四の映像音声信号とSTCの関係を示す図である。
符号の説明
3・・・レンズ部
4・・・センサ部
5・・・信号処理部
6・・・マイク部
7・・・アナログ/デジタル変換ブロック
8・・・AudioVideo符号化ブロック
9・・・システム多重化部
10・・・STC(標準時刻情報)カウンタ
11・・・メディアドライブ
12・・・光ディスク
13・・・システム分離部
14・・・AudioVideoデコーダ
15・・・PinP(ピクチャインピクチャ)ブロック
16・・・液晶ディスプレイ
17・・・音声ミキサ
18・・・デジタルアナログ変換回路
19・・・スピーカ
20・・・音声出力端子
21・・・映像出力端子
22・・・CPU

Claims (16)

  1. 映像音声データが入力される入力部と、
    映像音声データを記録メディアに記録再生する記録再生手段と、
    該記録メディアに記録されている第1の映像音声データの再生の開始とともに基準時刻
    情報の生成を開始し、該第1の映像音声データを再生しているときに、該入力部から第2
    の映像音声データが入力されると、該第2の映像音声データの入力のタイミングに応じた
    該基準時刻情報に同期するように再生時刻情報を生成し、該再生時刻情報とともに該第2
    の映像音声データを該第1の映像音声データとは別に該記録メディアに追記し、該第1の
    映像音声データが次回再生されるとき、該第1の映像音声データの再生の開始とともに該
    基準時刻情報の生成を開始し、該第2の映像音声データを、該再生時刻情報が該基準時刻
    情報に同期するタイミングで再生するように制御する制御手段と、
    を備え
    該第1の映像音声データを再生し、該入力部から第2の映像音声データが入力され追記
    されているときに、該第1の映像音声データの再生が終了し、続いて第3の映像音声デー
    タが再生された場合、該第1の映像音声データについての基準時刻情報の生成を終了し、
    第3の映像音声データについての基準時刻情報の生成を開始し、該第1の映像音声データ
    の再生の終了後の該第2の映像音声データに付加する再生時刻情報は、該第3の映像音声
    データについての基準時刻情報に同期するように生成されること、
    を特徴とする映像音声記録再生装置。
  2. 請求項1において、
    該制御手段は、該入力部からの第2の映像音声データの入力が終了すると、該終了のタ
    イミングに応じた該基準時刻情報に基づいて生成した再生時刻情報を該記録メディアに記
    録し、該第1の映像音声データが次回再生され、該第2の映像音声データが再生された後
    、該再生時刻情報に対応する該基準時刻情報に基づくタイミングで該第2の映像音声デー
    タの再生を終了するように制御すること、
    を特徴とする映像音声記録再生装置。
  3. 請求項1または2のいずれかにおいて、
    1つの第1の映像音声データに対し、複数の第2の映像音声データを、該複数の第2の
    映像音声データそれぞれの再生時刻情報とともに追記すること、
    を特徴とする映像音声記録再生装置。
  4. 請求項1ないし3のいずれかにおいて、
    該第1の映像音声データを再生し、該入力部から第2の映像音声データが入力され追記
    されているときに、該第1の映像音声データの再生が終了した場合、該第1の映像音声デ
    ータを再生する際に生成される基準時刻情報を継続して生成し、該第2の映像音声データ
    に付加される該再生時刻情報は、該継続して生成される基準時刻情報に同期するように生
    成されること、
    を特徴とする映像音声記録再生装置。
  5. 請求項4において、
    該第1の映像音声データを再生し、該第2の映像音声データに付加された再生時刻情報
    が該第1の映像音声データについての基準時刻情報に同期するようにして第2の映像音声
    データを再生しているときに、該第1の映像音声データの再生が終了した場合、該基準時
    刻情報の生成を継続し、該第2の映像音声データに付加された再生時刻情報が該継続して
    生成される基準時刻情報に同期するようにして第2の映像音声データを再生すること、
    を特徴とする映像音声記録再生装置。
  6. 請求項1ないし5のいずれかにおいて、
    該第2の映像音声データに付加する再生時刻情報に、該再生時刻情報が同期する基準時
    刻情報が不連続となることを示す情報を付加すること、
    を特徴とする映像音声記録再生装置。
  7. 請求項1ないし6のいずれかにおいて、
    該第1の映像音声データを再生し、該第2の映像音声データに付加された再生時刻情報
    が該第1の映像音声データについての基準時刻情報に同期するようにして第2の映像音声
    データを再生しているときに、該第1の映像音声データの再生が終了し、該第3の映像音
    声データが再生されると、該第1の映像音声データの基準時刻情報の生成を終了し、該第
    3の映像音声データの基準時刻情報の生成を開始し、該第2の映像音声データに付加され
    た再生時刻情報が該第3の映像音声データの基準時刻情報に同期するようにして第2の映
    像音声データを再生すること、
    を特徴とする映像音声記録再生装置。
  8. 映像音声データが入力される入力部と、
    映像音声データを記録メディアに記録再生する記録再生手段と、
    該記録メディアに記録されている第1の映像音声データの再生の開始とともに基準時刻
    情報の生成を開始し、該第1の映像音声データを再生しているときに、該入力部から第2
    の映像音声データが入力されると、該第2の映像音声データの入力のタイミングに応じた
    該基準時刻情報に同期するように再生時刻情報を生成し、該再生時刻情報とともに該第2
    の映像音声データを該第1の映像音声データとは別に該記録メディアに追記し、該第1の
    映像音声データが次回再生されるとき、該第1の映像音声データの再生の開始とともに該
    基準時刻情報の生成を開始し、該第2の映像音声データを、該再生時刻情報が該基準時刻
    情報に同期するタイミングで再生するように制御する制御手段と、
    を備え
    該第1の映像音声データを再生し、該入力部から第2の映像音声データが入力され追記
    されているときに、該第1の映像音声データの再生が終了し、続いて第3の映像音声デー
    タが再生された場合、該第1の映像音声データについての基準時刻情報の生成を継続し、
    該第2の映像音声データに付加する再生時刻情報は、該継続して生成される基準時刻情報
    に同期するように生成され、該第3の映像音声データに付加されている再生時刻情報を該
    継続して生成される基準時刻情報に同期するように更新すること、
    を特徴とする映像音声記録再生装置。
  9. 請求項8において、
    該制御手段は、該入力部からの第2の映像音声データの入力が終了すると、該終了のタ
    イミングに応じた該基準時刻情報に基づいて生成した再生時刻情報を該記録メディアに記
    録し、該第1の映像音声データが次回再生され、該第2の映像音声データが再生された後
    、該再生時刻情報に対応する該基準時刻情報に基づくタイミングで該第2の映像音声デー
    タの再生を終了するように制御すること、
    を特徴とする映像音声記録再生装置。
  10. 請求項8または9において、
    1つの第1の映像音声データに対し、複数の第2の映像音声データを、該複数の第2の
    映像音声データそれぞれの再生時刻情報とともに追記すること、
    を特徴とする映像音声記録再生装置。
  11. 映像音声データが入力される入力部と、
    映像音声データを記録メディアに記録再生する記録再生手段と、
    該記録メディアに記録されている第1の映像音声データの再生の開始とともに基準時刻
    情報の生成を開始し、該第1の映像音声データを再生しているときに、該入力部から第2
    の映像音声データが入力されると、該第2の映像音声データの入力のタイミングに応じた
    該基準時刻情報に同期するように再生時刻情報を生成し、該再生時刻情報とともに該第2
    の映像音声データを該第1の映像音声データとは別に該記録メディアに追記し、該第1の
    映像音声データが次回再生されるとき、該第1の映像音声データの再生の開始とともに該
    基準時刻情報の生成を開始し、該第2の映像音声データを、該再生時刻情報が該基準時刻
    情報に同期するタイミングで再生するように制御する制御手段と、
    を備え、
    該第1の映像音声データを再生し、該第2の映像音声データに付加された再生時刻情報
    が該第1の映像音声データについての基準時刻情報に同期するようにして第2の映像音声
    データを再生しているときに、該第1の映像音声データの再生が終了し、続いて該第3の
    映像音声データが再生される場合、該第1の映像音声データの基準時刻情報の生成を継続
    し、該第2の映像音声データに付加された再生時刻情報が該継続して生成される基準時刻
    情報に同期するようにして第2の映像音声データを再生し、該第3の映像音声データに付
    加された再生時刻情報が該継続して生成される基準時刻情報に同期するようにして第3の
    映像音声データを再生すること、
    を特徴とする映像音声記録再生装置。
  12. 請求項11において、
    該制御手段は、該入力部からの第2の映像音声データの入力が終了すると、該終了のタ
    イミングに応じた該基準時刻情報に基づいて生成した再生時刻情報を該記録メディアに記
    録し、該第1の映像音声データが次回再生され、該第2の映像音声データが再生された後
    、該再生時刻情報に対応する該基準時刻情報に基づくタイミングで該第2の映像音声デー
    タの再生を終了するように制御すること、
    を特徴とする映像音声記録再生装置。
  13. 請求項11または12において、
    1つの第1の映像音声データに対し、複数の第2の映像音声データを、該複数の第2の
    映像音声データそれぞれの再生時刻情報とともに追記すること、
    を特徴とする映像音声記録再生装置。
  14. 請求項11ないし13のいずれかにおいて、
    該第1の映像音声データを再生し、該入力部から第2の映像音声データが入力され追記
    されているときに、該第1の映像音声データの再生が終了した場合、該第1の映像音声デ
    ータを再生する際に生成される基準時刻情報を継続して生成し、該第2の映像音声データ
    に付加される該再生時刻情報は、該継続して生成される基準時刻情報に同期するように生
    成されること、
    を特徴とする映像音声記録再生装置。
  15. 請求項14において、
    該第1の映像音声データを再生し、該第2の映像音声データに付加された再生時刻情報
    が該第1の映像音声データについての基準時刻情報に同期するようにして第2の映像音声
    データを再生しているときに、該第1の映像音声データの再生が終了した場合、該基準時
    刻情報の生成を継続し、該第2の映像音声データに付加された再生時刻情報が該継続して
    生成される基準時刻情報に同期するようにして第2の映像音声データを再生すること、
    を特徴とする映像音声記録再生装置。
  16. 請求項1ないし10において、
    該第1の映像音声データを再生し、該第2の映像音声データに付加された再生時刻情報
    が該第1の映像音声データについての基準時刻情報に同期するようにして第2の映像音声
    データを再生しているときに、該第1の映像音声データの再生が終了し、続いて該第3の
    映像音声データが再生される場合、該第1の映像音声データの基準時刻情報の生成を継続
    し、該第2の映像音声データに付加された再生時刻情報が該継続して生成される基準時刻
    情報に同期するようにして第2の映像音声データを再生し、該第3の映像音声データに付
    加された再生時刻情報が該継続して生成される基準時刻情報に同期するようにして第3の
    映像音声データを再生すること、
    を特徴とする映像音声記録再生装置。
JP2005369023A 2005-12-22 2005-12-22 映像音声記録装置 Active JP4501854B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2005369023A JP4501854B2 (ja) 2005-12-22 2005-12-22 映像音声記録装置
EP20060256315 EP1801809B1 (en) 2005-12-22 2006-12-12 Additional images recording synchronisation while reproducing main image e.g. for Picture in Picture PiP.
US11/637,988 US7907812B2 (en) 2005-12-22 2006-12-12 Image and audio recording/reproducing apparatus
CN2006101699076A CN1988641B (zh) 2005-12-22 2006-12-22 图像声音记录装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005369023A JP4501854B2 (ja) 2005-12-22 2005-12-22 映像音声記録装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2010050034A Division JP4998574B2 (ja) 2010-03-08 2010-03-08 映像音声記録装置

Publications (2)

Publication Number Publication Date
JP2007174256A JP2007174256A (ja) 2007-07-05
JP4501854B2 true JP4501854B2 (ja) 2010-07-14

Family

ID=37888020

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005369023A Active JP4501854B2 (ja) 2005-12-22 2005-12-22 映像音声記録装置

Country Status (4)

Country Link
US (1) US7907812B2 (ja)
EP (1) EP1801809B1 (ja)
JP (1) JP4501854B2 (ja)
CN (1) CN1988641B (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003199045A (ja) * 2001-12-26 2003-07-11 Victor Co Of Japan Ltd 情報記録信号の生成方法、情報信号の再生方法、情報信号の伝送方法、情報記録信号生成装置、情報信号再生装置、情報信号伝送装置、情報信号記録媒体、及び情報信号伝送用プログラム
CN101690188A (zh) * 2007-07-04 2010-03-31 松下电器产业株式会社 影像记录再生装置以及其方法
JP6066712B2 (ja) * 2012-12-19 2017-01-25 キヤノン株式会社 記録装置、記録方法およびプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09293330A (ja) * 1996-04-23 1997-11-11 Victor Co Of Japan Ltd データ記録済ディスク、複数データ同期再生方法、複数データ同期記録・再生方法及び複数データ同期記録方法
JPH11238359A (ja) * 1998-02-19 1999-08-31 Canon Inc ビデオ記録再生装置およびビデオ記録再生方法
JP2001245292A (ja) * 2000-02-29 2001-09-07 Japan Radio Co Ltd データ受信装置、データ送受信システム及び記録媒体
JP2002152688A (ja) * 2000-11-13 2002-05-24 Sony Corp デジタル放送記録再生装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5583652A (en) * 1994-04-28 1996-12-10 International Business Machines Corporation Synchronized, variable-speed playback of digitally recorded audio and video
EP2172937B1 (en) 2001-03-08 2013-01-02 Sony Corporation Data recording apparatus
CA2439467C (en) * 2001-11-30 2015-01-27 Matsushita Electric Industrial Co., Ltd. A method and an apparatus for stream conversion, a method and an apparatus for data recording, and data recording medium
JP2004362723A (ja) * 2003-06-09 2004-12-24 Funai Electric Co Ltd 情報再生装置
JP4810424B2 (ja) * 2003-07-21 2011-11-09 トムソン ライセンシング トリックモード再生を行うためにマルチメディアコンテンツのストリームを修正する方法及びシステム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09293330A (ja) * 1996-04-23 1997-11-11 Victor Co Of Japan Ltd データ記録済ディスク、複数データ同期再生方法、複数データ同期記録・再生方法及び複数データ同期記録方法
JPH11238359A (ja) * 1998-02-19 1999-08-31 Canon Inc ビデオ記録再生装置およびビデオ記録再生方法
JP2001245292A (ja) * 2000-02-29 2001-09-07 Japan Radio Co Ltd データ受信装置、データ送受信システム及び記録媒体
JP2002152688A (ja) * 2000-11-13 2002-05-24 Sony Corp デジタル放送記録再生装置

Also Published As

Publication number Publication date
US20070154183A1 (en) 2007-07-05
CN1988641B (zh) 2011-11-30
US7907812B2 (en) 2011-03-15
CN1988641A (zh) 2007-06-27
EP1801809A2 (en) 2007-06-27
EP1801809A3 (en) 2007-07-18
EP1801809B1 (en) 2011-05-25
JP2007174256A (ja) 2007-07-05

Similar Documents

Publication Publication Date Title
JP3912536B2 (ja) 記録方法、記録装置、記録媒体、撮像装置および撮像方法
US7266288B2 (en) Video/audio playback apparatus and video/audio playback method
JP2007312006A (ja) ストリーム生成装置、撮像装置、データ処理装置、およびストリーム生成方法
JPH10304309A (ja) 信号再生装置及び方法
JPH10262208A (ja) 同期ずれ制御装置及び方法
JP2002015527A (ja) クロック生成装置および記録再生装置
JP4501854B2 (ja) 映像音声記録装置
JP4296676B2 (ja) 画像記録装置および方法、画像再生装置および方法、並びに記録媒体
JP4289253B2 (ja) 記録再生装置
JP2002290921A (ja) 信号処理システム、信号出力装置、信号受信装置、信号処理方法、信号出力方法および信号受信方法
JP4998574B2 (ja) 映像音声記録装置
JP2005006166A (ja) 撮像装置
JP4095221B2 (ja) マルチシーン記録媒体の再生装置及び方法
JP2004007118A (ja) テレビジョン信号再生装置及び再生方法
WO2005122568A1 (ja) データ処理装置およびデータ処理方法
JP4164696B2 (ja) 撮像装置および撮像方法
JP2007243706A (ja) データフォーマット変換装置及びデータフォーマット変換方法
JPH11120705A (ja) ディスク再生方法及び装置
JP4992931B2 (ja) 情報処理装置および方法、プログラム、並びに記録媒体
JP4288442B2 (ja) 記録再生装置および映像処理方法
JP2009065486A (ja) 圧縮画像及び圧縮音声再生装置
JP2015029211A (ja) 撮像装置
JP2006121299A (ja) 記録再生装置
JP2008219921A (ja) 記録装置、記録方法、撮像装置および撮像方法
JP4442257B2 (ja) 再生装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100330

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100412

R151 Written notification of patent or utility model registration

Ref document number: 4501854

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130430

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130430

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140430

Year of fee payment: 4

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250