JP4735311B2 - Audio processing device - Google Patents

Audio processing device Download PDF

Info

Publication number
JP4735311B2
JP4735311B2 JP2006036285A JP2006036285A JP4735311B2 JP 4735311 B2 JP4735311 B2 JP 4735311B2 JP 2006036285 A JP2006036285 A JP 2006036285A JP 2006036285 A JP2006036285 A JP 2006036285A JP 4735311 B2 JP4735311 B2 JP 4735311B2
Authority
JP
Japan
Prior art keywords
audio
data
unit
radio wave
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006036285A
Other languages
Japanese (ja)
Other versions
JP2007221211A5 (en
JP2007221211A (en
Inventor
和生 藤本
悦人 中津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2006036285A priority Critical patent/JP4735311B2/en
Publication of JP2007221211A publication Critical patent/JP2007221211A/en
Publication of JP2007221211A5 publication Critical patent/JP2007221211A5/ja
Application granted granted Critical
Publication of JP4735311B2 publication Critical patent/JP4735311B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Description

本発明は、デジタル放送から受信された圧縮符号化された音声信号を元にして、再記録する音声処理装置に関するものである。   The present invention relates to an audio processing apparatus for re-recording based on a compression-encoded audio signal received from a digital broadcast.

従来、圧縮符号化されて記録されたビデオ信号およびオーディオ信号をCD−ROM、DVD−ROM、半導体メモリ、ハードディスク等の記録媒体から読み出し、デコード(伸張)して出力するデータ再生装置が知られている。データ再生装置が伸張されたデータを装置に接続された映像モニタ、音響スピーカ等に送ることにより、ビデオおよびオーディオの再生が実現される。デジタル放送もまた圧縮符号化されたビデオ信号およびオーディオ信号を受信し、記録媒体からの再生同様に、デコード出力することで再生を実現することができる。   2. Description of the Related Art Conventionally, there is known a data reproducing apparatus that reads a video signal and an audio signal recorded by compression encoding from a recording medium such as a CD-ROM, a DVD-ROM, a semiconductor memory, and a hard disk, and decodes (decompresses) the signal. Yes. Video and audio reproduction is realized by sending the decompressed data to a video monitor, an audio speaker, or the like connected to the apparatus. Digital broadcasts can also be reproduced by receiving compressed and encoded video signals and audio signals and decoding them in the same way as reproduction from a recording medium.

圧縮符号化に関しては、多くの規格が規定されている。例えばMPEG(MotionPicture Experts Group)は、ビデオ信号およびオーディオ信号
の両方を圧縮符号化する規格として知られている。
Many standards are defined for compression coding. For example, MPEG (Motion Picture Experts Group) is known as a standard for compressing and encoding both video signals and audio signals.

以下従来のデジタル放送を受信し、再生するシステムや再生方法について説明する。なお、出願人は、特許文献1、及び特許文献2に開示されているデジタル放送システムを認識しており、本発明の課題を明確にするために、先行技術の内容を従来例として、簡単に説明する。   A conventional system and method for receiving and playing back a digital broadcast will be described below. In addition, the applicant has recognized the digital broadcasting system disclosed in Patent Document 1 and Patent Document 2, and in order to clarify the problem of the present invention, the contents of the prior art are simply described as conventional examples. explain.

まず特許文献1における従来のデジタル放送システムについて説明する。デジタル放送を配信する局側に、複数同じ内容を放送する設備を設け、デジタル放送受信機が、受信電波の強度の低下により、現在視聴中のデジタル放送をこれ以上視聴できなくなった場合、同じ番組を放送する系列局情報を元に、別のデジタル放送局を選局するものである。その結果、受信電波の強度が低下する前に視聴していた番組を、同じ系列の別放送局を選択し、受信できれば、前と同じ番組を継続して視聴することができる。   First, a conventional digital broadcasting system in Patent Document 1 will be described. If a station that distributes digital broadcasts is equipped with facilities that broadcast the same content, and the digital broadcast receiver is unable to view the digital broadcast that is currently being viewed due to a decrease in the strength of the received radio wave, the same program Another digital broadcasting station is selected based on the affiliated station information broadcasting. As a result, if another broadcast station of the same series can be selected and received for a program that was being viewed before the intensity of the received radio wave decreased, the same program as before can be continuously viewed.

次に特許文献2における従来のデジタル放送信号送出システムについて説明する。送信局から受信された第1の信号源からフレーム同期情報を抜き出し、このフレーム同期情報をもとにデコードを実施するとともに、このデコード信号を先のフレーム同期情報を元に、再エンコードして送出するものである。そして第1の信号源から第2の信号源に切り替えるときに、フレーム同期を再設定するためのリセット手段を設け、音声信号の無音期間に切り替えを実施するものである。これらの構成により、元信号のフレーム情報に同期した再エンコードが実施できるため、フレーム同期を行わない場合に比べ、フレーム位相が異なることが無いため、音質の劣化を抑えた再エンコード音声を作り出すことができる。
特開2004−140690号公報(第4−8頁、第1図) 特開2003−209712号公報(第3−6頁、第1図、第3図)
Next, a conventional digital broadcast signal transmission system in Patent Document 2 will be described. Extract the frame synchronization information from the first signal source received from the transmitting station, perform decoding based on this frame synchronization information, and re-encode and send this decoded signal based on the previous frame synchronization information To do. When switching from the first signal source to the second signal source, reset means for resetting the frame synchronization is provided, and switching is performed during the silence period of the audio signal. With these configurations, re-encoding can be performed in synchronization with the frame information of the original signal, so that the frame phase does not differ compared to the case where frame synchronization is not performed. Can do.
JP 2004-140690 A (page 4-8, FIG. 1) Japanese Unexamined Patent Publication No. 2003-209712 (page 3-6, FIGS. 1 and 3)

先行例である特許文献1のシステムでは、デジタル放送が、突然の豪雨やなんらかの電波障害により受信電波の強度が低下してきたときに、系列の放送にすみやかに切り替える手段をもつことにより、継続利用を可能とするものである。このデジタル放送を再生した音声を、DVDなどの記録メディアに記録するためには、受信したデータをそのままデータストリーム記録する場合と、受信したデータを元にして、再エンコードして記録する場合がある。   In the system of Patent Document 1, which is a precedent example, when digital broadcasts have a means for quickly switching to broadcasts when the intensity of received radio waves has dropped due to sudden heavy rain or some kind of radio interference, It is possible. In order to record the audio reproduced from the digital broadcast on a recording medium such as a DVD, there are a case where the received data is recorded as it is and a case where the received data is re-encoded based on the received data. .

放送番組の記録を前提とした場合、受信番組の受信電波の強度が低下した時には、電波が届きにくい場所や状態であると想定されることがある。そのような場合には、他の系列のデジタル放送の受信電波の強度も下がっている場合がある。このようなときには、系列局の同じ番組に切り替えて番組記録することができない。   Assuming recording of a broadcast program, it may be assumed that the radio wave is hard to reach when the intensity of the received radio wave of the received program decreases. In such a case, the intensity of received radio waves of other series of digital broadcasts may be lowered. In such a case, the program cannot be recorded by switching to the same program of the affiliated station.

一般に、デジタル放送を番組記録する場合において、受信電波の強度が下がり続けると、デコードエラーによるノイズ音を発生する場合や、デコード音声が途切れ途切れに再生される場合などを経て、デコード再生が全くできなくなる状態に陥る。これらの再生音声をそのまま再エンコードすれば、受信電波の強度の低下時に記録した箇所は、音声ノイズだらけの聞き苦しい音声となってしまう。そこで再エンコード部並びに記録部が、受信電波の強度を感知し、低下時に記録を停止するなどの手段を講じれば、音声ノイズを記録することを防ぐことができる。しかし、留守録番組予約の場合、利用者の録画予約等の操作設定ミスにより番組記録が失敗したのか、機器個別の故障により番組記録を失敗したのか、受信電波の強度の低下により番組記録を停止したのかがわかりにくく、番組記録機器などの利用者からのクレーム処理に苦慮するものであった。   In general, when recording a digital broadcast program, if the intensity of the received radio wave continues to decrease, a decoded sound can be produced at all times, such as when a noise sound is generated due to a decoding error or when the decoded sound is reproduced intermittently. It falls into a state of disappearing. If these reproduced voices are re-encoded as they are, the portion recorded when the intensity of the received radio wave is reduced becomes an unpleasant voice full of voice noise. Therefore, if the re-encoding unit and the recording unit take measures such as detecting the intensity of the received radio wave and stopping the recording when the re-encoding unit and the recording unit decrease, it is possible to prevent recording of audio noise. However, in the case of a reservation for an absence recording program, the program recording is stopped due to a mistake in the operation setting such as a recording reservation by the user, a program recording failure due to an individual device failure, or a decrease in the intensity of received radio waves. It was difficult to understand what was happening, and it was difficult to handle complaints from users of program recording devices.

また特許文献2は、放送局から受信された信号からフレーム同期情報を抜き出し、このフレーム同期情報をもとにデコードした音声を、フレーム同期情報を元に、再エンコードするものである。従って、再エンコードした音声は、元のデコード音声とフレーム単位での同期がとれているため、音質の劣化もなく再エンコード音声をつくりだすことができる。しかしながら、受信電波の強度が低下した場合、放送局から受信される信号の劣化により、デコードを継続することが困難になり、レベルが下がり続けると、デコードが不可状態となる。デコードができなければ、フレーム同期情報を抜き出すことはできない。   Further, Patent Document 2 extracts frame synchronization information from a signal received from a broadcast station, and re-encodes audio decoded based on the frame synchronization information based on the frame synchronization information. Accordingly, since the re-encoded audio is synchronized with the original decoded audio in units of frames, the re-encoded audio can be produced without any deterioration in sound quality. However, when the intensity of the received radio wave decreases, it becomes difficult to continue decoding due to deterioration of the signal received from the broadcasting station, and if the level continues to decrease, decoding becomes impossible. If it cannot be decoded, the frame synchronization information cannot be extracted.

このため移動中の車両内で、放送受信を妨害する障害物による受信電波の強度の低下が発生し、障害物を通過後に受信電波の強度が回復すれば(特許文献2の解釈では、第2の信号源が相当)、回復後の切り替えを行い、フレーム同期を再設定するためにリセット手段を設け、無音区間を経て、フレーム再確立が必要となる。レベル復帰時に記録を再開するために、音声のフレーム同期をとりなおす必要がある。そこで、復帰時の同期確立のために、フレーム同期をとりなおすため、音声無音区間が長く記録されてしまうことになる。特許文献2に対し、受信電波の強度の低下を考慮すれば、受信電波の強度の低下からの復帰ごとにフレーム同期をかけなおすことになり、無音区間が多い記録となってしまう。   For this reason, in a moving vehicle, if the strength of the received radio wave decreases due to an obstacle that interferes with broadcast reception, and the intensity of the received radio wave recovers after passing through the obstacle (the interpretation of Patent Document 2 shows that the second Therefore, it is necessary to re-establish the frame after a silent period by switching after recovery and providing reset means for resetting the frame synchronization. In order to resume recording when the level returns, it is necessary to re-synchronize the audio frame. Therefore, since the frame synchronization is reestablished in order to establish the synchronization at the time of return, the voice silent section is recorded for a long time. Considering the decrease in the strength of the received radio wave with respect to Patent Document 2, the frame synchronization is re-applied every time when the strength of the received radio wave is reduced, resulting in a recording with many silent intervals.

本発明は、以上のような課題を解決するためになされたもので、受信電波の強度の低下を捉え、デコード再生が不可となる受信電波の強度にいたる前に、同期状態を保ったまま、オーディオフレーム単位で出力一時停止状態に遷移させる手段を提供することにより、記録中断からの再開の遷移をスムーズに切り替えるとともに、中断時のデータ処理記録を残す装置を提供するものである。   The present invention was made in order to solve the above-described problems, captures a decrease in the intensity of the received radio wave, and maintains the synchronized state before reaching the intensity of the received radio wave that makes decoding reproduction impossible. By providing means for transitioning to an output pause state in units of audio frames, a device for smoothly switching the transition from resumption to recording interruption and leaving data processing recording at the time of interruption is provided.

本発明による音声処理装置は、オーディオデータを含むデジタル放送を受信する受信手段と、前記デジタル放送の電波強度を検出する電波強度検出手段と、前記デジタル放送に含まれるオーディオデータを記憶するバッファ手段と、前記バッファ手段に記憶されたオーディオデータをデコードするデコード手段と、前記バッファ手段に記憶されたオーディオデータをフレーム単位で出力するデータ出力手段と、前記データ出力手段から出力されたフレーム単位のオーディオデータをエンコードするエンコード手段と、を備え、前記電波強度検出手段が規定値以下の電波強度を検出し、かつ、前記バッファ手段がオーディオデータを出力できない場合、または、前記電波強度検出手段が規定値以下の電波強度を検出し、かつ、前記デコード手段が前記バッファ手段から出力されたオーディオデータをデコードできない場合、所定のデータを前記エンコード手段に出力し、前記エンコード手段は、前記所定のデータを受け付けた場合、前記データ出力手段から出力されたフレーム単位のオーディオデータのエンコードを停止する。 An audio processing apparatus according to the present invention includes a receiving unit that receives a digital broadcast including audio data, a radio field intensity detecting unit that detects a radio field intensity of the digital broadcast, and a buffer unit that stores audio data included in the digital broadcast. Decoding means for decoding the audio data stored in the buffer means, data output means for outputting the audio data stored in the buffer means in units of frames, and audio data in units of frames output from the data output means Encoding means for encoding the radio wave intensity detection means when the radio wave intensity detection means detects radio wave intensity below a specified value and the buffer means cannot output audio data, or the radio wave intensity detection means does not exceed a specified value. And the decoding means If you can not decode the audio data outputted from said buffer means, outputs a predetermined data to said encoding means, said encoding means, when receiving said predetermined data, a frame unit output from the data output means Stop encoding audio data.

本発明の音声処理装置は、電波強度が規定値よりも低下している際において、エンコード手段が、エンコード予定のオーディオデータに替えて別のデータをエンコードできる。これによって、エンコーダ単体での処理をより高速にできるようになる。In the sound processing apparatus of the present invention, when the radio field intensity is lower than the specified value, the encoding means can encode other data instead of the audio data to be encoded. As a result, the processing of the encoder alone can be made faster.

(実施の形態1)
はじめに、本発明の実施の形態1による音声処理装置の構成を示すブロック図である図1を主として参照しながら、本実施の形態1の構成について説明する。図1は、デジタル放送を受信する再生部10と、再生部10で受信されたデータを記録する記録部20から構成される音声処理装置を示している。
(Embodiment 1)
First, the configuration of the first embodiment will be described with reference mainly to FIG. 1 which is a block diagram showing the configuration of the speech processing apparatus according to the first embodiment of the present invention. FIG. 1 shows an audio processing apparatus including a playback unit 10 that receives a digital broadcast and a recording unit 20 that records data received by the playback unit 10.

再生部10とは、セットトップボックス(以下STBと略す)や、デジタル放送レコーダなどで衛星デジタル放送を受信する部位、パーソナルコンピュータ(以下PCと略す)のチューナ部位などであり、記録部20とは、受信されたデータをハードディスクや光ディスク、半導体メモリなどにエンコード記録する記録機器である。   The playback unit 10 is a set-top box (hereinafter abbreviated as STB), a part that receives satellite digital broadcasts with a digital broadcast recorder or the like, a tuner part of a personal computer (hereinafter abbreviated as PC), and the like. A recording device that encodes and records received data on a hard disk, an optical disk, a semiconductor memory, or the like.

まず、信号処理の流れから説明する。アンテナ部1において、複数のデジタル放送局の送出する電波を受信し、入力検出部2が、アンテナ部1が受信した放送電波から利用者が選局したひとつの放送局を選ぶ復調部内で復調し、エラー訂正を行い、トランスポートストリームを出力する。トランスポートストリームは、入力検出部2内のトランスポートデコーダ部で、パケットID別に、映像、音声、番組情報など各々のデータにフィルタリングされ、一旦バッファ3に一時記録される。映像、音声のデータは、デコード部4でデコードされ、画像表示部(図示せず)や、音声出力部(図示せず)から出力される。番組情報などのその他のデータは、バッファ3から再生情報生成部5へ送られる。またデコード部4で発生したデコードエラーなどの情報についても再生情報再生部5へ送られる。入力検出部2は、天候の急変などで発生した視聴中の受信電波の強度の低下を検出し、復調部、トランスポートデコーダからのエラーレベルを、再生情報生成部5に送る。   First, the flow of signal processing will be described. The antenna unit 1 receives radio waves transmitted from a plurality of digital broadcasting stations, and the input detection unit 2 demodulates the demodulating unit that selects one broadcasting station selected by the user from the broadcast radio waves received by the antenna unit 1. Then, error correction is performed and a transport stream is output. The transport stream is filtered into data such as video, audio, and program information for each packet ID by the transport decoder unit in the input detection unit 2 and temporarily recorded in the buffer 3. Video and audio data is decoded by the decoding unit 4 and output from an image display unit (not shown) or an audio output unit (not shown). Other data such as program information is sent from the buffer 3 to the reproduction information generation unit 5. Information such as a decoding error generated in the decoding unit 4 is also sent to the reproduction information reproducing unit 5. The input detection unit 2 detects a decrease in the intensity of the received radio wave during viewing that has occurred due to a sudden change in weather and sends the error level from the demodulation unit and transport decoder to the reproduction information generation unit 5.

デコード部4でデコードしたオーディオデコードデータは、記録に有効なオーディオデータとして、オーディオデータ出力部6から出力される。さらに記録部20に、再生情報生成部5で生成された再生情報を再生情報出力部7が編集し、オーディオデータと共に出力される。   The audio decoded data decoded by the decoding unit 4 is output from the audio data output unit 6 as audio data effective for recording. Further, the reproduction information output unit 7 edits the reproduction information generated by the reproduction information generation unit 5 on the recording unit 20 and outputs it together with the audio data.

記録部20は、再入力部12が、オーディオデータと再生情報を受け取り、エンコード部13が、再生情報から再生部10側の再生状況を知った上で、デコードされたオーディオデコードデータを元にオーディオエンコードを実行し、記録メディア等に記録する。   In the recording unit 20, the re-input unit 12 receives the audio data and the reproduction information, and the encoding unit 13 knows the reproduction state on the reproduction unit 10 side from the reproduction information, and then the audio based on the decoded audio decoded data. Encoding is performed and recorded on a recording medium or the like.

入力検出部2に入力されるデジタルデータストリームは、デジタル放送等のMPEGなどの方式によるデジタル圧縮符号化されたオーディオ・ビデオ信号である。デジタル放送チューナ装置等からデータの供給を受け、多重化されて記録されているオーディオ・ビデオ信号を分離し、圧縮ビデオデータ及び圧縮オーディオデータの分離とビデオ再生時刻情報とオーディオ再生時刻情報を抽出する入力解析を行うものである。   The digital data stream input to the input detection unit 2 is an audio / video signal that has been digitally compressed and encoded by a method such as MPEG such as digital broadcasting. Receives data from a digital broadcast tuner device, etc., separates audio / video signals that are multiplexed and recorded, extracts compressed video data and compressed audio data, and extracts video playback time information and audio playback time information Input analysis is performed.

MPEGでは、ビデオおよびオーディオの同期再生を実現するために、ビデオとオーディオの各アクセスユニットと呼ばれるデコードの単位ごと(ビデオは1フレーム、オーディオは1オーディオフレーム)に、いつ再生すべきかの時刻を管理するためのタイムスタンプ値が付加されている。このタイムスタンプ値は、PTS(Presentation Time Stamp)と呼ばれ、オーディオ用はオーディオPTS(以下「APTS」と記述する)およびビデオ用はビデオPTS(以下「VPTS」と記述する)が規定されている。PTSが上述のシステム時刻基準STCに一致したときに、そのPTSが付加されたアクセスユニットが再生のために出力される。PTSの精度は、90kHzのクロックで計測した値であり、33ビット長で表されている。90kHzで計測する理由は、NTSC、PALの両方のビデオ方式のフレーム周波数の公倍数であることと、オーディオの1サンプル周期よりも高い精度を得るためである。   In MPEG, in order to realize synchronized playback of video and audio, the time of playback is managed for each decoding unit called video and audio access units (one frame for video and one audio frame for audio). A time stamp value is added. This time stamp value is called PTS (Presentation Time Stamp), and audio PTS (hereinafter referred to as “APTS”) for audio and video PTS (hereinafter referred to as “VPTS”) for video are defined. . When the PTS matches the above-mentioned system time reference STC, the access unit to which the PTS is added is output for reproduction. The accuracy of PTS is a value measured with a 90 kHz clock, and is represented by a 33-bit length. The reason for measuring at 90 kHz is that it is a common multiple of the frame frequency of both NTSC and PAL video systems, and to obtain higher accuracy than one sample period of audio.

図2は、オーディオデコードの詳細な機能ブロックの構成例を示す。 入力検出部2は、データストリームから、デジタル圧縮符号化されたオーディオおよびビデオデータを分離して抽出するとともに、オーディオパックに付加されたAPTSをオーディオ再生時刻情報として抽出するとともに、ビデオパックに付加されたVPTSをビデオ再生時刻情報として抽出する。バッファ3には、圧縮オーディオバッファ部31と、オーディオ再生時刻情報管理部32を有する。圧縮オーディオバッファ部31は、入力検出部2によって分離されたオーディオデータを格納することができる半導体メモリである。そのバッファサイズは、取り扱う符号化オーディオデータの圧縮率等によって異なり、例えば数キロバイトから数十キロバイト程度である。オーディオ再生時刻情報管理部32は、圧縮オーディオバッファ部31に格納されたオーディオデータとオーディオ再生時刻情報を関連づけるテーブルを生成し、管理する。   FIG. 2 shows a detailed functional block configuration example of audio decoding. The input detection unit 2 separates and extracts digitally compressed and encoded audio and video data from the data stream, extracts APTS added to the audio pack as audio playback time information, and adds it to the video pack. VPTS is extracted as video playback time information. The buffer 3 includes a compressed audio buffer unit 31 and an audio playback time information management unit 32. The compressed audio buffer unit 31 is a semiconductor memory that can store the audio data separated by the input detection unit 2. The buffer size varies depending on the compression rate of the encoded audio data to be handled, and is, for example, about several kilobytes to several tens of kilobytes. The audio playback time information management unit 32 generates and manages a table that associates audio data stored in the compressed audio buffer unit 31 with audio playback time information.

オーディオデコード部41は、圧縮符号化されたオーディオデータの属性情報(オーディオヘッダ情報)を解析するとともに、圧縮オーディオバッファ部31に格納されているオーディオデータをAPTS情報に従ってデコードする。オーディオデコード部41にはPCM(Pulse Code Modulation)バッファ部42およびオーディオ出力部43が設けられている。PCMバッファ部42は、デコードしたオーディオデータを格納する。オーディオ出力部43は、外部へオーディオデータを出力する。このオーディオデータは、さらに記録部20に出力されるオーディオデータ出力部6に出力される。   The audio decoding unit 41 analyzes attribute information (audio header information) of the compression-coded audio data and decodes the audio data stored in the compressed audio buffer unit 31 according to the APTS information. The audio decoding unit 41 is provided with a PCM (Pulse Code Modulation) buffer unit 42 and an audio output unit 43. The PCM buffer unit 42 stores the decoded audio data. The audio output unit 43 outputs audio data to the outside. The audio data is further output to the audio data output unit 6 that is output to the recording unit 20.

なお図7に示すように、デコードしたオーディオデータを、オーディオデータ出力部6へ出力するのではなく、バッファに蓄えられたストリーム形式のデータそのものをオーディオデータ出力部6へ出す場合がある。図1と図7の構成の差は、図1の場合はデコードされたオーディオデータをオーディオデータ出力部6に出力するが、図7の場合は、デコードされる前のストリーム形式のデータをそのままオーディオデータ出力部6に出力するものである。図7の場合は、例えば、オーディオ出力部43からドルビーデジタル方式等のエンコードデジタル信号方式であるストリームのままで出力する。このような場合、オーディオデコードデータを出力するのではなく、デコードと同時に、STCを参照し、APTSが一致もしくは超過した時点で、バッファ3から、ストリーム形式のオーディオデータを出力する。   As shown in FIG. 7, the decoded audio data is not output to the audio data output unit 6, but the stream format data stored in the buffer itself may be output to the audio data output unit 6. The difference between the configurations of FIG. 1 and FIG. 7 is that in the case of FIG. 1, the decoded audio data is output to the audio data output unit 6, but in the case of FIG. The data is output to the data output unit 6. In the case of FIG. 7, for example, the audio output unit 43 outputs the stream as an encoded digital signal system such as a Dolby digital system. In such a case, instead of outputting the audio decode data, the STC is referred to simultaneously with the decoding, and the stream format audio data is output from the buffer 3 when the APTS matches or exceeds.

なお、オーディオデコード部41は、各々別々の半導体集積回路等とその制御用のプログラムにより実現することができる。しかし、それぞれの機能を実現できる限り、1つの半導体集積回路等とその制御用のプログラムによって実現してもよい。   The audio decoding unit 41 can be realized by a separate semiconductor integrated circuit or the like and a control program thereof. However, as long as each function can be realized, it may be realized by one semiconductor integrated circuit and the control program.

ビデオ信号においても、オーディオ信号と同様に扱われる。入力検出部2によって分離されたビデオデータを、圧縮ビデオバッファ部に一次格納し、ビデオ再生時刻情報管理部として、ビデオデータとビデオ再生時刻情報を関連づけたテーブルを生成し、管理する。   Video signals are handled in the same way as audio signals. The video data separated by the input detection unit 2 is temporarily stored in the compressed video buffer unit, and a table associating the video data with the video reproduction time information is generated and managed as a video reproduction time information management unit.

ビデオデコード部は、圧縮符号化されたビデオデータの属性情報(ビデオヘッダ情報)を解析するとともに、圧縮ビデオバッファ部に格納されているビデオデータをビデオ再生時刻情報に従ってデコードする。ビデオデコード部にはフレームバッファ部およびビデオ出力部が設けられ、フレームバッファ部は、デコードしたビデオデータを格納し、ビデオ出力部は、ビデオデータを出力する。   The video decoding unit analyzes attribute information (video header information) of the compressed and encoded video data, and decodes the video data stored in the compressed video buffer unit according to the video playback time information. The video decoding unit includes a frame buffer unit and a video output unit, the frame buffer unit stores the decoded video data, and the video output unit outputs the video data.

ビデオデータおよびオーディオデータのデコードタイミングおよび再生タイミングは、システム時刻基準参照部40によって実現される。システム時刻基準参照部40は、再生部10の内部においてシステム時刻基準STCを生成する。STCを生成するためには、BSデジタル放送で使用されるトランスポートストリーム(TS)のときは、PCR(Program Clock Reference:プログラム時刻基準参照値)を用い、 システム時刻基準参照部40は、ビデオデータの最終バイトの到着時に、PCRの値をシステム時刻基準STCと同じ値に設定する。これにより基準となる時刻を設定することができる。デコード部4は、STCがAPTSに一致したときにそのPTSが付加されていたアクセスユニットを出力し再生させる。PTSの周波数は90kHzであるから、この精度の範囲内で、STCとAPTSとの同期をとれるようにオーディオデータをデコードする。ビデオ信号についても、STCとVPTSとの同期がとれるようにビデオデータをデコードする。これにより、ビデオおよびオーディオの同期再生を実現できる。   Decoding timing and reproduction timing of video data and audio data are realized by the system time base reference unit 40. The system time base reference unit 40 generates a system time base STC inside the playback unit 10. In order to generate STC, in the case of a transport stream (TS) used in BS digital broadcasting, PCR (Program Clock Reference) is used, and the system time base reference unit 40 At the arrival of the last byte, the value of PCR is set to the same value as the system time reference STC. Thereby, a reference time can be set. The decoding unit 4 outputs and reproduces the access unit to which the PTS is added when the STC matches the APTS. Since the frequency of the PTS is 90 kHz, the audio data is decoded so that the STC and the APTS can be synchronized within this accuracy range. Also for the video signal, the video data is decoded so that STC and VPTS can be synchronized. As a result, synchronized playback of video and audio can be realized.

デジタル放送から受信したオーディオデータは、AAC(Advanced Audio Coding)符号化のような音声信号圧縮方式が使用されている。アナログベースバンド音声を、48KHzのサンプリング周波数でサンプリングし、2048サンプル毎にフレーミングを行い、MDCT(Modified Discreate Cosine Transform)変換、量子化符号化などの手法により音声圧縮されている。エンコード、デコードを繰り返すと、音声品質は徐々に劣化する。ただし、エンコード、デコードが同一のフレーム構成で行われる際には、同一フレーム構成で行われていない場合で、劣化が少ないことが知られており、受信したオーディオデータを再エンコードする場合は、できるだけ、デコードしたオーディオデータのフレーム単位で行う方がよい。   Audio data received from a digital broadcast uses an audio signal compression method such as AAC (Advanced Audio Coding) coding. Analog baseband speech is sampled at a sampling frequency of 48 KHz, framing is performed every 2048 samples, and speech compression is performed by a technique such as MDCT (Modified Discrete Cosine Transform) conversion, quantization coding, or the like. When encoding and decoding are repeated, the voice quality gradually deteriorates. However, when encoding and decoding are performed with the same frame configuration, it is known that there is little degradation when the same frame configuration is not performed. When re-encoding received audio data, It is better to perform this in units of frames of decoded audio data.

図3及び、図5を用いて、受信電波の強度が低下してきたときの音声処理装置の動作を説明する。受信電波の強度が低下する前は、デコード部4にて、オーディオフレーム単位でデコードされたオーディオデータを準備し、オーディオデータ出力部6から出力されている。S401にて、受信電波の強度を測定し、S402にて、トランスポートデコードエラーやオーディオデコードが発生することのない規定値以上の電波の強度であるか判定する。規定値以上であれば、S403でパケットID別に分類されたオーディオデータを、バッファ3内に格納する。S404にて、そしてオーディオデータをデコードする。   The operation of the speech processing apparatus when the intensity of the received radio wave has decreased will be described using FIG. 3 and FIG. Before the received radio wave intensity decreases, the decoding unit 4 prepares audio data decoded in units of audio frames and outputs the audio data from the audio data output unit 6. In step S401, the intensity of the received radio wave is measured. In step S402, it is determined whether the radio wave intensity is equal to or higher than a specified value at which no transport decoding error or audio decoding occurs. If it is equal to or greater than the specified value, the audio data classified by packet ID in S403 is stored in the buffer 3. In S404, the audio data is decoded.

受信電波の強度が規定値を下回った状態では、デコードエラーが発生する可能性がある。しかしバッファ3内には、受信されたオーディオデータが蓄えられているので、S405にてバッファ内のデータをデコード部4に送り、S406で、オーディオフレーム単位でデコード出力が可能かどうかを判定する。デコード可能な場合、S407でデコードエラーが発生しないことを確認し、発生がなければ、S401に戻る。   When the received radio wave intensity is below the specified value, a decoding error may occur. However, since the received audio data is stored in the buffer 3, the data in the buffer is sent to the decoding unit 4 in S405, and it is determined in S406 whether decoding output is possible in units of audio frames. If decoding is possible, it is confirmed in S407 that no decoding error has occurred. If there is no decoding error, the process returns to S401.

バッファ3の容量は、数オーディオフレームが蓄えられる容量が望まれる。1オーディオフレーム単位で、出力するオーディオデータを準備する構成であるためである。放送方式が異なり、使用される符号化方式が異なる場合は、各符号化方式によりオーディオフレームサイズが異なる。受信できる符号化方式を考慮した容量でなければならない。   The capacity of the buffer 3 is desired to be a capacity for storing several audio frames. This is because the audio data to be output is prepared in units of one audio frame. When the broadcasting method is different and the encoding method used is different, the audio frame size is different depending on each encoding method. The capacity must be based on the encoding method that can be received.

一方、S406でデータ出力が不可能もしくは、S407で、デコードエラー発生の場合は、S408で、オーディオフレームデータを出力する予定だった単位で、オーディオデータ出力部6が、ポーズデータを作成し、出力する。このポーズデータ出力は、受信電波の強度が規定値以上に復帰するまでの間、継続される。受信電波の強度が低下している間は、デコードエラー等が検出されるが、デコードエラーが発生する以前にバッファ再生の後、ポーズデータに切り替えるため、記録部20側は、デコードエラー時のノイズ音声などの異音が、一切送られることはない。   On the other hand, if it is impossible to output data in S406 or if a decoding error occurs in S407, the audio data output unit 6 creates pause data and outputs it in the unit where the audio frame data was scheduled to be output in S408. To do. This pause data output is continued until the intensity of the received radio wave returns to a specified value or more. While the received radio wave intensity is decreasing, a decoding error or the like is detected, but since the buffer is played back before the decoding error occurs, the recording unit 20 switches to the pause data. No abnormal sound such as voice is sent.

受信電波の強度が低下している状態からの復帰は、図6を用いて説明する。S421は、受信電波の強度が低く、ポーズデータを出力している状態である。この状態から、S422において、受信電波の強度が規定値レベルに回復したかどうかを判定し、レベル以下であれば、ポーズデータを出し続ける。一方回復すれば、S423にて、バッファ3へのオーディオデータ格納を再開し、S424にて、デコードエラーが発生していないことを確認して、S425にてオーディオフレーム単位でデコードした音声の出力を再開する。ポーズ状態から通常のオーディオデータ出力への復帰は、48KHzのサンプリング周波数でサンプリングし、2048サンプル毎にフレーミングされたオーディオフレーム単位の倍数の位置で行われる。これは、放送局側からの放送が受信電波の強度の低下がなければ、継続されているはずであるから、オーディオフレーム単位の倍数の位置で復帰すれば、中断前と同じ品質の音声品質を得られることになる。また復帰前のオーディオデータ情報との位相関係もあっている。復帰時において、オーディオフレーム再生及び再エンコードのために、再同期をはかる必要がなく、すばやく同期録画のための再エンコード処理を再開することができる。   The return from the state where the intensity of the received radio wave is reduced will be described with reference to FIG. S421 is a state in which the intensity of the received radio wave is low and pause data is being output. From this state, in S422, it is determined whether or not the intensity of the received radio wave has recovered to the specified value level. On the other hand, if the data is recovered, the storage of the audio data in the buffer 3 is resumed in S423, and in S424, it is confirmed that no decoding error has occurred. In S425, the audio output decoded in units of audio frames is output. Resume. The return from the pause state to normal audio data output is performed at a position that is a multiple of the audio frame unit sampled at a sampling frequency of 48 KHz and framed every 2048 samples. This is because broadcasting from the broadcasting station side should continue if there is no decrease in the intensity of the received radio wave, so if it returns at a position that is a multiple of the audio frame unit, the audio quality is the same as before the interruption. Will be obtained. There is also a phase relationship with the audio data information before return. At the time of return, there is no need to re-synchronize for audio frame playback and re-encoding, and the re-encoding process for synchronized recording can be resumed quickly.

つまり、受信電波の強度が低下した期間も、途切れる前の同期状態を保ち続けることによって、リセット処理を施さなくてもすばやく同期状態に復帰できるものである。しかしながら、受信電波の強度が低下している間に、利用者が記録を要望していた番組が終了し、別の番組が始まった場合には、互いの番組間で同期状態が継続されている保証はないので、改めてリセット処理を施して、フレーム同期をとりなおす必要がある。   That is, even during a period when the intensity of the received radio wave is reduced, the synchronization state can be quickly restored without performing the reset process by maintaining the synchronization state before the interruption. However, if the program that the user requested to be recorded ends and another program starts while the strength of the received radio wave is decreasing, the synchronized state continues between the programs. Since there is no guarantee, it is necessary to reset the frame and re-synchronize the frame.

さらに、図3の受信電波の強度復帰時に、規定値を超える状態になってもデコードエラーなし状態を確認してから、通常デコード出力状態に復帰する理由は、規定値を超えかつデコードエラーが発生しないような安定状態にならないと、天候が不安定などの状態により、再び受信電波の強度が低下する可能性が高いからである。   Furthermore, when the received radio wave strength in Fig. 3 is restored, the reason for returning to the normal decode output state after confirming that there is no decoding error even if the specified value exceeds the specified value exceeds the specified value and a decoding error occurs. This is because if the stable state is not achieved, the strength of the received radio wave is likely to decrease again due to unstable weather conditions.

規定値は、以下のように決定する。エラー訂正が不可能なデコードエラーが発生する状態を引き起こす電波強度に至る前に、設定する。規定値を下回っても、デコードエラーが発生しオーディオデータが出力できなくなるまでに、少なくとも、バッファ3にある1〜数オーディオフレームデータをだせるだけの余裕が必要である。つまり、デコードエラーが発生する電波強度より若干高めの値を設定することになる。   The specified value is determined as follows. Set before reaching the field strength that causes a decoding error that cannot be corrected. Even if it falls below the specified value, it is necessary to allow at least one to several audio frame data in the buffer 3 before a decoding error occurs and audio data cannot be output. That is, a value slightly higher than the radio wave intensity at which a decoding error occurs is set.

図4は、オーディオデータ及び、再生情報を伝えるデータ出力フォーマットの例を示している。例えば、これは光出力などで用いられるIEC958フォーマットを利用した場合であり、1サンプルは、サンプリング周波数の逆数とする。この1サンプルのなかのオーディオデータ部に、オーディオデコードしたリニアPCMデータ(以下LPCMと略)や、ストリームデータをオーディオデータとして、格納する。ストリームデータというのは、国内のBSデジタル放送で使われているAAC方式のエンコードデジタル信号であるストリーム形式のデータをLPCMにデコード変換することなく、ストリーム形式のデータの状態のままで出力する。   FIG. 4 shows an example of a data output format for transmitting audio data and reproduction information. For example, this is a case where the IEC958 format used for optical output or the like is used, and one sample is the reciprocal of the sampling frequency. Audio-decoded linear PCM data (hereinafter abbreviated as LPCM) and stream data are stored as audio data in the audio data portion of one sample. The stream data is output in the state of the stream format data without decoding and converting the stream format data, which is an AAC encoded digital signal used in domestic BS digital broadcasting, into LPCM.

再生情報は、図4の予備bit領域を使用してもよいし、音声属性情報を伝える場所である図4中の再生情報bit領域でもよい。例えば、再生情報bit領域中のチャンネルステータス領域(図示せず)や、ユーザデータ領域(図示せず)でもよい。プリアンブル領域、もしくはオーディオデータ領域以外の領域を使用することにより、別の伝送路を設けることなく、再生部10側の情報を、記録部20側に伝えることができる。そして再生情報ビットに、音声の属性情報(オーディオサンプルワード長、プリエンファシス、オーディオチャンネル数や、標本化周波数を規定するデータ)だけでなく、再生情報生成部5が収集したデコードエラーの情報や、受信電波の強度を示す値、またデコード時刻情報など付与する。また、ポーズデータに関しても、IEC958で規定しているポーズデータをオーディオデータとして出力することにより、IEC958などで利用している半導体や出力フォーマットをそのまま利用することができる。   The reproduction information may use the spare bit area in FIG. 4 or the reproduction information bit area in FIG. 4 which is a place where the audio attribute information is transmitted. For example, a channel status area (not shown) or a user data area (not shown) in the reproduction information bit area may be used. By using an area other than the preamble area or the audio data area, information on the reproducing unit 10 side can be transmitted to the recording unit 20 side without providing another transmission path. In addition to the audio attribute information (audio sample word length, pre-emphasis, the number of audio channels, and data defining the sampling frequency), the reproduction information bits collect decoding error information collected by the reproduction information generation unit 5, A value indicating the strength of the received radio wave, decoding time information, and the like are given. As for the pause data, by outputting the pause data defined in IEC958 as audio data, the semiconductor and output format used in IEC958 can be used as they are.

この伝送は、装置内部の専用バスであったり、IEC958を用いた転送であったり、HDMIや、IEEE1394等のデジタルインターフェースを用いてもよい。必要なことは、オーディオデータの伝送と同時に、再生情報を伝送することである。別経路での伝送路で構成された場合、その伝送路がなんらの障害で使えなくなったときには、障害内容を記録部20側に伝えられなくなる。   This transmission may be a dedicated bus inside the apparatus, a transfer using IEC958, or a digital interface such as HDMI or IEEE1394. What is required is to transmit reproduction information simultaneously with transmission of audio data. In the case where the transmission path is configured as a separate path, when the transmission path becomes unusable due to any failure, the failure content cannot be transmitted to the recording unit 20 side.

また受信電波の強度が低下している間、ポーズデータを送り続けるのは、光出力などにより、デコード音声を、接続アンプなどを介して、モニタ出力音声をだす場合にも都合がよいからである。接続アンプは、送られてきた音声が、ポーズデータである場合は、前の同期状態を保ったまま、出力ミュート処理をして、ポーズからの復帰のための待機処理をしている。つまり、記録部20側と同じオーディオデータを外部アンプへ出力可能であり、記録用とアンプ出力用の出力音声データを兼用することができる。   The reason why the pause data is continuously sent while the intensity of the received radio wave is low is that it is convenient for the case where the decoded audio is output by the optical output etc. and the monitor output audio is output via the connection amplifier. . When the transmitted audio is pause data, the connection amplifier performs output mute processing while maintaining the previous synchronization state, and performs standby processing for returning from the pause. In other words, the same audio data as that on the recording unit 20 side can be output to the external amplifier, and the output audio data for recording and amplifier output can be shared.

次に記録部20側のデータ処理について説明する。記録部20は、再入力部12から入力されたオーディオデータを元にオーディオエンコードを実施する。オーディオデータが、LPCMであった場合は、LPCM形式のまま、もしくは、利用者が指定した圧縮符号化方式であるオーディオエンコードを実施することにより、オーディオエンコード記録される。ビデオエンコードデータと同時にAV記録する場合は、ビデオ側とオーディオ側で記録するPTS情報をあわせて記録することにより、再生時にAV同期可能な記録を行うことができる。一方、オーディオ信号をストリームデータ形式のまま記録する場合は、改めてエンコード処理を施すことなく、所望のビデオ信号との同期をとるためのPTS情報を付与し、AV同期をとった記録を実施することができる。   Next, data processing on the recording unit 20 side will be described. The recording unit 20 performs audio encoding based on the audio data input from the re-input unit 12. If the audio data is LPCM, the audio data is recorded in the LPCM format or by performing audio encoding which is a compression encoding method designated by the user. When AV recording is performed at the same time as video encoding data, recording that can be synchronized with AV at the time of reproduction can be performed by recording the PTS information recorded on the video side and the audio side together. On the other hand, when the audio signal is recorded in the stream data format, PTS information for synchronizing with a desired video signal is added and recording with AV synchronization is performed without performing encoding processing again. Can do.

途中でオーディオデータとして、ポーズデータが送られてきた場合について説明する。オーディオデータがLPCM形式の場合、例えば、エンコード部13が、音量レベル0のLPCMデータをエンコードしたデータに差し替えることにより、エンコード記録を継続することができる。つまり受信電波の強度が低下した期間は、無音データが記録され続けることになる。また、利用者の選択により、受信電波の強度が低下している間は、オーディオエンコード自体を一旦停止し、記録をとりやめるようにしてもよい。但し、記録をとりやめた期間もあとで、利用者がその記録を取りやめた期間を確認できる情報を残しておけば、留守録などで、利用者が記録時間に立ち会っていなかったとしても、あとで、何が原因で記録できないことがあったかをたどることができる。またオーディオデータがストリームデータ形式であった場合も、LPCM時と同様にデータを差し替えるもしくは、記録を一時中止の方法をとることによって、受信電波の強度の低下期間を乗り越える。例えば、AAC形式のストリームデータであった場合、ポーズデータ受信期間は、音量レベル0のLPCMデータをAACエンコードしたデータをあらかじめ準備しておき、ポーズデータの受信が継続される間ずっと、音量レベル0をAACエンコードしたデータに差し替える。ポーズデータを送出する側が、オーディオフレーム単位でポーズデータをだすことを保障しているので、記録部もオーディオフレーム単位で、音量0レベルのAACエンコードデータに差し替えればよい。   A case where pause data is sent as audio data along the way will be described. When the audio data is in the LPCM format, for example, the encoding unit 13 can continue the encoding recording by replacing the LPCM data of the volume level 0 with the encoded data. That is, silence data continues to be recorded during the period when the intensity of the received radio wave is reduced. Further, while the intensity of the received radio wave is decreasing due to the user's selection, the audio encoding itself may be temporarily stopped to stop recording. However, if you leave information that allows the user to confirm the period when the recording was canceled after the period when the recording was canceled, even if the user did not witness the recording time, such as an answering record, , You can trace what caused recording failure. Also, when the audio data is in the stream data format, the period of decrease in the received radio wave intensity is overcome by replacing the data as in the LPCM or by taking a recording suspension method. For example, in the case of stream data in the AAC format, during the pause data reception period, data obtained by AAC encoding the LPCM data at the volume level 0 is prepared in advance, and the volume level 0 is kept while the pause data reception is continued. Is replaced with AAC encoded data. Since the side that sends pause data guarantees that pause data is output in units of audio frames, the recording unit may be replaced with AAC encoded data of 0 volume level in units of audio frames.

図1の構成例を用いて、オーディオデータがLPCM形式で送られる場合には、オーディオフレーム単位でのポーズデータ出力ではなく、音量レベル0のLPCMデータを送る形式にしてもよい。このようにすれば、記録部20側のエンコーダは、受信電波強度の低下中は、ずっと音量0レベルの音声をエンコードしていれば、ノイズを記録することを避け、オーディオデータを連続的にエンコードし続けることができる。オーディオデータ出力中も先に説明した再生情報bitのデータは付与しつづけるものとする。   When audio data is sent in the LPCM format using the configuration example of FIG. 1, the LPCM data at a volume level 0 may be sent instead of pause data output in units of audio frames. In this way, the encoder on the recording unit 20 side continuously encodes audio data while avoiding noise recording if the sound of the volume 0 level is encoded all the time while the received radio wave intensity is decreasing. Can continue. It is assumed that the reproduction information bit data described above is continuously given even during output of audio data.

また、図7の構成例を用いて、オーディオデータをAAC形式などのストリームデータで送る場合は、受信電波強度低下中に、再生部10側で、オーディオフレーム単位で、ポーズデータではなく、音量レベル0のLPCMデータをAACエンコードしたデータを送る形式でもよい。このようにすれば、記録部20側のエンコーダは、受信電波強度の低下中であっても、ずっとストリームデータをエンコードしつづければよい。このときオーディオデータ出力中も先に説明した再生情報bitのデータは付与しつづけるものとする。   Further, when audio data is sent as stream data such as AAC format using the configuration example of FIG. 7, the volume level, not pause data, is set in units of audio frames on the playback unit 10 side while the received radio wave intensity is reduced. A format in which data obtained by AAC encoding zero LPCM data may be used. In this way, the encoder on the recording unit 20 side only needs to encode the stream data all the time even when the received radio wave intensity is decreasing. At this time, it is assumed that the data of the reproduction information bit described above is continuously given even during output of the audio data.

記録部20で、再生部10からきた再生情報を受け取ることにより、エンコーダ部13が次にどのような処理が期待されているかをあらかじめ知ることができる。例えば受信電波の強度情報を得ることができる。つまり受信電波の強度が回復状況にあるか、また回復しない状態であるかを知ることができる。回復状況である場合は、ポーズ状態から通常記録状態への復帰が近いことがわかり、ポーズデータの差し替えの終わり、または一時記録の中断からの復帰処理を準備することにより、いち早く通常記録状態への遷移を迎えることができる。またCRC(Cyclic Redundancy Check)エラーなど、デコード時にエラーが検出される場合は、ストリームデータをそのまま記録しても、そのデータをデコードが不可能であるということから、ポーズデータへの差し替え、もしくは記録中断という処理を選択しつづけたほうがよいということがわかる。また時刻情報などが送られてきている場合は、受信電波の強度が低下している間も音声処理装置が、記録中断時などの時刻情報を残すことが可能となる。そのため記録部20の故障ではなく、受信電波の強度の低下による記録の中断であることが、わかるためである。   By receiving the reproduction information from the reproduction unit 10 in the recording unit 20, the encoder unit 13 can know in advance what processing is expected next. For example, intensity information of received radio waves can be obtained. That is, it is possible to know whether the intensity of the received radio wave is in a recovery state or not recovered. In the recovery state, it can be seen that the return from the pause state to the normal recording state is close, and by preparing the return processing from the end of the pause data replacement or the temporary recording interruption, the normal recording state can be quickly restored. A transition can be reached. If an error is detected during decoding, such as a CRC (Cyclic Redundancy Check) error, it is impossible to decode the stream data even if it is recorded as it is. It turns out that it is better to continue to select the process of interruption. In addition, when time information or the like is transmitted, the voice processing device can leave time information such as when recording is interrupted while the intensity of the received radio wave is decreasing. Therefore, it is understood that the recording is not interrupted but the recording is interrupted due to a decrease in the intensity of the received radio wave.

とくに受信電波の強度が低下している間、つまりポーズデータ等を出している間の再生情報は、なぜ再生部10がポーズデータ等を出しているかの理由を示している。また、オーディオフレーム単位でのポーズデータは、受信電波の強度の低下からの復帰を少しでも早めることにある。連続的にデータを出し続けることにより、フレーム同期を保ったままでおくことで、特に走行中の自動車などに搭載された音声処理装置が、走行中の障害物による電波障害により、受信電波の強度が刻々と変化する場合は、少しでもはやく記録可能な状態に復帰させることができる。   In particular, the reproduction information while the intensity of the received radio wave is lowered, that is, while the pause data is output, indicates the reason why the reproduction unit 10 outputs the pause data. In addition, pause data in units of audio frames is to accelerate recovery from a decrease in received radio wave intensity as much as possible. By continuing to output data continuously, it is possible to maintain the frame synchronization, so that the sound processing device installed in a running car, etc., may be affected by radio wave interference caused by a running obstacle. If it changes every moment, it can be restored to a recordable state in a little.

上記は、オーディオデータの再生及び記録について説明してきたが、ビデオデータについても同様な方法をとることができる。ビデオの場合は、NTSC方式やPAL方式では、1ビデオフレームの周期が特定されているので、受信電波強度が低下して、デコードができなくなった場合でも、再生部10が、デコードエラー前のフレームデータを再出力する(リピート再生)処理や、ブルーバックデータへの差し替え処理を施し、1ビデオフレーム周期ごとに出力すればよい。そして、ブランキング期間などに、電波強度やデコードエラーなどの再生情報を送れば、記録部20側で、電波強度低下時におけるエンコード処理を継続することができる。   The above has described the reproduction and recording of audio data, but the same method can be used for video data. In the case of video, since the period of one video frame is specified in the NTSC system or the PAL system, even when the received radio wave intensity decreases and decoding becomes impossible, the playback unit 10 does not receive the frame before the decoding error. Processing for re-outputting data (repeat reproduction) and processing for replacement with blue back data may be performed and output every video frame period. If reproduction information such as radio wave intensity and decoding error is sent during the blanking period, the recording process at the recording unit 20 side can be continued.

さらに、オーディオフレーム単位での同期をとっておけば、PTS情報を送らなくても、AV同期記録の復帰をはやめることができる。デジタル放送の場合、すべてのオーディオフレームにAPTS情報がついているわけではない。従って、APTSの値を基準として同期確立をする場合は、デコードエラーが発生しない状態に復帰したとしても、APTS情報がくるまでは、どのタイミングでオーディオ再生を開始してよいかわからないため、受信したデータを捨てて、まずAPTSがついたオーディオフレームのデータをシステム時刻と照らしあわせる作業を行う。つまり受信電波の強度低下により、APTSの更新がなされなくなった場合には、受信電波の強度低下時からの復帰は、最初にAPTS情報のついたオーディオフレームを受信し、オーディオフレーム同期をかけなおし、記録を再開せねばならない。   Furthermore, if synchronization is performed in units of audio frames, restoration of AV synchronized recording can be stopped without sending PTS information. In the case of digital broadcasting, not all audio frames have APTS information. Therefore, when establishing synchronization based on the value of APTS, even if the decoding error does not occur, it is not known at what timing audio reproduction may be started until APTS information arrives. First, the audio frame data with the APTS is compared with the system time. In other words, if the APTS is no longer updated due to a decrease in the strength of the received radio wave, the return from the decrease in the strength of the received radio wave first receives an audio frame with APTS information and re-synchronizes the audio frame. You must resume recording.

しかし本発明の場合は、オーディオフレーム単位で受信電波の強度低下前の同期状態を保っているため、APTS情報のオーディオフレームを待つことなく、またオーディオフレーム同期をかけなおすことなく、記録を再開することができるものである。   However, in the case of the present invention, since the synchronization state before the intensity reduction of the received radio wave is maintained in units of audio frames, recording is resumed without waiting for the audio frame of the APTS information and without re-synchronizing the audio frame. It is something that can be done.

本発明における音声処理装置は、再生機器側と記録機器側間にインターフェースを有し、再生機器側の受信電波の強度条件を元に、記録機器側で記録の継続を実施するため、同期状態を保ったまま再生機器側の放送受信電波の強度条件に合わせた符号化音声信号記録を選択するといった用途に使用することができる。   The audio processing apparatus according to the present invention has an interface between the playback device side and the recording device side, and performs recording continuation on the recording device side based on the received radio wave intensity condition on the playback device side. It can be used for the purpose of selecting the encoded audio signal recording that matches the intensity condition of the broadcast reception radio wave on the playback device side while keeping it.

本発明の実施の形態1に於ける装置の構成を示す図The figure which shows the structure of the apparatus in Embodiment 1 of this invention. 本発明の実施の形態1に於けるオーディオのデコード構成を示す図The figure which shows the audio | voice decoding structure in Embodiment 1 of this invention. 本発明の実施の形態1における装置の電波強度の低下時における装置内部のデータ処理を示す図The figure which shows the data processing inside an apparatus at the time of the radio field intensity fall of the apparatus in Embodiment 1 of this invention 本発明の実施の形態1に於けるオーディオデータ出力フォーマットの構成の例を示す図The figure which shows the example of a structure of the audio data output format in Embodiment 1 of this invention. 本発明の実施の形態1に於ける装置の受信電波の強度低下時処理を示す図The figure which shows the process at the time of the intensity | strength fall of the received radio wave of the apparatus in Embodiment 1 of this invention 本発明の実施の形態1に於ける装置の受信電波の強度復帰時処理を示す図The figure which shows the process at the time of the intensity | strength return of the received radio wave of the apparatus in Embodiment 1 of this invention 本発明の実施の形態1に於ける装置の他の接続構成を示す図The figure which shows the other connection structure of the apparatus in Embodiment 1 of this invention.

符号の説明Explanation of symbols

1 アンテナ部
2 入力検出部
3 バッファ
4 デコード部
5 再生情報生成部
6 オーディオデータ出力部
7 再生情報出力部
10 再生部
12 再入力部
13 エンコーダ部
20 記録部
DESCRIPTION OF SYMBOLS 1 Antenna part 2 Input detection part 3 Buffer 4 Decoding part 5 Reproduction information generation part 6 Audio data output part 7 Reproduction information output part 10 Reproduction part 12 Re-input part 13 Encoder part 20 Recording part

Claims (1)

オーディオデータを含むデジタル放送を受信する受信手段と、
前記デジタル放送の電波強度を検出する電波強度検出手段と、
前記デジタル放送に含まれるオーディオデータを記憶するバッファ手段と、
前記バッファ手段に記憶されたオーディオデータをデコードするデコード手段と、
前記デコード手段でデコードされたオーディオデータをフレーム単位で出力するデータ出力手段と、
前記データ出力手段から出力されたフレーム単位のオーディオデータをエンコードするエンコード手段と、を備え、
前記データ出力手段は、
前記電波強度検出手段が規定値以下の電波強度を検出し、かつ、前記バッファ手段がオーディオデータを出力できない場合、
または、
前記電波強度検出手段が規定値以下の電波強度を検出し、かつ、前記デコード手段が前記バッファ手段から出力されたオーディオデータをデコードできない場合、
所定のデータを前記エンコード手段に出力し、
前記エンコード手段は、
前記所定のデータを受け付けた場合、前記データ出力手段から出力されたフレーム単位のオーディオデータのエンコードを停止する、音声処理装置。
Receiving means for receiving a digital broadcast including audio data;
Radio wave intensity detecting means for detecting the radio wave intensity of the digital broadcast;
Buffer means for storing audio data included in the digital broadcast;
Decoding means for decoding the audio data stored in the buffer means;
Data output means for outputting the audio data decoded by the decoding means in units of frames;
Encoding means for encoding audio data in frame units output from the data output means,
The data output means includes
When the radio wave intensity detecting means detects a radio wave intensity below a specified value and the buffer means cannot output audio data,
Or
When the radio wave intensity detection means detects a radio wave intensity below a specified value, and the decoding means cannot decode the audio data output from the buffer means,
Outputting predetermined data to the encoding means;
The encoding means includes
An audio processing apparatus that stops encoding audio data in units of frames output from the data output means when the predetermined data is received.
JP2006036285A 2006-02-14 2006-02-14 Audio processing device Expired - Fee Related JP4735311B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006036285A JP4735311B2 (en) 2006-02-14 2006-02-14 Audio processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006036285A JP4735311B2 (en) 2006-02-14 2006-02-14 Audio processing device

Publications (3)

Publication Number Publication Date
JP2007221211A JP2007221211A (en) 2007-08-30
JP2007221211A5 JP2007221211A5 (en) 2009-04-09
JP4735311B2 true JP4735311B2 (en) 2011-07-27

Family

ID=38498052

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006036285A Expired - Fee Related JP4735311B2 (en) 2006-02-14 2006-02-14 Audio processing device

Country Status (1)

Country Link
JP (1) JP4735311B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4947015B2 (en) * 2008-09-10 2012-06-06 パナソニック株式会社 Recording device
JP2021150790A (en) * 2020-03-18 2021-09-27 ソニーグループ株式会社 Transmitter, transmission method and receiver

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002009649A (en) * 2000-06-27 2002-01-11 Kenwood Corp Broadcast receiver
JP2005234122A (en) * 2004-02-18 2005-09-02 Renesas Technology Corp Image encoding device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002009649A (en) * 2000-06-27 2002-01-11 Kenwood Corp Broadcast receiver
JP2005234122A (en) * 2004-02-18 2005-09-02 Renesas Technology Corp Image encoding device

Also Published As

Publication number Publication date
JP2007221211A (en) 2007-08-30

Similar Documents

Publication Publication Date Title
JP5107574B2 (en) Data reproduction apparatus, data reproduction method, program, and integrated circuit
US8184959B2 (en) Apparatus and method for recording/reproducing moving picture in digital broadcast receiver
EP1775947A1 (en) Recording device and recording method
JP4613674B2 (en) Audio playback device
US20070274675A1 (en) Method and Apparatus for Transcoding Digital Audio/Video Streams
KR101641612B1 (en) Image processing apparatus and image processing method thereof
US20080031597A1 (en) Stream Recording/Reproducing Apparatus
JP4735311B2 (en) Audio processing device
JP3590275B2 (en) Recording / reproducing apparatus, recording / reproducing method, and recording medium recording recording / reproducing program
JP6695479B2 (en) Recording / playback device
JP2004280994A (en) Data creation method and data recorder
KR20060112780A (en) Apparatus and method for recording data in digital broadcasting receiver
US20100178026A1 (en) Video Recording And Playback Device, Video Recording Device And Video Encoding Device
US20130046545A1 (en) Digital broadcast reception device
JP4514618B2 (en) Digital broadcast receiver
JP4270084B2 (en) Recording / playback device
JP4314149B2 (en) AV information processing system for translation recording and chasing playback
KR101053699B1 (en) Recording device and method of digital broadcasting
JP4355117B2 (en) Digital signal recording device
KR100539731B1 (en) Transport stream storage device and method
JP4321713B2 (en) Information recording method and apparatus
JP2001135024A (en) Image/audio signal recording/reproducing device
JP4893801B2 (en) Recording apparatus and recording method
KR100595211B1 (en) Apparatus and method for recording HD broadcasting program
KR20080042534A (en) Apparatus for providing multimedia data and operating method thereof, digital multimedia system using the same and operating method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090213

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090223

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20091127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101109

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110301

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110311

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110411

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140513

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees