JP5115120B2 - Video display device and audio output device - Google Patents

Video display device and audio output device Download PDF

Info

Publication number
JP5115120B2
JP5115120B2 JP2007256418A JP2007256418A JP5115120B2 JP 5115120 B2 JP5115120 B2 JP 5115120B2 JP 2007256418 A JP2007256418 A JP 2007256418A JP 2007256418 A JP2007256418 A JP 2007256418A JP 5115120 B2 JP5115120 B2 JP 5115120B2
Authority
JP
Japan
Prior art keywords
audio
time
short
video
range wireless
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007256418A
Other languages
Japanese (ja)
Other versions
JP2009089056A (en
Inventor
政弘 高山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Mobile Communications Ltd
Original Assignee
Fujitsu Mobile Communications Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Mobile Communications Ltd filed Critical Fujitsu Mobile Communications Ltd
Priority to JP2007256418A priority Critical patent/JP5115120B2/en
Publication of JP2009089056A publication Critical patent/JP2009089056A/en
Application granted granted Critical
Publication of JP5115120B2 publication Critical patent/JP5115120B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Headphones And Earphones (AREA)
  • Television Receiver Circuits (AREA)

Description

本発明は、映像表示装置及び音声出力装置に係り、特に、映像と音声とが異なる装置から出力される際の映像表示及び音声出力の同期処理に関する。   The present invention relates to a video display device and an audio output device, and more particularly to a synchronization process of video display and audio output when video and audio are output from different devices.

映像表示装置、例えば、移動通信端末装置などの小型で携帯される装置において、デジタルテレビ放送の受信によって得られたコンテンツの映像を表示することが行われている。ここで、このコンテンツは、例えば、映像と、音声と、文字とからなり、装置は、映像表示に限らず、音声の出力と文字の表示も行う。   2. Description of the Related Art In a video display device, for example, a small and portable device such as a mobile communication terminal device, an image of content obtained by receiving digital television broadcast is displayed. Here, this content includes, for example, video, audio, and characters, and the apparatus performs not only video display but also audio output and character display.

なお、コンテンツの表示と出力にあたり、そのコンテンツは、デジタルテレビ放送の受信によって得たものに限るものではない。例えば、テレビ電話によって受信されたコンテンツでも良い。また、ストリーミング再生用に送信されたコンテンツでも良い。更に、取り外しが可能であるか否かに係らず、記憶媒体に記憶されたコンテンツでも良い。   Note that, in displaying and outputting content, the content is not limited to that obtained by receiving digital television broadcasts. For example, content received by a videophone may be used. Further, it may be content transmitted for streaming playback. Furthermore, the content stored in the storage medium may be used regardless of whether or not it can be removed.

コンテンツの表示と出力にあたり、音声を装置の周辺にいる人々に聞かれないようにすることが望まれることがある。例えば、その音声が人々の迷惑になる場合や、装置の使用者がその音声に含まれる秘密情報を人々に聞かれたくない場合である。   When displaying and outputting content, it may be desirable to prevent audio from being heard by people around the device. For example, when the voice is annoying to people, or when the user of the device does not want people to hear confidential information contained in the voice.

そこで、音声は、音声出力装置、例えば、ヘッドフォン装置から出力することが行われている。更に、映像表示装置と音声出力装置との間を近距離無線通信によって接続することが行われている。近距離無線通信は、例えば、ブルートゥース(登録商標。Bluetooth)方式の通信が用いられている。   Therefore, audio is output from an audio output device, for example, a headphone device. Furthermore, the video display device and the audio output device are connected by short-range wireless communication. For the short-range wireless communication, for example, Bluetooth (registered trademark) Bluetooth communication is used.

このように、映像等を映像表示装置から出力し、音声をその装置と無線接続された音声出力装置から出力させる場合、音声が出力されるまでに遅延が生じる。そこで、映像表示装置は、その遅延時間を打ち消す処理を行い、映像等の出力と音声の出力との同期を取ることが知られている(例えば、特許文献1参照。)。
特開2005−79614号公報(第2−3頁、第11−13頁、図6)
As described above, when video or the like is output from the video display device and audio is output from the audio output device wirelessly connected to the device, there is a delay until the audio is output. Therefore, it is known that the video display device performs processing for canceling the delay time, and synchronizes the output of the video and the like with the output of the audio (for example, see Patent Document 1).
Japanese Patent Laying-Open No. 2005-79614 (pages 2-3 and 11-13, FIG. 6)

しかしながら、上述した特許文献1に開示されている方法では、遅延時間を推定するため、音声出力装置は、タイムスタンプを参照して、音声再生能力に応じた音声再生が可能となる時刻を判断する等の同期を取る機能を有する必要があり、音声出力装置の高機能化、ひいては大型化、消費電力の増大が避けられない問題点があった。この消費電力増大の問題点は、音声出力装置が携帯型であって、電池に蓄えられた電力によって駆動される場合、顕著である。   However, in the method disclosed in Patent Document 1 described above, in order to estimate the delay time, the audio output device refers to the time stamp and determines a time at which audio reproduction according to the audio reproduction capability is possible. It is necessary to have a function of taking synchronization, etc., and there has been a problem in that it is inevitable that the audio output device will be highly functional, eventually enlarged, and power consumption will be increased. This problem of increased power consumption is significant when the audio output device is portable and is driven by power stored in a battery.

本発明は、上記問題点を解決するためになされたもので、音声の出力タイミングを判断しない音声出力装置と、その音声出力装置を用いて、遅延時間を推定し、映像等の出力と、音声出力との同期を取る映像表示装置を提供することを目的とする。   The present invention has been made to solve the above-described problems, and an audio output device that does not determine the audio output timing, and the audio output device is used to estimate the delay time, output video, etc. An object of the present invention is to provide a video display device that synchronizes with an output.

上記目的を達成するために、本発明の映像表示装置は、映像データと、その映像データが表示される時刻と、音声データと、その音声データが出力される時刻とからなるコンテンツの映像データを表示し、かつ、そのコンテンツの音声データを音声出力装置に出力させる映像表示装置であって、映像データを表示する表示手段と、前記音声出力装置と近距離無線回線を介して通信する近距離無線処理手段と、前記近距離無線処理手段が音声データを前記音声出力装置へ送信する処理を開始した時刻と、その音声出力装置からその音声データを出力した旨の通知を前記近距離無線処理手段が受信した時刻との差によって音声遅延時間を推定する音声遅延時間推定手段と、映像データをその映像データが表示される時刻と映像遅延時間とを加えた時刻に前記表示手段に表示させ、かつ、音声データを前記音声出力装置へ送信する処理を、その音声データが出力される時刻から前記音声遅延時間を減じて前記映像遅延時間を加えた時刻に前記近距離無線処理手段に開始させる映像音声同期制御手段とを有することを特徴とする。   In order to achieve the above object, a video display device according to the present invention stores video data of content including video data, a time at which the video data is displayed, audio data, and a time at which the audio data is output. A video display device for displaying and outputting audio data of the content to an audio output device, the display means for displaying the video data, and a short-distance wireless communication with the audio output device via a short-distance wireless line The short-distance wireless processing means sends a processing means, a time when the short-distance wireless processing means starts processing to transmit audio data to the audio output device, and a notification that the audio data is output from the audio output device. Audio delay time estimation means for estimating the audio delay time based on the difference with the received time, and the video data display time and video delay time added to the video data The process of causing the display means to display the audio data and transmitting the audio data to the audio output device at a time obtained by subtracting the audio delay time from the time when the audio data is output and adding the video delay time. Video and audio synchronization control means for starting the short-range wireless processing means.

また、本発明の音声出力装置は、映像表示装置と近距離無線回線を介して通信する近距離無線処理手段と、前記近距離無線処理手段によって受信された音声データをスピーカから出力する音声出力手段と、前記音声出力手段が所定の識別情報が付加された音声データを出力した際、その音声データを出力した旨を前記近距離無線処理手段を制御して前記映像表示装置に通知させる映像音声同期制御手段とを有することを特徴とする。   The audio output device of the present invention includes a short-range wireless processing unit that communicates with a video display device via a short-distance wireless line, and an audio output unit that outputs audio data received by the short-range wireless processing unit from a speaker. And when the audio output means outputs the audio data to which the predetermined identification information is added, the short distance wireless processing means is controlled to notify the video display device that the audio data has been output. And a control means.

本発明によれば、音声の出力タイミングを判断しない音声出力装置を用いて、遅延時間を推定し、映像等の出力と、音声出力との同期を取ることができる。   According to the present invention, it is possible to estimate the delay time by using an audio output device that does not determine the audio output timing, and to synchronize the output of video and the like with the audio output.

以下に、本発明による映像表示装置及び音声出力装置の実施の形態を、図面を参照して説明する。   Embodiments of a video display device and an audio output device according to the present invention will be described below with reference to the drawings.

(第1の実施形態)
図1は、本発明の第1の実施形態に係わる映像表示装置が適用された移動通信端末装置と、本発明の第1の実施形態に係わる音声出力装置が適用されたヘッドフォン装置が接続された構成を示すブロック図である。移動通信端末装置MSと、ヘッドフォン装置HPとは、近距離無線通信回線BTによって接続される。ここで、近距離無線通信回線BTは、ブルートゥース(R)方式による通信回線である。
(First embodiment)
FIG. 1 shows a connection between a mobile communication terminal device to which a video display device according to the first embodiment of the present invention is applied and a headphone device to which an audio output device according to the first embodiment of the present invention is applied. It is a block diagram which shows a structure. The mobile communication terminal device MS and the headphone device HP are connected by a short-range wireless communication line BT. Here, the short-range wireless communication line BT is a communication line based on the Bluetooth (R) method.

図2は、移動通信端末装置MSの構成を示すブロック図である。この移動通信端末装置MSは、装置全体の制御を行う制御部11と、基地局(図示せず)との間で電波の送受を行うアンテナ12aと、通信部12bと、送受信部13と、受話用のスピーカ14aと、送話用のマイクロフォン14bと、通話部14cと、表示部15と、入力装置16とを備える。   FIG. 2 is a block diagram showing a configuration of the mobile communication terminal apparatus MS. This mobile communication terminal device MS includes a control unit 11 that controls the entire device, an antenna 12a that transmits and receives radio waves to and from a base station (not shown), a communication unit 12b, a transmission / reception unit 13, and an incoming call. Speaker 14a, microphone 14b for transmission, call unit 14c, display unit 15, and input device 16.

この移動通信端末装置MSは、更に、テレビ処理部21と、映像バッファ22と、時刻を示すSTC(System Time Clock)部23と、音声バッファ24と、映像再生部31と、音声データ切替部41と、音声再生部42と、音声再生用のスピーカ42aと、近距離無線通信回線BTによる通信を行う近距離無線処理部43とを備える。映像バッファ22には、テレビ処理部21によって復号された映像データが記憶される。音声バッファ24には、テレビ処理部21によって復号された音声データが記憶される。なお、図2で、映像データ及び音声データの流れを太実線の矢印で示す。   The mobile communication terminal MS further includes a television processing unit 21, a video buffer 22, an STC (System Time Clock) unit 23 indicating time, an audio buffer 24, a video reproduction unit 31, and an audio data switching unit 41. And a voice reproduction unit 42, a voice reproduction speaker 42a, and a short-range wireless processing unit 43 that performs communication via the short-range wireless communication line BT. The video buffer 22 stores the video data decoded by the television processing unit 21. The audio buffer 24 stores the audio data decoded by the television processing unit 21. In FIG. 2, the flow of video data and audio data is indicated by thick solid arrows.

図3は、テレビ処理部21の詳細な構成を示すブロック図である。このテレビ処理部21は、テレビ放送電波を受信するアンテナ21aと、チューナ部21bと、DEMUX部21cと、映像バッファ22と接続される映像復号化部21dと、STC部23と接続されるSTC校正部21eと、音声バッファ24と接続される音声復号化部21fとを備える。   FIG. 3 is a block diagram illustrating a detailed configuration of the television processing unit 21. This TV processing unit 21 includes an antenna 21a for receiving TV broadcast radio waves, a tuner unit 21b, a DEMUX unit 21c, a video decoding unit 21d connected to the video buffer 22, and an STC calibration connected to the STC unit 23. Unit 21e and an audio decoding unit 21f connected to the audio buffer 24.

図4は、近距離無線処理部43の詳細な構成を示すブロック図である。この近距離無線処理部43は、STC部23と接続され、更に音声データ切替部41を経由して音声バッファ24と接続される音声符号化部43aと、符号化音声バッファ43bと、近距離無線送受信部43cと、近距離無線通信部43dと、近距離無線通信回線BTの電波の送受を行うアンテナ43eとを備える。符号化音声バッファ43bには、音声符号化部43aによって符号化された音声データが記憶される。   FIG. 4 is a block diagram illustrating a detailed configuration of the short-range wireless processing unit 43. The short-range wireless processing unit 43 is connected to the STC unit 23, and further connected to the voice buffer 24 via the voice data switching unit 41. The encoded voice buffer 43b is connected to the short-range wireless processing unit 43. A transmission / reception unit 43c, a short-range wireless communication unit 43d, and an antenna 43e that transmits and receives radio waves of the short-range wireless communication line BT are provided. The encoded audio buffer 43b stores the audio data encoded by the audio encoding unit 43a.

図5は、ヘッドフォン装置HPの構成を示すブロック図である。このヘッドフォン装置HPは、装置全体の制御を行う制御部51と、近距離無線通信回線BTによる通信を行う近距離無線通信部52と、近距離無線通信回線BTの電波の送受を行うアンテナ52aと、近距離無線送受信部53と、符号化音声バッファ54と、音声復号化部55と、音声再生部56と、音声再生用のスピーカ56aと、表示部57と、入力装置58とを備える。符号化音声バッファ54には、近距離無線送受信部53によって受信された符号化された音声データが記憶される。   FIG. 5 is a block diagram showing a configuration of the headphone device HP. The headphone device HP includes a control unit 51 that controls the entire device, a short-range wireless communication unit 52 that performs communication via the short-range wireless communication line BT, and an antenna 52a that transmits and receives radio waves on the short-range wireless communication line BT. , A short-range wireless transmission / reception unit 53, an encoded audio buffer 54, an audio decoding unit 55, an audio reproduction unit 56, an audio reproduction speaker 56a, a display unit 57, and an input device 58. The encoded audio buffer 54 stores encoded audio data received by the short-range wireless transmission / reception unit 53.

以上説明した移動通信端末装置MS及びヘッドフォン装置HPは、コンピュータと、コンピュータによって利用されるプログラムから構成されても良い。特に、後述するように、制御部11の動作及び制御部51の動作(特に、制御部11の動作。)は、必ずしも定型化されたものではないので、コンピュータと、コンピュータによって利用されるプログラムから構成されることが好ましい。   The mobile communication terminal device MS and the headphone device HP described above may be composed of a computer and a program used by the computer. In particular, as will be described later, the operation of the control unit 11 and the operation of the control unit 51 (particularly the operation of the control unit 11) are not necessarily stylized, and therefore, from a computer and a program used by the computer. Preferably, it is configured.

上記のように構成された、本発明の第1の実施形態に係る装置の各部の動作を図2ないし図5を参照して説明する。まず、移動通信端末装置MSの各部の動作を図2を参照して説明する。通信部12bは、アンテナ12aによって受信された高周波信号を送受信部13へ出力し、また、送受信部13から出力された高周波信号をアンテナ12aより送信する。   The operation of each part of the apparatus according to the first embodiment of the present invention configured as described above will be described with reference to FIGS. First, the operation of each unit of the mobile communication terminal device MS will be described with reference to FIG. The communication unit 12b outputs the high-frequency signal received by the antenna 12a to the transmission / reception unit 13, and transmits the high-frequency signal output from the transmission / reception unit 13 from the antenna 12a.

送受信部13は、通信部12bからの高周波信号を増幅、周波数変換及び復調し、それによってディジタル信号を得て、得られた通話音声信号を通話部14cに、制御信号を制御部11に送る。   The transmission / reception unit 13 amplifies, frequency-converts, and demodulates the high-frequency signal from the communication unit 12b, thereby obtaining a digital signal, and sends the obtained call voice signal to the call unit 14c and sends a control signal to the control unit 11.

更には、送受信部13は、ディジタル信号、即ち、通話部14cから出力された通話音声信号、制御部11から出力された制御信号を変調、周波数変換及び増幅し、高周波信号を得て、それを通信部12bに送って送信させる。   Furthermore, the transmission / reception unit 13 modulates, frequency-converts and amplifies the digital signal, that is, the call voice signal output from the call unit 14c and the control signal output from the control unit 11, to obtain a high-frequency signal. The data is transmitted to the communication unit 12b.

通話部14cは、送受信部13から出力されたディジタル音声信号をアナログ音声信号に変換し、それを増幅してスピーカ14aに送る。また、マイクロフォン14bから出力されたアナログ音声信号を増幅し、それをディジタル音声信号に変換して送受信部13に送信する。   The calling unit 14c converts the digital audio signal output from the transmission / reception unit 13 into an analog audio signal, amplifies it, and sends the analog audio signal to the speaker 14a. The analog audio signal output from the microphone 14 b is amplified, converted into a digital audio signal, and transmitted to the transmission / reception unit 13.

表示部15は、例えば、LCDであり、制御部11に制御されることで、文字・数字や映像データの表示動作を行い、表示されているデータは、入力装置16からの入力操作や着信信号に応答して制御部11からの指示を受けることで切換わる。   The display unit 15 is, for example, an LCD, and performs display operation of characters / numbers and video data under the control of the control unit 11. The displayed data is input operation or incoming signal from the input device 16. In response to an instruction from the control unit 11.

入力装置16は、通信相手の電話番号などを指定するための数字キーと複数の機能キーを含むキーからなる。そして、入力装置16のキーが操作されると、そのキーの識別子が制御部11に通知され、制御部11によって、表示部15に文字として表示され、または、制御が行われる。   The input device 16 includes a key including a numeric key for designating a telephone number of a communication partner and a plurality of function keys. When the key of the input device 16 is operated, the identifier of the key is notified to the control unit 11 and displayed on the display unit 15 as characters or controlled by the control unit 11.

次に、テレビ処理部21の各部の動作を、図3を参照して説明する。テレビ処理部21は、制御部11の指示によって動作を開始する。そして、チューナ部21bは、アンテナ21aによって受信された高周波信号の中から、入力装置16の所定のキー操作によって指定されたチャンネルの高周波信号を選択する。   Next, the operation of each unit of the television processing unit 21 will be described with reference to FIG. The television processing unit 21 starts to operate according to an instruction from the control unit 11. Then, the tuner unit 21b selects a high frequency signal of a channel designated by a predetermined key operation of the input device 16 from the high frequency signals received by the antenna 21a.

そして、チューナ部21bは、選択された高周波信号を中間周波数の信号に変換し、変換された信号を復調することによって、符号化されたテレビ放送コンテンツを得る。ここで、テレビ放送コンテンツは、MPEG方式によって符号化された信号であるが、これに限るものではない。   Then, the tuner unit 21b converts the selected high-frequency signal into an intermediate-frequency signal and demodulates the converted signal, thereby obtaining encoded television broadcast content. Here, the television broadcast content is a signal encoded by the MPEG system, but is not limited thereto.

DEMUX部21cは、チューナ部21bによって得られた放送コンテンツを、符号化された映像信号と、符号化された音声信号と、PCR(Program Clock Reference、番組時刻基準参照値。)とに分離する。そして、符号化された映像信号を映像復号化部21dに、符号化された音声信号を音声復号化部21fに、それぞれ送る。更に、PCRをSTC校正部21eに送る。ここで、音声信号は、AAC方式によって符号化された信号であるが、これに限るものではない。   The DEMUX unit 21c separates the broadcast content obtained by the tuner unit 21b into an encoded video signal, an encoded audio signal, and PCR (Program Clock Reference). The encoded video signal is sent to the video decoding unit 21d, and the encoded audio signal is sent to the audio decoding unit 21f. Further, the PCR is sent to the STC calibration unit 21e. Here, the audio signal is a signal encoded by the AAC method, but is not limited thereto.

映像復号化部21dは、DEMUX部21cによって分離された符号化された映像信号を、映像フレーム毎に復号する。そして、復号された映像フレーム信号にそのフレーム信号が表示される時刻PTS(Presentation Time Stamp)を付加して映像バッファ22に記憶させる。なお、PTSは、符号化された映像フレーム信号に付加されていた場合、その付加されていたものを用いる。   The video decoding unit 21d decodes the encoded video signal separated by the DEMUX unit 21c for each video frame. Then, a time PTS (Presentation Time Stamp) at which the frame signal is displayed is added to the decoded video frame signal and stored in the video buffer 22. If the PTS is added to the encoded video frame signal, the added PTS is used.

一方、付加されていない場合、映像復号化部21dは、その符号化された映像フレーム信号と、その符号化された映像フレーム信号以前に受信され、かつ、その信号以前に表示される符号化された映像フレーム信号であって、PTSが付加されていた映像フレーム信号との間隔を符号化された映像フレーム信号の個数で数える。そして、付加されていたPTSに、映像フレーム信号が作成される時間間隔と上記の個数を乗じた時間を加えることによってPTSを得て付加する。   On the other hand, if not added, the video decoding unit 21d receives the encoded video frame signal and the encoded video frame signal received before the encoded video frame signal and displayed before the signal. The interval between the video frame signal and the video frame signal to which the PTS is added is counted by the number of encoded video frame signals. Then, a PTS is obtained and added by adding the time obtained by multiplying the added PTS to the time interval at which the video frame signal is created and the above number.

図6は、映像バッファ22に記憶される復号された映像信号の形式の一例を示す。この復号された映像信号22aは、PTS22bと、PTS22bが示す時刻に表示される映像フレーム信号22cとが関連付けられた情報であり、それらの情報がそれぞれの情報に含まれるPTS22b順に順序付けられて連なっている。   FIG. 6 shows an example of the format of the decoded video signal stored in the video buffer 22. The decoded video signal 22a is information in which the PTS 22b and the video frame signal 22c displayed at the time indicated by the PTS 22b are associated with each other, and the information is sequentially arranged in the order of the PTS 22b included in each information. Yes.

音声復号化部21fは、DEMUX部21cによって分離された符号化された音声信号を、音声フレーム毎に復号する。そして、復号された音声フレーム信号にそのフレーム信号が出力される時刻PTSを付加して音声バッファ24に記憶させる。なお、PTSは、符号化された音声フレーム信号に付加されていた場合、その付加されていたものを用いる。   The audio decoding unit 21f decodes the encoded audio signal separated by the DEMUX unit 21c for each audio frame. Then, a time PTS at which the frame signal is output is added to the decoded audio frame signal and stored in the audio buffer 24. If the PTS is added to the encoded audio frame signal, the added PTS is used.

一方、付加されていない場合、音声復号化部21fは、その符号化された音声フレーム信号と、その符号化された音声フレーム信号以前に受信され、かつ、その信号以前に出力される符号化された音声フレーム信号であって、PTSが付加されていた音声フレーム信号との間隔を符号化された音声フレーム信号の個数で数える。そして、付加されていたPTSに、音声フレーム信号が作成される時間間隔と上記の個数を乗じた時間を加えることによってPTSを得て付加する。   On the other hand, if not added, the speech decoding unit 21f receives the encoded speech frame signal and the encoded speech frame signal received before the encoded speech frame signal and output before the signal. The interval between the audio frame signal and the audio frame signal to which the PTS is added is counted by the number of encoded audio frame signals. Then, a PTS is obtained and added by adding the time obtained by multiplying the added time interval by which the audio frame signal is generated and the above number to the added PTS.

図7は、音声バッファ24に記憶される復号された音声信号の形式の一例を示す。この復号された音声信号24aは、PTS24bと、PTS24bが示す時刻に出力される音声フレーム信号24cとが関連付けられた情報であり、それらの情報がそれぞれの情報に含まれるPTS24b順に順序付けられて連なっている。   FIG. 7 shows an example of the format of the decoded audio signal stored in the audio buffer 24. The decoded audio signal 24a is information in which the PTS 24b and the audio frame signal 24c output at the time indicated by the PTS 24b are associated with each other, and the information is sequentially arranged in the order of the PTS 24b included in each information. Yes.

STC校正部21eは、DEMUX部21cによって分離されたPCRを受信し、そのPCRが示す時刻をSTC部23が示すように、STC部23を校正する。   The STC calibration unit 21e receives the PCR separated by the DEMUX unit 21c, and calibrates the STC unit 23 so that the STC unit 23 indicates the time indicated by the PCR.

図2を参照した移動通信端末装置MSの各部の動作の説明に戻る。映像再生部31は、制御部11の指示によって動作を開始する。そして、STC部23が示す時刻と、映像バッファ22に記憶されたPTS22bとが等しい復号された映像信号22aを得る。次に、得られた復号された映像信号22aの映像フレーム信号22cを表示部15に表示させる。映像再生部31は、この復号された映像信号22aを得て表示する動作を繰り返す。   Returning to the description of the operation of each unit of the mobile communication terminal apparatus MS with reference to FIG. The video playback unit 31 starts to operate according to an instruction from the control unit 11. Then, a decoded video signal 22a in which the time indicated by the STC unit 23 is equal to the PTS 22b stored in the video buffer 22 is obtained. Next, the video frame signal 22c of the obtained decoded video signal 22a is displayed on the display unit 15. The video reproduction unit 31 repeats the operation of obtaining and displaying the decoded video signal 22a.

なお、STC部23が示す時刻と、映像バッファ22に記憶されたPTS22bとが等しい際、映像フレーム信号22cが表示部15に表示されなければならない。そのため、映像再生部31は、STC部23が示す時刻が映像バッファ22に記憶されたPTS22bとが等しくなるより所定時間前に、上記の復号された映像信号22aを得る動作を行う。ここで、所定時間とは、映像再生部31の表示処理に必要な時間である。なお、以上の説明では、説明を簡明にするため、この映像再生部31の表示処理に必要な時間は0であるとした。以後も、同様に0であるとして説明する。   When the time indicated by the STC unit 23 is equal to the PTS 22b stored in the video buffer 22, the video frame signal 22c must be displayed on the display unit 15. Therefore, the video reproduction unit 31 performs an operation of obtaining the decoded video signal 22a a predetermined time before the time indicated by the STC unit 23 becomes equal to the PTS 22b stored in the video buffer 22. Here, the predetermined time is a time required for the display processing of the video reproduction unit 31. In the above description, in order to simplify the description, the time required for the display process of the video reproduction unit 31 is assumed to be zero. In the following description, it is assumed that the value is also 0.

音声データ切替部41は、制御部11の指示に従って、音声再生部42と、近距離無線処理部43のいずれか一方に、音声バッファ24に記憶された復号された音声信号24aを読み出させる。   The audio data switching unit 41 causes the audio reproduction unit 42 or the short-range wireless processing unit 43 to read the decoded audio signal 24 a stored in the audio buffer 24 in accordance with an instruction from the control unit 11.

音声再生部42は、制御部11の指示によって動作を開始する。そして、STC部23が示す時刻と、音声バッファ24に記憶されたPTS22bとが等しい復号された音声信号24aを得る。次に、得られた復号された音声信号24aの音声フレーム信号24cをアナログ信号に変換して、スピーカ42aから出力させる。音声再生部42は、この復号された音声信号24aを得て、出力させる動作を繰り返す。   The sound reproducing unit 42 starts operation in response to an instruction from the control unit 11. Then, a decoded audio signal 24a in which the time indicated by the STC unit 23 is equal to the PTS 22b stored in the audio buffer 24 is obtained. Next, the audio frame signal 24c of the obtained decoded audio signal 24a is converted into an analog signal and output from the speaker 42a. The audio reproducing unit 42 repeats the operation of obtaining and outputting the decoded audio signal 24a.

なお、STC部23が示す時刻と、音声バッファ24に記憶されたPTS22bとが等しい際、音声フレーム信号24cによる音声がスピーカ42aから出力されなければならない。そのため、音声再生部42は、STC部23が示す時刻と、音声バッファ24に記憶されたPTS22bとが等しくなるより所定時間前に、上記の復号された音声信号24aを得る動作を行う。   When the time indicated by the STC unit 23 is equal to the PTS 22b stored in the audio buffer 24, audio based on the audio frame signal 24c must be output from the speaker 42a. Therefore, the audio reproduction unit 42 performs an operation of obtaining the decoded audio signal 24a a predetermined time before the time indicated by the STC unit 23 becomes equal to the PTS 22b stored in the audio buffer 24.

ここで、所定時間とは、音声再生部42の音声出力処理に必要な時間である。なお、以上の説明では、説明を簡明にするため、この音声再生部42の音声出力処理に必要な時間は0であるとした。以後も、同様に0であるとして説明する。これは、映像再生部31の動作説明で述べたことと同じである。   Here, the predetermined time is a time required for the sound output processing of the sound reproducing unit 42. In the above description, in order to simplify the description, the time required for the audio output process of the audio reproduction unit 42 is assumed to be zero. In the following description, it is assumed that the value is also 0. This is the same as described in the explanation of the operation of the video reproduction unit 31.

次に、近距離無線処理部43の各部の動作を、図4を参照して説明する。近距離無線処理部43は、制御部11の指示によって動作を開始する。そして、音声符号化部43aは、STC部23が示す時刻と、PTS22bとが等しい復号された音声信号24aを音声バッファ24から得る。   Next, the operation of each unit of the short-range wireless processing unit 43 will be described with reference to FIG. The short-range wireless processing unit 43 starts to operate according to an instruction from the control unit 11. Then, the speech encoding unit 43a obtains from the speech buffer 24 a decoded speech signal 24a in which the time indicated by the STC unit 23 is equal to the PTS 22b.

音声符号化部43aは、得られた復号された音声信号24aの音声フレーム信号24cを符号化し、符号化された音声信号を符号化音声バッファ43bに記憶させる。符号化は、例えば、SBC(Sub Band Codec)方式により、符号化は、所定のフレーム(以後、このフレームをSBCフレームと称する。)単位で行うが、これに限るものではない。音声符号化部43aは、この復号された音声信号24aを得て、符号化し、記憶させる動作を繰り返す。   The audio encoding unit 43a encodes the audio frame signal 24c of the obtained decoded audio signal 24a, and stores the encoded audio signal in the encoded audio buffer 43b. Encoding is performed in units of a predetermined frame (hereinafter, this frame is referred to as an SBC frame) by, for example, the SBC (Sub Band Codec) method, but is not limited thereto. The voice encoding unit 43a repeats the operation of obtaining, encoding, and storing the decoded voice signal 24a.

近距離無線送受信部43cは、符号化音声バッファ43bに記憶された符号化された音声信号を、先に符号化音声バッファ43bに記憶された順にSBCフレーム単位で読み出し、読み出された符号化された音声信号と、制御部11から出力された制御信号を変調、周波数変換及び増幅し、高周波信号を得て、それを近距離無線通信部43dに送って、送信させる。更に、近距離無線送受信部43cは、近距離無線通信部43dによって受信された制御信号を制御部11に送る。   The short-range wireless transmission / reception unit 43c reads out the encoded audio signal stored in the encoded audio buffer 43b in units of SBC frames in the order stored in the encoded audio buffer 43b, and reads the encoded audio signal. The voice signal and the control signal output from the control unit 11 are modulated, frequency-converted and amplified to obtain a high-frequency signal, which is sent to the short-range wireless communication unit 43d for transmission. Further, the short-range wireless transmission / reception unit 43 c sends the control signal received by the short-range wireless communication unit 43 d to the control unit 11.

近距離無線通信部43dは、近距離無線送受信部43cから送られた高周波信号をアンテナ43eより送信する。また、アンテナ43eによって受信された高周波信号を近距離無線送受信部43cに送る。   The short-range wireless communication unit 43d transmits the high-frequency signal transmitted from the short-range wireless transmission / reception unit 43c from the antenna 43e. In addition, the high-frequency signal received by the antenna 43e is sent to the short-range wireless transceiver 43c.

次に、ヘッドフォン装置HPの各部の動作を、図5を参照して説明する。近距離無線通信部52は、アンテナ52aによって受信された高周波信号を近距離無線送受信部53に送る。また、近距離無線送受信部53から出力された高周波信号をアンテナ52aより送信する。   Next, the operation of each part of the headphone device HP will be described with reference to FIG. The short-range wireless communication unit 52 sends the high-frequency signal received by the antenna 52 a to the short-range wireless transmission / reception unit 53. Moreover, the high frequency signal output from the short-range wireless transmission / reception unit 53 is transmitted from the antenna 52a.

近距離無線送受信部53は、近距離無線通信部52からの高周波信号を増幅、周波数変換及び復調し、それによってディジタル信号を得て、得られたSBCフレーム単位の音声信号を符号化音声バッファ54に記憶させ、また、制御信号を制御部51に送る。   The short-range wireless transmission / reception unit 53 amplifies, frequency-converts and demodulates the high-frequency signal from the short-range wireless communication unit 52, thereby obtaining a digital signal, and the obtained audio signal in SBC frame unit is encoded as the audio buffer 54. And a control signal is sent to the control unit 51.

更に、近距離無線送受信部53は、ディジタル信号、即ち、制御部51から出力された制御信号を変調、周波数変換及び増幅し、高周波信号を得て、それを近距離無線通信部52に送って送信させる。   Further, the short-range wireless transmission / reception unit 53 modulates, frequency-converts and amplifies the digital signal, that is, the control signal output from the control unit 51, obtains a high-frequency signal, and sends it to the short-range wireless communication unit 52. Send it.

音声復号化部55は、符号化音声バッファ54に記憶された音声信号を、符号化音声バッファ54に記憶された順にSBCフレーム単位で読み出し、読み出された音声信号を復号する。そして、復号された音声信号を音声再生部56に送る。音声再生部56は、音声復号化部55によって復号された音声信号をアナログ信号に変換し、変換された音声信号をスピーカ56aから出力させる。   The audio decoding unit 55 reads out the audio signal stored in the encoded audio buffer 54 in units of SBC frames in the order stored in the encoded audio buffer 54, and decodes the read audio signal. Then, the decoded audio signal is sent to the audio reproduction unit 56. The audio reproduction unit 56 converts the audio signal decoded by the audio decoding unit 55 into an analog signal, and outputs the converted audio signal from the speaker 56a.

表示部57は、例えば、LCDであり、制御部51に制御されることで、文字・数字や映像データの表示動作を行い、表示されているデータは、入力装置58からの入力操作に応答して制御部51からの指示を受けることで切換わる。なお、表示部57は、例えば、LED等のランプであっても良い。   The display unit 57 is, for example, an LCD and is controlled by the control unit 51 to display characters / numbers and video data. The displayed data responds to an input operation from the input device 58. In response to an instruction from the control unit 51, switching is performed. The display unit 57 may be a lamp such as an LED.

入力装置58は、複数の機能キーを含むキーからなる。そして、入力装置58のキーが操作されると、そのキーの識別子が制御部51に通知され、制御部51によって、表示部57に表示され、または、制御が行われる。   The input device 58 includes a key including a plurality of function keys. When a key of the input device 58 is operated, the identifier of the key is notified to the control unit 51 and displayed on the display unit 57 or controlled by the control unit 51.

以下、本発明の第1の実施形態に係わる移動通信端末装置MSにおける映像の出力と、ヘッドフォン装置HPにおける音声の出力との同期を取る処理を説明する。   Hereinafter, a process of synchronizing the video output in the mobile communication terminal apparatus MS and the audio output in the headphone apparatus HP according to the first embodiment of the present invention will be described.

まず、ヘッドフォン装置HPにおける音声出力に遅延が発生する理由を説明する。上述した動作によると、テレビ処理部21によって受信された映像及び音声からなる放送コンテンツの再生にあたり、音声を移動通信端末装置MSのスピーカ42aから出力させる場合、音声の出力に遅延は発生しない。   First, the reason why the audio output in the headphone device HP is delayed will be described. According to the above-described operation, there is no delay in audio output when audio is output from the speaker 42a of the mobile communication terminal device MS in reproducing broadcast content including video and audio received by the television processing unit 21.

即ち、STC部23が示す時刻と、映像バッファ22に記憶されたPTS22bとが等しい際、映像フレーム信号22cが表示部15に表示される。しかし、音声をヘッドフォン装置HPのスピーカ56aから出力させる場合、音声の出力は、PTS24bが示す時刻に出力されず、以下の理由により、遅延が生じる。   That is, when the time indicated by the STC unit 23 is equal to the PTS 22b stored in the video buffer 22, the video frame signal 22c is displayed on the display unit 15. However, when audio is output from the speaker 56a of the headphone device HP, the audio output is not output at the time indicated by the PTS 24b, and a delay occurs due to the following reason.

第1に、音声信号が移動通信端末装置MSにある際に発生する遅延であり、遅延時間は、音声符号化部43aによる符号化に要する時間、及び、その符号化された音声信号が符号化音声バッファ43bに記憶されてから読み出されるまでの時間の和である。   First, there is a delay that occurs when the voice signal is in the mobile communication terminal device MS. The delay time is the time required for encoding by the voice encoding unit 43a and the encoded voice signal is encoded. This is the sum of the time from when it is stored in the audio buffer 43b until it is read out.

第2に、音声信号が近距離無線通信回線BTを介して伝送されるための遅延である。第3に、音声信号がヘッドフォン装置HPにある際に発生する遅延であり、遅延時間は、符号化された音声信号が符号化音声バッファ54に記憶されてから読み出されるまでの時間、及び、音声復号化部55による復号に要する時間の和である。   Second, there is a delay for the voice signal to be transmitted through the short-range wireless communication line BT. Third, there is a delay that occurs when the audio signal is in the headphone device HP, and the delay time is the time from when the encoded audio signal is stored in the encoded audio buffer 54 until it is read out, and the audio This is the sum of the time required for decoding by the decoding unit 55.

なお、これらの遅延時間の中で、最も大きい時間は、音声信号が移動通信端末装置MSにあり、符号化された音声信号が符号化音声バッファ43bに記憶されてから読み出されるまでの時間であることが多い。そして、次に大きい時間は、音声信号がヘッドフォン装置HPにあり、符号化された音声信号が符号化音声バッファ54に記憶されてから読み出されるまでの時間であることが多い。   Of these delay times, the longest time is the time from when the audio signal is in the mobile communication terminal apparatus MS and the encoded audio signal is stored in the encoded audio buffer 43b until it is read out. There are many cases. The next largest time is often the time from when the audio signal is in the headphone device HP and the encoded audio signal is stored in the encoded audio buffer 54 until it is read out.

そこで、制御部11は、以下に説明するように、上記第1〜第3の遅延によって発生する遅延時間を推定する。そして、映像再生部31による映像フレーム信号22cの表示を第1の所定時間に渡って遅延させる、及び/または、近距離無線処理部43による音声フレーム信号24cの符号化ないし送信を第2の所定時間に渡って先行して開始させる。ここで、第1の所定時間と、第2の所定時間との和を音声がスピーカ56aから出力させる際の遅延時間に等しくなるように制御することによって、その遅延を打ち消す。   Therefore, the control unit 11 estimates a delay time generated by the first to third delays as described below. Then, the display of the video frame signal 22c by the video playback unit 31 is delayed for a first predetermined time, and / or the audio frame signal 24c is encoded or transmitted by the short-range wireless processing unit 43 by a second predetermined time. Start ahead over time. Here, the delay is canceled by controlling the sum of the first predetermined time and the second predetermined time to be equal to the delay time when the sound is output from the speaker 56a.

映像再生部31による映像フレーム信号22cの表示を第1の所定時間に渡って遅延させるには、制御部11は、映像再生部31に指示して、STC部23が示す時刻に第1の所定時間を加算した和の時刻に等しいPTS22bと関連付けられた映像フレーム信号22cを得て、表示させる。   In order to delay the display of the video frame signal 22c by the video playback unit 31 for a first predetermined time, the control unit 11 instructs the video playback unit 31 to perform the first predetermined time at the time indicated by the STC unit 23. The video frame signal 22c associated with the PTS 22b equal to the sum of the times added is obtained and displayed.

近距離無線処理部43による音声フレーム信号24cの符号化ないし送信を第2の所定時間に渡って先行して開始させるには、制御部11は、近距離無線処理部43の音声符号化部43aに指示して、STC部23が示す時刻から第2の所定時間を減算した差の時刻に等しいPTS24bと関連付けられた音声フレーム信号24cを得て、符号化させる。   In order to start the encoding or transmission of the audio frame signal 24c by the short-range wireless processing unit 43 in advance for the second predetermined time, the control unit 11 includes the audio encoding unit 43a of the short-range wireless processing unit 43. The voice frame signal 24c associated with the PTS 24b equal to the difference time obtained by subtracting the second predetermined time from the time indicated by the STC unit 23 is obtained and encoded.

なお、音声フレーム信号24cの符号化を先行させる処理によれば、音声を移動通信端末装置MSのスピーカ42aから出力させる場合と、音声をヘッドフォン装置HPのスピーカ56aから出力させる場合とで、映像が表示部15に表示される時刻の差が少ない。   In addition, according to the process that precedes the encoding of the audio frame signal 24c, the video is output when the audio is output from the speaker 42a of the mobile communication terminal device MS and when the audio is output from the speaker 56a of the headphone device HP. There is little difference in time displayed on the display unit 15.

そこで、音声を出力するスピーカを切り替えた際、表示部15を視認している装置の使用者へ与える違和感が少ない。ただし、この先行させる処理のためには、第2の所定時間に渡って出力されるデータ量の音声フレーム信号24cが音声バッファ24に記憶されている必要がある。   Therefore, there is little discomfort given to the user of the device viewing the display unit 15 when the speaker that outputs the sound is switched. However, for the preceding processing, it is necessary that the audio frame signal 24c having a data amount output over the second predetermined time is stored in the audio buffer 24.

一方、映像フレーム信号22cの表示を遅延させる処理は、映像バッファ22に記憶されている映像フレーム信号22cの量、及び、音声バッファ24に記憶されている音声フレーム信号24cの量に無関係に行うことができ、これらの量を参照する必要はない。   On the other hand, the process of delaying the display of the video frame signal 22c is performed regardless of the amount of the video frame signal 22c stored in the video buffer 22 and the amount of the audio frame signal 24c stored in the audio buffer 24. There is no need to refer to these quantities.

次に、制御部11が、音声をヘッドフォン装置HPのスピーカ56aから出力させる場合に発生する遅延時間を推定する処理を説明する。図8は、制御部11が遅延時間を推定する動作のフローチャートを示す。   Next, a process for estimating the delay time that occurs when the control unit 11 outputs sound from the speaker 56a of the headphone device HP will be described. FIG. 8 shows a flowchart of an operation in which the control unit 11 estimates the delay time.

制御部11は、所定の時間間隔で遅延時間を推定する動作を開始する(ステップS11a)。ここで、遅延時間は、必ずしも一定とは限らないので、所定の時間間隔で推定することが望ましい。なお、所定の時間間隔は、推定された、または、予想される遅延時間と同程度以下であるのは妥当でない。なぜなら、後述するように、遅延時間の推定は、ヘッドフォン装置HPへSBCフレームを送信し、その送信されたSBCフレームに関する回答をヘッドフォン装置HPから受信することによって行う。   The control unit 11 starts an operation of estimating the delay time at a predetermined time interval (step S11a). Here, since the delay time is not always constant, it is desirable to estimate at a predetermined time interval. Note that it is not appropriate that the predetermined time interval is equal to or less than the estimated or expected delay time. This is because, as will be described later, the delay time is estimated by transmitting an SBC frame to the headphone device HP and receiving an answer regarding the transmitted SBC frame from the headphone device HP.

そこで、遅延時間と同程度以下の時間間隔で行うと、制御部11は、受信された回答がいずれのSBCフレームに関する回答かの判断に混乱をきたす可能性があるからである。また、この遅延時間の推定処理の負荷が過大になる可能性があるからである。一方、遅延時間は、必ずしも一定ではないので、遅延時間の推定は、所定の間隔で繰り返すことが妥当である。この間隔は、遅延時間の推定を繰り返し行い、推定された遅延時間の分散が小さい場合、より大きくし、分散が大きい場合、より小さくしても良い。   Therefore, if it is performed at a time interval equal to or less than the delay time, the control unit 11 may be confused in determining which of the SBC frames is the received response. In addition, the delay time estimation processing load may be excessive. On the other hand, since the delay time is not always constant, it is appropriate to repeat the estimation of the delay time at a predetermined interval. This interval may be repeatedly estimated by delay time estimation, and may be larger when the estimated delay time variance is small, and may be smaller when the variance is large.

次に、制御部11は、近距離無線送受信部43cの音声符号化部43aに指示して、SBCフレームに、再生応答要求を付加させると共に符号化音声バッファ43bに記憶させ、そのフレームに係わる音声フレーム信号24cを、音声データ切替部41を介して音声バッファ24から読み出した時刻を報告させる(ステップS11b)。   Next, the control unit 11 instructs the speech encoding unit 43a of the short-range wireless transmission / reception unit 43c to add a playback response request to the SBC frame and store it in the encoded speech buffer 43b, and the speech related to the frame. The time when the frame signal 24c is read from the audio buffer 24 via the audio data switching unit 41 is reported (step S11b).

この再生応答要求は、例えば、そのフレーム内のヘッダの1ビットを変化させることによって付加される。そして、制御部11は、音声符号化部43aによって報告された時刻をT11とする。ここで、音声符号化部43aは、時刻を、制御部11が備えるクロック(図示せず)が示す時刻によって得てもよく、STC部23が示す時刻によって得ても良い。その結果、以後、制御部11が遅延時間を推定する動作中で用いられる時刻は、これらの2つの時刻の中のいずれか一方である。   This reproduction response request is added, for example, by changing one bit of the header in the frame. Then, the control unit 11 sets the time reported by the speech encoding unit 43a as T11. Here, the speech encoding unit 43a may obtain the time based on the time indicated by a clock (not shown) included in the control unit 11 or may be obtained based on the time indicated by the STC unit 23. As a result, the time used in the operation in which the control unit 11 estimates the delay time thereafter is one of these two times.

なお、STC部23が示す時刻は、放送されたコンテンツの番組の変化等に伴い、実時刻の変化とは異なる大きな変化をすることがある。そこで、遅延時間を推定する動作中で、STC部23が示す時刻を用いた場合、上記の動作によって、予想される範囲外の遅延時間、一例として、負の遅延時間が推定されることがある。制御部11は、それらの予想される範囲外の遅延時間を破棄する。   Note that the time indicated by the STC unit 23 may change greatly from the change of the actual time due to a change in the program of the broadcasted content. Therefore, when the time indicated by the STC unit 23 is used during the operation for estimating the delay time, the above operation may estimate a delay time outside the expected range, for example, a negative delay time. . The control unit 11 discards the delay time outside the expected range.

以上の説明では、SBCフレームが遅延時間を推定するために用いられる再生応答要求が付加されたフレームであるか否かは、そのフレーム内のヘッダの1ビットである識別情報によって示されるとしたが、再生応答要求が付加されたフレームであるか否かは、ヘッダの1ビットである識別情報によると限るものではない。   In the above description, it is assumed that whether or not the SBC frame is a frame to which a playback response request used for estimating the delay time is added is indicated by identification information that is one bit of the header in the frame. Whether or not the frame is a frame to which a reproduction response request is added is not limited according to identification information that is one bit of the header.

例えば、SBCフレームには整数であるフレーム番号が付され、そのフレーム番号がある整数で割り切れる場合、そのSBCフレームは、遅延時間を推定するために用いられると識別されるとしても良い。または、所定のフレーム番号が付されたSBCフレームは、遅延時間を推定するために用いられると識別されるとしても良い。   For example, when an SBC frame is assigned a frame number that is an integer and the frame number is divisible by an integer, the SBC frame may be identified as being used for estimating the delay time. Alternatively, the SBC frame with a predetermined frame number may be identified as being used for estimating the delay time.

これらによれば、ある整数で割り切れるフレーム番号、または、所定のフレーム番号が、そのSBCフレームが遅延時間を推定するために用いられることを識別するための識別情報である。   According to these, a frame number divisible by a certain integer or a predetermined frame number is identification information for identifying that the SBC frame is used for estimating the delay time.

これらの処理によれば、再生応答要求であるか否かを示すビットの伝送が不要であり、ヘッダのビット数の減少が得られる。なお、フレーム番号を除する整数、または、所定のフレーム番号は、予め定められているとしても良く、制御部11の指示によって定められるとしても良い。また、制御部11の指示によって、変更が可能としても良い。   According to these processes, it is not necessary to transmit a bit indicating whether or not it is a reproduction response request, and a reduction in the number of bits of the header can be obtained. The integer that divides the frame number or the predetermined frame number may be determined in advance or may be determined by an instruction from the control unit 11. Further, the change may be possible by an instruction from the control unit 11.

制御部11は、近距離無線送受信部43cに指示して、上記再生応答要求が付加されたSBCフレームが近距離無線通信部43dによって近距離無線通信回線BTに送信された時刻を報告させる(ステップS11c)。報告された時刻をT12とする。続いて、近距離無線送受信部43cに指示して、上記再生応答要求が付加されたSBCフレームがヘッドフォン装置HPによって受信されたとの回答を得た時刻を報告させる(ステップS11d)。報告された時刻をT13とする。   The control unit 11 instructs the short-range wireless transmission / reception unit 43c to report the time when the SBC frame to which the reproduction response request is added is transmitted to the short-range wireless communication line BT by the short-range wireless communication unit 43d (Step S11). S11c). Let the reported time be T12. Subsequently, the short-range wireless transmission / reception unit 43c is instructed to report the time when the reply that the SBC frame to which the reproduction response request is added is received by the headphone device HP is obtained (step S11d). Let the reported time be T13.

制御部11は、更に、近距離無線送受信部43cに指示して、上記再生応答要求が付加されたSBCフレームがヘッドフォン装置HPによって出力されたとの回答を得た時刻を報告させる(ステップS11e)。報告された時刻をT14とする。   Further, the control unit 11 instructs the short-range wireless transmission / reception unit 43c to report the time when the response indicating that the SBC frame to which the reproduction response request is added is output by the headphone device HP is obtained (step S11e). Let the reported time be T14.

報告された時刻T11〜T14によって、制御部11は、遅延時間を推定して(ステップS11f)、遅延時間の推定動作を終了する(ステップS11g)。ここで、遅延時間は、
(T14−T11)−(T13−T12)/2
と算出して推定する。第1項の(T14−T11)は、SBCフレームに係わる音声フレーム信号24cが音声バッファ24から読み出されてから、そのSBCフレームに含まれる音声が出力されるまでの時間を示す。
Based on the reported times T11 to T14, the control unit 11 estimates the delay time (step S11f) and ends the delay time estimation operation (step S11g). Here, the delay time is
(T14-T11)-(T13-T12) / 2
And calculate and estimate. The first term (T14-T11) indicates the time from when the audio frame signal 24c related to the SBC frame is read from the audio buffer 24 until the audio included in the SBC frame is output.

ただし、この時間には、SBCフレームに係わる音声がヘッドフォン装置HPによって出力されたとの回答が近距離無線通信回線BTを介して伝送されるための遅延が加わっている。そこで、第2項の(T13−T12)/2は、その加わった遅延を差し引いて補正するための項である。   However, at this time, there is a delay for transmitting a response that the sound related to the SBC frame is output by the headphone device HP via the short-range wireless communication line BT. Therefore, the second term (T13-T12) / 2 is a term for subtracting and correcting the added delay.

即ち、(T13−T12)は、SBCフレームが近距離無線送受信部43cからヘッドフォン装置HPへ送信される際の近距離無線通信回線BTを介して伝送されるための遅延と、ヘッドフォン装置HPがそのフレームを受信したとの回答を送信する際の近距離無線通信回線BTを介して伝送されるための遅延との2つの遅延による遅延時間の和である。そこで、第2項では、(T13−T12)を2で除している。   That is, (T13-T12) is a delay for transmitting the SBC frame via the short-range wireless communication line BT when the SBC frame is transmitted from the short-range wireless transmission / reception unit 43c to the headphone device HP, and the headphone device HP This is a sum of delay times due to two delays, a delay for transmission via the short-range wireless communication line BT when transmitting a reply that a frame has been received. Therefore, in the second term, (T13-T12) is divided by 2.

なお、上記のように推定された遅延時間が、予想される範囲外の値である場合、制御部11は、その値を一時的な変動とみなして破棄しても良い。また、制御部11は、直近の過去に推定された所定の個数の遅延時間の平均値を算出することによって遅延時間としても良い。   When the delay time estimated as described above is a value outside the expected range, the control unit 11 may regard the value as a temporary change and discard it. Further, the control unit 11 may obtain the delay time by calculating an average value of a predetermined number of delay times estimated in the latest past.

更に、推定された遅延時間が、時刻に対して単調増加、または、単調減少しているとみなされる場合、制御部11は、遅延時間を時刻に対して1次関数であると仮定しても良い。その関数のパラメータは、例えば、最小二乗法によって求めることができる。   Furthermore, when the estimated delay time is considered to be monotonically increasing or decreasing monotonously with respect to time, the control unit 11 assumes that the delay time is a linear function with respect to time. good. The parameter of the function can be obtained by, for example, the least square method.

また、推定された遅延時間が、時刻に対して、増加及び減少を繰り返す場合、制御部11は、遅延時間を一定数と、正弦関数との和の関数であると仮定しても良い。その関数のパラメータ、即ち、一定数と、正弦関数の振幅、周波数及び初期位相は、例えば、最小二乗法によって求めることができる。   When the estimated delay time repeatedly increases and decreases with respect to time, the control unit 11 may assume that the delay time is a function of the sum of a fixed number and a sine function. The parameters of the function, that is, the constant number and the amplitude, frequency, and initial phase of the sine function can be obtained by, for example, the least square method.

次に、移動通信端末装置MSにおける映像の出力と、ヘッドフォン装置HPにおける音声の出力との同期を取る処理であって、ヘッドフォン装置HPの各部の処理を説明する。ヘッドフォン装置HPの近距離無線送受信部53は、上記要求が付加されたSBCフレームを受信すると、直ちにそのフレームが受信された旨を移動通信端末装置MSに送信する。そして、その要求が付加されたまま、SBCフレーム単位の音声信号を符号化音声バッファ54に記憶させる。   Next, a process of synchronizing the output of video in the mobile communication terminal apparatus MS and the output of sound in the headphone apparatus HP, which will be described in each part of the headphone apparatus HP. When the short-range wireless transmission / reception unit 53 of the headphone device HP receives the SBC frame to which the request is added, the short-range wireless transmission / reception unit 53 immediately transmits to the mobile communication terminal device MS that the frame has been received. Then, with the request added, the audio signal in SBC frame units is stored in the encoded audio buffer 54.

そして、音声復号化部55は、その要求が付加されたSBCフレームに係わる音声が音声再生部56からスピーカ56aに出力された際、そのSBCフレームに含まれる音声を再生した旨の回答を制御部51、近距離無線送受信部53を介して移動通信端末装置MSに送信させる。   Then, when the voice related to the SBC frame to which the request is added is output from the voice playback unit 56 to the speaker 56a, the voice decoding unit 55 sends a response indicating that the voice included in the SBC frame has been played back. 51, the mobile communication terminal device MS is made to transmit via the short-range wireless transmission / reception unit 53.

なお、SBCフレームがヘッドフォン装置HPによって出力されたとの回答が近距離無線通信回線BTを介して伝送されるための遅延時間の推定は、上記要求が付加されたSBCフレームの送受信に併せて行われると限るものではない。   Note that the estimation of the delay time for transmitting the response that the SBC frame is output by the headphone device HP via the short-range wireless communication line BT is performed together with the transmission / reception of the SBC frame to which the request is added. It is not limited.

任意のデータが近距離無線送受信部43cからヘッドフォン装置HPに送信された後、ヘッドフォン装置HPの近距離無線送受信部53によってそのデータが受信された際に、近距離無線送受信部53が直ちに受信された旨を移動通信端末装置MSに送信することによって行われるとしても良い。   After arbitrary data is transmitted from the short-range wireless transmission / reception unit 43c to the headphone device HP, when the data is received by the short-range wireless transmission / reception unit 53 of the headphone device HP, the short-range wireless transmission / reception unit 53 is immediately received. It may be performed by transmitting a message to the mobile communication terminal device MS.

また、ヘッドフォン装置HPの近距離無線送受信部53が受信された旨を移動通信端末装置MSに送信することなく、近距離無線送受信部43cが近距離無線通信回線BTの通信で用いられる所定のプロトコルのステップを行った時刻からの算出によって推定されるとしても良い。また、その遅延時間は、予め近距離無線通信部43dの仕様に従って定められるとしても良い。   Also, a predetermined protocol used by the short-range wireless transmission / reception unit 43c for communication over the short-range wireless communication line BT without transmitting the fact that the short-range wireless transmission / reception unit 53 of the headphone device HP has been received to the mobile communication terminal device MS. It may be estimated by calculation from the time when the above step is performed. The delay time may be determined in advance according to the specifications of the short-range wireless communication unit 43d.

(第2の実施形態)
第2の実施形態が第1の実施形態と異なる点は、移動通信端末装置MSにある。そこで、第2の実施形態に係わる移動通信端末装置MSの構成及び動作を説明する。なお、第1の実施形態に係わる移動通信端末装置MSと同じ部分については、同じ符号を付して説明を省略する。なお、制御部11には同じ符号を付しているが、遅延時間の推定動作に相違があるので、その動作を説明する。
(Second Embodiment)
The second embodiment is different from the first embodiment in the mobile communication terminal device MS. Therefore, the configuration and operation of the mobile communication terminal device MS according to the second embodiment will be described. Note that the same parts as those of the mobile communication terminal apparatus MS according to the first embodiment are denoted by the same reference numerals and description thereof is omitted. Although the control unit 11 is denoted by the same reference numeral, there is a difference in the delay time estimation operation, and the operation will be described.

図9は、第2の実施形態に係わる移動通信端末装置MSの構成を示すブロック図である。この移動通信端末装置MSは、図2に構成を示す第1の実施形態に係わる移動通信端末装置MSと比較して、近距離無線処理部43に代えて近距離無線処理部43−2を備え、また、遅延時間推定用のマイクロフォン44を備えている。   FIG. 9 is a block diagram showing a configuration of the mobile communication terminal apparatus MS according to the second embodiment. This mobile communication terminal device MS includes a short-range wireless processing unit 43-2 instead of the short-range wireless processing unit 43, as compared with the mobile communication terminal device MS according to the first embodiment whose configuration is shown in FIG. In addition, a microphone 44 for delay time estimation is provided.

図10は、近距離無線処理部43−2の詳細な構成を示すブロック図である。近距離無線処理部43−2は、第1の実施形態に係わる近距離無線処理部43と比較して、音声符号化部43aに代えて音声符号化部43a2を備えている。   FIG. 10 is a block diagram illustrating a detailed configuration of the short-range wireless processing unit 43-2. The short-range wireless processing unit 43-2 includes a speech encoding unit 43a2 instead of the speech encoding unit 43a, as compared with the short-range wireless processing unit 43 according to the first embodiment.

音声符号化部43a2の動作を説明する。音声符号化部43a2は、第1の実施形態に係わる音声符号化部43aの復号された音声信号24aを得て、得られた音声フレーム信号24cを符号化し、符号化された音声信号を符号化音声バッファ43bに記憶させる動作に加えて、以下の動作を行う。   The operation of the speech encoding unit 43a2 will be described. The speech encoding unit 43a2 obtains the decoded speech signal 24a of the speech encoding unit 43a according to the first embodiment, encodes the obtained speech frame signal 24c, and encodes the encoded speech signal. In addition to the operation stored in the audio buffer 43b, the following operation is performed.

音声符号化部43a2は、制御部11の指示に基づいて、所定の遅延時間推定用音声信号を符号化し、符号化された遅延時間推定用音声信号を符号化音声バッファ43bに記憶させる。ここで、所定の遅延時間推定用音声信号は、音声バッファ24に記憶される音声フレーム信号24cには含まれない人工的な音声信号であって、1つまたは複数の所定の周波数の音声信号がそれぞれ所定の音量で加算され、使用者の聴覚器官に悪影響を及ぼさない音声信号である。   The voice encoding unit 43a2 encodes a predetermined delay time estimation speech signal based on an instruction from the control unit 11, and stores the encoded delay time estimation speech signal in the encoded speech buffer 43b. Here, the predetermined delay time estimation audio signal is an artificial audio signal not included in the audio frame signal 24c stored in the audio buffer 24, and one or a plurality of audio signals having a predetermined frequency are included. These audio signals are added at a predetermined volume and do not adversely affect the user's auditory organ.

この所定の遅延時間推定用音声信号は、音声符号化部43a2によって符号化可能であり、ヘッドフォン装置HPによって出力可能であり、かつ、ヘッドフォン装置HPによって出力された音声をマイクロフォン44によって入力可能なものである。そして、ヘッドフォン装置HPによって出力された際、装置の使用者には聴取不可能、または聴取が困難であることが望ましい。即ち、人間の聴力によっては聴取が不可能、または困難な周波数からなる音声信号であることが望ましい。   The predetermined delay time estimation audio signal can be encoded by the audio encoding unit 43a2, can be output by the headphone device HP, and the audio output by the headphone device HP can be input by the microphone 44. It is. And when output by the headphone device HP, it is desirable that the user of the device is incapable of listening or difficult to hear. That is, it is desirable that the audio signal has a frequency that is impossible or difficult to hear depending on human hearing.

次に、第2の実施形態に係わる制御部11が遅延時間を推定する動作を説明する。図11は、制御部11が遅延時間を推定する動作のフローチャートを示す。制御部11は、遅延時間を推定する動作を開始し(ステップS11i)、音声符号化部43a2に指示して、所定の遅延時間推定用音声信号を符号化させ、符号化音声バッファ43bに記憶させる。そして、その符号化を開始した時刻を報告させる(ステップS11j)。報告された時刻とT21とする。   Next, an operation in which the control unit 11 according to the second embodiment estimates the delay time will be described. FIG. 11 shows a flowchart of an operation in which the control unit 11 estimates the delay time. The control unit 11 starts an operation for estimating the delay time (step S11i), instructs the speech encoding unit 43a2 to encode a predetermined delay time estimation speech signal, and stores it in the encoded speech buffer 43b. . And the time which started the encoding is reported (step S11j). Reported time and T21.

次に、制御部11は、所定の時間の待ち時間を取る(ステップS11k)。この時間は、予想される遅延時間より短い時間であり、所定の遅延時間推定用音声信号が出力された音声以外の音声であって、その遅延時間推定用音声信号が出力されたものと同じ音声がマイクロフォン44によって入力されたことによる遅延時間の誤った推定を避けるためである。   Next, the control part 11 takes the waiting time of predetermined time (step S11k). This time is shorter than the expected delay time and is a sound other than the sound from which the predetermined delay time estimation sound signal is output, and is the same sound as that from which the delay time estimation sound signal was output. This is to avoid an erroneous estimation of the delay time due to the fact that is input by the microphone 44.

続いて、制御部11は、マイクロフォン44によって入力された音声が所定の遅延時間推定用音声信号が出力されたものと一致するか否かを判断し(ステップS11m)、一致した場合、その音声がマイクロフォン44によって入力された時刻を得る(ステップS11n)。得られた時刻をT22とする。   Subsequently, the control unit 11 determines whether or not the voice input by the microphone 44 matches the output of the predetermined delay time estimation voice signal (step S11m). The time input by the microphone 44 is obtained (step S11n). Let the obtained time be T22.

そして、制御部11は、遅延時間を推定して(ステップS11o)、遅延時間の推定動作を終了する(ステップS11p)。ここで、遅延時間は、
T22−T21
と算出して推定する。
And the control part 11 estimates delay time (step S11o), and complete | finishes the estimation operation of delay time (step S11p). Here, the delay time is
T22-T21
And calculate and estimate.

ステップS11mで、一致しない場合、制御部11は、ステップS11mの、一致するか否かを判断する動作を繰り返す。また、長時間に渡って一致しない場合、制御部11は、遅延時間の推定を行わないまま、その推定動作を終了する(ステップS11p)。ここで、長時間とは、予想される遅延時間の最大値を超える時間である。   If they do not match in step S11m, the control unit 11 repeats the operation of step S11m to determine whether or not they match. On the other hand, if they do not match for a long time, the control unit 11 ends the estimation operation without estimating the delay time (step S11p). Here, the long time is a time exceeding the maximum expected delay time.

長時間に渡って一致しない場合、ヘッドフォン装置HPから出力された音声がマイクロフォン44によって入力不可能である、即ち、ヘッドフォン装置HPが動作していないことに限らず、例えば、ヘッドフォン装置HPから出力された音声の音量が小さい、または、ヘッドフォン装置HPとマイクロフォン44との間が長距離である、などの理由が考えられ、制御部11は、遅延時間の推定が不可能と判断するためである。   If they do not match for a long time, the sound output from the headphone device HP cannot be input by the microphone 44. That is, the sound is not limited to the headphone device HP not operating, for example, output from the headphone device HP. This is because the control unit 11 determines that the delay time cannot be estimated, for example, because the volume of the sound is low or the distance between the headphone device HP and the microphone 44 is long.

所定の遅延時間推定用音声信号が装置の使用者には聴取不可能、または聴取が困難であり、かつ、ヘッドフォン装置HPから出力された音声をマイクロフォン44によって入力することが常に不可能と限らない場合、制御部11は、遅延時間を推定する動作を所定の時間間隔で行う。ここで、所定の時間間隔については、第1の実施形態のおける遅延時間を推定する動作説明の際に述べた通りである。   The audio signal for estimating the delay time cannot be heard by the user of the device or is difficult to hear, and it is not always impossible to input the sound output from the headphone device HP by the microphone 44. In this case, the control unit 11 performs an operation for estimating the delay time at a predetermined time interval. Here, the predetermined time interval is as described in the description of the operation for estimating the delay time in the first embodiment.

通常、移動通信端末装置MSと、ヘッドフォン装置HPとは、数十センチメートルから1メートル程度の距離をおいて使われる。また、ヘッドフォン装置HPのスピーカ56aは、ヘッドフォン装置HPの使用者の耳の方向に音声を出力する。しかし、ヘッドフォン装置HPのスピーカ56aから出力された音声は、ヘッドフォン装置HPの周囲に漏れるように設計されることがある。   Normally, the mobile communication terminal device MS and the headphone device HP are used at a distance of about several tens of centimeters to 1 meter. The speaker 56a of the headphone device HP outputs sound in the direction of the ear of the user of the headphone device HP. However, the sound output from the speaker 56a of the headphone device HP may be designed to leak around the headphone device HP.

また、マイクロフォン44は、所定の遅延時間推定用音声信号の受信のためにあり、周波数特性や、入力された音声の増幅率は、その信号の受信専用に設計される。そこで、ヘッドフォン装置HPから出力された音声をマイクロフォン44によって入力することが常に不可能であるとは限らない。そこで、制御部11は、遅延時間を推定する動作を所定の時間間隔で行うことが、有効である。ここで、推定が常に可能ではなくとも良い。   The microphone 44 is for receiving a predetermined delay time estimation audio signal, and the frequency characteristics and the amplification factor of the input audio are designed exclusively for reception of the signal. Therefore, it is not always impossible to input the sound output from the headphone device HP through the microphone 44. Therefore, it is effective for the control unit 11 to perform an operation for estimating the delay time at predetermined time intervals. Here, estimation may not always be possible.

また、音声符号化部43a2は、所定の遅延時間推定用音声信号を符号化する際、音声バッファ24に記憶された符号化すべき音声フレーム信号24cが無音である時間帯を選択することが適切である。所定の遅延時間推定用音声信号を符号化によって、音声フレーム信号24cの符号化へ影響を与えることを避けるためである。   In addition, when the speech encoding unit 43a2 encodes a predetermined delay time estimation speech signal, it is appropriate to select a time zone in which the speech frame signal 24c to be encoded stored in the speech buffer 24 is silent. is there. This is to avoid affecting the encoding of the audio frame signal 24c by encoding the predetermined delay time estimation audio signal.

また、遅延時間推定用音声信号は、人間の聴力によっては聴取が不可能、または困難な周波数からなる音声信号であると限るものではない。人間の聴力によって聴取が可能な音声であっても、マスキング効果によって装置の使用者には聴取不可能、または聴取が困難である音声信号でも良い。   The delay time estimation audio signal is not limited to an audio signal having a frequency that cannot be heard or is difficult to hear depending on human hearing. Even a voice that can be heard by human hearing may be a voice signal that cannot be heard by a user of the apparatus due to a masking effect or that is difficult to hear.

このマスキング効果を用いる場合、音声符号化部43a2は、遅延時間推定用音声信号の周波数に近い周波数で、かつ、大きな音量の音声信号が発生される時刻の前後にのみ、遅延時間推定用音声信号を音声フレーム信号24cに加えた上で符号化する。   When this masking effect is used, the speech encoding unit 43a2 has a frequency close to the frequency of the delay time estimation speech signal and only before and after the time when the speech signal with a large volume is generated. Is added to the audio frame signal 24c and encoded.

そのため、遅延時間推定用音声信号が常に同じ周波数ではなく、適宜複数の周波数の中の1つを用いるとしても、所定の時間間隔で遅延時間推定用音声信号を符号化することはできない。しかし、所定の時間間隔ではないにせよ、繰り返して遅延時間を推定することによる効果がある。   For this reason, even if the delay time estimation speech signal is not always the same frequency and one of a plurality of frequencies is appropriately used, the delay time estimation speech signal cannot be encoded at a predetermined time interval. However, even if it is not a predetermined time interval, there is an effect by repeatedly estimating the delay time.

一方、所定の遅延時間推定用音声信号が装置の使用者に常に聴取可能、かつ、ヘッドフォン装置HPから出力された音声をマイクロフォン44によって入力することが、使用者がヘッドフォン装置HPを使用している際に常に不可能とは限らない場合、音声符号化部43a2は、音声バッファ24に記憶される音声フレーム信号24cには含まれる音声信号であって、特徴のある音声信号を遅延時間推定用音声信号とする。   On the other hand, it is possible for the user of the apparatus to always listen to a predetermined delay time estimation audio signal, and the user uses the headphone apparatus HP when the sound output from the headphone apparatus HP is input by the microphone 44. In the case where it is not always impossible, the speech encoding unit 43a2 is a speech signal included in the speech frame signal 24c stored in the speech buffer 24, and the featured speech signal is converted into a delay time estimation speech. Signal.

このように用いられる遅延時間推定用音声信号は、例えば、特徴のある周波数分布の音声信号、即ち、所定の楽器の音であり、また、所定の無音の後の大きな音量の音声信号である。この遅延時間推定用音声信号を用いる場合も、所定の時間間隔ではないにせよ、繰り返して遅延時間を推定することができる効果がある。   The delay time estimation audio signal used in this way is, for example, an audio signal having a characteristic frequency distribution, that is, a sound of a predetermined instrument, and an audio signal having a large volume after a predetermined silence. Even when this delay time estimation audio signal is used, there is an effect that the delay time can be repeatedly estimated even if it is not a predetermined time interval.

また、ヘッドフォン装置HPから出力された音声をマイクロフォン44によって入力することが、使用者がヘッドフォン装置HPを使用している際には常に不可能である場合、制御部11は、近距離無線処理部43−2に音声信号をヘッドフォン装置HPに送らせる制御をし、上記遅延時間の推定を行った後、音声データ切替部41を制御して、近距離無線処理部43−2に音声バッファ24に記憶された音声フレーム信号24cを読み出させても良い。   In addition, when it is impossible for the user to always input the sound output from the headphone device HP by the microphone 44 when the user is using the headphone device HP, the control unit 11 displays the short-range wireless processing unit. 43-2 is controlled to send the audio signal to the headphone device HP, and after estimating the delay time, the audio data switching unit 41 is controlled, and the short-range wireless processing unit 43-2 is connected to the audio buffer 24. The stored audio frame signal 24c may be read out.

また、上記遅延時間の推定に先んじて、制御部11は、使用者に対して、ヘッドフォン装置HPのスピーカ56aをマイクロフォン44に近づけるように促す報知を行うことが好ましい。この報知は、表示部15への表示、スピーカ42aからの音声出力、スピーカ56aからの音声出力などによる。   Prior to the estimation of the delay time, it is preferable that the control unit 11 notifies the user to bring the speaker 56a of the headphone device HP closer to the microphone 44. This notification is based on display on the display unit 15, sound output from the speaker 42a, sound output from the speaker 56a, and the like.

なお、第2の実施形態に係わる移動通信端末装置MS及びヘッドフォン装置HPの各部は、第1の実施形態に係わる再生応答要求が付加されたSBCフレームを作成する機能、及び、そのフレームの作成及び送受信がされた時刻を報告する機能を要しない。   Each unit of the mobile communication terminal device MS and the headphone device HP according to the second embodiment has a function of creating an SBC frame to which a reproduction response request according to the first embodiment is added, Does not require the function to report the time of transmission / reception.

以上の説明では、第2の実施形態に係わる移動通信端末装置MSは、マイクロフォン14bとは異なるマイクロフォン44を備えるとしたが、これに限るものではない。マイクロフォン44を備えず、遅延時間推定に送話用のマイクロフォン14bを用いても良い。   In the above description, the mobile communication terminal device MS according to the second embodiment is provided with the microphone 44 different from the microphone 14b, but is not limited thereto. The microphone 44b may not be provided and the transmission microphone 14b may be used for delay time estimation.

この第2の実施形態におけるヘッドフォン装置HPは、ヘッドフォン装置HPの必須機能、即ち、近距離無線通信回線BTを介して受信された音声をスピーカ56aから出力する機能以外の動作を要しない。即ち、如何なるヘッドフォン装置HPにも、この第2の実施形態を適用することが可能である。   The headphone device HP in the second embodiment does not require any operation other than the essential function of the headphone device HP, that is, the function of outputting the sound received via the short-range wireless communication line BT from the speaker 56a. In other words, the second embodiment can be applied to any headphone device HP.

(第3の実施形態)
第3の実施形態が第1の実施形態と異なる点は、ヘッドフォン装置HPにある。そこで、第2の実施形態に係わるヘッドフォン装置HPの構成及び動作を説明する。なお、第1の実施形態に係わるヘッドフォン装置HPと同じ部分については、同じ符号を付して説明を省略する。なお、移動通信端末装置MSの制御部11には同じ符号を付しているが、遅延時間の推定動作に相違があるので、その動作を説明する。
(Third embodiment)
The third embodiment is different from the first embodiment in the headphone device HP. Therefore, the configuration and operation of the headphone device HP according to the second embodiment will be described. Note that the same portions as those of the headphone device HP according to the first embodiment are denoted by the same reference numerals and description thereof is omitted. In addition, although the same code | symbol is attached | subjected to the control part 11 of mobile communication terminal device MS, since there exists a difference in the estimation operation | movement of delay time, the operation | movement is demonstrated.

図12は、第2の実施形態に係わるヘッドフォン装置HPの構成を示すブロック図である。このヘッドフォン装置HPは、図5に構成を示す第1の実施形態に係わるヘッドフォン装置HPと比較して、制御部51に代えて制御部51−3を、近距離無線送受信部53に代えて近距離無線送受信部53−3を、そして、音声復号化部55に代えて音声復号化部55−3を備える。   FIG. 12 is a block diagram showing a configuration of a headphone device HP according to the second embodiment. Compared with the headphone device HP according to the first embodiment whose configuration is shown in FIG. 5, the headphone device HP is replaced with a control unit 51-3 instead of the control unit 51 and a near-field wireless transmission / reception unit 53. The distance wireless transmission / reception unit 53-3 is provided, and a voice decoding unit 55-3 is provided instead of the voice decoding unit 55.

近距離無線送受信部53−3の動作と、第1の実施形態に係わる近距離無線送受信部53の動作との相違は、以下の点である。即ち、近距離無線送受信部53−3は、所定の識別情報が付加されたSBCフレームを受信すると、その旨を直ちに制御部51−3に通知する。一方、第1の実施形態に係わる近距離無線送受信部53は、その旨を移動通信端末装置MSに送信する。   The difference between the operation of the short-range wireless transmission / reception unit 53-3 and the operation of the short-range wireless transmission / reception unit 53 according to the first embodiment is as follows. That is, when the short-range wireless transmission / reception unit 53-3 receives the SBC frame to which the predetermined identification information is added, the short-range wireless transmission / reception unit 53-3 immediately notifies the control unit 51-3 of that fact. On the other hand, the short-range wireless transmission / reception unit 53 according to the first embodiment transmits a message to that effect to the mobile communication terminal device MS.

音声復号化部55−3の動作と、第1の実施形態に係わる音声復号化部55の動作との相違は、以下の点である。即ち、音声復号化部55−3は、所定の識別情報が付加されたSBCフレーム単位の音声信号が音声再生部56からスピーカ56aに出力された際、その旨を直ちに制御部51−3に通知する。一方、第1の実施形態に係わる音声復号化部55は、その旨を移動通信端末装置MSに送信させる。   The difference between the operation of the speech decoding unit 55-3 and the operation of the speech decoding unit 55 according to the first embodiment is as follows. That is, when the audio signal for each SBC frame to which the predetermined identification information is added is output from the audio reproduction unit 56 to the speaker 56a, the audio decoding unit 55-3 immediately notifies the control unit 51-3. To do. On the other hand, the speech decoding unit 55 according to the first embodiment transmits a message to that effect to the mobile communication terminal device MS.

制御部51−3は、第1の実施形態に係わる制御部51の動作に加えて、近距離無線送受信部53−3から送られた上記通知が受信された時刻と、音声復号化部55−3から送られた上記通知が受信された時刻との差の時間を測定する。そして、その時間(T31)を近距離無線送受信部53−3を介して移動通信端末装置MSに送信させる。このT31は、音声信号がヘッドフォン装置HPにある際に発生する遅延時間である。   In addition to the operation of the control unit 51 according to the first embodiment, the control unit 51-3 receives the time when the notification sent from the short-range wireless transmission / reception unit 53-3 is received, and the speech decoding unit 55- The time of the difference from the time when the notification sent from 3 is received is measured. Then, the time (T31) is transmitted to the mobile communication terminal device MS via the short-range wireless transmission / reception unit 53-3. This T31 is a delay time that occurs when the audio signal is in the headphone device HP.

なお、音声信号がヘッドフォン装置HPにある際に発生する遅延時間を測定するための上記の処理は、移動通信端末装置MSから所定の識別情報が付加されたSBCフレームを受信することによって行われるとしたが、これに限るものではない。ヘッドフォン装置HP内で定められた所定のSBCフレームに関して行われるとしても良い。また、測定された時間(T31)の送信は、測定される度に行われるとしたが、これに限るものではない。移動通信端末装置MSから要求を受信する度に、最新の測定された時間(T31)を、または、近い過去に測定された時間の平均を算出した時間(T31)を送信しても良い。   Note that the above-described processing for measuring the delay time generated when the audio signal is in the headphone device HP is performed by receiving an SBC frame to which predetermined identification information is added from the mobile communication terminal device MS. However, it is not limited to this. It may be performed with respect to a predetermined SBC frame defined in the headphone device HP. In addition, the transmission of the measured time (T31) is performed every time it is measured, but the present invention is not limited to this. Each time a request is received from the mobile communication terminal device MS, the latest measured time (T31) or the time (T31) calculated from the average of the times measured in the near past may be transmitted.

制御部51−3は、上述のように、2つの通知が受信された時刻の間の差の時間を得れば良く、時刻を得る必要はない。言い換えると、クロックを備える必要はないので、複雑で高価な構成とする必要はない。   As described above, the control unit 51-3 only needs to obtain the time difference between the times when the two notifications are received, and does not need to obtain the time. In other words, since it is not necessary to provide a clock, there is no need for a complicated and expensive configuration.

次に、第3の実施形態に係わる制御部11が遅延時間を推定する動作を説明する。図13は、制御部11が遅延時間を推定する動作のフローチャートを示す。なお、第1の実施形態に係わる制御部11が遅延時間を推定する動作に含まれる動作ステップについては、同じ符号を付して説明を省略する。   Next, an operation in which the control unit 11 according to the third embodiment estimates the delay time will be described. FIG. 13 shows a flowchart of the operation in which the control unit 11 estimates the delay time. In addition, about the operation | movement step included in the operation | movement which the control part 11 concerning 1st Embodiment estimates delay time, the same code | symbol is attached | subjected and description is abbreviate | omitted.

制御部11は、まず、ステップS11a〜ステップS11cの、遅延時間を推定する動作を開始し、所定の識別情報が付加されたSBCフレームに係わる音声フレーム信号24cを音声バッファ24から読み出した時刻T11を音声符号化部43aから得て、更に、上記所定の識別情報が付加されたSBCフレームが近距離無線通信回線BTに送信された時刻T12を近距離無線送受信部43cから得る動作を行う。   First, the control unit 11 starts the operation of estimating the delay time in steps S11a to S11c, and reads the time T11 when the audio frame signal 24c related to the SBC frame to which the predetermined identification information is added is read from the audio buffer 24. An operation of obtaining from the short-range wireless transmission / reception unit 43c the time T12 obtained from the speech encoding unit 43a and further transmitting the SBC frame to which the predetermined identification information is added to the short-range wireless communication line BT is performed.

続いて、制御部11は、ヘッドフォン装置HPから送信された、音声信号がヘッドフォン装置HPにある際に発生する遅延時間T31を近距離無線送受信部43cを介して受信する(ステップS11r)。   Subsequently, the control unit 11 receives the delay time T31 transmitted from the headphone device HP when the audio signal is in the headphone device HP via the short-range wireless transmission / reception unit 43c (step S11r).

そして、制御部11は、音声信号が近距離無線通信回線BTを介して伝送されるための遅延時間を推定する(ステップS11s)。この伝送されるための遅延時間は、第1の実施形態に係わる制御部11の動作説明の際に述べたような、以下の1つ、または複数の方法によって推定される。   And the control part 11 estimates the delay time for an audio | voice signal to be transmitted via short-distance radio | wireless communication line BT (step S11s). The delay time for transmission is estimated by one or more of the following methods as described in the explanation of the operation of the control unit 11 according to the first embodiment.

第1に、任意のデータが近距離無線送受信部43cからヘッドフォン装置HPに送信された後、ヘッドフォン装置HPの近距離無線送受信部53−3が直ちに受信された旨を移動通信端末装置MSに送信することによって推定される。第2に、近距離無線送受信部43cが近距離無線通信回線BTの通信で用いられる所定のプロトコルのステップを行った時刻によって推定される。第3に、予め定められた近距離無線通信部43dの仕様に従って推定される。   First, after arbitrary data is transmitted from the short-range wireless transmission / reception unit 43c to the headphone device HP, the short-range wireless transmission / reception unit 53-3 of the headphone device HP immediately transmits reception to the mobile communication terminal device MS. To be estimated. Second, it is estimated based on the time at which the short-range wireless transmission / reception unit 43c performs a step of a predetermined protocol used in the communication of the short-range wireless communication line BT. Thirdly, it is estimated according to a predetermined specification of the short-range wireless communication unit 43d.

そして、制御部11は、遅延時間を推定して(ステップS11t)、遅延時間の推定動作を終了する(ステップS11u)。ここで、遅延時間は、音声信号が移動通信端末装置MSにある際に発生する遅延時間の推定値と、音声信号がヘッドフォン装置HPにある際に発生する遅延時間の推定値と、音声信号が近距離無線通信回線BTを介して伝送されるための遅延時間の推定値との合計時間として推定される。   Then, the control unit 11 estimates the delay time (step S11t), and ends the delay time estimation operation (step S11u). Here, the delay time includes an estimated value of the delay time that occurs when the audio signal is in the mobile communication terminal device MS, an estimated value of the delay time that occurs when the audio signal is in the headphone device HP, and the audio signal. It is estimated as the total time with the estimated value of the delay time for transmission via the short-range wireless communication line BT.

音声信号が移動通信端末装置MSにある際に発生する遅延時間は、ステップS11b及びステップS11cの動作によって得られた時刻を用いて
T12−T11
であると推定される。そして、音声信号がヘッドフォン装置HPにある際に発生する遅延時間は、ステップS11rで受信された
T31
であると推定される。また、音声信号が近距離無線通信回線BTを介して伝送されるための遅延時間は、ステップS11sの動作によって推定された値である。
The delay time that occurs when the audio signal is in the mobile communication terminal device MS uses the time obtained by the operations of Step S11b and Step S11c. T12-T11
It is estimated that. The delay time generated when the audio signal is in the headphone device HP is received in step S11r T31.
It is estimated that. Further, the delay time for transmitting the audio signal via the short-range wireless communication line BT is a value estimated by the operation in step S11s.

なお、ステップS11b及びステップS11cの動作、ステップS11rの動作、ステップS11sの動作の3つの動作は、図13のフローチャートに示した順で行われると限るものではない。異なる順で行われても良い。また、3つの動作が行われる時間間隔は、独立に定められても良い。その場合、いずれかの動作が行われる度に、ステップS11tの遅延時間の推定が行われる。   Note that the three operations of the operations of Step S11b and Step S11c, the operation of Step S11r, and the operation of Step S11s are not necessarily performed in the order shown in the flowchart of FIG. It may be done in a different order. Moreover, the time interval at which the three operations are performed may be determined independently. In that case, every time any operation is performed, the delay time in step S11t is estimated.

以上の説明は、所定の識別情報が付加されたSBCフレームを用いて遅延時間を推定するとした。既に第1の実施形態の説明で述べた通り、所定の識別情報が付加されたSBCフレームは、例えば、SBCフレームに付されたフレーム番号がある整数で割り切れるSBCフレーム、また、SBCフレームに付されたフレーム番号がある整数であるSBCフレームであっても良い。   In the above description, the delay time is estimated using the SBC frame to which the predetermined identification information is added. As already described in the description of the first embodiment, an SBC frame to which predetermined identification information is added is, for example, an SBC frame that is divisible by a certain integer, or an SBC frame that is assigned to an SBC frame. The SBC frame may be an integer with a certain frame number.

前述したように、最も大きい遅延時間は、音声信号が移動通信端末装置MSにある際に発生する遅延時間であり、次に大きい遅延時間は、音声信号がヘッドフォン装置HPにある際に発生する遅延時間であることが多い。そのため、制御部11は、ステップS11b及びステップS11cの動作をより頻繁に実行して、音声信号が移動通信端末装置MSにある際に発生する遅延時間を正しく推定することが望ましい。これらの動作は、ヘッドフォン装置HPの動作に何ら影響を与えず、近距離無線通信回線BTを介した通信が発生しないため、頻繁に実行しても、ヘッドフォン装置HPによる音声出力へ影響を与える可能性が非常に小さい。   As described above, the largest delay time is a delay time that occurs when the audio signal is in the mobile communication terminal device MS, and the next largest delay time is a delay that occurs when the audio signal is in the headphone device HP. Often time. Therefore, it is desirable that the control unit 11 correctly estimates the delay time that occurs when the voice signal is in the mobile communication terminal apparatus MS by more frequently executing the operations of step S11b and step S11c. These operations have no effect on the operation of the headphone device HP, and no communication occurs via the short-range wireless communication line BT. Therefore, even if executed frequently, the sound output by the headphone device HP can be affected. Sex is very small.

一方、音声信号がヘッドフォン装置HPにある際に発生する遅延時間の推定には、ヘッドフォン装置HPの動作を必要とし、近距離無線通信回線BTを介した通信が発生する。そこで、音声信号がヘッドフォン装置HPにある際に発生する遅延時間の推定値に含まれる誤差を、音声信号がヘッドフォン装置HPにある際に発生する遅延時間の推定値に含まれる誤差よりも小さくする必要性は乏しい。   On the other hand, the estimation of the delay time that occurs when the audio signal is in the headphone device HP requires the operation of the headphone device HP, and communication occurs via the short-range wireless communication line BT. Therefore, the error included in the estimated value of the delay time that occurs when the audio signal is in the headphone device HP is made smaller than the error that is included in the estimated value of the delay time that occurs when the audio signal is in the headphone device HP. There is little need.

即ち、制御部11は、ステップS11rの動作を稀に実行しても良い。この音声信号がヘッドフォン装置HPにある際に発生する遅延時間の推定動作は、ヘッドフォン装置HPの動作を伴うので、この動作を稀に実行することは、ヘッドフォン装置HPによる音声出力への影響を避けるために望ましい。   That is, the control unit 11 may rarely execute the operation of step S11r. Since the operation of estimating the delay time that occurs when the audio signal is present in the headphone device HP is accompanied by the operation of the headphone device HP, rarely executing this operation avoids an influence on the audio output by the headphone device HP. Desirable for.

稀に実行する一例として、ヘッドフォン装置HPによる音声出力が開始される直前に1回行うことでも良い。また、音声信号がヘッドフォン装置HPにある際に発生する遅延時間が予め得られている、または、予想される場合、その得られている、または、予想される値を用いても良い。また、制御部11は、音声信号がヘッドフォン装置HPにある際に発生する遅延時間を測定する間隔を制御せず、所定の時間間隔でその遅延時間をヘッドフォン装置HPに問い合わせるとしても良い。   As an example of rare execution, it may be performed once immediately before the sound output by the headphone device HP is started. Further, when the delay time generated when the audio signal is in the headphone device HP is obtained or expected in advance, the obtained or expected value may be used. Further, the control unit 11 may inquire of the headphone device HP about the delay time at a predetermined time interval without controlling the interval for measuring the delay time generated when the audio signal is in the headphone device HP.

稀に実行する別の例として、制御部11は、テレビ処理部21によって受信されているチャンネルが変更された際、遅延時間を推定するとしても良い。チャンネルの変更は、入力装置16の所定のキー操作によって行われるので、制御部11が把握できる。また、テレビ処理部21によって受信されている放送の番組の変更の際、遅延時間を推定するとしても良い。番組の変更は、DEMUX部21cによって分離されたPCRが実時間の変化と異なる不連続な変化をすることによって把握される。   As another example that is rarely executed, the control unit 11 may estimate the delay time when the channel received by the television processing unit 21 is changed. Since the change of the channel is performed by a predetermined key operation of the input device 16, the controller 11 can grasp it. Further, the delay time may be estimated when the broadcast program received by the television processing unit 21 is changed. The change of the program is grasped when the PCR separated by the DEMUX unit 21c changes discontinuously different from the change in real time.

(その他の実施形態)
上記の第1〜第3の実施形態は、必ずしも排他的ではない。適宜組み合わせた形態とすることができる。
(Other embodiments)
The above first to third embodiments are not necessarily exclusive. Appropriate combinations can be made.

以上の説明は、テレビ放送された映像データと、音声データとを例にとって行ったが、これに限るものではない。映像データと、音声データとが、例えば、RTPプロトコルに従って受信される場合、映像データが表示される時刻を示すタイムスタンプと、音声データが出力される時刻を示すタイムスタンプとは、異なるメディアクロックが示す時刻による。しかしながら、RTCPパケットを参照して、これらのメディアクロックが示す時刻と、共通の参照クロックが示す時刻との対応を付ける処理は周知である。そこで、共通の参照クロックをSTC部23とみなすことによって、本発明の適用が可能である。   Although the above description has been made taking video data and audio data broadcast on television as examples, the present invention is not limited to this. For example, when video data and audio data are received according to the RTP protocol, a time stamp indicating the time at which the video data is displayed and a time stamp indicating the time at which the audio data is output have different media clocks. Depending on the time shown. However, referring to the RTCP packet, a process for associating the time indicated by these media clocks with the time indicated by the common reference clock is well known. Therefore, the present invention can be applied by regarding the common reference clock as the STC unit 23.

以上の説明は、テレビ処理部21によって受信される放送は、映像と音声とからなるとしたが、これに限るものではない。例えば、更に表示部15に表示される文字を含んでいても良い。この文字の表示は、以上説明した、映像再生部31が映像フレーム信号22cの再生を遅延させる処理と同じ処理によって遅延させれば良く、説明を省略する。   In the above description, the broadcast received by the television processing unit 21 is composed of video and audio. However, the present invention is not limited to this. For example, characters displayed on the display unit 15 may be further included. The display of this character may be delayed by the same process as the process of delaying the playback of the video frame signal 22c described above by the video playback unit 31, and the description thereof is omitted.

以上の説明は、移動通信端末装置MSの音声データ切替部41は、音声再生部42と、近距離無線処理部43とのいずれか一方に音声バッファ24からのデータの読み取りをさせるとしたが、これに限るものではない。これらの両方にデータの読み取りをさせるとしても良い。   In the above description, the voice data switching unit 41 of the mobile communication terminal apparatus MS causes either the voice reproduction unit 42 or the short-range wireless processing unit 43 to read data from the voice buffer 24. This is not a limitation. Both of them may be made to read data.

この両方にデータの読み取りをさせる処理のために、制御部11は、音声再生部42を制御して、音声フレーム信号24cのスピーカ42aからの出力に遅延をさせる。ここで、遅延時間は、映像再生部31に指示して映像フレーム信号22cの再生を遅延させた時間と同じ時間である。音声再生部42が音声フレーム信号24cの出力に遅延させる処理は、映像再生部31が映像フレーム信号22cの再生を遅延させる処理と同じであり、説明を省略する。   In order to make both read the data, the control unit 11 controls the audio reproduction unit 42 to delay the output of the audio frame signal 24c from the speaker 42a. Here, the delay time is the same as the time when the video playback unit 31 is instructed to delay the playback of the video frame signal 22c. The process in which the audio reproduction unit 42 delays the output of the audio frame signal 24c is the same as the process in which the video reproduction unit 31 delays the reproduction of the video frame signal 22c, and the description thereof is omitted.

このような処理によれば、本発明は、移動通信端末装置MSの表示部15の表示と、移動通信端末装置MSのスピーカ42aから発生される音声と、ヘッドフォン装置HPのスピーカ56aから発生される音声との同期を取ることに有効である。更には、本発明は、移動通信端末装置MSの表示部15に表示を行うか否かに係らず、2つのスピーカから発生される音声の同期を取ることに有効である。   According to such processing, the present invention is generated from the display of the display unit 15 of the mobile communication terminal device MS, the sound generated from the speaker 42a of the mobile communication terminal device MS, and the speaker 56a of the headphone device HP. This is effective for synchronizing with audio. Furthermore, the present invention is effective in synchronizing the sounds generated from the two speakers regardless of whether or not the display is performed on the display unit 15 of the mobile communication terminal device MS.

以上の説明は、本発明をヘッドフォン装置HPが1台である場合を例にとって行ったが、本発明は、複数のヘッドフォン装置HPを有する構成のシステムに適用することが当然に可能である。その場合、移動通信端末装置MSの制御部11は、各ヘッドフォン装置HP毎に遅延時間を推定する。   In the above description, the present invention has been described by taking as an example the case where there is one headphone device HP. However, the present invention can naturally be applied to a system having a plurality of headphone devices HP. In that case, the control unit 11 of the mobile communication terminal apparatus MS estimates the delay time for each headphone apparatus HP.

そして、制御部11は、ヘッドフォン装置HP毎の遅延時間の相違は、各ヘッドフォン装置HP向けに先行して音声信号を符号化し送信する動作で、先行する時間をヘッドフォン装置HP毎に異なる時間とすることにより打ち消す。または、符号化音声バッファ43bに記憶された音声信号を各ヘッドフォン装置HPへ送信させるにあたり、近距離無線送受信部43cに送信する時刻を各ヘッドフォン装置HP毎に異なる時刻とすることにより打ち消す。   The difference in the delay time for each headphone device HP is that the control unit 11 encodes and transmits the audio signal in advance for each headphone device HP, and sets the preceding time to be different for each headphone device HP. To cancel. Alternatively, when transmitting the audio signal stored in the encoded audio buffer 43b to each headphone device HP, the time to transmit to the short-range wireless transmission / reception unit 43c is canceled by setting the time different for each headphone device HP.

以上の説明は、本発明を移動通信端末装置MS及びヘッドフォン装置HPに適用した例を用いた。しかし、本発明の適用は、これらの装置に限るものではない。例えば、移動通信端末装置MSに代えて、固定式または携帯式のテレビ受像機に適用しても良い。それによって、テレビ受像機から音声を出力することなく、または、小さい音量の音声を出力し、テレビ視聴者の近くに置かれたヘッドフォン装置HPから適切な大きさの音量で音声を出力させることができる。これによって、テレビ視聴者以外の者は、テレビ放送された音声によって静粛を破られることがない。   The above description uses an example in which the present invention is applied to the mobile communication terminal device MS and the headphone device HP. However, the application of the present invention is not limited to these apparatuses. For example, instead of the mobile communication terminal apparatus MS, the present invention may be applied to a fixed or portable television receiver. Thereby, without outputting the sound from the television receiver or outputting the sound with a small volume, the sound can be output with an appropriate volume from the headphone device HP placed near the TV viewer. it can. Thus, a person other than the television viewer is not broken by the sound broadcast on the television.

また、本発明を、ヘッドフォン装置HPに代えて、商用電源によって駆動され、大きな音量の音声を出力する音声出力装置に適用することが当然に可能である。   Further, the present invention can naturally be applied to an audio output device that is driven by a commercial power supply and outputs a sound with a large volume instead of the headphone device HP.

以上の説明は、音声信号はモノラル信号であるとしたが、これに限るものではない。ステレオ信号であっても全く同様に処理すれば良い。また、ステレオ信号の一方の音声が移動通信端末装置MSのスピーカ42aから出力され、他方の音声ヘッドフォン装置HPのスピーカ56aから出力されても良い。更に、ステレオ信号のそれぞれの音声が異なるヘッドフォン装置HPから出力されても良い。本発明は以上の構成に限定されるものではなく、種々の変形が可能である。   In the above description, the audio signal is a monaural signal, but the present invention is not limited to this. Even a stereo signal may be processed in exactly the same way. Further, one sound of the stereo signal may be output from the speaker 42a of the mobile communication terminal device MS and may be output from the speaker 56a of the other sound headphone device HP. Furthermore, the sound of each stereo signal may be output from different headphone devices HP. The present invention is not limited to the above configuration, and various modifications are possible.

本発明の第1の実施形態に係る移動通信端末装置と、ヘッドフォン装置が接続された構成を示すブロック図1 is a block diagram showing a configuration in which a mobile communication terminal device according to a first embodiment of the present invention and a headphone device are connected. 本発明の第1の実施形態に係る移動通信端末装置の構成を示すブロック図。The block diagram which shows the structure of the mobile communication terminal device which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係るテレビ処理部の詳細な構成を示す図。The figure which shows the detailed structure of the television processing part which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る近距離無線処理部の詳細な構成を示す図。The figure which shows the detailed structure of the short distance radio | wireless process part which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係るヘッドフォン装置の構成を示すブロック図。1 is a block diagram showing a configuration of a headphone device according to a first embodiment of the present invention. 本発明の第1の実施形態に係る映像バッファに記憶される復号された映像信号の形式の一例を示す図。The figure which shows an example of the format of the decoded video signal memorize | stored in the video buffer which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る音声バッファに記憶される復号された音声信号の形式の一例を示す図。The figure which shows an example of the format of the decoded audio | voice signal memorize | stored in the audio | voice buffer which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る制御部が遅延時間を推定する動作のフローチャート。The flowchart of the operation | movement which the control part which concerns on the 1st Embodiment of this invention estimates delay time. 本発明の第2の実施形態に係る移動通信端末装置の構成を示すブロック図。The block diagram which shows the structure of the mobile communication terminal device which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態に係る近距離無線処理部の詳細な構成を示す図。The figure which shows the detailed structure of the short distance radio | wireless process part which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態に係る制御部が遅延時間を推定する動作のフローチャート。The flowchart of the operation | movement which the control part which concerns on the 2nd Embodiment of this invention estimates delay time. 本発明の第3の実施形態に係るヘッドフォン装置の構成を示すブロック図。The block diagram which shows the structure of the headphone apparatus which concerns on the 3rd Embodiment of this invention. 本発明の第3の実施形態に係る制御部が遅延時間を推定する動作のフローチャート。The flowchart of the operation | movement which the control part which concerns on the 3rd Embodiment of this invention estimates delay time.

符号の説明Explanation of symbols

MS 移動通信端末装置
HP ヘッドフォン装置
BT 近距離無線通信回線
11、51、51−3 制御部
15 表示部
21 テレビ処理部
22 映像バッファ
22a 復号された映像信号
22b、24b PTS
22c 映像フレーム信号
23 STC部
24 音声バッファ
24a 復号された音声信号
24c 音声フレーム信号
31 映像再生部
41 音声データ切替部
42、56 音声再生部
42a、56a スピーカ
43、43−2 近距離無線処理部
43a、43a2 音声符号化部
43b、54 符号化音声バッファ
43c、53、53−3 近距離無線送受信部
43d、52 近距離無線通信部
44 マイクロフォン
55、55−3 音声復号化部
MS Mobile communication terminal device HP Headphone device BT Short-range wireless communication line 11, 51, 51-3 Control unit 15 Display unit 21 TV processing unit 22 Video buffer 22a Decoded video signal 22b, 24b PTS
22c Video frame signal 23 STC unit 24 Audio buffer 24a Decoded audio signal 24c Audio frame signal 31 Video playback unit 41 Audio data switching unit 42, 56 Audio playback unit 42a, 56a Speaker 43, 43-2 Short-range wireless processing unit 43a 43a2 Speech encoding unit 43b, 54 Encoded speech buffer 43c, 53, 53-3 Short-range wireless transmission / reception unit 43d, 52 Short-range wireless communication unit 44 Microphone 55, 55-3 Speech decoding unit

Claims (7)

映像データと、その映像データが表示される時刻と、音声データと、その音声データが出力される時刻とからなるコンテンツの映像データを表示し、かつ、そのコンテンツの音声データを音声出力装置に出力させる映像表示装置であって、
映像データを表示する表示手段と、
前記音声出力装置と近距離無線回線を介して通信する近距離無線処理手段と、
前記近距離無線処理手段が音声データを前記音声出力装置へ送信する処理を開始した時刻と、その音声出力装置からその音声データを出力した旨の通知を前記近距離無線処理手段が受信した時刻との差によって音声遅延時間を推定する音声遅延時間推定手段と、
映像データをその映像データが表示される時刻と映像遅延時間とを加えた時刻に前記表示手段に表示させ、かつ、音声データを前記音声出力装置へ送信する処理を、その音声データが出力される時刻から前記音声遅延時間を減じて前記映像遅延時間を加えた時刻に前記近距離無線処理手段に開始させる映像音声同期制御手段とを有する
ことを特徴とする映像表示装置。
Displays video data of content consisting of video data, time when the video data is displayed, audio data, and time when the audio data is output, and outputs the audio data of the content to the audio output device A video display device,
Display means for displaying video data;
Short-range wireless processing means for communicating with the voice output device via a short-range wireless line;
A time at which the short-range wireless processing means has started processing to transmit voice data to the voice output device; and a time at which the short-range wireless processing means has received notification that the voice data has been output from the voice output device; Voice delay time estimation means for estimating the voice delay time based on the difference between
Displaying the video data on the display means at the time when the video data is displayed and the video delay time, and transmitting the audio data to the audio output device, the audio data is output. And a video / audio synchronization control unit which causes the short-range wireless processing unit to start at a time obtained by subtracting the audio delay time from the time and adding the video delay time.
前記音声遅延時間推定手段は、前記近距離無線処理手段が前記近距離無線回線を介して前記通知を前記音声出力装置から受信する時間を減じることによって前記音声遅延時間を補正する
ことを特徴とする請求項1に記載の映像表示装置。
The voice delay time estimating means corrects the voice delay time by reducing a time during which the short-range wireless processing means receives the notification from the voice output device via the short-range wireless line. The video display device according to claim 1.
映像表示装置と近距離無線回線を介して通信する近距離無線処理手段と、
前記近距離無線処理手段によって受信された音声データをスピーカから出力する音声出力手段と、
前記音声出力手段が所定の識別情報が付加された音声データを出力した際、その音声データを出力した旨を前記近距離無線処理手段を制御して前記映像表示装置に通知させる映像音声同期制御手段とを有する
ことを特徴とする音声出力装置。
Short-range wireless processing means for communicating with the video display device via a short-range wireless line;
Audio output means for outputting audio data received by the short-range wireless processing means from a speaker;
When the audio output means outputs audio data to which predetermined identification information is added, video / audio synchronization control means for controlling the short-range wireless processing means to notify the video display device that the audio data has been output. And an audio output device.
映像データと、その映像データが表示される時刻と、音声データと、その音声データが出力される時刻とからなるコンテンツの映像データを表示し、かつ、そのコンテンツの音声データを音声出力装置に出力させる映像表示装置であって、
映像データを表示する表示手段と、
前記音声出力装置と近距離無線回線を介して通信する近距離無線処理手段と、
マイクロフォンと、
前記近距離無線処理手段が音声データを前記音声出力装置へ送信する処理を開始した時刻と、前記マイクロフォンがその音声データが出力された音声を入力した時刻との差によって音声遅延時間を推定する音声遅延時間推定手段と、
映像データをその映像データが表示される時刻と映像遅延時間とを加えた時刻に前記表示手段に表示させ、かつ、音声データを前記音声出力装置へ送信する処理を、その音声データが出力される時刻から前記音声遅延時間を減じて前記映像遅延時間を加えた時刻に前記近距離無線処理手段に開始させる映像音声同期制御手段とを有する
ことを特徴とする映像表示装置。
Displays video data of content consisting of video data, time when the video data is displayed, audio data, and time when the audio data is output, and outputs the audio data of the content to the audio output device A video display device,
Display means for displaying video data;
Short-range wireless processing means for communicating with the voice output device via a short-range wireless line;
A microphone,
A voice that estimates a voice delay time based on a difference between a time when the short-range wireless processing means starts a process of sending voice data to the voice output device and a time when the microphone inputs a voice when the voice data is output. A delay time estimating means;
Displaying the video data on the display means at the time when the video data is displayed and the video delay time, and transmitting the audio data to the audio output device, the audio data is output. And a video / audio synchronization control unit which causes the short-range wireless processing unit to start at a time obtained by subtracting the audio delay time from the time and adding the video delay time.
映像データと、その映像データが表示される時刻と、音声データと、その音声データが出力される時刻とからなるコンテンツの映像データを表示し、かつ、そのコンテンツの音声データを音声出力装置に出力させる映像表示装置であって、
映像データを表示する表示手段と、
前記音声出力装置と近距離無線回線を介して通信する近距離無線処理手段と、
前記近距離無線処理手段が音声データを前記音声出力装置へ送信する処理を開始してから終了するまでの時間と、前記近距離無線処理手段が前記音声出力装置から受信した前記音声出力装置が音声データを受信してから、その音声データを出力するまでの測定された時間との和によって音声遅延時間を推定する音声遅延時間推定手段と、
映像データをその映像データが表示される時刻と映像遅延時間とを加えた時刻に前記表示手段に表示させ、かつ、音声データを前記音声出力装置へ送信する処理を、その音声データが出力される時刻から前記音声遅延時間を減じて前記映像遅延時間を加えた時刻に前記近距離無線処理手段に開始させる映像音声同期制御手段とを有する
ことを特徴とする映像表示装置。
Displays video data of content consisting of video data, time when the video data is displayed, audio data, and time when the audio data is output, and outputs the audio data of the content to the audio output device A video display device,
Display means for displaying video data;
Short-range wireless processing means for communicating with the voice output device via a short-range wireless line;
The time from when the short-range wireless processing means starts processing to transmit the audio data to the voice output device to the end thereof, and the voice output device received by the short-range wireless processing means from the voice output device Voice delay time estimating means for estimating the voice delay time by the sum of the measured time from the reception of the data to the output of the voice data;
Displaying the video data on the display means at the time when the video data is displayed and the video delay time, and transmitting the audio data to the audio output device, the audio data is output. And a video / audio synchronization control unit which causes the short-range wireless processing unit to start at a time obtained by subtracting the audio delay time from the time and adding the video delay time.
前記音声遅延時間推定手段は、前記近距離無線処理手段が前記近距離無線回線を介して前記音声データを前記音声出力装置へ送信する時間を加えることによって前記音声遅延時間を補正する
ことを特徴とする請求項5に記載の映像表示装置。
The voice delay time estimating means corrects the voice delay time by adding a time for the short-range wireless processing means to transmit the voice data to the voice output device via the short-range radio line. The video display device according to claim 5.
映像表示装置と近距離無線回線を介して通信する近距離無線処理手段と、
前記近距離無線処理手段によって受信された音声データをスピーカから出力する音声出力手段と、
前記近距離無線処理手段が音声データを受信してから前記音声出力手段がその音声データを出力までの時間を測定し、その時間を前記近距離無線処理手段を制御して前記映像表示装置に通知させる映像音声同期制御手段とを有する
ことを特徴とする音声出力装置。
Short-range wireless processing means for communicating with the video display device via a short-range wireless line;
Audio output means for outputting audio data received by the short-range wireless processing means from a speaker;
The audio output means measures the time until the audio data is output after the short distance wireless processing means receives the audio data, and notifies the video display device of the time by controlling the short distance radio processing means. And an audio / video synchronization control means.
JP2007256418A 2007-09-28 2007-09-28 Video display device and audio output device Expired - Fee Related JP5115120B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007256418A JP5115120B2 (en) 2007-09-28 2007-09-28 Video display device and audio output device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007256418A JP5115120B2 (en) 2007-09-28 2007-09-28 Video display device and audio output device

Publications (2)

Publication Number Publication Date
JP2009089056A JP2009089056A (en) 2009-04-23
JP5115120B2 true JP5115120B2 (en) 2013-01-09

Family

ID=40661860

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007256418A Expired - Fee Related JP5115120B2 (en) 2007-09-28 2007-09-28 Video display device and audio output device

Country Status (1)

Country Link
JP (1) JP5115120B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112013005221T5 (en) * 2012-10-30 2015-08-20 Mitsubishi Electric Corporation Audio / video reproduction system, video display device and audio output device
JP2014110564A (en) * 2012-12-03 2014-06-12 Konami Digital Entertainment Co Ltd Output timing control device, output timing control system, output timing control method, and program
JP6086764B2 (en) * 2013-03-12 2017-03-01 アルパイン株式会社 Electronic device, guidance voice output program, and guidance voice output method
KR102201617B1 (en) 2014-01-07 2021-01-12 삼성전자 주식회사 Av device and control method thereof
CN113157238A (en) * 2021-04-19 2021-07-23 深圳市艾酷通信软件有限公司 Audio playing method and device, earphone, electronic equipment and storage medium

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005079614A (en) * 2003-08-29 2005-03-24 Toshiba Corp Mobile sound output apparatus, contents reproducing apparatus, wireless channel control method, and synchronization control method
JP4535735B2 (en) * 2004-01-23 2010-09-01 三洋電機株式会社 Video display device

Also Published As

Publication number Publication date
JP2009089056A (en) 2009-04-23

Similar Documents

Publication Publication Date Title
TW200901744A (en) Headset having wirelessly linked earpieces
US9026049B2 (en) Apparatus and method for playing music
JP2010068406A (en) Streaming data reproducing apparatus with short range radio communication function
US20050186993A1 (en) Communication apparatus for playing sound signals
JP5115120B2 (en) Video display device and audio output device
EP2979399A1 (en) Method and device for latency adjustment
US9438963B2 (en) Wireless audio transmission method and device
WO2006025493A1 (en) Information terminal
US20220021980A1 (en) Terminal, audio cooperative reproduction system, and content display apparatus
KR100557131B1 (en) Apparatus and method for transmitting an audio signal detected from digital multimedia broadcasting signal in mobile terminal equipment
JP2010011274A (en) Video/audio output device and method
JP2005295196A (en) Communicating method, transmitting method and apparatus, receiving method and apparatus
US20240022783A1 (en) Multimedia playback synchronization
KR100644039B1 (en) Method for transmitting and receiving multi-media data in real-time for mobile phone and mobile phone thereof
JP4892090B1 (en) Information transmitting apparatus, information transmitting method, and information transmitting program
JP5540492B2 (en) Communication device, sound effect output control program, and sound effect output control method
KR20140012463A (en) Broadcast receiver and method of processing an audio signal in the broadcast receiver
JP2007166249A (en) Portable terminal device
US20220121417A1 (en) Audio device and associated control method
JP2012015707A (en) Radio device and computer program
JP2007318625A (en) Group call system
EP1940134A2 (en) Internet telephone set with additional function to reproduce sound differing from sound based on general internet telephone, as well as internet telephone system including such internet telephone set
JP2003289346A (en) Mobile radio terminal equipment and data reproducing device
Tatlas et al. WLAN Technologies for Audio Delivery
KR100689459B1 (en) Mobile communication terminal for having fm transmitter transmitting audio signal for external audio apparatus and it's method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100728

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20100922

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20101028

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120918

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121001

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151026

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees