JP5735360B2 - Information terminal, information device, and system comprising these - Google Patents

Information terminal, information device, and system comprising these Download PDF

Info

Publication number
JP5735360B2
JP5735360B2 JP2011140085A JP2011140085A JP5735360B2 JP 5735360 B2 JP5735360 B2 JP 5735360B2 JP 2011140085 A JP2011140085 A JP 2011140085A JP 2011140085 A JP2011140085 A JP 2011140085A JP 5735360 B2 JP5735360 B2 JP 5735360B2
Authority
JP
Japan
Prior art keywords
audio
volume
output
information
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011140085A
Other languages
Japanese (ja)
Other versions
JP2013007876A (en
Inventor
岡本 周之
周之 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Maxell Energy Ltd
Original Assignee
Hitachi Maxell Energy Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Maxell Energy Ltd filed Critical Hitachi Maxell Energy Ltd
Priority to JP2011140085A priority Critical patent/JP5735360B2/en
Publication of JP2013007876A publication Critical patent/JP2013007876A/en
Application granted granted Critical
Publication of JP5735360B2 publication Critical patent/JP5735360B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、情報端末、情報機器及びこれらからなるシステムに関する。   The present invention relates to an information terminal, an information device, and a system including these.

近年、テレビとモバイル端末を連携させる使用法が提案され始めている。   In recent years, a method of using a television and a mobile terminal in cooperation has been proposed.

一例として、ユーザがテレビの視聴を行いながら、手元のモバイル端末でも視聴を行うというような使用法がある。   As an example, there is a usage in which a user views a TV while watching the mobile terminal at hand.

上記例の場合、ユーザは、テレビとモバイル端末の両方から出力される音声を聞くこととなるため、両方の音声の出力タイミングを同期させ、違和感のない視聴環境を提供する必要がある。   In the case of the above example, since the user listens to the sound output from both the television and the mobile terminal, it is necessary to synchronize the output timings of both the sounds and provide a viewing environment without a sense of incongruity.

これを解決するために、一つの方法として、特許文献1に挙げられる方法がある。   In order to solve this, there is a method described in Patent Document 1 as one method.

当該特許文献1には、メディアデータパケットの同期再生システムが記載されている。このシステムでは、メディアソース(例えば音声配信機器)が、タイムスタンプ付きのメディアデータパケット(例えば音声データ)を複数のメディアシンク(例えば音声出力機器)に送信し、各々のメディアシンクが、受信したメディアデータパケットのタイムスタンプが表す時間にメディアデータパケットを再生するため、例えば、複数の機器が同期して音声出力することができる。(段落0039参照)   The patent document 1 describes a synchronized reproduction system for media data packets. In this system, a media source (for example, an audio distribution device) transmits a media data packet with a time stamp (for example, audio data) to a plurality of media sinks (for example, an audio output device), and each media sink receives the received media. Since the media data packet is reproduced at the time indicated by the time stamp of the data packet, for example, a plurality of devices can output audio in synchronization. (See paragraph 0039)

特開2004-104796号公報Japanese Patent Laid-Open No. 2004-104796

しかしながら、特許文献1のシステムをテレビとモバイル端末の上記使用シーンに適用させる場合、タイムスタンプ付きの音声データを放送局側で用意する必要がある。また、テレビとモバイル端末が、時間計算の基準となる自装置のシステムクロックを互いに正確に一致させておく必要がある。     However, when the system of Patent Document 1 is applied to the above usage scenes of a television and a mobile terminal, it is necessary to prepare audio data with a time stamp on the broadcast station side. Also, it is necessary for the television and the mobile terminal to have the system clocks of their own devices, which are the basis for time calculation, accurately match each other.

そこで、本発明は、タイムスタンプを用いずに同期可能な情報端末、情報機器及びこれらからなるシステムを提供することを目的とする。   Accordingly, an object of the present invention is to provide an information terminal, an information device, and a system including these that can be synchronized without using a time stamp.

上記目的を達成するために、例えば特許請求の範囲に記載の構成を採用する。   In order to achieve the above object, for example, the configuration described in the claims is adopted.

本発明によれば、タイムスタンプを用いずに同期可能な情報端末、情報機器及びこれらからなるシステムを提供できる。   ADVANTAGE OF THE INVENTION According to this invention, the information terminal which can synchronize without using a time stamp, information equipment, and the system which consists of these can be provided.

上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。   Problems, configurations, and effects other than those described above will be clarified by the following description of embodiments.

実施例1のシステム概念図である。1 is a system conceptual diagram of Embodiment 1. FIG. 実施例1の音声出力機器1の構成図の例である。1 is an example of a configuration diagram of an audio output device 1 of Example 1. FIG. 実施例1の音声出力機器1のデータフロー図の例である。It is an example of the data flow figure of the audio | voice output apparatus 1 of Example 1. FIG. 実施例1および実施例2の音声出力機器2の構成図の例である。It is an example of the block diagram of the audio | voice output apparatus 2 of Example 1 and Example 2. FIG. 実施例1および実施例2の音声出力機器2のデータフロー図の例である。It is an example of the data flow figure of the audio | voice output apparatus 2 of Example 1 and Example 2. FIG. 実施例1の音声出力機器1と音声出力機器2の処理フロー図の例である。It is an example of the processing flow figure of the audio | voice output apparatus 1 of Example 1, and the audio | voice output apparatus 2. 実施例2のシステム概念図である。FIG. 6 is a conceptual diagram of a system according to a second embodiment. 実施例2の音声出力機器1の構成図の例である。It is an example of the block diagram of the audio | voice output apparatus 1 of Example 2. FIG. 実施例2の音声出力機器1のデータフロー図の例である。It is an example of the data flow figure of the audio | voice output apparatus 1 of Example 2. FIG. 実施例2の音声出力機器1と音声出力機器2の処理フロー図の例である。It is an example of the processing flowchart of the audio | voice output apparatus 1 and the audio | voice output apparatus 2 of Example 2. FIG. 実施例2の音量情報管理データベース1211の例である。It is an example of the volume information management database 1211 of Example 2. 実施例3のシステム概念図である。FIG. 10 is a conceptual diagram of a system according to a third embodiment. 実施例3の音声出力機器1の構成図の例である。It is an example of the block diagram of the audio | voice output apparatus 1 of Example 3. FIG. 実施例3の音声出力機器1のデータフロー図の例である。It is an example of the data flow figure of the audio | voice output apparatus 1 of Example 3. FIG. 実施例3の音声出力機器2の構成図の例である。It is an example of the block diagram of the audio | voice output apparatus 2 of Example 3. FIG. 実施例3の音声出力機器2のデータフロー図の例である。It is an example of the data flow figure of the audio | voice output apparatus 2 of Example 3. FIG. 実施例3の音声出力機器1と音声出力機器2の処理フロー図の例である。It is an example of the processing flow figure of the audio | voice output apparatus 1 and the audio | voice output apparatus 2 of Example 3. FIG. 実施例3の音量情報管理データベース1211の例である。It is an example of the volume information management database 1211 of Example 3.

以下、実施例を図面を用いて説明する。     Hereinafter, examples will be described with reference to the drawings.

本実施例では、音声出力機器1が、ネットワーク接続された音声出力機器2と同期して音声を出力する例を説明する。   In this embodiment, an example will be described in which the audio output device 1 outputs audio in synchronization with the audio output device 2 connected to the network.

まず、本実施例におけるシステムの概念について図1を用いて説明する。   First, the concept of the system in the present embodiment will be described with reference to FIG.

図1に示す様に本実施例のシステムは、音声出力機器1と音声出力機器2から成る。音声出力機器2が出力する音声は、利用者と音声出力機器1に届く。音声出力機器1が出力する音声は、利用者に届く。音声出力機器1と音声出力機器2はネットワークで接続されており、音声出力機器2から音声出力機器1に音声データが送信される。音声データとは、音声を符号化した情報のことを指す。   As shown in FIG. 1, the system of this embodiment includes an audio output device 1 and an audio output device 2. The sound output from the sound output device 2 reaches the user and the sound output device 1. The sound output from the sound output device 1 reaches the user. The audio output device 1 and the audio output device 2 are connected via a network, and audio data is transmitted from the audio output device 2 to the audio output device 1. Audio data refers to information obtained by encoding audio.

次に、本実施例による音声出力機器1の概略構成について図2を用いて説明する。   Next, a schematic configuration of the audio output device 1 according to the present embodiment will be described with reference to FIG.

図2に示す様に本実施例の音声出力機器1は、制御装置11と、記録装置12と、音声入力装置13と、音声出力装置14と、通信装置15と、操作入力装置16と、表示装置17とを有している。   As shown in FIG. 2, the audio output device 1 of the present embodiment includes a control device 11, a recording device 12, an audio input device 13, an audio output device 14, a communication device 15, an operation input device 16, and a display. Device 17.

制御装置11は、記録装置12が保持している処理プログラムを実行し、機器全体の動作を制御する装置である。   The control device 11 is a device that executes the processing program held by the recording device 12 and controls the operation of the entire device.

記録装置12は、音声出力機器1の動作を制御する処理プログラム、各種情報を管理するデータベース、音声データなどを記録する装置である。記録装置12の例としては、ディスク、テープ、半導体などがある。記録装置12が保持する処理プログラムには、機器制御処理部121と、音声データ取得処理部122と、音声入力処理部123と、時間差測定処理部124と、時間調整処理部125と、音声出力処理部126とがある。また、記録装置12は、音声データを一時的に保存する音声データバッファ1212を有している。   The recording device 12 is a device that records a processing program for controlling the operation of the audio output device 1, a database for managing various information, audio data, and the like. Examples of the recording device 12 include a disk, a tape, and a semiconductor. The processing program held by the recording device 12 includes a device control processing unit 121, an audio data acquisition processing unit 122, an audio input processing unit 123, a time difference measurement processing unit 124, a time adjustment processing unit 125, and an audio output process. Part 126. The recording device 12 also has an audio data buffer 1212 that temporarily stores audio data.

機器制御処理部121は、音声出力機器1の各装置を連携させ、音声出力機器として動作させる処理部である。例えば、通信装置15に入力された音声データを、音声出力装置14に出力させる音声出力機能などを実現する。他の処理部については、詳細を後述する。   The device control processing unit 121 is a processing unit that causes each device of the sound output device 1 to operate in cooperation with each other. For example, an audio output function for causing the audio output device 14 to output audio data input to the communication device 15 is realized. Details of other processing units will be described later.

音声入力装置13は、音声を入力する装置である。音声入力装置13の例としては、マイクなどの集音装置がある。   The voice input device 13 is a device for inputting voice. An example of the voice input device 13 is a sound collection device such as a microphone.

音声出力装置14は、音声を出力する装置である。音声出力装置14の例としては、スピーカなどの放音装置がある。   The audio output device 14 is a device that outputs audio. An example of the audio output device 14 is a sound emitting device such as a speaker.

通信装置15は、ネットワークを介して他の機器と通信を行う装置である。通信方式の例としては、USB(Universal Serial Bus)、IEEE1394(Institute of Electrical and Electronic Engineers 1394)、イーサネット(登録商標)、無線LAN(Local Area Network)、HDMI(High-Definition Multimedia Interface)などがある。   The communication device 15 is a device that communicates with other devices via a network. Examples of communication methods include USB (Universal Serial Bus), IEEE1394 (Institute of Electrical and Electronic Engineers 1394), Ethernet (registered trademark), wireless LAN (Local Area Network), and HDMI (High-Definition Multimedia Interface). .

操作入力装置16は、利用者が音声出力機器1を操作するインタフェイス装置である。操作入力装置16の例としては、ボタン、スイッチ、キー、ダイアル、スティック、マウス、リモートコントローラ、タッチパネルなどがある。   The operation input device 16 is an interface device that allows the user to operate the audio output device 1. Examples of the operation input device 16 include buttons, switches, keys, dials, sticks, mice, remote controllers, and touch panels.

表示装置17は、利用者に向けて機器操作用画面などを表示する装置である。表示装置17の例としては、液晶パネル、プラズマディスプレイパネル、有機ELパネルなどがある。なお、音声出力機器1は表示装置17を機器内に備えていなくてもよく、機器外に接続された表示装置17にて所望の画像が表示されるように、画像データを出力してもよい。   The display device 17 is a device that displays a device operation screen or the like for the user. Examples of the display device 17 include a liquid crystal panel, a plasma display panel, and an organic EL panel. Note that the audio output device 1 may not include the display device 17 in the device, and may output image data so that a desired image is displayed on the display device 17 connected outside the device. .

なお、音声データバッファ1212は、音声データを一時的に保存しても良いし、長期間保存しても良い。   Note that the audio data buffer 1212 may store audio data temporarily or for a long time.

次に、本実施例による音声出力機器1の各処理部の役割とデータフローについて図3を用いて説明する。   Next, the role and data flow of each processing unit of the audio output device 1 according to the present embodiment will be described with reference to FIG.

図3は、本実施例による音声出力機器1のデータフロー図の例であるが、機器制御処理部121が音声出力機器1の各装置を連携させる際のデータフローについては省略している。   FIG. 3 is an example of a data flow diagram of the audio output device 1 according to the present embodiment, but a data flow when the device control processing unit 121 links each device of the audio output device 1 is omitted.

音声データ取得処理部122は、ネットワーク接続された音声出力機器2から通信装置15を介して音声データ(以下では、取得音声データ101とする)を含む通信データを受信し、取得音声データ101を取得する処理部である。また、音声データ取得処理部122は、取得音声データ101を、時間差測定処理部124に渡し、音声データバッファ1212に保存する。   The audio data acquisition processing unit 122 receives communication data including audio data (hereinafter, acquired audio data 101) from the audio output device 2 connected to the network via the communication device 15, and acquires the acquired audio data 101. Is a processing unit. The audio data acquisition processing unit 122 passes the acquired audio data 101 to the time difference measurement processing unit 124 and stores it in the audio data buffer 1212.

音声入力処理部123は、音声入力装置13で入力された音声(以下では、入力音声103とする)を音声データ(以下では、入力音声データ104とする)に変換する処理部である。また、音声入力処理部123は、入力音声データ104を、時間差測定処理部124に渡す。   The voice input processing unit 123 is a processing unit that converts voice (hereinafter referred to as input voice 103) input by the voice input device 13 into voice data (hereinafter referred to as input voice data 104). In addition, the voice input processing unit 123 passes the input voice data 104 to the time difference measurement processing unit 124.

時間差測定処理部124は、取得音声データ101におけるある特徴部分を出力可能な時刻と、入力音声データ104の同じまたは類似の特徴部分が現れる時刻と、の時間差を測定する処理部である。時間差測定処理部124は、測定した時間差を含む時間差情報105を、時間調整処理部125に渡す。   The time difference measurement processing unit 124 is a processing unit that measures a time difference between a time at which a certain characteristic part in the acquired voice data 101 can be output and a time at which the same or similar characteristic part of the input voice data 104 appears. The time difference measurement processing unit 124 passes the time difference information 105 including the measured time difference to the time adjustment processing unit 125.

時間調整処理部125は、取得音声データ101を、音声データバッファ1212から読み出し、時間差情報105から抽出した時間差分だけ時間調整し、音声出力処理部126に渡す処理部である。   The time adjustment processing unit 125 is a processing unit that reads the acquired audio data 101 from the audio data buffer 1212, adjusts the time by the time difference extracted from the time difference information 105, and passes it to the audio output processing unit 126.

音声出力処理部126は、取得音声データ101を音声(以下では、出力音声102とする)に変換し、音声出力装置14で出力する処理部である。   The sound output processing unit 126 is a processing unit that converts the acquired sound data 101 into sound (hereinafter, referred to as output sound 102) and outputs the sound by the sound output device 14.

なお、音声データ取得処理部122は、時間差測定処理部124へ取得音声データ101を直接渡しても良いし、データバッファを介して渡しても良い。このデータバッファは、音声データバッファ1212であっても良いし、別のバッファであっても良い。   Note that the audio data acquisition processing unit 122 may pass the acquired audio data 101 directly to the time difference measurement processing unit 124 or may pass it through a data buffer. This data buffer may be the audio data buffer 1212 or another buffer.

また、音声入力処理部123は、時間差測定処理部124へ入力音声データ104を直接渡しても良いし、データバッファを介して渡しても良い。このデータバッファは、音声データバッファ1212であっても良いし、別のバッファであっても良い。   The voice input processing unit 123 may pass the input voice data 104 directly to the time difference measurement processing unit 124 or may pass it through a data buffer. This data buffer may be the audio data buffer 1212 or another buffer.

次に、本実施例による音声出力機器2の概略構成について図4を用いて説明する。   Next, a schematic configuration of the audio output device 2 according to the present embodiment will be described with reference to FIG.

図4に示す様に本実施例の音声出力機器2は、制御装置21と、記録装置22と、放送受信装置23と、音声出力装置24と、通信装置25と、操作入力装置26と、表示装置27とを有している。音声出力機器2は、放送受信装置23を有することと、記録装置22が記録している処理プログラムの内容以外は、図2に示した音声出力機器1と同様であるため、記録装置22と放送受信装置23以外については詳細な説明は省略する。   As shown in FIG. 4, the audio output device 2 according to the present embodiment includes a control device 21, a recording device 22, a broadcast receiving device 23, an audio output device 24, a communication device 25, an operation input device 26, and a display. Device 27. The audio output device 2 is the same as the audio output device 1 shown in FIG. 2 except that it has the broadcast receiving device 23 and the contents of the processing program recorded by the recording device 22. A detailed description of devices other than the receiving device 23 is omitted.

記録装置22は、音声出力機器2の動作を制御する処理プログラム、各種情報を管理するデータベース、音声データなどを記録する装置である。記録装置22の例としては、ディスク、テープ、半導体などがある。記録装置22が保持する処理プログラムには、機器制御処理部221と、音声データ取得処理部222と、時間調整処理部223と、音声出力処理部224と、音声データ送信処理部225とがある。また、記録装置22は、音声データを一時的に保存する音声データバッファ226と、音声データを長期間保存する音声データ記録部227とを有している。   The recording device 22 is a device that records a processing program for controlling the operation of the audio output device 2, a database for managing various information, audio data, and the like. Examples of the recording device 22 include a disk, a tape, and a semiconductor. The processing programs held by the recording device 22 include a device control processing unit 221, an audio data acquisition processing unit 222, a time adjustment processing unit 223, an audio output processing unit 224, and an audio data transmission processing unit 225. The recording device 22 includes an audio data buffer 226 that temporarily stores audio data, and an audio data recording unit 227 that stores audio data for a long period of time.

機器制御処理部221は、音声出力機器2の各装置を連携させ、音声出力機器として動作させる処理部である。例えば、放送受信装置23で受信した放送データに含まれる音声データを、音声出力装置24に出力させる音声出力機能などを実現する。他の処理部については、詳細を後述する。   The device control processing unit 221 is a processing unit that causes each device of the audio output device 2 to cooperate and operate as an audio output device. For example, an audio output function for causing the audio output device 24 to output audio data included in the broadcast data received by the broadcast receiving device 23 is realized. Details of other processing units will be described later.

放送受信装置23は、接続されたアンテナ/ケーブルより信号を受信し、受信した信号を元に映像・音声データを生成する装置である。チューナ、デコーダ、デマルチプレクサなどの機能を持つ。   The broadcast receiving device 23 is a device that receives a signal from a connected antenna / cable and generates video / audio data based on the received signal. Functions such as tuner, decoder, demultiplexer.

なお、音声データバッファ226は、音声データを一時的に保存しても良いし、長期間保存しても良い。   Note that the audio data buffer 226 may store the audio data temporarily or for a long time.

また、音声データバッファ226は、音声データ記録部227と異なる記録部であっても良いし、同じ記録部であっても良い。   The audio data buffer 226 may be a recording unit different from the audio data recording unit 227 or the same recording unit.

また、音声出力機器2の音声データ記録部227が、記録装置22に含まれる場合を例に挙げて説明したが、音声データ記録部227は、記録装置22に含まれない別の記録媒体であっても良いし、音声出力機器2に含まれない外部記録媒体であっても良い。   Further, although the case where the audio data recording unit 227 of the audio output device 2 is included in the recording device 22 has been described as an example, the audio data recording unit 227 is a separate recording medium that is not included in the recording device 22. Alternatively, an external recording medium that is not included in the audio output device 2 may be used.

次に、本実施例による音声出力機器2の各処理部の役割とデータフローについて図5を用いて説明する。   Next, the role and data flow of each processing unit of the audio output device 2 according to the present embodiment will be described with reference to FIG.

図5は、本実施例による音声出力機器2のデータフロー図の例であるが、機器制御処理部221が音声出力機器2の各装置を連携させる際のデータフローについては省略している。   FIG. 5 is an example of a data flow diagram of the audio output device 2 according to the present embodiment, but a data flow when the device control processing unit 221 links the devices of the audio output device 2 is omitted.

音声データ取得処理部222は、放送受信装置23を介して音声データ201を含む放送データを受信し、音声データの取得を行う処理部である。また、音声データ取得処理部222は、ネットワーク上の他の機器から通信装置25を介して音声データを含む通信データを受信し、音声データを取得する。また、音声データ取得処理部222は、記録装置22の音声データ記録部227から音声データを読み出し、音声データを取得する。以下では、音声データ取得処理部222が取得した音声データを取得音声データ201とする。   The audio data acquisition processing unit 222 is a processing unit that receives broadcast data including the audio data 201 via the broadcast receiving device 23 and acquires the audio data. The voice data acquisition processing unit 222 receives communication data including voice data from other devices on the network via the communication device 25, and acquires voice data. Further, the audio data acquisition processing unit 222 reads the audio data from the audio data recording unit 227 of the recording device 22 and acquires the audio data. Hereinafter, the audio data acquired by the audio data acquisition processing unit 222 is referred to as acquired audio data 201.

また、音声データ取得処理部222は、取得音声データ201を、音声データ送信処理部225に渡し、音声データバッファ226に保存する。   The audio data acquisition processing unit 222 passes the acquired audio data 201 to the audio data transmission processing unit 225 and stores it in the audio data buffer 226.

時間調整処理部223は、取得音声データ201を、音声データバッファ226から読み出し、時間調整して、音声出力処理部224に渡す処理部である。   The time adjustment processing unit 223 is a processing unit that reads the acquired audio data 201 from the audio data buffer 226, adjusts the time, and passes the acquired audio data 201 to the audio output processing unit 224.

音声出力処理部224は、取得音声データ201を音声(以下では、出力音声202とする)に変換し、音声出力装置24で出力する処理部である。   The sound output processing unit 224 is a processing unit that converts the acquired sound data 201 into sound (hereinafter referred to as output sound 202) and outputs the sound by the sound output device 24.

音声データ送信処理部225は、取得音声データ201を含む通信データを生成し、ネットワーク接続された音声出力機器1へ通信装置25を介して送信する処理部である。   The audio data transmission processing unit 225 is a processing unit that generates communication data including the acquired audio data 201 and transmits the communication data to the audio output device 1 connected to the network via the communication device 25.

なお、音声データ取得処理部222は、音声データ送信処理部225へ取得音声データ201を直接渡しても良いし、データバッファを介して渡しても良い。このデータバッファは、音声データバッファ226であっても良いし、別のバッファであっても良い。   Note that the audio data acquisition processing unit 222 may pass the acquired audio data 201 directly to the audio data transmission processing unit 225 or may pass it through a data buffer. This data buffer may be the audio data buffer 226 or another buffer.

また、音声データ取得処理部222は、音声データ201を含む放送データを取得する際、放送受信装置23がアンテナ、ケーブルから放送データを受信して、放送データを取得しても良いし、放送データを含む通信データを通信装置25から取得し、放送データを抽出しても良い。   Further, when acquiring the broadcast data including the audio data 201, the audio data acquisition processing unit 222 may acquire the broadcast data by the broadcast receiving device 23 receiving the broadcast data from the antenna and the cable. May be acquired from the communication device 25 and broadcast data may be extracted.

次に、本実施例による音声出力機器1と音声出力機器2の動作について、図6を用いて説明する。   Next, operations of the audio output device 1 and the audio output device 2 according to the present embodiment will be described with reference to FIG.

まず、音声出力機器2において、音声データ取得処理部222が、音声データ201を取得し、音声データバッファ226に保存する(ステップ1001)。次に、音声データ送信処理部225が、取得音声データ201を含む通信データを音声出力機器1に送信する(ステップ1002)。   First, in the audio output device 2, the audio data acquisition processing unit 222 acquires the audio data 201 and stores it in the audio data buffer 226 (step 1001). Next, the audio data transmission processing unit 225 transmits communication data including the acquired audio data 201 to the audio output device 1 (step 1002).

次に、音声出力機器1において、音声データ取得処理部122が、取得音声データ201(音声出力機器1にとっての取得音声データ101)を含む通信データを受信し(ステップ1002)、音声データ201を取得し、音声データバッファ1212に保存する(ステップ1003)。   Next, in the audio output device 1, the audio data acquisition processing unit 122 receives communication data including the acquired audio data 201 (acquired audio data 101 for the audio output device 1) (step 1002), and acquires the audio data 201. And stored in the audio data buffer 1212 (step 1003).

次に、音声出力機器2において、時間調整処理部223が、取得音声データ201の時間調整を行い(ステップ1004)、音声出力処理部224が、出力音声202の出力を開始する(ステップ1005)。ステップ1004において音声出力機器2の時間調整処理部223は、音声出力機器1が、出力音声202(音声出力機器1にとっての入力音声103)と同期して出力音声102を出力可能とするのに十分な時間だけ、出力音声202の出力を遅らせる。こうすることにより、機器2から機器1へ、出力音声より後に音声データが送信され、機器1における、音声出力の時間調整ができなくなることを防ぐことができ、確実に音声の同期出力を行える。   Next, in the audio output device 2, the time adjustment processing unit 223 adjusts the time of the acquired audio data 201 (step 1004), and the audio output processing unit 224 starts outputting the output audio 202 (step 1005). In step 1004, the time adjustment processing unit 223 of the audio output device 2 is sufficient for the audio output device 1 to output the output audio 102 in synchronization with the output audio 202 (the input audio 103 for the audio output device 1). The output of the output sound 202 is delayed for a long time. By doing so, it is possible to prevent that the audio data is transmitted from the device 2 to the device 1 after the output sound, and the time adjustment of the sound output in the device 1 cannot be prevented, and the synchronous output of the sound can be surely performed.

次に、音声出力機器1において、音声入力処理部123が、出力音声202(音声出力機器1にとっての入力音声103)を音声データに変換する(ステップ1006)。次に、時間差測定処理部124が、取得音声データ101と入力音声データ104から時間差を測定し(ステップ1007)、時間調整処理部125が、取得音声データ101の時間調整を行い(ステップ1008)、音声出力処理部126が、出力音声102の出力を開始する(ステップ1009)。   Next, in the audio output device 1, the audio input processing unit 123 converts the output audio 202 (the input audio 103 for the audio output device 1) into audio data (step 1006). Next, the time difference measurement processing unit 124 measures the time difference from the acquired voice data 101 and the input voice data 104 (step 1007), and the time adjustment processing unit 125 adjusts the time of the acquired voice data 101 (step 1008). The audio output processing unit 126 starts outputting the output audio 102 (step 1009).

なお、音声データを含む通信データの送信(ステップ1002)のタイミングは、ステップ1001で音声データ201を取得した後、音声データバッファ226に保存する前でもよい。   Note that the timing of transmission of communication data including audio data (step 1002) may be after the audio data 201 is acquired in step 1001 and before being stored in the audio data buffer 226.

また、音声出力機器2は、音声データを含む通信データを一度にまとめて送信(ステップ1002)した後で、時間を調整し(ステップ1004)、音声出力を開始(ステップ1005)しても良いし、音声データを含む通信データをストリームデータとして送信(ステップ1002)しながら並行して、時間を調整し(ステップ1004)音声出力を開始(ステップ1005)しても良い。   Also, the audio output device 2 may transmit communication data including audio data all at once (step 1002), adjust the time (step 1004), and start audio output (step 1005). In parallel, while transmitting communication data including audio data as stream data (step 1002), the time may be adjusted (step 1004) and audio output may be started (step 1005).

また、音声出力機器1は、取得音声データ101を音声データバッファ1212に保存(ステップ1003)してから時間差を測定(ステップ1007)しても良いし、取得音声データ101を音声データバッファ1212に保存(ステップ1003)しながら並行して時間差を測定(ステップ1007)しても良い。   Further, the audio output device 1 may store the acquired audio data 101 in the audio data buffer 1212 (step 1003) and then measure the time difference (step 1007), or store the acquired audio data 101 in the audio data buffer 1212. The time difference may be measured in parallel (Step 1007) while (Step 1003).

また、音声出力機器1では、時間差は定期的に測定し直され(ステップ1007)、時間差情報105が変更された場合は、随時、音声出力の時間を調整する(ステップ1008)。   Also, in the audio output device 1, the time difference is periodically measured again (step 1007), and when the time difference information 105 is changed, the audio output time is adjusted as needed (step 1008).

本実施例による音声出力機器2は、ネットワーク接続された音声出力機器1に取得音声データ101を送信する。また、取得音声データ101を時間調整して出力音声102を出力する。   The audio output device 2 according to the present embodiment transmits the acquired audio data 101 to the audio output device 1 connected to the network. Also, the acquired audio data 101 is time-adjusted and output audio 102 is output.

また、本実施例による音声出力機器1は、ネットワーク接続された音声出力機器2より取得音声データ101を取得する。また、音声出力機器2が出力する出力音声202(音声出力機器1にとっての入力音声103)を入力音声データ104に変換し、取得音声データ101におけるある特徴部分を出力可能な時刻と、入力音声データ104の同じまたは類似の特徴部分が現れる時刻と、の時間差を測定する。また、取得音声データ101を時間差分だけ時間調整して出力音声101を出力する。   Also, the audio output device 1 according to the present embodiment acquires the acquired audio data 101 from the audio output device 2 connected to the network. Also, the output sound 202 output from the sound output device 2 (the input sound 103 for the sound output device 1) is converted into the input sound data 104, and a time at which a certain characteristic portion in the acquired sound data 101 can be output, and the input sound data The time difference from the time when the same or similar feature portion 104 appears is measured. Further, the acquired audio data 101 is time-adjusted by the time difference, and the output audio 101 is output.

このため、タイムスタンプを用いずに同期可能な音声出力機器、システムおよび方法を提供できる。例えば、音声出力機器1と音声出力機器2は、取得音声データ101を加工してタイムスタンプを付加することなく、同期して音声出力することが可能となる。   For this reason, the audio | voice output apparatus, system, and method which can be synchronized without using a time stamp can be provided. For example, the audio output device 1 and the audio output device 2 can output audio synchronously without processing the acquired audio data 101 and adding a time stamp.

例えば、音声出力機器1がモバイル端末であり、音声出力機器2がテレビである場合、音声データを加工してタイムスタンプを付加する機能をモバイル端末にもテレビにも持たせることなく、利用者がテレビを視聴しながらモバイル端末を手元に置き、テレビとモバイル端末から同期して出力される音声を聴くことができる。   For example, when the audio output device 1 is a mobile terminal and the audio output device 2 is a television, the user can add a time stamp to the audio data without adding a function to the mobile terminal or the television. The user can hold the mobile terminal while watching the TV and listen to the sound output in synchronization with the TV and the mobile terminal.

なお、本実施例では、取得音声データ101は、音声出力機器2が音声出力機器1に渡した取得音声データ201である場合の例を用いて説明したが、取得音声データ101は、音声出力機器1が独自に通信装置15などを介して取得した音声データであっても良い。その場合は、音声出力機器2が取得音声データ201を音声出力機器1に渡さなくても、本実施例と同様の効果が得られる。   In the present embodiment, the acquired audio data 101 has been described using an example in which the audio output device 2 is the acquired audio data 201 passed to the audio output device 1, but the acquired audio data 101 is an audio output device. 1 may be voice data that is independently acquired via the communication device 15 or the like. In that case, even if the audio output device 2 does not pass the acquired audio data 201 to the audio output device 1, the same effect as in the present embodiment can be obtained.

たとえば、音声出力機器2の出力音声202がテレビ放送の音声であり、音声出力機器1が放送受信装置を備えている場合、取得音声データ201を取得した放送のIDを音声出力機器2が音声出力機器1に渡すだけで、音声出力機器1は自機器の放送受信装置で放送データを取得して取得音声データ201と同じ音声データを取得することが可能となり、大量の音声データをネットワーク経由で送信することなく出力音声202と同期して出力音声102を出力することなどができる。   For example, when the output sound 202 of the sound output device 2 is a television broadcast sound and the sound output device 1 includes a broadcast receiving device, the sound output device 2 outputs the broadcast ID from which the acquired sound data 201 is acquired. The audio output device 1 can acquire the same audio data as the acquired audio data 201 by transmitting the broadcast data with the broadcast receiving device of its own device just by passing it to the device 1, and transmits a large amount of audio data via the network. The output sound 102 can be output in synchronism with the output sound 202 without being performed.

また、たとえば、音声出力機器1が、入力音声データ104の特徴を抽出して一致する音声データを別機器から取得する一致音声データ取得処理部を備えている場合、音声出力機器2から音声出力機器1にデータを送信しなくても、音声出力機器1が自力で取得音声データ201と同じ音声データを取得することが可能となり、音声出力機器2と音声出力機器1がネットワーク接続することなく出力音声202と同期して出力音声102を出力することなどができる。   In addition, for example, when the audio output device 1 includes a matching audio data acquisition processing unit that extracts features of the input audio data 104 and acquires matching audio data from another device, the audio output device 2 to the audio output device 1, the audio output device 1 can acquire the same audio data as the acquired audio data 201 by itself, and the output audio can be output without connecting the audio output device 2 and the audio output device 1 to the network. The output sound 102 can be output in synchronism with 202.

本実施例では、実施例1に加えて、音声出力機器1が、入力音声103の音量を考慮して出力音声102の音量を調整する例を説明する。   In the present embodiment, in addition to the first embodiment, an example in which the audio output device 1 adjusts the volume of the output audio 102 in consideration of the volume of the input audio 103 will be described.

まず、本実施例におけるシステムの概念について図7を用いて説明する。   First, the concept of the system in the present embodiment will be described with reference to FIG.

図7(a)に示す様に本実施例のシステムは、音声出力機器1と音声出力機器2から成る。音声出力機器2が出力する音声は、利用者と音声出力機器1に届く。音声出力機器1が出力する音声は、利用者に届く。音声出力機器1と音声出力機器2はネットワークで接続されており、音声出力機器2から音声出力機器1に音声データが送信される。   As shown in FIG. 7A, the system of this embodiment includes an audio output device 1 and an audio output device 2. The sound output from the sound output device 2 reaches the user and the sound output device 1. The sound output from the sound output device 1 reaches the user. The audio output device 1 and the audio output device 2 are connected via a network, and audio data is transmitted from the audio output device 2 to the audio output device 1.

図7(b)では、入力音声103の音量が大きい場合には、出力音声102の音量が小さくなるように調整されることが、図7(c)では、入力音声103の音量が小さい場合には、出力音声102の音量が大きくなるように調整されることが、それぞれ示されている。   In FIG. 7B, when the volume of the input voice 103 is high, the volume of the output voice 102 is adjusted to be low. In FIG. 7C, when the volume of the input voice 103 is low. Indicates that the volume of the output sound 102 is adjusted to increase.

次に、本実施例による音声出力機器1の概略構成について図8を用いて説明する。   Next, a schematic configuration of the audio output device 1 according to the present embodiment will be described with reference to FIG.

図8は、図2の音声出力機器1の記録装置12に、入力音量測定処理部127と、音量管理処理部128と、出力音量調整処理部129と、音量情報管理データベース1211を追加したものである。その他の構成は、既に説明した同一符号を付された構成と、同一の機能を有するので、それらの説明は省略する。   8 is obtained by adding an input volume measurement processing unit 127, a volume management processing unit 128, an output volume adjustment processing unit 129, and a volume information management database 1211 to the recording device 12 of the audio output device 1 of FIG. is there. Other configurations have the same functions as the configurations already described with the same reference numerals, and thus the description thereof is omitted.

音量情報管理データベース1211は、音量管理処理部128が音量情報の記憶および出力音量の決定判断に用いるデータベースである。詳細を後述する。   The volume information management database 1211 is a database used by the volume management processing unit 128 for storing volume information and determining the output volume. Details will be described later.

また、他の処理部については、詳細を後述する。   Details of other processing units will be described later.

次に、本実施例による音声出力機器1の各処理部の役割とデータフローについて図9を用いて説明する。   Next, the role and data flow of each processing unit of the audio output device 1 according to the present embodiment will be described with reference to FIG.

図9は、図3のデータフロー図に、入力音量測定処理部127と、音量管理処理部128と、出力音量調整処理部129と、音量情報管理データベース1211と、これらに関連するデータフローを追加たものである。その他の処理部およびデータフローは、既に説明した同一符号を付された処理部およびデータフローと、同一の機能を有し同一の関係にあるので、それらの説明は省略する。   9 adds an input volume measurement processing unit 127, a volume management processing unit 128, an output volume adjustment processing unit 129, a volume information management database 1211, and a data flow related thereto to the data flow diagram of FIG. It is a thing. The other processing units and data flow have the same functions and the same relationship as the processing units and data flows that have already been described with the same reference numerals, and a description thereof will be omitted.

機器制御処理部121は、音声出力機器1の各装置を連携させる処理部である。本実施例では、ユーザが操作入力装置16を操作して設定した音量の情報を含む設定音量情報107を生成し、音量管理処理部128に渡す処理を例に挙げて説明する。   The device control processing unit 121 is a processing unit that links each device of the audio output device 1. In the present embodiment, a process of generating the set volume information 107 including the volume information set by the user operating the operation input device 16 and passing it to the volume management processing unit 128 will be described as an example.

音声入力処理部123は、図3に加えてさらに、入力音声データ104を入力音量測定処理部127に渡す。   The voice input processing unit 123 further passes the input voice data 104 to the input volume measurement processing unit 127 in addition to FIG.

入力音量測定処理部127は、音声データの音量を測定する処理部である。音声入力処理部123から受け取った入力音声データ104の音量を測定し、測定された音量の情報を含む入力音量情報106を生成し、音量管理処理部128に渡す。   The input volume measurement processing unit 127 is a processing unit that measures the volume of audio data. The volume of the input voice data 104 received from the voice input processing unit 123 is measured, the input volume information 106 including information on the measured volume is generated, and passed to the volume management processing unit 128.

音量管理処理部128は、音量情報管理データベース1211を用いて、音量情報の記憶および出力音量の決定判断を行う処理部である。機器制御処理部121から受け取った設定音量情報107と、入力音量測定処理部127から受け取った入力音量情報106を音量情報管理データベース1211に記録する。また、音量情報管理データベース1211の判定条件と音量調整方法に従って、出力音量を決定する。また、出力音量の情報を含む出力音量情報108を生成し、出力音量調整処理部129に渡す。音量情報管理データベース1211については、詳細を後述する。   The volume management processing unit 128 is a processing unit that uses the volume information management database 1211 to store volume information and determine the determination of the output volume. The set volume information 107 received from the device control processing unit 121 and the input volume information 106 received from the input volume measurement processing unit 127 are recorded in the volume information management database 1211. Further, the output volume is determined according to the determination condition and the volume adjustment method of the volume information management database 1211. Also, output volume information 108 including information on the output volume is generated and passed to the output volume adjustment processing unit 129. Details of the volume information management database 1211 will be described later.

出力音量調整処理部129は、出力音声の音量を調整する処理部である。音量管理処理部128から受け取った出力音量情報108から、自機器の出力音量情報109を生成し、音声出力処理部126に渡す。   The output volume adjustment processing unit 129 is a processing unit that adjusts the volume of output sound. From the output volume information 108 received from the volume management processing unit 128, the output volume information 109 of the own device is generated and passed to the audio output processing unit 126.

音声出力処理部126は、図3に加えてさらに、出力音量調整処理部129から自機器の出力音量情報109を受け取り、出力音声102の音量を調整して出力する。   In addition to FIG. 3, the audio output processing unit 126 further receives the output volume information 109 of its own device from the output volume adjustment processing unit 129, adjusts the volume of the output audio 102, and outputs it.

なお、音声入力処理部123は、入力音量測定処理部127へ入力音声データ104を直接渡しても良いし、データバッファを介して渡しても良い。このデータバッファは、音声データバッファ1212であっても良いし、別のバッファであっても良い。   Note that the voice input processing unit 123 may pass the input voice data 104 directly to the input volume measurement processing unit 127 or may pass it through a data buffer. This data buffer may be the audio data buffer 1212 or another buffer.

また、音量管理処理部128における出力音量の決定処理は、音量情報管理データベース1211で管理する情報を元に決定しても良いし、プログラムに条件分岐を設けて決定処理を実装しておき、データベースを用いずに決定しても良い。   The output volume determination process in the volume management processing unit 128 may be determined based on information managed by the volume information management database 1211. Alternatively, the determination process may be implemented by providing a conditional branch in the program. You may decide without using.

次に、本実施例による音声出力機器1と音声出力機器2の動作について、図10を用いて説明する。   Next, operations of the audio output device 1 and the audio output device 2 according to the present embodiment will be described with reference to FIG.

まず、音声出力機器1において、ユーザが操作入力装置16を操作して音量を設定すると、音量管理処理部128は、機器制御処理部121から渡された設定音量情報107を音量情報管理データベース1211に保存する(ステップ2001)。   First, in the audio output device 1, when the user operates the operation input device 16 to set the volume, the volume management processing unit 128 stores the set volume information 107 passed from the device control processing unit 121 in the volume information management database 1211. Save (step 2001).

次のステップ2002からステップ2009は、それぞれ、図6のステップ1001からステップ1008と同様の処理であるため、説明は省略する。   The next steps 2002 to 2009 are the same processes as steps 1001 to 1008 in FIG.

次に、音声出力機器1において、入力音量測定処理部127が、入力音声データ104の音量を測定して音量管理処理部128に渡し、音量管理処理部128が、音量情報管理データベース1211に保存する(ステップ2010)。次に、音量管理処理部128が、音量情報管理データベース1211の判定条件と音量調整方法に従って、出力音量情報108を決定する(ステップ2011)。   Next, in the audio output device 1, the input volume measurement processing unit 127 measures the volume of the input audio data 104 and passes it to the volume management processing unit 128, and the volume management processing unit 128 stores it in the volume information management database 1211. (Step 2010). Next, the volume management processing unit 128 determines the output volume information 108 according to the determination condition and volume adjustment method of the volume information management database 1211 (step 2011).

次に、出力音量調整処理部129が、決定された出力音量情報108に従って出力音声102の音量を調整し(ステップ2012)、音声出力処理部126が、出力音声102の出力を開始する(ステップ2013)。   Next, the output volume adjustment processing unit 129 adjusts the volume of the output sound 102 according to the determined output volume information 108 (Step 2012), and the sound output processing unit 126 starts outputting the output sound 102 (Step 2013). ).

なお、音声出力機器1における、ユーザ操作による音量の設定と、設定された音量の保存(ステップ2001)処理のタイミングは、任意である。例えば、音声データへの変換(ステップ2007)の前でも良いし、後でも良いし、並行して同時に行っても良い。また、音声出力機器1における音声出力開始(ステップ2013)の後でも良い。設定音量が変更された場合は、随時、音量情報管理データベース1211を更新し(ステップ2001)、出力音量を決定し直す(ステップ2011)。   Note that the timing of the volume setting by the user operation and the saving of the set volume (step 2001) in the audio output device 1 is arbitrary. For example, it may be before audio data conversion (step 2007), after it, or in parallel. Further, it may be after the audio output start (step 2013) in the audio output device 1. When the set volume is changed, the volume information management database 1211 is updated as needed (step 2001), and the output volume is determined again (step 2011).

また、音声出力機器1における入力音声データ104の音量は、定期的に測定し直され(ステップ2010)、入力音量情報106が変更された場合は、随時、音量情報管理データベース1211を更新し(ステップ2010)、出力音量を決定し直す(ステップ2011)。   In addition, the volume of the input audio data 104 in the audio output device 1 is periodically measured again (step 2010). When the input volume information 106 is changed, the volume information management database 1211 is updated at any time (step 2010). 2010), the output volume is re-determined (step 2011).

また、入力音量を測定して保存し(ステップ2010)、出力音量を決定する(ステップ2011)処理は、時間差を測定し(ステップ2008)、時間を調整する(ステップ2009)処理の後でも良いし、前でも良いし、並行して同時に行っても良い。   Further, the process of measuring and saving the input volume (step 2010) and determining the output volume (step 2011) may be after the process of measuring the time difference (step 2008) and adjusting the time (step 2009). , It may be done before or in parallel.

また、出力音量の調整(ステップ2012)は、音声出力(ステップ2013)の前でも良いし、後でも良いし、並行して同時に行っても良い。   Further, the adjustment of the output volume (step 2012) may be performed before or after the sound output (step 2013), or may be performed simultaneously in parallel.

次に、本実施例による音量情報管理データベース1211について、図11を用いて説明する。   Next, the volume information management database 1211 according to the present embodiment will be described with reference to FIG.

図11の(a)および(c)は、音量情報管理データベース1211が管理する音量情報の例を示している。音量情報は、設定音量情報12111(X)と、外部機器からの入力音量情報12112(Y)と、自機器の出力音量情報12113(Z)と、自機器の最大出力音量情報12114(Zmax)とから成る。図9の設定音量情報107が図11のXに、図9の入力音量情報106が図11のYに、図9の自機器の出力音量情報109が図11のZに、それぞれ対応して保存される。ここでは、自機器は音声出力機器1を指し、外部機器は音声出力機器2を指す。   11A and 11C show examples of volume information managed by the volume information management database 1211. FIG. The volume information includes set volume information 12111 (X), input volume information 12112 (Y) from an external device, output volume information 12113 (Z) of the own device, and maximum output volume information 12114 (Zmax) of the own device. Consists of. The set volume information 107 in FIG. 9 corresponds to X in FIG. 11, the input volume information 106 in FIG. 9 corresponds to Y in FIG. 11, and the output volume information 109 of the own device in FIG. 9 corresponds to Z in FIG. Is done. Here, the own device indicates the audio output device 1 and the external device indicates the audio output device 2.

ここで、自機器の最大出力音量情報12114(Zmax)は、自機器で出力する際に快適性の面から許容される最大音量の情報であり、本実施例では、使用中に変化しない場合の例を挙げて説明する。音声出力装置14は、一般的に、出力可能な最大音量に近い音量で出力すると音が割れたり歪んだりするため、利用者にとって快適でない場合が多い。このため、出力可能な最大音量ではなく快適性の面から許容される最大音量を用いれば、利用者の音声聴取環境を最適化することができる。   Here, the maximum output volume information 12114 (Zmax) of the own device is information on the maximum volume allowed from the aspect of comfort when output by the own device, and in this embodiment, the maximum output volume information 12114 (Zmax) is not changed during use. An example will be described. In general, the audio output device 14 is often uncomfortable for the user because the sound is cracked or distorted when output at a volume close to the maximum outputable volume. For this reason, if the maximum volume allowed from the aspect of comfort is used instead of the maximum outputable volume, the user's voice listening environment can be optimized.

なお、自機器の最大出力音量情報12114(Zmax)は、自機器で出力する際に快適性の面から許容される最大音量の情報であっても良いし、自機器で出力可能な最大音量の情報であっても良い。   Note that the maximum output volume information 12114 (Zmax) of the own device may be information on the maximum volume allowed in terms of comfort when output by the own device, or the maximum volume that can be output by the own device. It may be information.

(a)は出力音量決定前の音量情報の例であり、Xが13、Yが3、Zが9、Zmaxが15であることを示している。(c)は、出力音量決定後の音量情報の例であり、Xが13、Yが3、Zが10、Zmaxが15であることを示している。   (A) is an example of volume information before determining the output volume, and indicates that X is 13, Y is 3, Z is 9, and Zmax is 15. (C) is an example of volume information after the output volume is determined, and indicates that X is 13, Y is 3, Z is 10, and Zmax is 15.

図11の(b)は、音量管理処理部128が出力音量の決定を行うための出力音量決定情報の例を示している。出力音量決定情報は、判定条件を適用する順番を示す判定優先順位12115と、現在の音量情報から自機器の音量調整方法を導き出すための判定条件12116と、自機器の音量調整方法12117から成る。   FIG. 11B shows an example of output volume determination information for the volume management processing unit 128 to determine the output volume. The output volume determination information includes a determination priority order 12115 indicating the order in which the determination conditions are applied, a determination condition 12116 for deriving the volume adjustment method of the own device from the current volume information, and a volume adjustment method 12117 of the own device.

例えば、出力音量決定前の音量情報(a)を出力音量決定情報(b)に当てはめる場合、まず、判定優先順位1の判定条件「X>Zmax」で判定する。判定結果は偽であるため、判定優先順位2の判定条件「X>Y+Z」で判定する。判定結果は真であるため、音量調整方法「X−Y−Zだけ上げる」に従って、自機器の音量を1だけ上げる。その結果、出力音量決定後の音量情報(c)が得られる。出力音量決定前の音量情報(a)ではZが9であるが、自機器の音量を1だけ上げた結果、出力音量決定後の音量情報(c)ではZが10となっている。   For example, when the volume information (a) before determining the output volume is applied to the output volume determination information (b), the determination is first made with the determination condition “X> Zmax” of the determination priority order 1. Since the determination result is false, the determination is performed under the determination condition “X> Y + Z” of determination priority order 2. Since the determination result is true, the volume of the own device is increased by 1 according to the volume adjustment method “Raise only XYZ”. As a result, the volume information (c) after determining the output volume is obtained. Z is 9 in the volume information (a) before determining the output volume, but Z is 10 in the volume information (c) after determining the output volume as a result of increasing the volume of the own device by 1.

なお、本実施例では、ユーザが操作して設定音量を指定する場合を例に挙げて説明したが、ユーザの設定音量の指定によらずに、音声出力機器1の出力音量を変化させても良い。この場合は、例えば、音量管理処理部128は、ユーザが音声出力機器1の出力音量を変化させた直後の、外部機器からの入力音量(Y)と自機器の出力音量(Z)の和を、設定音量情報(X)として保存する。   In this embodiment, the case where the user operates to specify the set volume has been described as an example. However, the output volume of the audio output device 1 may be changed regardless of the setting of the user's set volume. good. In this case, for example, the volume management processing unit 128 calculates the sum of the input volume (Y) from the external device and the output volume (Z) of the own device immediately after the user changes the output volume of the audio output device 1. And saved as set volume information (X).

本実施例による音声出力機器1は、実施例1に加えて、ユーザ操作による設定音量情報107と、入力音声データ104の音量を測定して得た入力音量情報106を元に、出力音量情報108を得る。   In addition to the first embodiment, the audio output device 1 according to the present embodiment outputs the output volume information 108 based on the set volume information 107 by user operation and the input volume information 106 obtained by measuring the volume of the input audio data 104. Get.

このため、タイムスタンプや音量情報を機器間で受け渡しすることなく、適切な音量で同期出力可能な音声出力機器、システムおよび方法を提供できる。例えば、音声出力機器1と音声出力機器2は、取得音声データ101を加工してタイムスタンプや音量情報を付加することなく、適切な音量で同期して音声出力することが可能となる。   Therefore, it is possible to provide an audio output device, system and method capable of synchronously outputting at an appropriate volume without passing time stamps and volume information between devices. For example, the audio output device 1 and the audio output device 2 can synchronize and output audio at an appropriate volume without processing the acquired audio data 101 and adding a time stamp or volume information.

例えば、音声出力機器1がモバイル端末であり、音声出力機器2がテレビであり、利用者がテレビを視聴しながらモバイル端末を手元に置き、テレビとモバイル端末から同期して出力される音声を聴いている場合を想定する。   For example, the audio output device 1 is a mobile terminal, the audio output device 2 is a television, and the user places the mobile terminal at hand while watching the TV, and listens to the audio output in synchronization with the TV and the mobile terminal. Assuming that

利用者がモバイル端末を持ってテレビから離れた場合、利用者およびモバイル端末に届くテレビの音量は小さくなる。この時、本実施例によるモバイル端末は、小さくなった音量を補うように出力音声の音量を上げる。逆に、テレビに近づいた場合、利用者およびモバイル端末に届くテレビの音量が大きくなるため、モバイル端末は出力音声の音量を下げる。このため、利用者はテレビからの距離に関わらず常に同じような音量の音声を聴くことができる。   When the user moves away from the television with the mobile terminal, the volume of the television that reaches the user and the mobile terminal decreases. At this time, the mobile terminal according to the present embodiment increases the volume of the output sound so as to compensate for the decreased volume. Conversely, when the user approaches the television, the volume of the television that reaches the user and the mobile terminal increases, and the mobile terminal decreases the volume of the output sound. For this reason, the user can always listen to the sound of the same volume regardless of the distance from the television.

本実施例では、実施例2に加えて、音声出力機器1が、音声出力機器2を制御して出力音声202の音量を調整する例を説明する。   In this embodiment, in addition to the second embodiment, an example in which the audio output device 1 controls the audio output device 2 to adjust the volume of the output audio 202 will be described.

まず、本実施例におけるシステムの概念について図12を用いて説明する。   First, the concept of the system in the present embodiment will be described with reference to FIG.

図12に示す様に本実施例のシステムは、音声出力機器1と音声出力機器2から成る。音声出力機器2が出力する音声は、利用者と音声出力機器1に届く。音声出力機器1が出力する音声は、利用者に届く。音声出力機器1と音声出力機器2はネットワークで接続されており、音声出力機器2から音声出力機器1に音声データが送信される。   As shown in FIG. 12, the system of the present embodiment includes an audio output device 1 and an audio output device 2. The sound output from the sound output device 2 reaches the user and the sound output device 1. The sound output from the sound output device 1 reaches the user. The audio output device 1 and the audio output device 2 are connected via a network, and audio data is transmitted from the audio output device 2 to the audio output device 1.

また、音声出力機器1から音声出力機器2に音量制御情報が送信される。   Further, the sound volume control information is transmitted from the sound output device 1 to the sound output device 2.

次に、本実施例による音声出力機器1の概略構成について図13を用いて説明する。   Next, a schematic configuration of the audio output device 1 according to the present embodiment will be described with reference to FIG.

図13は、図8の音声出力機器1の記録装置12に、外部機器制御処理部1210を追加したものである。その他の構成は、既に説明した同一符号を付された構成と、同一の機能を有するので、それらの説明は省略する。   FIG. 13 is obtained by adding an external device control processing unit 1210 to the recording device 12 of the audio output device 1 of FIG. Other configurations have the same functions as the configurations already described with the same reference numerals, and thus the description thereof is omitted.

外部機器制御処理部1210については、詳細を後述する。   Details of the external device control processing unit 1210 will be described later.

次に、本実施例による音声出力機器1の各処理部の役割とデータフローについて図14を用いて説明する。   Next, the role and data flow of each processing unit of the audio output device 1 according to the present embodiment will be described with reference to FIG.

図14は、図9のデータフロー図に、外部機器制御処理部1210と、これに関連するデータフローを追加たものである。その他の処理部およびデータフローは、既に説明した同一符号を付された処理部およびデータフローと、同一の機能を有し同一の関係にあるので、それらの説明は省略する。   FIG. 14 is obtained by adding an external device control processing unit 1210 and a data flow related thereto to the data flow diagram of FIG. The other processing units and data flow have the same functions and the same relationship as the processing units and data flows that have already been described with the same reference numerals, and a description thereof will be omitted.

出力音量調整処理部129は、図9に加えてさらに、外部機器の出力音量情報110を生成し、外部機器制御処理部1210に渡す。   In addition to FIG. 9, the output volume adjustment processing unit 129 further generates output volume information 110 of the external device and passes it to the external device control processing unit 1210.

外部機器制御処理部1210は、出力音量調整処理部129から受け取った外部機器の出力音量情報110から、音量制御情報111を含む通信データを生成し、ネットワーク接続された音声出力機器2へ通信装置15を介して送信する処理部である。音量制御情報111は、音声出力機器2の音量を制御するための情報である。音量制御情報111は、音声出力機器2の音量を変化させる量と向きであっても良いし、音声出力機器2で設定される音量であっても良い。例えば、音声出力機器2の音量を、現在の8から、10に変化させる場合、「音量を2単位上げる」でも良いし、「音量を10に設定する」でも良い。   The external device control processing unit 1210 generates communication data including the volume control information 111 from the output volume information 110 of the external device received from the output volume adjustment processing unit 129, and transmits the communication data to the audio output device 2 connected to the network. It is a processing part which transmits via. The volume control information 111 is information for controlling the volume of the audio output device 2. The volume control information 111 may be an amount and a direction for changing the volume of the audio output device 2, or may be a volume set by the audio output device 2. For example, when the volume of the audio output device 2 is changed from the current 8 to 10, “the volume is increased by 2 units” or “the volume is set to 10” may be used.

次に、本実施例による音声出力機器2の概略構成について図15を用いて説明する。   Next, a schematic configuration of the audio output device 2 according to the present embodiment will be described with reference to FIG.

図15は、図4の音声出力機器2の記録装置22に、出力音量調整処理部228を追加したものである。その他の構成は、既に説明した同一符号を付された構成と、同一の機能を有するので、それらの説明は省略する。   FIG. 15 is obtained by adding an output volume adjustment processing unit 228 to the recording device 22 of the audio output device 2 of FIG. Other configurations have the same functions as the configurations already described with the same reference numerals, and thus the description thereof is omitted.

出力音量調整処理部228については、詳細を後述する。   Details of the output volume adjustment processing unit 228 will be described later.

次に、本実施例による音声出力機器2の各処理部の役割とデータフローについて図16を用いて説明する。   Next, the role and data flow of each processing unit of the audio output device 2 according to the present embodiment will be described with reference to FIG.

図16は、図5のデータフロー図に、出力音量調整処理部228と、これに関連するデータフローを追加たものである。その他の処理部およびデータフローは、既に説明した同一符号を付された処理部およびデータフローと、同一の機能を有し同一の関係にあるので、それらの説明は省略する。   FIG. 16 is obtained by adding an output volume adjustment processing unit 228 and a data flow related thereto to the data flow diagram of FIG. The other processing units and data flow have the same functions and the same relationship as the processing units and data flows that have already been described with the same reference numerals, and a description thereof will be omitted.

機器制御処理部221は、音声出力機器2の各装置を連携させる処理部である。本実施例では、ネットワーク上の音声出力機器1から通信装置25を介して音量制御情報203(音声出力機器1にとっての音量制御情報111)を含む通信データを受信し、音量制御情報203を抽出する処理を例に挙げて説明する。機器制御処理部221は、抽出した音量制御情報203を出力音量調整処理部228に渡す。   The device control processing unit 221 is a processing unit that links the devices of the audio output device 2 together. In this embodiment, communication data including volume control information 203 (volume control information 111 for the audio output device 1) is received from the audio output device 1 on the network via the communication device 25, and the volume control information 203 is extracted. The processing will be described as an example. The device control processing unit 221 passes the extracted volume control information 203 to the output volume adjustment processing unit 228.

出力音量調整処理部228は、機器制御処理部221から受け取った音量制御情報203から、自機器の出力音量情報204を生成し、音声出力処理部224に渡す。   The output volume adjustment processing unit 228 generates the output volume information 204 of its own device from the volume control information 203 received from the device control processing unit 221 and passes it to the audio output processing unit 224.

音声出力処理部224は、図5に加えてさらに、出力音量調整処理部228から自機器の出力音量情報204を受け取り、出力音声202の音量を調整して出力する。   In addition to FIG. 5, the audio output processing unit 224 further receives the output volume information 204 of its own device from the output volume adjustment processing unit 228, adjusts the volume of the output audio 202, and outputs it.

次に、本実施例による音声出力機器1と音声出力機器2の動作について、図17を用いて説明する。   Next, operations of the audio output device 1 and the audio output device 2 according to the present embodiment will be described with reference to FIG.

ステップ3001からステップ3010は、それぞれ、図10のステップ2001からステップ2010と同様の処理であるため、説明は省略する。   Steps 3001 to 3010 are the same processes as steps 2001 to 2010 in FIG.

次に、音声出力機器1において、音量管理処理部128が、音量情報管理データベース1211の判定条件と音量調整方法に従って、自機器の出力音量情報109と外部機器の出力音量情報110を決定する(ステップ3011)。次に、外部機器制御処理部1210が、音量制御情報111を含む通信データを生成し通信装置15を介して音声出力機器2に送信する(ステップ3012)。   Next, in the audio output device 1, the volume management processing unit 128 determines the output volume information 109 of the own device and the output volume information 110 of the external device according to the determination condition and the volume adjustment method of the volume information management database 1211 (step 3011). Next, the external device control processing unit 1210 generates communication data including the volume control information 111 and transmits the communication data to the audio output device 2 via the communication device 15 (step 3012).

次に、音声出力機器2において、機器制御処理部221が、通信装置25を介して音量制御情報203(音声出力機器1にとっての音量制御情報111)を含む通信データを取得し(ステップ3012)、音量制御情報203を取得する。次に、出力音量調整処理部228が、音量制御情報203に従って出力音声202の音量を調整する(ステップ3013)。   Next, in the audio output device 2, the device control processing unit 221 acquires communication data including the volume control information 203 (the volume control information 111 for the audio output device 1) via the communication device 25 (step 3012). Volume control information 203 is acquired. Next, the output volume adjustment processing unit 228 adjusts the volume of the output sound 202 according to the volume control information 203 (step 3013).

なお、音声出力機器1において、音量制御情報111を含む通信データの生成と音声出力機器2への送信(ステップ3012)処理は、出力音声102の音量調整(ステップ3014)処理の後でも良いし、前でも良いし、並行して同時に行っても良い。   In the audio output device 1, the generation of communication data including the volume control information 111 and the transmission to the audio output device 2 (step 3012) may be performed after the volume adjustment (step 3014) processing of the output audio 102. It may be done before or in parallel.

また、音声出力機器1の出力音量の調整(ステップ3014)は、音声出力(ステップ3015)の前でも良いし、後でも良いし、並行して同時に行っても良い。   Further, the adjustment of the output volume (step 3014) of the audio output device 1 may be performed before or after the audio output (step 3015), or may be performed simultaneously in parallel.

また、音声出力機器1は、ネットワーク経由で音声出力機器2に音量制御情報111(音声出力機器2にとっての音量制御情報203)を渡し、音声出力機器2の音量を制御する場合の例を挙げて説明したが、別の経路で音声出力機器2の音量を制御しても良い。例えば、音声出力機器1が赤外線発信装置を備え、音声出力機器2の赤外線リモートコントローラにおいて音量を制御するボタンが押された場合に発信される赤外線信号と同じ信号を、赤外線発信装置が発信し、音声出力機器2の音量を制御しても良い。   Further, the audio output device 1 gives an example in which the volume control information 111 (volume control information 203 for the audio output device 2) is passed to the audio output device 2 via the network and the volume of the audio output device 2 is controlled. Although described, the volume of the audio output device 2 may be controlled by another route. For example, when the voice output device 1 includes an infrared transmission device and the infrared remote controller of the voice output device 2 controls a volume, the infrared transmission device transmits the same signal as the infrared signal that is transmitted. The volume of the audio output device 2 may be controlled.

また、音量制御情報203は、音量制御情報111であっても良いし、同じ制御を行う別の音量制御情報であっても良い。   The volume control information 203 may be the volume control information 111 or another volume control information that performs the same control.

次に、本実施例による音量情報管理データベース1211について、図18を用いて説明する。   Next, the volume information management database 1211 according to this embodiment will be described with reference to FIG.

図18は、図11に対して、出力音量決定情報(b)の項目およびデータと、出力音量決定後の音量情報(c)のデータ、とを変更したものである。その他の項目およびデータは、既に説明した同一符号を付された項目およびデータと、同一の意味を有しているので、それらの説明は省略する。   FIG. 18 is different from FIG. 11 in the items and data of the output volume determination information (b) and the data of the volume information (c) after the output volume determination. The other items and data have the same meaning as the items and data having the same reference numerals already described, and therefore their explanation is omitted.

図14の設定音量情報107が図18のXに、図14の入力音量情報106が図18のYに、図14の自機器の出力音量情報109が図18のZに、それぞれ対応して保存される。   The set volume information 107 in FIG. 14 corresponds to X in FIG. 18, the input volume information 106 in FIG. 14 corresponds to Y in FIG. 18, and the output volume information 109 of the own device in FIG. 14 corresponds to Z in FIG. Is done.

図18の出力音量決定後の音量情報(c)は、Xが13、Yが0、Zが13、Zmaxが15であることを示している。   The volume information (c) after determining the output volume in FIG. 18 indicates that X is 13, Y is 0, Z is 13, and Zmax is 15.

図18の出力音量決定情報(b)は、図11に加えてさらに、外部機器の音量調整方法12118を有する。   The output volume determination information (b) of FIG. 18 further includes a volume adjustment method 12118 of an external device in addition to FIG.

例えば、出力音量決定前の音量情報(a)を出力音量決定情報(b)に当てはめる場合、まず、判定優先順位1の判定条件「X≦Zmax」で判定する。判定結果は真であるため、自機器の音量調整方法「Xにする」に従って、自機器の音量を13にする。また、外部機器の音量調整方法「0にする」に従って、外部機器の音量を0にする。その結果、出力音量決定後の音量情報(c)が得られる。出力音量決定前の音量情報(a)ではYが3でZが9であるが、自機器の音量を13にして外部機器の音量を0にした結果、出力音量決定後の音量情報(c)ではYが0でZが13となっている。   For example, when the volume information (a) before determining the output volume is applied to the output volume determination information (b), the determination is first made with the determination condition “X ≦ Zmax” of the determination priority order 1. Since the determination result is true, the volume of the own device is set to 13 according to the volume adjustment method “X” of the own device. Further, the volume of the external device is set to 0 in accordance with the volume adjustment method “0” of the external device. As a result, the volume information (c) after determining the output volume is obtained. In the volume information (a) before determining the output volume, Y is 3 and Z is 9, but as a result of setting the volume of the own device to 13 and the volume of the external device to 0, the volume information (c) after determining the output volume Then, Y is 0 and Z is 13.

また、判定優先順位2の判定条件での判定結果が真となった場合、外部機器の音量調整方法は「X=Zmax+Yになるように調整する」である。音量制御情報203(音声出力機器1にとっての音量制御情報111)で外部機器の出力音声202の音量をどれだけ上げれば、自機器に届いた入力音声103の音量がどれだけ上がるのかは、自機器と外部機器との間の距離や環境によって変化する。このため、例えば、音量制御情報203で外部機器の音量を少し変化させて、その時の入力音声103の音量の変化を測定し、所望の入力音量に達するまで調整する、などの処理を行う。   Also, when the determination result under the determination condition of determination priority order 2 is true, the volume adjustment method of the external device is “adjust so that X = Zmax + Y”. The volume control information 203 (volume control information 111 for the audio output device 1) determines how much the volume of the output audio 202 of the external device should be increased and how much the volume of the input audio 103 that has reached the device increases. Varies depending on the distance and environment between the device and the external device. For this reason, for example, the volume control information 203 slightly changes the volume of the external device, measures the change in volume of the input voice 103 at that time, and adjusts until the desired input volume is reached.

なお、本実施例では、判定条件が「X≦Zmax」の場合の外部機器の音量調整方法として「0にする」場合を例に挙げて説明したが、0にしなくても良い。例えば、自機器の音量を「X」より少し下げて、その分、外部機器の音量を上げても良い。   In this embodiment, the case where “0” is used as the volume adjustment method of the external device when the determination condition is “X ≦ Zmax” has been described as an example. For example, the volume of the own device may be slightly lowered from “X”, and the volume of the external device may be increased accordingly.

本実施例による音声出力機器1は、実施例2に加えて、外部機器の音量調整方法を決定し、音声出力機器2に音量制御情報送信して、音声出力機器2の音量を制御する。   In addition to the second embodiment, the audio output device 1 according to the present embodiment determines the volume adjustment method of the external device, transmits the volume control information to the audio output device 2, and controls the volume of the audio output device 2.

このため、タイムスタンプを用いずに、また、音量情報を音声データに含めることなく、適切な音量で同期出力可能な音声出力機器、システムおよび方法を提供できる。例えば、音声出力機器1と音声出力機器2は、取得音声データ101を加工してタイムスタンプや音量情報を付加することなく、適切な音量で同期して音声出力することが可能となる。   Therefore, it is possible to provide an audio output device, system, and method that can perform synchronous output at an appropriate volume without using a time stamp and without including volume information in the audio data. For example, the audio output device 1 and the audio output device 2 can synchronize and output audio at an appropriate volume without processing the acquired audio data 101 and adding a time stamp or volume information.

例えば、音声出力機器1がモバイル端末であり、音声出力機器2がテレビであり、利用者がテレビを視聴しながらモバイル端末を手元に置き、テレビとモバイル端末から同期して出力される音声を聴いている場合を想定する。   For example, the audio output device 1 is a mobile terminal, the audio output device 2 is a television, and the user places the mobile terminal at hand while watching the TV, and listens to the audio output in synchronization with the TV and the mobile terminal. Assuming that

利用者がモバイル端末を持ってテレビから離れたところにいる場合、利用者およびモバイル端末に届くテレビの音量は小さい。この時、本実施例によるモバイル端末は、設定された音量で音声を出力し、テレビの出力音量を0にする。このため、テレビが大きい音量で音声を出力して周りの他の人に迷惑をかけることなく、利用者は設定通りの音量の音声を聴くことができる。   When the user is away from the television with the mobile terminal, the volume of the television reaching the user and the mobile terminal is small. At this time, the mobile terminal according to the present embodiment outputs sound at the set volume and sets the output volume of the television to zero. For this reason, the user can listen to the sound with the sound volume as set without causing the TV to output the sound with a high sound volume and disturbing other people around.

以上、本発明の実施例について説明した。   The embodiment of the present invention has been described above.

なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。   In addition, this invention is not limited to an above-described Example, Various modifications are included. For example, the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described. Further, a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment. Further, it is possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.

また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD、BD等の記録媒体に置くことができる。   Each of the above-described configurations, functions, processing units, processing means, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit. Each of the above-described configurations, functions, and the like may be realized by software by interpreting and executing a program that realizes each function by the processor. Information such as programs, tables, and files that realize each function can be stored in a recording device such as a memory, hard disk, or SSD (Solid State Drive), or a recording medium such as an IC card, SD card, DVD, or BD. it can.

また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。   Further, the control lines and information lines indicate what is considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.

1 音声出力機器
11 制御装置
12 記録装置
13 音声入力装置
14 音声出力装置
15 通信装置
16 操作入力装置
17 表示装置
2 音声出力機器
21 制御装置
22 記録装置
23 放送受信装置
24 音声出力装置
25 通信装置
26 操作入力装置
27 表示装置
DESCRIPTION OF SYMBOLS 1 Audio | voice output apparatus 11 Control apparatus 12 Recording apparatus 13 Audio | voice input apparatus 14 Audio | voice output apparatus 15 Communication apparatus 16 Operation input apparatus 17 Display apparatus 2 Audio | voice output apparatus 21 Control apparatus 22 Recording apparatus 23 Broadcast receiving apparatus 24 Audio | voice output apparatus 25 Communication apparatus 26 Operation input device 27 Display device

Claims (2)

音声を出力する情報機器とネットワーク接続された音声を出力する情報端末であって、
前記情報機器から出力された音声を入力する音声入力部と、
前記情報機器からネットワーク経由で送信された音声データを受信する通信部と、
前記音声データに基づく音声を出力する音声出力部と、
前記入力された音声を音声データに変換し、前記受信された音声データと、所定の特徴部分を比較することによって、時間差を測定し、測定された時間差に基づいて、情報機器からの音声出力と同期させて音声を出力させる制御部と、を備え、
前記制御部は、自機器から出力する音声の音量を大きくするとともに、情報機器から出力される音声の音量を小さくするための制御情報を通信部から情報機器に送信させることを特徴とする情報端末。
An information terminal that outputs audio connected to a network with an information device that outputs audio,
A voice input unit for inputting voice output from the information device;
A communication unit that receives audio data transmitted from the information device via a network;
An audio output unit for outputting audio based on the audio data;
The input voice is converted into voice data, a time difference is measured by comparing the received voice data with a predetermined feature portion, and a voice output from the information device is based on the measured time difference. And a control unit that outputs sound in synchronization with each other,
Information the control unit, along with increasing the volume of the audio to be output from the self-device, and wherein the Rukoto to transmit control information for reducing the volume of sound output from the information device from the communication unit to the information device Terminal.
ネットワーク接続された音声を出力する情報機器と音声を出力する情報端末とからなるシステムであって、A system comprising an information device that outputs audio connected to a network and an information terminal that outputs audio,
前記情報機器は、The information device is
音声データを取得する音声取得部と、An audio acquisition unit for acquiring audio data;
前記音声データに基づく音声を出力する音声出力部と、An audio output unit for outputting audio based on the audio data;
ネットワーク経由で前記音声データを送信する通信部と、A communication unit for transmitting the audio data via a network;
制御部とを備え、A control unit,
前記情報端末は、The information terminal
前記情報機器から出力された音声を入力する音声入力部と、A voice input unit for inputting voice output from the information device;
前記情報機器からネットワーク経由で送信された音声データを受信する通信部と、A communication unit that receives audio data transmitted from the information device via a network;
前記音声データに基づく音声を出力する音声出力部と、An audio output unit for outputting audio based on the audio data;
制御部とを備え、A control unit,
前記情報端末の制御部は、前記入力された音声を音声データに変換し、前記受信された音声データと、所定の特徴部分を比較することによって、時間差を測定し、測定された時間差に基づいて、情報機器からの音声出力と同期させて音声を出力させ、The control unit of the information terminal converts the input voice into voice data, measures the time difference by comparing the received voice data with a predetermined feature portion, and based on the measured time difference , And synchronize with the audio output from the information equipment,
前記情報端末の制御部は、さらに、前記入力された音声の音量に基づいて、前記出力する音声の音量を決定し、The control unit of the information terminal further determines the volume of the output voice based on the volume of the input voice,
前記情報機器の制御部は、前記情報端末で、前記入力された音声と、前記受信された音声データとに基づき、自機器からの音声出力と同期した音声出力を行えるように、時間を調整して音声を出力させ、The control unit of the information device adjusts the time so that the information terminal can perform a sound output synchronized with a sound output from the own device based on the input sound and the received sound data. To output sound,
前記情報端末の制御部は、自機器から出力する音声の音量を大きくするとともに、情報機器から出力される音声の音量を小さくするための制御情報を通信部から情報機器に送信させ、The control unit of the information terminal increases the volume of the sound output from the own device and causes the communication unit to transmit control information for decreasing the volume of the sound output from the information device to the information device,
前記情報機器において、前記通信部が、前記情報端末から情報機器から出力される音声の音量を小さくするための制御情報を受信した場合に、前記制御部は、出力する音声の音量を小さくさせることを特徴とするシステム。In the information device, when the communication unit receives control information for reducing the volume of the sound output from the information device from the information terminal, the control unit decreases the volume of the output sound. A system characterized by
JP2011140085A 2011-06-24 2011-06-24 Information terminal, information device, and system comprising these Active JP5735360B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011140085A JP5735360B2 (en) 2011-06-24 2011-06-24 Information terminal, information device, and system comprising these

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011140085A JP5735360B2 (en) 2011-06-24 2011-06-24 Information terminal, information device, and system comprising these

Publications (2)

Publication Number Publication Date
JP2013007876A JP2013007876A (en) 2013-01-10
JP5735360B2 true JP5735360B2 (en) 2015-06-17

Family

ID=47675285

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011140085A Active JP5735360B2 (en) 2011-06-24 2011-06-24 Information terminal, information device, and system comprising these

Country Status (1)

Country Link
JP (1) JP5735360B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6212354B2 (en) * 2013-10-22 2017-10-11 シャープ株式会社 Portable information terminal and control method thereof

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07177376A (en) * 1993-12-17 1995-07-14 Hitachi Ltd Television receiver, remote controller and their combination
JP2005184428A (en) * 2003-12-19 2005-07-07 Sanyo Electric Co Ltd Acoustic device
JP2008060675A (en) * 2006-08-29 2008-03-13 Sony Corp Sound reproduction device and method
JP5167706B2 (en) * 2007-07-10 2013-03-21 ヤマハ株式会社 Sound emission and collection device
JP2009171150A (en) * 2008-01-15 2009-07-30 Yamaha Corp Voice distribution device

Also Published As

Publication number Publication date
JP2013007876A (en) 2013-01-10

Similar Documents

Publication Publication Date Title
US10178345B2 (en) Apparatus, systems and methods for synchronization of multiple headsets
US10614857B2 (en) Calibrating media playback channels for synchronized presentation
CN107113465B (en) Method, device and system for audiovisual synchronization with a plurality of output devices
US11606596B2 (en) Methods, systems, and media for synchronizing audio and video content on multiple media devices
KR102183413B1 (en) Method and system for presenting content using a plurality of electronic devices
US20140376873A1 (en) Video-audio processing device and video-audio processing method
US20120155657A1 (en) Communication device and communication methods
US10841697B1 (en) Method and apparatus for playing audio, playing device, and storage medium
EP4336863A2 (en) Latency negotiation in a heterogeneous network of synchronized speakers
WO2006025441A1 (en) Video processing device, audio processing device, video/audio supply device, video/audio processing system, and video/audio synchronization method
US20180343520A1 (en) Packet based delivery of multi-channel audio over wireless links
US20130166769A1 (en) Receiving device, screen frame transmission system and method
WO2015107909A1 (en) Reproduction device and data reproduction method
US20220021980A1 (en) Terminal, audio cooperative reproduction system, and content display apparatus
US20140108934A1 (en) Image display apparatus and method for operating the same
KR101787424B1 (en) Mechanism for clock recovery for streaming content being communicated over a packetized communication network
JP5735360B2 (en) Information terminal, information device, and system comprising these
JP6956354B2 (en) Video signal output device, control method, and program
JP2013078048A (en) Information reproduction device and information reproduction method
CN115767158A (en) Synchronous playing method, terminal equipment and storage medium
CN108605156A (en) Method for audio detection and corresponding equipment
US10209952B2 (en) Content reproduction device, content reproduction system, and control method for a content reproduction device
US8909362B2 (en) Signal processing apparatus and signal processing method
KR20130060651A (en) Image processing apparatus and control method thereof
CN110024028B (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130308

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140317

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140317

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140318

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140408

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140609

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140729

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20140917

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150331

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150416

R150 Certificate of patent or registration of utility model

Ref document number: 5735360

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250