JP5735360B2 - Information terminal, information device, and system comprising these - Google Patents
Information terminal, information device, and system comprising these Download PDFInfo
- Publication number
- JP5735360B2 JP5735360B2 JP2011140085A JP2011140085A JP5735360B2 JP 5735360 B2 JP5735360 B2 JP 5735360B2 JP 2011140085 A JP2011140085 A JP 2011140085A JP 2011140085 A JP2011140085 A JP 2011140085A JP 5735360 B2 JP5735360 B2 JP 5735360B2
- Authority
- JP
- Japan
- Prior art keywords
- audio
- volume
- output
- information
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、情報端末、情報機器及びこれらからなるシステムに関する。 The present invention relates to an information terminal, an information device, and a system including these.
近年、テレビとモバイル端末を連携させる使用法が提案され始めている。 In recent years, a method of using a television and a mobile terminal in cooperation has been proposed.
一例として、ユーザがテレビの視聴を行いながら、手元のモバイル端末でも視聴を行うというような使用法がある。 As an example, there is a usage in which a user views a TV while watching the mobile terminal at hand.
上記例の場合、ユーザは、テレビとモバイル端末の両方から出力される音声を聞くこととなるため、両方の音声の出力タイミングを同期させ、違和感のない視聴環境を提供する必要がある。 In the case of the above example, since the user listens to the sound output from both the television and the mobile terminal, it is necessary to synchronize the output timings of both the sounds and provide a viewing environment without a sense of incongruity.
これを解決するために、一つの方法として、特許文献1に挙げられる方法がある。 In order to solve this, there is a method described in Patent Document 1 as one method.
当該特許文献1には、メディアデータパケットの同期再生システムが記載されている。このシステムでは、メディアソース(例えば音声配信機器)が、タイムスタンプ付きのメディアデータパケット(例えば音声データ)を複数のメディアシンク(例えば音声出力機器)に送信し、各々のメディアシンクが、受信したメディアデータパケットのタイムスタンプが表す時間にメディアデータパケットを再生するため、例えば、複数の機器が同期して音声出力することができる。(段落0039参照) The patent document 1 describes a synchronized reproduction system for media data packets. In this system, a media source (for example, an audio distribution device) transmits a media data packet with a time stamp (for example, audio data) to a plurality of media sinks (for example, an audio output device), and each media sink receives the received media. Since the media data packet is reproduced at the time indicated by the time stamp of the data packet, for example, a plurality of devices can output audio in synchronization. (See paragraph 0039)
しかしながら、特許文献1のシステムをテレビとモバイル端末の上記使用シーンに適用させる場合、タイムスタンプ付きの音声データを放送局側で用意する必要がある。また、テレビとモバイル端末が、時間計算の基準となる自装置のシステムクロックを互いに正確に一致させておく必要がある。 However, when the system of Patent Document 1 is applied to the above usage scenes of a television and a mobile terminal, it is necessary to prepare audio data with a time stamp on the broadcast station side. Also, it is necessary for the television and the mobile terminal to have the system clocks of their own devices, which are the basis for time calculation, accurately match each other.
そこで、本発明は、タイムスタンプを用いずに同期可能な情報端末、情報機器及びこれらからなるシステムを提供することを目的とする。 Accordingly, an object of the present invention is to provide an information terminal, an information device, and a system including these that can be synchronized without using a time stamp.
上記目的を達成するために、例えば特許請求の範囲に記載の構成を採用する。 In order to achieve the above object, for example, the configuration described in the claims is adopted.
本発明によれば、タイムスタンプを用いずに同期可能な情報端末、情報機器及びこれらからなるシステムを提供できる。 ADVANTAGE OF THE INVENTION According to this invention, the information terminal which can synchronize without using a time stamp, information equipment, and the system which consists of these can be provided.
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。 Problems, configurations, and effects other than those described above will be clarified by the following description of embodiments.
以下、実施例を図面を用いて説明する。 Hereinafter, examples will be described with reference to the drawings.
本実施例では、音声出力機器1が、ネットワーク接続された音声出力機器2と同期して音声を出力する例を説明する。
In this embodiment, an example will be described in which the audio output device 1 outputs audio in synchronization with the
まず、本実施例におけるシステムの概念について図1を用いて説明する。 First, the concept of the system in the present embodiment will be described with reference to FIG.
図1に示す様に本実施例のシステムは、音声出力機器1と音声出力機器2から成る。音声出力機器2が出力する音声は、利用者と音声出力機器1に届く。音声出力機器1が出力する音声は、利用者に届く。音声出力機器1と音声出力機器2はネットワークで接続されており、音声出力機器2から音声出力機器1に音声データが送信される。音声データとは、音声を符号化した情報のことを指す。
As shown in FIG. 1, the system of this embodiment includes an audio output device 1 and an
次に、本実施例による音声出力機器1の概略構成について図2を用いて説明する。 Next, a schematic configuration of the audio output device 1 according to the present embodiment will be described with reference to FIG.
図2に示す様に本実施例の音声出力機器1は、制御装置11と、記録装置12と、音声入力装置13と、音声出力装置14と、通信装置15と、操作入力装置16と、表示装置17とを有している。
As shown in FIG. 2, the audio output device 1 of the present embodiment includes a
制御装置11は、記録装置12が保持している処理プログラムを実行し、機器全体の動作を制御する装置である。
The
記録装置12は、音声出力機器1の動作を制御する処理プログラム、各種情報を管理するデータベース、音声データなどを記録する装置である。記録装置12の例としては、ディスク、テープ、半導体などがある。記録装置12が保持する処理プログラムには、機器制御処理部121と、音声データ取得処理部122と、音声入力処理部123と、時間差測定処理部124と、時間調整処理部125と、音声出力処理部126とがある。また、記録装置12は、音声データを一時的に保存する音声データバッファ1212を有している。
The
機器制御処理部121は、音声出力機器1の各装置を連携させ、音声出力機器として動作させる処理部である。例えば、通信装置15に入力された音声データを、音声出力装置14に出力させる音声出力機能などを実現する。他の処理部については、詳細を後述する。
The device
音声入力装置13は、音声を入力する装置である。音声入力装置13の例としては、マイクなどの集音装置がある。
The
音声出力装置14は、音声を出力する装置である。音声出力装置14の例としては、スピーカなどの放音装置がある。
The
通信装置15は、ネットワークを介して他の機器と通信を行う装置である。通信方式の例としては、USB(Universal Serial Bus)、IEEE1394(Institute of Electrical and Electronic Engineers 1394)、イーサネット(登録商標)、無線LAN(Local Area Network)、HDMI(High-Definition Multimedia Interface)などがある。
The
操作入力装置16は、利用者が音声出力機器1を操作するインタフェイス装置である。操作入力装置16の例としては、ボタン、スイッチ、キー、ダイアル、スティック、マウス、リモートコントローラ、タッチパネルなどがある。
The
表示装置17は、利用者に向けて機器操作用画面などを表示する装置である。表示装置17の例としては、液晶パネル、プラズマディスプレイパネル、有機ELパネルなどがある。なお、音声出力機器1は表示装置17を機器内に備えていなくてもよく、機器外に接続された表示装置17にて所望の画像が表示されるように、画像データを出力してもよい。
The
なお、音声データバッファ1212は、音声データを一時的に保存しても良いし、長期間保存しても良い。
Note that the
次に、本実施例による音声出力機器1の各処理部の役割とデータフローについて図3を用いて説明する。 Next, the role and data flow of each processing unit of the audio output device 1 according to the present embodiment will be described with reference to FIG.
図3は、本実施例による音声出力機器1のデータフロー図の例であるが、機器制御処理部121が音声出力機器1の各装置を連携させる際のデータフローについては省略している。
FIG. 3 is an example of a data flow diagram of the audio output device 1 according to the present embodiment, but a data flow when the device
音声データ取得処理部122は、ネットワーク接続された音声出力機器2から通信装置15を介して音声データ(以下では、取得音声データ101とする)を含む通信データを受信し、取得音声データ101を取得する処理部である。また、音声データ取得処理部122は、取得音声データ101を、時間差測定処理部124に渡し、音声データバッファ1212に保存する。
The audio data
音声入力処理部123は、音声入力装置13で入力された音声(以下では、入力音声103とする)を音声データ(以下では、入力音声データ104とする)に変換する処理部である。また、音声入力処理部123は、入力音声データ104を、時間差測定処理部124に渡す。
The voice
時間差測定処理部124は、取得音声データ101におけるある特徴部分を出力可能な時刻と、入力音声データ104の同じまたは類似の特徴部分が現れる時刻と、の時間差を測定する処理部である。時間差測定処理部124は、測定した時間差を含む時間差情報105を、時間調整処理部125に渡す。
The time difference
時間調整処理部125は、取得音声データ101を、音声データバッファ1212から読み出し、時間差情報105から抽出した時間差分だけ時間調整し、音声出力処理部126に渡す処理部である。
The time
音声出力処理部126は、取得音声データ101を音声(以下では、出力音声102とする)に変換し、音声出力装置14で出力する処理部である。
The sound
なお、音声データ取得処理部122は、時間差測定処理部124へ取得音声データ101を直接渡しても良いし、データバッファを介して渡しても良い。このデータバッファは、音声データバッファ1212であっても良いし、別のバッファであっても良い。
Note that the audio data
また、音声入力処理部123は、時間差測定処理部124へ入力音声データ104を直接渡しても良いし、データバッファを介して渡しても良い。このデータバッファは、音声データバッファ1212であっても良いし、別のバッファであっても良い。
The voice
次に、本実施例による音声出力機器2の概略構成について図4を用いて説明する。
Next, a schematic configuration of the
図4に示す様に本実施例の音声出力機器2は、制御装置21と、記録装置22と、放送受信装置23と、音声出力装置24と、通信装置25と、操作入力装置26と、表示装置27とを有している。音声出力機器2は、放送受信装置23を有することと、記録装置22が記録している処理プログラムの内容以外は、図2に示した音声出力機器1と同様であるため、記録装置22と放送受信装置23以外については詳細な説明は省略する。
As shown in FIG. 4, the
記録装置22は、音声出力機器2の動作を制御する処理プログラム、各種情報を管理するデータベース、音声データなどを記録する装置である。記録装置22の例としては、ディスク、テープ、半導体などがある。記録装置22が保持する処理プログラムには、機器制御処理部221と、音声データ取得処理部222と、時間調整処理部223と、音声出力処理部224と、音声データ送信処理部225とがある。また、記録装置22は、音声データを一時的に保存する音声データバッファ226と、音声データを長期間保存する音声データ記録部227とを有している。
The
機器制御処理部221は、音声出力機器2の各装置を連携させ、音声出力機器として動作させる処理部である。例えば、放送受信装置23で受信した放送データに含まれる音声データを、音声出力装置24に出力させる音声出力機能などを実現する。他の処理部については、詳細を後述する。
The device
放送受信装置23は、接続されたアンテナ/ケーブルより信号を受信し、受信した信号を元に映像・音声データを生成する装置である。チューナ、デコーダ、デマルチプレクサなどの機能を持つ。
The
なお、音声データバッファ226は、音声データを一時的に保存しても良いし、長期間保存しても良い。
Note that the
また、音声データバッファ226は、音声データ記録部227と異なる記録部であっても良いし、同じ記録部であっても良い。
The
また、音声出力機器2の音声データ記録部227が、記録装置22に含まれる場合を例に挙げて説明したが、音声データ記録部227は、記録装置22に含まれない別の記録媒体であっても良いし、音声出力機器2に含まれない外部記録媒体であっても良い。
Further, although the case where the audio
次に、本実施例による音声出力機器2の各処理部の役割とデータフローについて図5を用いて説明する。
Next, the role and data flow of each processing unit of the
図5は、本実施例による音声出力機器2のデータフロー図の例であるが、機器制御処理部221が音声出力機器2の各装置を連携させる際のデータフローについては省略している。
FIG. 5 is an example of a data flow diagram of the
音声データ取得処理部222は、放送受信装置23を介して音声データ201を含む放送データを受信し、音声データの取得を行う処理部である。また、音声データ取得処理部222は、ネットワーク上の他の機器から通信装置25を介して音声データを含む通信データを受信し、音声データを取得する。また、音声データ取得処理部222は、記録装置22の音声データ記録部227から音声データを読み出し、音声データを取得する。以下では、音声データ取得処理部222が取得した音声データを取得音声データ201とする。
The audio data
また、音声データ取得処理部222は、取得音声データ201を、音声データ送信処理部225に渡し、音声データバッファ226に保存する。
The audio data
時間調整処理部223は、取得音声データ201を、音声データバッファ226から読み出し、時間調整して、音声出力処理部224に渡す処理部である。
The time
音声出力処理部224は、取得音声データ201を音声(以下では、出力音声202とする)に変換し、音声出力装置24で出力する処理部である。
The sound
音声データ送信処理部225は、取得音声データ201を含む通信データを生成し、ネットワーク接続された音声出力機器1へ通信装置25を介して送信する処理部である。
The audio data
なお、音声データ取得処理部222は、音声データ送信処理部225へ取得音声データ201を直接渡しても良いし、データバッファを介して渡しても良い。このデータバッファは、音声データバッファ226であっても良いし、別のバッファであっても良い。
Note that the audio data
また、音声データ取得処理部222は、音声データ201を含む放送データを取得する際、放送受信装置23がアンテナ、ケーブルから放送データを受信して、放送データを取得しても良いし、放送データを含む通信データを通信装置25から取得し、放送データを抽出しても良い。
Further, when acquiring the broadcast data including the audio data 201, the audio data
次に、本実施例による音声出力機器1と音声出力機器2の動作について、図6を用いて説明する。
Next, operations of the audio output device 1 and the
まず、音声出力機器2において、音声データ取得処理部222が、音声データ201を取得し、音声データバッファ226に保存する(ステップ1001)。次に、音声データ送信処理部225が、取得音声データ201を含む通信データを音声出力機器1に送信する(ステップ1002)。
First, in the
次に、音声出力機器1において、音声データ取得処理部122が、取得音声データ201(音声出力機器1にとっての取得音声データ101)を含む通信データを受信し(ステップ1002)、音声データ201を取得し、音声データバッファ1212に保存する(ステップ1003)。
Next, in the audio output device 1, the audio data
次に、音声出力機器2において、時間調整処理部223が、取得音声データ201の時間調整を行い(ステップ1004)、音声出力処理部224が、出力音声202の出力を開始する(ステップ1005)。ステップ1004において音声出力機器2の時間調整処理部223は、音声出力機器1が、出力音声202(音声出力機器1にとっての入力音声103)と同期して出力音声102を出力可能とするのに十分な時間だけ、出力音声202の出力を遅らせる。こうすることにより、機器2から機器1へ、出力音声より後に音声データが送信され、機器1における、音声出力の時間調整ができなくなることを防ぐことができ、確実に音声の同期出力を行える。
Next, in the
次に、音声出力機器1において、音声入力処理部123が、出力音声202(音声出力機器1にとっての入力音声103)を音声データに変換する(ステップ1006)。次に、時間差測定処理部124が、取得音声データ101と入力音声データ104から時間差を測定し(ステップ1007)、時間調整処理部125が、取得音声データ101の時間調整を行い(ステップ1008)、音声出力処理部126が、出力音声102の出力を開始する(ステップ1009)。
Next, in the audio output device 1, the audio
なお、音声データを含む通信データの送信(ステップ1002)のタイミングは、ステップ1001で音声データ201を取得した後、音声データバッファ226に保存する前でもよい。
Note that the timing of transmission of communication data including audio data (step 1002) may be after the audio data 201 is acquired in
また、音声出力機器2は、音声データを含む通信データを一度にまとめて送信(ステップ1002)した後で、時間を調整し(ステップ1004)、音声出力を開始(ステップ1005)しても良いし、音声データを含む通信データをストリームデータとして送信(ステップ1002)しながら並行して、時間を調整し(ステップ1004)音声出力を開始(ステップ1005)しても良い。
Also, the
また、音声出力機器1は、取得音声データ101を音声データバッファ1212に保存(ステップ1003)してから時間差を測定(ステップ1007)しても良いし、取得音声データ101を音声データバッファ1212に保存(ステップ1003)しながら並行して時間差を測定(ステップ1007)しても良い。
Further, the audio output device 1 may store the acquired
また、音声出力機器1では、時間差は定期的に測定し直され(ステップ1007)、時間差情報105が変更された場合は、随時、音声出力の時間を調整する(ステップ1008)。 Also, in the audio output device 1, the time difference is periodically measured again (step 1007), and when the time difference information 105 is changed, the audio output time is adjusted as needed (step 1008).
本実施例による音声出力機器2は、ネットワーク接続された音声出力機器1に取得音声データ101を送信する。また、取得音声データ101を時間調整して出力音声102を出力する。
The
また、本実施例による音声出力機器1は、ネットワーク接続された音声出力機器2より取得音声データ101を取得する。また、音声出力機器2が出力する出力音声202(音声出力機器1にとっての入力音声103)を入力音声データ104に変換し、取得音声データ101におけるある特徴部分を出力可能な時刻と、入力音声データ104の同じまたは類似の特徴部分が現れる時刻と、の時間差を測定する。また、取得音声データ101を時間差分だけ時間調整して出力音声101を出力する。
Also, the audio output device 1 according to the present embodiment acquires the acquired
このため、タイムスタンプを用いずに同期可能な音声出力機器、システムおよび方法を提供できる。例えば、音声出力機器1と音声出力機器2は、取得音声データ101を加工してタイムスタンプを付加することなく、同期して音声出力することが可能となる。
For this reason, the audio | voice output apparatus, system, and method which can be synchronized without using a time stamp can be provided. For example, the audio output device 1 and the
例えば、音声出力機器1がモバイル端末であり、音声出力機器2がテレビである場合、音声データを加工してタイムスタンプを付加する機能をモバイル端末にもテレビにも持たせることなく、利用者がテレビを視聴しながらモバイル端末を手元に置き、テレビとモバイル端末から同期して出力される音声を聴くことができる。
For example, when the audio output device 1 is a mobile terminal and the
なお、本実施例では、取得音声データ101は、音声出力機器2が音声出力機器1に渡した取得音声データ201である場合の例を用いて説明したが、取得音声データ101は、音声出力機器1が独自に通信装置15などを介して取得した音声データであっても良い。その場合は、音声出力機器2が取得音声データ201を音声出力機器1に渡さなくても、本実施例と同様の効果が得られる。
In the present embodiment, the acquired
たとえば、音声出力機器2の出力音声202がテレビ放送の音声であり、音声出力機器1が放送受信装置を備えている場合、取得音声データ201を取得した放送のIDを音声出力機器2が音声出力機器1に渡すだけで、音声出力機器1は自機器の放送受信装置で放送データを取得して取得音声データ201と同じ音声データを取得することが可能となり、大量の音声データをネットワーク経由で送信することなく出力音声202と同期して出力音声102を出力することなどができる。
For example, when the
また、たとえば、音声出力機器1が、入力音声データ104の特徴を抽出して一致する音声データを別機器から取得する一致音声データ取得処理部を備えている場合、音声出力機器2から音声出力機器1にデータを送信しなくても、音声出力機器1が自力で取得音声データ201と同じ音声データを取得することが可能となり、音声出力機器2と音声出力機器1がネットワーク接続することなく出力音声202と同期して出力音声102を出力することなどができる。
In addition, for example, when the audio output device 1 includes a matching audio data acquisition processing unit that extracts features of the
本実施例では、実施例1に加えて、音声出力機器1が、入力音声103の音量を考慮して出力音声102の音量を調整する例を説明する。
In the present embodiment, in addition to the first embodiment, an example in which the audio output device 1 adjusts the volume of the
まず、本実施例におけるシステムの概念について図7を用いて説明する。 First, the concept of the system in the present embodiment will be described with reference to FIG.
図7(a)に示す様に本実施例のシステムは、音声出力機器1と音声出力機器2から成る。音声出力機器2が出力する音声は、利用者と音声出力機器1に届く。音声出力機器1が出力する音声は、利用者に届く。音声出力機器1と音声出力機器2はネットワークで接続されており、音声出力機器2から音声出力機器1に音声データが送信される。
As shown in FIG. 7A, the system of this embodiment includes an audio output device 1 and an
図7(b)では、入力音声103の音量が大きい場合には、出力音声102の音量が小さくなるように調整されることが、図7(c)では、入力音声103の音量が小さい場合には、出力音声102の音量が大きくなるように調整されることが、それぞれ示されている。
In FIG. 7B, when the volume of the
次に、本実施例による音声出力機器1の概略構成について図8を用いて説明する。 Next, a schematic configuration of the audio output device 1 according to the present embodiment will be described with reference to FIG.
図8は、図2の音声出力機器1の記録装置12に、入力音量測定処理部127と、音量管理処理部128と、出力音量調整処理部129と、音量情報管理データベース1211を追加したものである。その他の構成は、既に説明した同一符号を付された構成と、同一の機能を有するので、それらの説明は省略する。
8 is obtained by adding an input volume
音量情報管理データベース1211は、音量管理処理部128が音量情報の記憶および出力音量の決定判断に用いるデータベースである。詳細を後述する。
The volume
また、他の処理部については、詳細を後述する。 Details of other processing units will be described later.
次に、本実施例による音声出力機器1の各処理部の役割とデータフローについて図9を用いて説明する。 Next, the role and data flow of each processing unit of the audio output device 1 according to the present embodiment will be described with reference to FIG.
図9は、図3のデータフロー図に、入力音量測定処理部127と、音量管理処理部128と、出力音量調整処理部129と、音量情報管理データベース1211と、これらに関連するデータフローを追加たものである。その他の処理部およびデータフローは、既に説明した同一符号を付された処理部およびデータフローと、同一の機能を有し同一の関係にあるので、それらの説明は省略する。
9 adds an input volume
機器制御処理部121は、音声出力機器1の各装置を連携させる処理部である。本実施例では、ユーザが操作入力装置16を操作して設定した音量の情報を含む設定音量情報107を生成し、音量管理処理部128に渡す処理を例に挙げて説明する。
The device
音声入力処理部123は、図3に加えてさらに、入力音声データ104を入力音量測定処理部127に渡す。
The voice
入力音量測定処理部127は、音声データの音量を測定する処理部である。音声入力処理部123から受け取った入力音声データ104の音量を測定し、測定された音量の情報を含む入力音量情報106を生成し、音量管理処理部128に渡す。
The input volume
音量管理処理部128は、音量情報管理データベース1211を用いて、音量情報の記憶および出力音量の決定判断を行う処理部である。機器制御処理部121から受け取った設定音量情報107と、入力音量測定処理部127から受け取った入力音量情報106を音量情報管理データベース1211に記録する。また、音量情報管理データベース1211の判定条件と音量調整方法に従って、出力音量を決定する。また、出力音量の情報を含む出力音量情報108を生成し、出力音量調整処理部129に渡す。音量情報管理データベース1211については、詳細を後述する。
The volume
出力音量調整処理部129は、出力音声の音量を調整する処理部である。音量管理処理部128から受け取った出力音量情報108から、自機器の出力音量情報109を生成し、音声出力処理部126に渡す。
The output volume
音声出力処理部126は、図3に加えてさらに、出力音量調整処理部129から自機器の出力音量情報109を受け取り、出力音声102の音量を調整して出力する。
In addition to FIG. 3, the audio
なお、音声入力処理部123は、入力音量測定処理部127へ入力音声データ104を直接渡しても良いし、データバッファを介して渡しても良い。このデータバッファは、音声データバッファ1212であっても良いし、別のバッファであっても良い。
Note that the voice
また、音量管理処理部128における出力音量の決定処理は、音量情報管理データベース1211で管理する情報を元に決定しても良いし、プログラムに条件分岐を設けて決定処理を実装しておき、データベースを用いずに決定しても良い。
The output volume determination process in the volume
次に、本実施例による音声出力機器1と音声出力機器2の動作について、図10を用いて説明する。
Next, operations of the audio output device 1 and the
まず、音声出力機器1において、ユーザが操作入力装置16を操作して音量を設定すると、音量管理処理部128は、機器制御処理部121から渡された設定音量情報107を音量情報管理データベース1211に保存する(ステップ2001)。
First, in the audio output device 1, when the user operates the
次のステップ2002からステップ2009は、それぞれ、図6のステップ1001からステップ1008と同様の処理であるため、説明は省略する。
The
次に、音声出力機器1において、入力音量測定処理部127が、入力音声データ104の音量を測定して音量管理処理部128に渡し、音量管理処理部128が、音量情報管理データベース1211に保存する(ステップ2010)。次に、音量管理処理部128が、音量情報管理データベース1211の判定条件と音量調整方法に従って、出力音量情報108を決定する(ステップ2011)。
Next, in the audio output device 1, the input volume
次に、出力音量調整処理部129が、決定された出力音量情報108に従って出力音声102の音量を調整し(ステップ2012)、音声出力処理部126が、出力音声102の出力を開始する(ステップ2013)。
Next, the output volume
なお、音声出力機器1における、ユーザ操作による音量の設定と、設定された音量の保存(ステップ2001)処理のタイミングは、任意である。例えば、音声データへの変換(ステップ2007)の前でも良いし、後でも良いし、並行して同時に行っても良い。また、音声出力機器1における音声出力開始(ステップ2013)の後でも良い。設定音量が変更された場合は、随時、音量情報管理データベース1211を更新し(ステップ2001)、出力音量を決定し直す(ステップ2011)。
Note that the timing of the volume setting by the user operation and the saving of the set volume (step 2001) in the audio output device 1 is arbitrary. For example, it may be before audio data conversion (step 2007), after it, or in parallel. Further, it may be after the audio output start (step 2013) in the audio output device 1. When the set volume is changed, the volume
また、音声出力機器1における入力音声データ104の音量は、定期的に測定し直され(ステップ2010)、入力音量情報106が変更された場合は、随時、音量情報管理データベース1211を更新し(ステップ2010)、出力音量を決定し直す(ステップ2011)。
In addition, the volume of the input
また、入力音量を測定して保存し(ステップ2010)、出力音量を決定する(ステップ2011)処理は、時間差を測定し(ステップ2008)、時間を調整する(ステップ2009)処理の後でも良いし、前でも良いし、並行して同時に行っても良い。 Further, the process of measuring and saving the input volume (step 2010) and determining the output volume (step 2011) may be after the process of measuring the time difference (step 2008) and adjusting the time (step 2009). , It may be done before or in parallel.
また、出力音量の調整(ステップ2012)は、音声出力(ステップ2013)の前でも良いし、後でも良いし、並行して同時に行っても良い。 Further, the adjustment of the output volume (step 2012) may be performed before or after the sound output (step 2013), or may be performed simultaneously in parallel.
次に、本実施例による音量情報管理データベース1211について、図11を用いて説明する。
Next, the volume
図11の(a)および(c)は、音量情報管理データベース1211が管理する音量情報の例を示している。音量情報は、設定音量情報12111(X)と、外部機器からの入力音量情報12112(Y)と、自機器の出力音量情報12113(Z)と、自機器の最大出力音量情報12114(Zmax)とから成る。図9の設定音量情報107が図11のXに、図9の入力音量情報106が図11のYに、図9の自機器の出力音量情報109が図11のZに、それぞれ対応して保存される。ここでは、自機器は音声出力機器1を指し、外部機器は音声出力機器2を指す。
11A and 11C show examples of volume information managed by the volume
ここで、自機器の最大出力音量情報12114(Zmax)は、自機器で出力する際に快適性の面から許容される最大音量の情報であり、本実施例では、使用中に変化しない場合の例を挙げて説明する。音声出力装置14は、一般的に、出力可能な最大音量に近い音量で出力すると音が割れたり歪んだりするため、利用者にとって快適でない場合が多い。このため、出力可能な最大音量ではなく快適性の面から許容される最大音量を用いれば、利用者の音声聴取環境を最適化することができる。
Here, the maximum output volume information 12114 (Zmax) of the own device is information on the maximum volume allowed from the aspect of comfort when output by the own device, and in this embodiment, the maximum output volume information 12114 (Zmax) is not changed during use. An example will be described. In general, the
なお、自機器の最大出力音量情報12114(Zmax)は、自機器で出力する際に快適性の面から許容される最大音量の情報であっても良いし、自機器で出力可能な最大音量の情報であっても良い。 Note that the maximum output volume information 12114 (Zmax) of the own device may be information on the maximum volume allowed in terms of comfort when output by the own device, or the maximum volume that can be output by the own device. It may be information.
(a)は出力音量決定前の音量情報の例であり、Xが13、Yが3、Zが9、Zmaxが15であることを示している。(c)は、出力音量決定後の音量情報の例であり、Xが13、Yが3、Zが10、Zmaxが15であることを示している。 (A) is an example of volume information before determining the output volume, and indicates that X is 13, Y is 3, Z is 9, and Zmax is 15. (C) is an example of volume information after the output volume is determined, and indicates that X is 13, Y is 3, Z is 10, and Zmax is 15.
図11の(b)は、音量管理処理部128が出力音量の決定を行うための出力音量決定情報の例を示している。出力音量決定情報は、判定条件を適用する順番を示す判定優先順位12115と、現在の音量情報から自機器の音量調整方法を導き出すための判定条件12116と、自機器の音量調整方法12117から成る。
FIG. 11B shows an example of output volume determination information for the volume
例えば、出力音量決定前の音量情報(a)を出力音量決定情報(b)に当てはめる場合、まず、判定優先順位1の判定条件「X>Zmax」で判定する。判定結果は偽であるため、判定優先順位2の判定条件「X>Y+Z」で判定する。判定結果は真であるため、音量調整方法「X−Y−Zだけ上げる」に従って、自機器の音量を1だけ上げる。その結果、出力音量決定後の音量情報(c)が得られる。出力音量決定前の音量情報(a)ではZが9であるが、自機器の音量を1だけ上げた結果、出力音量決定後の音量情報(c)ではZが10となっている。
For example, when the volume information (a) before determining the output volume is applied to the output volume determination information (b), the determination is first made with the determination condition “X> Zmax” of the determination priority order 1. Since the determination result is false, the determination is performed under the determination condition “X> Y + Z” of
なお、本実施例では、ユーザが操作して設定音量を指定する場合を例に挙げて説明したが、ユーザの設定音量の指定によらずに、音声出力機器1の出力音量を変化させても良い。この場合は、例えば、音量管理処理部128は、ユーザが音声出力機器1の出力音量を変化させた直後の、外部機器からの入力音量(Y)と自機器の出力音量(Z)の和を、設定音量情報(X)として保存する。
In this embodiment, the case where the user operates to specify the set volume has been described as an example. However, the output volume of the audio output device 1 may be changed regardless of the setting of the user's set volume. good. In this case, for example, the volume
本実施例による音声出力機器1は、実施例1に加えて、ユーザ操作による設定音量情報107と、入力音声データ104の音量を測定して得た入力音量情報106を元に、出力音量情報108を得る。
In addition to the first embodiment, the audio output device 1 according to the present embodiment outputs the output volume information 108 based on the set volume information 107 by user operation and the input volume information 106 obtained by measuring the volume of the
このため、タイムスタンプや音量情報を機器間で受け渡しすることなく、適切な音量で同期出力可能な音声出力機器、システムおよび方法を提供できる。例えば、音声出力機器1と音声出力機器2は、取得音声データ101を加工してタイムスタンプや音量情報を付加することなく、適切な音量で同期して音声出力することが可能となる。
Therefore, it is possible to provide an audio output device, system and method capable of synchronously outputting at an appropriate volume without passing time stamps and volume information between devices. For example, the audio output device 1 and the
例えば、音声出力機器1がモバイル端末であり、音声出力機器2がテレビであり、利用者がテレビを視聴しながらモバイル端末を手元に置き、テレビとモバイル端末から同期して出力される音声を聴いている場合を想定する。
For example, the audio output device 1 is a mobile terminal, the
利用者がモバイル端末を持ってテレビから離れた場合、利用者およびモバイル端末に届くテレビの音量は小さくなる。この時、本実施例によるモバイル端末は、小さくなった音量を補うように出力音声の音量を上げる。逆に、テレビに近づいた場合、利用者およびモバイル端末に届くテレビの音量が大きくなるため、モバイル端末は出力音声の音量を下げる。このため、利用者はテレビからの距離に関わらず常に同じような音量の音声を聴くことができる。 When the user moves away from the television with the mobile terminal, the volume of the television that reaches the user and the mobile terminal decreases. At this time, the mobile terminal according to the present embodiment increases the volume of the output sound so as to compensate for the decreased volume. Conversely, when the user approaches the television, the volume of the television that reaches the user and the mobile terminal increases, and the mobile terminal decreases the volume of the output sound. For this reason, the user can always listen to the sound of the same volume regardless of the distance from the television.
本実施例では、実施例2に加えて、音声出力機器1が、音声出力機器2を制御して出力音声202の音量を調整する例を説明する。
In this embodiment, in addition to the second embodiment, an example in which the audio output device 1 controls the
まず、本実施例におけるシステムの概念について図12を用いて説明する。 First, the concept of the system in the present embodiment will be described with reference to FIG.
図12に示す様に本実施例のシステムは、音声出力機器1と音声出力機器2から成る。音声出力機器2が出力する音声は、利用者と音声出力機器1に届く。音声出力機器1が出力する音声は、利用者に届く。音声出力機器1と音声出力機器2はネットワークで接続されており、音声出力機器2から音声出力機器1に音声データが送信される。
As shown in FIG. 12, the system of the present embodiment includes an audio output device 1 and an
また、音声出力機器1から音声出力機器2に音量制御情報が送信される。
Further, the sound volume control information is transmitted from the sound output device 1 to the
次に、本実施例による音声出力機器1の概略構成について図13を用いて説明する。 Next, a schematic configuration of the audio output device 1 according to the present embodiment will be described with reference to FIG.
図13は、図8の音声出力機器1の記録装置12に、外部機器制御処理部1210を追加したものである。その他の構成は、既に説明した同一符号を付された構成と、同一の機能を有するので、それらの説明は省略する。
FIG. 13 is obtained by adding an external device
外部機器制御処理部1210については、詳細を後述する。
Details of the external device
次に、本実施例による音声出力機器1の各処理部の役割とデータフローについて図14を用いて説明する。 Next, the role and data flow of each processing unit of the audio output device 1 according to the present embodiment will be described with reference to FIG.
図14は、図9のデータフロー図に、外部機器制御処理部1210と、これに関連するデータフローを追加たものである。その他の処理部およびデータフローは、既に説明した同一符号を付された処理部およびデータフローと、同一の機能を有し同一の関係にあるので、それらの説明は省略する。
FIG. 14 is obtained by adding an external device
出力音量調整処理部129は、図9に加えてさらに、外部機器の出力音量情報110を生成し、外部機器制御処理部1210に渡す。
In addition to FIG. 9, the output volume
外部機器制御処理部1210は、出力音量調整処理部129から受け取った外部機器の出力音量情報110から、音量制御情報111を含む通信データを生成し、ネットワーク接続された音声出力機器2へ通信装置15を介して送信する処理部である。音量制御情報111は、音声出力機器2の音量を制御するための情報である。音量制御情報111は、音声出力機器2の音量を変化させる量と向きであっても良いし、音声出力機器2で設定される音量であっても良い。例えば、音声出力機器2の音量を、現在の8から、10に変化させる場合、「音量を2単位上げる」でも良いし、「音量を10に設定する」でも良い。
The external device
次に、本実施例による音声出力機器2の概略構成について図15を用いて説明する。
Next, a schematic configuration of the
図15は、図4の音声出力機器2の記録装置22に、出力音量調整処理部228を追加したものである。その他の構成は、既に説明した同一符号を付された構成と、同一の機能を有するので、それらの説明は省略する。
FIG. 15 is obtained by adding an output volume
出力音量調整処理部228については、詳細を後述する。
Details of the output volume
次に、本実施例による音声出力機器2の各処理部の役割とデータフローについて図16を用いて説明する。
Next, the role and data flow of each processing unit of the
図16は、図5のデータフロー図に、出力音量調整処理部228と、これに関連するデータフローを追加たものである。その他の処理部およびデータフローは、既に説明した同一符号を付された処理部およびデータフローと、同一の機能を有し同一の関係にあるので、それらの説明は省略する。
FIG. 16 is obtained by adding an output volume
機器制御処理部221は、音声出力機器2の各装置を連携させる処理部である。本実施例では、ネットワーク上の音声出力機器1から通信装置25を介して音量制御情報203(音声出力機器1にとっての音量制御情報111)を含む通信データを受信し、音量制御情報203を抽出する処理を例に挙げて説明する。機器制御処理部221は、抽出した音量制御情報203を出力音量調整処理部228に渡す。
The device
出力音量調整処理部228は、機器制御処理部221から受け取った音量制御情報203から、自機器の出力音量情報204を生成し、音声出力処理部224に渡す。
The output volume
音声出力処理部224は、図5に加えてさらに、出力音量調整処理部228から自機器の出力音量情報204を受け取り、出力音声202の音量を調整して出力する。
In addition to FIG. 5, the audio
次に、本実施例による音声出力機器1と音声出力機器2の動作について、図17を用いて説明する。
Next, operations of the audio output device 1 and the
ステップ3001からステップ3010は、それぞれ、図10のステップ2001からステップ2010と同様の処理であるため、説明は省略する。
次に、音声出力機器1において、音量管理処理部128が、音量情報管理データベース1211の判定条件と音量調整方法に従って、自機器の出力音量情報109と外部機器の出力音量情報110を決定する(ステップ3011)。次に、外部機器制御処理部1210が、音量制御情報111を含む通信データを生成し通信装置15を介して音声出力機器2に送信する(ステップ3012)。
Next, in the audio output device 1, the volume
次に、音声出力機器2において、機器制御処理部221が、通信装置25を介して音量制御情報203(音声出力機器1にとっての音量制御情報111)を含む通信データを取得し(ステップ3012)、音量制御情報203を取得する。次に、出力音量調整処理部228が、音量制御情報203に従って出力音声202の音量を調整する(ステップ3013)。
Next, in the
なお、音声出力機器1において、音量制御情報111を含む通信データの生成と音声出力機器2への送信(ステップ3012)処理は、出力音声102の音量調整(ステップ3014)処理の後でも良いし、前でも良いし、並行して同時に行っても良い。
In the audio output device 1, the generation of communication data including the volume control information 111 and the transmission to the audio output device 2 (step 3012) may be performed after the volume adjustment (step 3014) processing of the
また、音声出力機器1の出力音量の調整(ステップ3014)は、音声出力(ステップ3015)の前でも良いし、後でも良いし、並行して同時に行っても良い。 Further, the adjustment of the output volume (step 3014) of the audio output device 1 may be performed before or after the audio output (step 3015), or may be performed simultaneously in parallel.
また、音声出力機器1は、ネットワーク経由で音声出力機器2に音量制御情報111(音声出力機器2にとっての音量制御情報203)を渡し、音声出力機器2の音量を制御する場合の例を挙げて説明したが、別の経路で音声出力機器2の音量を制御しても良い。例えば、音声出力機器1が赤外線発信装置を備え、音声出力機器2の赤外線リモートコントローラにおいて音量を制御するボタンが押された場合に発信される赤外線信号と同じ信号を、赤外線発信装置が発信し、音声出力機器2の音量を制御しても良い。
Further, the audio output device 1 gives an example in which the volume control information 111 (volume control information 203 for the audio output device 2) is passed to the
また、音量制御情報203は、音量制御情報111であっても良いし、同じ制御を行う別の音量制御情報であっても良い。 The volume control information 203 may be the volume control information 111 or another volume control information that performs the same control.
次に、本実施例による音量情報管理データベース1211について、図18を用いて説明する。
Next, the volume
図18は、図11に対して、出力音量決定情報(b)の項目およびデータと、出力音量決定後の音量情報(c)のデータ、とを変更したものである。その他の項目およびデータは、既に説明した同一符号を付された項目およびデータと、同一の意味を有しているので、それらの説明は省略する。 FIG. 18 is different from FIG. 11 in the items and data of the output volume determination information (b) and the data of the volume information (c) after the output volume determination. The other items and data have the same meaning as the items and data having the same reference numerals already described, and therefore their explanation is omitted.
図14の設定音量情報107が図18のXに、図14の入力音量情報106が図18のYに、図14の自機器の出力音量情報109が図18のZに、それぞれ対応して保存される。 The set volume information 107 in FIG. 14 corresponds to X in FIG. 18, the input volume information 106 in FIG. 14 corresponds to Y in FIG. 18, and the output volume information 109 of the own device in FIG. 14 corresponds to Z in FIG. Is done.
図18の出力音量決定後の音量情報(c)は、Xが13、Yが0、Zが13、Zmaxが15であることを示している。 The volume information (c) after determining the output volume in FIG. 18 indicates that X is 13, Y is 0, Z is 13, and Zmax is 15.
図18の出力音量決定情報(b)は、図11に加えてさらに、外部機器の音量調整方法12118を有する。
The output volume determination information (b) of FIG. 18 further includes a
例えば、出力音量決定前の音量情報(a)を出力音量決定情報(b)に当てはめる場合、まず、判定優先順位1の判定条件「X≦Zmax」で判定する。判定結果は真であるため、自機器の音量調整方法「Xにする」に従って、自機器の音量を13にする。また、外部機器の音量調整方法「0にする」に従って、外部機器の音量を0にする。その結果、出力音量決定後の音量情報(c)が得られる。出力音量決定前の音量情報(a)ではYが3でZが9であるが、自機器の音量を13にして外部機器の音量を0にした結果、出力音量決定後の音量情報(c)ではYが0でZが13となっている。 For example, when the volume information (a) before determining the output volume is applied to the output volume determination information (b), the determination is first made with the determination condition “X ≦ Zmax” of the determination priority order 1. Since the determination result is true, the volume of the own device is set to 13 according to the volume adjustment method “X” of the own device. Further, the volume of the external device is set to 0 in accordance with the volume adjustment method “0” of the external device. As a result, the volume information (c) after determining the output volume is obtained. In the volume information (a) before determining the output volume, Y is 3 and Z is 9, but as a result of setting the volume of the own device to 13 and the volume of the external device to 0, the volume information (c) after determining the output volume Then, Y is 0 and Z is 13.
また、判定優先順位2の判定条件での判定結果が真となった場合、外部機器の音量調整方法は「X=Zmax+Yになるように調整する」である。音量制御情報203(音声出力機器1にとっての音量制御情報111)で外部機器の出力音声202の音量をどれだけ上げれば、自機器に届いた入力音声103の音量がどれだけ上がるのかは、自機器と外部機器との間の距離や環境によって変化する。このため、例えば、音量制御情報203で外部機器の音量を少し変化させて、その時の入力音声103の音量の変化を測定し、所望の入力音量に達するまで調整する、などの処理を行う。
Also, when the determination result under the determination condition of
なお、本実施例では、判定条件が「X≦Zmax」の場合の外部機器の音量調整方法として「0にする」場合を例に挙げて説明したが、0にしなくても良い。例えば、自機器の音量を「X」より少し下げて、その分、外部機器の音量を上げても良い。 In this embodiment, the case where “0” is used as the volume adjustment method of the external device when the determination condition is “X ≦ Zmax” has been described as an example. For example, the volume of the own device may be slightly lowered from “X”, and the volume of the external device may be increased accordingly.
本実施例による音声出力機器1は、実施例2に加えて、外部機器の音量調整方法を決定し、音声出力機器2に音量制御情報送信して、音声出力機器2の音量を制御する。
In addition to the second embodiment, the audio output device 1 according to the present embodiment determines the volume adjustment method of the external device, transmits the volume control information to the
このため、タイムスタンプを用いずに、また、音量情報を音声データに含めることなく、適切な音量で同期出力可能な音声出力機器、システムおよび方法を提供できる。例えば、音声出力機器1と音声出力機器2は、取得音声データ101を加工してタイムスタンプや音量情報を付加することなく、適切な音量で同期して音声出力することが可能となる。
Therefore, it is possible to provide an audio output device, system, and method that can perform synchronous output at an appropriate volume without using a time stamp and without including volume information in the audio data. For example, the audio output device 1 and the
例えば、音声出力機器1がモバイル端末であり、音声出力機器2がテレビであり、利用者がテレビを視聴しながらモバイル端末を手元に置き、テレビとモバイル端末から同期して出力される音声を聴いている場合を想定する。
For example, the audio output device 1 is a mobile terminal, the
利用者がモバイル端末を持ってテレビから離れたところにいる場合、利用者およびモバイル端末に届くテレビの音量は小さい。この時、本実施例によるモバイル端末は、設定された音量で音声を出力し、テレビの出力音量を0にする。このため、テレビが大きい音量で音声を出力して周りの他の人に迷惑をかけることなく、利用者は設定通りの音量の音声を聴くことができる。 When the user is away from the television with the mobile terminal, the volume of the television reaching the user and the mobile terminal is small. At this time, the mobile terminal according to the present embodiment outputs sound at the set volume and sets the output volume of the television to zero. For this reason, the user can listen to the sound with the sound volume as set without causing the TV to output the sound with a high sound volume and disturbing other people around.
以上、本発明の実施例について説明した。 The embodiment of the present invention has been described above.
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 In addition, this invention is not limited to an above-described Example, Various modifications are included. For example, the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described. Further, a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment. Further, it is possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD、BD等の記録媒体に置くことができる。 Each of the above-described configurations, functions, processing units, processing means, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit. Each of the above-described configurations, functions, and the like may be realized by software by interpreting and executing a program that realizes each function by the processor. Information such as programs, tables, and files that realize each function can be stored in a recording device such as a memory, hard disk, or SSD (Solid State Drive), or a recording medium such as an IC card, SD card, DVD, or BD. it can.
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。 Further, the control lines and information lines indicate what is considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.
1 音声出力機器
11 制御装置
12 記録装置
13 音声入力装置
14 音声出力装置
15 通信装置
16 操作入力装置
17 表示装置
2 音声出力機器
21 制御装置
22 記録装置
23 放送受信装置
24 音声出力装置
25 通信装置
26 操作入力装置
27 表示装置
DESCRIPTION OF SYMBOLS 1 Audio |
Claims (2)
前記情報機器から出力された音声を入力する音声入力部と、
前記情報機器からネットワーク経由で送信された音声データを受信する通信部と、
前記音声データに基づく音声を出力する音声出力部と、
前記入力された音声を音声データに変換し、前記受信された音声データと、所定の特徴部分を比較することによって、時間差を測定し、測定された時間差に基づいて、情報機器からの音声出力と同期させて音声を出力させる制御部と、を備え、
前記制御部は、自機器から出力する音声の音量を大きくするとともに、情報機器から出力される音声の音量を小さくするための制御情報を通信部から情報機器に送信させることを特徴とする情報端末。 An information terminal that outputs audio connected to a network with an information device that outputs audio,
A voice input unit for inputting voice output from the information device;
A communication unit that receives audio data transmitted from the information device via a network;
An audio output unit for outputting audio based on the audio data;
The input voice is converted into voice data, a time difference is measured by comparing the received voice data with a predetermined feature portion, and a voice output from the information device is based on the measured time difference. And a control unit that outputs sound in synchronization with each other,
Information the control unit, along with increasing the volume of the audio to be output from the self-device, and wherein the Rukoto to transmit control information for reducing the volume of sound output from the information device from the communication unit to the information device Terminal.
前記情報機器は、The information device is
音声データを取得する音声取得部と、An audio acquisition unit for acquiring audio data;
前記音声データに基づく音声を出力する音声出力部と、An audio output unit for outputting audio based on the audio data;
ネットワーク経由で前記音声データを送信する通信部と、A communication unit for transmitting the audio data via a network;
制御部とを備え、A control unit,
前記情報端末は、The information terminal
前記情報機器から出力された音声を入力する音声入力部と、A voice input unit for inputting voice output from the information device;
前記情報機器からネットワーク経由で送信された音声データを受信する通信部と、A communication unit that receives audio data transmitted from the information device via a network;
前記音声データに基づく音声を出力する音声出力部と、An audio output unit for outputting audio based on the audio data;
制御部とを備え、A control unit,
前記情報端末の制御部は、前記入力された音声を音声データに変換し、前記受信された音声データと、所定の特徴部分を比較することによって、時間差を測定し、測定された時間差に基づいて、情報機器からの音声出力と同期させて音声を出力させ、The control unit of the information terminal converts the input voice into voice data, measures the time difference by comparing the received voice data with a predetermined feature portion, and based on the measured time difference , And synchronize with the audio output from the information equipment,
前記情報端末の制御部は、さらに、前記入力された音声の音量に基づいて、前記出力する音声の音量を決定し、The control unit of the information terminal further determines the volume of the output voice based on the volume of the input voice,
前記情報機器の制御部は、前記情報端末で、前記入力された音声と、前記受信された音声データとに基づき、自機器からの音声出力と同期した音声出力を行えるように、時間を調整して音声を出力させ、The control unit of the information device adjusts the time so that the information terminal can perform a sound output synchronized with a sound output from the own device based on the input sound and the received sound data. To output sound,
前記情報端末の制御部は、自機器から出力する音声の音量を大きくするとともに、情報機器から出力される音声の音量を小さくするための制御情報を通信部から情報機器に送信させ、The control unit of the information terminal increases the volume of the sound output from the own device and causes the communication unit to transmit control information for decreasing the volume of the sound output from the information device to the information device,
前記情報機器において、前記通信部が、前記情報端末から情報機器から出力される音声の音量を小さくするための制御情報を受信した場合に、前記制御部は、出力する音声の音量を小さくさせることを特徴とするシステム。In the information device, when the communication unit receives control information for reducing the volume of the sound output from the information device from the information terminal, the control unit decreases the volume of the output sound. A system characterized by
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011140085A JP5735360B2 (en) | 2011-06-24 | 2011-06-24 | Information terminal, information device, and system comprising these |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011140085A JP5735360B2 (en) | 2011-06-24 | 2011-06-24 | Information terminal, information device, and system comprising these |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013007876A JP2013007876A (en) | 2013-01-10 |
JP5735360B2 true JP5735360B2 (en) | 2015-06-17 |
Family
ID=47675285
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011140085A Active JP5735360B2 (en) | 2011-06-24 | 2011-06-24 | Information terminal, information device, and system comprising these |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5735360B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6212354B2 (en) * | 2013-10-22 | 2017-10-11 | シャープ株式会社 | Portable information terminal and control method thereof |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07177376A (en) * | 1993-12-17 | 1995-07-14 | Hitachi Ltd | Television receiver, remote controller and their combination |
JP2005184428A (en) * | 2003-12-19 | 2005-07-07 | Sanyo Electric Co Ltd | Acoustic device |
JP2008060675A (en) * | 2006-08-29 | 2008-03-13 | Sony Corp | Sound reproduction device and method |
JP5167706B2 (en) * | 2007-07-10 | 2013-03-21 | ヤマハ株式会社 | Sound emission and collection device |
JP2009171150A (en) * | 2008-01-15 | 2009-07-30 | Yamaha Corp | Voice distribution device |
-
2011
- 2011-06-24 JP JP2011140085A patent/JP5735360B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013007876A (en) | 2013-01-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10178345B2 (en) | Apparatus, systems and methods for synchronization of multiple headsets | |
US10614857B2 (en) | Calibrating media playback channels for synchronized presentation | |
CN107113465B (en) | Method, device and system for audiovisual synchronization with a plurality of output devices | |
US11606596B2 (en) | Methods, systems, and media for synchronizing audio and video content on multiple media devices | |
KR102183413B1 (en) | Method and system for presenting content using a plurality of electronic devices | |
US20140376873A1 (en) | Video-audio processing device and video-audio processing method | |
US20120155657A1 (en) | Communication device and communication methods | |
US10841697B1 (en) | Method and apparatus for playing audio, playing device, and storage medium | |
EP4336863A2 (en) | Latency negotiation in a heterogeneous network of synchronized speakers | |
WO2006025441A1 (en) | Video processing device, audio processing device, video/audio supply device, video/audio processing system, and video/audio synchronization method | |
US20180343520A1 (en) | Packet based delivery of multi-channel audio over wireless links | |
US20130166769A1 (en) | Receiving device, screen frame transmission system and method | |
WO2015107909A1 (en) | Reproduction device and data reproduction method | |
US20220021980A1 (en) | Terminal, audio cooperative reproduction system, and content display apparatus | |
US20140108934A1 (en) | Image display apparatus and method for operating the same | |
KR101787424B1 (en) | Mechanism for clock recovery for streaming content being communicated over a packetized communication network | |
JP5735360B2 (en) | Information terminal, information device, and system comprising these | |
JP6956354B2 (en) | Video signal output device, control method, and program | |
JP2013078048A (en) | Information reproduction device and information reproduction method | |
CN115767158A (en) | Synchronous playing method, terminal equipment and storage medium | |
CN108605156A (en) | Method for audio detection and corresponding equipment | |
US10209952B2 (en) | Content reproduction device, content reproduction system, and control method for a content reproduction device | |
US8909362B2 (en) | Signal processing apparatus and signal processing method | |
KR20130060651A (en) | Image processing apparatus and control method thereof | |
CN110024028B (en) | Information processing device, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130308 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130308 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20140310 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140317 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20140317 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20140318 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20140319 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140408 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140609 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140729 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20140917 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140925 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150331 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150416 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5735360 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |