JP2015109525A - Viewing device and viewing terminal - Google Patents
Viewing device and viewing terminal Download PDFInfo
- Publication number
- JP2015109525A JP2015109525A JP2013250580A JP2013250580A JP2015109525A JP 2015109525 A JP2015109525 A JP 2015109525A JP 2013250580 A JP2013250580 A JP 2013250580A JP 2013250580 A JP2013250580 A JP 2013250580A JP 2015109525 A JP2015109525 A JP 2015109525A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- content
- viewing
- keyword
- caption
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000605 extraction Methods 0.000 claims abstract description 39
- 230000005540 biological transmission Effects 0.000 claims description 21
- 238000004458 analytical method Methods 0.000 claims description 13
- 239000000284 extract Substances 0.000 claims description 10
- 230000004913 activation Effects 0.000 claims description 5
- 230000004044 response Effects 0.000 claims description 2
- 238000012545 processing Methods 0.000 description 53
- 238000004891 communication Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 18
- 230000005236 sound signal Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 13
- 238000000034 method Methods 0.000 description 13
- 230000008569 process Effects 0.000 description 10
- 230000001133 acceleration Effects 0.000 description 8
- 238000012937 correction Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 239000004973 liquid crystal related substance Substances 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000007906 compression Methods 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000010454 slate Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/436—Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/4104—Peripherals receiving signals from specially adapted client devices
- H04N21/4126—The peripheral being portable, e.g. PDAs or mobile phones
- H04N21/41265—The peripheral being portable, e.g. PDAs or mobile phones having a remote control device for bidirectional communication between the remote control device and client device
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
- H04N21/4394—Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/462—Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
- H04N21/4622—Retrieving content or additional data from different sources, e.g. from a broadcast channel and the Internet
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/488—Data services, e.g. news ticker
- H04N21/4884—Data services, e.g. news ticker for displaying subtitles
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Television Signal Processing For Recording (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
本発明の実施形態は、視聴装置及び視聴端末に関する。 Embodiments described herein relate generally to a viewing device and a viewing terminal.
TV(テレビジョンセット)のリモートコントローラの役割を果たすとなるアプリケーションや、TVの録画番組を視聴することができるアプリケーションがある。また、地デジ(地上ディジタル放送)対応のタブレット端末もある。また、これらのアプリケーションは同じ端末において、あるアプリケーションから別のアプリケーションを起動させることによって、連携することができるようになり、タブレット端末がリモートコントローラになったり、視聴端末になったりすることができるようになった。 There are applications that play the role of a TV (television set) remote controller and applications that allow viewing of TV recorded programs. There are also tablet terminals compatible with terrestrial digital (terrestrial digital broadcasting). In addition, these applications can be linked by launching another application from one application on the same terminal, so that the tablet terminal can be a remote controller or a viewing terminal. Became.
しかしながら課題として、アプリケーションをリモートコントローラとしてTVの視聴中に、ユーザが宅内でタブレットを持ち出して継続視聴を行ないたい場合、視聴しているコンテンツに合わせて、アプリケーションを立ち上げ、関連するコンテンツを選択したうえで視聴する必要があり、手間となっていた状況がある。 However, when the user wants to continue viewing by taking out the tablet at home while watching the TV with the application as a remote controller, the application is launched according to the content being viewed and the related content is selected. There is a situation where it was necessary to watch the video above.
即ち、TV(視聴装置)とタブレット(視聴端末)との間でより簡易に継続視聴することができる視聴装置及び視聴端への要望があるが、かかる要望を実現するための手段は知られていない。 That is, there is a demand for a viewing device and a viewing end that can be easily and continuously viewed between a TV (viewing device) and a tablet (viewing terminal), and means for realizing such a request are known. Absent.
本発明の実施の形態は、視聴装置と視聴端末との間でより簡易に継続視聴することができる視聴装置及び視聴端末を提供することを目的とする。 An object of the embodiment of the present invention is to provide a viewing device and a viewing terminal that can be easily and continuously viewed between the viewing device and the viewing terminal.
上記課題を解決するために、実施形態によれば視聴装置は、コンテンツを表示する表示部と、前記コンテンツの音声を出力するスピーカ部と、前記コンテンツの字幕を抽出する字幕抽出部と、前記字幕抽出部で抽出された字幕から字幕キーワードを抽出する字幕キーワード抽出部と、前記コンテンツに関する情報または前記字幕キーワードを視聴端末に送信する送受信部とを具備する。 In order to solve the above problem, according to the embodiment, a viewing device includes a display unit that displays content, a speaker unit that outputs audio of the content, a subtitle extraction unit that extracts subtitles of the content, and the subtitles A subtitle keyword extraction unit that extracts a subtitle keyword from the subtitles extracted by the extraction unit, and a transmission / reception unit that transmits the information related to the content or the subtitle keyword to a viewing terminal.
以下、実施形態を図1乃至図10を参照して説明する。まず、図2までを参照しながら、視聴装置の一実施形態にかかる録画再生装置について説明する。 Hereinafter, embodiments will be described with reference to FIGS. 1 to 10. First, a recording / playback apparatus according to an embodiment of a viewing apparatus will be described with reference to FIG.
図1は、一実施形態にかかる録画再生装置としての放送受信装置100の例を示す。
放送受信装置100は、映像を表示するディスプレイ(表示部400)が設けられる本体と、本体を自立可能な状態で支える脚部とを備える。
また、放送受信装置100は、放送入力端子110、受信部111、復元部112、通信インターフェース114、音声処理部121、映像処理部131、表示処理部133、制御部150、操作入力部161、カードコネクタ164、USBコネクタ166、ディスクドライブ170、LANコネクタ171、電源制御部180、及びストレージ190を備える。また、放送受信装置100は、さらにスピーカ300及びディスプレイ400を備える。
FIG. 1 shows an example of a
The
The
放送入力端子110は、例えばアンテナ200により受信されるディジタル放送信号が入力される入力端子である。アンテナ200は、例えば、地上ディジタル放送信号、BS(broadcasting satellite)ディジタル放送信号、及び/または、110度CS(communication satellite)ディジタル放送信号を受信する。即ち、放送入力端子110には、放送信号により供給される番組などのコンテンツが入力される。
The
放送入力端子110は、受信したディジタル放送信号を受信部111に供給する。受信部111は、ディジタル放送信号用の受信部である。受信部111は、アンテナ200から供給されるディジタル放送信号のチューニング(選局)を行う。受信部111は、チューニングしたディジタル放送信号を復元部112に送信する。受信部111は、送信入力端子110または通信インターフェース114から供給される信号がアナログ信号である場合は、ディジタル信号に変換する。
The
復元部112は、受信するディジタル放送信号の復調を行う。さらに、復元部112は、復調したディジタル放送信号(コンテンツ)に対して信号処理を施す。これにより、復元部112は、ディジタル放送信号から映像信号、音声信号、及びその他のデータ信号を復元する。例えば、復元部112は、ディジタル放送信号から映像信号、音声信号、及びその他のデータ信号などが重畳されたトランスポートストリーム(TS)を復元する。
The
復元部112は、音声処理部121に音声信号を供給する。また、復元部112は、映像処理部131に映像信号を供給する。さらに、復元部信号処理部113は、制御部150にデータ信号を供給する。即ち、アンテナ200、受信部111、及び復元部112は、コンテンツを受信する受信手段として機能する。
The
通信インターフェース114は、例えばHDMI(登録商標)(High Definition Multimedia Interface)端子、オーディオ入力端子、S映像端子、コンポーネント映像端子、D映像端子、D−Sub端子、及びDVI−I端子などのコンテンツを受信可能なインターフェースのうちのいずれか、または複数を備える。通信インターフェース114は、ディジタル映像信号、及びディジタル音声信号などが多重化されたコンテンツを他の機器から受信する。通信インターフェース114は、他の機器から受信したディジタル信号(コンテンツ)を受信部111に供給する。通信インターフェース114は、他の機器から受信したコンテンツを復元部112に供給する。即ち、通信インターフェース114は、コンテンツを受信する受信手段として機能する。
The
復元部112は、通信インターフェース114から受信部111経由で供給されたコンテンツに信号処理を施す。例えば、復元部112は、ディジタル信号をディジタル映像信号とディジタル音声信号とデータ信号とに分離する。復元部112は、音声処理部121にディジタル音声信号を供給する。また、復元部112は、映像処理部131にディジタル映像信号を供給する。さらに、復元部112は、制御部150にコンテンツに関する他の情報を供給する。
The
またさらに、復元部112は、制御部150の制御に基づいてコンテンツを後述するストレージ190に供給する。ストレージ190は、供給されたコンテンツを記憶する。これにより、放送受信装置100は、コンテンツを録画することができる。
Furthermore, the
音声処理部121は、復元部112から受信したディジタル音声信号を、スピーカ300により再生可能なフォーマットの信号(オーディオ信号)に変換する。音声処理部121は、オーディオ信号をスピーカ300に供給する。スピーカ300は、供給されるオーディオ信号に基づいて音を再生する。
The
映像処理部131は、復元部112から受信したディジタル映像信号を、ディスプレイ400で再生可能なフォーマットの映像信号に変換する。即ち、映像処理部131は、復元部112から受信した映像信号を、ディスプレイ400で再生可能なフォーマットの映像信号にデコード(再生)する。また、映像処理部131は、図示しないOSD処理部から供給されるOSD信号を映像信号に重畳する。映像処理部131は、映像信号を表示処理部133に出力する。
The
OSD処理部は、復元部112から供給されるデータ信号、及び/または制御部150から供給される制御信号に基づいて、GUI(グラフィック ユーザ インタフェース)画面、字幕、時刻、または他の情報などを画面に重畳して表示する為のOSD信号を生成する。OSD処理部は、個別にモジュールとして放送受信装置100内に設けられていてもよいし、制御部150の機能として設けられていてもよい。
The OSD processing unit displays a GUI (graphic user interface) screen, subtitles, time, or other information based on the data signal supplied from the
表示処理部133は、例えば、制御部150からの制御に基づいて、受信した映像信号に対して色味、明るさ、シャープ、コントラスト、またはその他の画質調整処理を行う。表示処理部133は、画質調整を施した映像信号をディスプレイ400に供給する。ディスプレイ400は、供給される映像信号に基づいて映像を表示する。
For example, the
ディスプレイ400は、例えば、マトリクス状に配列された複数の画素を備える液晶表示パネルと、この液晶パネルを照明するバックライトとを備える液晶表示装置などを備える。ディスプレイ400は、放送受信装置100から供給される映像信号に基づいて映像を表示する。
The
なお、放送受信装置100は、ディスプレイ400の代わりに、映像出力端子を備える構成であってもよい。また、放送受信装置100は、スピーカ300の代わりに、音声出力端子を備える構成であってもよい。この場合、放送受信装置100は、映像出力端子に接続される表示装置に映像信号を出力し、音声出力端子に接続されるスピーカに音声信号を出力する。これにより、放送受信装置100は、表示装置に映像を表示させ、スピーカから音声を出力させることができる。
The
制御部150は、放送受信装置100の各部の動作を制御する制御手段として機能する。制御部150は、CPU151、ROM152、RAM153、及びEEPROM154などを備えている。制御部150は、操作入力部161から供給される操作信号に基づいて、種々の処理を行う。
The
CPU151は、種々の演算処理を実行する演算素子などを備える。CPU151は、ROM152、またはEEPROM154などに記憶されているプログラムを実行することにより種々の機能を実現する。
The
ROM152は、放送受信装置100を制御する為のプログラム、及び各種の機能を実現する為のプログラムなどを記憶する。CPU151は、操作入力部161から供給される操作信号に基づいて、ROM152に記憶されているプログラムを起動する。これにより、制御部150は、各部の動作を制御する。
The
RAM153は、CPU151のワークメモリとして機能する。即ち、RAM153は、CPU151の演算結果、CPU151により読み込まれたデータなどを記憶する。
The
EEPROM154は、各種の設定情報、及びプログラムなどを記憶する不揮発性メモリである。
操作入力部161は、例えば、操作キー、キーボード、マウス、音声入力装置、タッチパッドまたは操作入力に応じて操作信号を生成する事ができる他の入力装置などを備える。また、操作入力部161は、例えば、リモートコントローラからの操作信号を受信するセンサなどを備える構成であってもよい。また、操作入力部162は、上記の入力装置とセンサとを備える構成であってもよい。即ち、操作入力部161は、操作信号を受け取る操作信号受信手段として機能する。
The
The
操作入力部161は、入力された操作信号を制御部150に供給する。制御部150は、操作入力部161から供給された操作信号に基づいて、放送受信装置100に種々の処理を行わせる。
The
なお、タッチパッドは、静電センサ、サーモセンサ、または他の方式に基づいて位置情報を生成するデバイスを含む。また、放送受信装置100がディスプレイ400を備える場合、操作入力部161は、ディスプレイ400と一体に形成されるタッチパネルなどを備える構成であってもよい。
The touch pad includes an electrostatic sensor, a thermo sensor, or a device that generates position information based on other methods. When the
リモートコントローラは、ユーザの操作入力に基づいて操作信号を生成する。リモートコントローラは、生成した操作信号を赤外線通信により操作入力部161のセンサに送信する。なお、センサとリモートコントローラとは、電波などの他の無線通信により操作信号の送受信を行う構成であってもよい。
The remote controller generates an operation signal based on a user operation input. The remote controller transmits the generated operation signal to the sensor of the
カードコネクタ164は、例えば、動画コンテンツを記憶するメモリカード165と通信を行う為のインターフェースである。カードコネクタ164は、接続されるメモリカード165から動画のコンテンツデータを読み出し、制御部150に供給する。
The card connector 164 is an interface for communicating with, for example, a memory card 165 that stores moving image content. The card connector 164 reads moving image content data from the connected memory card 165 and supplies it to the
USBコネクタ166は、USB機器167と通信を行う為のインターフェースである。USBコネクタ166は、接続されるUSB機器167から供給される信号を制御部150に供給する。
The
例えば、USB機器167がキーボードなどの操作入力機器である場合、USBコネクタ166は、操作信号をUSB機器167から受け取る。USBコネクタ166は、受け取った操作信号を制御部150に供給する。この場合、制御部150は、USBコネクタ166から供給される操作信号に基づいて種々の処理を実行する。
For example, when the USB device 167 is an operation input device such as a keyboard, the
また、例えば、USB機器167が動画のコンテンツデータを記憶する記憶装置である場合、USBコネクタ166は、コンテンツをUSB機器167から取得することができる。USBコネクタ166は、取得したコンテンツを制御部150に供給する。
For example, when the USB device 167 is a storage device that stores content data of a moving image, the
ディスクドライブ170は、例えば、コンパクトディスク(CD)、ディジタルバーサタイルディスク(DVD)、ブルーレイディスク(Blu−ray(登録商標) Disk)、または動画のコンテンツデータを記録可能な他の光ディスクMを装着可能なドライブを有する。ディスクドライブ170は、装着される光ディスクMからコンテンツを読み出し、読み出したコンテンツを制御部150に供給する。
The
LANコネクタ171は、放送受信装置100をネットワークに接続する為のインターフェースである。制御部150は、LANコネクタ171がLANケーブルまたは無線LANなどにより公衆回線に接続された場合、ネットワーク経由で種々のデータのダウンロード及びアップロードを行なう事ができる。
The
電源制御部180は、放送受信装置100の各部への電力の供給を制御する。電源制御部180は、例えば、ACアダプタなどを介して商用電源500などから電力を受け取る。商用電源500は、交流の電力を電源制御部180に供給する。電源制御部180は、受け取った交流の電力を直流に変換し各部へ供給する。
The
また、放送受信装置100は、さらに他のインターフェースを備えていても良い。インターフェースは、例えば、Serial−ATAなどである。放送受信装置100は、インターフェースにより接続される機器に記録されているコンテンツを取得し、再生することができる。また、放送受信装置100は、再生したオーディオ信号及び映像信号を、インターフェースにより接続される機器に出力することが出来る。
Moreover, the
また、放送受信装置100がインターフェースを介してネットワークに接続される場合、放送受信装置100は、ネットワーク上の動画のコンテンツデータを取得し、再生することができる。
When the
ストレージ190は、コンテンツなどを記憶する記憶装置である。ストレージ190は、例えば、ハードディスク(HDD)、ソリッドステイトドライブ(SSD)、または半導体メモリなどの大容量記憶装置を備える。また、ストレージ190は、USBコネクタ166、LANコネクタ171、通信インターフェース114、または他のインターフェースに接続された記憶装置により構成されていてもよい。
The
上記したように、制御部150は、コンテンツを録画する場合、復元部112により復調されたコンテンツのデータをストレージ190に入力させる。さらに、制御部150は、コンテンツを記憶するストレージ190内のアドレスをストレージ190に指示する。ストレージ190は、制御部150により指示されたアドレスに復元部112から供給されたコンテンツを記憶する。
As described above, when the content is recorded, the
なお、ストレージ190は、ディジタル放送信号から復元されたTSを記憶する構成であってもよいし、TSがAVI、MPEGまたは他の圧縮方式により圧縮された圧縮コンテンツを記憶する構成であってもよい。
The
また、制御部150は、ストレージ190に記憶されているコンテンツを読み出し、再生させることができる。例えば、制御部150は、ストレージ190におけるアドレスをストレージ190に指示する。ストレージ190は、制御部150により指示されたアドレスからコンテンツを読み出す。ストレージ190は、読み出したコンテンツを音声処理部121、映像処理部131、及び制御部150などに供給する。これにより、放送受信装置100は、録画したコンテンツを再生することができる。
In addition, the
なお、放送受信装置100は、受信部111及び復元部112をそれぞれ複数備える。これにより、放送受信装置100は、複数のコンテンツを同時に受信し、受信した複数のコンテンツを同時に復元することができる。これにより、放送受信装置100は、再生可能なコンテンツデータを同時に複数取得することが出来る。即ち、放送受信装置100は、複数のコンテンツを同時に録画することが出来る。
The
図2は、制御部150の有する機能の例を示す。後述の字幕キーワード等に関連する。
図2に示されるように、制御部150は、上記のCPU151によりプログラムを実行することにより、種々の機能を実現することが出来る。例えば、制御部150は、文字領域抽出部1511、文字データ認識部1512、誤り訂正部1513、キーワード解析部1514、及び保存部1515を備える。さらに、制御部150は、検索部1521、リスト表示部1522、リスト選択部1523、及び再生部1524を備える。
FIG. 2 shows an example of functions that the
As shown in FIG. 2, the
後述の字幕抽出部65、字幕キーワード抽出部66は、主に文字領域抽出部1511、文字データ認識部1512、誤り訂正部1513、キーワード解析部1514に依る。
The
次に以下、図5までの添付図面を参照して視聴端末の実施形態にかかる電子機器及び制御方法の詳細を説明する。なお、以下の実施形態では、PDAや携帯電話等、ユーザが把持して使用する電子機器を例に説明する。 Next, details of the electronic device and the control method according to the embodiment of the viewing terminal will be described with reference to the accompanying drawings up to FIG. In the following embodiments, an electronic device such as a PDA or a mobile phone that is held and used by a user will be described as an example.
図3は、視聴端末の実施形態にかかる電子機器10の外観を模式的に示す図である。電子機器10は、表示画面を備えた情報処理装置であり、例えばスレート端末(タブレット端末)や電子書籍リーダ、デジタルフォトフレーム等として実現されている。なお、ここでは、X軸、Y軸、Z軸の矢印方向(Z軸では図の正面方向)を正方向としている(以下同様)。
FIG. 3 is a diagram schematically illustrating the appearance of the
電子機器10は、薄い箱状の筐体Bを備え、この筐体Bの上面に表示部11が配置されている。表示部11は、ユーザによってタッチされた表示画面上の位置を検知するタッチパネル(図4、タッチパネル11a参照)を備えている。また、筐体Bの正面下部にはユーザが各種操作を行う操作スイッチ等である操作スイッチ19、ユーザの音声を取得するためのマイク21aとマイク21bとが配置されている。ここでは筐体Bの裏面に配置されているマイク21aと、筐体Bの上面に配置されているマイク21bとに分かれている。マイク21a、マイク21bは、それぞれ指向性を持たせるのも好適である。
The
また、筐体Bの正面上部には音声出力を行うためのスピーカ22が配置されている。また、筐体Bの縁には、把持するユーザの圧力を検知する圧力センサ23が配置されている。なお、図示例ではX軸方向の左右の縁に圧力センサ23を備える構成を例示したが、Y軸方向の上下の縁に圧力センサ23を備えてもよい。
In addition, a
図4は、実施形態にかかる電子機器10のハードウェア構成の一例を示すブロック図である。図4に示すように、電子機器10は、上述の構成に加え、CPU12、システムコントローラ13、グラフィックスコントローラ14、タッチパネルコントローラ15、加速度センサ16、不揮発性メモリ17、RAM18、音声処理部2、通信部24等を備えている。また音声処理部20には、アナログのスイッチ21cを介して内蔵または外付けのマイク21aとマイク21bと、スピーカ22とが接続されている。
FIG. 4 is a block diagram illustrating an example of a hardware configuration of the
表示部11は、タッチパネル11aと、LCD(Liquid Crystal Display)や有機EL(Electro Luminescence)等のディスプレイ11bとから構成されている。タッチパネル11aは、例えばディスプレイ11bの表示画面上に配置された当面の座標検出装置から構成されている。タッチパネル11aは、例えば筐体Bを把持したユーザの指によってタッチされた表示画面上の位置(タッチ位置)を検知することができる。このタッチパネル11aの働きにより、ディスプレイ11bの表示画面はいわゆるタッチスクリーンとして機能する。
The
CPU12は、電子機器1の動作を中央制御するプロセッサであり、システムコントローラ13を介して電子機器10の各部を制御する。CPU12は、不揮発性メモリ17からRAM18にロードされる、オペレーティングシステム、各種アプリケーションプログラムを実行することで、後述する各機能部(図7など参照)を実現する。RAM18は、電子機器10のメインメモリとして、CPU12がプログラムを実行する際の作業領域を提供する。
The
システムコントローラ13には、不揮発性メモリ17及びRAM18をアクセス制御するメモリコントローラも内蔵されている。また、システムコントローラ13は、グラフィックスコントローラ14との通信を実行する機能も有している。また、システムコントローラ13は、通信部24、インターネット等を介して図示せぬ外部のサーバへ音声波形等の音声信号を送信し、この音声波形に対する音声認識の結果を必要によっては受信する機能も有している。
The
グラフィックスコントローラ14は、電子機器10のディスプレイモニタとして使用されるディスプレイ11bを制御する表示コントローラである。タッチパネルコントローラ15は、タッチパネル11aを制御し、ユーザによってタッチされたディスプレイ11bの表示画面上のタッチ位置を示す座標データをタッチパネル11aから取得する。
The
加速度センサ16は、図1に示す3軸方向(X、Y、Z方向)や、これに各軸周りの回転方向の検出を加えた6軸方向の加速度センサ等であって、電子機器10に対する外部からの加速度の向きと大きさを検出し、CPU12に出力する。具体的に、加速度センサ16は、加速度を検出した軸、向き(回転の場合、回転角度)、及び大きさを含んだ加速度検出信号(傾き情報)をCPU12に出力する。なお、角速度(回転角度)検出のためのジャイロセンサを、加速度センサ16に統合する形態としてもよい。
The
音声処理部20は、マイク21a、マイク21bより(スイッチ21cを介して)入力される音声信号に、ディジタル変換、ノイズ除去、エコーキャンセル等の音声処理を施して、システムコントローラ13を介して、CPU12へ出力する。また、音声処理部20は、CPU12の制御のもとで、音声合成等の音声処理を施して生成した音声信号をスピーカ22へ出力し、スピーカ22による音声報知を行う。この音声処理部20に、後述の特徴量抽出部16がある。この中の音声処理部20の詳細について次に説明する。
The
図5は、実施例にかかる音声処理部20の詳細な構成を示すブロック図である。音声処理部20は図7の各機能ブロックで用いられる音声信号処理演算の基本的なハードウェアやソフトウェア(モジュール)群であり、音声復号部51、DA変換器52、増幅器53、増幅器54、AD変換器55、特徴量抽出部56、音声符号部57などから構成される。
FIG. 5 is a block diagram illustrating a detailed configuration of the
このうち音声処理部20aは、DA変換器52、増幅器53、増幅器54、AD変換器55からなる言わばアナデジ変換部のハードウェア部分である。また音声処理部20bは、音声復号部51、特徴量抽出部56、音声符号部57などからなる言わば音声符号化/復号化部のソフトウェア部分である。
Of these, the audio processing unit 20a is a hardware part of an analog-to-digital conversion unit including a
音声復号部51は、システムコントローラ13からの圧縮された音声信号を復号処理する。DA変換器52は、それをDA変換する。増幅器53は、それを増幅して、スピーカ22へ送出する。
The
増幅器54は、マイクロホン21a、マイク21bからの音声信号を増幅する。AD変換器55はそれをAD変換する。特徴量抽出部56は、その信号に対して、後述するような特徴量抽出処理を行う。
The
音声符号部57は、一つにはAD変換器55の出力由来の信号に対して、音声圧縮処理を行い、システムコントローラ13へ送出するが、また上記の特徴量抽出結果を中継する。
For example, the voice encoding unit 57 performs a voice compression process on a signal derived from the output of the AD converter 55 and sends the signal to the
図6は、放送受信装置100による視聴装置(以下)の機能構成図の一例を示している。この視聴装置は、表示部61、コマンド生成部62、送受信部63、スピーカ部64、字幕抽出部65、字幕キーワード抽出部66を含んでいる。表示部61はディスプレイ400に、スピーカ部64はスピーカ300による。コマンド生成部62、字幕抽出部65、字幕キーワード抽出部66はCPU151の処理による。また送受信部63は、CPU151の処理により、LANコネクタ171を介して機能するよう構成されている。
FIG. 6 shows an example of a functional configuration diagram of a viewing device (hereinafter) by the
字幕抽出部65、字幕キーワード抽出部66は、地上ディジタル放送、BSディジタル放送などの放送信号の形式を問わない。放送波だけではなく、インターネット上の動画でも適用可能である。また、アナログ信号など字幕情報が取得できない放送信号でも、ネットワークを利用し字幕情報が取得でき、その字幕情報が放送番組と関連付けられるのであれば、本技術は利用可能である。
The
図7は、電子機器10による視聴端末(以下)の機能構成図の一例を示している。この視聴端末は、マイク部71、コマンド生成部72、コンテンツ情報解析部73、送受信部74、音声キーワード抽出部75、比較部76、アプリケーション起動部77、記憶部78、を含んでいる。マイク部71はマイク21a,21b等に、記憶部78は不揮発性メモリ17やRAM18等による。コンテンツ情報解析部73、音声キーワード抽出部75、比較部76、アプリケーション起動部77はCPU12の処理による。また送受信部74は、CPU12の処理により、システムコントローラ13と通信部24を介して機能するよう構成されている。
FIG. 7 shows an example of a functional configuration diagram of a viewing terminal (hereinafter) by the
図8は、視聴装置の字幕キーワード送信までのシーケンスを示している。
ステップS81: コンテンツが表示部61で表示される。このコンテンツに伴う音声はスピーカ部64から出力される。
ステップS82: 字幕を字幕抽出部65で抽出する。文字領域抽出部1511で文字領域を抽出し、文字データ認識部1512で文字データを認識し、誤り訂正部1513でこの文字データの前後関係などから誤り訂正を行う。
FIG. 8 shows a sequence until the caption keyword transmission of the viewing device.
Step S81: The content is displayed on the
Step S82: Captions are extracted by the
ステップS83: 抽出された字幕から字幕キーワード抽出部66で字幕キーワードを抽出する(キーワード解析部1514による解析と保存部1515による保存)。このときコンテンツのEPG(Electronic Program Guide)情報を関連付けて利用してもよい。
Step S83: The caption
ステップS84: この字幕キーワードを送受信部63から送信する。
図9は、視聴装置のコンテンツ情報要求コマンド受信から送信までのシーケンスを示している。
ステップS91: CPU151はコンテンツ情報要求コマンドを送受信部63を通じて受信したか否かの判定を行い、この判定結果がYESならば次のステップに進みNOならばステップ91を繰り返す。
Step S84: The caption keyword is transmitted from the transmission /
FIG. 9 shows a sequence from reception to transmission of the content information request command of the viewing device.
Step S91: The
ステップS92: CPU151は現在の視聴中のコンテンツのコンテンツ情報(コンテンツの、に関する情報)を復元部112、映像処理部131あるいはストレージ190から取得する。
Step S92: The
ステップS93: コンテンツ情報を送信のためのコマンドとしてコマンド生成部62が生成する。
ステップS94: 送受信部63はこのコンテンツ情報を送信する。
図10は、視聴端末の処理シーケンスを示している。
ステップS101: マイク部71経由で音声を取得する。マイク21aから集音された音声は増幅器54で増幅され、AD変換器55でAD変換されディジタル信号x1(t)となる。また同様にマイク21bから集音された音声は増幅器54で増幅されAD変換器55でAD変換されディジタル信号x2(t)となる。音声処理部20は、スイッチ21cを時分割で切り替えることにより、実用上重なった時間帯にこれら両ディジタル信号を得る。
Step S93: The
Step S94: The transmission /
FIG. 10 shows a processing sequence of the viewing terminal.
Step S101: Voice is acquired via the
特徴量抽出部56では、例えば両ディジタル信号の周波数帯域のパワーを算出する。まずディジタル信号x1(t)、ディジタル信号x2(t)の夫々時間/周波数領域変換によって、振幅スペクトルX1(n)、X2(n)が得られる。次に帯域パワー計算により夫々帯域パワーXd1(k)、Xd2(k)が算出される。振幅スペクトルXi(n)(i=1,2)は、低域から高域まで例えば16個の周波数帯域に分割され、これらの周波数帯域ごとに平均をとって各周波数帯域を代表する帯域パワーXdi(k)(k=0〜K−1。Kは周波数帯域数で、例えば16でkが小さい方が低域、大きい方が高域とする。)(i=1,2)が算出される。ここでは、周波数帯域は等間隔に分割されてもよいが、バークスケールやメルスケール等のように、低域ほど分割幅を狭くして、人間の聴覚特性に適した分割幅を採用してもよい。このようにして各周波数帯域を代表する帯域パワーXdi(k)(i=1,2)が求められる。
For example, the feature
ステップS102: この帯域パワーXdi(k)から音声キーワード抽出部75で音声キーワードを抽出し、保持する。帯域パワーXd1(k)と帯域パワーXd2(k)のレベル差が相当量以上であればパワーの大きな方の帯域パワーXdi(k)のみを記憶(保持)してもよい。視聴装置(のスピーカ等)に対する視聴端末の向きによりこのようなことは発生する可能性がある。なお前記マイク部からの音量が一定値以下だと判定された場合には記憶しない。
Step S102: The voice
音声キーワードを抽出するに当たってはまず音声認識処理を行う。この音声認識処理においてCPU12は中心となり、必要に応じ図示せぬ単語辞書やイントネーション辞書を用いて音声キーワード抽出部75として機能する。例えば、音素単位の認識により(必要に応じ形態素解析等も援用して)音素系列を得るのみならず、単語辞書により「はし」という言葉が認識されたときに、イントネーション辞書も援用してこの「はし」が「橋」なのか「箸」なのかなど尤度を付与した結果を援用するように構成してもよい。
In extracting a speech keyword, first, speech recognition processing is performed. In this voice recognition process, the
ステップS103: 字幕キーワードを送受信部74から受信する。この字幕キーワードが受信されるまでの一定時間、上記音声キーワードは保持される。
ステップS104: この字幕キーワードと先の音声キーワードを比較部76で比較する。
ステップS105: 両キーワードが一致しているかの判定を比較部76は行う。この判定結果がYESであれば処理を終了し、NOであれば(音声キーワードが保持されてない場合も含む)以下のステップに進む。
Step S103: The caption keyword is received from the transmission /
Step S104: The subtitle keyword and the previous voice keyword are compared by the
Step S105: The
ステップS106: コンテンツ情報取得のコマンドをコマンド生成部72で生成する。
ステップS107: コマンドを送受信部74から送信する。
ステップS108: コンテンツ情報を取得したかの判定をコンテンツ情報解析部73で行う。この判定結果がNOであればステップS107に戻り、YESであれば以下のステップに進む。
Step S106: The
Step S107: A command is transmitted from the transmission /
Step S108: The content
ステップS109: コンテンツ情報をコンテンツ情報解析部73で解析する。
ステップS110: 解析した結果に合わせて、アプリケーション起動部77で予め記憶部78に記憶されている関連アプリケーション(DLNA(登録商標、(Digital Living Network Alliance))のDMP(Digital Media Player)や地デジ用アプリなどコンテンツを取得するもの)を起動する。
Step S109: The content
Step S110: In accordance with the analysis result, the
本実施形態においては、TVとタブレットとの間でユーザの継続視聴を連携する。例えば、タブレットを持って部屋間を移動すると、自動で見ていたシーンからの視聴を可能にする。 In the present embodiment, continuous viewing of the user is linked between the TV and the tablet. For example, if you move from room to room with a tablet, you can watch from the scene you were watching automatically.
即ち、視聴端末(タブレット)が視聴装置から取得した字幕キーワードと視聴端末の周りの音から抽出した音声キーワードとを比較することにより、ユーザが視聴装置での視聴可能範囲内にいるかどうかが判定され、範囲外にいると判定された場合に、視聴装置と視聴端末が連携する(なお、アプリケーション起動部77は、本アプリケーションにコンテンツ視聴機能がある場合は保持していなくてもよい。)。概要として次のようなステップによる。
That is, it is determined whether or not the user is within a viewable range on the viewing device by comparing the caption keyword acquired by the viewing terminal (tablet) from the viewing device with the voice keyword extracted from the sound around the viewing terminal. When it is determined that the content is out of the range, the viewing device and the viewing terminal cooperate with each other (note that the
(1)視聴装置は、字幕を抽出し、そこからキーワード(字幕キーワード)抽出する。
(2)視聴装置は、この字幕キーワードを送信する。
(3)視聴端末は、TVの音声を取得し、音声からキーワード(音声キーワード)を抽出する。
(4)視聴端末は、上記字幕キーワードとこの音声キーワードを比較し、不一致ならば、ネットワーク経由でTVからコンテンツ情報を取得しようとする。
(5)視聴装置は、対応としてTVのコンテンツ情報を取得し送信する。
(6)視聴端末は、関連アプリを起動し、継続視聴を実現する。
先行技術と比べた効果として、アプリケーションをリモートコントローラとして用いたTVの視聴中に、タブレットを持ち出しても、自動的に持ち出されたことを判断し、ユーザによる操作なく、タブレットで継続視聴ができる。ユーザが部屋間を移動した場合、アプリケーションを起動するなどの手間なく、視聴装置で視聴していたコンテンツを継続して視聴できる。
(1) The viewing device extracts subtitles and extracts keywords (subtitle keywords) therefrom.
(2) The viewing device transmits this caption keyword.
(3) The viewing terminal acquires the sound of the TV and extracts a keyword (sound keyword) from the sound.
(4) The viewing terminal compares the caption keyword with the voice keyword, and if they do not match, the viewing terminal tries to acquire content information from the TV via the network.
(5) The viewing device acquires and transmits TV content information as a response.
(6) The viewing terminal activates the related application and realizes continuous viewing.
As an effect compared with the prior art, even when the tablet is taken out while viewing the TV using the application as a remote controller, it is determined that the tablet has been automatically taken out and continuous viewing can be performed on the tablet without any user operation. When the user moves from room to room, the user can continue to view the content being viewed on the viewing device without having to start the application.
なお、この発明は上記実施形態に限定されるものではなく、この外その要旨を逸脱しない範囲で種々変形して実施することができる。例えば音声認識処理は、特徴量抽出部16側で分担するような設計を行ってもよい。また逆に特徴量抽出部処理を、CPU12で分担するような構成を採ってもよい。また前述のように外部のサーバに音声認識処理を依存してもよい。
In addition, this invention is not limited to the said embodiment, In the range which does not deviate from the summary, it can implement in various modifications. For example, the voice recognition processing may be designed to be shared by the feature
また、上記した実施の形態に開示されている複数の構成要素を適宜に組み合わせることにより、種々の発明を形成することができる。例えば、実施の形態に示される全構成要素から幾つかの構成要素を削除しても良いものである。さらに、異なる実施の形態に係わる構成要素を適宜組み合わせても良いものである。 Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above-described embodiments. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements according to different embodiments may be appropriately combined.
10…電子機器、11…表示部、12…CPU、13…システムコントローラ、14…グラフィックスコントローラ、15…タッチパネルコントローラ、16…加速度センサ、17…不揮発性メモリ、18…RAM、19…操作スイッチ、20…音声処理部、21a,21b…マイク、22…スピーカ、23…圧力センサ、24…通信部、11a…タッチパネル、11b…ディスプレイ、51…音声復号部、52…DA変換器、53…増幅器、54…増幅器、55…AD変換器、56…特徴量抽出部、57…音声符号部、B…筐体。
61…表示部、62…コマンド生成部、63…送受信部、64…スピーカ部、65…字幕抽出部、66…字幕キーワード抽出部、71…マイク部、72…コマンド生成部、73…コンテンツ情報解析部、74…送受信部、75…音声キーワード抽出部、76…比較部、77…アプリケーション起動部、78…記憶部。
100…放送受信装置、110…放送入力端子、111…受信部、112…復元部、114…通信インターフェース、121…音声処理部、131…映像処理部、133…表示処理部、150…制御部、151…CPU、152…ROM、153…RAM、154…EEPROM、161…操作入力部、164…カードコネクタ、165…メモリカード、166…USBコネクタ、167…USB機器、170…ディスクドライブ、171…LANコネクタ、180…電源制御部、190…ストレージ、200…アンテナ、300…スピーカ、400…ディスプレイ、500…商用電源、1511…文字領域抽出部、1512…文字データ認識部、1513…誤り訂正部、1514…キーワード解析部、1514a…キーワード辞書、1515…保存部、1521…検索部、1522…リスト表示部、1523…リスト選択部、1524…再生部。
DESCRIPTION OF
61 ... Display unit, 62 ... Command generation unit, 63 ... Transmission / reception unit, 64 ... Speaker unit, 65 ... Subtitle extraction unit, 66 ... Subtitle keyword extraction unit, 71 ... Microphone unit, 72 ... Command generation unit, 73 ... Content information analysis , 74 ... transmission / reception unit, 75 ... voice keyword extraction unit, 76 ... comparison unit, 77 ... application activation unit, 78 ... storage unit.
DESCRIPTION OF
Claims (4)
前記コンテンツの音声を出力するスピーカ部と、
前記コンテンツの字幕を抽出する字幕抽出部と、
前記字幕抽出部で抽出された字幕から字幕キーワードを抽出する字幕キーワード抽出部と、
前記コンテンツに関する情報または前記字幕キーワードを視聴端末に送信する送受信部とを具備する視聴装置。 A display for displaying content;
A speaker unit for outputting audio of the content;
A subtitle extractor for extracting subtitles of the content;
A caption keyword extraction unit that extracts a caption keyword from the captions extracted by the caption extraction unit;
A viewing device comprising: a transmission / reception unit that transmits information on the content or the caption keyword to a viewing terminal.
前記送受信部はこのコマンドとして前記コンテンツに関する情報を前記視聴端末に送信する請求項1に記載の視聴装置。 A command generation unit that generates, as a command, information related to the content being viewed on the viewing device in response to a request from the viewing terminal;
The viewing device according to claim 1, wherein the transmission / reception unit transmits information regarding the content to the viewing terminal as the command.
音声を取得するマイク部と、
前記マイク部で取得した音声から音声キーワードを抽出し、一定時間保持する音声キーワード抽出部と、
視聴装置から送信される字幕キーワードまたはコマンドを受信する送受信部と、
前記音声キーワードと前記字幕キーワードとを比較し一致か否かの判定を行う比較部と、
前記比較部において、前記音声キーワードと前記字幕キーワードが一致しないと判定された場合に、視聴装置のコンテンツ情報を取得するコマンドを生成するコマンド生成部と、
前記コンテンツ情報を受信した際に、コンテンツ情報を解析するコンテンツ情報解析部と、
視聴装置から受信したコンテンツ情報をもとに、関連するアプリケーションを前記記憶部から起動するアプリケーション起動部とを具備する視聴端末。 A storage unit storing the application;
A microphone unit for acquiring audio;
An audio keyword extraction unit that extracts an audio keyword from the audio acquired by the microphone unit and holds it for a certain period of time;
A transmission / reception unit for receiving a caption keyword or command transmitted from the viewing device;
A comparison unit that compares the audio keyword and the caption keyword to determine whether or not they match,
A command generation unit that generates a command for acquiring content information of the viewing device when the comparison unit determines that the audio keyword and the caption keyword do not match;
A content information analysis unit that analyzes the content information when the content information is received;
A viewing terminal comprising: an application activation unit that activates a related application from the storage unit based on content information received from a viewing device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013250580A JP2015109525A (en) | 2013-12-03 | 2013-12-03 | Viewing device and viewing terminal |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013250580A JP2015109525A (en) | 2013-12-03 | 2013-12-03 | Viewing device and viewing terminal |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015109525A true JP2015109525A (en) | 2015-06-11 |
Family
ID=51392051
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013250580A Pending JP2015109525A (en) | 2013-12-03 | 2013-12-03 | Viewing device and viewing terminal |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015109525A (en) |
-
2013
- 2013-12-03 JP JP2013250580A patent/JP2015109525A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11823304B2 (en) | Picture display device, and setting modification method and setting modification program therefor | |
CN105578267B (en) | Terminal installation and its information providing method | |
US9544633B2 (en) | Display device and operating method thereof | |
US10203927B2 (en) | Display apparatus and display method | |
US20160277791A1 (en) | Display system, and method of playing bluetooth audio and apparatus of display system | |
JP2015510305A (en) | Method and system for synchronizing content on a second screen | |
KR20130078518A (en) | Electronic apparatus and method for controlling electronic apparatus thereof | |
JP2015038665A (en) | Electronic apparatus, and control method for electronic apparatus | |
US20130300934A1 (en) | Display apparatus, server, and controlling method thereof | |
KR20170121640A (en) | Display device and operating method thereof | |
CN102714761A (en) | Image processing device, image processing method, and image processing program | |
CN109661809A (en) | Show equipment | |
US9661375B2 (en) | Display apparatus and method of controlling content output of display apparatus | |
EP3038374A1 (en) | Display device and display method | |
KR20130044618A (en) | Media card, media apparatus, contents server, and method for operating the same | |
JP2009049831A (en) | Indication output device | |
JP2015109525A (en) | Viewing device and viewing terminal | |
US20150040158A1 (en) | Receiving device, transmitter and transmitting/receiving system | |
JP2015005800A (en) | Reception device, transmission device, and transmission and reception system | |
KR20190034856A (en) | Display device and operating method thereof | |
US11178466B2 (en) | Display device and control method therefor | |
JP2014052872A (en) | Electronic apparatus, and program of electronic apparatus | |
US20120042249A1 (en) | Audio signal output apparatus and method | |
JP2015039092A (en) | Electronic apparatus and electronic apparatus control method | |
CN105227655A (en) | Method of data synchronization and device |