JP2014207619A - Video recording and reproducing device and control method of video recording and reproducing device - Google Patents

Video recording and reproducing device and control method of video recording and reproducing device Download PDF

Info

Publication number
JP2014207619A
JP2014207619A JP2013085236A JP2013085236A JP2014207619A JP 2014207619 A JP2014207619 A JP 2014207619A JP 2013085236 A JP2013085236 A JP 2013085236A JP 2013085236 A JP2013085236 A JP 2013085236A JP 2014207619 A JP2014207619 A JP 2014207619A
Authority
JP
Japan
Prior art keywords
recording
unit
content
scene
keyword
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013085236A
Other languages
Japanese (ja)
Inventor
山下 道生
Michio Yamashita
道生 山下
真司 久野
Shinji Kuno
真司 久野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Lifestyle Products and Services Corp
Original Assignee
Toshiba Corp
Toshiba Lifestyle Products and Services Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Lifestyle Products and Services Corp filed Critical Toshiba Corp
Priority to JP2013085236A priority Critical patent/JP2014207619A/en
Publication of JP2014207619A publication Critical patent/JP2014207619A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a technique for detecting a reproduction scene of a video-recorded program using character information.SOLUTION: A video recording and reproducing device comprises: video recording means for receiving and video-recording a content; meta data storage means for extracting meta data from the content and storing the meta data; keyword acquisition means for acquiring the received keyword; selection display means for performing display for selecting a scene of the content from the metadata and the keyword; and reproduction means for reproducing the content on the basis of the result of the scene selection from the outside.

Description

本発明の実施形態は、録画再生装置、及び録画再生装置の制御方法に関する。   Embodiments described herein relate generally to a recording / playback apparatus and a control method for the recording / playback apparatus.

録画再生装置のコンテンツ再生においては、色々な工夫がある。例えば、キーワードが字幕として出現する間隔に対応して、再生開始個所として適切な個所を特定する技術でチャプターの上限を決め、上限を超えた場合、キーワードの出現間隔が短いチャプターを結合するというものである。   There are various contrivances for content playback by the recording / playback apparatus. For example, according to the interval at which keywords appear as subtitles, the upper limit of chapters is determined by a technique for identifying an appropriate location as a playback start location, and when the upper limit is exceeded, chapters with short keyword occurrence intervals are combined It is.

また、特定のシーンを関連付けた映像コンテンツ同士をリンクするものや、字幕リストと映像を表示するモードと、映像のみ表示するモードを切り替えるワンセグを念頭にしたもの、検索キーワードと一致した番組内の字幕文をリスト表示し再生するもの、字幕を用いて所望の場面を素早く探し出すというもの等がある。   Also, links that link video content associated with a specific scene, subtitle lists and video display modes, one-segment switching between video display modes, and subtitles in programs that match the search keyword There are things that list and reproduce sentences, and those that quickly find a desired scene using subtitles.

しかしながら、文字情報を用いて録画番組の再生シーンを検出する技術への要望があるが、かかる要望を実現するための手段は知られていない。   However, there is a demand for a technique for detecting a playback scene of a recorded program using character information, but means for realizing such demand is not known.

特開2006−279290号公報JP 2006-279290 A 特開2008−227909号公報JP 2008-227909 A 特開2009−38775号公報JP 2009-38775 A 特開2009−130469号公報JP 2009-130469 A 特開2004−80476号公報JP 2004-80476 A

本発明の実施の形態は、文字情報を用いて録画番組の再生シーンを検出する技術を提供することを目的とする。   An object of the embodiment of the present invention is to provide a technique for detecting a playback scene of a recorded program using character information.

上記課題を解決するために、実施形態によれば録画再生装置は、コンテンツを入力し録画する録画手段と、前記コンテンツからメタデータを抽出し保存するメタデータ保存手段と、入力されるキーワードを取得するキーワード取得手段と、前記メタデータと前記キーワードから前記コンテンツのシーン選択をするための表示を行う選択表示手段と、外部からのこのシーン選択の結果に基づいて前記コンテンツの再生を行う再生手段とを備える。   In order to solve the above-described problem, according to the embodiment, a recording / playback apparatus acquires a keyword that is input and recorded, a metadata storage unit that extracts and stores metadata from the content, and an input keyword Keyword acquisition means for performing selection display means for performing display for selecting a scene of the content from the metadata and the keyword, and reproduction means for reproducing the content based on a result of the scene selection from the outside. Is provided.

一実施形態にかかる録画再生装置について説明する為の図。The figure for demonstrating the recording / reproducing apparatus concerning one Embodiment. 一実施形態にかかる録画再生装置の制御部について説明する為の図。The figure for demonstrating the control part of the video recording / reproducing apparatus concerning one Embodiment. 録画再生装置システム全体機能構成図。1 is an overall functional configuration diagram of a recording / playback apparatus system. 実施形態のEPG情報の一例を示す図。The figure which shows an example of the EPG information of embodiment. 同実施形態に用いられる字幕表示のタイムラインを示す図。The figure which shows the timeline of the caption display used for the embodiment. 同実施形態の字幕情報の一例を示す図。The figure which shows an example of the caption information of the embodiment. 検索キーワード取得部の一例を示す図。The figure which shows an example of a search keyword acquisition part. リスト表示/選択部の例を示す図。The figure which shows the example of a list display / selection part. 録画再生装置の制御方法のフロー図。The flowchart of the control method of a video recording / reproducing apparatus.

以下、図を参照しながら、一実施形態にかかる録画再生装置、及び録画再生装置の制御方法について詳細に説明する。
図1は、一実施形態にかかる録画再生装置としての放送受信装置100の例を示す。
Hereinafter, a recording / playback apparatus and a control method for the recording / playback apparatus according to an embodiment will be described in detail with reference to the drawings.
FIG. 1 shows an example of a broadcast receiving apparatus 100 as a recording / reproducing apparatus according to an embodiment.

放送受信装置100は、映像を表示するディスプレイ(表示部400)が設けられる本体と、本体を自立可能な状態で支える脚部とを備える。
また、放送受信装置100は、放送入力端子110、受信部111、復元部112、通信インターフェース114、音声処理部121、映像処理部131、表示処理部133、制御部150、操作入力部161、カードコネクタ164、USBコネクタ166、ディスクドライブ170、LANコネクタ171、電源制御部180、及びストレージ190を備える。また、放送受信装置100は、さらにスピーカ300及びディスプレイ400を備える。
The broadcast receiving apparatus 100 includes a main body provided with a display (display unit 400) for displaying video, and legs that support the main body in a state where it can stand on its own.
The broadcast receiving apparatus 100 includes a broadcast input terminal 110, a reception unit 111, a restoration unit 112, a communication interface 114, an audio processing unit 121, a video processing unit 131, a display processing unit 133, a control unit 150, an operation input unit 161, a card. A connector 164, a USB connector 166, a disk drive 170, a LAN connector 171, a power supply control unit 180, and a storage 190 are provided. The broadcast receiving apparatus 100 further includes a speaker 300 and a display 400.

放送入力端子110は、例えばアンテナ200により受信されるディジタル放送信号が入力される入力端子である。アンテナ200は、例えば、地上ディジタル放送信号、BS(broadcasting satellite)ディジタル放送信号、及び/または、110度CS(communication satellite)ディジタル放送信号を受信する。即ち、放送入力端子110には、放送信号により供給される番組などのコンテンツが入力される。   The broadcast input terminal 110 is an input terminal to which a digital broadcast signal received by the antenna 200 is input, for example. The antenna 200 receives, for example, a terrestrial digital broadcast signal, a BS (broadcasting satellite) digital broadcast signal, and / or a 110-degree CS (communication satellite) digital broadcast signal. That is, content such as a program supplied by a broadcast signal is input to the broadcast input terminal 110.

放送入力端子110は、受信したディジタル放送信号を受信部111に供給する。受信部111は、ディジタル放送信号用の受信部である。受信部111は、アンテナ200から供給されるディジタル放送信号のチューニング(選局)を行う。受信部111は、チューニングしたディジタル放送信号を復元部112に送信する。受信部111は、送信入力端子110または通信インターフェース114から供給される信号がアナログ信号である場合は、ディジタル信号に変換する。   The broadcast input terminal 110 supplies the received digital broadcast signal to the receiving unit 111. The receiving unit 111 is a receiving unit for digital broadcast signals. The receiving unit 111 tunes (tunes) the digital broadcast signal supplied from the antenna 200. The receiving unit 111 transmits the tuned digital broadcast signal to the restoration unit 112. When the signal supplied from the transmission input terminal 110 or the communication interface 114 is an analog signal, the reception unit 111 converts the signal into a digital signal.

復元部112は、受信するディジタル放送信号の復調を行う。さらに、復元部112は、復調したディジタル放送信号(コンテンツ)に対して信号処理を施す。これにより、復元部112は、ディジタル放送信号から映像信号、音声信号、及びその他のデータ信号を復元する。例えば、復元部112は、ディジタル放送信号から映像信号、音声信号、及びその他のデータ信号などが重畳されたトランスポートストリーム(TS)を復元する。   The restoration unit 112 demodulates the received digital broadcast signal. Further, the restoration unit 112 performs signal processing on the demodulated digital broadcast signal (content). Accordingly, the restoration unit 112 restores the video signal, the audio signal, and other data signals from the digital broadcast signal. For example, the restoration unit 112 restores a transport stream (TS) on which a video signal, an audio signal, and other data signals are superimposed from a digital broadcast signal.

復元部112は、音声処理部121に音声信号を供給する。また、復元部112は、映像処理部131に映像信号を供給する。さらに、復元部信号処理部113は、制御部150にデータ信号を供給する。即ち、アンテナ200、受信部111、及び復元部112は、コンテンツを受信する受信手段として機能する。   The restoration unit 112 supplies an audio signal to the audio processing unit 121. Further, the restoration unit 112 supplies a video signal to the video processing unit 131. Further, the restoration unit signal processing unit 113 supplies a data signal to the control unit 150. That is, the antenna 200, the reception unit 111, and the restoration unit 112 function as a reception unit that receives content.

通信インターフェース114は、例えばHDMI(登録商標)(High Definition Multimedia Interface)端子、オーディオ入力端子、S映像端子、コンポーネント映像端子、D映像端子、D−Sub端子、及びDVI−I端子などのコンテンツを受信可能なインターフェースのうちのいずれか、または複数を備える。通信インターフェース114は、ディジタル映像信号、及びディジタル音声信号などが多重化されたコンテンツを他の機器から受信する。通信インターフェース114は、他の機器から受信したディジタル信号(コンテンツ)を受信部111に供給する。通信インターフェース114は、他の機器から受信したコンテンツを復元部112に供給する。即ち、通信インターフェース114は、コンテンツを受信する受信手段として機能する。   The communication interface 114 receives contents such as an HDMI (High Definition Multimedia Interface) terminal, an audio input terminal, an S video terminal, a component video terminal, a D video terminal, a D-Sub terminal, and a DVI-I terminal. Provide any or more of the possible interfaces. The communication interface 114 receives content in which a digital video signal, a digital audio signal, and the like are multiplexed from another device. The communication interface 114 supplies a digital signal (content) received from another device to the receiving unit 111. The communication interface 114 supplies content received from another device to the restoration unit 112. That is, the communication interface 114 functions as a receiving unit that receives content.

復元部112は、通信インターフェース114から受信部111経由で供給されたコンテンツに信号処理を施す。例えば、復元部112は、ディジタル信号をディジタル映像信号とディジタル音声信号とデータ信号とに分離する。復元部112は、音声処理部121にディジタル音声信号を供給する。また、復元部112は、映像処理部131にディジタル映像信号を供給する。さらに、復元部112は、制御部150にコンテンツに関する他の情報を供給する。   The restoration unit 112 performs signal processing on the content supplied from the communication interface 114 via the reception unit 111. For example, the restoration unit 112 separates the digital signal into a digital video signal, a digital audio signal, and a data signal. The restoration unit 112 supplies a digital audio signal to the audio processing unit 121. The restoration unit 112 also supplies a digital video signal to the video processing unit 131. Further, the restoration unit 112 supplies the control unit 150 with other information regarding the content.

またさらに、復元部112は、制御部150の制御に基づいてコンテンツを後述するストレージ190に供給する。ストレージ190は、供給されたコンテンツを記憶する。これにより、放送受信装置100は、コンテンツを録画することができる。   Furthermore, the restoration unit 112 supplies the content to the storage 190 described later based on the control of the control unit 150. The storage 190 stores the supplied content. Thereby, the broadcast receiving apparatus 100 can record content.

音声処理部121は、復元部112から受信したディジタル音声信号を、スピーカ300により再生可能なフォーマットの信号(オーディオ信号)に変換する。音声処理部121は、オーディオ信号をスピーカ300に供給する。スピーカ300は、供給されるオーディオ信号に基づいて音を再生する。   The audio processing unit 121 converts the digital audio signal received from the restoration unit 112 into a signal (audio signal) in a format that can be reproduced by the speaker 300. The audio processing unit 121 supplies an audio signal to the speaker 300. The speaker 300 reproduces sound based on the supplied audio signal.

映像処理部131は、復元部112から受信したディジタル映像信号を、ディスプレイ400で再生可能なフォーマットの映像信号に変換する。即ち、映像処理部131は、復元部112から受信した映像信号を、ディスプレイ400で再生可能なフォーマットの映像信号にデコード(再生)する。また、映像処理部131は、図示しないOSD処理部から供給されるOSD信号を映像信号に重畳する。映像処理部131は、映像信号を表示処理部133に出力する。   The video processing unit 131 converts the digital video signal received from the restoration unit 112 into a video signal having a format that can be reproduced on the display 400. That is, the video processing unit 131 decodes (reproduces) the video signal received from the restoration unit 112 into a video signal having a format that can be reproduced by the display 400. In addition, the video processing unit 131 superimposes an OSD signal supplied from an OSD processing unit (not shown) on the video signal. The video processing unit 131 outputs the video signal to the display processing unit 133.

OSD処理部は、復元部112から供給されるデータ信号、及び/または制御部150から供給される制御信号に基づいて、GUI(グラフィック ユーザ インタフェース)画面、字幕、時刻、または他の情報などを画面に重畳して表示する為のOSD信号を生成する。OSD処理部は、個別にモジュールとして放送受信装置100内に設けられていてもよいし、制御部150の機能として設けられていてもよい。   The OSD processing unit displays a GUI (graphic user interface) screen, subtitles, time, or other information based on the data signal supplied from the restoration unit 112 and / or the control signal supplied from the control unit 150. An OSD signal to be displayed in a superimposed manner is generated. The OSD processing unit may be provided individually as a module in the broadcast receiving apparatus 100 or may be provided as a function of the control unit 150.

表示処理部133は、例えば、制御部150からの制御に基づいて、受信した映像信号に対して色味、明るさ、シャープ、コントラスト、またはその他の画質調整処理を行う。表示処理部133は、画質調整を施した映像信号をディスプレイ400に供給する。ディスプレイ400は、供給される映像信号に基づいて映像を表示する。   For example, the display processing unit 133 performs color tone, brightness, sharpness, contrast, or other image quality adjustment processing on the received video signal based on the control from the control unit 150. The display processing unit 133 supplies the video signal subjected to the image quality adjustment to the display 400. The display 400 displays a video based on the supplied video signal.

ディスプレイ400は、例えば、マトリクス状に配列された複数の画素を備える液晶表示パネルと、この液晶パネルを照明するバックライトとを備える液晶表示装置などを備える。ディスプレイ400は、放送受信装置100から供給される映像信号に基づいて映像を表示する。   The display 400 includes, for example, a liquid crystal display device including a liquid crystal display panel including a plurality of pixels arranged in a matrix and a backlight that illuminates the liquid crystal panel. The display 400 displays a video based on the video signal supplied from the broadcast receiving device 100.

なお、放送受信装置100は、ディスプレイ400の代わりに、映像出力端子を備える構成であってもよい。また、放送受信装置100は、スピーカ300の代わりに、音声出力端子を備える構成であってもよい。この場合、放送受信装置100は、映像出力端子に接続される表示装置に映像信号を出力し、音声出力端子に接続されるスピーカに音声信号を出力する。これにより、放送受信装置100は、表示装置に映像を表示させ、スピーカから音声を出力させることができる。   The broadcast receiving apparatus 100 may be configured to include a video output terminal instead of the display 400. Moreover, the broadcast receiving apparatus 100 may be configured to include an audio output terminal instead of the speaker 300. In this case, the broadcast receiving apparatus 100 outputs a video signal to a display device connected to the video output terminal, and outputs an audio signal to a speaker connected to the audio output terminal. Thereby, the broadcast receiving apparatus 100 can display an image | video on a display apparatus, and can output an audio | voice from a speaker.

制御部150は、放送受信装置100の各部の動作を制御する制御手段として機能する。制御部150は、CPU151、ROM152、RAM153、及びEEPROM154などを備えている。制御部150は、操作入力部161から供給される操作信号に基づいて、種々の処理を行う。   The control unit 150 functions as a control unit that controls the operation of each unit of the broadcast receiving apparatus 100. The control unit 150 includes a CPU 151, a ROM 152, a RAM 153, an EEPROM 154, and the like. The control unit 150 performs various processes based on the operation signal supplied from the operation input unit 161.

CPU151は、種々の演算処理を実行する演算素子などを備える。CPU151は、ROM152、またはEEPROM154などに記憶されているプログラムを実行することにより種々の機能を実現する。   The CPU 151 includes arithmetic elements that execute various arithmetic processes. The CPU 151 implements various functions by executing programs stored in the ROM 152, the EEPROM 154, or the like.

ROM152は、放送受信装置100を制御する為のプログラム、及び各種の機能を実現する為のプログラムなどを記憶する。CPU151は、操作入力部161から供給される操作信号に基づいて、ROM152に記憶されているプログラムを起動する。これにより、制御部150は、各部の動作を制御する。   The ROM 152 stores a program for controlling the broadcast receiving apparatus 100, a program for realizing various functions, and the like. The CPU 151 activates the program stored in the ROM 152 based on the operation signal supplied from the operation input unit 161. Thereby, the control part 150 controls operation | movement of each part.

RAM153は、CPU151のワークメモリとして機能する。即ち、RAM153は、CPU151の演算結果、CPU151により読み込まれたデータなどを記憶する。   The RAM 153 functions as a work memory for the CPU 151. That is, the RAM 153 stores the calculation result of the CPU 151, the data read by the CPU 151, and the like.

EEPROM154は、各種の設定情報、及びプログラムなどを記憶する不揮発性メモリである。
操作入力部161は、例えば、操作キー、キーボード、マウス、音声入力装置、タッチパッドまたは操作入力に応じて操作信号を生成する事ができる他の入力装置などを備える。また、操作入力部161は、例えば、リモートコントローラからの操作信号を受信するセンサなどを備える構成であってもよい。また、操作入力部162は、上記の入力装置とセンサとを備える構成であってもよい。即ち、操作入力部161は、操作信号を受け取る操作信号受信手段として機能する。
The EEPROM 154 is a non-volatile memory that stores various setting information, programs, and the like.
The operation input unit 161 includes, for example, an operation key, a keyboard, a mouse, a voice input device, a touch pad, or another input device that can generate an operation signal according to the operation input. Further, the operation input unit 161 may be configured to include, for example, a sensor that receives an operation signal from a remote controller. Further, the operation input unit 162 may be configured to include the above input device and sensor. That is, the operation input unit 161 functions as an operation signal receiving unit that receives an operation signal.

操作入力部161は、入力された操作信号を制御部150に供給する。制御部150は、操作入力部161から供給された操作信号に基づいて、放送受信装置100に種々の処理を行わせる。   The operation input unit 161 supplies the input operation signal to the control unit 150. The control unit 150 causes the broadcast receiving device 100 to perform various processes based on the operation signal supplied from the operation input unit 161.

なお、タッチパッドは、静電センサ、サーモセンサ、または他の方式に基づいて位置情報を生成するデバイスを含む。また、放送受信装置100がディスプレイ400を備える場合、操作入力部161は、ディスプレイ400と一体に形成されるタッチパネルなどを備える構成であってもよい。   The touch pad includes an electrostatic sensor, a thermo sensor, or a device that generates position information based on other methods. When the broadcast receiving device 100 includes the display 400, the operation input unit 161 may include a touch panel formed integrally with the display 400.

リモートコントローラは、ユーザの操作入力に基づいて操作信号を生成する。リモートコントローラは、生成した操作信号を赤外線通信により操作入力部161のセンサに送信する。なお、センサとリモートコントローラとは、電波などの他の無線通信により操作信号の送受信を行う構成であってもよい。   The remote controller generates an operation signal based on a user operation input. The remote controller transmits the generated operation signal to the sensor of the operation input unit 161 by infrared communication. The sensor and the remote controller may be configured to transmit and receive operation signals by other wireless communication such as radio waves.

カードコネクタ164は、例えば、動画コンテンツを記憶するメモリカード165と通信を行う為のインターフェースである。カードコネクタ164は、接続されるメモリカード165から動画のコンテンツデータを読み出し、制御部150に供給する。   The card connector 164 is an interface for communicating with, for example, a memory card 165 that stores moving image content. The card connector 164 reads moving image content data from the connected memory card 165 and supplies it to the control unit 150.

USBコネクタ166は、USB機器167と通信を行う為のインターフェースである。USBコネクタ166は、接続されるUSB機器167から供給される信号を制御部150に供給する。   The USB connector 166 is an interface for communicating with the USB device 167. The USB connector 166 supplies a signal supplied from the connected USB device 167 to the control unit 150.

例えば、USB機器167がキーボードなどの操作入力機器である場合、USBコネクタ166は、操作信号をUSB機器167から受け取る。USBコネクタ166は、受け取った操作信号を制御部150に供給する。この場合、制御部150は、USBコネクタ166から供給される操作信号に基づいて種々の処理を実行する。   For example, when the USB device 167 is an operation input device such as a keyboard, the USB connector 166 receives an operation signal from the USB device 167. The USB connector 166 supplies the received operation signal to the control unit 150. In this case, the control unit 150 executes various processes based on the operation signal supplied from the USB connector 166.

また、例えば、USB機器167が動画のコンテンツデータを記憶する記憶装置である場合、USBコネクタ166は、コンテンツをUSB機器167から取得することができる。USBコネクタ166は、取得したコンテンツを制御部150に供給する。   For example, when the USB device 167 is a storage device that stores content data of a moving image, the USB connector 166 can acquire content from the USB device 167. The USB connector 166 supplies the acquired content to the control unit 150.

ディスクドライブ170は、例えば、コンパクトディスク(CD)、ディジタルバーサタイルディスク(DVD)、ブルーレイディスク(Blu−ray(登録商標) Disk)、または動画のコンテンツデータを記録可能な他の光ディスクMを装着可能なドライブを有する。ディスクドライブ170は、装着される光ディスクMからコンテンツを読み出し、読み出したコンテンツを制御部150に供給する。   The disc drive 170 can be mounted with, for example, a compact disc (CD), a digital versatile disc (DVD), a Blu-ray disc (Blu-ray (registered trademark) Disk), or another optical disc M capable of recording moving image content data. Have a drive. The disk drive 170 reads content from the optical disk M to be loaded and supplies the read content to the control unit 150.

LANコネクタ171は、放送受信装置100をネットワークに接続する為のインターフェースである。制御部150は、LANコネクタ171がLANケーブルまたは無線LANなどにより公衆回線に接続された場合、ネットワーク経由で種々のデータのダウンロード及びアップロードを行なう事ができる。   The LAN connector 171 is an interface for connecting the broadcast receiving apparatus 100 to a network. When the LAN connector 171 is connected to a public line by a LAN cable or a wireless LAN, the controller 150 can download and upload various data via the network.

電源制御部180は、放送受信装置100の各部への電力の供給を制御する。電源制御部180は、例えば、ACアダプタなどを介して商用電源500などから電力を受け取る。商用電源500は、交流の電力を電源制御部180に供給する。電源制御部180は、受け取った交流の電力を直流に変換し各部へ供給する。   The power control unit 180 controls power supply to each unit of the broadcast receiving apparatus 100. The power supply control unit 180 receives power from the commercial power supply 500 via an AC adapter, for example. The commercial power supply 500 supplies AC power to the power supply control unit 180. The power supply control unit 180 converts the received AC power into DC and supplies it to each unit.

また、放送受信装置100は、さらに他のインターフェースを備えていても良い。インターフェースは、例えば、Serial−ATAなどである。放送受信装置100は、インターフェースにより接続される機器に記録されているコンテンツを取得し、再生することができる。また、放送受信装置100は、再生したオーディオ信号及び映像信号を、インターフェースにより接続される機器に出力することが出来る。   Moreover, the broadcast receiving apparatus 100 may further include another interface. The interface is, for example, Serial-ATA. The broadcast receiving apparatus 100 can acquire and play back content recorded in a device connected by an interface. Also, the broadcast receiving apparatus 100 can output the reproduced audio signal and video signal to a device connected by an interface.

また、放送受信装置100がインターフェースを介してネットワークに接続される場合、放送受信装置100は、ネットワーク上の動画のコンテンツデータを取得し、再生することができる。   When the broadcast receiving apparatus 100 is connected to a network via an interface, the broadcast receiving apparatus 100 can acquire and reproduce content data of moving images on the network.

ストレージ190は、コンテンツなどを記憶する記憶装置である。ストレージ190は、例えば、ハードディスク(HDD)、ソリッドステイトドライブ(SSD)、または半導体メモリなどの大容量記憶装置を備える。また、ストレージ190は、USBコネクタ166、LANコネクタ171、通信インターフェース114、または他のインターフェースに接続された記憶装置により構成されていてもよい。   The storage 190 is a storage device that stores content and the like. The storage 190 includes a mass storage device such as a hard disk (HDD), a solid state drive (SSD), or a semiconductor memory. The storage 190 may be configured by a storage device connected to the USB connector 166, the LAN connector 171, the communication interface 114, or another interface.

上記したように、制御部150は、コンテンツを録画する場合、復元部112により復調されたコンテンツのデータをストレージ190に入力させる。さらに、制御部150は、コンテンツを記憶するストレージ190内のアドレスをストレージ190に指示する。ストレージ190は、制御部150により指示されたアドレスに復元部112から供給されたコンテンツを記憶する。   As described above, when the content is recorded, the control unit 150 causes the content data demodulated by the restoration unit 112 to be input to the storage 190. Furthermore, the control unit 150 instructs the storage 190 to specify an address in the storage 190 that stores the content. The storage 190 stores the content supplied from the restoration unit 112 at the address designated by the control unit 150.

なお、ストレージ190は、ディジタル放送信号から復元されたTSを記憶する構成であってもよいし、TSがAVI、MPEGまたは他の圧縮方式により圧縮された圧縮コンテンツを記憶する構成であってもよい。   The storage 190 may be configured to store a TS restored from a digital broadcast signal, or may be configured to store compressed content in which the TS is compressed by AVI, MPEG, or other compression methods. .

また、制御部150は、ストレージ190に記憶されているコンテンツを読み出し、再生させることができる。例えば、制御部150は、ストレージ190におけるアドレスをストレージ190に指示する。ストレージ190は、制御部150により指示されたアドレスからコンテンツを読み出す。ストレージ190は、読み出したコンテンツを音声処理部121、映像処理部131、及び制御部150などに供給する。これにより、放送受信装置100は、録画したコンテンツを再生することができる。   In addition, the control unit 150 can read and play the content stored in the storage 190. For example, the control unit 150 instructs the storage 190 to specify an address in the storage 190. The storage 190 reads content from the address designated by the control unit 150. The storage 190 supplies the read content to the audio processing unit 121, the video processing unit 131, the control unit 150, and the like. Thereby, the broadcast receiving apparatus 100 can reproduce the recorded content.

なお、放送受信装置100は、受信部111及び復元部112をそれぞれ複数備える。これにより、放送受信装置100は、複数のコンテンツを同時に受信し、受信した複数のコンテンツを同時に復元することができる。これにより、放送受信装置100は、再生可能なコンテンツデータを同時に複数取得することが出来る。即ち、放送受信装置100は、複数のコンテンツを同時に録画することが出来る。   The broadcast receiving apparatus 100 includes a plurality of receiving units 111 and restoring units 112. Thereby, the broadcast receiving apparatus 100 can simultaneously receive a plurality of contents and restore the received plurality of contents at the same time. Thereby, the broadcast receiving apparatus 100 can simultaneously acquire a plurality of reproducible content data. That is, the broadcast receiving apparatus 100 can record a plurality of contents at the same time.

図2は、制御部150の有する機能の例を示す。後述のテロップ等に関連する。
図2に示されるように、制御部150は、上記のCPU151によりプログラムを実行することにより、種々の機能を実現することが出来る。例えば、制御部150は、文字領域抽出部1511、文字データ認識部1512、誤り訂正部1513、キーワード解析部1514、及び保存部1515を備える。さらに、制御部150は、検索部1521、リスト表示部1522、リスト選択部1523、及び再生部1524を備える。
FIG. 2 shows an example of functions that the control unit 150 has. This relates to the telop described later.
As shown in FIG. 2, the control unit 150 can realize various functions by executing a program by the CPU 151. For example, the control unit 150 includes a character region extraction unit 1511, a character data recognition unit 1512, an error correction unit 1513, a keyword analysis unit 1514, and a storage unit 1515. Further, the control unit 150 includes a search unit 1521, a list display unit 1522, a list selection unit 1523, and a playback unit 1524.

図3に録画再生装置システム機能構成を示す。このシステム30は、受信部31、番組記録部32、メタデータ保存部33、検索キーワード取得部34、字幕スコア算出部35、リスト表示/選択部36、再生部37等から成っている。   FIG. 3 shows the functional configuration of the recording / playback apparatus system. The system 30 includes a reception unit 31, a program recording unit 32, a metadata storage unit 33, a search keyword acquisition unit 34, a subtitle score calculation unit 35, a list display / selection unit 36, a reproduction unit 37, and the like.

受信部31は受信部111に主に対応している。番組記録部32は復元部122に拠っている。メタデータ保存部33は制御部150に主に対応している。検索キーワード取得部34、字幕スコア算出部35、リスト表示/選択部36も、制御部150の残りの部分に拠って機能している。再生部37は音声処理部121、映像処理部131、表示処理部133に主に対応している。   The receiving unit 31 mainly corresponds to the receiving unit 111. The program recording unit 32 is based on the restoration unit 122. The metadata storage unit 33 mainly corresponds to the control unit 150. The search keyword acquisition unit 34, subtitle score calculation unit 35, and list display / selection unit 36 also function based on the remaining part of the control unit 150. The playback unit 37 mainly corresponds to the audio processing unit 121, the video processing unit 131, and the display processing unit 133.

受信部31、番組記録部32、ストレージ190とでコンテンツを入力し録画する録画手段を構成している。メタデータ保存部33、ストレージ190とでコンテンツからメタデータを抽出し保存するメタデータ保存手段を構成している。検索キーワード取得部34は入力されるキーワードを取得するキーワード取得手段を構成している。字幕スコア算出部35、リスト表示/選択部36とで、上記メタデータとこのキーワードから前記コンテンツのシーン選択をするための表示を行う選択表示手段を構成している。再生部37は外部からのこのシーン選択の結果に基づいて前記コンテンツの再生を行う再生手段を構成している。   The receiving unit 31, the program recording unit 32, and the storage 190 constitute recording means for inputting and recording content. The metadata storage unit 33 and the storage 190 constitute metadata storage means for extracting and storing metadata from content. The search keyword acquisition unit 34 constitutes a keyword acquisition unit that acquires an input keyword. The caption score calculation unit 35 and the list display / selection unit 36 constitute selection display means for performing display for selecting a scene of the content from the metadata and the keyword. The playback unit 37 constitutes playback means for playing back the content based on the result of this scene selection from the outside.

さて受信部31は、地上ディジタル放送、BSディジタル放送などの放送信号の形式を問わない。放送波だけではなく、インターネット上の動画でも適用可能である。また、アナログ信号など字幕情報が取得できない放送信号でも、ネットワークを利用し字幕情報が取得でき、その字幕情報が放送番組と関連付けられるのであれば、本技術は利用可能である。   The receiving unit 31 may use any broadcast signal format such as terrestrial digital broadcast or BS digital broadcast. It can be applied not only to broadcast waves but also to videos on the Internet. Further, even in a broadcast signal that cannot acquire caption information such as an analog signal, the present technology can be used as long as caption information can be acquired using a network and the caption information is associated with a broadcast program.

番組記録部32は、録画番組をHDD等のストレージに保存するが、MPEG2からH.264に変換するなどデータ形式を変更しても構わない。
メタデータ保存部33は、番組記録部32で保存した番組と、その番組のEPG(Electronic Program Guide)情報を関連付け、EPG情報をHDD等のストレージ上に構成したデータベース上にメタデータとして保存する。EPG情報を格納したデータベースの一例を図4に示す。番組を識別するユニークなIDを番組IDとして作成する。この番組IDを元に番組記録部32で記録した番組を探し出すことができる。EPGのデータはそのすべてをメタデータとして保存してもよいし、必要なデータだけ抽出してもよいし、必要に応じ変換してもよい。ここでは図4のEPG情報をもとに例に以降の説明を行う。
The program recording unit 32 stores the recorded program in a storage such as an HDD. The data format may be changed by converting to H.264.
The metadata storage unit 33 associates the program stored in the program recording unit 32 with EPG (Electronic Program Guide) information of the program, and stores the EPG information as metadata on a database configured on a storage such as an HDD. An example of a database storing EPG information is shown in FIG. A unique ID for identifying a program is created as a program ID. Based on the program ID, the program recorded by the program recording unit 32 can be found. All of the EPG data may be stored as metadata, or only necessary data may be extracted or converted as necessary. Here, the following description will be given by way of example based on the EPG information of FIG.

メタデータ保存部33では、録画番組内の字幕情報をデコードする。例えば図5に字幕情報を表示すべきタイミングの一例をタイムラインで示す。このタイムラインでの字幕情報を格納したデータベースの一例を図6に示す。番組IDと、字幕情報と、字幕が画面に表示される時刻をメタデータとして保存する。   The metadata storage unit 33 decodes the caption information in the recorded program. For example, FIG. 5 shows an example of the timing at which caption information should be displayed in a timeline. An example of a database storing caption information on this timeline is shown in FIG. The program ID, caption information, and the time when the caption is displayed on the screen are stored as metadata.

図7に検索キーワード取得部34の一入力例を示す。このようなUIを構成し、ユーザがリモコンやキーボードにより検索する。キーワード入力方法は、音声入力などの他の手段を用いてもよく制限するものではない。検索キーワードとしては、入力されたキーワードの他に上位下位の概念やシンボル(例えば地名ならそこのランドマークなど)等類推される対象や、ジャンル(あるいは意味クラスやそのグループ)を援用してもよい。   FIG. 7 shows an input example of the search keyword acquisition unit 34. Such a UI is configured, and a user searches using a remote control or a keyboard. The keyword input method may use other means such as voice input and is not limited. As a search keyword, in addition to the input keyword, an object that is inferred, such as a higher-order concept or a symbol (for example, a landmark there if the place name), or a genre (or a semantic class or a group thereof) may be used. .

字幕スコア算出部35は、検索キーワード取得部34より取得した検索キーワードと字幕情報を格納したデータベースからスコアを算出する。スコアはユーザが入力した検索キーワードをもとに、ユーザが欲する度合に応じることが望ましい。例えば、出現順、時刻順などに、チャンネル・時間・ジャンル(あるいは意味クラスやそのグループ)といった要素をからめて偏らずに表示できるようにする。特に例えば週、多チャンネル分のコンテンツがあるような場合には有用である。このスコアの算出方法については以下に述べる。   The caption score calculation unit 35 calculates a score from a database storing the search keyword acquired from the search keyword acquisition unit 34 and the caption information. The score is preferably based on the search keyword input by the user and the degree the user desires. For example, elements such as channel, time, and genre (or semantic class and group) are arranged in order of appearance and time so that they can be displayed without bias. This is particularly useful when there are contents for multiple channels per week, for example. A method for calculating this score will be described below.

1つ目のスコア算出方法は、検索キーワードの出現する時間をもとにスコアを算出する方法である。例えば図6では12:01:05の字幕情報が高いスコアとなり、12:00:35の字幕情報が次の高いスコアになる。これは最新の時刻ほどユーザが欲することによる。この方法を実現する手段として、現在時刻と、字幕が出現した時刻の差をスコアに係数をかける方法がある。一例として現在時刻を係数100、100時間後を係数0とする「1時間当たりに1(1秒当たり1/3600)減少する係数」を用いる。このような係数をかけることで最近のシーンを優先したスコア算出が可能となる。   The first score calculation method is a method of calculating a score based on the time when a search keyword appears. For example, in FIG. 6, the caption information at 12:01:05 has a high score, and the caption information at 12:00:35 has the next highest score. This is because the user wants the latest time. As a means for realizing this method, there is a method of multiplying the score by the difference between the current time and the time when the caption appears. As an example, a “coefficient that decreases by 1 (1/3600 per second) per hour” where the current time is 100 and the coefficient after 100 hours is 0 is used. By applying such a coefficient, it is possible to calculate a score giving priority to recent scenes.

2つ目のスコア算出方法は、短時間で連続するキーワードの出現数を数えスコアとする方法である。例えばキーワード出現後の1分間を短時間と指定した場合、図6の例では、11:58:40から11:59:15まで4回「東京」が出現している。11:59:15と12:00:35の時間差は1分を超えるため別と考える。12:00:35から12:01:05まで3回「東京」が出現している。4回出現したシーンが高スコアとなる。   The second score calculation method is a method of counting the number of appearances of keywords that are continuous in a short time and using it as a score. For example, if one minute after the keyword appears is designated as a short time, “Tokyo” appears four times from 11:58:40 to 11:59:15 in the example of FIG. Since the time difference between 11:59:15 and 12:00:35 exceeds 1 minute, it is considered different. “Tokyo” appears three times from 12:00:35 to 12:01:05. A scene that appears four times has a high score.

この短時間は1分や3分などの固定時間でも良いし、1度出現した際は3分とするが2度目以降出現した時は1分と変化をつけてもよい。ところで番組が異なることが番組IDから判別できるので、番組が終了した際はカウントをしないとするのが望ましい。   This short time may be a fixed time such as 1 minute or 3 minutes, or 3 minutes when appearing once, but may be changed to 1 minute when appearing for the second time or later. By the way, since it can be determined from the program ID that the programs are different, it is desirable not to count when the program ends.

3つ目のスコア算出方法は、出現数を単に数えるだけではなく、その間隔も考慮しスコアとする方法である。図6の例では、「東京」が出現するのは11:58:40の次は11:58:55で15秒の間隔であるが、その次は10秒、更にその次は10秒の間隔である。そして、12:00:35の次は30秒後の間隔である。間隔が長すぎる短すぎるより、適当な間隔で連続して出現するのが望ましいと考えられるので例えば次のような方式によりスコア算出する。   The third score calculation method is a method of not only counting the number of appearances but also taking the interval into account. In the example of FIG. 6, “Tokyo” appears after 11:58:40 at 11:58:55 for 15 seconds, then 10 seconds, and then 10 seconds. It is. The interval after 12:00:35 is an interval after 30 seconds. Since it seems that it is desirable that the intervals appear continuously at an appropriate interval rather than too short, the score is calculated by the following method, for example.

(a)間隔0秒:複数出現しても1.0とカウント
(b)間隔〜10秒以下:出現数0.8とカウント
(c)間隔〜25秒以下:出現数1.2とカウント
(d)間隔〜45秒以下:出現数1.0とカウント
(e)間隔〜60秒以下:出現数0.9とカウント
このスコア算出によると、11:58:40〜11:59:15までのスコアは1.0+1.2+0.8+0.8=3.8となる。また、12:00:35〜12:01:05までのスコアは、1.0+1.0=2.0となる。
(A) Interval 0 seconds: even if multiple occurrences are counted as 1.0 (b) Interval 10 seconds or less: appearance number 0.8 and count (c) Intervals 25 seconds or less: appearance number 1.2 and count ( d) Interval ~ 45 seconds or less: Appearance number 1.0 and count (e) Interval ~ 60 seconds or less: Appearance number 0.9 and count According to this score calculation, from 11:58:40 to 11:59:15 The score is 1.0 + 1.2 + 0.8 + 0.8 = 3.8. The score from 12:00:35 to 12:01:05 is 1.0 + 1.0 = 2.0.

4つ目のスコア算出方法は、検索キーワードの分類を利用する方法である。単語辞書をもとにキーワードを認識する処理系では、辞書に単語の分類を登録することが可能である。例えば「東京」「日本」「名古屋」は「場所」という分類を持つ辞書データをあらかじめ作成する。検索キーワードに「名古屋」を用いても図6の例では「名古屋」に一致するシーンはない。そこで、分類が「場所」である他のキーワードを探す。「場所」分類が一致する「東京」「日本」が含まれる字幕情報よりスコアを算出する。「東京」「名古屋」は「場所」「都市」の分類、「日本」は「場所」「国」と分類を細分化できる。この場合、細分化分類の一致する「都市」のスコアを高めに、一致しない「国」のスコアを低めに算出する。このようにすることで、検索キーワードに一致するシーンがない場合でも、分類が一致するキーワードによるあいまい検索を実現することが可能となる。   The fourth score calculation method is a method that uses the classification of search keywords. In a processing system that recognizes keywords based on a word dictionary, it is possible to register word classifications in the dictionary. For example, for “Tokyo”, “Japan”, and “Nagoya”, dictionary data having a classification of “place” is created in advance. Even if “Nagoya” is used as a search keyword, there is no scene that matches “Nagoya” in the example of FIG. Therefore, another keyword whose classification is “location” is searched. A score is calculated from subtitle information including “Tokyo” and “Japan” having the same “location” classification. “Tokyo” and “Nagoya” can be subdivided into “location” and “city”, and “Japan” can be subdivided into “location” and “country”. In this case, the score of “city” that matches the subdivision classification is increased, and the score of “country” that does not match is calculated lower. In this way, even when there is no scene that matches the search keyword, it is possible to realize an ambiguous search using a keyword whose classification matches.

5つ目のスコア算出方法は、EPGのメタ情報を利用する方法である。図4のEPG情報には番組詳細の中に「東京」が含まれる。よって、EPG情報にキーワードが含まれる番組が優先されるようプライオリティを付けたスコアとすることや、もしくは、スコアの値をかさ上げするなどの方法を採用する。   The fifth score calculation method uses EPG meta-information. The EPG information in FIG. 4 includes “Tokyo” in the program details. Therefore, a method is adopted in which a score is given a priority so that a program including a keyword in the EPG information is given priority, or a score value is raised.

図8にリスト表示/選択部36の表示例を示す。字幕スコア算出部35で算出されたスコアに基づき、画面にスコア順にリスト表示する。リストには、取得したシーンの時刻だけではなく、そのシーンが含まれる番組のタイトル、チャンネル、番組開始終了時刻、算出スコア等を合わせて表示してもよい。またシーンのキャプチャ画面をインデックスとして表示してもよい。ユーザはリモコンなどを利用しリストを選択する。   FIG. 8 shows a display example of the list display / selection unit 36. Based on the score calculated by the caption score calculation unit 35, a list is displayed on the screen in the order of the score. The list may display not only the time of the acquired scene but also the title, channel, program start / end time, calculated score, and the like of the program including the scene. A scene capture screen may be displayed as an index. The user selects a list using a remote controller or the like.

再生部37は、リスト表示/選択部36で選択されたリストから録画番組を特定し、再生する。この時、番組の先頭からではなく、シーンとして検出されたポイントから再生を開始する。   The playback unit 37 identifies and plays back the recorded program from the list selected by the list display / selection unit 36. At this time, playback is started not from the beginning of the program but from the point detected as a scene.

再生部37は、シーンで検出されたまさにその時間からではなく、数秒前から再生を開始してもよい。例えばシーン開始の5秒前から再生することで、リストを選択し再生を開始してから5秒後に所望のシーンが始まる。EPGメタ情報を利用し、番組ジャンルがドラマやアニメ等のように字幕と音声に遅延がないと判断できる番組であればシーン開始の1秒前から再生する、それ以外の番組は5秒前からの再生する、としてもよい。   The playback unit 37 may start playback from several seconds before, not just from the time detected in the scene. For example, by playing from 5 seconds before the start of the scene, a desired scene starts 5 seconds after selecting the list and starting playback. If EPG meta-information is used and the program genre is a program that can be determined that there is no delay in subtitles and audio, such as drama or animation, the program will be played 1 second before the start of the scene, and other programs will be played 5 seconds before It is also possible to play.

再生部37は、字幕表示機能がOFFの場合でも検索キーワードが表示される字幕を表示するタイミングだけはその字幕を表示してもよい。字幕とは別に検索キーワードが表示されるタイミングで、検索キーワードを画面に表示してもよい。   Even when the subtitle display function is OFF, the playback unit 37 may display the subtitle only at the timing of displaying the subtitle in which the search keyword is displayed. The search keyword may be displayed on the screen at a timing when the search keyword is displayed separately from the caption.

再生部37は、検索キーワードと一致する字幕が表示される時間まで、画面にカウントダウン表示をしてもよい。数値ではなく、タイムバーなど絵で表示してもよい。   The reproduction unit 37 may display a countdown on the screen until a time when a subtitle that matches the search keyword is displayed. You may display with pictures, such as a time bar, instead of a numerical value.

再生部37は、ネットワークに接続されている環境であれば、ネットワーク上から取得したシーン情報と組み合わせ再生位置を特定してもよい。例えば図8の一番上のリストでは、12:01:05からシーンが開始されるが、ネットワーク上のシーン切り情報(例えばTimeOn ((R)、以下省略))では、シーン開始が12:00:00である場合、12:00:00から再生を開始する。文字情報のひとつである字幕シーン情報と、ネットワーク上のシーン情報があまりにも時間的にかけ離れている場合、字幕シーン情報を優先することが望ましい。従って、例えば字幕シーン情報の開始時刻より2分以内に始まるシーンがネットワーク上シーン情報にあれば、その開始ポイントを採用し、そうでなければ字幕シーン情報を採用することも可能である。更にユーザは字幕シーン情報を用いるか、ネットワーク上シーン情報を用いるか選択してもよい。またリスト表示/選択部36でネットワーク上シーン情報がある場合、その情報を合わせて表示し、ユーザに選択させてもよい。   If the environment is connected to a network, the playback unit 37 may specify a playback position in combination with scene information acquired from the network. For example, in the top list of FIG. 8, the scene starts at 12:01:05, but in the scene cut information on the network (for example, TimeOn ((R), hereinafter omitted)), the scene start is 12:00. If it is: 00, playback starts from 12:00:00. When subtitle scene information, which is one of character information, and scene information on the network are too far apart in time, it is desirable to give priority to subtitle scene information. Therefore, for example, if the scene information on the network starts within 2 minutes from the start time of the caption scene information, the start point can be adopted, and if not, the caption scene information can be adopted. Further, the user may select whether to use subtitle scene information or network scene information. When there is scene information on the network in the list display / selection unit 36, the information may be displayed together and selected by the user.

再生部37は、画面上の文字情報のひとつである映像に現れる文字(テロップ)を検出するテロップ検出技術と併用して再生位置を定めてもよい。テロップ検出は映像中の文字列を認識し、その変化でシーンの切れ目を検出する技術である。この技術は例えば本願と同一発明者らによる発明(特願2011-248858)による。   The reproduction unit 37 may determine the reproduction position in combination with a telop detection technique for detecting a character (telop) appearing in an image which is one of character information on the screen. The telop detection is a technique for recognizing a character string in a video and detecting a scene break by the change. This technique is based on, for example, an invention by the same inventors as the present application (Japanese Patent Application No. 2011-248858).

テロップ検出によるシーン切り情報(例えばテロップbot)を用いて上記、ネットワーク上のシーン切り情報と同様な処理が可能である。
再生部37は、無音検出処理と併用して再生位置を定めてもよい。無音検出は音声の波形を解析し、波形の特に変化のないポイントを無音部分とするものでありさまざまな手法が提案されている。シーンとして検出された時間の過去の音声データより無音ポイントを検出し、無音ポイントから再生を開始する。
The same process as the scene cut information on the network can be performed using the scene cut information (for example, telop bot) by the telop detection.
The playback unit 37 may determine the playback position in combination with the silence detection process. Silence detection is performed by analyzing the waveform of a voice and using a point where there is no particular change in the waveform as a silent part, and various methods have been proposed. A silence point is detected from the past audio data of the time detected as a scene, and playback is started from the silence point.

再生部37は、抽出できる文字情報として音声認識や音声合成を併用して再生位置を定めてもよい。字幕には出現タイミングに2つの種類がある。ひとつはアニメやドラマなどであり、あらかじめ字幕が作成されているため、字幕と音声の発音の時間がほとんど一致する。もう一つはニュース番組などであり、リアルタイムに放送されているため音声が発音されてから字幕が表示されるまで数秒から数十秒後のタイムラグがある。よって字幕が表示される時間より過去の音声情報を使用し検索キーワードと一致するポイントを検出する。そこをシーンの再生開始ポイントとする。また、音声合成を利用し、音声合成した検索キーワードの音声波形と、字幕が表示される時間より過去の音声波形を比較し、相関が高い位置を検出する方法もある。この方法は処理性能の低い環境でも実現できる。   The reproduction unit 37 may determine the reproduction position by using voice recognition or voice synthesis as character information that can be extracted. There are two types of subtitles in appearance timing. One is anime, drama, etc., and subtitles are created in advance, so the subtitles and the sound pronunciation time almost coincide. The other is a news program, etc., which is broadcast in real time and has a time lag of several seconds to several tens of seconds after the sound is pronounced until the subtitles are displayed. Therefore, a point that matches the search keyword is detected by using past audio information from the time when the caption is displayed. This is the scene playback start point. Also, there is a method of detecting a position having a high correlation by using speech synthesis, comparing the speech waveform of the search keyword synthesized by speech with the speech waveform past the time when the caption is displayed. This method can be realized even in an environment with low processing performance.

以上に記載した字幕スコア算出処理により、検索キーワードにマッチするシーンがユーザの欲する順に取得できるようになった。再生時に一工夫することで、シーン開始ポイントの精度を向上した。   With the above-described caption score calculation processing, scenes matching the search keyword can be acquired in the order that the user desires. Improved the accuracy of the scene start point by devising it during playback.

以上の放送受信装置100において説明した録画再生装置の制御方法は図9のようである。
ステップS91: コンテンツを入力して録画する録画工程である。例えば、受信部31はアンテナより1つ以上のディジタル放送信号を受信する。番組記録部32は、放送信号から受信する録画番組をHDD等のストレージ190に記録する。
The control method of the recording / reproducing apparatus described in the broadcast receiving apparatus 100 is as shown in FIG.
Step S91: This is a recording step for recording by inputting contents. For example, the receiving unit 31 receives one or more digital broadcast signals from the antenna. The program recording unit 32 records a recorded program received from a broadcast signal in a storage 190 such as an HDD.

ステップS92: 上記コンテンツからメタデータを抽出し保存するメタデータ保存工程である。メタデータ保存部33は、番組記録部32で録画した番組の例えばEPG情報をメタデータとして、番組単位にストレージ190上のデータベースに保存する。 Step S92: This is a metadata storage step for extracting and storing metadata from the content. The metadata storage unit 33 stores, for example, EPG information of the program recorded by the program recording unit 32 as metadata in a database on the storage 190 in units of programs.

ステップS93: 入力される(検索)キーワードを取得するキーワード取得工程である。検索キーワード取得部34は、ユーザから検索キーワードを受け付ける。
ステップS94: 上記メタデータと上記キーワードから前記コンテンツのシーン選択をするための表示を行う選択表示工程である。字幕スコア算出部35は、検索キーワードと例えば字幕情報を格納したデータベース190を利用しスコアを算出する。リスト表示/選択部36は、字幕スコア算出部35で求めたスコア順にリスト表示する。リストにはEPG情報による番組タイトル、字幕表示されるシーンの開始時刻、もしくは番組開始からの経過時間、などを表示する。
Step S93: This is a keyword acquisition step for acquiring an input (search) keyword. The search keyword acquisition unit 34 receives a search keyword from the user.
Step S94: This is a selection display step for performing display for selecting a scene of the content from the metadata and the keyword. The caption score calculation unit 35 calculates a score using the database 190 storing the search keyword and, for example, caption information. The list display / selection unit 36 displays the list in the order of the scores obtained by the subtitle score calculation unit 35. The list displays a program title based on EPG information, a start time of a scene to be displayed in subtitles, or an elapsed time from the start of the program.

ステップS95: 外部からのこのシーン選択の結果に基づいて前記コンテンツの再生を行う再生工程である。再生部37は、リスト表示/選択部36で選択された番組をストレージ190から読み出し、字幕表示時刻のシーンを再生する。 Step S95: This is a reproduction step of reproducing the content based on the result of this scene selection from the outside. The playback unit 37 reads the program selected by the list display / selection unit 36 from the storage 190 and plays back the scene at the caption display time.

システム全体構成として実施形態にかかる録画再生装置は、受信部、番組記録部、メタデータ保存部、ストレージ、検索キーワード取得部、字幕スコア算出部、リスト表示/選択部、再生部、を具備する処理装置である。   The recording / playback apparatus according to the embodiment as the entire system configuration includes a receiving unit, a program recording unit, a metadata storage unit, a storage, a search keyword acquisition unit, a caption score calculation unit, a list display / selection unit, and a playback unit. Device.

メタデータと時刻が関連した保存としてメタデータ保存部は、字幕情報をメタデータとしてストレージ上のデータベースに保存する。この時、字幕が画面に表示される時刻を合わせてデータベースに保存する。   The metadata storage unit stores the caption information as metadata in a database on the storage as storage related to the metadata and time. At this time, the time when the subtitles are displayed on the screen is stored together in the database.

スコア算出構成として字幕スコア算出部は、検索キーワードの出現する時間を加味したスコア算出処理としてもよい(スコア算出方法1)。また字幕スコア算出部は、短時間で連続して出現する検索キーワードの出現数を加味したスコア算出処理としてもよい(スコア算出方法2)。また字幕スコア算出部は、短時間で連続して出現する検索キーワードの出現間隔を加味したスコア算出処理としてもよい(スコア算出方法3)。また字幕スコア算出部は、検索キーワードの分類を識別し、分類に一致したシーンの関連度を加味したスコア算出処理としてもよい(スコア算出方法4)。また字幕スコア算出部は、EPGのタイトル、番組情報、番組詳細の中で一致するか、一致しないかを加味したスコア算出処理としてもよい。またキーワードのジャンルなどをもとにキーワードの関連度を加味したスコア算出処理としてもよい(スコア算出方法5(EPGの併用))。   As a score calculation configuration, the subtitle score calculation unit may perform a score calculation process that takes into account the appearance time of the search keyword (score calculation method 1). The subtitle score calculation unit may perform score calculation processing that takes into account the number of search keywords that appear continuously in a short time (score calculation method 2). The subtitle score calculation unit may perform score calculation processing that takes into account the appearance intervals of search keywords that appear continuously in a short time (score calculation method 3). Further, the caption score calculation unit may identify a classification of the search keyword, and may perform a score calculation process in consideration of the degree of association of the scene that matches the classification (score calculation method 4). The subtitle score calculation unit may perform score calculation processing that considers whether or not the EPG title, program information, and program details match. Moreover, it is good also as a score calculation process which considered the relevance degree of the keyword based on the genre of the keyword etc. (score calculation method 5 (combination of EPG)).

再生方法1として再生部は、字幕シーンの再生ポイントの数秒前から再生を開始する。再生方法2として再生部は、字幕表示がOFFであっても、検索キーワードの含まれる字幕は表示して再生する。もしくは字幕表示のタイミングでキーワードを画面に描画する。再生方法3として再生部は、検索キーワードの字幕が表示開始される時間までのカウントダウンを表示する。   As the playback method 1, the playback unit starts playback several seconds before the playback point of the subtitle scene. As the reproduction method 2, the reproduction unit displays and reproduces the subtitles including the search keyword even if the subtitle display is OFF. Alternatively, the keyword is drawn on the screen at the subtitle display timing. As the reproduction method 3, the reproduction unit displays a countdown until the time when the subtitle of the search keyword is displayed.

また再生方法(ネットワーク情報を併用)として再生部は、ネットワークを通じて得られるシーン切り情報(TimeOn)を併用して、そのシーンの開始ポイントから再生を開始する。   Also, as a playback method (using network information together), the playback unit uses scene cut information (TimeOn) obtained through the network together and starts playback from the start point of the scene.

また再生方法(テロップ検出との併用)として再生部は、テロップ検出の結果を併用し、そのシーンの開始ポイントから再生を開始する。
また再生方法(無音検出との併用)として再生部は、字幕の表示される前後の音声を解析し、無音ポイントを検出し直前の無音ポイントから再生を開始する。
また再生方法(音声認識、音声合成との併用)として再生部は、検索キーワードの音声認識を行い、音声によるシーン開始ポイントを検出する。シーン開始ポイントの数秒前から再生を開始する。音声合成を行い、音声合成結果に一致する音声シーンも文字情報の一種として検出することで処理負荷を下げてもよい。
As a playback method (combined use with telop detection), the playback unit also uses the result of telop detection and starts playback from the start point of the scene.
As a playback method (combined with silence detection), the playback unit analyzes the sound before and after the caption is displayed, detects a silence point, and starts playback from the previous silence point.
As a playback method (a combination of voice recognition and voice synthesis), the playback unit performs voice recognition of the search keyword and detects a scene start point by voice. Playback starts a few seconds before the scene start point. The processing load may be reduced by performing speech synthesis and detecting a speech scene that matches the speech synthesis result as a kind of character information.

実施形態の要旨として、放送番組をHDD等のストレージに保存する際、その番組中の字幕情報を取得し、データベースに保存する。ユーザが入力する検索キーワードと、データベース上の字幕情報をもとに、全録画番組の中からユーザが見たいであろうと思われるシーンを見つけ出しユーザにリスト表示する。ユーザはリスト表示されたシーン一覧画面から所望のシーンを選択し再生する。再生されるのは番組の最初からではなく、シーンの始まりから再生される。   As a gist of the embodiment, when a broadcast program is stored in a storage such as an HDD, subtitle information in the program is acquired and stored in a database. Based on the search keyword input by the user and the caption information on the database, scenes that the user would like to see are found from all recorded programs and displayed in a list to the user. The user selects a desired scene from the displayed scene list screen and reproduces it. It is played from the beginning of the scene, not from the beginning of the program.

(実施形態の効果)
従来はEPGなどの番組情報を用いて検索キーワードと一致する番組を推薦する方式があった。しかしこの方法では番組は見つかってもその中のシーンを見つけることが難しいという問題があった。すなわちユーザは最初から番組を視聴し、番組内の所望のシーンを自分で探す必要があった。本方法は、字幕情報を用いて録画番組の再生シーンを検出するものである。字幕は検索キーワードがまさに発音されたポイントを示すもので、検出されたポイントを再生することでユーザのシーンを探す手間を省くことが可能となった。
(Effect of embodiment)
Conventionally, there has been a method of recommending a program that matches a search keyword using program information such as EPG. However, this method has a problem that even if a program is found, it is difficult to find a scene in the program. That is, the user has to watch the program from the beginning and search for a desired scene in the program. This method detects a playback scene of a recorded program using caption information. The subtitle indicates the point at which the search keyword is pronounced, and it is possible to save the user from searching for the scene by reproducing the detected point.

なお、この発明は上記実施形態に限定されるものではなく、この外その要旨を逸脱しない範囲で種々変形して実施することができる。
また、上記した実施の形態に開示されている複数の構成要素を適宜に組み合わせることにより、種々の発明を形成することができる。例えば、実施の形態に示される全構成要素から幾つかの構成要素を削除しても良いものである。さらに、異なる実施の形態に係わる構成要素を適宜組み合わせても良いものである。
In addition, this invention is not limited to the said embodiment, In the range which does not deviate from the summary, it can implement in various modifications.
Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above-described embodiments. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements according to different embodiments may be appropriately combined.

100…放送受信装置、110…放送入力端子、111…受信部、112…復元部、114…通信インターフェース、121…音声処理部、131…映像処理部、133…表示処理部、150…制御部、151…CPU、152…ROM、153…RAM、154…EEPROM、161…操作入力部、164…カードコネクタ、165…メモリカード、166…USBコネクタ、167…USB機器、170…ディスクドライブ、171…LANコネクタ、180…電源制御部、190…ストレージ、200…アンテナ、300…スピーカ、400…ディスプレイ、500…商用電源、1511…文字領域抽出部、1512…文字データ認識部、1513…誤り訂正部、1514…キーワード解析部、1514a…キーワード辞書、1515…保存部、1521…検索部、1522…リスト表示部、1523…リスト選択部、1524…再生部。   DESCRIPTION OF SYMBOLS 100 ... Broadcast receiving apparatus, 110 ... Broadcast input terminal, 111 ... Reception part, 112 ... Restoration part, 114 ... Communication interface, 121 ... Audio processing part, 131 ... Video processing part, 133 ... Display processing part, 150 ... Control part, 151 ... CPU, 152 ... ROM, 153 ... RAM, 154 ... EEPROM, 161 ... operation input unit, 164 ... card connector, 165 ... memory card, 166 ... USB connector, 167 ... USB device, 170 ... disk drive, 171 ... LAN Connector, 180 ... Power supply control unit, 190 ... Storage, 200 ... Antenna, 300 ... Speaker, 400 ... Display, 500 ... Commercial power supply, 1511 ... Character area extraction unit, 1512 ... Character data recognition unit, 1513 ... Error correction unit, 1514 ... Keyword analysis unit, 1514a ... Keyword dictionary, 151 ... storage unit, 1521 ... search unit, 1522 ... list display portion, 1523 ... list selecting unit, 1524 ... reproduction unit.

Claims (12)

コンテンツを入力し録画する録画手段と、
前記コンテンツからメタデータを抽出し保存するメタデータ保存手段と、
入力されるキーワードを取得するキーワード取得手段と、
前記メタデータと前記キーワードから前記コンテンツのシーン選択をするための表示を行う選択表示手段と、
外部からのこのシーン選択の結果に基づいて前記コンテンツの再生を行う再生手段とを
備えた録画再生装置。
Recording means for inputting and recording content,
Metadata storage means for extracting and storing metadata from the content;
A keyword acquisition means for acquiring an input keyword;
Selection display means for performing a display for selecting a scene of the content from the metadata and the keyword;
A recording / playback apparatus comprising playback means for playing back the content based on a result of the scene selection from the outside.
前記メタデータは、前記シーン選択に関連する文字情報の表出時刻を含む請求項1に記載の録画再生装置。   The recording / playback apparatus according to claim 1, wherein the metadata includes an appearance time of character information related to the scene selection. 前記選択表示手段は、前記シーン選択に関連する文字情報のスコアを算出しこのスコアに基づいて表示を行う請求項1または2に記載の録画再生装置。   The recording / reproducing apparatus according to claim 1, wherein the selection display unit calculates a score of character information related to the scene selection and performs display based on the score. 前記スコアは、前記キーワードの出現する時間を加味して算出される請求項3に記載の録画再生装置。   The recording / playback apparatus according to claim 3, wherein the score is calculated in consideration of a time at which the keyword appears. 前記スコアは、比較的短時間で連続して出現する前記キーワードの出現数を加味して算出される請求項3に記載の録画再生装置。   The recording / playback apparatus according to claim 3, wherein the score is calculated in consideration of the number of appearances of the keyword that appears continuously in a relatively short time. 前記スコアは、比較的短時間で連続して出現する前記キーワードの出現間隔を加味して算出される請求項3に記載の録画再生装置。   The recording / playback apparatus according to claim 3, wherein the score is calculated in consideration of an appearance interval of the keyword that appears continuously in a relatively short time. 前記スコアは、前記キーワードの分類に基づいたシーン関連度を加味して算出される請求項3に記載の録画再生装置。   The recording / playback apparatus according to claim 3, wherein the score is calculated in consideration of a scene relevance level based on the keyword classification. 前記スコアは、EPGを併用して算出される請求項3に記載の録画再生装置。   The recording / playback apparatus according to claim 3, wherein the score is calculated by using EPG together. 前記選択表示手段は、前記スコアの順にリスト表示を行う請求項3に記載の録画再生装置。   The recording / playback apparatus according to claim 3, wherein the selection display unit displays a list in the order of the scores. 前記再生手段は、前記表出時刻の前記コンテンツの再生を行う請求項2に記載の録画再生装置。   The recording / reproducing apparatus according to claim 2, wherein the reproduction unit reproduces the content at the presentation time. 前記再生手段は、前記表出時刻の数秒前から前記コンテンツの再生を行う請求項10に記載の録画再生装置。   The recording / reproducing apparatus according to claim 10, wherein the reproduction unit reproduces the content from several seconds before the display time. 録画再生装置の制御方法であって、
コンテンツを入力して録画する録画工程と、
前記コンテンツからメタデータを抽出し保存するメタデータ保存工程と、
入力されるキーワードを取得するキーワード取得工程と、
前記メタデータと前記キーワードから前記コンテンツのシーン選択をするための表示を行う選択表示工程と、
外部からのこのシーン選択の結果に基づいて前記コンテンツの再生を行う再生工程とを含む制御方法。
A control method for a recording / playback apparatus,
A recording process in which content is input and recorded;
A metadata storage step of extracting and storing metadata from the content;
A keyword acquisition process for acquiring input keywords;
A selection display step for performing display for selecting a scene of the content from the metadata and the keyword;
And a reproduction step of reproducing the content based on a result of the scene selection from the outside.
JP2013085236A 2013-04-15 2013-04-15 Video recording and reproducing device and control method of video recording and reproducing device Pending JP2014207619A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013085236A JP2014207619A (en) 2013-04-15 2013-04-15 Video recording and reproducing device and control method of video recording and reproducing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013085236A JP2014207619A (en) 2013-04-15 2013-04-15 Video recording and reproducing device and control method of video recording and reproducing device

Publications (1)

Publication Number Publication Date
JP2014207619A true JP2014207619A (en) 2014-10-30

Family

ID=52120841

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013085236A Pending JP2014207619A (en) 2013-04-15 2013-04-15 Video recording and reproducing device and control method of video recording and reproducing device

Country Status (1)

Country Link
JP (1) JP2014207619A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200048787A (en) 2018-10-30 2020-05-08 한국전기연구원 Electrode for super capacitor, manufacturing method for the same and super capacitor using the same
KR20200053180A (en) 2018-11-08 2020-05-18 한국전기연구원 Electrode for super capacitor comprising conductor layer including additive preventing corrosion, manufacturing method for the same and supercapacitor using the same

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200048787A (en) 2018-10-30 2020-05-08 한국전기연구원 Electrode for super capacitor, manufacturing method for the same and super capacitor using the same
KR20200053180A (en) 2018-11-08 2020-05-18 한국전기연구원 Electrode for super capacitor comprising conductor layer including additive preventing corrosion, manufacturing method for the same and supercapacitor using the same

Similar Documents

Publication Publication Date Title
JP4482829B2 (en) Preference extraction device, preference extraction method, and preference extraction program
JP4905103B2 (en) Movie playback device
US10129515B2 (en) Display control device, recording control device, and display control method
US20080059526A1 (en) Playback apparatus, searching method, and program
JP5135024B2 (en) Apparatus, method, and program for notifying content scene appearance
KR101606657B1 (en) Methods and apparatus for keyword-based, non-linear navigation of video streams and other content
JP2010055501A (en) Information providing server, information providing method and information providing system
JP2008131413A (en) Video recording/playback unit
JP2008312183A (en) Information processing apparatus, method, and program
JP2008276340A (en) Retrieving device
JP2010124319A (en) Event-calendar display apparatus, event-calendar display method, event-calendar display program, and event-information extraction apparatus
JP2008227909A (en) Video retrieval apparatus
JP5209129B1 (en) Information processing apparatus, broadcast receiving apparatus, and information processing method
JP5458163B2 (en) Image processing apparatus and image processing apparatus control method
JP2014207619A (en) Video recording and reproducing device and control method of video recording and reproducing device
US20050232598A1 (en) Method, apparatus, and program for extracting thumbnail picture
JP5143270B1 (en) Image processing apparatus and image processing apparatus control method
JP2008109453A (en) Broadcast receiving, recording, and reproducing apparatus
JP5703321B2 (en) Information processing apparatus and information processing method
JP4881459B2 (en) Recording and playback apparatus and method
JP5091708B2 (en) Search information creation device, search information creation method, search information creation program
JP2006332765A (en) Contents searching/reproducing method, contents searching/reproducing apparatus, and program and recording medium
JP2012034235A (en) Video reproduction apparatus and video reproduction method
JP5840026B2 (en) Content storage apparatus and content storage method
JP4312167B2 (en) Content playback device

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20150216

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150218