JP2015126266A - Portable terminal device and broadcast notification method - Google Patents

Portable terminal device and broadcast notification method Download PDF

Info

Publication number
JP2015126266A
JP2015126266A JP2013267532A JP2013267532A JP2015126266A JP 2015126266 A JP2015126266 A JP 2015126266A JP 2013267532 A JP2013267532 A JP 2013267532A JP 2013267532 A JP2013267532 A JP 2013267532A JP 2015126266 A JP2015126266 A JP 2015126266A
Authority
JP
Japan
Prior art keywords
broadcast
scene
unit
information
terminal device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013267532A
Other languages
Japanese (ja)
Inventor
友昭 半田
Tomoaki Handa
友昭 半田
浩子 井上
Hiroko Inoue
浩子 井上
祐子 高橋
Yuko Takahashi
祐子 高橋
英輔 ▲柳▼澤
英輔 ▲柳▼澤
Hidesuke Yanagisawa
良一 石田
Ryoichi Ishida
良一 石田
修一 野村
Shuichi Nomura
修一 野村
剣 鈴木
Tsutomu Suzuki
剣 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Frontech Ltd
Original Assignee
Fujitsu Frontech Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Frontech Ltd filed Critical Fujitsu Frontech Ltd
Priority to JP2013267532A priority Critical patent/JP2015126266A/en
Publication of JP2015126266A publication Critical patent/JP2015126266A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Telephone Function (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To notify a user of the fact that a broadcast scene the user wants to watch has been broadcasted.SOLUTION: In a portable terminal device 1, a scene determination unit 6 determines whether or not the scene information representing at least a sound or image, included in the broadcast scene to be watched, is included in the broadcast information acquired by a broadcast processing unit 5. When the scene determination unit 6 determines that the scene information is included in the broadcast information, a broadcast notification unit 7 notifies of the fact that the broadcast scene has been broadcasted. Consequently, a user can understand the fact that a specified broadcast scene has been broadcasted, and can watch the broadcast scene without missing, by switching the display to TV video.

Description

本発明は、携帯端末装置及び放送通知方法に関する。   The present invention relates to a mobile terminal device and a broadcast notification method.

近年、携帯電話機、スマートフォンといった携帯端末装置は、本来の通話機能に加え、電子メールの送受信、インターネットを利用したホームページの閲覧、その他のアプリケーションプログラムの実行が可能である。   In recent years, mobile terminal devices such as mobile phones and smartphones can send and receive e-mails, browse homepages using the Internet, and execute other application programs in addition to the original call function.

また、携帯端末装置では、テレビ放送受信によるテレビ視聴機能が備わっている機種がある(例えば、特許文献1参照)。   Moreover, some portable terminal devices have a TV viewing function by receiving TV broadcasts (see, for example, Patent Document 1).

特開2006−33691号公報JP 2006-33691 A

しかし、テレビ視聴機能を備える携帯端末装置の多くは、テレビ視聴とは異なる別のアプリケーションを実行しながら、バックグラウンドで、テレビ視聴のためのアプリケーションを実行することができない。このため、別のアプリケーションの実行を優先すると、テレビの音声もバックグラウンドで実行することもできないために、視聴したい番組の特定のシーン(場面)を見逃してしまうことがある。   However, many portable terminal devices having a television viewing function cannot execute an application for viewing the television in the background while executing another application different from the television viewing. For this reason, if priority is given to the execution of another application, neither the audio of the television nor the background can be executed, so that a specific scene (scene) of the program to be viewed may be missed.

本発明は、このような点を鑑みてなされたものであり、ユーザが視聴したい放送場面の見逃しを防止することができる携帯端末装置及び放送通知方法を提供することを目的とする。   The present invention has been made in view of these points, and an object of the present invention is to provide a mobile terminal device and a broadcast notification method that can prevent a user from overlooking a broadcast scene that the user wants to view.

本発明の一観点によれば、放送信号を受信する放送受信部と、前記放送受信部が受信した前記放送信号を処理して、音声情報と映像情報とを具備する放送情報を取得する放送処理部と、前記放送処理部が取得した前記放送情報に、視聴対象の放送場面に含まれる、少なくとも音または画像を表す場面情報が含まれているか否かを判定する場面判定部と、前記場面判定部が前記放送情報に前記場面情報が含まれていることを判定すると、前記放送場面が放送されていることを通知する放送通知部と、を有する携帯端末装置が提供される。   According to an aspect of the present invention, a broadcast receiving unit that receives a broadcast signal, and a broadcast process that processes the broadcast signal received by the broadcast receiving unit to obtain broadcast information including audio information and video information. A scene determination unit that determines whether the broadcast information acquired by the broadcast processing unit includes at least scene information representing a sound or an image included in a broadcast scene to be viewed, and the scene determination When the unit determines that the scene information is included in the broadcast information, a mobile terminal device is provided that includes a broadcast notification unit that notifies that the broadcast scene is being broadcast.

また、本発明の一観点によれば、放送場面が放送されていることを通知する上記携帯端末装置の放送通知方法が提供される。   According to another aspect of the present invention, there is provided a broadcast notification method for the mobile terminal device that notifies that a broadcast scene is being broadcast.

開示の技術によれば、ユーザが視聴したい放送場面が放送されていることを通知することができるようになる。   According to the disclosed technique, it is possible to notify that a broadcast scene that the user wants to view is being broadcast.

第1の実施の形態に係る携帯端末装置の概念図である。It is a conceptual diagram of the portable terminal device which concerns on 1st Embodiment. 第1の実施の形態に係る携帯端末装置の放送場面の通知方法を説明するための図である。It is a figure for demonstrating the notification method of the broadcast scene of the portable terminal device which concerns on 1st Embodiment. 第2の実施の形態に係る携帯端末装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of the portable terminal device which concerns on 2nd Embodiment. 第2の実施の形態に係る携帯端末装置が備える機能を示す機能ブロック図である。It is a functional block diagram which shows the function with which the portable terminal device which concerns on 2nd Embodiment is provided. 第2の実施の形態に係る携帯端末装置が備える情報を示す図である。It is a figure which shows the information with which the portable terminal device which concerns on 2nd Embodiment is provided. 第2の実施の形態に係る携帯端末装置で実行される放送通知処理を示すフローチャート(その1)である。It is a flowchart (the 1) which shows the broadcast notification process performed with the portable terminal device which concerns on 2nd Embodiment. 第2の実施の形態に係る携帯端末装置で実行される放送通知処理を示すフローチャート(その2)である。It is a flowchart (the 2) which shows the broadcast notification process performed with the portable terminal device which concerns on 2nd Embodiment. 第2の実施の形態に係る携帯端末装置で実行されるテレビ映像表示切替処理を示すフローチャートである。It is a flowchart which shows the television image display switching process performed with the portable terminal device which concerns on 2nd Embodiment.

以下、図面を参照して実施の形態について説明する。
[第1の実施の形態]
第1の実施の形態の携帯端末装置について図1を用いて説明する。
Hereinafter, embodiments will be described with reference to the drawings.
[First Embodiment]
A portable terminal device according to the first embodiment will be described with reference to FIG.

図1は、第1の実施の形態に係る携帯端末装置の概念図である。
携帯端末装置1は、図1に示すように、放送受信部2と、表示部3、場面情報保持部4、放送処理部5、場面判定部6、放送通知部7を備える。
FIG. 1 is a conceptual diagram of the mobile terminal device according to the first embodiment.
As shown in FIG. 1, the mobile terminal device 1 includes a broadcast receiving unit 2, a display unit 3, a scene information holding unit 4, a broadcast processing unit 5, a scene determination unit 6, and a broadcast notification unit 7.

放送受信部2は、放送信号を受信する、例えば、チューナである。
表示部3は、携帯端末装置1で実行される処理結果、放送受信部2が受信した放送内容等を表示する、例えば、ディスプレイである。
The broadcast receiving unit 2 is, for example, a tuner that receives a broadcast signal.
The display unit 3 is, for example, a display that displays the processing results executed by the mobile terminal device 1, the broadcast content received by the broadcast receiving unit 2, and the like.

場面情報保持部4は、ユーザが視聴対象とする放送場面に含まれる、少なくとも音または画像を表す場面情報を予め保持する。
例えば、野球放送において、ある選手の打席の場面(シーン)では、実況アナウンサーから、その選手の名前が読み上げられることが考えられる。そこで、ユーザは、その選手の打席を視聴したい場合には、当該選手の打席のシーンに含まれる場面情報として、当該選手の名前(その発音)を場面情報保持部4に予め設定しておく。また、サッカー放送において、試合開始時には、審判によりキックオフの笛が吹かれると、観客から歓声が上がることがある。そこで、ユーザは、サッカーの試合の開始から視聴したい場合には、試合開始のシーンに含まれる場面情報として、笛の音(または歓声)を場面情報保持部4に予め設定しておく。また、別の例として、歌番組において、歌手が歌うシーンでは、その歌手が歌う際に司会による曲紹介において、その歌手の名前、歌われる歌詞のタイトルが読み上げられ、その歌手が映されることが考えられる。そこで、ユーザは、その歌手が歌うところを視聴したい場合には、当該歌手が歌うシーンに含まれる場面情報として、その歌手の名前(その発音)(または、その歌手が歌う歌の歌詞(その発音))、その歌手の顔の画像等を場面情報保持部4に予め設定しておく。このように場面情報保持部4が保持する場面情報には、名前、歌詞等の発音といったキーワード音、並びに笛の音、歓声等の背景音を有する音声情報と、顔等の画像を有する画像情報とが含まれる。
The scene information holding unit 4 holds in advance scene information representing at least a sound or an image included in a broadcast scene to be viewed by the user.
For example, in a baseball broadcast, in a player's batting scene (scene), it is conceivable that the name of the player is read out from an actual announcer. Therefore, when the user wants to watch the player's at-bat, the user's name (its pronunciation) is preset in the scene information holding unit 4 as scene information included in the player's at-bat scene. In addition, in soccer broadcasts, when a kickoff whistle is blown by the referee at the start of a match, the audience may cheer. Therefore, when the user wants to watch from the start of the soccer game, a sound of a whistle (or cheer) is preset in the scene information holding unit 4 as scene information included in the game start scene. As another example, in a song program where a singer sings, when the singer sings, the name of the singer and the title of the sung lyrics are read out in the introduction of the song by the host, and the singer is reflected Can be considered. Therefore, when the user wants to watch the singer sing, as the scene information included in the scene sung by the singer, the name of the singer (its pronunciation) (or the lyrics of the song sung by the singer (its pronunciation) )), An image of the singer's face is set in the scene information holding unit 4 in advance. As described above, the scene information held by the scene information holding unit 4 includes keyword information such as pronunciation of names, lyrics, and the like, voice information including background sounds such as whistle sounds and cheers, and image information including images such as faces. And are included.

放送処理部5は、放送受信部2が受信した放送信号を処理して、音声情報と映像情報とを具備する放送情報を取得する。
場面判定部6は、放送処理部5が取得した放送情報に、視聴対象の放送場面に含まれる、少なくとも音または画像を表す場面情報が含まれているか否かを判定する。例えば、場面判定部6は、放送処理部5が取得した放送情報に、場面情報保持部4が保持する予め設定した場面情報が含まれているか否かを判定する。
The broadcast processing unit 5 processes the broadcast signal received by the broadcast receiving unit 2 and acquires broadcast information including audio information and video information.
The scene determination unit 6 determines whether the broadcast information acquired by the broadcast processing unit 5 includes at least scene information representing a sound or an image included in the broadcast scene to be viewed. For example, the scene determination unit 6 determines whether or not the broadcast information acquired by the broadcast processing unit 5 includes preset scene information held by the scene information holding unit 4.

放送通知部7は、場面判定部6が放送情報に場面情報が含まれていることを判定すると、放送場面が放送されていることを通知する。放送通知部7による通知は、例えば、表示部3にその旨を表示させ、また、図示しないスピーカからその旨の案内を出力させて通知することができる。   When the scene determination unit 6 determines that the scene information is included in the broadcast information, the broadcast notification unit 7 notifies that the broadcast scene is being broadcast. The notification by the broadcast notification unit 7 can be notified by, for example, displaying the fact on the display unit 3 and outputting a guidance to that effect from a speaker (not shown).

なお、携帯端末装置1が有する放送処理部5と、場面判定部6、放送通知部7は、例えば、携帯端末装置1が備える中央処理装置(CPU:Central Processing Unit)によりプログラムが実行されることにより実現される。   Note that the broadcast processing unit 5, the scene determination unit 6, and the broadcast notification unit 7 included in the mobile terminal device 1 are executed by a central processing unit (CPU) provided in the mobile terminal device 1, for example. Is realized.

次に、このような携帯端末装置1により実行される放送通知方法について図1並びに図2を用いて説明する。
図2は、第1の実施の形態に係る携帯端末装置の放送場面の通知方法を説明するための図である。
Next, a broadcast notification method executed by the mobile terminal device 1 will be described with reference to FIGS. 1 and 2.
FIG. 2 is a diagram for explaining a broadcast scene notification method of the mobile terminal device according to the first embodiment.

なお、図2(A)では、携帯端末装置1が受信したメールを、図2(B)では、指定した放送場面(シーン)が放送されていることの通知を、図2(C)では、指定した放送場面が放送されているテレビ映像をそれぞれ表示部3に表示した場合を示している。   In FIG. 2A, a mail received by the mobile terminal device 1 is shown, in FIG. 2B, a notification that a designated broadcast scene is being broadcast, and in FIG. A case is shown in which a television image on which a designated broadcast scene is broadcast is displayed on the display unit 3.

また、携帯端末装置1では、テレビ視聴アプリケーションによるテレビ視聴機能をバックグラウンドで起動しておく。なお、起動しておくテレビのチャンネルは、野球放送が放送されるチャンネルとするが、指定情報にチャンネル種別を追加し、複数チャンネルを対象に、場面判定後にテレビの視聴機能を起動するようにしてもよい。また、携帯端末装置1の場面情報保持部4では、例えば、当該野球放送で、ある野球選手の打席を視聴するために、当該選手の名前(その発音)が予め指定(登録)されている。   Moreover, in the portable terminal device 1, the television viewing function by the television viewing application is activated in the background. The TV channel to be activated is the channel on which the baseball broadcast is broadcast, but the channel type is added to the specified information, and the TV viewing function is activated after scene determination for multiple channels. Also good. Further, in the scene information holding unit 4 of the mobile terminal device 1, for example, in order to view a baseball player's bat at the baseball broadcast, the name (pronunciation) of the player is designated (registered) in advance.

このような状態の携帯端末装置1がメールを受信すると、ユーザは、携帯端末装置1を操作して、図2(A)に示すように、受信したメールを表示部3に表示させて、メールを閲覧する。   When the mobile terminal device 1 in such a state receives the mail, the user operates the mobile terminal device 1 to display the received mail on the display unit 3 as shown in FIG. Browse.

この際、携帯端末装置1の放送受信部2は野球放送の放送信号を受信し、放送処理部5は、その放送信号から、音声情報と映像情報とを具備する放送情報を取得する。
場面判定部6は、放送処理部5が取得した放送情報(音声情報)に、場面情報保持部4に登録している野球選手の名前(その発音)が含まれていることを判定する。すると、放送通知部7は、図2(B)に示すように、表示部3にその旨を表示させる。図2(B)の場合には、指定したシーンが放送されていることの案内とともに、当該シーンのテレビ映像への表示の切り替えを受け付けるボタンも表示している。
At this time, the broadcast receiving unit 2 of the mobile terminal device 1 receives a broadcast signal of a baseball broadcast, and the broadcast processing unit 5 acquires broadcast information including audio information and video information from the broadcast signal.
The scene determination unit 6 determines that the broadcast information (audio information) acquired by the broadcast processing unit 5 includes the name (pronunciation) of the baseball player registered in the scene information holding unit 4. Then, the broadcast notification part 7 displays that on the display part 3, as shown to FIG. 2 (B). In the case of FIG. 2 (B), a button for accepting switching of the display of the scene to the TV image is displayed together with guidance that the designated scene is being broadcast.

ユーザは、当該シーンのテレビ映像に表示を切り替える場合には、表示部3の「視聴する」のボタン(図2(B))をタッチすると、表示部3に、図2(C)に示すように、指定した野球選手が打席に立っているシーンが表示される。これで、ユーザは、指定していた選手の打席のシーンを見逃さずに視聴することができる。   When the user switches the display to the TV image of the scene, when the user touches the “view” button (FIG. 2B) on the display unit 3, the display unit 3 is displayed as shown in FIG. The scene in which the designated baseball player is standing at the bat is displayed. Thus, the user can watch without missing the at-bat scene of the designated player.

上記携帯端末装置1では、場面判定部6により、放送処理部5が取得した放送情報に、視聴対象の放送場面に含まれる、少なくとも音または画像を表す場面情報が含まれているか否かを判定し、放送通知部7により、場面判定部6が放送情報に場面情報が含まれていることを判定すると、放送場面が放送されていることが通知される。   In the mobile terminal device 1, the scene determination unit 6 determines whether the broadcast information acquired by the broadcast processing unit 5 includes at least scene information representing a sound or an image included in the broadcast scene to be viewed. When the broadcast notification unit 7 determines that the scene information is included in the broadcast information, the broadcast notification unit 7 notifies that the broadcast scene is being broadcast.

これにより、ユーザは、指定した放送場面が放送されていることが分かり、テレビ映像に表示を切り替えることができ、当該放送場面を逃すことなく視聴することができるようになる。   As a result, the user can recognize that the designated broadcast scene is being broadcast, and can switch the display to a television image, and can view the broadcast scene without missing it.

[第2の実施の形態]
第2の実施の形態では、第1の実施の形態の携帯端末装置についてより具体的に説明する。
[Second Embodiment]
In the second embodiment, the mobile terminal device of the first embodiment will be described more specifically.

まず、第2の実施の形態の携帯端末装置について図3を用いて説明する。
図3は、第2の実施の形態に係る携帯端末装置のハードウェア構成の一例を示す図である。
First, the portable terminal device of 2nd Embodiment is demonstrated using FIG.
FIG. 3 is a diagram illustrating an example of a hardware configuration of the mobile terminal device according to the second embodiment.

なお、図3(A)は、携帯端末装置100の正面図を、図3(B)は携帯端末装置100に内蔵されているハードウェア構成をそれぞれ示している。
携帯端末装置100には、図3に示されるように、装置全体を制御する制御ユニット200と、ディスプレイ310及びタッチパネル320を備える表示ユニット300、テレビの放送信号を、アンテナ400aを介して受信して、音声情報及び映像情報に復号するチューナ部400、撮像を行う撮像部500、スピーカ部600、マイクロフォン部700を備える。
3A shows a front view of the mobile terminal device 100, and FIG. 3B shows a hardware configuration built in the mobile terminal device 100.
As shown in FIG. 3, the mobile terminal device 100 receives a control unit 200 for controlling the entire device, a display unit 300 including a display 310 and a touch panel 320, and a television broadcast signal via an antenna 400a. A tuner unit 400 that decodes audio information and video information, an imaging unit 500 that performs imaging, a speaker unit 600, and a microphone unit 700.

制御ユニット200には、さらに、CPU200aと、メモリ部200b、フラッシュメモリ200c、グラフィック処理部200d、入出力インタフェース部200e、無線通信処理部200f、音声処理部200gを互いにバス200hで接続して備えている。   The control unit 200 further includes a CPU 200a, a memory unit 200b, a flash memory 200c, a graphic processing unit 200d, an input / output interface unit 200e, a wireless communication processing unit 200f, and an audio processing unit 200g connected to each other via a bus 200h. Yes.

CPU200aは、メモリ部200bの記憶媒体に記憶された各種プログラムを実行することにより、この携帯端末装置100全体を統括的に制御する。
メモリ部200bは、例えば、RAM(Random Access Memory)であって、CPU200aに実行させるOS(Operating System)並びにプログラムの少なくとも一部が一時的に格納される。メモリ部200bには、CPU200aによる処理に必要な各種データが格納される。また、CPU200aによる処理に必要なプログラムが起動されると、当該プログラムが読み込まれる。
The CPU 200a performs overall control of the entire mobile terminal device 100 by executing various programs stored in the storage medium of the memory unit 200b.
The memory unit 200b is, for example, a RAM (Random Access Memory), and temporarily stores an OS (Operating System) to be executed by the CPU 200a and at least a part of the program. The memory unit 200b stores various data necessary for processing by the CPU 200a. Further, when a program necessary for processing by the CPU 200a is started, the program is read.

フラッシュメモリ200cは、携帯端末装置100上のOSやアプリケーションのプログラムが格納される。また、フラッシュメモリ200cには、CPU200aによる処理に必要な各種データ、CPU200aで生成される各種データが格納される。   The flash memory 200c stores the OS and application programs on the mobile terminal device 100. The flash memory 200c stores various data necessary for processing by the CPU 200a and various data generated by the CPU 200a.

グラフィック処理部200dには、表示手段である、図3の表示ユニット300のディスプレイ310の表示装置が接続されている。このグラフィック処理部200dは、CPU200aからの命令にしたがって、表示ユニット300のディスプレイ310の表示画面上に画像を表示させる。   The graphic processing unit 200d is connected to a display device of the display 310 of the display unit 300 in FIG. The graphic processing unit 200d displays an image on the display screen of the display 310 of the display unit 300 in accordance with a command from the CPU 200a.

入出力インタフェース部200eには、表示ユニット300のタッチパネル320と、アンテナ400aが接続されたチューナ部400、レンズ510(図3(A))を備える撮像部500とが接続されている。入出力インタフェース部200eは、これらの各部からの信号を、バス200hを介してCPU200aに送信する。   The input / output interface unit 200e is connected to the touch panel 320 of the display unit 300, the tuner unit 400 to which the antenna 400a is connected, and the imaging unit 500 including the lens 510 (FIG. 3A). The input / output interface unit 200e transmits signals from these units to the CPU 200a via the bus 200h.

無線通信処理部200fは、アンテナ200faが接続されており、無線通信のためのRF(Radio Frequency)回路や、送受信信号の変復調回路などを備える。携帯端末装置100は、無線通信処理部200f及びアンテナ200faを介して基地局と無線通信することで、他の携帯端末装置等の情報処理機器との間でデータの送受信や音声通話を行うことが可能になる。   The wireless communication processing unit 200f is connected to an antenna 200fa and includes an RF (Radio Frequency) circuit for wireless communication, a modulation / demodulation circuit for a transmission / reception signal, and the like. The mobile terminal device 100 can perform data transmission / reception and voice communication with information processing devices such as other mobile terminal devices by wireless communication with the base station via the wireless communication processing unit 200f and the antenna 200fa. It becomes possible.

音声処理部200gは、スピーカ部600及びマイクロフォン部700が接続されている。音声処理部200gは、通話が行われる際、マイクロフォン部700によって収音された音声信号をエンコードして、無線通信処理部200fに供給する。これとともに、音声処理部200gは、無線通信処理部200fによって受信電波から復調された音声信号をデコードして増幅し、通話音声をスピーカ部600に再生出力させる。   The audio processing unit 200g is connected to the speaker unit 600 and the microphone unit 700. The voice processing unit 200g encodes the voice signal collected by the microphone unit 700 and supplies the encoded voice signal to the wireless communication processing unit 200f when a call is performed. At the same time, the audio processing unit 200g decodes and amplifies the audio signal demodulated from the received radio wave by the radio communication processing unit 200f, and causes the speaker unit 600 to reproduce and output the call audio.

以上のハードウェア構成によって、本実施の形態の処理機能を実現することができる。
次に、このようなハードウェア構成を有する携帯端末装置100においてCPU200aがプログラムを実行することにより実現される機能について図4及び図5を用いて説明する。
With the above hardware configuration, the processing functions of the present embodiment can be realized.
Next, functions realized by the CPU 200a executing a program in the mobile terminal device 100 having such a hardware configuration will be described with reference to FIGS.

図4は、第2の実施の形態に係る携帯端末装置が備える機能を示す機能ブロック図である。
図5は、第2の実施の形態に係る携帯端末装置が備える情報を示す図であり、図5(A)は検出背景音情報保持部201、図5(B)は検出キーワード音情報保持部202、図5(C)は検出画像情報保持部203がそれぞれ保持する情報を示している。
FIG. 4 is a functional block diagram illustrating functions provided in the mobile terminal device according to the second embodiment.
FIG. 5 is a diagram illustrating information included in the mobile terminal device according to the second embodiment. FIG. 5A illustrates a detected background sound information holding unit 201, and FIG. 5B illustrates a detected keyword sound information holding unit. 202 and FIG. 5C show information held by the detected image information holding unit 203.

携帯端末装置100は、まず、図4に示されるように、検出背景音情報保持部201と、検出キーワード音情報保持部202、検出画像情報保持部203を備える。
これらの各保持部は、図5に示されるような情報をそれぞれ保持している。
First, the mobile terminal device 100 includes a detected background sound information holding unit 201, a detected keyword sound information holding unit 202, and a detected image information holding unit 203, as shown in FIG.
Each of these holding units holds information as shown in FIG.

検出背景音情報保持部201は、図5(A)に示すように、例えば、歓声、ため息、拍手、ブーイング等の背景に流れる音に関する音声情報(背景音テーブル)を保持している。また、検出背景音情報保持部201では、視聴対象の放送場面に含まれる検出対象の背景音の一例として、「歓声」が設定されている。なお、背景音テーブルの音声情報としては、例えば、一般的な歓声、拍手、ブーイング等に対応する音の強さ(デシベル)の値が登録される。   As shown in FIG. 5A, the detected background sound information holding unit 201 holds sound information (background sound table) related to sounds flowing in the background such as cheers, sighs, applause, and boos. In the detected background sound information holding unit 201, “cheer” is set as an example of the background sound to be detected included in the broadcast scene to be viewed. Note that, as the sound information of the background sound table, for example, a value of sound intensity (decibel) corresponding to general cheers, applause, booing, and the like is registered.

検出キーワード音情報保持部202は、図5(B)に示されるように、例えば、ABC、DEFGといった選手名、HIJKといった歌手名等の人名、LMNOといったある番組のコーナ名等の単語の発音の音声情報(キーワード音テーブル)を保持している。また、検出キーワード音情報保持部202では、視聴対象の放送場面に含まれる検出対象のキーワード音の一例として、「ABC(選手名)」が設定されている。   As shown in FIG. 5B, the detected keyword sound information holding unit 202, for example, pronounces words such as names of players such as ABC and DEFG, names of singers such as HIJK, and corner names of a program such as LMNO. Holds voice information (keyword sound table). In the detected keyword sound information holding unit 202, “ABC (player name)” is set as an example of the keyword sound to be detected included in the broadcast scene to be viewed.

検出画像情報保持部203は、図5(C)に示されるように、検出キーワード音情報保持部202に対応して、選手のABC,DEFGの顔と、歌手のHIJKの顔とのそれぞれの画像情報(画像テーブル)を保持している。また、検出画像情報保持部203では、視聴対象の放送場面に含まれる検出対象の画像の一例として、「ABC(選手名)」が設定されている。なお、検出画像情報保持部203では、検出キーワード音情報保持部202が保持する選手名に対応した当該選手名の顔画像を保持させているが、検出キーワード音情報保持部202が保持する単語に対応した画像を保持させていることができる。また、検出画像情報保持部203は、検出キーワード音情報保持部202が保持する単語とは関わりがない画像を保持させることも可能である。   As shown in FIG. 5C, the detected image information holding unit 203 corresponds to the detected keyword sound information holding unit 202, and each image of the player's ABC, DEFG's face and the singer's HIJK's face. It holds information (image table). Further, in the detected image information holding unit 203, “ABC (player name)” is set as an example of an image to be detected included in the broadcast scene to be viewed. The detected image information holding unit 203 holds the face image of the player name corresponding to the player name held by the detected keyword sound information holding unit 202. Corresponding images can be held. The detected image information holding unit 203 can also hold an image that is not related to the words held by the detected keyword sound information holding unit 202.

また、検出背景音情報保持部201と、検出キーワード音情報保持部202、検出画像情報保持部203には、事前にユーザにより音声情報並びに画像情報が登録される。なお、これらの情報は、例えば、携帯端末装置100によりインターネットにアクセスし、サンプルとなるような背景音、画像等をダウンロードして登録することも可能である。また、検出対象とする放送場面に含まれる各情報もユーザにより事前に設定される。例えば、ユーザがある野球選手の打席のシーンを視聴したい場合には、野球放送ではその選手が打席に入る際には、その選手が映されて、その選手の名前(「ABC」)が呼ばれ、歓声が上がることを想定し、検出背景音情報保持部201では「歓声」が、検出キーワード音情報保持部202では「ABC(選手名)」が、検出画像情報保持部203では「ABC(選手名)の顔画像」が検出対象として設定されている。また、別の例えとして、ユーザが歌番組で3人組のある歌手グループが歌うシーンを視聴したい場合には、その3人が同時に映されることを想定し、検出画像情報保持部203では、それぞれ3人の顔画像(図5では不図示)を検出対象として設定する。   In addition, audio information and image information are registered in advance in the detected background sound information holding unit 201, the detected keyword sound information holding unit 202, and the detected image information holding unit 203. The information can be registered by, for example, accessing the Internet with the mobile terminal device 100 and downloading and registering background sounds, images, and the like as samples. Each information included in the broadcast scene to be detected is also set in advance by the user. For example, when a user wants to watch a batting scene of a baseball player, when the player enters the batting baseball broadcast, the player is shown and the player's name (“ABC”) is called. Assuming that the cheering goes up, “Cheer” is detected in the detected background sound information holding unit 201, “ABC (player name)” is detected in the detected keyword sound information holding unit 202, and “ABC (player) is detected in the detected image information holding unit 203. Name) ”is set as the detection target. As another example, when a user wants to watch a scene sung by a group of three singers in a song program, the detected image information holding unit 203 assumes that the three are shown simultaneously, Three face images (not shown in FIG. 5) are set as detection targets.

携帯端末装置100は、さらに、音声抽出部204と、映像抽出部205、背景音判定処理部206、キーワード音判定処理部207、画像判定処理部208、放送通知制御部209、表示制御部210の機能を備える。   The mobile terminal device 100 further includes an audio extraction unit 204, a video extraction unit 205, a background sound determination processing unit 206, a keyword sound determination processing unit 207, an image determination processing unit 208, a broadcast notification control unit 209, and a display control unit 210. It has a function.

音声抽出部204は、チューナ部400がアンテナ400aを介して受信した放送信号から復号した音声信号及び映像信号のうち、音声信号を抽出する。
映像抽出部205は、チューナ部400がアンテナ400aを介して受信した放送信号から復号した音声信号及び映像信号のうち、映像信号を抽出する。
The audio extraction unit 204 extracts an audio signal from the audio signal and the video signal decoded from the broadcast signal received by the tuner unit 400 via the antenna 400a.
The video extraction unit 205 extracts a video signal from the audio signal and video signal decoded from the broadcast signal received by the tuner unit 400 via the antenna 400a.

背景音判定処理部206は、検出背景音情報保持部201を参照して、音声抽出部204が抽出した音声信号に、検出背景音情報保持部201において検出対象として設定した背景音が含まれているか否かを判定する。   The background sound determination processing unit 206 refers to the detected background sound information holding unit 201 and includes the background sound set as the detection target in the detected background sound information holding unit 201 in the sound signal extracted by the sound extraction unit 204. It is determined whether or not.

キーワード音判定処理部207は、検出キーワード音情報保持部202を参照して、音声抽出部204が抽出した音声信号に、検出キーワード音情報保持部202において検出対象として設定したキーワード音が含まれているか否かを判定する。   The keyword sound determination processing unit 207 refers to the detected keyword sound information holding unit 202, and the keyword signal set as the detection target in the detected keyword sound information holding unit 202 is included in the sound signal extracted by the sound extraction unit 204. It is determined whether or not.

画像判定処理部208は、検出画像情報保持部203を参照して、映像抽出部205が抽出した映像信号に、検出画像情報保持部203において検出対象として設定した顔画像が含まれているか否かを判定する。   The image determination processing unit 208 refers to the detected image information holding unit 203 and determines whether or not the video signal extracted by the video extracting unit 205 includes a face image set as a detection target in the detected image information holding unit 203. Determine.

放送通知制御部209は、検出背景音情報保持部201と、検出キーワード音情報保持部202、検出画像情報保持部203から、検出対象として設定されている背景音、キーワード音、顔画像を読み取る。また、放送通知制御部209は、背景音判定処理部206と、キーワード音判定処理部207、画像判定処理部208の判定結果に基づき、ユーザの視聴対象の放送場面(シーン)が放送されていることを表示制御部210に通知する。   The broadcast notification control unit 209 reads background sounds, keyword sounds, and face images set as detection targets from the detected background sound information holding unit 201, the detected keyword sound information holding unit 202, and the detected image information holding unit 203. The broadcast notification control unit 209 broadcasts broadcast scenes (scenes) to be viewed by the user based on the determination results of the background sound determination processing unit 206, the keyword sound determination processing unit 207, and the image determination processing unit 208. This is notified to the display control unit 210.

表示制御部210は、放送通知制御部209からの放送通知を受信すると、切り替え設定が手動であれば、表示設定が視聴対象の放送場面(シーン)が放送されている旨のメッセージの表示を行い、タッチパネル320を介して切り替え操作がなされたならば、ディスプレイ310の表示をテレビ映像に切り替える。   Upon receiving the broadcast notification from the broadcast notification control unit 209, the display control unit 210 displays a message indicating that the broadcast setting (scene) to be viewed is broadcast if the switching setting is manual. If the switching operation is performed via the touch panel 320, the display 310 is switched to the television image.

次に、このような機能を有する携帯端末装置100で実行される放送場面が放送されていることを通知する放送通知処理について図6及び図7を用いて説明する。
図6及び図7は、第2の実施の形態に係る携帯端末装置で実行される放送通知処理を示すフローチャートである。
Next, a broadcast notification process for notifying that a broadcast scene executed by the mobile terminal device 100 having such a function is being broadcast will be described with reference to FIGS. 6 and 7.
FIG.6 and FIG.7 is a flowchart which shows the broadcast notification process performed with the portable terminal device which concerns on 2nd Embodiment.

携帯端末装置100では、放送通知処理を実行する前に、ユーザからのタッチパネル320に対する操作入力に基づき、図5に示されるように、検出背景音情報保持部201と、検出キーワード音情報保持部202、検出画像情報保持部203に任意の背景音と、キーワード音、顔画像がそれぞれ登録される。また、登録した中から、視聴対象の放送場面(シーン)に含まれると考えられるものに、検出対象であること(「ON」)が設定される。   In the mobile terminal device 100, before executing the broadcast notification process, based on the operation input from the user to the touch panel 320, as shown in FIG. 5, the detected background sound information holding unit 201 and the detected keyword sound information holding unit 202 are displayed. Arbitrary background sounds, keyword sounds, and face images are registered in the detected image information holding unit 203, respectively. In addition, among the registered items, what is considered to be included in the broadcast scene (scene) to be viewed is set as a detection target (“ON”).

このような初期設定後、携帯端末装置100は、放送信号を、アンテナ400aを介してチューナ部400で受信するごとに以下の処理が実行される。
[ステップS11] 放送通知制御部209は、検出背景音情報保持部201と、検出キーワード音情報保持部202、検出画像情報保持部203を参照し、各保持部の検出設定状況を読み取る。
After such an initial setting, the mobile terminal device 100 executes the following process every time the tuner unit 400 receives a broadcast signal via the antenna 400a.
[Step S11] The broadcast notification control unit 209 refers to the detected background sound information holding unit 201, the detected keyword sound information holding unit 202, and the detected image information holding unit 203, and reads the detection setting status of each holding unit.

例えば、図5の場合には、検出背景音情報保持部201からは検出設定されている「歓声」、検出キーワード音情報保持部202及び検出画像情報保持部203からは「ABC(選手名)」及び「ABC(選手名)の顔画像」が読み取られる。   For example, in the case of FIG. 5, “cheer” detected and set from the detected background sound information holding unit 201, and “ABC (player name)” from the detected keyword sound information holding unit 202 and the detected image information holding unit 203. And “ABC (player name) face image” are read.

[ステップS12] 放送通知制御部209は、ステップS11で少なくとも1つの検出設定を読み取ったか否かを判定する。
次の処理は、検出設定が少なくとも1つ読み取られた場合にはステップS13の処理が実行され、検出設定が1つも読み取られていない(検出設定無し)場合には、放送通知処理が終了される。
[Step S12] The broadcast notification control unit 209 determines whether or not at least one detection setting has been read in step S11.
In the next process, when at least one detection setting is read, the process of step S13 is executed. When no detection setting is read (no detection setting), the broadcast notification process is terminated. .

例えば、図5の場合には、検出背景音情報保持部201には「歓声」が、検出キーワード音情報保持部202及び検出画像情報保持部203には「ABC(選手名)」及び「ABC(選手名)の顔画像」が設定されていることから、読み取った検出設定が少なくとも1つあることが判定されて、ステップS13の処理が実行される。   For example, in the case of FIG. 5, “Cheer” is stored in the detected background sound information holding unit 201, and “ABC (player name)” and “ABC (” are stored in the detected keyword sound information holding unit 202 and the detected image information holding unit 203. Since “face image of (player name)” is set, it is determined that there is at least one detected detection setting, and the process of step S13 is executed.

[ステップS13] 背景音判定処理部206は、検出背景音情報保持部201を参照し、検出設定(「ON」)が含まれているか否かを判定する。
次の処理は、検出設定が含まれている場合にはステップS14の処理が実行され、検出設定が含まれていない場合にはステップS17の処理が実行される。
[Step S13] The background sound determination processing unit 206 refers to the detected background sound information holding unit 201 and determines whether or not a detection setting (“ON”) is included.
In the next process, when the detection setting is included, the process of step S14 is executed, and when the detection setting is not included, the process of step S17 is executed.

例えば、図5の場合には、検出背景音情報保持部201の「歓声」が検出対象として設定されている(検出設定を含む)ために、ステップS14の処理が実行される。
[ステップS14] 背景音判定処理部206は、音声抽出部204が抽出した放送信号の音声信号から背景音の解析を実行する。
For example, in the case of FIG. 5, since “cheer” in the detected background sound information holding unit 201 is set as a detection target (including detection setting), the process of step S14 is executed.
[Step S14] The background sound determination processing unit 206 performs background sound analysis from the audio signal of the broadcast signal extracted by the audio extraction unit 204.

[ステップS15] 背景音判定処理部206は、ステップS14で解析した背景音に、検出背景音情報保持部201で検出設定した背景音が含まれているか否かを判定する。
次の処理は、ステップS14で解析した背景音に、検出背景音情報保持部201で検出設定した背景音が含まれている場合には、ステップS25に進められ、含まれていない場合には、ステップS16に進められる。
[Step S15] The background sound determination processing unit 206 determines whether the background sound analyzed in step S14 includes the background sound detected and set by the detected background sound information holding unit 201.
The next process proceeds to step S25 when the background sound analyzed at step S14 includes the background sound detected and set by the detected background sound information holding unit 201. When the background sound is not included, The process proceeds to step S16.

[ステップS16] 背景音判定処理部206は、検出背景音情報保持部201において全ての検出設定した背景音に対する、解析した背景音との判定が終了したか否かを判定する。   [Step S16] The background sound determination processing unit 206 determines whether or not the determination of the background sound analyzed for all the background sounds detected and set in the detected background sound information holding unit 201 is completed.

次の処理は、全ての検出設定した背景音の判定が終了していない場合には、再び、ステップS14の処理が実行され、判定が終了している場合には、ステップS17の処理が実行される。   In the next process, if all the detected background sounds have not been determined, the process of step S14 is executed again. If the determination has been completed, the process of step S17 is executed. The

[ステップS17] キーワード音判定処理部207は、検出キーワード音情報保持部202を参照し、検出設定(「ON」)が含まれているか否かを判定する。
検出設定が含まれている場合にはステップS18の処理が実行され、検出設定が含まれていない場合にはステップS21の処理が実行される。
[Step S17] The keyword sound determination processing unit 207 refers to the detected keyword sound information holding unit 202 and determines whether or not a detection setting (“ON”) is included.
If the detection setting is included, the process of step S18 is executed. If the detection setting is not included, the process of step S21 is executed.

例えば、図5の場合には、検出キーワード音情報保持部202の「ABC(選手名)」が検出対象として設定されている(検出設定を含む)ために、ステップS18の処理が実行される。   For example, in the case of FIG. 5, since “ABC (player name)” in the detected keyword sound information holding unit 202 is set as a detection target (including detection setting), the process of step S18 is executed.

[ステップS18] キーワード音判定処理部207は、音声抽出部204が抽出した放送信号の音声信号からキーワード音の解析を実行する。
[ステップS19] キーワード音判定処理部207は、ステップS18で解析したキーワード音に、検出キーワード音情報保持部202で検出設定したキーワード音に関する情報が含まれているか否かを判定する。
[Step S18] The keyword sound determination processing unit 207 executes an analysis of the keyword sound from the sound signal of the broadcast signal extracted by the sound extraction unit 204.
[Step S19] The keyword sound determination processing unit 207 determines whether or not the keyword sound analyzed in step S18 includes information on the keyword sound detected and set by the detected keyword sound information holding unit 202.

次の処理は、ステップS18で解析したキーワード音に、検出キーワード音情報保持部202で検出設定したキーワード音に関する情報が含まれている場合には、ステップS25に進められ、含まれていない場合には、ステップS20に進められる。   The next process proceeds to step S25 if the keyword sound analyzed in step S18 includes information about the keyword sound detected and set by the detected keyword sound information holding unit 202. If the keyword sound is not included, Advances to step S20.

[ステップS20] キーワード音判定処理部207は、検出キーワード音情報保持部202において全ての検出設定したキーワード音に対する、解析したキーワード音との判定が終了したか否かを判定する。   [Step S20] The keyword sound determination processing unit 207 determines whether or not the keyword sound analyzed for all the keyword sounds detected and set in the detected keyword sound information holding unit 202 has been determined.

次の処理は、全ての検出設定したキーワード音の判定が終了していない場合には、再び、ステップS18の処理が実行され、判定が終了している場合には、ステップS21の処理が実行される。   In the next process, if the determination of all detected and set keyword sounds has not been completed, the process of step S18 is executed again. If the determination has been completed, the process of step S21 is executed. The

[ステップS21] 画像判定処理部208は、検出画像情報保持部203を参照し、検出設定(「ON」)が含まれているか否かを判定する。
次の処理は、検出設定が含まれている場合にはステップS22の処理が実行され、検出設定が含まれていない場合にはステップS25の処理が実行される。
[Step S21] The image determination processing unit 208 refers to the detected image information holding unit 203 and determines whether or not a detection setting (“ON”) is included.
In the next process, when the detection setting is included, the process of step S22 is executed, and when the detection setting is not included, the process of step S25 is executed.

例えば、図5の場合には、検出画像情報保持部203の「ABC(選手名)の顔画像」が検出対象として設定されている(検出設定を含む)ために、ステップS22の処理が実行される。   For example, in the case of FIG. 5, since “ABC (player name) face image” of the detected image information holding unit 203 is set as a detection target (including detection setting), the process of step S <b> 22 is executed. The

[ステップS22] 画像判定処理部208は、映像抽出部205が抽出した放送信号の画像信号から顔画像の解析を実行する。
[ステップS23] 画像判定処理部208は、ステップS22で解析した顔画像に、検出画像情報保持部203で検出設定した顔画像に関する情報が含まれているか否かを判定する。
[Step S <b> 22] The image determination processing unit 208 analyzes the face image from the image signal of the broadcast signal extracted by the video extraction unit 205.
[Step S23] The image determination processing unit 208 determines whether or not the face image analyzed in step S22 includes information related to the face image detected and set by the detected image information holding unit 203.

次の処理は、ステップS22で解析した顔画像に、検出画像情報保持部203で検出設定した顔画像に関する情報が含まれている場合には、ステップS25に進められ、含まれていない場合には、ステップS24に進められる。   The next process proceeds to step S25 if the face image analyzed in step S22 includes information related to the face image detected and set by the detected image information holding unit 203, and proceeds to step S25 if it is not included. The process proceeds to step S24.

[ステップS24] 画像判定処理部208は、検出画像情報保持部203において全ての検出設定した顔画像に対する、解析した顔画像との判定が終了したか否かを判定する。   [Step S <b> 24] The image determination processing unit 208 determines whether or not the detection image information holding unit 203 has determined that all face images detected and set have been analyzed.

次の処理は、全ての検出設定した顔画像の判定が終了していない場合には、再び、ステップS22の処理が実行され、判定が終了している場合には、放送通知処理が終了される。   In the next process, if the determination of all detected face images has not been completed, the process of step S22 is executed again. If the determination has been completed, the broadcast notification process is terminated. .

[ステップS25] 放送通知制御部209は、ディスプレイ310の表示を、ユーザが視聴対象とする放送場面(シーン)が放送されていることを、(表示制御部210に)通知する。   [Step S <b> 25] The broadcast notification control unit 209 notifies (display control unit 210) that a broadcast scene (scene) to be viewed by the user is broadcast on the display 310.

以上により、放送通知処理が終了する。
次に、携帯端末装置100において、アプリケーションを実行している間に、視聴対象の放送場面が放送されている旨の通知のイベントの発生により、ディスプレイ310の表示を当該放送場面が放送されているテレビ映像に切り替えるテレビ映像表示切替処理について図8を用いて説明する。
Thus, the broadcast notification process ends.
Next, in the mobile terminal device 100, while an application is being executed, the broadcast scene is broadcast on the display 310 due to the occurrence of a notification event indicating that the broadcast scene to be viewed is being broadcast. TV video display switching processing for switching to TV video will be described with reference to FIG.

図8は、第2の実施の形態に係る携帯端末装置で実行されるテレビ映像表示切替処理を示すフローチャートである。
[ステップS31] 携帯端末装置100の制御ユニット200では、イベントの発生を待ち受ける。
FIG. 8 is a flowchart showing a television video display switching process executed by the mobile terminal device according to the second embodiment.
[Step S31] The control unit 200 of the mobile terminal device 100 waits for an event to occur.

イベントとしては、例えば、メールの受信・送信・作成、ブラウザの起動、その他のアプリケーションの起動等である。
[ステップS32] 携帯端末装置100の制御ユニット200は、ステップS31でイベントが発生したか否かを判定する。
The event includes, for example, reception / transmission / creation of mail, activation of a browser, activation of other applications, and the like.
[Step S32] The control unit 200 of the mobile terminal device 100 determines whether or not an event has occurred in step S31.

イベントが発生していない場合ステップS31へ進み、イベントが発生すると、ステップS33の処理が実行される。
[ステップS33] 携帯端末装置100の制御ユニット200は、ステップS32で発生を判定したイベントが、図6及び図7の処理で発生した放送通知のイベントか否かを判定する。
If no event has occurred, the process proceeds to step S31. If an event has occurred, the process of step S33 is executed.
[Step S <b> 33] The control unit 200 of the mobile terminal device 100 determines whether or not the event determined to be generated in step S <b> 32 is a broadcast notification event generated in the processes of FIGS. 6 and 7.

放送通知のイベントではない場合にはステップS34の処理が実行され、放送通知のイベントである場合にはステップS35の処理が実行される。
[ステップS34] 携帯端末装置100の制御ユニット200は、ステップS32で判定したイベントを実行する。
If it is not a broadcast notification event, the process of step S34 is executed, and if it is a broadcast notification event, the process of step S35 is executed.
[Step S34] The control unit 200 of the mobile terminal device 100 executes the event determined in step S32.

[ステップS35] 表示制御部210は、放送通知制御部209から放送場面が放送されている旨が通知されると(ステップS25(図7))、ディスプレイ310の表示のテレビ映像への切り替え手段の設定が自動か手動かを判定する。   [Step S35] When the broadcast notification control unit 209 notifies that the broadcast scene is being broadcast from the broadcast notification control unit 209 (step S25 (FIG. 7)), the display control unit 210 switches the display 310 display to the TV video. Determine whether the setting is automatic or manual.

次の処理は、テレビ映像への切り替え手段が手動設定されている場合にはステップS36の処理に進められ、自動設定されている場合には、ステップS38の処理に進められる。   The next process proceeds to the process of step S36 if the means for switching to the television image is set manually, and proceeds to the process of step S38 if it is automatically set.

なお、テレビ映像への切り替え手段の自動または手動の設定は、ユーザが事前にタッチパネル320に対する操作入力により行われる。
[ステップS36] 表示制御部210は、ディスプレイ310に、視聴対象の放送場面が放送されていることを表示させるとともに、当該放送場面を放送するテレビ映像への切り替えボタンを表示させる。
Note that the automatic or manual setting of the means for switching to the television image is performed by a user's operation input to the touch panel 320 in advance.
[Step S <b> 36] The display control unit 210 causes the display 310 to display that the broadcast scene to be viewed is being broadcast, and displays a switch button for switching to a television image that broadcasts the broadcast scene.

[ステップS37] 表示制御部210は、ディスプレイ310に表示している視聴対象の放送場面を放送するテレビ映像への切り替えボタンに対する操作入力を待ち受ける。
当該操作入力を受け付けると、ステップS38の処理が実行される。
[Step S <b> 37] The display control unit 210 waits for an operation input to a switch button for switching to a television image that broadcasts a broadcast scene to be viewed displayed on the display 310.
When the operation input is accepted, the process of step S38 is executed.

[ステップS38] 表示制御部210は、ディスプレイ310に視聴対象の放送場面を放送するテレビ映像を表示させる。
このようにして、ユーザは、視聴対象の放送場面を見逃すことなく、当該放送場面を視聴することができる。
[Step S38] The display control unit 210 causes the display 310 to display a television image that broadcasts a broadcast scene to be viewed.
In this way, the user can view the broadcast scene without missing the broadcast scene to be viewed.

なお、第2の実施の形態では、図5の検出背景音情報保持部201と、検出キーワード音情報保持部202、検出画像情報保持部203において、検出対象として、3種類の「歓声」と、「ABC(選手名)」、「ABC(選手名)の顔画像」を設定した場合について説明した。検出対象はこのような3種類の設定に限らず、視聴対象の放送場面に含まれるものを検出対象とすることができる。但し、検出対象は1種類よりも複数種類を設定することで、視聴対象の放送場面が放送されていることの検出精度を向上させることができる。また、検出順番も自由に変更してもかまわない。   In the second embodiment, in the detected background sound information holding unit 201, the detected keyword sound information holding unit 202, and the detected image information holding unit 203 in FIG. The case where “ABC (player name)” and “ABC (player name) face image” are set has been described. The detection target is not limited to these three types of settings, but can be a detection target included in a broadcast scene to be viewed. However, by setting a plurality of types of detection targets rather than one type, it is possible to improve the detection accuracy of the broadcast scene being viewed. Further, the detection order may be freely changed.

例えば、スポーツ放送、歌番組等で特定の選手、特定の歌手といった人物の放送場面を視聴したい場合には、検出キーワード音情報保持部202の当該人物の名前(その発音)だけでなく、検出画像情報保持部203においてその人物の顔画像を検出対象として設定することで、その人物が実際に表示されている放送場面を放送していることを精度良く検出することが可能となる。別の例として、野球またはサッカー等の競技の放送において、ホームラン、ゴール等の得点の場面を視聴したい場合には、実況アナウンサーが「ホームラン」、「ゴール」と発声することが考えられる。そこで、図5において、検出キーワード音情報保持部202では検出対象として「ホームラン」または「ゴール」(ともに不図示)を設定することが考えられる。さらに、「ホームラン」、「ゴール」の際には観客から歓声が上がることが考えられることから、検出背景音情報保持部201において、「歓声」も設定することで、実際に得点の放送場面を放送しているところを検出することが可能となる。   For example, when a user wants to watch a broadcast scene of a person such as a specific player or a specific singer in a sports broadcast, a song program, etc., not only the name (its pronunciation) of the person in the detected keyword sound information holding unit 202 but also a detected image By setting the face image of the person as a detection target in the information holding unit 203, it is possible to accurately detect that the person is broadcasting a broadcast scene that is actually displayed. As another example, when watching a scoring scene such as a home run or goal in a broadcast of a game such as baseball or soccer, it is conceivable that a live announcer says “home run” or “goal”. Therefore, in FIG. 5, it is conceivable that the detected keyword sound information holding unit 202 sets “home run” or “goal” (both not shown) as a detection target. Furthermore, since it is conceivable that cheers will be raised from the audience at the “home run” and “goal”, by setting “cheers” in the detected background sound information holding unit 201, the broadcasting scene of the score is actually set. It is possible to detect where the broadcast is taking place.

上記携帯端末装置100では、背景音判定処理部206と、キーワード音判定処理部207、画像判定処理部208により、音声抽出部204及び映像抽出部205が抽出した音声情報及び映像情報に、視聴対象の放送場面に含まれる、背景音と、キーワード音、顔画像の情報が含まれているか否かを判定する。放送通知制御部209により、これらの各判定処理部の判定状況に基づき、放送場面が放送されていることが表示制御部210に通知される。表示制御部210は、放送場面が放送されていることが通知されると、ディスプレイ310に当該放送場面を放送しているテレビ映像に表示を切り替えさせるような表示を行う。   In the mobile terminal device 100, the audio information and video information extracted by the audio extraction unit 204 and the video extraction unit 205 by the background sound determination processing unit 206, the keyword sound determination processing unit 207, and the image determination processing unit 208 are included in the viewing target. It is determined whether background sound, keyword sound, and face image information included in the broadcast scene are included. The broadcast notification control unit 209 notifies the display control unit 210 that a broadcast scene is being broadcast based on the determination status of each determination processing unit. When the display control unit 210 is notified that a broadcast scene is being broadcast, the display control unit 210 performs a display that causes the display 310 to switch the display to a television image that broadcasts the broadcast scene.

これにより、ユーザは、指定した放送場面が放送されていることが分かり、また、当該放送場面が放送されているテレビ映像に表示が切り替えられるために、当該放送場面を逃すことなく視聴することができるようになる。   As a result, the user can know that the designated broadcast scene is being broadcast, and since the display is switched to the television image on which the broadcast scene is broadcast, the user can watch the broadcast scene without missing it. become able to.

また、視聴対象の放送場面に含まれる検出設定を複数行うことで、視聴対象の放送場面が放送されていることの検出精度が向上する。
また、上記の処理機能は、コンピュータによって実現することができる。その場合、コンピュータが有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。
In addition, by performing a plurality of detection settings included in the broadcast scene to be viewed, the detection accuracy that the broadcast scene to be viewed is being broadcast is improved.
Further, the above processing functions can be realized by a computer. In that case, a program describing the processing contents of the functions that the computer should have is provided. By executing the program on a computer, the above processing functions are realized on the computer.

処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体には、磁気記憶装置、光ディスク、光磁気記憶媒体、半導体メモリ等がある。磁気記憶装置には、HDD、フレキシブルディスク(FD)、磁気テープ(MT)等がある。光ディスクには、DVD(Digital Versatile Disc)、DVD−RAM、CD−ROM(Compact Disc - Read Only Memory)、CD−R(Recordable)/RW(ReWritable)等がある。光磁気記憶媒体には、MO(Magneto - Optical disk)等がある。半導体メモリには、USB(Universal Serial Bus)メモリ等のフラッシュメモリがある。   The program describing the processing contents can be recorded on a computer-readable recording medium. Examples of the computer-readable recording medium include a magnetic storage device, an optical disk, a magneto-optical storage medium, and a semiconductor memory. Magnetic storage devices include HDDs, flexible disks (FD), magnetic tapes (MT) and the like. Optical discs include DVD (Digital Versatile Disc), DVD-RAM, CD-ROM (Compact Disc-Read Only Memory), CD-R (Recordable) / RW (ReWritable), and the like. Magneto-optical storage media include MO (Magneto-Optical disk). Semiconductor memory includes flash memory such as USB (Universal Serial Bus) memory.

上記プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD、CD−ROM等の可搬型記録媒体が販売される。また、プログラムをサーバコンピュータに格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。   When the program is distributed, for example, a portable recording medium such as a DVD or CD-ROM in which the program is recorded is sold. It is also possible to store the program in a server computer and transfer the program from the server computer to another computer via a network.

上記プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラム若しくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送される毎に、逐次、受け取ったプログラムに従った処理を実行することもできる。   The computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes processing according to the program. The computer can also read the program directly from the portable recording medium and execute processing according to the program. In addition, each time the program is transferred from the server computer, the computer can sequentially execute processing according to the received program.

また、プログラムで記述された処理の一部または全てを、電子回路に置き換えることが可能である。例えば、上記の処理機能の少なくとも一部を、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)等の電子回路で実現してもよい。   Also, part or all of the processing described by the program can be replaced with an electronic circuit. For example, at least a part of the above processing functions may be realized by an electronic circuit such as a DSP (Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), or a PLD (Programmable Logic Device).

なお、上述の実施の形態は、実施の形態の要旨を逸脱しない範囲内において種々の変更を加えることができる。   Note that various modifications can be made to the above-described embodiment without departing from the gist of the embodiment.

1 携帯端末装置
2 放送受信部
3 表示部
4 場面情報保持部
5 放送処理部
6 場面判定部
7 放送通知部
DESCRIPTION OF SYMBOLS 1 Portable terminal device 2 Broadcast receiving part 3 Display part 4 Scene information holding part 5 Broadcast processing part 6 Scene determination part 7 Broadcast notification part

Claims (6)

放送信号を受信する放送受信部と、
前記放送受信部が受信した前記放送信号を処理して、音声情報と映像情報とを具備する放送情報を取得する放送処理部と、
前記放送処理部が取得した前記放送情報に、視聴対象の放送場面に含まれる、少なくとも音または画像を表す場面情報が含まれているか否かを判定する場面判定部と、
前記場面判定部が前記放送情報に前記場面情報が含まれていることを判定すると、前記放送場面が放送されていることを通知する放送通知部と、
を有することを特徴とする携帯端末装置。
A broadcast receiver for receiving broadcast signals;
A broadcast processing unit that processes the broadcast signal received by the broadcast reception unit to obtain broadcast information including audio information and video information;
A scene determination unit that determines whether or not the broadcast information acquired by the broadcast processing unit includes scene information that represents at least a sound or an image included in a broadcast scene to be viewed;
When the scene determination unit determines that the scene information is included in the broadcast information, a broadcast notification unit that notifies that the broadcast scene is being broadcast,
A portable terminal device comprising:
表示部と、
前記放送通知部から前記放送場面が放送されていることが通知されると、前記表示部に前記放送信号に基づく映像を表示させる表示制御部と、
をさらに有することを特徴とする請求項1記載の携帯端末装置。
A display unit;
When the broadcast notification unit is notified that the broadcast scene is being broadcast, a display control unit that displays video based on the broadcast signal on the display unit;
The mobile terminal device according to claim 1, further comprising:
前記音声情報は、背景に流れる音を表す背景音と、単語の発音とを含むことを特徴とする請求項1または2に記載の携帯端末装置。   The mobile terminal apparatus according to claim 1, wherein the voice information includes a background sound representing a sound flowing in the background and a pronunciation of a word. 前記単語は人名であることを特徴とする請求項3記載の携帯端末装置。   4. The portable terminal device according to claim 3, wherein the word is a person name. 前記映像情報は、前記人名に対応する人の顔画像を含むことを特徴とする請求項4記載の携帯端末装置。   The mobile terminal device according to claim 4, wherein the video information includes a face image of a person corresponding to the person name. 放送受信部が受信した放送信号を処理して、音声情報と映像情報とを具備する放送情報を取得し、
取得した前記放送情報に、視聴対象の放送場面に含まれる、少なくとも音または画像を表す場面情報が含まれているか否かを判定し、
前記放送情報に前記場面情報が含まれていることを判定すると、前記放送場面が放送されていることを通知する、
ことを特徴とする放送通知方法。
The broadcast signal received by the broadcast receiving unit is processed to obtain broadcast information including audio information and video information,
It is determined whether or not the acquired broadcast information includes at least scene information representing a sound or an image included in a broadcast scene to be viewed,
When it is determined that the scene information is included in the broadcast information, the broadcast scene is notified that it is being broadcast.
A broadcast notification method characterized by the above.
JP2013267532A 2013-12-25 2013-12-25 Portable terminal device and broadcast notification method Pending JP2015126266A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013267532A JP2015126266A (en) 2013-12-25 2013-12-25 Portable terminal device and broadcast notification method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013267532A JP2015126266A (en) 2013-12-25 2013-12-25 Portable terminal device and broadcast notification method

Publications (1)

Publication Number Publication Date
JP2015126266A true JP2015126266A (en) 2015-07-06

Family

ID=53536727

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013267532A Pending JP2015126266A (en) 2013-12-25 2013-12-25 Portable terminal device and broadcast notification method

Country Status (1)

Country Link
JP (1) JP2015126266A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016082350A (en) * 2014-10-15 2016-05-16 みこらった株式会社 Sport competition live watching system, video collection providing device of sport competition live watching system and spectator terminal

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016082350A (en) * 2014-10-15 2016-05-16 みこらった株式会社 Sport competition live watching system, video collection providing device of sport competition live watching system and spectator terminal

Similar Documents

Publication Publication Date Title
KR100829113B1 (en) Apparatus and method for providing of broadcasting data in a digital multimedia broadcasting service
US9232347B2 (en) Apparatus and method for playing music
KR20170078825A (en) Media presentation modification using audio segment marking
US20080134241A1 (en) Broadcast receiver capable of enlarging broadcast-related information on screen and method of controlling the broadcast receiver
JP2015126266A (en) Portable terminal device and broadcast notification method
JP6560503B2 (en) Rise notification system
JP4838548B2 (en) Mobile device
CN113099250B (en) Information processing method and electronic equipment
JP2009152927A (en) Playback method and playback system of contents
JP2015192401A (en) Reprogram reproducing device and program reproducing method
JP2010278578A (en) Apparatus for playback of av content
JP6202998B2 (en) Broadcast receiver
KR101422283B1 (en) Method for playing of moving picture using caption and portable terminla having the same
US20120157028A1 (en) Apparatus and method for providing information in portable terminal
JP6980177B2 (en) Audio equipment
JP2011248202A (en) Recording and playback apparatus
CN100469116C (en) Audio information display in a multimode display device
JP2006050013A (en) Television broadcast receiving apparatus, recording/reproducing apparatus
CN105227655A (en) Method of data synchronization and device
JP2007116290A (en) Sound signal generating apparatus
JP2016219981A (en) Broadcast receiver
JP2007096981A (en) Server device, client device, and content viewing system
CN101341530A (en) Electronic device and method for determining a mixing parameter
JP2011103525A (en) Av device and av system
JP2016054398A (en) Video device and control method of the same