JP2011259232A - Display device, control method therefor, program, and recording medium - Google Patents

Display device, control method therefor, program, and recording medium Download PDF

Info

Publication number
JP2011259232A
JP2011259232A JP2010132194A JP2010132194A JP2011259232A JP 2011259232 A JP2011259232 A JP 2011259232A JP 2010132194 A JP2010132194 A JP 2010132194A JP 2010132194 A JP2010132194 A JP 2010132194A JP 2011259232 A JP2011259232 A JP 2011259232A
Authority
JP
Japan
Prior art keywords
unit
user
facial expression
display device
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2010132194A
Other languages
Japanese (ja)
Inventor
Hiroaki Kondo
広明 近藤
Muneki Yoshida
宗樹 吉田
Yasushi Watanabe
恭 渡邉
Takayuki Toguchi
貴行 戸口
Morimichi Muto
守道 武藤
Ali Algobi
アリ アルグビ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2010132194A priority Critical patent/JP2011259232A/en
Publication of JP2011259232A publication Critical patent/JP2011259232A/en
Ceased legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To carry out operation required by a random user according to a facial expression of the user when a plurality of users view a content.SOLUTION: A display device 10 includes: an image acquisition unit 14 which acquires an image of the user obtained by photographing the user existing within a predetermined range by a camera 103; a detection signal reception unit 13 which receives, from a human-sensing sensor 102 for detecting whether other user exists outside the predetermined range, a detection signal indicating the presence of the other user; a facial expression detection unit 23 which detects a facial expression of a random user from the image acquired by the image acquisition unit 14; and a content processing unit 22 which, while video is displayed, acquires setting information corresponding to the facial expression of the random user detected by the facial expression detection unit 23 from correspondence information between facial expression information indicating a plurality of different facial expressions and setting information for carrying out a predetermined operation, and carries out the predetermined operation on the basis of the acquired setting information.

Description

本発明は、表示装置及びその制御方法、プログラム並びに記録媒体に関し、具体的には、自装置の周囲に複数のユーザが存在する場合、ユーザの表情に応じて所定の動作を実行する表示装置及びその制御方法、プログラム並びに記録媒体に関するものである。   The present invention relates to a display device, a control method therefor, a program, and a recording medium. Specifically, when there are a plurality of users around the device, the display device performs a predetermined operation according to the user's facial expression, and The present invention relates to a control method, a program, and a recording medium.

テレビなどの表示装置において、ユーザの顔を撮影し、撮影した顔画像から評価したユーザの状態に基づいて様々な処理を行なう技術が知られている。   2. Description of the Related Art There is known a technique for photographing a user's face in a display device such as a television and performing various processes based on the user's state evaluated from the photographed face image.

例えば、特許文献1には、カメラによって撮影したユーザの顔画像から顔画像情報を抽出し、所定のコンテンツが再生されたときのユーザの注目度及び表情を数値化して評価することが記載されている。   For example, Patent Document 1 describes that facial image information is extracted from a user's facial image captured by a camera, and the degree of attention and facial expression of the user when a predetermined content is reproduced are evaluated and evaluated. Yes.

また、特許文献2には、CCD(Charge Coupled Devices)カメラによって撮影したユーザの顔画像から瞬きをする回数を検出してユーザの覚醒度を推定し、覚醒度に応じて表示画像の色合いを制御することが記載されている。   Japanese Patent Application Laid-Open No. 2004-228561 detects the number of blinks from a user's face image photographed by a CCD (Charge Coupled Devices) camera, estimates the user's arousal level, and controls the hue of the display image according to the arousal level. It is described to do.

特開2009−267445号公報(2009年11月12日公開)JP 2009-267445 A (published on November 12, 2009) 特開2007−3618号公報(2007年1月11日公開)JP 2007-3618 A (published January 11, 2007)

ところで、テレビ番組等のコンテンツを複数のユーザが視聴している場合、撮影した任意のユーザの表情に応じた動作を実行するだけでは十分ではなく、例えば一人で視聴しているときよりもエンターテイメント性が要求される等、ユーザが複数のときには一人のときと異なる動作が要求されることがある。   By the way, when a plurality of users are viewing content such as a TV program, it is not sufficient to perform an operation according to the photographed facial expression of any user. For example, it is more entertaining than when viewing alone. For example, when there are a plurality of users, an operation different from when one user is required may be required.

これに対し、特許文献1,2では、撮影したユーザの顔画像に基づいてユーザの嗜好性に当てはまるコンテンツを案内したり、表示画像の色合いを制御したりするが、ユーザが一人であるか複数であるかに応じた動作は行なわない。   On the other hand, in Patent Documents 1 and 2, the content that matches the user's preference is guided based on the photographed user's face image or the hue of the display image is controlled. The operation according to whether it is is not performed.

また、一般に、テレビ等の表示装置に用いられるカメラは視野角が90°に満たないものが多い。そのため、複数のユーザが視聴している場合、カメラの視野角の範囲内に位置するユーザ以外はカメラで撮影することができない。よって、カメラだけではユーザが一人なのか複数なのかを把握できず、それに応じて動作を制御することはできない。また、より視野角の広い広角カメラは高額であり、コストがかかる。   In general, many cameras used for display devices such as televisions have a viewing angle of less than 90 °. Therefore, when a plurality of users are viewing, a user other than a user who is located within the range of the viewing angle of the camera cannot take a picture. Therefore, it is impossible to determine whether the user is alone or plural with the camera alone, and the operation cannot be controlled accordingly. In addition, a wide-angle camera with a wider viewing angle is expensive and expensive.

本発明は、上記課題に鑑みてなされたものであり、その目的は、コンテンツを視聴しているユーザが複数である場合、任意のユーザの表情に応じてユーザが求める動作を実行することができる表示装置を提供することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to execute an operation requested by a user according to an arbitrary user's facial expression when there are a plurality of users viewing the content. It is to provide a display device.

本発明に係る表示装置は、上記課題を解決するために、コンテンツを取得し、取得したコンテンツに含まれる映像を表示する表示部を備えた表示装置であって、所定範囲内に存在するユーザを撮影する撮影部が撮影した、上記ユーザの画像を取得する画像取得部と、自装置の周囲であり、かつ、上記所定範囲の外に他のユーザが存在するか否かを検知する検知部から、上記他のユーザが存在することを示す検知信号を受信する受信部と、上記画像取得部が取得した上記画像から任意のユーザの表情を検出する検出手段と、上記映像の表示中に、複数の異なる表情を示す表情情報と、所定の動作を実行するための設定情報との対応情報を予め記録する記録部の上記対応情報から、上記検出手段が検出した任意のユーザの表情に対応する上記設定情報を取得し、取得した設定情報に基づいて所定の動作を実行する実行手段とを備え、上記画像取得部は、取得した画像から、上記ユーザが一人であるか複数であるかを判定し、上記実行手段は、上記受信部が上記検知信号を受信したとき、及び上記画像取得部が上記ユーザが複数であると判定したとき、の少なくともいずれかのとき、上記所定の動作を実行することを特徴としている。   In order to solve the above-described problems, a display device according to the present invention is a display device that includes a display unit that acquires content and displays video included in the acquired content. From an image acquisition unit that acquires an image of the user captured by the imaging unit that captures the image, and a detection unit that detects whether there is another user around the device and outside the predetermined range A receiving unit that receives a detection signal indicating the presence of the other user, a detecting unit that detects a facial expression of an arbitrary user from the image acquired by the image acquiring unit, and a plurality of displays during the display of the video The correspondence corresponding to the facial expression of any user detected by the detection means from the correspondence information of the recording unit that records in advance the correspondence information between the facial expression information indicating different facial expressions and the setting information for executing a predetermined operation Setting And an execution means for executing a predetermined operation based on the acquired setting information, the image acquisition unit determines whether the user is one or more from the acquired image, The execution means executes the predetermined operation when the receiving unit receives the detection signal and / or when the image acquisition unit determines that there are a plurality of users. It is a feature.

本発明に係る制御方法は、上記課題を解決するために、コンテンツを取得し、取得したコンテンツに含まれる映像を表示する表示部と、所定範囲内に存在するユーザを撮影する撮影部が撮影した、上記ユーザの画像を取得する画像取得部と、自装置の周囲であり、かつ、上記所定範囲の外に他のユーザが存在するか否かを検知する検知部から、上記他のユーザが存在することを示す検知信号を受信する受信部とを備える表示装置の制御方法であって、上記画像取得部が取得した上記画像から、上記ユーザが一人であるか複数であるかを判定する判定ステップと、上記判定ステップの後、上記画像から任意のユーザの表情を検出する表情検出ステップと、上記表情検出ステップの後、上記映像の表示中に、複数の異なる表情を示す表情情報と、所定の動作を実行するための設定情報との対応情報を予め記録する記録部の上記対応情報から、検出した任意のユーザの表情に対応する上記設定情報を取得する設定情報取得ステップと、上記設定情報取得ステップにおいて取得した設定情報に基づいて所定の動作を実行する動作実行ステップとを含み、上記動作実行ステップでは、上記受信部が上記検知信号を受信したとき、及び上記判定ステップにおいて上記ユーザが複数であると判定したとき、の少なくともいずれかのとき、上記所定の動作を実行することを特徴としている。   In order to solve the above-described problem, the control method according to the present invention captures a display unit that acquires content, displays a video included in the acquired content, and a capturing unit that captures a user within a predetermined range. The other user is present from an image obtaining unit that obtains the image of the user and a detection unit that detects whether there is another user around the device and outside the predetermined range. A determination method for determining whether the user is one or more from the image acquired by the image acquisition unit, comprising: a receiving unit that receives a detection signal indicating that A facial expression detection step for detecting a facial expression of an arbitrary user from the image after the determination step, and facial expression information indicating a plurality of different facial expressions during the display of the video after the facial expression detection step; A setting information acquisition step for acquiring the setting information corresponding to the detected facial expression of an arbitrary user from the correspondence information of the recording unit that previously records the correspondence information with the setting information for executing a predetermined operation; and the setting An operation execution step for executing a predetermined operation based on the setting information acquired in the information acquisition step. In the operation execution step, when the reception unit receives the detection signal, and in the determination step, the user The predetermined operation is performed when at least one of the determinations is made.

上記の構成及び方法によれば、表示装置では、検知部から検知信号を受信したとき、及び撮影部によって撮影されたユーザが複数であると判定されたとき、の少なくともいずれかのとき、コンテンツを視聴しているユーザが複数であると判断する。   According to the above configuration and method, in the display device, when the detection signal is received from the detection unit and when it is determined that there are a plurality of users photographed by the photographing unit, the content is displayed at least one of the times. It is determined that there are a plurality of viewing users.

また、表示装置では、撮影部が撮影した画像からユーザの表情を検出しており、コンテンツを視聴しているユーザが複数であると判断した場合、検出した表情に応じて対応情報から設定情報を取得し、取得した設定情報に基づいて所定の動作を実行する。   Further, in the display device, when the user's facial expression is detected from the image captured by the photographing unit and it is determined that there are a plurality of users viewing the content, the setting information is obtained from the correspondence information according to the detected facial expression. Acquire and execute a predetermined operation based on the acquired setting information.

例えば、複数のユーザがコンテンツを視聴している場合、一人で視聴している場合よりもエンターテイメント性が要求される等、ユーザが複数のときには一人のときと異なる動作が要求されることがある。   For example, when a plurality of users are viewing content, when there are a plurality of users, a different operation may be required when there are a plurality of users.

よって、本発明によれば、コンテンツを視聴しているユーザが複数である場合、任意のユーザの表情に応じてユーザが求める動作を実行することができる。   Therefore, according to the present invention, when there are a plurality of users viewing the content, it is possible to execute an operation requested by the user according to the facial expression of an arbitrary user.

また、本発明に係る表示装置では、上記実行手段は、上記画像取得部が取得した画像を上記映像に重ね合わせて合成映像を作成し、作成した合成映像を上記表示部に表示することが好ましい。   In the display device according to the present invention, it is preferable that the execution unit creates a composite video by superimposing the image acquired by the image acquisition unit on the video, and displays the generated composite video on the display unit. .

上記の構成によれば、例えばスポーツ番組等、盛り上がるコンテンツを表示しているとき、撮影部が撮影したユーザの顔(例えば、興奮時の表情)を表示部に表示する映像に重ね合わせて子画面表示する。これにより、コンテンツに面白みを持たせることができる。   According to the above configuration, when displaying exciting content such as a sports program, for example, the user's face (for example, a facial expression at the time of excitement) photographed by the photographing unit is superimposed on the video displayed on the display unit and displayed on the child screen indicate. Thereby, the content can be interesting.

また、本発明に係る表示装置では、上記実行手段は、上記表示部が表示した過去の上記映像を再び表示するか否かの指示を上記ユーザに促すための表示情報を作成し、作成した表示情報を上記表示部に表示することが好ましい。   In the display device according to the present invention, the execution means creates display information for prompting the user to instruct whether or not to display the past video displayed by the display unit again. It is preferable to display information on the display unit.

例えば、表情の検出対象となるユーザが楽しいと感じているシーンを検出対象外のユーザが見逃している場合であっても、該シーンを再び表示するか否かの指示を促す表示情報を表示して実行させることにより、複数のユーザで楽しみを共有することができる。   For example, even when a user who is not a detection target misses a scene that the user who is a facial expression detection target feels fun, display information that prompts an instruction whether or not to display the scene again is displayed. It is possible to share enjoyment among a plurality of users.

また、本発明に係る表示装置では、上記コンテンツは音声を含み、上記音声を出力する音声出力部を備え、上記実行手段は、上記音声から歓声音を検出し、検出した歓声音の音量を調整して上記音声出力部に出力することが好ましい。   In the display device according to the present invention, the content includes a sound and includes a sound output unit that outputs the sound, and the execution unit detects a cheer sound from the sound and adjusts a volume of the detected cheer sound. Then, it is preferable to output to the audio output unit.

上記の構成によれば、例えばスポーツ番組等盛り上がるコンテンツにおいて、コンテンツに含まれる音声から歓声音を検出した場合、検出した歓声音の音量を大きくする等の効果を付与する。これにより、コンテンツのエンターテイメント性を高めることができる。   According to the above configuration, for example, when a cheering sound is detected from the sound included in the content such as a sports program, an effect of increasing the volume of the detected cheering sound is provided. Thereby, the entertainment property of content can be improved.

また、本発明に係る表示装置では、上記記録部は、効果音を上記対応情報と対応づけて記録し、上記実行手段は、上記記録部から上記効果音を取得し、取得した効果音を上記音声出力部に出力することが好ましい。   In the display device according to the present invention, the recording unit records a sound effect in association with the correspondence information, and the execution unit acquires the sound effect from the recording unit, and the acquired sound effect is stored in the recording unit. It is preferable to output to the audio output unit.

上記の構成によれば、例えばバラエティ番組等のコンテンツにおいて、効果音をつけてコンテンツを表示することによって、コンテンツにより面白みを持たせ、複数のユーザで楽しみを共有することができる。   According to said structure, in content, such as a variety program, for example, by adding a sound effect and displaying a content, it can be interesting by content and a pleasure can be shared among several users.

また、本発明に係る表示装置では、上記コンテンツのジャンルを示すジャンル情報を取得するジャンル情報取得手段を備え、上記記録部は上記ジャンル情報を上記対応情報と対応づけて記録し、上記実行手段は、上記ジャンル情報取得手段が取得した上記ジャンル情報に対応する上記設定情報を上記記録部の対応情報から取得し、取得した設定情報に基づいて上記所定の動作を実行することが好ましい。   The display device according to the present invention further includes genre information acquisition means for acquiring genre information indicating the genre of the content, the recording unit records the genre information in association with the correspondence information, and the execution means includes Preferably, the setting information corresponding to the genre information acquired by the genre information acquisition means is acquired from the correspondence information of the recording unit, and the predetermined operation is executed based on the acquired setting information.

これにより、コンテンツのジャンルに合った効果を付与することができる。   Thereby, the effect suitable for the genre of content can be given.

また、本発明に係る表示装置では、上記検知部は、上記自装置の周囲を複数の領域に分割し、所定時間ごとに上記複数の領域のいずれかを検知することが好ましい。   In the display device according to the present invention, it is preferable that the detection unit divides the periphery of the device itself into a plurality of areas and detects any of the plurality of areas at predetermined time intervals.

上記の構成によれば、自装置の周囲に存在しているユーザの人数を把握することができる。   According to said structure, the number of the users who exist around the own apparatus can be grasped | ascertained.

また、本発明に係る表示装置では、上記検知部が検知する領域は、上記所定範囲内を含まないことが好ましい。   In the display device according to the present invention, it is preferable that the region detected by the detection unit does not include the predetermined range.

上記の構成によれば、検知部が検知する領域と、撮影部が撮影している領域とが重複することなく、検知部が撮影部の視野角の範囲にいるユーザを他のユーザとして誤認することがない。   According to the above configuration, the detection unit misidentifies a user who is within the range of the viewing angle of the imaging unit as another user without overlapping the area detected by the detection unit and the area captured by the imaging unit. There is nothing.

なお、上記表示装置は、コンピュータによって実現してもよい。この場合、コンピュータを上記各手段として動作させるためのプログラム、及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。   The display device may be realized by a computer. In this case, a program for causing a computer to operate as each of the above-described means and a computer-readable recording medium recording the program also fall within the scope of the present invention.

本発明は、コンテンツを取得し、取得したコンテンツに含まれる映像を表示する表示部を備えた表示装置であって、所定範囲内に存在するユーザを撮影する撮影部が撮影した、上記ユーザの画像を取得する画像取得部と、自装置の周囲であり、かつ、上記所定範囲の外に他のユーザが存在するか否かを検知する検知部から、上記他のユーザが存在することを示す検知信号を受信する受信部と、上記画像取得部が取得した上記画像から任意のユーザの表情を検出する検出手段と、上記映像の表示中に、複数の異なる表情を示す表情情報と、所定の動作を実行するための設定情報との対応情報を予め記録する記録部の上記対応情報から、上記検出手段が検出した任意のユーザの表情に対応する上記設定情報を取得し、取得した設定情報に基づいて所定の動作を実行する実行手段とを備え、上記画像取得部は、取得した画像から、上記ユーザが一人であるか複数であるかを判定し、上記実行手段は、上記受信部が上記検知信号を受信したとき、及び上記画像取得部が上記ユーザが複数であると判定したとき、の少なくともいずれかのとき、上記所定の動作を実行するため、コンテンツを視聴しているユーザが複数である場合、任意のユーザの表情に応じてユーザが求める動作を実行することができる。   The present invention is a display device that includes a display unit that acquires content and displays a video included in the acquired content, and the image of the user captured by a capturing unit that captures a user within a predetermined range Detection indicating that the other user exists from an image acquisition unit that acquires the image and a detection unit that detects whether or not the other user exists outside the predetermined range. A receiving unit that receives a signal; a detecting unit that detects a facial expression of an arbitrary user from the image acquired by the image acquiring unit; facial expression information indicating a plurality of different facial expressions during display of the video; and a predetermined operation The setting information corresponding to the facial expression of an arbitrary user detected by the detecting means is acquired from the correspondence information of the recording unit that previously records the correspondence information with the setting information for executing the setting information, and based on the acquired setting information The Execution means for executing a predetermined operation, and the image acquisition unit determines whether the user is one person or a plurality of users from the acquired image, and the reception means is configured to detect the detection signal. When there is a plurality of users who are viewing content in order to execute the predetermined operation at least one of when the image acquisition unit determines that there are a plurality of users. The operation desired by the user can be executed in accordance with the facial expression of an arbitrary user.

本発明の一実施形態に係る表示装置の要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the display apparatus which concerns on one Embodiment of this invention. 図1に示す表示装置に搭載されるカメラの視野角及び人感センサーの検知エリアを示す図である。It is a figure which shows the detection angle of the viewing angle of a camera mounted in the display apparatus shown in FIG. 1, and a human sensitive sensor. 図1に示す表示装置に搭載される人感センサーの検知エリアを複数の領域に分割したときの様子を示す図である。It is a figure which shows a mode when the detection area of the human sensitive sensor mounted in the display apparatus shown in FIG. 1 is divided | segmented into several area | regions. 図1に示す表示装置においてコンテンツ処理に用いる対応情報を示す表である。4 is a table showing correspondence information used for content processing in the display device shown in FIG. 1. 図1に示す表示装置におけるコンテンツ処理の流れの一例を示すシーケンス図である。It is a sequence diagram which shows an example of the flow of the content process in the display apparatus shown in FIG. 図1に示す表示装置におけるコンテンツ処理の流れの別の例を示すシーケンス図である。It is a sequence diagram which shows another example of the flow of the content process in the display apparatus shown in FIG.

本発明に係る表示装置の一実施形態について、図1〜6を参照して以下に説明する。なお、以下の説明では本発明を実施するために好ましい種々の限定が付与されているが、本発明の技術的範囲は以下の実施の形態及び図面の記載に限定されるものではない。   An embodiment of a display device according to the present invention will be described below with reference to FIGS. In the following description, various preferred limitations for implementing the present invention are given, but the technical scope of the present invention is not limited to the description of the following embodiments and drawings.

〔1.表示装置の構成〕
図1は、本発明の一実施形態に係る表示装置10の構成を示すブロック図である。図1に示すように、表示装置10は、チューナー11、リモコン受光部12、検知信号受信部13(受信部)、画像取得部14、映像出力部15、音声出力部16、記録部17、表示部18、スピーカー19及び制御部20を備える。また、制御部20は、ジャンル情報取得部21(ジャンル情報取得手段)、コンテンツ処理部22(実行手段)及び表情検出部23(検出手段)を含み、コンテンツ処理部22は映像処理部24及び音声処理部25を備える。さらに、表示装置10は、人感センサー102(検知部)及びカメラ103(撮影部)と接続されている。
[1. Configuration of display device]
FIG. 1 is a block diagram showing a configuration of a display device 10 according to an embodiment of the present invention. As shown in FIG. 1, the display device 10 includes a tuner 11, a remote control light receiving unit 12, a detection signal receiving unit 13 (receiving unit), an image acquiring unit 14, a video output unit 15, an audio output unit 16, a recording unit 17, and a display. Unit 18, speaker 19, and control unit 20. The control unit 20 includes a genre information acquisition unit 21 (genre information acquisition unit), a content processing unit 22 (execution unit), and a facial expression detection unit 23 (detection unit). The content processing unit 22 includes a video processing unit 24 and audio. A processing unit 25 is provided. Further, the display device 10 is connected to a human sensor 102 (detection unit) and a camera 103 (imaging unit).

表示装置10では、カメラ103が撮影したユーザの表情を検出することによってコンテンツを視聴しているときのユーザの表情を判別し、人感センサー102から検知信号を受信するか否かによってコンテンツを視聴しているユーザが一人であるか複数であるかを判断する。ここでいう「複数」とは、二人以上であることを意味する。   The display device 10 determines the user's facial expression while viewing the content by detecting the user's facial expression captured by the camera 103, and views the content depending on whether a detection signal is received from the human sensor 102. It is determined whether there are one or more users. Here, “plurality” means that there are two or more people.

カメラ103は、コンテンツを視聴している任意のユーザの表情を検出するために、所定範囲内に存在するユーザを撮影する。本明細書において「所定範囲」とは、カメラ103の視野角の範囲を指し、カメラ103の種類又は性能に応じてその数値範囲は異なり得る。この所定範囲は、例えば、表示部18の正面周辺であればよい。   The camera 103 photographs a user who exists within a predetermined range in order to detect the facial expression of an arbitrary user who is viewing the content. In this specification, the “predetermined range” refers to the range of the viewing angle of the camera 103, and the numerical range may vary depending on the type or performance of the camera 103. This predetermined range may be, for example, around the front surface of the display unit 18.

カメラ103の具体例としては、例えばウェブカメラが挙げられる。ウェブカメラとは、例えば、USB(Universal Serial Bus)もしくはIEEE1394等のインターフェースを有するカメラ、又はネットワークインターフェースを有するカメラ等を指す。カメラ103としては映像データが表示装置10に出力されるものであれば特に限定されるものではなく、他にも、映像の出力インターフェースを持つ、携帯電話に内蔵されたカメラ又はデジタルビデオカメラ等を用いることができる。   A specific example of the camera 103 is a web camera, for example. The web camera refers to a camera having an interface such as USB (Universal Serial Bus) or IEEE1394, or a camera having a network interface, for example. The camera 103 is not particularly limited as long as video data is output to the display device 10, and other cameras such as a camera or a digital video camera built in a mobile phone having a video output interface may be used. Can be used.

カメラ103が撮影する画像は、静止画であってもよいし動画であってもよい。また、撮影された画像はリアルタイム又は一定間隔で保存され得る。画像の保存先は、例えばメモリを搭載したカメラ103であれば該メモリであってもよいし、表示装置103の記録部17であってもよい。   The image captured by the camera 103 may be a still image or a moving image. The captured images can be stored in real time or at regular intervals. The image storage destination may be, for example, the camera 103 provided with a memory, or the recording unit 17 of the display device 103.

人感センサー102は、表示装置10の周囲であり、かつ、所定範囲(すなわち、カメラ103の視野角の範囲)の外に他のユーザが存在するか否かを検知する。また、表示装置10の周囲とは、ユーザが表示部18に表示される映像を見ることが可能な範囲である。   The human sensor 102 detects whether or not another user exists around the display device 10 and outside a predetermined range (that is, the viewing angle range of the camera 103). Further, the periphery of the display device 10 is a range in which the user can see the video displayed on the display unit 18.

以下、説明の便宜のため、カメラ103によって撮影されるユーザを「メインユーザ」といい、カメラ103によって撮影されない他のユーザを「サブユーザ」という。また、メインユーザ又はサブユーザのいずれのユーザも指す場合は、単に「ユーザ」という。   Hereinafter, for convenience of explanation, a user who is photographed by the camera 103 is referred to as a “main user”, and another user who is not photographed by the camera 103 is referred to as a “sub user”. Further, when referring to either the main user or the sub-user, it is simply referred to as “user”.

人感センサー102の具体例としては、例えば、検知エリア内の熱源の変化を検知する焦電型赤外線センサーが挙げられる。この場合、周囲の温度と温度差がある物体が検知エリア内で動いたとき、その温度変化を検知し、検知した変化を検知信号として検知信号受信部13に送信する。   Specific examples of the human sensor 102 include a pyroelectric infrared sensor that detects a change in a heat source in a detection area. In this case, when an object having a temperature difference from the surrounding temperature moves within the detection area, the temperature change is detected, and the detected change is transmitted to the detection signal receiving unit 13 as a detection signal.

つまり、人感センサー102は検知エリア(すなわち、自装置の周囲であり、かつ、所定範囲の外)内の人間の動きを検知するものであり、検知信号受信部13が検知信号を受信することにより、表示装置10ではサブユーザが存在すると判断する。   That is, the human sensor 102 detects a human movement within the detection area (that is, around the device itself and outside the predetermined range), and the detection signal receiving unit 13 receives the detection signal. Thus, the display device 10 determines that there is a sub user.

人感センサー102の具体例としては、焦電型赤外線センサーに限定されず、例えば、360°の撮影が可能なカメラ、天井部に設置したカメラ、又は床の圧力の変化を検出することが可能なセンサー等が挙げられる。人感センサー102が検知エリア内の変化を検知すると、検知信号として検知信号受信部13に送る。   Specific examples of the human sensor 102 are not limited to pyroelectric infrared sensors. For example, it is possible to detect a change in pressure of a camera capable of shooting at 360 °, a camera installed on a ceiling, or a floor. Sensor. When the human sensor 102 detects a change in the detection area, it sends it to the detection signal receiving unit 13 as a detection signal.

また、人感センサー102は、表示装置10の周囲を複数の領域に分割し、所定時間ごとに複数の領域のいずれかを検知することが好ましい。これにより、分割したそれぞれの領域における変化の有無を検知することによって、検知エリア内に存在しているサブユーザの人数を把握することができる。   In addition, it is preferable that the human sensor 102 divides the periphery of the display device 10 into a plurality of regions and detects any of the plurality of regions every predetermined time. Thereby, the number of sub-users existing in the detection area can be grasped by detecting the presence or absence of a change in each divided area.

このとき、人感センサー102の検知エリアには、カメラ103が撮影する領域を含まないことがより好ましい。これにより、人感センサー102が検知する領域と、カメラ103によって撮影している領域とが重複することなく、人感センサー102がカメラ103の撮影範囲にいるメインユーザをサブユーザとして誤認することがない。   At this time, it is more preferable that the detection area of the human sensor 102 does not include an area captured by the camera 103. As a result, the human sensor 102 may mistakenly recognize the main user who is within the shooting range of the camera 103 as a sub user without overlapping the area detected by the human sensor 102 and the area captured by the camera 103. Absent.

本実施形態では、人感センサー102及びカメラ103は外付けされているが、この構成に限定されるものではなく、いずれか一つ又は両方が表示装置10に内蔵されている構成であってもよい。   In the present embodiment, the human sensor 102 and the camera 103 are externally attached. However, the present invention is not limited to this configuration, and any one or both of them may be built in the display device 10. Good.

チューナー11は、アンテナ100を介してコンテンツが含まれる放送信号を受信する。アンテナ100は、例えばアナログ放送受信用アンテナ、デジタル放送受信用アンテナ又はIP放送受信用アンテナなど、様々なアンテナであってよい。チューナー11において受信された放送信号は、セレクタ、分離及びデコード等の各種の処理を経て映像信号及び音声信号に変換され、映像信号がコンテンツ処理部22の映像処理部24に送られ、音声信号がコンテンツ処理部22の音声処理部25に送られる。   The tuner 11 receives a broadcast signal including content via the antenna 100. The antenna 100 may be various antennas such as an analog broadcast receiving antenna, a digital broadcast receiving antenna, or an IP broadcast receiving antenna. The broadcast signal received by the tuner 11 is converted into a video signal and an audio signal through various processes such as a selector, separation and decoding, and the video signal is sent to the video processing unit 24 of the content processing unit 22, and the audio signal is It is sent to the audio processing unit 25 of the content processing unit 22.

なお、本実施形態では、放送コンテンツを取得するが、これに限定されるものではなく、例えば、DVD、BD及びHDD等の表示装置10と接続された外部機器から取得したコンテンツであってもよいし、インターネットを介して取得したコンテンツであってもよい。   In the present embodiment, broadcast content is acquired. However, the present invention is not limited to this. For example, content acquired from an external device connected to the display device 10 such as a DVD, BD, or HDD may be used. It may also be content acquired via the Internet.

リモコン受光部12は、ユーザの操作によりリモコン101から送信されるリモコン信号を、赤外線等の光によって受信する。このリモコン信号には、例えば、スピーカー19から出力される音量の調節指示又はテレビのチャンネル切り替え指示等、表示装置10の動作を指定する様々なユーザの指示情報を含む。なお、指示情報は、例えば、表示装置10の本体に設けられているボタン等の入力機構をユーザが操作することによって受け付けることも可能である。リモコン受光部12はリモコン信号に含まれるユーザからの指示を制御部20に通知する。   The remote control light receiving unit 12 receives a remote control signal transmitted from the remote control 101 by a user operation using light such as infrared rays. The remote control signal includes various user instruction information for specifying the operation of the display device 10 such as an instruction for adjusting the volume output from the speaker 19 or a channel switching instruction for a television. The instruction information can also be received by the user operating an input mechanism such as a button provided on the main body of the display device 10, for example. The remote control light receiving unit 12 notifies the control unit 20 of an instruction from the user included in the remote control signal.

検知信号受信部13は、人感センサー102から送信された検知信号を受信し、人感センサー102の検知エリア内にサブユーザが存在していることをコンテンツ処理部22に通知する。つまり、複数のユーザがコンテンツを視聴していることを通知する。検知信号受信部13と人感センサー102とのインターフェースは、例えば、USB等が挙げられ、また、直接A/Dコンバータを持ったICで検出してもよいし、ある閾値でラインをH/Lに変更するものでもよい。   The detection signal receiving unit 13 receives the detection signal transmitted from the human sensor 102 and notifies the content processing unit 22 that a sub-user exists in the detection area of the human sensor 102. That is, it is notified that a plurality of users are viewing the content. The interface between the detection signal receiving unit 13 and the human sensor 102 is, for example, a USB or the like, and may be detected directly by an IC having an A / D converter, or the line is H / L with a certain threshold value. It may be changed to

画像取得部14は、カメラ103によって撮影されたメインユーザの画像を取得する。画像取得部14とカメラ103とのインターフェースは、例えば、USB又はIEEE1394等であってもよいし、ネットワークインターフェースであってもよい。   The image acquisition unit 14 acquires an image of the main user taken by the camera 103. The interface between the image acquisition unit 14 and the camera 103 may be, for example, USB or IEEE 1394, or may be a network interface.

ところで、カメラ103の視野角の範囲内には複数のユーザが存在している場合がある。そのため、画像取得部14は、取得した画像から、撮影されたユーザが一人であるか複数であるかを判定し、判定結果をコンテンツ処理部22に通知する。   Incidentally, there may be a plurality of users within the range of the viewing angle of the camera 103. Therefore, the image acquisition unit 14 determines from the acquired image whether the number of photographed users is one or more, and notifies the content processing unit 22 of the determination result.

制御部20は、表示装置10の各種構成を統括的に制御する。制御部20の機能は、例えばRAM(Random Access Memory)又はフラッシュメモリなどの記録装置に記録されたプログラムを、CPU(Central Processing Unit)が実行することによって実現される。制御部20が備えるジャンル情報取得部21、コンテンツ処理部22及び表情検出部23について以下に説明する。   The control unit 20 comprehensively controls various configurations of the display device 10. The function of the control unit 20 is realized by a CPU (Central Processing Unit) executing a program recorded in a recording device such as a RAM (Random Access Memory) or a flash memory. The genre information acquisition unit 21, the content processing unit 22, and the facial expression detection unit 23 included in the control unit 20 will be described below.

ジャンル情報取得部21は、チューナー11が受信した放送信号に含まれるコンテンツのジャンルを示すジャンル情報を取得する。ジャンルは、例えば、「スポーツ」、「映画」、「ニュース」又は「ドラマ」などに分類される。また、これらのジャンル情報を、予め記録部17の対応情報と対応づけて記録しておいてもよい。ジャンル情報取得部21は、コンテンツ処理部22からの要求に応じて、取得したジャンル情報をコンテンツ処理部22に通知する。   The genre information acquisition unit 21 acquires genre information indicating the genre of content included in the broadcast signal received by the tuner 11. The genre is classified into, for example, “sports”, “movie”, “news”, or “drama”. Further, these genre information may be recorded in advance in association with the correspondence information in the recording unit 17. The genre information acquisition unit 21 notifies the content processing unit 22 of the acquired genre information in response to a request from the content processing unit 22.

コンテンツ処理部22は、チューナー11を介して取得したコンテンツの映像信号に対して画質調整等の所定の処理を行なって、映像出力部15に供給する。また、該コンテンツの音声信号に対して音質調整等の所定の処理を行なって、音声出力部16に供給する。本実施形態では、映像信号の処理は映像処理部24が行ない、音声信号の処理は音声処理部25が行なう。   The content processing unit 22 performs predetermined processing such as image quality adjustment on the video signal of the content acquired via the tuner 11 and supplies the processed video signal to the video output unit 15. In addition, the audio signal of the content is subjected to predetermined processing such as sound quality adjustment and supplied to the audio output unit 16. In this embodiment, the video signal processing is performed by the video processing unit 24, and the audio signal processing is performed by the audio processing unit 25.

また、コンテンツ処理部22は、映像の表示中に検知信号受信部13から上述した通知を受けるか、又は画像取得部14から撮影されたユーザが複数であるとの判定結果の通知を受けると、後述する表情検出部23が検出した表情に対応する設定情報を記録部17の対応情報から取得し、取得した設定情報に基づいて所定の動作を行なう。   In addition, when the content processing unit 22 receives the above-described notification from the detection signal receiving unit 13 during the display of the video or the notification of the determination result that there are a plurality of users photographed from the image acquisition unit 14, Setting information corresponding to the facial expression detected by the facial expression detection unit 23 described later is acquired from the correspondence information in the recording unit 17, and a predetermined operation is performed based on the acquired setting information.

つまり、コンテンツ処理部22は、カメラ103により撮影されたユーザが一人であり、且つ、人感センサー102から検知信号がある場合、カメラ103により撮影されたユーザが複数であり、且つ、人感センサー102から検知信号がない場合、又は、カメラ103により撮影されたユーザが複数であり、且つ、人感センサー102から検知信号がある場合に、所定の動作を実行する。   In other words, the content processing unit 22 has a single user photographed by the camera 103, and when there is a detection signal from the human sensor 102, there are a plurality of users photographed by the camera 103 and the human sensor. When there is no detection signal from 102, or when there are a plurality of users photographed by the camera 103 and there are detection signals from the human sensor 102, the predetermined operation is executed.

本実施形態では、コンテンツ処理部22は、検知信号受信部13又は画像取得部14から通知を受けると、表情検出部23が検出した表情に対応する特殊効果を取得したコンテンツに付加したり、表示装置10が有するお薦め機能をユーザに提示する表示情報を作成したりして、映像出力部15又は音声出力部16に供給する。   In the present embodiment, when the content processing unit 22 receives a notification from the detection signal receiving unit 13 or the image acquisition unit 14, the content processing unit 22 adds a special effect corresponding to the facial expression detected by the facial expression detection unit 23 to the acquired content. Display information for presenting the recommended functions of the apparatus 10 to the user is created and supplied to the video output unit 15 or the audio output unit 16.

特殊効果としては、例えば、画像取得部14が取得したメインユーザの画像を、コンテンツに含まれる映像に重ね合わせて合成映像を作成して表示したり、音声から歓声音を検出して検出した歓声音の音量を調整したり、予め記録部17に記録された効果音を音声出力部16に提供したりする等の効果が挙げられる。   As the special effect, for example, the main user image acquired by the image acquisition unit 14 is superimposed on the video included in the content to create and display a composite video, or a cheer detected by detecting a cheer sound from the sound. Examples include effects such as adjusting the sound volume and providing the sound output unit 16 with sound effects recorded in advance in the recording unit 17.

お薦め機能の表示では、例えば、過去に再生した映像をもう一度再生する機能(タイムシフト再生機能ともいう)を実行するか否かをユーザに問いかける画面を作成して、映像出力部15に提供する。なお、本明細書では特殊効果及びお薦め機能の表示を総称して「付加効果」ということもある。   In the display of the recommended function, for example, a screen for asking the user whether or not to execute a function of replaying a video reproduced in the past (also referred to as a time shift reproduction function) is created and provided to the video output unit 15. In the present specification, special effects and recommended function displays may be collectively referred to as “additional effects”.

また、コンテンツ処理部22が所定の動作を実行する際の設定情報は、コンテンツのジャンル情報に対応づけられたものであってもよい。この場合、コンテンツ処理部22は、ジャンル情報取得部21が取得したコンテンツのジャンル情報に対応する設定情報を記録部17の対応情報から取得し、取得した設定情報に基づいて所定の動作を行なう。なお、コンテンツ処理部22による所定の動作の詳細については後述する。   Further, the setting information when the content processing unit 22 executes a predetermined operation may be associated with the genre information of the content. In this case, the content processing unit 22 acquires setting information corresponding to the genre information of the content acquired by the genre information acquisition unit 21 from the correspondence information of the recording unit 17, and performs a predetermined operation based on the acquired setting information. Details of the predetermined operation by the content processing unit 22 will be described later.

表情検出部23は、カメラ103により撮影されるユーザのうち、任意のユーザの表情を検出する。例えば、画像取得部14が取得した画像からメインユーザの顔を顔トレースとして認識し、認識した顔トレースから表情を検出する。   The facial expression detection unit 23 detects the facial expression of any user among the users photographed by the camera 103. For example, the main user's face is recognized as a face trace from the image acquired by the image acquisition unit 14, and a facial expression is detected from the recognized face trace.

ここで、カメラ103により撮影されたユーザが一人である場合には、撮影されたユーザがそのまま任意のユーザとし、ユーザが複数である場合には、例えば顔認識の技術を用いて認識された顔の面積が一番大きいユーザを任意のユーザとするが、予め各ユーザの優先順位をメニューで設定しておく等、これ以外の取り決めにより任意のユーザを設定するようにしてもよい。   Here, when there is only one user photographed by the camera 103, the photographed user is an arbitrary user as it is, and when there are a plurality of users, for example, a face recognized by using a face recognition technique. The user having the largest area is defined as an arbitrary user, but an arbitrary user may be set according to other rules such as setting the priority order of each user in advance through a menu.

表情検出部23は、コンテンツ処理部22からの取得要求に応じて、検出した表情を表情データ(表情情報)としてコンテンツ処理部22に通知する。ここでいう「表情データ」とは、例えば、「興奮」又は「笑顔」等の感情を表す表情として示される。   In response to an acquisition request from the content processing unit 22, the facial expression detection unit 23 notifies the content processing unit 22 of the detected facial expression as facial expression data (expression information). The “expression data” here is indicated as an expression representing an emotion such as “excitement” or “smile”.

記録部17は、各種データ及びプログラムを記録する。記録部17としては、例えば、制御部20が動作を制御するときに必要なプログラムなどの固定データを記録する、読出し専用の半導体メモリであるROM(Read Only Memory)と、演算に使用するデータ及び演算結果のデータなどを一時的に記録する、いわゆるワーキングメモリとしてのRAMとが挙げられる。   The recording unit 17 records various data and programs. As the recording unit 17, for example, a ROM (Read Only Memory) that is a read-only semiconductor memory that records fixed data such as a program necessary when the control unit 20 controls the operation, data used for calculation, and There is a RAM as a so-called working memory that temporarily records data of calculation results.

本実施形態において、記録部17は、複数の異なる表情を示す表情情報と、コンテンツ処理部22が所定の動作を実行するための設定情報との対応情報を記録する。ここで「表情情報」とは、上述したように「興奮」又は「笑顔」等の感情を表す表情を示す情報であり、設定情報とは、例えば「カメラ103で撮影したユーザの画像の子画面表示」又は「効果音の付加」等の付加効果を示す情報である。   In the present embodiment, the recording unit 17 records correspondence information between facial expression information indicating a plurality of different facial expressions and setting information for the content processing unit 22 to execute a predetermined operation. Here, the “expression information” is information indicating an expression representing an emotion such as “excitement” or “smile” as described above, and the setting information is, for example, a sub-screen of a user image captured by the camera 103 This is information indicating an additional effect such as “display” or “add sound effect”.

なお、本実施形態では対応情報が記録部17に記録されているが、例えば、外部の記録装置(図示せず)に記録することが可能であり、コンテンツ処理部22が所定の動作を実行するたびに該記録装置から取得してもよい。   In the present embodiment, the correspondence information is recorded in the recording unit 17, but can be recorded in, for example, an external recording device (not shown), and the content processing unit 22 executes a predetermined operation. You may acquire from this recording apparatus every time.

また、記録部17は、コンテンツ処理部22が所定の動作を行なう際の効果音を記録していてもよい。この効果音も対応情報と同様に、外部の記録装置から取得されてもよい。   The recording unit 17 may record sound effects when the content processing unit 22 performs a predetermined operation. This sound effect may also be acquired from an external recording device in the same manner as the correspondence information.

映像出力部15は、映像処理部24において処理された映像信号、及びコンテンツ処理部22において作成された合成映像又は表示情報を表示部18に出力する。   The video output unit 15 outputs the video signal processed by the video processing unit 24 and the synthesized video or display information created by the content processing unit 22 to the display unit 18.

表示部18は、LCD(Liquid Crystal Display)、EL(Electroluminescence)ディスプレイ、PDP(Plasma Display Panel)等の表示素子と、受信した映像信号に基づいて表示素子を駆動するドライバ回路とを備える構成である。なお、映像には、絵や図形の他、文字も含まれ、また、静止画及び動画も含まれる。   The display unit 18 includes a display element such as an LCD (Liquid Crystal Display), an EL (Electroluminescence) display, and a PDP (Plasma Display Panel), and a driver circuit that drives the display element based on the received video signal. . The video includes characters as well as pictures and graphics, and also includes still images and moving images.

音声出力部16は、音声処理部25において処理された音声信号、及びコンテンツ処理部22が記録部17から取得した効果音をスピーカー19から出力する。   The audio output unit 16 outputs the audio signal processed by the audio processing unit 25 and the sound effect acquired by the content processing unit 22 from the recording unit 17 from the speaker 19.

なお、当初のカメラ103の視野角外にユーザが存在し、人感センサー102がその存在を検知し、アプリケーションの仕様のために当該ユーザの表情等の撮影が必要な場合は、当該ユーザが視野角内に入るようにカメラ103の向きを変更するための駆動部を設けてもよい。   If the user exists outside the viewing angle of the original camera 103 and the presence sensor 102 detects the presence of the user and photographing of the user's facial expression or the like is required for application specifications, A drive unit for changing the orientation of the camera 103 so as to enter the corner may be provided.

〔2.カメラの撮影範囲と人感センサーの検知エリアとの関係〕
ここで、表示装置10に具備されるカメラ103の撮影範囲と人感センサー102の検知エリアとの関係について、図2,3を参照して説明する。図2は、表示装置10に搭載されるカメラ103の視野角及び人感センサー102の検知エリアを示す図であり、図3は、表示装置10に搭載される人感センサー102の検知エリアを複数の領域に分割したときの様子を示す図である。
[2. (Relationship between shooting range of camera and detection area of motion sensor)
Here, the relationship between the imaging range of the camera 103 provided in the display device 10 and the detection area of the human sensor 102 will be described with reference to FIGS. 2 is a diagram showing the viewing angle of the camera 103 mounted on the display device 10 and the detection area of the human sensor 102. FIG. 3 shows a plurality of detection areas of the human sensor 102 mounted on the display device 10. It is a figure which shows a mode when it divides | segments into this area | region.

なお、以下の実施形態では、カメラ103の撮影範囲内に存在するユーザは一人であるという前提で説明するが、撮影範囲内に複数のユーザが存在することもある。つまり、画像取得部14が、撮影されたユーザが複数であると判定した場合、コンテンツ処理部22がその判定結果の通知を受けることによってコンテンツを視聴しているユーザが複数であると判断し、所定の動作を実行すればよい。   In the following embodiment, description will be made on the assumption that there is one user within the shooting range of the camera 103, but there may be a plurality of users within the shooting range. That is, when the image acquisition unit 14 determines that there are a plurality of photographed users, the content processing unit 22 determines that there are a plurality of users viewing the content by receiving notification of the determination result, What is necessary is just to perform a predetermined | prescribed operation | movement.

上述したように、表示装置10では、カメラ103が撮影したユーザの表情を検出することによってコンテンツを視聴しているときのユーザの表情を判別し、人感センサー102から検知信号を受信することによってコンテンツを視聴しているユーザが複数であると判断する。このように、カメラ103と人感センサー102とを組み合わせることによって、ユーザが一人であるか複数であるかを判断することができ、任意のユーザの表情に応じてユーザが求める動作を実行することができる。   As described above, the display device 10 detects the user's facial expression captured by the camera 103 to determine the user's facial expression when viewing the content, and receives a detection signal from the human sensor 102. It is determined that there are a plurality of users viewing the content. In this way, by combining the camera 103 and the human sensor 102, it is possible to determine whether the user is single or plural, and to perform an operation requested by the user according to an arbitrary user's facial expression. Can do.

図2において、「Φ」はカメラ103の視野角を表し、「θ」は人感センサー102の検知エリアを表す。ここでは、カメラ103の視野角内にメインユーザ(以下、「ユーザA」と呼ぶ)が存在し、カメラ103の視野角の外であって、人感センサー102の検知エリア内に2人のサブユーザ(以下、「ユーザB」及び「ユーザC」と呼ぶ)が存在する。つまり、カメラ103はユーザAを撮影し、ユーザB及びユーザCは人感センサー102によって動きを検知される。   In FIG. 2, “Φ” represents the viewing angle of the camera 103, and “θ” represents the detection area of the human sensor 102. Here, the main user (hereinafter referred to as “user A”) exists within the viewing angle of the camera 103, and the two sub users are outside the viewing angle of the camera 103 and within the detection area of the human sensor 102. There are users (hereinafter referred to as “user B” and “user C”). That is, the camera 103 captures the user A, and the user B and the user C are detected by the motion sensor 102.

一般に、人感センサー102は検知エリア内の動きを検知するものであるため、カメラ103の撮影範囲(視野角)を検知エリアに含めてしまうと、カメラ103の撮影範囲のみにユーザがいる場合であっても人感センサー102は検知信号を通知してしまう。よって、コンテンツを視聴しているユーザが一人であるか複数であるかを判断できない。   In general, since the human sensor 102 detects movement in a detection area, if the shooting range (viewing angle) of the camera 103 is included in the detection area, the user is only in the shooting range of the camera 103. Even if it exists, the human sensor 102 notifies the detection signal. Therefore, it cannot be determined whether there is one user or a plurality of users viewing the content.

そこで、人感センサー102の検知エリアを複数の領域に分割して(以下、分割して領域を「サブエリア」という)、検知させることが好ましい。このとき、サブエリアにはカメラ103の撮影範囲を含めなければよい。   Therefore, it is preferable to divide the detection area of the human sensor 102 into a plurality of regions (hereinafter, the divided regions are referred to as “sub-areas”) and detect them. At this time, it is not necessary to include the shooting range of the camera 103 in the sub area.

つまり、人感センサー102は、図3の(a)においてカメラ103の撮影範囲を示す三角の点線で囲ったエリアを含まないようにサブユーザの動きを検知すればよい。これにより、人感センサー102が検知する領域と、カメラ103によって撮影している領域と重複することなく、カメラ103の撮影範囲にいるメインユーザをサブユーザとして誤認することがない。   That is, the human sensor 102 may detect the movement of the sub user so as not to include the area surrounded by the triangular dotted line indicating the shooting range of the camera 103 in FIG. Thus, the main user who is in the shooting range of the camera 103 is not mistaken as a sub user without overlapping the area detected by the human sensor 102 and the area shot by the camera 103.

また、検知エリアを図3の(b)に示すように複数のサブエリアに分割し、各サブエリア(a〜f)ごとの検知情報を取得することによって、コンテンツを視聴しているユーザの人数を把握することが可能である。このとき取得した検知情報を図3の(c)に示す。   In addition, as shown in FIG. 3B, the detection area is divided into a plurality of sub-areas, and the detection information for each sub-area (af) is acquired, so that the number of users viewing the content is obtained. Can be grasped. The detection information acquired at this time is shown in FIG.

図3の(c)では、ラインが下がっている期間そのサブエリアにユーザが存在していることを示している。つまり、サブエリアcにユーザが存在している期間が最も長く、この間、サブエリアa及びサブエリアbにそれぞれ異なる期間でユーザが存在している。このことから、例えば、検知エリア内にはユーザが2人存在し、検知期間内に1人のユーザがサブエリアaからサブエリアbに移動したと判断し得る。   FIG. 3C shows that a user is present in the sub-area while the line is down. That is, the period in which the user exists in the subarea c is the longest, and during this period, the user exists in the subarea a and the subarea b in different periods. From this, for example, it can be determined that there are two users in the detection area, and one user has moved from the sub-area a to the sub-area b within the detection period.

いずれにしても、サブエリア内に存在しているユーザをそれぞれ独立して検知することによって、コンテンツを視聴しているユーザが1人であるか複数であるかを判断することができる。   In any case, it is possible to determine whether the number of users who are viewing the content is one or plural by independently detecting the users existing in the sub-area.

なお、コンテンツを視聴しているユーザの人数を把握する方法はこれ以外にも、例えば、検知エリアを複数のサブエリアに分割し、所定時間ごとにいずれかのサブエリアを検知するように設定することも可能である。この場合、所定時間は任意の時間であればよく、特に限定されるものではない。これにより、検知エリア内に存在しているサブユーザの人数を把握することができる。   In addition to this, for example, the detection area is divided into a plurality of sub-areas, and one of the sub-areas is detected every predetermined time. It is also possible. In this case, the predetermined time may be any time and is not particularly limited. Thereby, the number of sub-users existing in the detection area can be grasped.

〔3.コンテンツ処理〕
次に、表示装置10におけるコンテンツ処理の流れの一例について以下に説明する。以下に示すコンテンツ処理では、コンテンツのジャンル情報、メインユーザの表情情報、サブユーザの検知情報及び設定情報が図4に示す表のように対応づけられている対応情報を用いる。図4は、表示装置10においてコンテンツ処理に用いる対応情報を示す表である。
[3. Content processing)
Next, an example of the flow of content processing in the display device 10 will be described below. In the content processing shown below, correspondence information in which content genre information, main user facial expression information, sub-user detection information, and setting information are associated as shown in the table of FIG. 4 is used. FIG. 4 is a table showing correspondence information used for content processing in the display device 10.

図4の表に示すように、本実施形態では、コンテンツのジャンルが「スポーツ」であり、ユーザAの表情が「興奮」を示すものであり、ユーザB又はユーザCの動きを検知する検知信号を受け取った(「有」と示す)とき、カメラ103が撮影したユーザAの画像を子画面表示したり、音声の歓声音のボリュームを大きくしたりするという付加効果をつける。   As shown in the table of FIG. 4, in this embodiment, the content genre is “sports”, the facial expression of the user A indicates “excitement”, and the detection signal for detecting the movement of the user B or the user C Is received (indicated as “present”), an additional effect is provided such that the image of the user A taken by the camera 103 is displayed on the sub-screen or the volume of the cheering sound is increased.

また、コンテンツのジャンルが「バラエティ」であり、ユーザAの表情が「笑顔」を示すものであり、ユーザB又はユーザCの動きを検知する検知信号を受け取ったとき、タイムシフト再生機能を実行するか否かの指示を促す画面を表示したり、拍手音を追加したりするという付加効果をつける。   Further, when the content genre is “variety”, the expression of the user A indicates “smile”, and the detection signal for detecting the movement of the user B or the user C is received, the time-shift playback function is executed. A screen that prompts the user to specify whether or not to add an applause sound is added.

ここで、ユーザがスポーツを視聴中であり、かつ、ユーザAの表情から興奮状態を検出したときの処理の流れを、図5に基づいて説明する。図5は、表示装置10におけるコンテンツ処理の流れの一例を示すシーケンス図である。   Here, the flow of processing when the user is watching a sport and the excited state is detected from the facial expression of the user A will be described based on FIG. FIG. 5 is a sequence diagram illustrating an example of the flow of content processing in the display device 10.

まず、チューナー11がアンテナ100を介してコンテンツが含まれる放送信号を受信し(ステップS1)、各種の処理を経て、映像信号をコンテンツ処理部22の映像処理部24に送り、音声信号をコンテンツ処理部22の音声処理部25に送る。このとき、ジャンル情報取得部21はコンテンツのジャンル情報を取得する(ステップS2)。ここでは、ジャンル情報取得部21は「スポーツ」のジャンルを示すジャンル情報を取得している。   First, the tuner 11 receives a broadcast signal including content via the antenna 100 (step S1), and after various processing, sends the video signal to the video processing unit 24 of the content processing unit 22 and processes the audio signal as content processing. The data is sent to the voice processing unit 25 of the unit 22. At this time, the genre information acquisition unit 21 acquires the genre information of the content (step S2). Here, the genre information acquisition unit 21 acquires genre information indicating the genre of “sports”.

また、ステップS1及びS2と同時期に、画像取得部14はカメラ103からユーザを撮影した画像を取得しており、表情検出部23は画像取得部14が取得した画像からユーザAの顔を顔トレースとして認識し(ステップS3)、認識した顔トレースから表情を検出する(ステップS4)。   At the same time as steps S1 and S2, the image acquisition unit 14 acquires an image of the user taken from the camera 103, and the facial expression detection unit 23 detects the face of the user A from the image acquired by the image acquisition unit 14. It is recognized as a trace (step S3), and an expression is detected from the recognized face trace (step S4).

一方、検知信号受信部13は、人感センサー102から検知信号を受信すると、カメラ103の撮影範囲外にユーザB又はユーザCが存在すると判断し、制御部20のコンテンツ処理部22に対してサブユーザの検出データを通知する(ステップS5)。コンテンツ処理部22はこの通知を受け取ると、ジャンル情報取得部21に対してジャンル情報の取得要求をし、表情検出部23に対して表情情報(表情データ)の取得要求をする。   On the other hand, when the detection signal receiving unit 13 receives the detection signal from the human sensor 102, the detection signal receiving unit 13 determines that the user B or the user C exists outside the shooting range of the camera 103, and the subordinate to the content processing unit 22 of the control unit 20. The user detection data is notified (step S5). Upon receiving this notification, the content processing unit 22 requests the genre information acquisition unit 21 to acquire genre information, and requests the facial expression detection unit 23 to acquire facial expression information (facial expression data).

そして、コンテンツ処理部22は、取得したジャンル情報、表情データ及び検出データに基づいて動作を決定する。ここでは、図4の表に示すように、スポーツ、興奮状態及びユーザB又はユーザCの存在が「有」という情報から、カメラ103が撮影したユーザAの画像を子画面表示し、音声の歓声音のボリュームを大きくするという動作を決定する。   Then, the content processing unit 22 determines an operation based on the acquired genre information, facial expression data, and detection data. Here, as shown in the table of FIG. 4, the image of the user A captured by the camera 103 is displayed on the sub-screen from the information that the sport, the excited state, and the presence of the user B or the user C are “present”, and the voice cheers Determine the action of increasing the volume of the sound.

コンテンツ処理部22は、決定した動作を実行するために、画像取得部14に対してユーザAの画像の取得要求をし、画像取得後、取得した画像を記録部17に保存する(ステップS7)。   In order to execute the determined operation, the content processing unit 22 requests the image acquisition unit 14 to acquire the image of the user A, and after acquiring the image, stores the acquired image in the recording unit 17 (step S7). .

その後、コンテンツ処理部22は、コンテンツの映像に取得したユーザAの画像を重ね合わせて合成映像を作成し、映像出力部15に供給すると共に、コンテンツの音声信号から歓声音を検出し、検出した歓声音のボリュームを上げるように調整して音声出力部16に供給する(ステップS8)。これにより、コンテンツに面白みを持たせ、複数のユーザで楽しみを共有することができる。   Thereafter, the content processing unit 22 creates a composite video by superimposing the acquired image of the user A on the video of the content, supplies the composite video to the video output unit 15, and detects and detects a cheering sound from the audio signal of the content It adjusts so that the volume of a cheering sound may be raised, and it supplies to the audio | voice output part 16 (step S8). Thereby, the content can be interesting and the enjoyment can be shared among a plurality of users.

次に、ユーザがバラエティを視聴中であり、かつ、ユーザAの表情から笑顔を検出したときの処理の流れを、図6に基づいて説明する。図6は、表示装置10におけるコンテンツ処理の流れの別の例を示すシーケンス図である。   Next, the flow of processing when the user is viewing variety and detects a smile from the facial expression of user A will be described with reference to FIG. FIG. 6 is a sequence diagram illustrating another example of the flow of content processing in the display device 10.

まず、チューナー11がアンテナ100を介してコンテンツが含まれる放送信号を受信し(ステップS10)、各種の処理を経て、映像信号をコンテンツ処理部22の映像処理部24に送り、音声信号をコンテンツ処理部22の音声処理部25に送る。このとき、ジャンル情報取得部21がコンテンツのジャンル情報を取得する(ステップS11)。ここでは、ジャンル情報取得部21は「バラエティ」のジャンルを示すジャンル情報を取得している。   First, the tuner 11 receives a broadcast signal including content via the antenna 100 (step S10), and after various processing, sends the video signal to the video processing unit 24 of the content processing unit 22 and processes the audio signal as content processing. The data is sent to the voice processing unit 25 of the unit 22. At this time, the genre information acquisition unit 21 acquires the genre information of the content (step S11). Here, the genre information acquisition unit 21 acquires genre information indicating the genre of “variety”.

また、上述した例とは異なり、取得したコンテンツをタイムシフト再生用に録画する(ステップS12)。録画先は、記録部17であってもよいし、DVD、HDD又はBD等の外付け記録装置であってもよい。   Further, unlike the above-described example, the acquired content is recorded for time shift reproduction (step S12). The recording destination may be the recording unit 17 or an external recording device such as a DVD, HDD, or BD.

ステップS10〜S12と同時期に、画像取得部14はカメラ103からユーザAを撮影した画像を取得しており、表情検出部23は画像取得部14が取得した画像からユーザAの顔を顔トレースとして認識し(ステップS13)、認識した顔トレースから表情を検出する(ステップS14)。   At the same time as steps S <b> 10 to S <b> 12, the image acquisition unit 14 acquires an image obtained by capturing the user A from the camera 103, and the facial expression detection unit 23 traces the face of the user A from the image acquired by the image acquisition unit 14. (Step S13), and an expression is detected from the recognized face trace (step S14).

一方、検知信号受信部13は、人感センサー102から検知信号を受信すると、カメラ103の撮影範囲外にユーザB又はユーザCが存在すると判断し、制御部20のコンテンツ処理部22に対してサブユーザの検出データを通知する(ステップS15)。コンテンツ処理部22はこの通知を受け取ると、ジャンル情報取得部21に対してジャンル情報の取得要求をし、表情検出部23に対して表情情報(表情データ)の取得要求をする。   On the other hand, when the detection signal receiving unit 13 receives the detection signal from the human sensor 102, the detection signal receiving unit 13 determines that the user B or the user C exists outside the shooting range of the camera 103, and the subordinate to the content processing unit 22 of the control unit 20. The user detection data is notified (step S15). Upon receiving this notification, the content processing unit 22 requests the genre information acquisition unit 21 to acquire genre information, and requests the facial expression detection unit 23 to acquire facial expression information (facial expression data).

そして、コンテンツ処理部22は、取得したジャンル情報、表情データ及び検出データに基づいて動作を決定する。ここでは、図4の表に示すように、バラエティ、笑顔及びユーザB又はユーザCの存在が「有」という情報から、タイムシフト再生機能を実行するか否かの指示を促す画面を表示するという動作を決定する。   Then, the content processing unit 22 determines an operation based on the acquired genre information, facial expression data, and detection data. Here, as shown in the table of FIG. 4, a screen that prompts an instruction as to whether or not to execute the time-shift playback function is displayed based on the information that the variety, the smile, and the presence of the user B or the user C are “present”. Determine the behavior.

コンテンツ処理部22は、「笑顔」の表情データを検出したときのコンテンツのシーンをもう一度再生するか(タイムシフト再生機能を実行するか)を問いかける画面を作成して、映像出力部15に提供する。すると、映像出力部15は提供された画面を表示部18に表示する(ステップS17)。ここでは、「面白場面スタート」と書かれた画面が表示される。なお、表示時間は特に限定されるものではなく、例えば1分程度であってもよい。   The content processing unit 22 creates a screen asking whether to replay the content scene when the “smile” facial expression data is detected (whether to execute the time shift playback function), and provides the screen to the video output unit 15. . Then, the video output unit 15 displays the provided screen on the display unit 18 (step S17). Here, a screen with the message “interesting scene start” is displayed. The display time is not particularly limited, and may be about 1 minute, for example.

その後、ユーザが、例えばリモコン101に設けられた「Enter」キーを押すことにより、リモコン101からタイムシフト再生を実行するという指示が送信され、該指示を受け付けると、数分前からの映像を再生する(ステップS18)。これにより、ユーザAが楽しいと感じているシーンをユーザB又はユーザCが見逃している場合であっても、タイムシフト再生というお薦め機能を実行するか否かを問う画面を表示して実行させることにより、複数のユーザで楽しみを共有することができる。   Thereafter, when the user presses an “Enter” key provided on the remote controller 101, for example, an instruction to execute time-shifted playback is transmitted from the remote controller 101. When the instruction is received, the video from several minutes before is played back. (Step S18). Thus, even when the user B or the user C misses the scene that the user A feels fun, the screen asking whether to execute the recommended function of time shift playback is displayed and executed. Thus, the enjoyment can be shared among a plurality of users.

以上のように、表示装置10によれば、コンテンツに付加効果をつけることにより、エンターテイメント性を出し、複数のユーザが楽しみを共有することができる。   As described above, according to the display device 10, it is possible to provide entertainment by adding an additional effect to the content, and a plurality of users can share the enjoyment.

(プログラム及び記録媒体)
最後に、表示装置10に含まれている各部は、ハードウェアロジックによって構成すればよい。又は、次のように、CPUを用いてソフトウェアによって実現してもよい。
(Program and recording medium)
Finally, each unit included in the display device 10 may be configured by hardware logic. Or you may implement | achieve by software using CPU as follows.

すなわち表示装置10は、各機能を実現するプログラムの命令を実行するCPU、このプログラムを格納したROM、上記プログラムを実行可能な形式に展開するRAM、及び、上記プログラム及び各種データを格納するメモリ等の記憶装置(記録媒体)を備えている。この構成により、本発明の目的は、所定の記録媒体によっても達成できる。   That is, the display device 10 includes a CPU that executes instructions of a program that realizes each function, a ROM that stores the program, a RAM that expands the program into an executable format, and a memory that stores the program and various data. Storage device (recording medium). With this configuration, the object of the present invention can also be achieved by a predetermined recording medium.

この記録媒体は、上述した機能を実現するソフトウェアである表示装置10のプログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録していればよい。表示装置10にこの記録媒体を供給する。これにより、コンピュータとしての表示装置10(又はCPUやMPU)が、供給された記録媒体に記録されているプログラムコードを読み出し、実行すればよい。   This recording medium only needs to record the program code (execution format program, intermediate code program, source program) of the program of the display device 10 which is software for realizing the above-described functions so as to be readable by a computer. This recording medium is supplied to the display device 10. Thereby, the display device 10 (or CPU or MPU) as a computer may read and execute the program code recorded on the supplied recording medium.

プログラムコードを表示装置10に供給する記録媒体は、特定の構造又は種類のものに限定されない。すなわちこの記録媒体は、例えば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などとすることができる。   The recording medium that supplies the program code to the display device 10 is not limited to a specific structure or type. That is, the recording medium includes, for example, a tape system such as a magnetic tape and a cassette tape, a magnetic disk such as a floppy (registered trademark) disk / hard disk, and an optical disk such as a CD-ROM / MO / MD / DVD / CD-R. System, a card system such as an IC card (including a memory card) / optical card, or a semiconductor memory system such as a mask ROM / EPROM / EEPROM / flash ROM.

また、表示装置10を通信ネットワークと接続可能に構成しても、本発明の目的を達成できる。この場合、上記のプログラムコードを、通信ネットワークを介して表示装置10に供給する。この通信ネットワークは表示装置10にプログラムコードを供給できるものであればよく、特定の種類又は形態に限定されない。例えばインターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(Virtual Private Network)、電話回線網、移動体通信網、衛星通信網等であればよい。   Further, even if the display device 10 is configured to be connectable to a communication network, the object of the present invention can be achieved. In this case, the program code is supplied to the display device 10 via the communication network. The communication network is not limited to a specific type or form as long as it can supply the program code to the display device 10. For example, it may be the Internet, intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication network, satellite communication network, and the like.

この通信ネットワークを構成する伝送媒体も、プログラムコードを伝送可能な任意の媒体であればよく、特定の構成又は種類のものに限定されない。たとえばIEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL(Asymmetric Digital Subscriber Line)回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。   The transmission medium constituting the communication network may be any medium that can transmit the program code, and is not limited to a specific configuration or type. For example, even with wired lines such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL (Asymmetric Digital Subscriber Line) line, infrared rays such as IrDA and remote control, Bluetooth (registered trademark), 802.11 wireless, HDR, mobile phone It can also be used by radio such as a telephone network, a satellite line, and a terrestrial digital network.

本発明は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、実施形態に開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The present invention is not limited to the above-described embodiment, and various modifications are possible within the scope shown in the claims, and the present invention is also applied to an embodiment obtained by appropriately combining technical means disclosed in the embodiment. It is included in the technical scope of the invention.

本発明は、DVD内蔵テレビ、BD内蔵テレビ又はPC内蔵テレビ等のテレビジョン受像機を含む表示装置として好適に利用することができる。   The present invention can be suitably used as a display device including a television receiver such as a DVD built-in television, a BD built-in television, or a PC built-in television.

10 表示装置
11 チューナー
12 リモコン受光部
13 検知信号受信部(受信部)
14 画像取得部
15 映像出力部
16 音声出力部
17 記録部
18 表示部
19 スピーカー
20 制御部
21 ジャンル情報取得部(ジャンル情報取得手段)
22 コンテンツ処理部(実行手段)
23 表情検出部(検出手段)
24 映像処理部
25 音声処理部
DESCRIPTION OF SYMBOLS 10 Display apparatus 11 Tuner 12 Remote control light-receiving part 13 Detection signal receiving part (receiving part)
DESCRIPTION OF SYMBOLS 14 Image acquisition part 15 Video | video output part 16 Audio | voice output part 17 Recording part 18 Display part 19 Speaker 20 Control part 21 Genre information acquisition part (genre information acquisition means)
22 Content processing unit (execution means)
23 Facial expression detection unit (detection means)
24 video processing unit 25 audio processing unit

Claims (11)

コンテンツを取得し、取得したコンテンツに含まれる映像を表示する表示部を備えた表示装置であって、
所定範囲内に存在するユーザを撮影する撮影部が撮影した、上記ユーザの画像を取得する画像取得部と、
自装置の周囲であり、かつ、上記所定範囲の外に他のユーザが存在するか否かを検知する検知部から、上記他のユーザが存在することを示す検知信号を受信する受信部と、
上記画像取得部が取得した上記画像から任意のユーザの表情を検出する検出手段と、
上記映像の表示中に、複数の異なる表情を示す表情情報と、所定の動作を実行するための設定情報との対応情報を予め記録する記録部の上記対応情報から、上記検出手段が検出した任意のユーザの表情に対応する上記設定情報を取得し、取得した設定情報に基づいて所定の動作を実行する実行手段とを備え、
上記画像取得部は、取得した画像から、上記ユーザが一人であるか複数であるかを判定し、
上記実行手段は、上記受信部が上記検知信号を受信したとき、及び上記画像取得部が上記ユーザが複数であると判定したとき、の少なくともいずれかのとき、上記所定の動作を実行することを特徴とする表示装置。
A display device including a display unit that acquires content and displays video included in the acquired content,
An image acquisition unit that acquires an image of the user captured by an imaging unit that captures a user existing within a predetermined range;
A receiving unit that receives a detection signal indicating that the other user exists, from a detection unit that detects whether or not the other user exists outside the predetermined range, around the device itself;
Detecting means for detecting a facial expression of an arbitrary user from the image acquired by the image acquisition unit;
An arbitrary detected by the detecting means from the correspondence information of the recording unit that records in advance correspondence information between facial expression information indicating a plurality of different facial expressions and setting information for executing a predetermined operation during display of the video An execution means for acquiring the setting information corresponding to the facial expression of the user and executing a predetermined operation based on the acquired setting information,
The image acquisition unit determines whether the user is one or more from the acquired image,
The execution means executes the predetermined operation when the receiving unit receives the detection signal and / or when the image acquisition unit determines that there are a plurality of users. Characteristic display device.
上記実行手段は、上記画像取得部が取得した画像を上記映像に重ね合わせて合成映像を作成し、作成した合成映像を上記表示部に表示することを特徴とする請求項1に記載の表示装置。   The display device according to claim 1, wherein the execution unit creates a composite video by superimposing the image acquired by the image acquisition unit on the video, and displays the generated composite video on the display unit. . 上記実行手段は、上記表示部が表示した過去の上記映像を再び表示するか否かの指示を上記ユーザに促すための表示情報を作成し、作成した表示情報を上記表示部に表示することを特徴とする請求項1又は2に記載の表示装置。   The execution means creates display information for prompting the user whether to display the past video displayed by the display unit again, and displays the created display information on the display unit. The display device according to claim 1, wherein the display device is a display device. 上記コンテンツは音声を含み、上記音声を出力する音声出力部を備え、
上記実行手段は、上記音声から歓声音を検出し、検出した歓声音の音量を調整して上記音声出力部に出力することを特徴とする請求項1から3のいずれか1項に記載の表示装置。
The content includes audio, and includes an audio output unit that outputs the audio.
The display according to any one of claims 1 to 3, wherein the execution means detects a cheer sound from the sound, adjusts a volume of the detected cheer sound, and outputs the sound to the sound output unit. apparatus.
上記記録部は、効果音を上記対応情報と対応づけて記録し、
上記実行手段は、上記記録部から上記効果音を取得し、取得した効果音を上記音声出力部に出力することを特徴とする請求項4に記載の表示装置。
The recording unit records sound effects in association with the correspondence information,
The display device according to claim 4, wherein the execution unit acquires the sound effect from the recording unit and outputs the acquired sound effect to the sound output unit.
上記コンテンツのジャンルを示すジャンル情報を取得するジャンル情報取得手段を備え、
上記記録部は上記ジャンル情報を上記対応情報と対応づけて記録し、
上記実行手段は、上記ジャンル情報取得手段が取得した上記ジャンル情報に対応する上記設定情報を上記記録部の対応情報から取得し、取得した設定情報に基づいて上記所定の動作を実行することを特徴とする請求項1から5のいずれか1項に記載の表示装置。
Genre information acquisition means for acquiring genre information indicating the genre of the content,
The recording unit records the genre information in association with the correspondence information,
The execution means acquires the setting information corresponding to the genre information acquired by the genre information acquisition means from the correspondence information of the recording unit, and executes the predetermined operation based on the acquired setting information. The display device according to any one of claims 1 to 5.
上記検知部は、上記自装置の周囲を複数の領域に分割し、所定時間ごとに上記複数の領域のいずれかを検知することを特徴とする請求項1から6のいずれか1項に記載の表示装置。   The said detection part divides the circumference | surroundings of the said own apparatus into a some area | region, and detects either of the said some area | region for every predetermined time, The one of Claim 1 characterized by the above-mentioned. Display device. 上記検知部が検知する領域は、上記所定範囲内を含まないことを特徴とする請求項7に記載の表示装置。   The display device according to claim 7, wherein a region detected by the detection unit does not include the predetermined range. コンテンツを取得し、取得したコンテンツに含まれる映像を表示する表示部と、
所定範囲内に存在するユーザを撮影する撮影部が撮影した、上記ユーザの画像を取得する画像取得部と、
自装置の周囲であり、かつ、上記所定範囲の外に他のユーザが存在するか否かを検知する検知部から、上記他のユーザが存在することを示す検知信号を受信する受信部とを備える表示装置の制御方法であって、
上記画像取得部が取得した上記画像から、上記ユーザが一人であるか複数であるかを判定する判定ステップと、
上記判定ステップの後、上記画像から任意のユーザの表情を検出する表情検出ステップと、
上記表情検出ステップの後、上記映像の表示中に、複数の異なる表情を示す表情情報と、所定の動作を実行するための設定情報との対応情報を予め記録する記録部の上記対応情報から、検出した任意のユーザの表情に対応する上記設定情報を取得する設定情報取得ステップと、
上記設定情報取得ステップにおいて取得した設定情報に基づいて所定の動作を実行する動作実行ステップとを含み、
上記動作実行ステップでは、上記受信部が上記検知信号を受信したとき、及び上記判定ステップにおいて上記ユーザが複数であると判定したとき、の少なくともいずれかのとき、上記所定の動作を実行することを特徴とする制御方法。
A display unit for acquiring content and displaying a video included in the acquired content;
An image acquisition unit that acquires an image of the user captured by an imaging unit that captures a user existing within a predetermined range;
A receiving unit that receives a detection signal indicating the presence of the other user from a detection unit that detects whether or not the other user exists outside the predetermined range, around the device itself; A display device control method comprising:
A determination step of determining whether the user is one or more from the image acquired by the image acquisition unit;
After the determination step, a facial expression detection step for detecting an arbitrary user facial expression from the image,
After the facial expression detection step, during the display of the video, from the correspondence information of the recording unit that pre-records correspondence information between facial expression information indicating a plurality of different facial expressions and setting information for executing a predetermined operation, A setting information acquisition step for acquiring the setting information corresponding to the detected facial expression of any user;
An operation execution step of executing a predetermined operation based on the setting information acquired in the setting information acquisition step,
In the operation execution step, the predetermined operation is executed at least one of when the receiving unit receives the detection signal and when the determination unit determines that there are a plurality of users. Control method characterized.
請求項1から8のいずれか1項に記載の表示装置の各手段としてコンピュータを動作させるためのプログラム。   The program for operating a computer as each means of the display apparatus of any one of Claim 1 to 8. 請求項10に記載のプログラムを記載したコンピュータ読み取り可能な記録媒体。


The computer-readable recording medium which described the program of Claim 10.


JP2010132194A 2010-06-09 2010-06-09 Display device, control method therefor, program, and recording medium Ceased JP2011259232A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010132194A JP2011259232A (en) 2010-06-09 2010-06-09 Display device, control method therefor, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010132194A JP2011259232A (en) 2010-06-09 2010-06-09 Display device, control method therefor, program, and recording medium

Publications (1)

Publication Number Publication Date
JP2011259232A true JP2011259232A (en) 2011-12-22

Family

ID=45474914

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010132194A Ceased JP2011259232A (en) 2010-06-09 2010-06-09 Display device, control method therefor, program, and recording medium

Country Status (1)

Country Link
JP (1) JP2011259232A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013251760A (en) * 2012-05-31 2013-12-12 Funai Electric Co Ltd Image display device
JP2014127896A (en) * 2012-12-27 2014-07-07 Samsung R&D Institute Japan Co Ltd Signal processing apparatus and signal processing method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013251760A (en) * 2012-05-31 2013-12-12 Funai Electric Co Ltd Image display device
JP2014127896A (en) * 2012-12-27 2014-07-07 Samsung R&D Institute Japan Co Ltd Signal processing apparatus and signal processing method

Similar Documents

Publication Publication Date Title
JP4796209B1 (en) Display device, control device, television receiver, display device control method, program, and recording medium
US8774592B2 (en) Media reproduction for audio visual entertainment
US9781379B2 (en) Media recording for audio visual entertainment
JP4044571B2 (en) Video shooting device for displaying OSD menu and display method thereof
WO2011125905A1 (en) Automatic operation-mode setting apparatus for television receiver, television receiver provided with automatic operation-mode setting apparatus, and automatic operation-mode setting method
JP5113935B1 (en) REPRODUCTION DEVICE, TELEVISION RECEIVER, DEVICE SELECTION METHOD, PROGRAM, AND RECORDING MEDIUM
JP2005020385A (en) Image pickup device, image recorder and image recording method
JP4389941B2 (en) REPRODUCTION CONTROL DEVICE AND METHOD, AND PROGRAM
JP2010074787A (en) Device and method for display control and program
JP2014030260A (en) Video-image extraction device, program and recording medium
JP2011176527A (en) Television apparatus
CN108028951A (en) Control the method and device played
JP2007318431A (en) Display control system and method for controlling display
JPWO2011040513A1 (en) Image display device
JP2007150544A (en) Content reproducing apparatus
WO2017150238A1 (en) Display control apparatus, display control method, and program
WO2018042794A1 (en) Image transmission device, image transmission method, and program
JP2007312055A (en) User-adaptive setting device
JP2011259232A (en) Display device, control method therefor, program, and recording medium
JP5067472B2 (en) Display control apparatus, display control method, and program
JP2007295100A (en) Television receiver
JP5084022B2 (en) Content playback apparatus, content playback system, content playback method, and program
US20090021642A1 (en) Moving image reproducing apparatus and control method of moving image reproducing apparatus
JP5657223B2 (en) Imaging apparatus, image reproduction system, and image reproduction method
JP5024331B2 (en) Video camera and information transmission method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131113

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131210

A045 Written measure of dismissal of application

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20140422