JP2006260275A - Content management system, display control device, display control method and display control program - Google Patents

Content management system, display control device, display control method and display control program Download PDF

Info

Publication number
JP2006260275A
JP2006260275A JP2005077884A JP2005077884A JP2006260275A JP 2006260275 A JP2006260275 A JP 2006260275A JP 2005077884 A JP2005077884 A JP 2005077884A JP 2005077884 A JP2005077884 A JP 2005077884A JP 2006260275 A JP2006260275 A JP 2006260275A
Authority
JP
Grant status
Application
Patent type
Prior art keywords
content
viewing
viewer
display
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005077884A
Other languages
Japanese (ja)
Inventor
Satoshi Hikita
Christophe Soulier
クリストフ スーリエ
聡 疋田
Original Assignee
Ricoh Co Ltd
株式会社リコー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a content management system capable of accurately comprehending and recording the viewing circumstances of content for each viewer. <P>SOLUTION: This content management system is provided with a display device 101 for displaying content; a viewer identifying device 102 for identifying a viewer who is located in the viewing region of content by a portable information storage medium; an imaging device 103 for photographing the viewer identified by the viewer-identifying device 102; and a display controller 110 for managing the content to be displayed at the display device 101 and controlling the display of the content. The display controller 110 is provided with a viewing circumstance recognizing means 111 for recognizing the viewing circumstances of the viewer, based on the information of the viewer identified by the viewer identifying device 102 and the image photographed by an imaging device 103; and a viewing circumstance storing means 116 for storing the content displayed by the display device 101 and the viewing circumstances recognized by the viewing circumstance recognizing means 11 being associated with them. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、視聴者の視聴状況と対応付けてコンテンツを管理するコンテンツ管理システム、表示制御装置、表示制御方法、および表示制御プログラムに関する。 The present invention relates to a content management system which manages the content in association with the viewing status of the viewer, the display control device, display control method, and a display control program.

従来、コンテンツを視聴する視聴者の実態を把握する技術としては、テレビ受像機に装着されたセンサーなどから視聴データを集計する視聴率調査方法が知られている。 Conventionally, as a technique to understand the actual situation of the audience to view the content, audience survey method to aggregate the viewing data from such sensors mounted on the television receiver is known. このような技術では、テレビ受像機等の装置単位で視聴実態を把握するため、個々の視聴者ごとの視聴状況を把握することは困難である。 In such a technique, in order to grasp the viewing situation in device units, such as a television receiver, it is difficult to grasp the viewing situation of each individual viewer.

個々の視聴者を識別する方法としては、視聴者を撮影した画像と、視聴者の属性に関する情報を記憶したICカード等の記録媒体から取得した情報とを対応付けることにより、撮影した画像内の視聴者個人を特定する技術が提案されている(例えば、特許文献1)。 The methods for determining an individual viewer, an image obtained by photographing a viewer, by associating the information acquired from the recording medium such as an IC card that stores information about the attributes of the viewer, watching the photographed image individuals to identify techniques have been proposed (e.g., Patent Document 1). また、視聴者の視聴状況を把握する方法に関連して、人の顔を撮影した画像から、顔の向きや視線、顔の表情などを認識し、それに応じて機器を制御する技術が提案されている(例えば、特許文献2)。 In addition, in connection with the methods to understand the viewing situation of the viewer, from the image obtained by photographing the face of a person, the direction and the line of sight of the face, such as recognizing facial expressions, techniques have been proposed to control the equipment accordingly and are (for example, Patent Document 2).

特開2004−194135号公報 JP 2004-194135 JP 特開2003−196655号公報 JP 2003-196655 JP

しかしながら、特許文献1の技術では、個々の視聴者を識別することができるが、その視聴者が特定のコンテンツを実際に視聴しているかどうかは判別できないという問題があった。 However, in the technique of Patent Document 1, it is possible to identify individual viewers, the viewer is whether the actual view specific content there is a problem that can not be determined. また、特許文献2の技術では、顔の向きなどを認識して視聴者が実際にコンテンツを視聴しているか否かを判別することができるが、複数の視聴者が存在する場合に撮影した画像のみからでは個々の視聴者を識別するのが困難であるという問題があった。 Further, in the technique of Patent Document 2, although it is possible to determine whether or not the view recognized viewer actually content and orientation of the face were taken when multiple viewers are present image than from only there is a problem that it is difficult to identify the individual viewers.

本発明は、上記に鑑みてなされたものであって、コンテンツの視聴状況を、視聴者ごとに正確に把握して記録することができるコンテンツ管理システムを提供することを目的とする。 The present invention was made in view of the above, the viewing state of the content, and an object thereof is to provide a content management system can be recorded accurately grasp each viewer.

上述した課題を解決し、目的を達成するために、請求項1にかかる発明は、コンテンツを表示する表示装置と、前記表示装置に表示されたコンテンツの視聴が可能な領域である視聴領域に存在する視聴者を、前記視聴者が保有する携帯型情報記憶媒体により識別する視聴者識別装置と、前記視聴者識別装置が識別した前記視聴者を撮影する撮像装置と、前記表示装置に表示するコンテンツを管理し、コンテンツの表示を制御する表示制御装置と、を備えたコンテンツ管理システムにおいて、前記表示制御装置は、前記視聴者識別装置が識別した前記視聴者の情報および前記撮像装置が撮影した画像に基づき、前記視聴者の視聴状況を認識する視聴状況認識手段と、前記表示装置が表示しているコンテンツと、前記視聴状況認識手段が認識した Exist to solve the problem described above and achieve the object, the invention according to claim 1 includes a display device for displaying content, the viewing area view is an area capable of the display device to display content viewers to an imaging apparatus for capturing a viewer identification device identifies the viewer the viewer identification device is identified by the portable information storage medium in which the viewer's contents to be displayed on said display device manage a display control unit for controlling the display of the content, the content management system with the display control device, an image the viewer identification device has identified the viewer information and the imaging device have taken based on the recognized viewing condition recognizer viewing status of the viewer, and the content of the display device is displaying, the viewing condition recognizing section recognizes 記視聴状況とを対応付けて記憶する視聴状況記憶手段と、を備えたことを特徴とする。 Viewing state storage means for storing in association with serial viewing situation, characterized by comprising a.

また、請求項2にかかる発明は、コンテンツを表示する表示装置と、前記表示装置に表示されたコンテンツの視聴が可能な領域である視聴領域に存在する視聴者を、前記視聴者が保有する携帯型情報記憶媒体により識別する視聴者識別装置と、前記視聴者識別装置が識別した前記視聴者を撮影する撮像装置と、前記表示装置に表示するコンテンツを管理し、コンテンツの表示を制御する表示制御装置と、前記視聴者識別装置が識別した前記視聴者の情報および前記撮像装置が撮影した画像および表示するコンテンツを含むコンテンツに関する情報の送受信を行う通信装置と、を備えたコンテンツ管理システムにおいて、前記表示制御装置は、少なくとも1つの前記通信装置との間で前記コンテンツに関する情報の送受信を行う通信手段をさら The invention according to claim 2, a display device for displaying the content, viewers existing in viewing area view is an area capable of the display device to display content, the viewer's mobile a viewer identification apparatus for identifying a type information storage medium, and an image pickup apparatus in which the viewer identification device captures the viewer identified, control the content to be displayed on said display device, a display control for controlling the display of content a device, in the content management system and a communication device for transmitting and receiving information about the content with content the viewer identification device identified the viewer information and the imaging device to image and display photographic, wherein the display control device, further communication means for transmitting and receiving information about the contents between at least one of said communication device 備え、前記通信手段が受信した前記視聴者の情報および前記撮像装置が撮影した画像に基づき、前記視聴者の視聴状況を認識する視聴状況認識手段と、前記表示装置が表示しているコンテンツと、前記視聴状況認識手段が認識した前記視聴状況とを対応付けて記憶する視聴状況記憶手段と、を備えたことを特徴とする。 Provided, based on the image of the communication means the viewer information and the imaging device by the received photographed, recognizing the viewing condition recognizer viewing status of the viewer, and the content of the display device is displaying, characterized by comprising a viewing state storage means for storing in association with the viewing condition of the viewer condition recognizer has recognized.

また、請求項3にかかる発明は、請求項1または2に記載のコンテンツ管理システムにおいて、前記表示制御装置は、前記視聴状況記憶手段に記憶された前記視聴状況に基づいて前記表示装置に表示すべきコンテンツを判断する判断手段をさらに備えたことを特徴とする。 The invention according to claim 3, in the content management system according to claim 1 or 2, wherein the display controller displays on the display device based on the viewing condition stored in the viewing state storage means and further comprising a determining means for determining a content to.

また、請求項4にかかる発明は、請求項3に記載のコンテンツ管理システムにおいて、前記視聴状況認識手段は、前記視聴状況として前記視聴者の顔の向きまたは視線の方向を認識し、前記判断手段は、前記視聴状況記憶手段に記憶された前記視聴者の顔の向きまたは視線の方向に基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする。 The invention according to claim 4, in the content management system of claim 3, wherein the viewing status recognizing means recognizes the orientation or gaze of the face of the viewer as the viewing condition, said determining means It is characterized by determining the content to be displayed on the display device based on the orientation or gaze of the face of the viewer stored in the viewing status storage means.

また、請求項5にかかる発明は、請求項3に記載のコンテンツ管理システムにおいて、前記視聴状況認識手段は、前記視聴状況として前記視聴者が前記視聴領域に存在するか否かを認識し、前記判断手段は、前記視聴者が前記視聴領域に存在するか否かに基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする。 The invention according to claim 5, in the content management system of claim 3, wherein the viewing status recognition means, the viewer recognizes whether present in the viewing area as the viewing condition, said determination means, characterized in that the viewer determines the content to be displayed on said display device based on whether or not present in the viewing area.

また、請求項6にかかる発明は、請求項3に記載のコンテンツ管理システムにおいて、前記視聴状況認識手段は、前記視聴状況として前記視聴者の顔の表情を認識し、前記判断手段は、前記視聴状況記憶手段に記憶された前記視聴者の顔の表情に基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする。 The invention according to claim 6, in the content management system of claim 3, wherein the viewing condition recognizer, the recognized facial expressions of the viewer as the viewing conditions, said determining means, said viewing characterized by determining the content to be displayed on the display device based on the facial expression of the face of said stored viewer status storage means.

また、請求項7にかかる発明は、請求項3に記載のコンテンツ管理システムにおいて、コンテンツを視聴している視聴者が発する音声を入力する音声入力装置をさらに備え、前記視聴状況認識手段は、前記音声入力装置が入力した音声に基づき、前記視聴状況として前記視聴者のコンテンツに対する反応を認識し、前記判断手段は、前記視聴状況記憶手段に記憶された前記視聴者のコンテンツに対する反応に基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする。 The invention according to claim 7, in the content management system according to claim 3, further comprising, the viewing condition recognizer voice input device for inputting voice viewers emits viewing the content, the based on the speech voice input device inputs, the response to the content of the viewer confirmed the viewing condition, said determining means, on the basis of the reactions to the content of the viewer stored in the viewing state storage means characterized by determining the content to be displayed on the display device.

また、請求項8にかかる発明は、請求項3〜7のいずれか1つに記載のコンテンツ管理システムにおいて、前記表示制御装置は、前記表示装置に表示するコンテンツと、コンテンツを表示する優先順位とを対応付けて記憶するコンテンツ記憶手段をさらに備え、前記判断手段は、前記コンテンツ記憶手段に記憶された前記優先順位と、前記視聴状況とに基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする。 The invention according to claim 8, in the content management system according to any one of claims 3-7, wherein the display control device, a content to be displayed on the display device, the priority for displaying the content further comprising a content storage means for storing in association, said determining means includes: the priority stored in said content storage means, to determine the content to be displayed on the display device based on said viewing condition the features.

また、請求項9にかかる発明は、請求項3〜7のいずれか1つに記載のコンテンツ管理システムにおいて、前記表示制御装置は、前記判断手段が表示すべきと判断したコンテンツの視聴を促す情報を視聴者に通知する通知手段をさらに備えたことを特徴とする。 The invention according to claim 9, in the content management system according to any one of claims 3-7, wherein the display control device prompts the viewing of content that the determination unit determines that should display information and further comprising a notifying means for notifying the viewer.

また、請求項10にかかる発明は、表示制御装置において、表示装置に表示するコンテンツの視聴が可能な領域である視聴領域に存在する視聴者を、前記視聴者が保有する携帯型情報記憶媒体により識別する視聴者識別装置が識別した前記視聴者の情報および前記視聴者を撮影する撮像装置が撮影した画像の入力を受付け、受付けた前記視聴者の情報および前記撮影した画像に基づき、前記視聴者の視聴状況を認識する視聴状況認識手段と、前記表示装置が表示しているコンテンツと、前記視聴状況認識手段が認識した前記視聴状況とを対応付けて記憶する視聴状況記憶手段と、前記視聴状況記憶手段に記憶された前記視聴状況に基づいて前記表示装置に表示すべきコンテンツを判断する判断手段と、前記判断手段が表示すべきと判断したコ The invention according to claim 10 is the display control apparatus, a viewer present in the viewing area view is capable region of the content to be displayed on the display device, the portable information storage medium in which the viewer's accepting an input of an image capturing apparatus has captured the identifying viewer identification device captures the viewer information and the viewer identified, based on the information of the received the viewer and the captured image, the viewer recognizing the viewing condition recognizer viewing status of a content in which the display device is displaying, the viewing state storage means for the viewing situation recognition means in association with said viewing state recognized, the viewing situation determination means for determining a content to be displayed on the display device based on the stored in the storage unit the viewing condition, said determining means determines that should be displayed co テンツを出力する出力手段と、を備えたことを特徴とする。 And output means for outputting the Ceiling, characterized by comprising a.

また、請求項11にかかる発明は、請求項10に記載の表示制御装置において、前記視聴者識別装置が識別した前記視聴者の情報および前記撮像装置が撮影した画像の送受信を行う通信手段をさらに備え、前記視聴状況認識手段は、前記通信手段が受信した前記視聴者の情報および前記撮像装置が撮影した画像の入力を受付け、受付けた前記視聴者の情報および前記撮影した画像に基づき、前記視聴者の視聴状況を認識することを特徴とする。 The invention according to claim 11, in the display control device according to claim 10, further communication means the viewer identification device the viewer information and the imaging device identified to send and receive images captured wherein the viewing condition recognizer accepts an input of image by the communication unit receives the viewer information and the imaging device is taken, based on the viewer information and the captured image received, the viewing characterized in that it recognizes the viewing status of the person.

また、請求項12にかかる発明は、請求項10または11に記載の表示制御装置において、前記視聴状況認識手段は、前記視聴状況として前記視聴者の顔の向きまたは視線の方向を認識し、前記判断手段は、前記視聴状況記憶手段に記憶された前記視聴者の顔の向きまたは視線の方向に基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする。 The invention according to claim 12 is the display control apparatus according to claim 10 or 11, wherein the viewing status recognizing means recognizes the orientation or gaze of the face of the viewer as the viewing condition, said determination means may determine the contents to be displayed on said display device based on the orientation or gaze of the face of the viewer stored in the viewing status storage means.

また、請求項13にかかる発明は、請求項10または11に記載の表示制御装置において、前記視聴状況認識手段は、前記視聴状況として前記視聴者が前記視聴領域に存在するか否かを認識し、前記判断手段は、前記視聴者が前記視聴領域に存在するか否かに基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする。 The invention according to claim 13, in the display control device according to claim 10 or 11, wherein the viewing status recognition means, the viewer recognizes whether present in the viewing area as the viewing status the determination means is characterized in that the viewer determines the content to be displayed on said display device based on whether or not present in the viewing area.

また、請求項14にかかる発明は、請求項10または11に記載の表示制御装置において、前記視聴状況認識手段は、前記視聴状況として前記視聴者の顔の表情を認識し、前記判断手段は、前記視聴状況記憶手段に記憶された前記視聴者の顔の表情に基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする。 The invention according to claim 14, in the display control device according to claim 10 or 11, wherein the viewing condition recognizer recognizes facial expressions of the viewer as the viewing condition, said judging means characterized by determining the content to be displayed on the display device based on the facial expressions of the viewers stored in the viewing status storage means.

また、請求項15にかかる発明は、請求項10または11に記載の表示制御装置において、前記視聴状況認識手段は、音声入力装置が入力したコンテンツを視聴している視聴者が発する音声の入力を受付け、受付けた音声に基づいて前記視聴状況として前記視聴者のコンテンツに対する反応を認識し、前記判断手段は、前記視聴状況記憶手段に記憶された前記視聴者のコンテンツに対する反応に基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする。 The invention according to claim 15, in the display control device according to claim 10 or 11, wherein the viewing status recognition means, an input of speech viewers who are viewing the content of the voice input device is inputted emits reception, recognizing a response to the content of the viewer as the viewing status on the basis of the voice reception, said determining means, said display device based on a response to the content of the viewer stored in the viewing state storage means characterized by determining the content to be displayed on.

また、請求項16にかかる発明は、請求項10〜15のいずれか1つに記載の表示制御装置において、前記表示装置に表示するコンテンツと、コンテンツを表示する優先順位とを対応付けて記憶するコンテンツ記憶手段をさらに備え、前記判断手段は、前記コンテンツ記憶手段に記憶された前記優先順位と、前記視聴状況とに基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする。 The invention according to claim 16, in the display control device according to any one of claims 10 to 15, the contents to be displayed on the display device, in association with the priority for displaying the content further comprising a content storage means, the determination means may determine said priority stored in said content storage means, the content to be displayed on the display device based on said viewing condition.

また、請求項17にかかる発明は、請求項10〜16のいずれか1つに記載の表示制御装置において、前記判断手段が表示すべきと判断したコンテンツの視聴を促す情報を視聴者に通知する通知手段をさらに備えたことを特徴とする。 The invention according to claim 17 notifies the display control device according to any one of claims 10 to 16, information prompting the viewing of content that the determination unit determines that should be displayed to the viewer and further comprising a notification means.

また、請求項18にかかる発明は、表示制御方法において、表示装置に表示するコンテンツの視聴が可能な領域である視聴領域に存在する視聴者を、前記視聴者が保有する携帯型情報記憶媒体により識別する視聴者識別装置が識別した前記視聴者の情報および前記視聴者を撮影する撮像装置が撮影した画像の入力を受付け、受付けた前記視聴者の情報および前記撮影した画像に基づき、前記視聴者の視聴状況を認識する視聴状況認識ステップと、前記表示装置が表示しているコンテンツと、前記視聴状況認識ステップが認識した前記視聴状況とを対応付けて記憶する視聴状況記憶手段に記憶された前記視聴状況に基づいて前記表示装置に表示すべきコンテンツを判断する判断ステップと、前記判断ステップが表示すべきと判断したコンテンツ The invention according to claim 18 is a display control method, a viewer present in the viewing area view is capable region of the content to be displayed on the display device, the portable information storage medium in which the viewer's accepting an input of an image capturing apparatus has captured the identifying viewer identification device captures the viewer information and the viewer identified, based on the information of the received the viewer and the captured image, the viewer viewing state recognizing viewing status recognition step, the content which the display device is displaying the viewing condition recognition step is stored in the viewing state storage means for storing in association with the viewing state recognized the a determining step of determining a content to be displayed on the display device based on the viewing conditions, the content which the determination step has determined that to be displayed 出力する出力ステップと、を備えたことを特徴とする。 Characterized in that and an output step of outputting.

また、請求項19にかかる発明は、請求項18に記載の表示制御方法において、前記視聴者識別装置が識別した前記視聴者の情報および前記撮像装置が撮影した画像の送受信を行う通信ステップをさらに備え、前記視聴状況認識ステップは、前記通信ステップが受信した前記視聴者の情報および前記撮像装置が撮影した画像の入力を受付け、受付けた前記視聴者の情報および前記撮影した画像に基づき、前記視聴者の視聴状況を認識することを特徴とする。 The invention according to claim 19, in the display control method according to claim 18, further communication step of said viewer identification device identified the viewer information and the imaging device to send and receive photographed images wherein the viewing condition recognition step accepts an input of image by the communication step has received the viewer information and the imaging device is taken, based on the viewer information and the captured image received, the viewing characterized in that it recognizes the viewing status of the person.

また、請求項20にかかる発明は、請求項18または19に記載の表示制御方法において、前記視聴状況認識ステップは、前記視聴状況として前記視聴者の顔の向きまたは視線の方向を認識し、前記判断ステップは、前記視聴状況記憶手段に記憶された前記視聴者の顔の向きまたは視線の方向に基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする。 The invention according to claim 20, in the display control method according to claim 18 or 19, wherein the viewing status recognition step recognizes the orientation or gaze of the face of the viewer as the viewing condition, said decision step is characterized by determining the content to be displayed on the display device based on the orientation or gaze of the face of the viewer stored in the viewing status storage means.

また、請求項21にかかる発明は、請求項18または19に記載の表示制御方法において、前記視聴状況認識ステップは、前記視聴状況として前記視聴者が前記視聴領域に存在するか否かを認識し、前記判断ステップは、前記視聴者が前記視聴領域に存在するか否かに基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする。 The invention according to claim 21, in the display control method according to claim 18 or 19, wherein the viewing status recognition step, the viewer recognizes whether present in the viewing area as the viewing status the determination step, characterized in that the viewer determines the content to be displayed on said display device based on whether or not present in the viewing area.

また、請求項22にかかる発明は、請求項18または19に記載の表示制御方法において、前記視聴状況認識ステップは、前記視聴状況として前記視聴者の顔の表情を認識し、前記判断ステップは、前記視聴状況記憶手段に記憶された前記視聴者の顔の表情に基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする。 The invention according to claim 22, in the display control method according to claim 18 or 19, wherein the viewing status recognition step recognizes the facial expressions of the viewer as the viewing condition, the determining step, characterized by determining the content to be displayed on the display device based on the facial expressions of the viewers stored in the viewing status storage means.

また、請求項23にかかる発明は、請求項18または19に記載の表示制御方法において、前記視聴状況認識ステップは、音声入力装置が入力したコンテンツを視聴している視聴者が発する音声の入力を受付け、受付けた音声に基づいて前記視聴状況として前記視聴者のコンテンツに対する反応を認識し、前記判断ステップは、前記視聴状況記憶手段に記憶された前記視聴者のコンテンツに対する反応に基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする。 The invention according to claim 23, in the display control method according to claim 18 or 19, wherein the viewing status recognition step, an input audio viewers emits viewing the content of the voice input device has input accepted, accepted and recognized the response to content of the viewer as the viewing status on the basis of speech, the determination step, the display device based on a response to the content of the viewer stored in the viewing state storage means characterized by determining the content to be displayed on.

また、請求項24にかかる発明は、請求項18〜23のいずれか1つに記載の表示制御方法において、前記判断ステップは、前記表示装置に表示するコンテンツとコンテンツを表示する優先順位とを対応付けて記憶するコンテンツ記憶手段に記憶された前記優先順位と、前記視聴状況とに基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする。 The invention according to claim 24, in the display control method according to any one of claims 18 to 23, wherein the determination step, corresponding to the priority for displaying the content and the content to be displayed on said display device said priority stored in the content storage means for attaching and storing, is characterized by determining the content to be displayed on the display device based on said viewing condition.

また、請求項25にかかる発明は、請求項18〜24のいずれか1つに記載の表示制御方法において、前記判断ステップが表示すべきと判断したコンテンツの視聴を促す情報を視聴者に通知する通知ステップをさらに備えたことを特徴とする。 The invention according to claim 25 notifies the display control method according to any one of claims 18 to 24, information prompting the viewing of content that the determining step determines that should be displayed to the viewer and further comprising a notification step.

また、請求項26にかかる発明は、請求項18〜25のいずれか1つに記載の表示制御方法をコンピュータに実行させるプログラムである。 The invention according to claim 26 is a program for executing the display control method according to the computer in any one of claims 18 to 25.

請求項1にかかる発明によれば、コンテンツと、コンテンツを視聴している個々の視聴者の視聴状況とを対応付けて記憶することができる。 According to the invention according to claim 1, it can be stored in association with the content, the viewing state of each of a viewer viewing the content. このため、各コンテンツの視聴状況を個々の視聴者ごとに正確に記録することができるという効果を奏する。 Therefore, an effect that it is possible to accurately record the viewing state of each content for each individual viewer.

また、請求項2にかかる発明によれば、コンテンツと、複数の表示装置においてコンテンツを視聴している個々の視聴者の視聴状況とを対応付けて記憶することができる。 Further, according to the invention according to claim 2, it may be stored in association with the content, the viewing state of each of a viewer viewing the content in a plurality of display devices. このため、複数の表示装置における各コンテンツの視聴状況を集計して、個々の視聴者ごとに正確に記録することができるという効果を奏する。 Therefore, an effect that by aggregating the viewing situation of each content in a plurality of display devices, it is possible to accurately record for each individual viewer.

また、請求項3にかかる発明によれば、記録した視聴状況に基づいて表示すべきコンテンツを判断することができるため、個々の視聴者の視聴状況に応じてコンテンツの表示内容を制御することができるという効果を奏する。 Further, according to the invention according to claim 3, it is possible to determine the content to be displayed based on the recorded viewing state, to control the display of the content in accordance with the viewing condition of the individual viewers an effect that can be.

また、請求項4にかかる発明によれば、視聴者の顔の向きまたは視線の方向を認識し、それに基づいて表示すべきコンテンツを判断することができる。 Further, according to the invention according to claim 4, it is possible to recognize the direction of orientation or line of sight of the face of the viewer, determines contents to be displayed based on it. このため、視聴者が実際にコンテンツを視聴していたか否かに基づいてコンテンツの表示内容を制御することができるという効果を奏する。 Therefore, an effect that can control the display of the content based on whether or not view actually content viewers.

また、請求項5にかかる発明によれば、視聴者がコンテンツを視聴できる領域に存在するか否かを認識し、それに基づいて表示すべきコンテンツを判断することができる。 Further, according to the invention according to claim 5, viewers can recognize whether present in the region that can view content, determines contents to be displayed based on it. このため、コンテンツを視聴できる領域に存在する視聴者に対して適切なコンテンツを表示することができるという効果を奏する。 Therefore, an effect that it is possible to display the appropriate content to a viewer present in the area that can view content.

また、請求項6にかかる発明によれば、視聴者の顔の表情を認識し、それに基づいて表示すべきコンテンツを判断することができる。 Further, according to the invention according to claim 6, it is possible to recognize the facial expression of the face of the viewer, determines contents to be displayed based on it. このため、視聴者の興味を引いたコンテンツを正確に記録することができるとともに、視聴者の興味を引いたコンテンツを他の視聴者に対して表示することができるという効果を奏する。 Therefore, an effect that it is possible to accurately record the contents have interested viewer can view the contents have interested viewers to other viewers.

また、請求項7にかかる発明によれば、視聴者の発した音声から視聴者のコンテンツに対する反応を認識し、それに基づいて表示すべきコンテンツを判断することができる。 Further, according to the invention according to claim 7, it is possible to recognize the response content of the viewer from the sound produced by the viewer, determines contents to be displayed based on it. このため、視聴者の興味を引いたコンテンツを正確に記録することができるとともに、視聴者の興味を引いたコンテンツを他の視聴者に対して表示することができるという効果を奏する。 Therefore, an effect that it is possible to accurately record the contents have interested viewer can view the contents have interested viewers to other viewers.

また、請求項8にかかる発明によれば、コンテンツを表示する優先順位と視聴状況とに基づいて表示すべきコンテンツを判断することができる。 Further, according to the invention according to claim 8, it is possible to determine the content to be displayed based on the priority order of displaying the content viewing state. このため、個々の視聴者の視聴状況だけでなく、コンテンツの優先順位に応じてコンテンツの表示内容を制御することができるという効果を奏する。 Therefore, an effect that individual well viewing condition of the viewer can control the display of the content depending on the priority of the content.

また、請求項9にかかる発明によれば、表示すべきコンテンツの視聴を促す情報を視聴者に通知することができるため、重要なコンテンツの視聴を徹底させることができるという効果を奏する。 Further, according to the invention according to claim 9, an effect that it is possible to notify the viewer information prompting the viewing of the content to be displayed, it is possible to ensure the view of the important content.

また、請求項10にかかる発明によれば、コンテンツと、コンテンツを視聴している個々の視聴者の視聴状況とを対応付けて記憶し、記憶した視聴状況に基づいて表示すべきコンテンツを判断することができる。 Further, according to the invention according to claim 10, and content stored in association with the viewing state of each of a viewer viewing the content, determines contents to be displayed based on the stored viewing state be able to. このため、各コンテンツの視聴状況を個々の視聴者ごとに正確に記録することができ、個々の視聴者の視聴状況に応じてコンテンツの表示内容を制御することができるという効果を奏する。 Therefore, the viewing state of each content for each individual viewer can be accurately recorded, an effect that can control the display of the content in accordance with the viewing condition of the individual viewer.

また、請求項11にかかる発明によれば、コンテンツと、複数の表示装置においてコンテンツを視聴している個々の視聴者の視聴状況とを対応付けて記憶し、記憶した視聴状況に基づいて表示すべきコンテンツを判断することができる。 Further, according to the invention according to claim 11, and content stored in association with the viewing state of each of a viewer viewing the content in a plurality of display devices, displays based on the stored viewing state content can be determined to be. このため、複数の表示装置における各コンテンツの視聴状況を集計して、個々の視聴者ごとに正確に記録することができ、個々の視聴者の視聴状況に応じてコンテンツの表示内容を制御することができるという効果を奏する。 Therefore, by summing the viewing situation of each content in a plurality of display devices, it is possible to accurately record for each individual viewer to control the display of the content in accordance with the viewing condition of the individual viewers there is an effect that it is.

また、請求項12にかかる発明によれば、視聴者の顔の向きまたは視線の方向を認識し、それに基づいて表示すべきコンテンツを判断することができる。 Further, according to the invention according to claim 12, it is possible to recognize the direction of orientation or line of sight of the face of the viewer, determines contents to be displayed based on it. このため、視聴者が実際にコンテンツを視聴していたか否かに基づいてコンテンツの表示内容を制御することができるという効果を奏する。 Therefore, an effect that can control the display of the content based on whether or not view actually content viewers.

また、請求項13にかかる発明によれば、視聴者がコンテンツを視聴できる領域に存在するか否かを認識し、それに基づいて表示すべきコンテンツを判断することができる。 Further, according to the invention according to claim 13, viewers can recognize whether present in the region that can view content, determines contents to be displayed based on it. このため、コンテンツを視聴できる領域に存在する視聴者に対して適切なコンテンツを表示することができるという効果を奏する。 Therefore, an effect that it is possible to display the appropriate content to a viewer present in the area that can view content.

また、請求項14にかかる発明によれば、視聴者の顔の表情を認識し、それに基づいて表示すべきコンテンツを判断することができる。 Further, according to the invention according to claim 14, it is possible to recognize the facial expression of the face of the viewer, determines contents to be displayed based on it. このため、視聴者の興味を引いたコンテンツを正確に記録することができるとともに、視聴者の興味を引いたコンテンツを他の視聴者に対して表示することができるという効果を奏する。 Therefore, an effect that it is possible to accurately record the contents have interested viewer can view the contents have interested viewers to other viewers.

また、請求項15にかかる発明によれば、視聴者の発した音声から視聴者のコンテンツに対する反応を認識し、それに基づいて表示すべきコンテンツを判断することができる。 Further, according to the invention according to claim 15, it is possible to recognize the response content of the viewer from the sound produced by the viewer, determines contents to be displayed based on it. このため、視聴者の興味を引いたコンテンツを正確に記録することができるとともに、視聴者の興味を引いたコンテンツを他の視聴者に対して表示することができるという効果を奏する。 Therefore, an effect that it is possible to accurately record the contents have interested viewer can view the contents have interested viewers to other viewers.

また、請求項16にかかる発明によれば、コンテンツを表示する優先順位と視聴状況とに基づいて表示すべきコンテンツを判断することができる。 Further, according to the invention according to claim 16, it is possible to determine the content to be displayed based on the priority order of displaying the content viewing state. このため、個々の視聴者の視聴状況だけでなく、コンテンツの優先順位に応じてコンテンツの表示内容を制御することができるという効果を奏する。 Therefore, an effect that individual well viewing condition of the viewer can control the display of the content depending on the priority of the content.

また、請求項17にかかる発明によれば、表示すべきコンテンツの視聴を促す情報を視聴者に通知することができるため、重要なコンテンツの視聴を徹底させることができるという効果を奏する。 Further, according to the invention according to claim 17, an effect that it is possible to notify the viewer information prompting the viewing of the content to be displayed, it is possible to ensure the view of the important content.

また、請求項18にかかる発明によれば、コンテンツと、コンテンツを視聴している個々の視聴者の視聴状況とを対応付けて記憶し、記憶した視聴状況に基づいて表示すべきコンテンツを判断することができる。 Further, according to the invention according to claim 18, and content stored in association with the viewing state of each of a viewer viewing the content, determines contents to be displayed based on the stored viewing state be able to. このため、各コンテンツの視聴状況を個々の視聴者ごとに正確に記録することができ、個々の視聴者の視聴状況に応じてコンテンツの表示内容を制御することができるという効果を奏する。 Therefore, the viewing state of each content for each individual viewer can be accurately recorded, an effect that can control the display of the content in accordance with the viewing condition of the individual viewer.

また、請求項19にかかる発明によれば、コンテンツと、複数の表示装置においてコンテンツを視聴している個々の視聴者の視聴状況とを対応付けて記憶し、記憶した視聴状況に基づいて表示すべきコンテンツを判断することができる。 Further, according to the invention according to claim 19, and content stored in association with the viewing state of each of a viewer viewing the content in a plurality of display devices, displays based on the stored viewing state content can be determined to be. このため、複数の表示装置における各コンテンツの視聴状況を集計して、個々の視聴者ごとに正確に記録することができ、個々の視聴者の視聴状況に応じてコンテンツの表示内容を制御することができるという効果を奏する。 Therefore, by summing the viewing situation of each content in a plurality of display devices, it is possible to accurately record for each individual viewer to control the display of the content in accordance with the viewing condition of the individual viewers there is an effect that it is.

また、請求項20にかかる発明によれば、視聴者の顔の向きまたは視線の方向を認識し、それに基づいて表示すべきコンテンツを判断することができる。 Further, according to the invention according to claim 20, it is possible to recognize the direction of orientation or line of sight of the face of the viewer, determines contents to be displayed based on it. このため、視聴者が実際にコンテンツを視聴していたか否かに基づいてコンテンツの表示内容を制御することができるという効果を奏する。 Therefore, an effect that can control the display of the content based on whether or not view actually content viewers.

また、請求項21にかかる発明によれば、視聴者がコンテンツを視聴できる領域に存在するか否かを認識し、それに基づいて表示すべきコンテンツを判断することができる。 Further, according to the invention according to claim 21, viewers can recognize whether present in the region that can view content, determines contents to be displayed based on it. このため、コンテンツを視聴できる領域に存在する視聴者に対して適切なコンテンツを表示することができるという効果を奏する。 Therefore, an effect that it is possible to display the appropriate content to a viewer present in the area that can view content.

また、請求項22にかかる発明によれば、視聴者の顔の表情を認識し、それに基づいて表示すべきコンテンツを判断することができる。 Further, according to the invention according to claim 22, it is possible to recognize the facial expression of the face of the viewer, determines contents to be displayed based on it. このため、視聴者の興味を引いたコンテンツを正確に記録することができるとともに、視聴者の興味を引いたコンテンツを他の視聴者に対して表示することができるという効果を奏する。 Therefore, an effect that it is possible to accurately record the contents have interested viewer can view the contents have interested viewers to other viewers.

また、請求項23にかかる発明によれば、視聴者の発した音声から視聴者のコンテンツに対する反応を認識し、それに基づいて表示すべきコンテンツを判断することができる。 Further, according to the invention according to claim 23, it is possible to recognize the response content of the viewer from the sound produced by the viewer, determines contents to be displayed based on it. このため、視聴者の興味を引いたコンテンツを正確に記録することができるとともに、視聴者の興味を引いたコンテンツを他の視聴者に対して表示することができるという効果を奏する。 Therefore, an effect that it is possible to accurately record the contents have interested viewer can view the contents have interested viewers to other viewers.

また、請求項24にかかる発明によれば、コンテンツを表示する優先順位と視聴状況とに基づいて表示すべきコンテンツを判断することができる。 Further, according to the invention according to claim 24, it is possible to determine the content to be displayed based on the priority order of displaying the content viewing state. このため、個々の視聴者の視聴状況だけでなく、コンテンツの優先順位に応じてコンテンツの表示内容を制御することができるという効果を奏する。 Therefore, an effect that individual well viewing condition of the viewer can control the display of the content depending on the priority of the content.

また、請求項25にかかる発明によれば、表示すべきコンテンツの視聴を促す情報を視聴者に通知することができるため、重要なコンテンツの視聴を徹底させることができるという効果を奏する。 Further, according to the invention according to claim 25, an effect that it is possible to notify the viewer information prompting the viewing of the content to be displayed, it is possible to ensure the view of the important content.

また、請求項26の発明によれば、請求項18〜25に記載の表示制御方法をコンピュータに実行させることができるという効果を奏する。 Further, according to the invention of claim 26, there is an effect that it is possible to execute the display control method according to claim 18 to 25 in a computer.

以下に添付図面を参照して、この発明にかかるコンテンツ管理システムの最良な実施の形態を詳細に説明する。 With reference to the accompanying drawings, illustrating the best embodiment of a content management system according to the present invention in detail.

(第1の実施の形態) (First Embodiment)
第1の実施の形態にかかるコンテンツ管理システムは、視聴者識別装置、撮像装置、音声入力装置から入力した情報を用いて視聴者の視聴状況を認識し、表示しているコンテンツと対応付けて管理するとともに、表示装置におけるコンテンツの表示内容を的確に制御するものである。 Content management system according to the first embodiment, managed in association with the content to recognize and viewing status of the viewer by using information input viewer identification device, an imaging device, the voice input device, displaying as well as, it is to precisely control the display of the content in the display device.

図1は、本発明の第1の実施の形態にかかるコンテンツ管理システム100の構成を示すブロック図である。 Figure 1 is a block diagram showing a first configuration of the content management system 100 according to an embodiment of the present invention. 同図に示すように、コンテンツ管理システム100は、表示装置101と、視聴者識別装置102と、撮像装置103と、音声入力装置104と、表示制御装置110と、IDカード120とを備えている。 As shown in the figure, the content management system 100 includes a display device 101, the viewer identification device 102, an imaging device 103, and a voice input device 104, a display control unit 110, the ID card 120 .

表示装置101は、CRT(Cathode Ray Tube)あるいはLCD(liquid crystal monitor)などのディスプレイで構成され、動画像、静止画像などの画像情報や、文字情報などのコンテンツを表示する装置である。 Display device 101 includes a display of a CRT (Cathode Ray Tube) or LCD (liquid crystal monitor), moving images, and image information such as still images, a device that displays the contents of the character information. 本発明は、複数の視聴者によって視聴されるコンテンツの視聴状況を把握することが目的であるため、表示装置101は、複数の視聴者によって閲覧が可能な表示装置であり、例えば、食堂、休憩所などの共有スペースに設置された大型の表示装置を想定している。 The present invention, since is possible to grasp the viewing situation of the content to be viewed by multiple viewers is an object, the display device 101 is a display device capable of viewing by a plurality of viewers, for example, dining room, break It is assumed a large display device that is installed in a shared space, such as a place.

IDカード120は、RFID(Radio Frequency Identification)、Bluetooth対応の携帯電話、無線IC(Integrated Circuit)カード、無線機能付きPDA(Personal Digital Assistance)、赤外線タグ、バーコード、2次元バーコードなどを利用した携帯型情報記憶媒体であり、視聴者を識別するための情報を格納するものである。 ID card 120, RFID (Radio Frequency Identification), Bluetooth enabled mobile phones, wireless IC (Integrated Circuit) card wireless function PDA (Personal Digital Assistance), an infrared tag, a bar code, using such two-dimensional bar code a portable information storage medium, and stores the information for identifying the viewer. IDカード120には、視聴者を識別するための情報として、少なくとも視聴者を一意に識別することができる視聴者IDが保存される。 The ID card 120, as information for identifying the viewer, the viewer ID that can uniquely identify at least the viewer are stored.

視聴者識別装置102は、IDカード120に記憶された視聴者の情報を読み取ることにより視聴者を識別する非接触型の識別装置である。 Viewer identification device 102 is a non-contact identification device for identifying a viewer by reading the information of the viewer stored in the ID card 120. 視聴者識別装置102は、表示装置101に表示されるコンテンツの視聴が可能な領域(以下、視聴領域という。)に入った視聴者を識別できるように、表示装置101の近傍に設置される。 Viewer identification apparatus 102, the available space viewing of content displayed on the display device 101 so as to identify the viewer entering (hereinafter, referred to. Viewing area), it is placed near the display device 101.

撮像装置103は、表示装置101の近傍に設置され、表示装置101の視聴領域に入った視聴者を撮影するものであり、デジタルカメラ、ビデオカメラなどの一般的に用いられるあらゆる撮像装置により構成することができる。 Imaging device 103 is installed in the vicinity of the display device 101 is intended to photograph the viewer enters the viewing area of ​​the display device 101, a digital camera, constitutes the generally any imaging device used such as a video camera be able to.

音声入力装置104は、表示装置101の近傍に設置され、視聴者が発した歓声や笑い声、拍手などの音声を入力するものであり、マイクロフォンなどの一般的に用いられるあらゆる音声入力装置により構成することができる。 Voice input device 104 is installed in the vicinity of the display device 101, cheers and laughter emitted by the viewer, which inputs a sound, such as clapping, constituted by all the voice input device generally used such as a microphone be able to.

表示制御装置110は、表示装置101に表示するコンテンツを記憶手段に記憶して管理するとともに、視聴者の視聴状況に合わせて表示するコンテンツを制御するものである。 The display control unit 110 is configured to manage stored in the storage means content to be displayed on the display device 101, and controls the content to be displayed according to the viewing situation of the viewer. 図1に示すように、表示制御装置110は、視聴状況認識部111と、記憶制御部112と、判断部113と、通知部114と、コンテンツ記憶部115と、視聴状況記憶部116とを備えている。 As shown in FIG. 1, the display control unit 110 includes a viewing situation recognition unit 111, a storage control unit 112, a determination unit 113, a notification unit 114 includes a content storage unit 115, a viewing state storage unit 116 ing.

視聴状況認識部111は、視聴者識別装置102が視聴者を識別したか否かにより、視聴者が視聴領域に存在するか否かを視聴状況として認識するものである。 Viewing status recognition section 111 is for viewer identification device 102 depending on whether or not to identify the viewer, the viewer recognizes as the viewing conditions whether existing in viewing area. また、撮像装置103が撮影した画像から視聴者の顔の向き・視線、顔の表情を視聴状況として認識するものである。 Also, it is to recognize the orientation-line of sight of the face of the viewer, facial expressions as the viewing conditions from the image capturing apparatus 103 is taken. さらに、音声入力装置104が入力した音声から歓声や拍手といった視聴者のコンテンツに対する反応を視聴状況として認識するものである。 Furthermore, one that recognizes a response to audience content such cheers and applause as the viewing status from the speech audio input device 104 is input.

視聴者が視聴領域に存在するか否かは、上述の視聴者識別装置102により視聴者が識別されたか否かにより判断することができる。 Whether the viewer is present in the viewing area can be viewer by the viewer identification device 102 described above is based on whether the identified. 画像から顔の向き・視線を認識する方法としては、上述の特許文献2に記載された方法などの一般的に利用されるあらゆる方法を適用することができる。 As a method for recognizing the orientation-line-of an image can be applied to any method commonly utilized, such as the method described in Patent Document 2 described above. 顔の向き・視線を認識することにより、視聴者が表示されたコンテンツを実際に視聴しているか否かを判定することが可能となる。 By recognizing the orientation-line of sight of the face, it is possible to determine whether or not actually view content viewer is displayed.

また、画像から顔の表情を認識する方法としては、オプティカルフローを用いた方法、隠れマルコフモデルを用いた方法などを適用することができる。 Further, as a method for recognizing a facial expression from the image can be applied a method using an optical flow, or a method using a hidden Markov model. また、マイクロフォン等で入力した音声から歓声や拍手などを認識する方法としては、スペクトル分析法、LPC法などを適用することができる。 Further, as a method for recognizing and cheers and applause sound inputted by the microphone or the like can be applied spectroscopy, and LPC method. なお、これらは一例であり、これ以外の従来から用いられているあらゆる方法を適用するように本発明を構成することができる。 Note that these are examples, it can constitute the present invention to apply any method which has been conventionally used other than the above.

記憶制御部112は、コンテンツ記憶部115から表示するコンテンツを読み出して出力する処理、およびコンテンツと当該コンテンツに対する視聴者の視聴状況を対応付けて視聴状況記憶部116に記憶する処理を実行するものである。 The storage control unit 112 executes a process of storing process of outputting reads the content to be displayed from the content storage unit 115, and the content and associates the viewing situation of the viewer for the content to viewing status storage unit 116 is there. 記憶制御部112が、本発明における出力手段に相当する。 Storage control unit 112 corresponds to the output means in the present invention.

判断部113は、視聴状況記憶部116から、視聴領域に存在する視聴者の視聴状況を抽出し、抽出した視聴状況と、コンテンツ記憶部115から取得したコンテンツを表示する優先順位とから、次に視聴者に対して表示すべきコンテンツを判断するものである。 From the decision unit 113, the viewing status storage unit 116, extracts the viewing situation of the viewer present in the viewing area, and the extracted viewing status, and priority for displaying the content acquired from the content storage unit 115, then it is intended to determine the content to be displayed to the viewer.

通知部114は、判断部113が表示すべきと判断したコンテンツの視聴を促す情報を視聴者に通知するものであり、例えば、メールにより通知するように構成することができる。 Notification unit 114 is for notifying the information prompting the viewing of content determination unit 113 determines that should be displayed to a viewer, for example, can be configured to notify by e-mail. なお、これは一例であり、コンテンツの視聴を促す情報を視聴者に通知するものであればあらゆる方法を適用することができる。 Incidentally, this is an example, it can be applied to any method as long as it notifies the information prompting the viewing of content to viewers.

コンテンツ記憶部115は、表示装置101に表示するコンテンツを記憶する記憶手段であり、HDD(Hard Disk Drive)、光ディスク、メモリカードなどの一般的に用いられるあらゆる記憶手段により構成することができる。 Content storage unit 115 is a storage means for storing the contents to be displayed on the display device 101, HDD (Hard Disk Drive), an optical disk, can be constituted by generally any storage means used, such as a memory card. コンテンツ記憶部115は、コンテンツ管理テーブル115aにより、表示するコンテンツを記憶している。 Content storage unit 115, the content management table 115a, and stores the contents to be displayed.

図2は、コンテンツ管理テーブル115aのデータ構造の一例を示す説明図である。 Figure 2 is an explanatory diagram showing an example of the data structure of the content management table 115a. 同図に示すように、コンテンツ管理テーブル115aは、コンテンツを一意に識別するためのコンテンツIDと、コンテンツ名と、コンテンツの長さ(撮影時間)と、表示する優先順位とを対応付けて格納している。 As shown in the figure, the content management table 115a includes a content ID for uniquely identifying the content, and content name, content length and (imaging time), and stores in association with each priority for displaying ing.

視聴状況記憶部116は、コンテンツ記憶部115に記憶されたコンテンツと、当該コンテンツの視聴状況とを対応付けて記憶する記憶手段であり、HDD、光ディスク、メモリカードなどの一般的に用いられるあらゆる記憶手段により構成することができる。 Viewing status storage unit 116, a content stored in the content storage unit 115, a storage means for storing in association with the viewing state of the content, HDD, an optical disk, typically any storage used such as a memory card It may be composed of means. 視聴状況記憶部116は、視聴時間テーブル116aと、視聴状況テーブル116bと、音声テーブル116cとにより、コンテンツの視聴状況を記憶している。 Viewing status storage unit 116, time table 116a view, the viewing state table 116 b, by a voice table 116c, and stores the viewing state of the content.

視聴時間テーブル116aは、視聴者が視聴領域に入ったときから出て行くときまでの時間に表示されていたコンテンツを管理するものである。 Viewing time table 116a is configured to manage the content that has been displayed on the time until when the viewer exits from when it entered the viewing area. 視聴状況テーブル116bは、視聴時間テーブル116aに格納された時間内に、視聴者がどのようにコンテンツを視聴していたかという視聴状況の詳細を格納するものである。 Viewing status table 116b is for storing in time stored in the viewing time table 116a, the details of the viewing situation or not watched how the content viewer. 音声テーブル116cは、コンテンツに対する視聴者の反応を音声により認識した結果を格納するものである。 Voice table 116c is for storing the result of recognition by voice reaction of the viewer for the content.

図3は、視聴時間テーブル116aのデータ構造の一例を示す説明図である。 Figure 3 is an explanatory diagram showing an example of the data structure of the viewing time table 116a. 同図に示すように、視聴時間テーブル116aは、視聴状況を一意に識別するための視聴状況IDと、コンテンツIDと、視聴者を一意に識別するための視聴者IDと、視聴領域に入場した位置(コンテンツの長さに対する相対値)と、視聴領域から退場した位置(コンテンツの長さに対する相対値)とを対応付けて格納している。 As shown in the figure, viewing time table 116a includes a viewing situation ID for uniquely identifying the viewing state, a content ID, a viewer ID for uniquely identifying the viewer, and admission to the viewing area position (relative value to the length of the content), are stored in association with each position and leave the viewing area (values ​​relative to the content length).

例えば、同図においては、コンテンツID=0001で識別されるコンテンツの表示中に、視聴者ID=1001で識別される視聴者が、コンテンツの最初(視聴領域入場=0分)から、コンテンツの最後(視聴領域退場=15分は、コンテンツの長さ=15分と同一)まで、視聴領域にいた場合に、視聴時間テーブル116aに格納されるデータが示されている。 For example, in the figure, during the display of the content identified by the content ID = 0001, viewers identified by viewer ID = 1001 is, from the beginning (viewing area admission = 0 min) content, content last (viewing area Out = 15 minutes, the length of content = 15 min and identical) to, if you were to view regions, are shown data stored in the viewing time table 116a.

図4は、視聴状況テーブル116bのデータ構造の一例を示す説明図である。 Figure 4 is an explanatory diagram showing an example of the data structure of the viewing status table 116 b. 同図に示すように、視聴状況テーブル116bは、視聴状況を一意に識別するための視聴状況IDと、視聴を開始した位置(コンテンツの長さに対する相対値)と、視聴を終了した位置(コンテンツの長さに対する相対値)と、視聴状況とを対応付けて格納している。 As shown in the figure, viewing status table 116b includes a viewing situation ID for uniquely identifying the viewing state, and the starting point of the viewing (relative value to the length of the content), the position (the content has finished viewing the relative value) with respect to length, are stored in association with the viewing situation.

例えば、同図においては、視聴時間テーブル116aの視聴状況ID=2001で表されるデータに対応して、視聴開始位置が0分、5分、および10分の3つに細分化された時間における視聴状況が格納されている。 For example, in the figure, it corresponds to the data represented by the viewing state ID = 2001 of the viewing time table 116a, 0 minutes viewing start position, in 5 minutes, and 10 minutes subdivided time three viewing situation is stored. 具体的には、視聴開始・終了が0分から5分の場合は、表示装置101に視聴者の視線が向いていなかったことから「視聴していない」という視聴状況が、5分から10分の場合は、顔の表情から「悲しみ」という視聴状況が、10分から15分の場合は、顔の表情から「驚き」という視聴状況がそれぞれ格納されている。 Specifically, in the case of 5 minutes minutes to watch the start and end is 0, the case from the fact that did not face the gaze of the viewer on the display device 101 viewing status of "not viewed" is, of 5 to 10 minutes is, viewing the situation as "sadness" from facial expressions, in the case of 10 minutes to 15 minutes, the viewing situation of "surprise" is stored in each from facial expressions.

図5は、音声テーブル116cのデータ構造の一例を示す説明図である。 Figure 5 is an explanatory diagram showing an example of the data structure of an audio table 116c. 同図に示すように、音声テーブル116cは、コンテンツIDと、視聴者IDと、音声認識開始位置(コンテンツの長さに対する相対値)と、音声認識終了位置(コンテンツの長さに対する相対値)と、音声認識結果とを対応付けて格納している。 As shown in the figure, the speech table 116c includes a content ID, a viewer ID, a voice recognition start position (relative value to the length of the content), a voice recognition terminal point (values ​​relative to the content length) stores in association with each speech recognition result.

例えば、同図においては、コンテンツID=0001で表されるコンテンツを、視聴者ID=1001で表される視聴者が視聴し、コンテンツ表示開始から3分の時点から4分の時点において歓声が沸いたという視聴状況が格納されている。 For example, in the figure, the content represented by the content ID = 0001, and viewing audience represented by viewer ID = 1001, boiled cheers at the time of 4 minutes from the time of 3 minutes from the content display start viewing situation is stored that was.

次に、このように構成された第1の実施の形態にかかるコンテンツ管理システム100によるコンテンツ表示・視聴状況記憶処理について説明する。 Next, description thus configured first content display-viewing state storage process by the content management system 100 according to an embodiment for. 図6は、第1の実施の形態におけるコンテンツ表示・視聴状況記憶処理の全体の流れを示すフローチャートである。 Figure 6 is a flow chart showing the overall flow of the content display and viewing status storage process in the first embodiment.

まず、視聴者識別装置102が、表示装置101の前にいる視聴者、すなわち、表示装置101の視聴領域に入っている視聴者を、当該視聴者が保有しているIDカード120に記憶された情報を読み取ることにより識別する(ステップS601)。 First, viewer identification device 102, a viewer in front of the display device 101, i.e., the viewer has entered the viewing area of ​​the display device 101, stored in the ID card 120 in which the viewer owns identifying by reading the information (step S601). 例えば、IDカード120に視聴者IDを記憶しておくことにより、視聴者識別装置102が、視聴者IDを読み取って視聴者を識別することができる。 For example, by storing the viewer ID in the ID card 120 can be viewer identification device 102 identifies the viewer to read the audience ID.

次に、表示制御装置110の判断部113が、ステップS601で認識された視聴者の視聴状況を、視聴者IDを検索キーとして視聴状況記憶部116から抽出する(ステップS602)。 Next, the determination unit 113 of the display control unit 110, a viewing state of the recognized viewer step S601, is extracted from the viewing status storage unit 116 the viewer ID as a search key (step S602). 具体的には、ステップS601で認識された視聴者の視聴者IDと一致する視聴者IDを含むデータを、視聴時間テーブル116aから検索し、検索したデータに含まれる視聴状況IDを含むデータを、視聴状況テーブル116bから抽出する。 Specifically, the data including the viewer ID that matches the viewer ID of the recognized viewer step S601, searches the viewing time table 116a, the data including the viewing situation ID included in the retrieved data, to extract from the viewing status table 116b.

次に、判断部113が、ステップS602において抽出した視聴状況と、コンテンツ管理テーブル115aに格納されたコンテンツ表示の優先順位とから、表示装置101に表示すべきコンテンツを判断する(ステップS603)。 Then, determination unit 113, the viewing state extracted in step S602, and a priority of the content display that are stored in the content management table 115a, determines the content to be displayed on the display device 101 (step S603).

例えば、図2から4に示す例では、視聴者ID=1001の視聴者は、コンテンツID=0001のコンテンツの0分から5分の内容を「視聴していない」という視聴状況が抽出されるため、コンテンツID=0001のコンテンツを再度表示すべきと判断するように構成することができる。 For example, in the example shown in 4 Figures 2, viewer viewer ID = 1001 it is the view 0 to 5 minutes of the content of the content in the content ID = 0001 as "not viewed" status is extracted, It may be configured to determines to display the content of the content ID = 0001 again. なお、例えばコンテンツID=0002のコンテンツも「視聴していない」と判断されたときは、コンテンツ管理テーブル115aに格納された優先順位の高いコンテンツID=0001(優先順位=1)を、表示すべきコンテンツとして選択する。 Incidentally, for example, when also the content of the content ID = 0002 is determined as "not viewed" is higher content ID priority stored in the content management table 115a = 0001 (the priority = 1), to be displayed It is selected as the content.

このように、視聴状況認識部111が認識した視聴者の顔の向き・視線から、「視聴していない」などの視聴状況を得て、得られた視聴状況により、どのコンテンツを次に表示すべきか判断するように構成することができる。 In this way, from the orientation-line-of-sight of the face of the viewers who have recognized the viewing situation recognition unit 111, to obtain the viewing situation, such as "not viewed", the resulting viewing situation, then display all which content it can be configured to listen determined. なお、ここでは過去の視聴状況を用いて表示するコンテンツを判断したが、視聴者が現在、表示装置101に対して視線を向けているか否かを認識し、その結果により、視線を向けている視聴者を対象として表示すべきコンテンツを判断するように構成してもよい。 Here, although it is determined the contents to be displayed by using a past viewing conditions, a viewer is currently recognizes whether towards the line of sight to the display device 101, the result, which is directed toward the line of sight it may be configured to determine the contents to be displayed as the target audience.

また、視聴時間テーブル116aのみを用いて表示すべきコンテンツを判断するように構成してもよい。 It may also be configured to determine content to be displayed using only viewing time table 116a. 例えば、図3に示すように、コンテンツID=0001かつ視聴者ID=1003で表されるデータが視聴時間テーブル116aに存在しない場合、当該視聴者IDで識別される視聴者は、コンテンツID=0001で識別されるコンテンツ表示時に視聴領域に存在しなかった、すなわち、当該コンテンツを全く視聴していないことを意味する。 For example, as shown in FIG. 3, if the data represented by the content ID = 0001 and viewer ID = 1003 is not present in the viewing time table 116a, viewers identified with the viewer ID, the content ID = 0001 in it was not present in the viewing area at the content display that is identified, i.e., means not watching at all the content.

したがって、視聴者ID=1003で識別される視聴者に対し、コンテンツID=0001で識別されるコンテンツを次に表示すべきと判断してもよい。 Thus, for viewers identified by the viewer ID = 1003, it may determine that to be next displayed the content identified by the content ID = 0001. この際、視聴者ID=1003で識別される視聴者が、現在、表示装置101に対して視線を向けているか否かに関係なく、そのコンテンツを表示するように構成してもよい。 In this case, viewers identified by viewer ID = 1003 is now no matter whether towards the line of sight to the display device 101 may be configured to display the content. 既に視聴したコンテンツが表示されているため、当該視聴者が表示装置101に対して視線をむけていない場合もあるからである。 Which are presented already viewed content, because the viewer may not have towards the line of sight to the display device 101.

このように、視聴者が視聴領域に存在したか否かのみにより、どのコンテンツを次に表示すべきか判断するように構成することができる。 Thus, can be configured to viewers only by whether present in viewing area, it is determined whether to be next displayed which content. この他、視聴者の顔の表情、または、音声認識の結果得られた視聴者の反応により、どのコンテンツを次に表示すべきか判断するように構成してもよい。 In addition, expression of the face of the viewer, or by reaction of resulting viewer voice recognition, it may be configured to determine whether to be next displayed which content.

例えば、他の視聴者があるコンテンツに対して示した顔の表情や、歓声・拍手といった音声による反応から、最も視聴者の興味を引くコンテンツを選択し、当該コンテンツをまだ見ていない視聴者に対し優先して表示するように構成することができる。 For example, facial expressions and facial indicated for the content that other viewers, from the reaction by the voice, such as cheers, applause, and select the content to attract the interest of most viewers, the viewers who have not yet seen the content it can be configured to be displayed by priority against.

ステップS603において、判断部113が表示すべきコンテンツを判断した後、記憶制御部112が、そのコンテンツをコンテンツ記憶部115から取得し、表示装置101に対して出力する(ステップS604)。 In step S603, after determining the contents to be displayed determining unit 113, the storage control unit 112, it acquires the content from the content storage unit 115, and outputs to the display device 101 (step S604).

次に、表示装置101が、記憶制御部112から出力されたコンテンツを表示し(ステップS605)、撮像装置103が、当該コンテンツを視聴している視聴者を撮影するとともに(ステップS606)、音声入力装置104が、視聴者の発する音声を入力する(ステップS607)。 Next, the display device 101 displays the output content from the storage control unit 112 (step S605), the imaging device 103, thereby capturing the viewers who are viewing the content (step S606), the speech input device 104, inputs a voice generated by the viewer (step S607).

次に、視聴状況認識部111が、撮像装置103により撮影された画像と、音声入力装置104により入力された音声とから、視聴者の視聴状況を認識する(ステップS608)。 Next, the viewing status recognizer 111 recognizes the image taken by the imaging device 103, and a voice inputted by the voice input device 104, the viewing situation of the viewer (step S608). 具体的には、上述のように、画像から視聴者の顔の向き・視線を認識して実際に視聴しているか否かを判定するとともに、視聴者の顔の表情を認識する。 Specifically, as described above, as well as determine whether or not actually viewed by recognizing the orientation-line of sight of the face of the viewer from an image, recognize the facial expression of the viewer. また、音声から視聴者がコンテンツに対して示す歓声・拍手といった反応を認識する。 In addition, the viewer from voice to recognize the reaction, such as cheers, applause shown on the content.

また、コンテンツを表示中に視聴者が視聴領域を立ち去った場合には、視聴状況認識部111は、視聴者識別装置102が当該視聴者を識別できなくなったという結果を用いて、視聴者が視聴領域に存在しなくなったという視聴状況を認識することができる。 When the viewer while viewing the content has walked out of view region, view status recognizer 111 uses the result of viewer identification device 102 can no longer identify the viewer viewing audience it is possible to recognize the viewing situation that no longer exists in the area.

次に、記憶制御部112が、表示しているコンテンツのコンテンツIDと、視聴領域に存在する視聴者の視聴者IDと、視聴状況認識部111が認識した視聴状況とを対応付けて、視聴状況記憶部116に記憶する(ステップS609)。 Next, the storage control unit 112, in association with the content ID of the content being displayed, the viewer ID of the viewer present in the viewing area, the viewing situation recognized viewing status recognizer 111, the viewing state the storage unit 116 (step S609). このようにして、表示したコンテンツの視聴状況を個々の視聴者ごとに正確に記憶することができ、コンテンツ内容の評価や、次にコンテンツを表示する際の判断の基準とすることが可能となる。 In this way, it is possible to accurately store the viewing state of the display content for each individual viewer ratings and the Contents, then it is possible to base the determination of when displaying the content .

例えば、コンテンツ表示中に視聴者が立ち去ったこと、視聴者の顔の表情、音声による反応を認識し、それを記憶することができるため、コンテンツのどの部分が視聴者の興味を引いたのか、どの部分を改善すべきかなどを判断することができる。 For example, a viewer in the display content has departed, facial expressions of the viewer, for recognizing the reaction by voice, it is possible to store it, what part of the content have interested audience, such as whether to be improved which parts can be determined.

次に、視聴者識別装置102が、表示装置101の前、すなわち、視聴領域に視聴者が存在するか否かを判断し(ステップS610)、存在する場合は(ステップS610:YES)、ステップS601に戻り処理を繰り返す。 Next, viewer identification device 102, prior to the display device 101, i.e., determines whether there is a viewer in the viewing area (step S610), if present (step S610: YES), step S601 It returns to the processing repeated. 視聴者が存在しない場合は(ステップS610:NO)、コンテンツ表示・視聴状況記憶処理を終了する。 If the viewer does not exist (step S610: NO), and terminates the content display-viewing status storage process.

なお、判断部113が表示すべきと判断したコンテンツの視聴を促す情報を、通知部114が、視聴者にメールなどにより通知するように構成してもよい。 Incidentally, the information prompting the viewing of content determination unit 113 determines that should be displayed, the notification unit 114 may be configured to notify the like mail to the viewer. 例えば、ステップS603において表示すべきコンテンツを判断してから、ステップS605において表示装置101に表示するまでの間に、当該コンテンツを視聴すべき視聴者に対してこれからコンテンツの表示が開始される旨を記載したメールを通知部114が送信するように構成することができる。 For example, after determining the content to be displayed in step S603, until displaying on the display device 101 at step S605, the fact that now the display of the content to the viewer should view the content starts the described mail can notification unit 114 is configured to transmit. この際、優先順位が一定の閾値より高い場合にのみメールを送信するように構成してもよい。 At this time, it may be configured such priority to send mail only if higher than a certain threshold.

このような通知機能を持たせることにより、視聴状況を正確に記憶して視聴者に対して表示すべきコンテンツを的確に判断できるだけでなく、重要なコンテンツの視聴を徹底させることができるという利点がある。 By providing such a notification function, the advantage that the viewing situation as well as possible to accurately determine the content to be displayed to the viewer correctly stored, it is possible to ensure the view of the important content is there.

また、表示装置101の前に複数の視聴者が存在する場合は、個々の視聴者ごとに表示すべきコンテンツを判断し、最も多くの視聴者に対して表示すべきと判断されたコンテンツを次に表示すべきコンテンツとして選択するように構成してもよい。 Also, if there are multiple viewers in front of the display device 101 determines the content to be displayed for each individual viewer, most of content determined to be displayed to the viewer following it may be configured to select a content to be displayed. この他、優先順位の高いコンテンツが存在するときは、表示すべきと判断された視聴者の数に関わらず優先して表示するように構成してもよい。 In addition, when high contents priority exists, it may be configured to preferentially display regardless of the number of viewers is determined to be displayed.

以上のように、第1の実施の形態にかかるコンテンツ管理システムにおいては、表示装置に表示したコンテンツの視聴状況を、撮像装置で撮影した画像から認識した顔の向き・視線、顔の表情や、音声入力装置から認識した歓声・拍手などの視聴者のコンテンツに対する反応として得ることができ、これらを視聴者識別装置により個別に識別した視聴者ごとにコンテンツと対応付けて正確に記憶することができる。 As described above, in the first embodiment a content management system according to the form of the viewing situation of the content displayed on the display device, the orientation-sight line, or facial expressions of the face recognized from an image captured by an imaging device, can be obtained as a response to a viewer of the content of such recognized cheers, applause from the voice input device can be accurately stored in association with the content for each individually identified viewer by viewer identification device these . また、記憶した個々の視聴者の視聴状況を用いて次に表示すべきコンテンツを的確に判断することができる。 Further, it is possible to accurately determine the next content to be displayed using the viewing state of the individual viewer stored.

(第2の実施の形態) (Second Embodiment)
第2の実施の形態にかかるコンテンツ管理システムは、一組の表示装置、視聴者識別装置、撮像装置、音声入力装置ごとに一つの通信装置を備え、複数の通信装置から送信された視聴状況を受信する通信手段を備えた表示制御装置により、複数の表示装置におけるコンテンツの視聴状況をまとめて管理するとともに、複数の表示装置におけるコンテンツの表示内容を的確に制御するものである。 Content management system according to the second embodiment, a set of display device, the viewer identification device, an imaging device, provided with a single communication device for each voice input device, the viewing state transmitted from a plurality of communication devices by having communication means for receiving the display control device, as well as collectively manage the viewing situation of the content in a plurality of display devices, it is to precisely control the display of the content in a plurality of display devices.

図7は、本発明の第2の実施の形態にかかるコンテンツ管理システム700の構成を示すブロック図である。 Figure 7 is a block diagram showing a configuration of a content management system 700 according to the second embodiment of the present invention. 同図に示すように、コンテンツ管理システム700は、表示装置101と、視聴者識別装置102と、撮像装置103と、音声入力装置104と、通信装置705と、表示制御装置710と、IDカード120とを備えている。 As shown in the figure, the content management system 700 includes a display device 101, the viewer identification device 102, an imaging device 103, an audio input device 104, a communication device 705, a display control unit 710, ID card 120 It is equipped with a door. また、通信装置705と、表示制御装置710とは、ネットワーク730を介して接続されている。 Further, a communication device 705, the display control device 710 are connected via a network 730. なお、同図に示すように、第2の実施の形態においては、表示装置101、視聴者識別装置102、撮像装置103、音声入力装置104、通信装置705の5つの装置を一組とし、複数の組が1つの表示制御装置710に接続されるような構成となっている。 Incidentally, as shown in the figure, in the second embodiment, the display device 101, viewer identification device 102, imaging device 103, an audio input device 104, and five devices a set of communication device 705, a plurality set is has a configuration as to be connected to one display control device 710.

表示制御装置710は、視聴状況認識部111と、記憶制御部112と、判断部113と、通知部114と、コンテンツ記憶部115と、視聴状況記憶部116と、通信部717とを備えている。 The display control unit 710, a viewing state recognition unit 111, a storage control unit 112, a determination unit 113, a notification unit 114, a content storage unit 115, and a viewing status storage unit 116, a communication unit 717 .

第2の実施の形態におけるコンテンツ管理システム700は、通信装置705を追加したこと、表示制御装置710に通信部717を追加したことが第1の実施の形態におけるコンテンツ管理システム100と異なっている。 Content management system 700 in the second embodiment, to the addition of the communication device 705, that have added the communication unit 717 to the display control unit 710 is different from the content management system 100 in the first embodiment. その他の構成および機能は、第1の実施の形態にかかる構成を表すブロック図である図1と同様であるので、同一符号を付し、ここでの説明は省略する。 Other configurations and functions are the same as in FIG. 1 is a block diagram showing the configuration according to the first embodiment are denoted by the same reference numerals, and description thereof is omitted here.

通信装置705は、視聴者識別装置102が識別した視聴者の情報、撮像装置103が撮影した視聴者の画像、音声入力装置104が入力した視聴者が発した音声を、表示制御装置710に送信するものである。 Communication device 705, transmits the viewer information that viewer identification device 102 has identified viewer of the image capturing apparatus 103 is taken, a voice viewers uttered the voice input device 104 is input, the display control unit 710 it is intended to. また、表示制御装置710から送信された、表示するコンテンツのデータを受信するものである。 Moreover, it sent from the display control unit 710, and receives the data of the content to be displayed.

通信部717は、通信装置705が送信した視聴者の情報、画像、音声を受信するとともに、表示するコンテンツのデータを通信装置705に送信するものである。 The communication unit 717, viewer information communication device 705 transmits the image, along with receiving voice, and transmits the data of the content to be displayed on the communication device 705. また、通信部717は、複数の通信装置からのデータの受信、複数の通信装置に対するデータの送信を行うものである。 The communication unit 717 receives data from a plurality of communication devices, and performs transmission of data to a plurality of communication devices.

なお、ネットワーク730は、有線LAN(Local Area Network)、または無線LAN、またはインターネットでもよいし、これら以外のあらゆるネットワーク構成を適用することができる。 The network 730 is a wired LAN (Local Area Network), or a wireless LAN or may be the Internet, it can be applied to any network configuration other than the above. また、通信装置705と通信部717との間の通信プロトコルは、TCP/IP(Transmission Control Protocol/Internet Protocol)などの一般的に用いられているあらゆるプロトコルを適用することができる。 The communication protocol between the communication device 705 and the communication unit 717 may apply the TCP / IP (Transmission Control Protocol / Internet Protocol) commonly every protocol used, such as.

次に、このように構成された第2の実施の形態にかかるコンテンツ管理システム700によるコンテンツ表示・視聴状況記憶処理について説明する。 Next, description thus configured second content display-viewing state storage process by the content management system 700 according to the embodiment for. 図8は、第2の実施の形態におけるコンテンツ表示・視聴状況記憶処理の全体の流れを示すフローチャートである。 Figure 8 is a flow chart showing the overall flow of the content display and viewing status storage process in the second embodiment. 第2の実施の形態においては、表示制御装置710に対するデータの送受信を、通信装置705を介して行う点が、第1の実施の形態におけるコンテンツ表示・視聴状況記憶処理と異なっている。 In the second embodiment, the transmission and reception of data to the display control unit 710, that performed via the communication device 705 is different from the content display and viewing status storage process in the first embodiment.

具体的には、まず、ステップS801において視聴者識別装置102が識別した視聴者の情報を、通信装置705が表示制御装置710に送信し(ステップS802)、表示制御装置710の通信部717がそれを受信する点(ステップS803)が異なる。 Specifically, first, the information of the viewer by the viewer identification device 102 has identified at step S801, transmits the communication device 705 to the display control unit 710 (step S802), the communication unit 717 of the display control device 710 it point to receive (step S803) is different.

また、ステップS806において記憶制御部112が出力したコンテンツを、通信部717が各表示装置に対して送信し(ステップS807)、各表示装置に対応する通信装置705がそれを受信する点(ステップS808)が異なる。 Further, the content storage control unit 112 is output in step S806, and sends the communication unit 717 for each display device (step S807), that the communication device 705 corresponding to each display device receives it (step S808 ) is different.

さらに、ステップS810およびステップS811において撮像装置103が撮影した画像および音声入力装置104が入力した音声を、通信装置705が送信し(ステップS812)、それを通信部717が受信する点(ステップS813)が異なる。 Further, the sound image and the sound input device 104 imaging device 103 is captured in step S810 and step S811 is entered, and transmitting communication device 705 (step S812), that receives it communication unit 717 (step S813) It is different.

これ以外の処理は、ステップS801はステップS601、ステップS804〜ステップS806はステップS602〜ステップS604、ステップS809〜ステップS811はステップS605〜ステップS607、ステップS814〜ステップS815はステップS608〜ステップS609、ステップS816はステップS610に、それぞれ対応しており、その処理内容は同様であるのでその説明を省略する。 Other process, step S801 is step S601, step S804~ step S806 step S602~ step S604, the step S809~ step S811 step S605~ step S607, the step S814~ step S815 step S608~ step S609, step S816 since the step S610, the respective correspond, the process contents are the same as the description thereof will be omitted.

以上のように、第2の実施の形態においては、複数の通信装置705および表示制御装置710の通信部717により、コンテンツ表示に関する情報の送受信を行うため、複数の通信装置705により認識された個々の視聴者の視聴状況をまとめて管理することが可能となる。 As described above, each in the second embodiment, the communication unit 717 of the plurality of communication devices 705 and a display control unit 710, for transmitting and receiving information about the content display, which is recognized by a plurality of communication apparatuses 705 it is possible to manage together the viewing situation of the viewer. したがって、ある表示装置で表示したコンテンツを、別の表示装置で重複して表示しないようにするといった表示内容の制御ができるようになるという利点がある。 Therefore, there is an advantage that the content displayed in a certain display device, it becomes possible to control the display content such so as not to display duplicate another display device.

また、複数の表示装置で同じ内容のコンテンツを表示するのではなく、各表示装置の視聴領域に存在する視聴者を視聴者識別装置102により識別し、識別した視聴者に応じて、各表示装置に表示するコンテンツを変更するといった表示制御が可能となる。 Further, instead of displaying the content of the same content on multiple display devices, to identify the audience present in the viewing area of ​​the display device by the viewer identification device 102, according to the identified viewer, the display device the display control, such as to change the content to be displayed made possible.

(変形例) (Modification)
なお、本発明は、上述した第1の実施の形態および第2の実施の形態に限定されるものではなく、以下に例示するような種々の変形が可能である。 The present invention is not limited to the first embodiment and the second embodiment described above, various modifications are possible as exemplified below.

これまでは、視聴状況を管理する単位としてコンテンツを1単位として考えていたが、以下のように、コンテンツをさらに細分化したシーンを1単位として視聴状況を管理するように構成してもよい。 Previously, thought content as one unit as a unit for managing the viewing state, as follows, may be configured to manage the viewing situation scenes subdivided content as one unit. これにより、各コンテンツに対する個々の視聴者の視聴状況をさらに正確に把握することが可能となる。 Thereby, it becomes possible to more accurately grasp the viewing situation of the individual viewer for each content.

図9〜図11は、シーンごとに視聴状況を管理する場合の、コンテンツ記憶部115および視聴状況記憶部116の一例を示した説明図である。 9 to 11, in the case of managing the viewing situation for each scene is an explanatory view showing an example of a content storage unit 115 and the viewing status storage unit 116. 図9は、コンテンツ管理テーブル915aのデータ構造の一例を示す説明図である。 Figure 9 is an explanatory diagram showing an example of the data structure of the content management table 915a.

図9に示すように、コンテンツ管理テーブル915aは、コンテンツを一意に識別するためのコンテンツIDと、当該コンテンツに含まれるシーンを一意に識別するためのシーンIDと、シーン名と、シーンの長さと、優先順位とを対応付けて格納している。 As shown in FIG. 9, the content management table 915a includes a content ID for uniquely identifying the content, and a scene ID for uniquely identifying the scene included in the content, and scene name, and the scene length stores in association with each priority. このように、コンテンツ管理テーブル915aは、1つのコンテンツをシーンIDで識別される複数のシーンに分割し、シーンごとに名称、長さ、優先順位を管理する点が、上述したコンテンツ管理テーブル115aと異なっている。 Thus, the content management table 915a divides one content to the plurality of scenes identified by scene ID, name for each scene, the length, that manages the priorities, the content management table 115a described above It is different. なお、コンテンツ単位にコンテンツ名、コンテンツの長さ、および優先順位を管理するテーブルを別に設けるように構成してもよい。 Incidentally, the content name in the content unit, the length of the content, and a table for managing the priorities may be configured to separately provide.

図10は、視聴時間テーブル1016aのデータ構造の一例を示す説明図である。 Figure 10 is an explanatory diagram showing an example of the data structure of the viewing time table 1016a. 同図に示すように、視聴時間テーブル1016aは、視聴状況を一意に識別するための視聴状況IDと、シーンIDと、視聴者を一意に識別するための視聴者IDと、視聴領域に入場した位置と、視聴領域から退場した位置とを対応付けて格納している。 As shown in the figure, viewing time table 1016a includes a viewing situation ID for uniquely identifying the viewing state, a scene ID, a viewer ID for uniquely identifying the viewer, and admission to the viewing area and position stores in association with each position exit from the viewing area. 上述した視聴時間テーブル116aとは、コンテンツIDの代わりにシーンIDを格納している点が異なっている。 The viewing time table 116a described above, that stores the scene ID instead of the content ID are different. このようなデータ構造とすることにより、シーンごとの視聴状況の格納が可能となる。 With such a data structure, it is possible to store the viewing situation of each scene.

図11は、音声テーブル1116cのデータ構造の一例を示す説明図である。 Figure 11 is an explanatory diagram showing an example of the data structure of an audio table 1116c. 同図に示すように、音声テーブル1116cは、シーンIDと、視聴者IDと、音声認識開始位置と、音声認識終了位置と、音声認識結果とを対応付けて格納している。 As shown in the figure, the speech table 1116c stores in association with the scene ID, a viewer ID, a voice recognition start position, a voice recognition terminal point, and a speech recognition result. 上述した音声テーブル116cとは、コンテンツIDの代わりにシーンIDを格納している点が異なっている。 The speech table 116c described above, that stores the scene ID instead of the content ID are different. このようなデータ構造とすることにより、シーンごとの音声認識結果の格納が可能となる。 With such a data structure, it is possible to store the speech recognition result of each scene.

図12は、第1および第2の実施の形態にかかる表示制御装置のハードウェア構成を示す説明図である。 Figure 12 is an explanatory diagram showing a hardware configuration of a display control apparatus in the first and second embodiments. 同図に示すように、第1および第2の実施の形態の表示制御装置は、CPU(Central Processing Unit)1201などの制御装置と、ROM(Read Only Memory)1202やRAM(Random Access Memory)1203などの記憶装置と、通信I/F1204と、これら各部を接続するバス1210とを備えるほか、HDD、CDドライブ装置などの外部記憶装置と、ディスプレイ装置などの表示装置と、キーボードやマウスなどの入力装置を備えており、通常のコンピュータを利用したハードウェア構成となっている。 As shown in the figure, the display control apparatus of the first and second embodiments, CPU and controller, such as a (Central Processing Unit) 1201, ROM (Read Only Memory) 1202 and RAM (Random Access Memory) 1203 a storage device such as, a communication I / F1204, input, such as addition and a bus 1210 for connecting these units, HDD, an external storage device such as a CD drive, a display device such as a display, a keyboard and a mouse It includes a device, and has a hardware configuration using a normal computer.

第1および第2の実施の形態の表示制御装置で実行される表示制御プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。 Display control program executed by the display control apparatus of the first and second embodiments, installable format or an executable format file in a CD-ROM, a flexible disk (FD), CD-R, DVD ( recorded in the Digital Versatile Disk) readable recording medium such as a computer is provided.

また、第1および第2の実施の形態の表示制御装置で実行される表示制御プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。 The configuration of the display control program executed by the display control apparatus of the first and second embodiments, as stored in a computer connected to a network such as the Internet, and provided by being downloaded via the network it may be. また、第1および第2の実施の形態の表示制御装置で実行される表示制御プログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。 It is also possible to constitute a display control program executed by the display control apparatus of the first and second embodiments can be provided or distributed via a network such as the Internet.

また、第1および第2の実施の形態の表示制御プログラムを、ROM等に予め組み込んで提供するように構成してもよい。 Further, the display control program of the first and second embodiments, may be configured to be provided by being incorporated in a ROM or the like in advance.

第1および第2の実施の形態の表示制御装置で実行される表示制御プログラムは、上述した各部(視聴状況認識部、判断部、記憶制御部、通知部、通信部)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記記憶媒体から表示制御プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ主記憶装置上に生成されるようになっている。 Display control program executed by the display control apparatus of the first and second embodiments, it units described above (view status recognizer, determination unit, a storage control unit, the notification unit, communication unit) a module configuration including the and which, as actual hardware so above units are generated in the main memory is loaded into the apparatus main memory on by CPU (processor) reads and executes the display control program from the storage medium there.

以上のように、本発明にかかるコンテンツ管理システム、表示制御装置、表示制御方法、および表示制御プログラムは、コンテンツの視聴状況を管理し、視聴状況に応じて表示するコンテンツを制御するコンテンツ管理システム、表示制御装置に適している。 As described above, the content management system according to the present invention, the display control device, display control method, and a display control program, a content management system that controls content to manage the viewing situation of the content is displayed according to the viewing situation, It is suitable for the display control device.

第1の実施の形態にかかるコンテンツ管理システムの構成を示すブロック図である。 Is a block diagram showing a configuration of a content management system according to the first embodiment. コンテンツ管理テーブルのデータ構造の一例を示す説明図である。 Is an explanatory diagram showing an example of the data structure of the content management table. 視聴時間テーブルのデータ構造の一例を示す説明図である。 Is an explanatory diagram showing an example of the data structure of the viewing time table. 視聴状況テーブルのデータ構造の一例を示す説明図である。 Is an explanatory diagram showing an example of the data structure of the viewing status table. 音声テーブルのデータ構造の一例を示す説明図である。 Is an explanatory diagram showing an example of the data structure of the audio table. 第1の実施の形態におけるコンテンツ表示・視聴状況記憶処理の全体の流れを示すフローチャートである。 Is a flow chart showing the overall flow of the content display and viewing status storage process in the first embodiment. 第2の実施の形態にかかるコンテンツ管理システムの構成を示すブロック図である。 It is a block diagram showing a configuration of a content management system according to the second embodiment. 第2の実施の形態におけるコンテンツ表示・視聴状況記憶処理の全体の流れを示すフローチャートである。 Is a flow chart showing the overall flow of the content display and viewing status storage process in the second embodiment. コンテンツ管理テーブルのデータ構造の一例を示す説明図である。 Is an explanatory diagram showing an example of the data structure of the content management table. 視聴時間テーブルのデータ構造の一例を示す説明図である。 Is an explanatory diagram showing an example of the data structure of the viewing time table. 音声テーブルのデータ構造の一例を示す説明図である。 Is an explanatory diagram showing an example of the data structure of the audio table. 表示制御装置のハードウェア構成を示す説明図である。 It is an explanatory diagram showing a hardware configuration of the display control device.

符号の説明 DESCRIPTION OF SYMBOLS

100 コンテンツ管理システム 101 表示装置 102 視聴者識別装置 103 撮像装置 104 音声入力装置 110 表示制御装置 111 視聴状況認識部 112 記憶制御部 113 判断部 114 通知部 115 コンテンツ記憶部 115a コンテンツ管理テーブル 116 視聴状況記憶部 116a 視聴時間テーブル 116b 視聴状況テーブル 116c 音声テーブル 120 IDカード 700 コンテンツ管理システム 705 通信装置 710 表示制御装置 717 通信部 730 ネットワーク 915a コンテンツ管理テーブル 1016a 視聴時間テーブル 1116c 音声テーブル 1201 CPU 100 Content management system 101 display device 102 viewer identification apparatus 103 imaging device 104 voice input device 110 display control unit 111 viewing state recognition unit 112 storage control unit 113 determination unit 114 notifying unit 115 The content storage unit 115a content management table 116 viewing state storage part 116a viewing time table 116b viewing status table 116c speech table 120 ID card 700 content management system 705 communication apparatus 710 display control unit 717 communication unit 730 network 915a content management table 1016a viewing time table 1116c speech table 1201 CPU
1202 ROM 1202 ROM
1203 RAM 1203 RAM
1204 通信I/F 1204 communication I / F
1210 バス 1210 bus

Claims (26)

  1. コンテンツを表示する表示装置と、 A display device for displaying the content,
    前記表示装置に表示されたコンテンツの視聴が可能な領域である視聴領域に存在する視聴者を、前記視聴者が保有する携帯型情報記憶媒体により識別する視聴者識別装置と、 Viewers existing in viewing area view is an area capable of the display device to display content, a viewer identification device for identifying the portable information storage medium in which the viewer's,
    前記視聴者識別装置が識別した前記視聴者を撮影する撮像装置と、 An imaging device that photographs the viewer the viewer identification device has identified,
    前記表示装置に表示するコンテンツを管理し、コンテンツの表示を制御する表示制御装置と、を備えたコンテンツ管理システムにおいて、 Control the content to be displayed on said display device, a display control unit for controlling the display of the content, the content management system with,
    前記表示制御装置は、 The display control device,
    前記視聴者識別装置が識別した前記視聴者の情報および前記撮像装置が撮影した画像に基づき、前記視聴者の視聴状況を認識する視聴状況認識手段と、 Based on the image which the viewer identification device has identified the viewer information and the imaging device is taken, and recognizing the viewing condition recognizer viewing status of the viewer,
    前記表示装置が表示しているコンテンツと、前記視聴状況認識手段が認識した前記視聴状況とを対応付けて記憶する視聴状況記憶手段と、 A content in which the display device is displaying, the viewing state storage means for the viewing situation recognition means in association with said viewing state recognized,
    を備えたことを特徴とするコンテンツ管理システム。 Content management system comprising the.
  2. コンテンツを表示する表示装置と、 A display device for displaying the content,
    前記表示装置に表示されたコンテンツの視聴が可能な領域である視聴領域に存在する視聴者を、前記視聴者が保有する携帯型情報記憶媒体により識別する視聴者識別装置と、 Viewers existing in viewing area view is an area capable of the display device to display content, a viewer identification device for identifying the portable information storage medium in which the viewer's,
    前記視聴者識別装置が識別した前記視聴者を撮影する撮像装置と、 An imaging device that photographs the viewer the viewer identification device has identified,
    前記表示装置に表示するコンテンツを管理し、コンテンツの表示を制御する表示制御装置と、 Control the content to be displayed on said display device, a display control unit for controlling the display of the content,
    前記視聴者識別装置が識別した前記視聴者の情報および前記撮像装置が撮影した画像および表示するコンテンツを含むコンテンツに関する情報の送受信を行う通信装置と、を備えたコンテンツ管理システムにおいて、 In the content management system and a communication device for transmitting and receiving information about the content the viewer identification device has identified the viewer information and the imaging device with content that image and display photographic,
    前記表示制御装置は、 The display control device,
    少なくとも1つの前記通信装置との間で前記コンテンツに関する情報の送受信を行う通信手段をさらに備え、 Further comprising a communication means for transmitting and receiving information about the contents between at least one of said communication device,
    前記通信手段が受信した前記視聴者の情報および前記撮像装置が撮影した画像に基づき、前記視聴者の視聴状況を認識する視聴状況認識手段と、 Based on the image the said communication means receives the audience information and the imaging device is taken, and recognizing the viewing condition recognizer viewing status of the viewer,
    前記表示装置が表示しているコンテンツと、前記視聴状況認識手段が認識した前記視聴状況とを対応付けて記憶する視聴状況記憶手段と、 A content in which the display device is displaying, the viewing state storage means for the viewing situation recognition means in association with said viewing state recognized,
    を備えたことを特徴とするコンテンツ管理システム。 Content management system comprising the.
  3. 前記表示制御装置は、前記視聴状況記憶手段に記憶された前記視聴状況に基づいて前記表示装置に表示すべきコンテンツを判断する判断手段をさらに備えたことを特徴とする請求項1または2に記載のコンテンツ管理システム。 The display control device according to claim 1 or 2, further comprising a determining means for determining a content to be displayed on the display device based on the viewing condition stored in the viewing state storage means content management system.
  4. 前記視聴状況認識手段は、前記視聴状況として前記視聴者の顔の向きまたは視線の方向を認識し、 The viewing condition recognizer recognizes the orientation or gaze of the face of the viewer as the viewing status,
    前記判断手段は、前記視聴状況記憶手段に記憶された前記視聴者の顔の向きまたは視線の方向に基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする請求項3に記載のコンテンツ管理システム。 The judgment unit may, according to claim 3, characterized in that to determine the content to be displayed on the display device based on the orientation or gaze of the face of the viewer stored in the viewing state storage means content management systems.
  5. 前記視聴状況認識手段は、前記視聴状況として前記視聴者が前記視聴領域に存在するか否かを認識し、 The viewing condition recognizer, the viewer recognizes whether present in the viewing area as the viewing state,
    前記判断手段は、前記視聴者が前記視聴領域に存在するか否かに基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする請求項3に記載のコンテンツ管理システム。 The determining means, the content management system of claim 3, wherein the viewer determines the content to be displayed on said display device based on whether or not present in the viewing area.
  6. 前記視聴状況認識手段は、前記視聴状況として前記視聴者の顔の表情を認識し、 The viewing situation recognition means recognizes the facial expression of the viewer as the viewing situation,
    前記判断手段は、前記視聴状況記憶手段に記憶された前記視聴者の顔の表情に基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする請求項3に記載のコンテンツ管理システム。 The judgment unit may, content management system according to claim 3, characterized in that to determine the content to be displayed on the display device based on the facial expressions of the viewers stored in the viewing status storage means.
  7. コンテンツを視聴している視聴者が発する音声を入力する音声入力装置をさらに備え、 Further comprising a voice input device for inputting voice viewers emits viewing the content,
    前記視聴状況認識手段は、前記音声入力装置が入力した音声に基づき、前記視聴状況として前記視聴者のコンテンツに対する反応を認識し、 The viewing condition recognizer, based on voice the voice input device is inputted, it recognizes the response to content of the viewer as the viewing status,
    前記判断手段は、前記視聴状況記憶手段に記憶された前記視聴者のコンテンツに対する反応に基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする請求項3に記載のコンテンツ管理システム。 The judgment unit may, content management system according to claim 3, characterized in that to determine the content to be displayed on the display device based on a response to the content of the viewer stored in the viewing status storage means.
  8. 前記表示制御装置は、前記表示装置に表示するコンテンツと、コンテンツを表示する優先順位とを対応付けて記憶するコンテンツ記憶手段をさらに備え、 The display control device further includes a content to be displayed on said display device, a content storage means for storing in association with the priority for displaying the content,
    前記判断手段は、前記コンテンツ記憶手段に記憶された前記優先順位と、前記視聴状況とに基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする請求項3〜7のいずれか1つに記載のコンテンツ管理システム。 Said determining means, said priority stored in the content storage unit, any one of the claims 3-7, characterized in that to determine the content to be displayed on the display device based on said viewing condition content management system according to One.
  9. 前記表示制御装置は、前記判断手段が表示すべきと判断したコンテンツの視聴を促す情報を視聴者に通知する通知手段をさらに備えたことを特徴とする請求項3〜8のいずれか1つに記載のコンテンツ管理システム。 The display control unit, to any one of claims 3-8, characterized in that said determining means further comprising a notification means for notifying the viewer information prompting the viewing of content that determines to display content management system described.
  10. 表示装置に表示するコンテンツの視聴が可能な領域である視聴領域に存在する視聴者を、前記視聴者が保有する携帯型情報記憶媒体により識別する視聴者識別装置が識別した前記視聴者の情報および前記視聴者を撮影する撮像装置が撮影した画像の入力を受付け、受付けた前記視聴者の情報および前記撮影した画像に基づき、前記視聴者の視聴状況を認識する視聴状況認識手段と、 Viewers existing in viewing area viewing is possible area of ​​content displayed on the display device, wherein the viewer information identifying viewer identification device is identified by the portable information storage medium in which the viewer's and accepting an input of an image capturing apparatus has captured for photographing the viewer, based on said viewer information and the captured image, and recognizing the viewing condition recognizer viewing status of the viewer accepted,
    前記表示装置が表示しているコンテンツと、前記視聴状況認識手段が認識した前記視聴状況とを対応付けて記憶する視聴状況記憶手段と、 A content in which the display device is displaying, the viewing state storage means for the viewing situation recognition means in association with said viewing state recognized,
    前記視聴状況記憶手段に記憶された前記視聴状況に基づいて前記表示装置に表示すべきコンテンツを判断する判断手段と、 Determination means for determining a content to be displayed on the display device based on the viewing condition stored in the viewing state storage means,
    前記判断手段が表示すべきと判断したコンテンツを出力する出力手段と、 And output means for outputting the contents of said determining means determines that to be displayed,
    を備えたことを特徴とする表示制御装置。 Display control device characterized by comprising a.
  11. 前記視聴者識別装置が識別した前記視聴者の情報および前記撮像装置が撮影した画像の送受信を行う通信手段をさらに備え、 Further comprising a communication means for the viewer identification device has identified the viewer information and the imaging device to send and receive images taken,
    前記視聴状況認識手段は、前記通信手段が受信した前記視聴者の情報および前記撮像装置が撮影した画像の入力を受付け、受付けた前記視聴者の情報および前記撮影した画像に基づき、前記視聴者の視聴状況を認識することを特徴とする請求項10に記載の表示制御装置。 The viewing condition recognizer accepts an input of image by the communication means the viewer information and the imaging device by the received captured, based on the viewer information and the captured image received, the viewer the display control device according to claim 10, characterized in that to recognize the viewing situation.
  12. 前記視聴状況認識手段は、前記視聴状況として前記視聴者の顔の向きまたは視線の方向を認識し、 The viewing condition recognizer recognizes the orientation or gaze of the face of the viewer as the viewing status,
    前記判断手段は、前記視聴状況記憶手段に記憶された前記視聴者の顔の向きまたは視線の方向に基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする請求項10または11に記載の表示制御装置。 The judgment unit may, in claim 10 or 11, characterized in that to determine the content to be displayed on the display device based on the orientation or gaze of the face of the viewer stored in the viewing state storage means the display control apparatus according.
  13. 前記視聴状況認識手段は、前記視聴状況として前記視聴者が前記視聴領域に存在するか否かを認識し、 The viewing condition recognizer, the viewer recognizes whether present in the viewing area as the viewing state,
    前記判断手段は、前記視聴者が前記視聴領域に存在するか否かに基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする請求項10または11に記載の表示制御装置。 Said determining means, the display control device according to claim 10 or 11, wherein the viewer determines the content to be displayed on said display device based on whether or not present in the viewing area.
  14. 前記視聴状況認識手段は、前記視聴状況として前記視聴者の顔の表情を認識し、 The viewing situation recognition means recognizes the facial expression of the viewer as the viewing situation,
    前記判断手段は、前記視聴状況記憶手段に記憶された前記視聴者の顔の表情に基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする請求項10または11に記載の表示制御装置。 Said determining means, the display control according to claim 10 or 11, characterized in that to determine the content to be displayed on the display device based on the facial expressions of the viewers stored in the viewing state storage means apparatus.
  15. 前記視聴状況認識手段は、音声入力装置が入力したコンテンツを視聴している視聴者が発する音声の入力を受付け、受付けた音声に基づいて前記視聴状況として前記視聴者のコンテンツに対する反応を認識し、 The viewing condition recognizer accepts an input of speech viewers who are viewing the content of the voice input device is inputted emitted recognizes the response content of the viewer as the viewing status on the basis of the voice reception,
    前記判断手段は、前記視聴状況記憶手段に記憶された前記視聴者のコンテンツに対する反応に基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする請求項10または11に記載の表示制御装置。 Said determining means, the display control according to claim 10 or 11, characterized in that to determine the content to be displayed on the display device based on a response to the content of the viewer stored in the viewing state storage means apparatus.
  16. 前記表示装置に表示するコンテンツと、コンテンツを表示する優先順位とを対応付けて記憶するコンテンツ記憶手段をさらに備え、 Further comprising a content to be displayed on the display device, the content storage means for storing in association with the priority for displaying the content,
    前記判断手段は、前記コンテンツ記憶手段に記憶された前記優先順位と、前記視聴状況とに基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする請求項10〜15のいずれか1つに記載の表示制御装置。 The determining means, the content and the priority stored in the storage means, any one of claims 10 to 15, characterized in that to determine the content to be displayed on the display device based on said viewing condition the display control device according to One.
  17. 前記判断手段が表示すべきと判断したコンテンツの視聴を促す情報を視聴者に通知する通知手段をさらに備えたことを特徴とする請求項10〜16のいずれか1つに記載の表示制御装置。 The display control device according to any one of claims 10 to 16, characterized in that said determining means further comprising a notification means for notifying the viewer information prompting the viewing of content that determines to display.
  18. 表示装置に表示するコンテンツの視聴が可能な領域である視聴領域に存在する視聴者を、前記視聴者が保有する携帯型情報記憶媒体により識別する視聴者識別装置が識別した前記視聴者の情報および前記視聴者を撮影する撮像装置が撮影した画像の入力を受付け、受付けた前記視聴者の情報および前記撮影した画像に基づき、前記視聴者の視聴状況を認識する視聴状況認識ステップと、 Viewers existing in viewing area viewing is possible area of ​​content displayed on the display device, wherein the viewer information identifying viewer identification device is identified by the portable information storage medium in which the viewer's and accepting an input of an image capturing apparatus has captured for photographing the viewer, based on said viewer information and the captured image, and recognizing the viewing state recognition step the viewing condition of the viewer accepted,
    前記表示装置が表示しているコンテンツと、前記視聴状況認識ステップが認識した前記視聴状況とを対応付けて記憶する視聴状況記憶手段に記憶された前記視聴状況に基づいて前記表示装置に表示すべきコンテンツを判断する判断ステップと、 A content in which the display device is displaying, to be displayed on said display device based on the viewing condition stored in the viewing state storage means said viewing condition recognition step is stored in association with the viewing status recognized and the determining step of determining the content,
    前記判断ステップが表示すべきと判断したコンテンツを出力する出力ステップと、 And outputting the content of the determination step determines that to be displayed,
    を備えたことを特徴とする表示制御方法。 Display control method characterized by comprising a.
  19. 前記視聴者識別装置が識別した前記視聴者の情報および前記撮像装置が撮影した画像の送受信を行う通信ステップをさらに備え、 Further comprising a communication step of said viewer identification device has identified the viewer information and the imaging device to send and receive images taken,
    前記視聴状況認識ステップは、前記通信ステップが受信した前記視聴者の情報および前記撮像装置が撮影した画像の入力を受付け、受付けた前記視聴者の情報および前記撮影した画像に基づき、前記視聴者の視聴状況を認識することを特徴とする請求項18に記載の表示制御方法。 The viewing state recognition step accepts an input of image by the communication step has received the viewer information and the imaging device is taken, based on the viewer information and the captured image received, the viewer the display control method according to claim 18, characterized in that to recognize the viewing situation.
  20. 前記視聴状況認識ステップは、前記視聴状況として前記視聴者の顔の向きまたは視線の方向を認識し、 The viewing state recognition step recognizes the orientation or gaze of the face of the viewer as the viewing status,
    前記判断ステップは、前記視聴状況記憶手段に記憶された前記視聴者の顔の向きまたは視線の方向に基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする請求項18または19に記載の表示制御方法。 The determination step, in claim 18 or 19, characterized in that to determine the content to be displayed on the display device based on the orientation or gaze of the face of the viewer stored in the viewing state storage means display control method described.
  21. 前記視聴状況認識ステップは、前記視聴状況として前記視聴者が前記視聴領域に存在するか否かを認識し、 The viewing state recognition step, the viewer recognizes whether present in the viewing area as the viewing state,
    前記判断ステップは、前記視聴者が前記視聴領域に存在するか否かに基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする請求項18または19に記載の表示制御方法。 The determining step, the display control method according to claim 18 or 19, wherein the viewer determines the content to be displayed on said display device based on whether or not present in the viewing area.
  22. 前記視聴状況認識ステップは、前記視聴状況として前記視聴者の顔の表情を認識し、 The viewing situation recognition step recognizes the facial expression of the viewer as the viewing situation,
    前記判断ステップは、前記視聴状況記憶手段に記憶された前記視聴者の顔の表情に基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする請求項18または19に記載の表示制御方法。 The determining step, the display control according to claim 18 or 19, characterized in that to determine the content to be displayed on the display device based on the facial expressions of the viewers stored in the viewing state storage means Method.
  23. 前記視聴状況認識ステップは、音声入力装置が入力したコンテンツを視聴している視聴者が発する音声の入力を受付け、受付けた音声に基づいて前記視聴状況として前記視聴者のコンテンツに対する反応を認識し、 The viewing state recognition step accepts an input of speech viewers who are viewing the content of the voice input device is inputted emitted recognizes the response content of the viewer as the viewing status on the basis of the voice reception,
    前記判断ステップは、前記視聴状況記憶手段に記憶された前記視聴者のコンテンツに対する反応に基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする請求項18または19に記載の表示制御方法。 The determining step, the display control according to claim 18 or 19, characterized in that to determine the content to be displayed on the display device based on a response to the content of the viewer stored in the viewing state storage means Method.
  24. 前記判断ステップは、前記表示装置に表示するコンテンツとコンテンツを表示する優先順位とを対応付けて記憶するコンテンツ記憶手段に記憶された前記優先順位と、前記視聴状況とに基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする請求項18〜23のいずれか1つに記載の表示制御方法。 The determining step, the display and the priority stored in the content storage means for storing in association with the content and priority for displaying the content device to the display, the display on the display device based on said viewing condition the display control method according to any one of claims 18-23, characterized in that to determine should do content.
  25. 前記判断ステップが表示すべきと判断したコンテンツの視聴を促す情報を視聴者に通知する通知ステップをさらに備えたことを特徴とする請求項18〜24のいずれか1つに記載の表示制御方法。 The display control method according to any one of claims 18-24, wherein the determination step further comprising a notification step of notifying the audience information prompting the viewing of content that determines to display.
  26. 請求項18〜25のいずれか1つに記載の表示制御方法をコンピュータに実行させるプログラム。 Program for executing the display control method according to the computer in any one of claims 18 to 25.
JP2005077884A 2005-03-17 2005-03-17 Content management system, display control device, display control method and display control program Pending JP2006260275A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005077884A JP2006260275A (en) 2005-03-17 2005-03-17 Content management system, display control device, display control method and display control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005077884A JP2006260275A (en) 2005-03-17 2005-03-17 Content management system, display control device, display control method and display control program

Publications (1)

Publication Number Publication Date
JP2006260275A true true JP2006260275A (en) 2006-09-28

Family

ID=37099434

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005077884A Pending JP2006260275A (en) 2005-03-17 2005-03-17 Content management system, display control device, display control method and display control program

Country Status (1)

Country Link
JP (1) JP2006260275A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010509685A (en) * 2006-11-07 2010-03-25 アービトロン インコーポレイテッド Survey data collected using a portable monitor and installation equipment
JP2010233143A (en) * 2009-03-30 2010-10-14 Fujitsu Ltd Device for recording/reproducing video and program for searching contents
JP2011054078A (en) * 2009-09-04 2011-03-17 Casio Computer Co Ltd Electronic photo frame, and control method and program thereof
JP2012244362A (en) * 2011-05-18 2012-12-10 Nippon Hoso Kyokai <Nhk> Receiver and program
JP2013153470A (en) * 2008-09-02 2013-08-08 Qualcomm Inc Methods and apparatus for enhanced media content rating system
JP2014060491A (en) * 2012-09-14 2014-04-03 Nippon Telegr & Teleph Corp <Ntt> Viewing situation determination device, identifier construction device, viewing situation determination method, identifier construction method, and program
JP2014529133A (en) * 2011-09-12 2014-10-30 インテル・コーポレーション To promote the television-based exchange using the social networking tool
US9055336B2 (en) 2006-03-31 2015-06-09 The Nielsen Company (Us), Llc Methods, systems and apparatus for multi-purpose metering
US9265081B2 (en) 2011-12-16 2016-02-16 The Nielsen Company (Us), Llc Media exposure and verification utilizing inductive coupling
US9313286B2 (en) 2011-12-16 2016-04-12 The Nielsen Company (Us), Llc Media exposure linking utilizing bluetooth signal characteristics
US9326034B2 (en) 2002-04-22 2016-04-26 The Nielsen Company (Us), Llc Methods and apparatus to collect audience information associated with a media presentation
US9426525B2 (en) 2013-12-31 2016-08-23 The Nielsen Company (Us), Llc. Methods and apparatus to count people in an audience

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001148841A (en) * 1999-11-19 2001-05-29 Nec Corp Method and system for forming television community
JP2002349904A (en) * 2001-05-22 2002-12-04 Ohbayashi Corp Desiccant air-conditioning device
JP2003167900A (en) * 2001-11-29 2003-06-13 Ntt Docomo Inc Push type information providing method, push type information providing system and user information control device
JP2003179594A (en) * 2001-12-13 2003-06-27 Nissan Motor Co Ltd Information presenting system, information presenting device and information presenting method
JP2003179901A (en) * 2001-12-10 2003-06-27 Sony Corp Program-distributing system and additional information- inserting method
JP2003304460A (en) * 2003-02-24 2003-10-24 Hitachi Ltd Information service system and broadcast reception system
JP2003323520A (en) * 2002-04-30 2003-11-14 Omron Corp Image distribution system and method
JP2004194135A (en) * 2002-12-13 2004-07-08 Haruhiko Onozato Attribute identifying method for video subject
JP2004229948A (en) * 2003-01-31 2004-08-19 Hitachi Ltd Learning situation determination program and user situation determination system
JP2004274257A (en) * 2003-03-06 2004-09-30 Nippon Hoso Kyokai <Nhk> Transmitter, receiver, and viewing history information utilization type broadcasting system in data broadcasting

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001148841A (en) * 1999-11-19 2001-05-29 Nec Corp Method and system for forming television community
JP2002349904A (en) * 2001-05-22 2002-12-04 Ohbayashi Corp Desiccant air-conditioning device
JP2003167900A (en) * 2001-11-29 2003-06-13 Ntt Docomo Inc Push type information providing method, push type information providing system and user information control device
JP2003179901A (en) * 2001-12-10 2003-06-27 Sony Corp Program-distributing system and additional information- inserting method
JP2003179594A (en) * 2001-12-13 2003-06-27 Nissan Motor Co Ltd Information presenting system, information presenting device and information presenting method
JP2003323520A (en) * 2002-04-30 2003-11-14 Omron Corp Image distribution system and method
JP2004194135A (en) * 2002-12-13 2004-07-08 Haruhiko Onozato Attribute identifying method for video subject
JP2004229948A (en) * 2003-01-31 2004-08-19 Hitachi Ltd Learning situation determination program and user situation determination system
JP2003304460A (en) * 2003-02-24 2003-10-24 Hitachi Ltd Information service system and broadcast reception system
JP2004274257A (en) * 2003-03-06 2004-09-30 Nippon Hoso Kyokai <Nhk> Transmitter, receiver, and viewing history information utilization type broadcasting system in data broadcasting

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9326034B2 (en) 2002-04-22 2016-04-26 The Nielsen Company (Us), Llc Methods and apparatus to collect audience information associated with a media presentation
US8738763B2 (en) 2004-03-26 2014-05-27 The Nielsen Company (Us), Llc Research data gathering with a portable monitor and a stationary device
US9317865B2 (en) 2004-03-26 2016-04-19 The Nielsen Company (Us), Llc Research data gathering with a portable monitor and a stationary device
US9185457B2 (en) 2006-03-31 2015-11-10 The Nielsen Company (Us), Llc Methods, systems and apparatus for multi-purpose metering
US9055336B2 (en) 2006-03-31 2015-06-09 The Nielsen Company (Us), Llc Methods, systems and apparatus for multi-purpose metering
JP2010509685A (en) * 2006-11-07 2010-03-25 アービトロン インコーポレイテッド Survey data collected using a portable monitor and installation equipment
JP2013153470A (en) * 2008-09-02 2013-08-08 Qualcomm Inc Methods and apparatus for enhanced media content rating system
US9178632B2 (en) 2008-09-02 2015-11-03 Qualcomm Incorporated Methods and apparatus for an enhanced media content rating system
JP2010233143A (en) * 2009-03-30 2010-10-14 Fujitsu Ltd Device for recording/reproducing video and program for searching contents
JP2011054078A (en) * 2009-09-04 2011-03-17 Casio Computer Co Ltd Electronic photo frame, and control method and program thereof
JP2012244362A (en) * 2011-05-18 2012-12-10 Nippon Hoso Kyokai <Nhk> Receiver and program
JP2014529133A (en) * 2011-09-12 2014-10-30 インテル・コーポレーション To promote the television-based exchange using the social networking tool
US9386111B2 (en) 2011-12-16 2016-07-05 The Nielsen Company (Us), Llc Monitoring media exposure using wireless communications
US9265081B2 (en) 2011-12-16 2016-02-16 The Nielsen Company (Us), Llc Media exposure and verification utilizing inductive coupling
US9313286B2 (en) 2011-12-16 2016-04-12 The Nielsen Company (Us), Llc Media exposure linking utilizing bluetooth signal characteristics
US9894171B2 (en) 2011-12-16 2018-02-13 The Nielsen Company (Us), Llc Media exposure and verification utilizing inductive coupling
JP2014060491A (en) * 2012-09-14 2014-04-03 Nippon Telegr & Teleph Corp <Ntt> Viewing situation determination device, identifier construction device, viewing situation determination method, identifier construction method, and program
US9426525B2 (en) 2013-12-31 2016-08-23 The Nielsen Company (Us), Llc. Methods and apparatus to count people in an audience
US9918126B2 (en) 2013-12-31 2018-03-13 The Nielsen Company (Us), Llc Methods and apparatus to count people in an audience

Similar Documents

Publication Publication Date Title
US20050228665A1 (en) Metadata preparing device, preparing method therefor and retrieving device
US20120093481A1 (en) Intelligent determination of replays based on event identification
US20080235724A1 (en) Face Annotation In Streaming Video
US20080101660A1 (en) Method and apparatus for generating meta data of content
US20080219658A1 (en) Real time transmission of photographic images from portable handheld devices
US20090190804A1 (en) Electronic apparatus and image processing method
US20110316671A1 (en) Content transfer system and communication terminal
US20070228159A1 (en) Inquiry system, imaging device, inquiry device, information processing method, and program thereof
US20110096135A1 (en) Automatic labeling of a video session
JP2005072764A (en) Equipment control system and device thereof, and equipment control method
US20150078727A1 (en) Forensic video recording with presence detection
US20080243494A1 (en) Dialog detecting apparatus, dialog detecting method, and computer program product
US20050179785A1 (en) Communication apparatus and system handling viewer image
US9137308B1 (en) Method and apparatus for enabling event-based media data capture
JPH0855133A (en) Retrieving device for registered data based on image of face
JP2009033494A (en) Information processing apparatus and method, program, and recording medium
JP2013070155A (en) Moving image scoring system, server device, moving image scoring method, and moving image scoring program
US20120246685A1 (en) Video Object Tag Creation and Processing
JP2001320702A (en) Video information processor and transmitter
JP2007310620A (en) Information processor, information processing method, and program
JP2002261966A (en) Communication support system and photographing equipment
JP2008269411A (en) Image keyword editing system, image keyword provision server and image keyword editing device
JP2009033351A (en) Recording and reproducing device and method
US20110235992A1 (en) Image processing device and image processing method
JP2004145564A (en) Image search system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080312

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100921

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101117

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110517