JP2006260275A - Content management system, display control device, display control method and display control program - Google Patents

Content management system, display control device, display control method and display control program Download PDF

Info

Publication number
JP2006260275A
JP2006260275A JP2005077884A JP2005077884A JP2006260275A JP 2006260275 A JP2006260275 A JP 2006260275A JP 2005077884 A JP2005077884 A JP 2005077884A JP 2005077884 A JP2005077884 A JP 2005077884A JP 2006260275 A JP2006260275 A JP 2006260275A
Authority
JP
Japan
Prior art keywords
content
viewer
viewing
displayed
viewing status
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005077884A
Other languages
Japanese (ja)
Inventor
Satoshi Hikita
聡 疋田
Christophe Soulier
クリストフ スーリエ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2005077884A priority Critical patent/JP2006260275A/en
Publication of JP2006260275A publication Critical patent/JP2006260275A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a content management system capable of accurately comprehending and recording the viewing circumstances of content for each viewer. <P>SOLUTION: This content management system is provided with a display device 101 for displaying content; a viewer identifying device 102 for identifying a viewer who is located in the viewing region of content by a portable information storage medium; an imaging device 103 for photographing the viewer identified by the viewer-identifying device 102; and a display controller 110 for managing the content to be displayed at the display device 101 and controlling the display of the content. The display controller 110 is provided with a viewing circumstance recognizing means 111 for recognizing the viewing circumstances of the viewer, based on the information of the viewer identified by the viewer identifying device 102 and the image photographed by an imaging device 103; and a viewing circumstance storing means 116 for storing the content displayed by the display device 101 and the viewing circumstances recognized by the viewing circumstance recognizing means 11 being associated with them. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、視聴者の視聴状況と対応付けてコンテンツを管理するコンテンツ管理システム、表示制御装置、表示制御方法、および表示制御プログラムに関する。   The present invention relates to a content management system, a display control device, a display control method, and a display control program that manage content in association with a viewing situation of a viewer.

従来、コンテンツを視聴する視聴者の実態を把握する技術としては、テレビ受像機に装着されたセンサーなどから視聴データを集計する視聴率調査方法が知られている。このような技術では、テレビ受像機等の装置単位で視聴実態を把握するため、個々の視聴者ごとの視聴状況を把握することは困難である。   Conventionally, as a technique for grasping the actual condition of a viewer who views content, an audience rating survey method is known in which viewing data is aggregated from a sensor or the like attached to a television receiver. With such a technique, it is difficult to grasp the viewing situation of each individual viewer because the actual state of viewing is grasped for each device such as a television receiver.

個々の視聴者を識別する方法としては、視聴者を撮影した画像と、視聴者の属性に関する情報を記憶したICカード等の記録媒体から取得した情報とを対応付けることにより、撮影した画像内の視聴者個人を特定する技術が提案されている(例えば、特許文献1)。また、視聴者の視聴状況を把握する方法に関連して、人の顔を撮影した画像から、顔の向きや視線、顔の表情などを認識し、それに応じて機器を制御する技術が提案されている(例えば、特許文献2)。   As a method for identifying individual viewers, viewing images in a captured image by associating an image captured of the viewer with information acquired from a recording medium such as an IC card storing information related to the attributes of the viewer. A technique for identifying an individual person has been proposed (for example, Patent Document 1). In addition, in relation to the method of grasping the viewing status of viewers, a technology has been proposed for recognizing the face direction, line of sight, facial expression, etc. from an image of a human face and controlling the device accordingly. (For example, Patent Document 2).

特開2004−194135号公報JP 2004-194135 A 特開2003−196655号公報JP 2003-196655 A

しかしながら、特許文献1の技術では、個々の視聴者を識別することができるが、その視聴者が特定のコンテンツを実際に視聴しているかどうかは判別できないという問題があった。また、特許文献2の技術では、顔の向きなどを認識して視聴者が実際にコンテンツを視聴しているか否かを判別することができるが、複数の視聴者が存在する場合に撮影した画像のみからでは個々の視聴者を識別するのが困難であるという問題があった。   However, although the technique of Patent Document 1 can identify individual viewers, there is a problem in that it cannot be determined whether or not the viewers are actually viewing specific content. In the technique of Patent Document 2, it is possible to determine whether the viewer is actually viewing the content by recognizing the orientation of the face or the like, but the image taken when there are a plurality of viewers. There is a problem that it is difficult to identify individual viewers only from the above.

本発明は、上記に鑑みてなされたものであって、コンテンツの視聴状況を、視聴者ごとに正確に把握して記録することができるコンテンツ管理システムを提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide a content management system capable of accurately grasping and recording content viewing status for each viewer.

上述した課題を解決し、目的を達成するために、請求項1にかかる発明は、コンテンツを表示する表示装置と、前記表示装置に表示されたコンテンツの視聴が可能な領域である視聴領域に存在する視聴者を、前記視聴者が保有する携帯型情報記憶媒体により識別する視聴者識別装置と、前記視聴者識別装置が識別した前記視聴者を撮影する撮像装置と、前記表示装置に表示するコンテンツを管理し、コンテンツの表示を制御する表示制御装置と、を備えたコンテンツ管理システムにおいて、前記表示制御装置は、前記視聴者識別装置が識別した前記視聴者の情報および前記撮像装置が撮影した画像に基づき、前記視聴者の視聴状況を認識する視聴状況認識手段と、前記表示装置が表示しているコンテンツと、前記視聴状況認識手段が認識した前記視聴状況とを対応付けて記憶する視聴状況記憶手段と、を備えたことを特徴とする。   In order to solve the above-described problems and achieve the object, the invention according to claim 1 is present in a display device that displays content and a viewing area that allows viewing of the content displayed on the display device. A viewer identifying device that identifies the viewer to be viewed by a portable information storage medium possessed by the viewer, an imaging device that captures the viewer identified by the viewer identifying device, and content to be displayed on the display device And a display control device that controls display of content. The display control device includes information about the viewer identified by the viewer identification device and an image captured by the imaging device. The viewing status recognition means for recognizing the viewing status of the viewer, the content displayed by the display device, and the viewing status recognition means Viewing state storage means for storing in association with serial viewing situation, characterized by comprising a.

また、請求項2にかかる発明は、コンテンツを表示する表示装置と、前記表示装置に表示されたコンテンツの視聴が可能な領域である視聴領域に存在する視聴者を、前記視聴者が保有する携帯型情報記憶媒体により識別する視聴者識別装置と、前記視聴者識別装置が識別した前記視聴者を撮影する撮像装置と、前記表示装置に表示するコンテンツを管理し、コンテンツの表示を制御する表示制御装置と、前記視聴者識別装置が識別した前記視聴者の情報および前記撮像装置が撮影した画像および表示するコンテンツを含むコンテンツに関する情報の送受信を行う通信装置と、を備えたコンテンツ管理システムにおいて、前記表示制御装置は、少なくとも1つの前記通信装置との間で前記コンテンツに関する情報の送受信を行う通信手段をさらに備え、前記通信手段が受信した前記視聴者の情報および前記撮像装置が撮影した画像に基づき、前記視聴者の視聴状況を認識する視聴状況認識手段と、前記表示装置が表示しているコンテンツと、前記視聴状況認識手段が認識した前記視聴状況とを対応付けて記憶する視聴状況記憶手段と、を備えたことを特徴とする。   According to a second aspect of the present invention, there is provided a portable device in which the viewer possesses a display device that displays content and a viewer that is present in a viewing area that is a region where the content displayed on the display device can be viewed. Viewer identification device identified by a type information storage medium, an imaging device that captures the viewer identified by the viewer identification device, and display control that manages content displayed on the display device and controls display of the content In a content management system comprising: a device; and a communication device that transmits and receives information about the viewer identified by the viewer identification device, information captured by the imaging device and content including content to be displayed, The display control device further includes communication means for transmitting / receiving information related to the content with at least one of the communication devices. A viewing status recognition means for recognizing the viewing status of the viewer based on the information of the viewer received by the communication means and an image taken by the imaging device, and content displayed by the display device, Viewing status storage means for storing the viewing status recognized by the viewing status recognition means in association with each other.

また、請求項3にかかる発明は、請求項1または2に記載のコンテンツ管理システムにおいて、前記表示制御装置は、前記視聴状況記憶手段に記憶された前記視聴状況に基づいて前記表示装置に表示すべきコンテンツを判断する判断手段をさらに備えたことを特徴とする。   According to a third aspect of the present invention, in the content management system according to the first or second aspect, the display control device displays on the display device based on the viewing status stored in the viewing status storage means. It is further characterized by further comprising a judging means for judging the content to be processed.

また、請求項4にかかる発明は、請求項3に記載のコンテンツ管理システムにおいて、前記視聴状況認識手段は、前記視聴状況として前記視聴者の顔の向きまたは視線の方向を認識し、前記判断手段は、前記視聴状況記憶手段に記憶された前記視聴者の顔の向きまたは視線の方向に基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする。   According to a fourth aspect of the present invention, in the content management system according to the third aspect, the viewing status recognition means recognizes the viewer's face direction or line-of-sight direction as the viewing status, and the determination means. Is characterized in that content to be displayed on the display device is determined based on the orientation of the viewer's face or the direction of the line of sight stored in the viewing status storage means.

また、請求項5にかかる発明は、請求項3に記載のコンテンツ管理システムにおいて、前記視聴状況認識手段は、前記視聴状況として前記視聴者が前記視聴領域に存在するか否かを認識し、前記判断手段は、前記視聴者が前記視聴領域に存在するか否かに基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする。   Further, the invention according to claim 5 is the content management system according to claim 3, wherein the viewing status recognition means recognizes whether the viewer exists in the viewing area as the viewing status, The determining means determines content to be displayed on the display device based on whether or not the viewer exists in the viewing area.

また、請求項6にかかる発明は、請求項3に記載のコンテンツ管理システムにおいて、前記視聴状況認識手段は、前記視聴状況として前記視聴者の顔の表情を認識し、前記判断手段は、前記視聴状況記憶手段に記憶された前記視聴者の顔の表情に基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする。   According to a sixth aspect of the present invention, in the content management system according to the third aspect, the viewing status recognition unit recognizes the facial expression of the viewer as the viewing status, and the determination unit includes the viewing mode. The content to be displayed on the display device is determined based on the facial expression of the viewer stored in the situation storage means.

また、請求項7にかかる発明は、請求項3に記載のコンテンツ管理システムにおいて、コンテンツを視聴している視聴者が発する音声を入力する音声入力装置をさらに備え、前記視聴状況認識手段は、前記音声入力装置が入力した音声に基づき、前記視聴状況として前記視聴者のコンテンツに対する反応を認識し、前記判断手段は、前記視聴状況記憶手段に記憶された前記視聴者のコンテンツに対する反応に基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする。   The invention according to claim 7 is the content management system according to claim 3, further comprising a voice input device that inputs a voice uttered by a viewer who is viewing the content, Based on the voice input by the voice input device, the viewer recognizes a response to the viewer's content as the viewing status, and the determining means is based on the response to the viewer's content stored in the viewing status storage means. The content to be displayed on the display device is determined.

また、請求項8にかかる発明は、請求項3〜7のいずれか1つに記載のコンテンツ管理システムにおいて、前記表示制御装置は、前記表示装置に表示するコンテンツと、コンテンツを表示する優先順位とを対応付けて記憶するコンテンツ記憶手段をさらに備え、前記判断手段は、前記コンテンツ記憶手段に記憶された前記優先順位と、前記視聴状況とに基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする。   The invention according to claim 8 is the content management system according to any one of claims 3 to 7, wherein the display control device includes content to be displayed on the display device, priority for displaying the content, Content storage means for storing the information in association with each other, wherein the determination means determines the content to be displayed on the display device based on the priority order stored in the content storage means and the viewing status. It is characterized by.

また、請求項9にかかる発明は、請求項3〜7のいずれか1つに記載のコンテンツ管理システムにおいて、前記表示制御装置は、前記判断手段が表示すべきと判断したコンテンツの視聴を促す情報を視聴者に通知する通知手段をさらに備えたことを特徴とする。   According to a ninth aspect of the present invention, in the content management system according to any one of the third to seventh aspects, the display control device is information that prompts viewing of the content that the determination means determines to display. Is further provided with notification means for notifying the viewer.

また、請求項10にかかる発明は、表示制御装置において、表示装置に表示するコンテンツの視聴が可能な領域である視聴領域に存在する視聴者を、前記視聴者が保有する携帯型情報記憶媒体により識別する視聴者識別装置が識別した前記視聴者の情報および前記視聴者を撮影する撮像装置が撮影した画像の入力を受付け、受付けた前記視聴者の情報および前記撮影した画像に基づき、前記視聴者の視聴状況を認識する視聴状況認識手段と、前記表示装置が表示しているコンテンツと、前記視聴状況認識手段が認識した前記視聴状況とを対応付けて記憶する視聴状況記憶手段と、前記視聴状況記憶手段に記憶された前記視聴状況に基づいて前記表示装置に表示すべきコンテンツを判断する判断手段と、前記判断手段が表示すべきと判断したコンテンツを出力する出力手段と、を備えたことを特徴とする。   According to a tenth aspect of the present invention, in the display control device, a viewer existing in a viewing area, which is an area where content displayed on the display device can be viewed, is represented by a portable information storage medium held by the viewer. The viewer information identified by the identified viewer identification device and the input of the image captured by the imaging device that captures the viewer are received, and the viewer is based on the received viewer information and the captured image. Viewing status recognition means for recognizing the viewing status, viewing content storage means for storing the content displayed on the display device and the viewing status recognized by the viewing status recognition means, and the viewing status Determining means for determining the content to be displayed on the display device based on the viewing status stored in the storage means; and a copy determined by the determining means to be displayed. And output means for outputting the Ceiling, characterized by comprising a.

また、請求項11にかかる発明は、請求項10に記載の表示制御装置において、前記視聴者識別装置が識別した前記視聴者の情報および前記撮像装置が撮影した画像の送受信を行う通信手段をさらに備え、前記視聴状況認識手段は、前記通信手段が受信した前記視聴者の情報および前記撮像装置が撮影した画像の入力を受付け、受付けた前記視聴者の情報および前記撮影した画像に基づき、前記視聴者の視聴状況を認識することを特徴とする。   Further, the invention according to claim 11 is the display control device according to claim 10, further comprising communication means for transmitting and receiving the information of the viewer identified by the viewer identification device and the image taken by the imaging device. And the viewing status recognition means receives the viewer information received by the communication means and the input of the image taken by the imaging device, and based on the received viewer information and the taken image, It is characterized by recognizing the viewing situation of a person.

また、請求項12にかかる発明は、請求項10または11に記載の表示制御装置において、前記視聴状況認識手段は、前記視聴状況として前記視聴者の顔の向きまたは視線の方向を認識し、前記判断手段は、前記視聴状況記憶手段に記憶された前記視聴者の顔の向きまたは視線の方向に基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする。   The invention according to claim 12 is the display control device according to claim 10 or 11, wherein the viewing status recognition means recognizes the viewer's face direction or gaze direction as the viewing status, The judging means judges the content to be displayed on the display device based on the viewer's face orientation or line-of-sight direction stored in the viewing status storage means.

また、請求項13にかかる発明は、請求項10または11に記載の表示制御装置において、前記視聴状況認識手段は、前記視聴状況として前記視聴者が前記視聴領域に存在するか否かを認識し、前記判断手段は、前記視聴者が前記視聴領域に存在するか否かに基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする。   The invention according to claim 13 is the display control device according to claim 10 or 11, wherein the viewing status recognition means recognizes whether the viewer exists in the viewing area as the viewing status. The determination means determines content to be displayed on the display device based on whether or not the viewer exists in the viewing area.

また、請求項14にかかる発明は、請求項10または11に記載の表示制御装置において、前記視聴状況認識手段は、前記視聴状況として前記視聴者の顔の表情を認識し、前記判断手段は、前記視聴状況記憶手段に記憶された前記視聴者の顔の表情に基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする。   The invention according to claim 14 is the display control device according to claim 10 or 11, wherein the viewing status recognition means recognizes the facial expression of the viewer as the viewing status, and the determination means includes: The content to be displayed on the display device is determined based on the facial expression of the viewer stored in the viewing status storage means.

また、請求項15にかかる発明は、請求項10または11に記載の表示制御装置において、前記視聴状況認識手段は、音声入力装置が入力したコンテンツを視聴している視聴者が発する音声の入力を受付け、受付けた音声に基づいて前記視聴状況として前記視聴者のコンテンツに対する反応を認識し、前記判断手段は、前記視聴状況記憶手段に記憶された前記視聴者のコンテンツに対する反応に基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする。   Further, the invention according to claim 15 is the display control device according to claim 10 or 11, wherein the viewing status recognizing means inputs an audio uttered by a viewer who is viewing the content input by the audio input device. Receiving and recognizing a reaction to the viewer's content as the viewing situation based on the received voice, and the determining means is based on the reaction to the viewer's content stored in the viewing situation storage means The content to be displayed on the screen is determined.

また、請求項16にかかる発明は、請求項10〜15のいずれか1つに記載の表示制御装置において、前記表示装置に表示するコンテンツと、コンテンツを表示する優先順位とを対応付けて記憶するコンテンツ記憶手段をさらに備え、前記判断手段は、前記コンテンツ記憶手段に記憶された前記優先順位と、前記視聴状況とに基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする。   According to a sixteenth aspect of the present invention, in the display control device according to any one of the tenth to fifteenth aspects, the content displayed on the display device and the priority order for displaying the content are stored in association with each other. Content storage means is further provided, wherein the determination means determines the content to be displayed on the display device based on the priority order stored in the content storage means and the viewing status.

また、請求項17にかかる発明は、請求項10〜16のいずれか1つに記載の表示制御装置において、前記判断手段が表示すべきと判断したコンテンツの視聴を促す情報を視聴者に通知する通知手段をさらに備えたことを特徴とする。   According to a seventeenth aspect of the present invention, in the display control device according to any one of the tenth to sixteenth aspects, the viewer is notified of information that prompts viewing of the content that the determination unit determines to display. The information processing device further includes notification means.

また、請求項18にかかる発明は、表示制御方法において、表示装置に表示するコンテンツの視聴が可能な領域である視聴領域に存在する視聴者を、前記視聴者が保有する携帯型情報記憶媒体により識別する視聴者識別装置が識別した前記視聴者の情報および前記視聴者を撮影する撮像装置が撮影した画像の入力を受付け、受付けた前記視聴者の情報および前記撮影した画像に基づき、前記視聴者の視聴状況を認識する視聴状況認識ステップと、前記表示装置が表示しているコンテンツと、前記視聴状況認識ステップが認識した前記視聴状況とを対応付けて記憶する視聴状況記憶手段に記憶された前記視聴状況に基づいて前記表示装置に表示すべきコンテンツを判断する判断ステップと、前記判断ステップが表示すべきと判断したコンテンツを出力する出力ステップと、を備えたことを特徴とする。   The invention according to claim 18 is the display control method, wherein a viewer existing in a viewing area, which is an area where the content displayed on the display device can be viewed, is represented by a portable information storage medium held by the viewer. The viewer information identified by the identified viewer identification device and the input of the image captured by the imaging device that captures the viewer are received, and the viewer is based on the received viewer information and the captured image. The viewing status recognition step for recognizing the viewing status, the content displayed on the display device, and the viewing status recognized by the viewing status recognition step are stored in association with each other and stored in the viewing status storage means A determination step of determining the content to be displayed on the display device based on the viewing situation, and the content determined by the determination step to be displayed Characterized in that and an output step of outputting.

また、請求項19にかかる発明は、請求項18に記載の表示制御方法において、前記視聴者識別装置が識別した前記視聴者の情報および前記撮像装置が撮影した画像の送受信を行う通信ステップをさらに備え、前記視聴状況認識ステップは、前記通信ステップが受信した前記視聴者の情報および前記撮像装置が撮影した画像の入力を受付け、受付けた前記視聴者の情報および前記撮影した画像に基づき、前記視聴者の視聴状況を認識することを特徴とする。   The invention according to claim 19 is the display control method according to claim 18, further comprising a communication step of transmitting and receiving the information of the viewer identified by the viewer identification device and the image taken by the imaging device. And the viewing status recognition step receives the viewer information received in the communication step and the input of the image captured by the imaging device, and the viewing status is based on the received viewer information and the captured image. It is characterized by recognizing the viewing situation of a person.

また、請求項20にかかる発明は、請求項18または19に記載の表示制御方法において、前記視聴状況認識ステップは、前記視聴状況として前記視聴者の顔の向きまたは視線の方向を認識し、前記判断ステップは、前記視聴状況記憶手段に記憶された前記視聴者の顔の向きまたは視線の方向に基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする。   The invention according to claim 20 is the display control method according to claim 18 or 19, wherein the viewing status recognition step recognizes a direction of a face or a line of sight of the viewer as the viewing status, In the determining step, content to be displayed on the display device is determined based on a direction of the viewer's face or line of sight stored in the viewing status storage means.

また、請求項21にかかる発明は、請求項18または19に記載の表示制御方法において、前記視聴状況認識ステップは、前記視聴状況として前記視聴者が前記視聴領域に存在するか否かを認識し、前記判断ステップは、前記視聴者が前記視聴領域に存在するか否かに基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする。   The invention according to claim 21 is the display control method according to claim 18 or 19, wherein the viewing status recognition step recognizes whether the viewer exists in the viewing area as the viewing status. The determining step determines contents to be displayed on the display device based on whether or not the viewer exists in the viewing area.

また、請求項22にかかる発明は、請求項18または19に記載の表示制御方法において、前記視聴状況認識ステップは、前記視聴状況として前記視聴者の顔の表情を認識し、前記判断ステップは、前記視聴状況記憶手段に記憶された前記視聴者の顔の表情に基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする。   The invention according to claim 22 is the display control method according to claim 18 or 19, wherein the viewing status recognition step recognizes the facial expression of the viewer as the viewing status, and the determination step includes: The content to be displayed on the display device is determined based on the facial expression of the viewer stored in the viewing status storage means.

また、請求項23にかかる発明は、請求項18または19に記載の表示制御方法において、前記視聴状況認識ステップは、音声入力装置が入力したコンテンツを視聴している視聴者が発する音声の入力を受付け、受付けた音声に基づいて前記視聴状況として前記視聴者のコンテンツに対する反応を認識し、前記判断ステップは、前記視聴状況記憶手段に記憶された前記視聴者のコンテンツに対する反応に基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする。   Further, the invention according to claim 23 is the display control method according to claim 18 or 19, wherein the viewing status recognition step receives an input of a voice uttered by a viewer who is viewing the content input by the voice input device. Receiving and recognizing a reaction to the viewer's content as the viewing situation based on the received voice, and the determining step includes the display device based on the reaction to the viewer's content stored in the viewing situation storage means The content to be displayed on the screen is determined.

また、請求項24にかかる発明は、請求項18〜23のいずれか1つに記載の表示制御方法において、前記判断ステップは、前記表示装置に表示するコンテンツとコンテンツを表示する優先順位とを対応付けて記憶するコンテンツ記憶手段に記憶された前記優先順位と、前記視聴状況とに基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする。   The invention according to claim 24 is the display control method according to any one of claims 18 to 23, wherein the determination step corresponds to the content to be displayed on the display device and the priority to display the content. The content to be displayed on the display device is determined based on the priority order stored in the content storage means to be added and the viewing status.

また、請求項25にかかる発明は、請求項18〜24のいずれか1つに記載の表示制御方法において、前記判断ステップが表示すべきと判断したコンテンツの視聴を促す情報を視聴者に通知する通知ステップをさらに備えたことを特徴とする。   According to a twenty-fifth aspect of the present invention, in the display control method according to any one of the eighteenth to twenty-fourth aspects, the viewer is notified of information that prompts viewing of the content that is determined to be displayed by the determination step. A notification step is further provided.

また、請求項26にかかる発明は、請求項18〜25のいずれか1つに記載の表示制御方法をコンピュータに実行させるプログラムである。   The invention according to claim 26 is a program for causing a computer to execute the display control method according to any one of claims 18 to 25.

請求項1にかかる発明によれば、コンテンツと、コンテンツを視聴している個々の視聴者の視聴状況とを対応付けて記憶することができる。このため、各コンテンツの視聴状況を個々の視聴者ごとに正確に記録することができるという効果を奏する。   According to the first aspect of the present invention, it is possible to store the content and the viewing status of each viewer who is viewing the content in association with each other. For this reason, there is an effect that the viewing situation of each content can be accurately recorded for each individual viewer.

また、請求項2にかかる発明によれば、コンテンツと、複数の表示装置においてコンテンツを視聴している個々の視聴者の視聴状況とを対応付けて記憶することができる。このため、複数の表示装置における各コンテンツの視聴状況を集計して、個々の視聴者ごとに正確に記録することができるという効果を奏する。   According to the second aspect of the present invention, the content and the viewing status of each viewer who is viewing the content on a plurality of display devices can be stored in association with each other. For this reason, the viewing status of each content on a plurality of display devices can be totaled and recorded accurately for each individual viewer.

また、請求項3にかかる発明によれば、記録した視聴状況に基づいて表示すべきコンテンツを判断することができるため、個々の視聴者の視聴状況に応じてコンテンツの表示内容を制御することができるという効果を奏する。   According to the invention of claim 3, since the content to be displayed can be determined based on the recorded viewing situation, the display content of the content can be controlled according to the viewing situation of each viewer. There is an effect that can be done.

また、請求項4にかかる発明によれば、視聴者の顔の向きまたは視線の方向を認識し、それに基づいて表示すべきコンテンツを判断することができる。このため、視聴者が実際にコンテンツを視聴していたか否かに基づいてコンテンツの表示内容を制御することができるという効果を奏する。   According to the fourth aspect of the present invention, it is possible to recognize the direction of the viewer's face or the direction of the line of sight, and determine the content to be displayed based on the recognition. For this reason, there is an effect that the display content of the content can be controlled based on whether or not the viewer has actually viewed the content.

また、請求項5にかかる発明によれば、視聴者がコンテンツを視聴できる領域に存在するか否かを認識し、それに基づいて表示すべきコンテンツを判断することができる。このため、コンテンツを視聴できる領域に存在する視聴者に対して適切なコンテンツを表示することができるという効果を奏する。   According to the invention of claim 5, it is possible to recognize whether or not the viewer exists in an area where the content can be viewed, and to determine the content to be displayed based on the recognition. For this reason, there is an effect that appropriate content can be displayed to a viewer who exists in an area where the content can be viewed.

また、請求項6にかかる発明によれば、視聴者の顔の表情を認識し、それに基づいて表示すべきコンテンツを判断することができる。このため、視聴者の興味を引いたコンテンツを正確に記録することができるとともに、視聴者の興味を引いたコンテンツを他の視聴者に対して表示することができるという効果を奏する。   According to the invention of claim 6, it is possible to recognize the facial expression of the viewer and determine the content to be displayed based on the recognition. Therefore, it is possible to accurately record the content that attracts the viewer's interest and to display the content that attracts the viewer's interest to other viewers.

また、請求項7にかかる発明によれば、視聴者の発した音声から視聴者のコンテンツに対する反応を認識し、それに基づいて表示すべきコンテンツを判断することができる。このため、視聴者の興味を引いたコンテンツを正確に記録することができるとともに、視聴者の興味を引いたコンテンツを他の視聴者に対して表示することができるという効果を奏する。   Further, according to the seventh aspect of the present invention, it is possible to recognize the reaction to the viewer's content from the voice uttered by the viewer and determine the content to be displayed based on the reaction. Therefore, it is possible to accurately record the content that attracts the viewer's interest and to display the content that attracts the viewer's interest to other viewers.

また、請求項8にかかる発明によれば、コンテンツを表示する優先順位と視聴状況とに基づいて表示すべきコンテンツを判断することができる。このため、個々の視聴者の視聴状況だけでなく、コンテンツの優先順位に応じてコンテンツの表示内容を制御することができるという効果を奏する。   According to the eighth aspect of the present invention, the content to be displayed can be determined based on the priority for displaying the content and the viewing status. For this reason, there is an effect that the display content of the content can be controlled according to the priority order of the content as well as the viewing status of each viewer.

また、請求項9にかかる発明によれば、表示すべきコンテンツの視聴を促す情報を視聴者に通知することができるため、重要なコンテンツの視聴を徹底させることができるという効果を奏する。   In addition, according to the ninth aspect of the present invention, it is possible to notify the viewer of information that prompts viewing of the content to be displayed, so that it is possible to thoroughly view important content.

また、請求項10にかかる発明によれば、コンテンツと、コンテンツを視聴している個々の視聴者の視聴状況とを対応付けて記憶し、記憶した視聴状況に基づいて表示すべきコンテンツを判断することができる。このため、各コンテンツの視聴状況を個々の視聴者ごとに正確に記録することができ、個々の視聴者の視聴状況に応じてコンテンツの表示内容を制御することができるという効果を奏する。   According to the invention of claim 10, the content and the viewing status of each viewer who is viewing the content are stored in association with each other, and the content to be displayed is determined based on the stored viewing status. be able to. Therefore, the viewing situation of each content can be accurately recorded for each individual viewer, and the display contents of the content can be controlled according to the viewing situation of each individual viewer.

また、請求項11にかかる発明によれば、コンテンツと、複数の表示装置においてコンテンツを視聴している個々の視聴者の視聴状況とを対応付けて記憶し、記憶した視聴状況に基づいて表示すべきコンテンツを判断することができる。このため、複数の表示装置における各コンテンツの視聴状況を集計して、個々の視聴者ごとに正確に記録することができ、個々の視聴者の視聴状況に応じてコンテンツの表示内容を制御することができるという効果を奏する。   According to the invention of claim 11, the content and the viewing status of each viewer who is viewing the content on the plurality of display devices are stored in association with each other and displayed based on the stored viewing status. The content to be determined can be determined. Therefore, the viewing status of each content on a plurality of display devices can be aggregated and accurately recorded for each viewer, and the display content of the content can be controlled according to the viewing status of each viewer There is an effect that can be.

また、請求項12にかかる発明によれば、視聴者の顔の向きまたは視線の方向を認識し、それに基づいて表示すべきコンテンツを判断することができる。このため、視聴者が実際にコンテンツを視聴していたか否かに基づいてコンテンツの表示内容を制御することができるという効果を奏する。   According to the twelfth aspect of the present invention, it is possible to recognize the orientation of the viewer's face or the direction of the line of sight, and determine the content to be displayed based on the recognition. For this reason, there is an effect that the display content of the content can be controlled based on whether or not the viewer has actually viewed the content.

また、請求項13にかかる発明によれば、視聴者がコンテンツを視聴できる領域に存在するか否かを認識し、それに基づいて表示すべきコンテンツを判断することができる。このため、コンテンツを視聴できる領域に存在する視聴者に対して適切なコンテンツを表示することができるという効果を奏する。   According to the invention of claim 13, it is possible to recognize whether or not the viewer exists in an area where the content can be viewed, and to determine the content to be displayed based on the recognition. For this reason, there is an effect that appropriate content can be displayed to a viewer who exists in an area where the content can be viewed.

また、請求項14にかかる発明によれば、視聴者の顔の表情を認識し、それに基づいて表示すべきコンテンツを判断することができる。このため、視聴者の興味を引いたコンテンツを正確に記録することができるとともに、視聴者の興味を引いたコンテンツを他の視聴者に対して表示することができるという効果を奏する。   According to the fourteenth aspect of the invention, it is possible to recognize the facial expression of the viewer and determine the content to be displayed based on the recognition. Therefore, it is possible to accurately record the content that attracts the viewer's interest and to display the content that attracts the viewer's interest to other viewers.

また、請求項15にかかる発明によれば、視聴者の発した音声から視聴者のコンテンツに対する反応を認識し、それに基づいて表示すべきコンテンツを判断することができる。このため、視聴者の興味を引いたコンテンツを正確に記録することができるとともに、視聴者の興味を引いたコンテンツを他の視聴者に対して表示することができるという効果を奏する。   According to the fifteenth aspect of the present invention, it is possible to recognize the reaction to the viewer's content from the voice uttered by the viewer and determine the content to be displayed based on the reaction. Therefore, it is possible to accurately record the content that attracts the viewer's interest and to display the content that attracts the viewer's interest to other viewers.

また、請求項16にかかる発明によれば、コンテンツを表示する優先順位と視聴状況とに基づいて表示すべきコンテンツを判断することができる。このため、個々の視聴者の視聴状況だけでなく、コンテンツの優先順位に応じてコンテンツの表示内容を制御することができるという効果を奏する。   According to the sixteenth aspect of the present invention, the content to be displayed can be determined based on the priority for displaying the content and the viewing status. For this reason, there is an effect that the display content of the content can be controlled according to the priority order of the content as well as the viewing status of each viewer.

また、請求項17にかかる発明によれば、表示すべきコンテンツの視聴を促す情報を視聴者に通知することができるため、重要なコンテンツの視聴を徹底させることができるという効果を奏する。   According to the seventeenth aspect of the present invention, it is possible to notify the viewer of information that prompts viewing of the content to be displayed, so that it is possible to thoroughly view important content.

また、請求項18にかかる発明によれば、コンテンツと、コンテンツを視聴している個々の視聴者の視聴状況とを対応付けて記憶し、記憶した視聴状況に基づいて表示すべきコンテンツを判断することができる。このため、各コンテンツの視聴状況を個々の視聴者ごとに正確に記録することができ、個々の視聴者の視聴状況に応じてコンテンツの表示内容を制御することができるという効果を奏する。   According to the invention of claim 18, the content and the viewing status of each viewer who is viewing the content are stored in association with each other, and the content to be displayed is determined based on the stored viewing status. be able to. Therefore, the viewing situation of each content can be accurately recorded for each individual viewer, and the display contents of the content can be controlled according to the viewing situation of each individual viewer.

また、請求項19にかかる発明によれば、コンテンツと、複数の表示装置においてコンテンツを視聴している個々の視聴者の視聴状況とを対応付けて記憶し、記憶した視聴状況に基づいて表示すべきコンテンツを判断することができる。このため、複数の表示装置における各コンテンツの視聴状況を集計して、個々の視聴者ごとに正確に記録することができ、個々の視聴者の視聴状況に応じてコンテンツの表示内容を制御することができるという効果を奏する。   According to the nineteenth aspect of the invention, the content and the viewing status of each viewer who is viewing the content on the plurality of display devices are stored in association with each other and displayed based on the stored viewing status. The content to be determined can be determined. Therefore, the viewing status of each content on a plurality of display devices can be aggregated and accurately recorded for each viewer, and the display content of the content can be controlled according to the viewing status of each viewer There is an effect that can be.

また、請求項20にかかる発明によれば、視聴者の顔の向きまたは視線の方向を認識し、それに基づいて表示すべきコンテンツを判断することができる。このため、視聴者が実際にコンテンツを視聴していたか否かに基づいてコンテンツの表示内容を制御することができるという効果を奏する。   According to the twentieth aspect of the present invention, it is possible to recognize the orientation of the viewer's face or the direction of the line of sight and determine the content to be displayed based on the recognition. For this reason, there is an effect that the display content of the content can be controlled based on whether or not the viewer has actually viewed the content.

また、請求項21にかかる発明によれば、視聴者がコンテンツを視聴できる領域に存在するか否かを認識し、それに基づいて表示すべきコンテンツを判断することができる。このため、コンテンツを視聴できる領域に存在する視聴者に対して適切なコンテンツを表示することができるという効果を奏する。   According to the invention of claim 21, it is possible to recognize whether or not the viewer exists in an area where the content can be viewed, and to determine the content to be displayed based on the recognition. For this reason, there is an effect that appropriate content can be displayed to a viewer who exists in an area where the content can be viewed.

また、請求項22にかかる発明によれば、視聴者の顔の表情を認識し、それに基づいて表示すべきコンテンツを判断することができる。このため、視聴者の興味を引いたコンテンツを正確に記録することができるとともに、視聴者の興味を引いたコンテンツを他の視聴者に対して表示することができるという効果を奏する。   According to the invention of claim 22, it is possible to recognize the facial expression of the viewer and determine the content to be displayed based on the recognition. Therefore, it is possible to accurately record the content that attracts the viewer's interest and to display the content that attracts the viewer's interest to other viewers.

また、請求項23にかかる発明によれば、視聴者の発した音声から視聴者のコンテンツに対する反応を認識し、それに基づいて表示すべきコンテンツを判断することができる。このため、視聴者の興味を引いたコンテンツを正確に記録することができるとともに、視聴者の興味を引いたコンテンツを他の視聴者に対して表示することができるという効果を奏する。   According to the twenty-third aspect of the present invention, it is possible to recognize the reaction to the viewer's content from the voice uttered by the viewer and determine the content to be displayed based on the reaction. Therefore, it is possible to accurately record the content that attracts the viewer's interest and to display the content that attracts the viewer's interest to other viewers.

また、請求項24にかかる発明によれば、コンテンツを表示する優先順位と視聴状況とに基づいて表示すべきコンテンツを判断することができる。このため、個々の視聴者の視聴状況だけでなく、コンテンツの優先順位に応じてコンテンツの表示内容を制御することができるという効果を奏する。   According to the twenty-fourth aspect of the present invention, the content to be displayed can be determined based on the priority for displaying the content and the viewing status. For this reason, there is an effect that the display content of the content can be controlled according to the priority order of the content as well as the viewing status of each viewer.

また、請求項25にかかる発明によれば、表示すべきコンテンツの視聴を促す情報を視聴者に通知することができるため、重要なコンテンツの視聴を徹底させることができるという効果を奏する。   In addition, according to the invention of claim 25, since it is possible to notify the viewer of information that prompts viewing of the content to be displayed, it is possible to thoroughly view important content.

また、請求項26の発明によれば、請求項18〜25に記載の表示制御方法をコンピュータに実行させることができるという効果を奏する。   According to the invention of claim 26, there is an effect that the computer can execute the display control method according to claims 18 to 25.

以下に添付図面を参照して、この発明にかかるコンテンツ管理システムの最良な実施の形態を詳細に説明する。   Exemplary embodiments of a content management system according to the present invention will be explained below in detail with reference to the accompanying drawings.

(第1の実施の形態)
第1の実施の形態にかかるコンテンツ管理システムは、視聴者識別装置、撮像装置、音声入力装置から入力した情報を用いて視聴者の視聴状況を認識し、表示しているコンテンツと対応付けて管理するとともに、表示装置におけるコンテンツの表示内容を的確に制御するものである。
(First embodiment)
The content management system according to the first embodiment recognizes the viewing status of the viewer using information input from the viewer identification device, the imaging device, and the audio input device, and manages the information in association with the displayed content. In addition, the display content of the content on the display device is accurately controlled.

図1は、本発明の第1の実施の形態にかかるコンテンツ管理システム100の構成を示すブロック図である。同図に示すように、コンテンツ管理システム100は、表示装置101と、視聴者識別装置102と、撮像装置103と、音声入力装置104と、表示制御装置110と、IDカード120とを備えている。   FIG. 1 is a block diagram showing a configuration of a content management system 100 according to the first embodiment of the present invention. As shown in the figure, the content management system 100 includes a display device 101, a viewer identification device 102, an imaging device 103, a voice input device 104, a display control device 110, and an ID card 120. .

表示装置101は、CRT(Cathode Ray Tube)あるいはLCD(liquid crystal monitor)などのディスプレイで構成され、動画像、静止画像などの画像情報や、文字情報などのコンテンツを表示する装置である。本発明は、複数の視聴者によって視聴されるコンテンツの視聴状況を把握することが目的であるため、表示装置101は、複数の視聴者によって閲覧が可能な表示装置であり、例えば、食堂、休憩所などの共有スペースに設置された大型の表示装置を想定している。   The display device 101 includes a display such as a cathode ray tube (CRT) or a liquid crystal monitor (LCD), and is a device that displays image information such as a moving image and a still image, and content such as character information. The purpose of the present invention is to grasp the viewing status of content viewed by a plurality of viewers, and therefore the display device 101 is a display device that can be viewed by a plurality of viewers. A large display device installed in a common space such as a place is assumed.

IDカード120は、RFID(Radio Frequency Identification)、Bluetooth対応の携帯電話、無線IC(Integrated Circuit)カード、無線機能付きPDA(Personal Digital Assistance)、赤外線タグ、バーコード、2次元バーコードなどを利用した携帯型情報記憶媒体であり、視聴者を識別するための情報を格納するものである。IDカード120には、視聴者を識別するための情報として、少なくとも視聴者を一意に識別することができる視聴者IDが保存される。   The ID card 120 uses an RFID (Radio Frequency Identification), a Bluetooth compatible mobile phone, a wireless IC (Integrated Circuit) card, a wireless function PDA (Personal Digital Assistance), an infrared tag, a barcode, a two-dimensional barcode, and the like. A portable information storage medium that stores information for identifying a viewer. The ID card 120 stores at least a viewer ID that can uniquely identify the viewer as information for identifying the viewer.

視聴者識別装置102は、IDカード120に記憶された視聴者の情報を読み取ることにより視聴者を識別する非接触型の識別装置である。視聴者識別装置102は、表示装置101に表示されるコンテンツの視聴が可能な領域(以下、視聴領域という。)に入った視聴者を識別できるように、表示装置101の近傍に設置される。   The viewer identification device 102 is a non-contact type identification device that identifies a viewer by reading viewer information stored in the ID card 120. The viewer identification device 102 is installed in the vicinity of the display device 101 so as to identify a viewer who has entered a region where content displayed on the display device 101 can be viewed (hereinafter referred to as a viewing region).

撮像装置103は、表示装置101の近傍に設置され、表示装置101の視聴領域に入った視聴者を撮影するものであり、デジタルカメラ、ビデオカメラなどの一般的に用いられるあらゆる撮像装置により構成することができる。   The imaging device 103 is installed in the vicinity of the display device 101 and photographs a viewer who enters the viewing area of the display device 101, and is configured by any commonly used imaging device such as a digital camera or a video camera. be able to.

音声入力装置104は、表示装置101の近傍に設置され、視聴者が発した歓声や笑い声、拍手などの音声を入力するものであり、マイクロフォンなどの一般的に用いられるあらゆる音声入力装置により構成することができる。   The voice input device 104 is installed in the vicinity of the display device 101 and inputs voices such as cheers, laughter, and applause uttered by the viewer. The voice input device 104 includes any commonly used voice input device such as a microphone. be able to.

表示制御装置110は、表示装置101に表示するコンテンツを記憶手段に記憶して管理するとともに、視聴者の視聴状況に合わせて表示するコンテンツを制御するものである。図1に示すように、表示制御装置110は、視聴状況認識部111と、記憶制御部112と、判断部113と、通知部114と、コンテンツ記憶部115と、視聴状況記憶部116とを備えている。   The display control device 110 stores and manages the content to be displayed on the display device 101 in a storage unit, and controls the content to be displayed according to the viewing status of the viewer. As shown in FIG. 1, the display control apparatus 110 includes a viewing status recognition unit 111, a storage control unit 112, a determination unit 113, a notification unit 114, a content storage unit 115, and a viewing status storage unit 116. ing.

視聴状況認識部111は、視聴者識別装置102が視聴者を識別したか否かにより、視聴者が視聴領域に存在するか否かを視聴状況として認識するものである。また、撮像装置103が撮影した画像から視聴者の顔の向き・視線、顔の表情を視聴状況として認識するものである。さらに、音声入力装置104が入力した音声から歓声や拍手といった視聴者のコンテンツに対する反応を視聴状況として認識するものである。   The viewing status recognition unit 111 recognizes whether or not the viewer exists in the viewing area as the viewing status depending on whether or not the viewer identification device 102 has identified the viewer. In addition, the direction and line of sight of the viewer's face and facial expression are recognized as the viewing situation from the image captured by the imaging device 103. Furthermore, a response to the viewer's content such as cheers or applause is recognized as a viewing situation from the voice input by the voice input device 104.

視聴者が視聴領域に存在するか否かは、上述の視聴者識別装置102により視聴者が識別されたか否かにより判断することができる。画像から顔の向き・視線を認識する方法としては、上述の特許文献2に記載された方法などの一般的に利用されるあらゆる方法を適用することができる。顔の向き・視線を認識することにより、視聴者が表示されたコンテンツを実際に視聴しているか否かを判定することが可能となる。   Whether or not the viewer exists in the viewing area can be determined based on whether or not the viewer is identified by the above-described viewer identification device 102. As a method for recognizing a face direction / line of sight from an image, any generally used method such as the method described in Patent Document 2 described above can be applied. By recognizing the face direction and line of sight, it is possible to determine whether or not the viewer is actually viewing the displayed content.

また、画像から顔の表情を認識する方法としては、オプティカルフローを用いた方法、隠れマルコフモデルを用いた方法などを適用することができる。また、マイクロフォン等で入力した音声から歓声や拍手などを認識する方法としては、スペクトル分析法、LPC法などを適用することができる。なお、これらは一例であり、これ以外の従来から用いられているあらゆる方法を適用するように本発明を構成することができる。   As a method for recognizing facial expressions from an image, a method using an optical flow, a method using a hidden Markov model, or the like can be applied. In addition, as a method for recognizing cheers or applause from speech input by a microphone or the like, a spectrum analysis method, an LPC method, or the like can be applied. Note that these are merely examples, and the present invention can be configured so as to apply any other conventionally used method.

記憶制御部112は、コンテンツ記憶部115から表示するコンテンツを読み出して出力する処理、およびコンテンツと当該コンテンツに対する視聴者の視聴状況を対応付けて視聴状況記憶部116に記憶する処理を実行するものである。記憶制御部112が、本発明における出力手段に相当する。   The storage control unit 112 executes processing for reading out the content to be displayed from the content storage unit 115 and outputting it, and processing for storing the content and the viewing status of the viewer for the content in the viewing status storage unit 116 in association with each other. is there. The storage control unit 112 corresponds to the output unit in the present invention.

判断部113は、視聴状況記憶部116から、視聴領域に存在する視聴者の視聴状況を抽出し、抽出した視聴状況と、コンテンツ記憶部115から取得したコンテンツを表示する優先順位とから、次に視聴者に対して表示すべきコンテンツを判断するものである。   The determination unit 113 extracts the viewing status of the viewers existing in the viewing area from the viewing status storage unit 116, and from the extracted viewing status and the priority order for displaying the content acquired from the content storage unit 115, next The content to be displayed to the viewer is determined.

通知部114は、判断部113が表示すべきと判断したコンテンツの視聴を促す情報を視聴者に通知するものであり、例えば、メールにより通知するように構成することができる。なお、これは一例であり、コンテンツの視聴を促す情報を視聴者に通知するものであればあらゆる方法を適用することができる。   The notification unit 114 notifies the viewer of information that prompts the viewing of the content that the determination unit 113 determines to display, and can be configured to notify by e-mail, for example. This is merely an example, and any method can be applied as long as it notifies the viewer of information that prompts viewing of the content.

コンテンツ記憶部115は、表示装置101に表示するコンテンツを記憶する記憶手段であり、HDD(Hard Disk Drive)、光ディスク、メモリカードなどの一般的に用いられるあらゆる記憶手段により構成することができる。コンテンツ記憶部115は、コンテンツ管理テーブル115aにより、表示するコンテンツを記憶している。   The content storage unit 115 is a storage unit that stores content to be displayed on the display device 101, and can be configured by any commonly used storage unit such as an HDD (Hard Disk Drive), an optical disk, or a memory card. The content storage unit 115 stores the content to be displayed by the content management table 115a.

図2は、コンテンツ管理テーブル115aのデータ構造の一例を示す説明図である。同図に示すように、コンテンツ管理テーブル115aは、コンテンツを一意に識別するためのコンテンツIDと、コンテンツ名と、コンテンツの長さ(撮影時間)と、表示する優先順位とを対応付けて格納している。   FIG. 2 is an explanatory diagram showing an example of the data structure of the content management table 115a. As shown in the figure, the content management table 115a stores the content ID for uniquely identifying the content, the content name, the content length (shooting time), and the display priority in association with each other. ing.

視聴状況記憶部116は、コンテンツ記憶部115に記憶されたコンテンツと、当該コンテンツの視聴状況とを対応付けて記憶する記憶手段であり、HDD、光ディスク、メモリカードなどの一般的に用いられるあらゆる記憶手段により構成することができる。視聴状況記憶部116は、視聴時間テーブル116aと、視聴状況テーブル116bと、音声テーブル116cとにより、コンテンツの視聴状況を記憶している。   The viewing status storage unit 116 is a storage unit that stores the content stored in the content storage unit 115 and the viewing status of the content in association with each other, and is used for all commonly used storage such as an HDD, an optical disc, and a memory card. It can be configured by means. The viewing status storage unit 116 stores the viewing status of content by a viewing time table 116a, a viewing status table 116b, and an audio table 116c.

視聴時間テーブル116aは、視聴者が視聴領域に入ったときから出て行くときまでの時間に表示されていたコンテンツを管理するものである。視聴状況テーブル116bは、視聴時間テーブル116aに格納された時間内に、視聴者がどのようにコンテンツを視聴していたかという視聴状況の詳細を格納するものである。音声テーブル116cは、コンテンツに対する視聴者の反応を音声により認識した結果を格納するものである。   The viewing time table 116a manages content displayed during the time from when the viewer enters the viewing area to when he leaves. The viewing situation table 116b stores the details of the viewing situation such as how the viewer was viewing the content within the time stored in the viewing time table 116a. The sound table 116c stores the result of recognizing the viewer's reaction to the content by sound.

図3は、視聴時間テーブル116aのデータ構造の一例を示す説明図である。同図に示すように、視聴時間テーブル116aは、視聴状況を一意に識別するための視聴状況IDと、コンテンツIDと、視聴者を一意に識別するための視聴者IDと、視聴領域に入場した位置(コンテンツの長さに対する相対値)と、視聴領域から退場した位置(コンテンツの長さに対する相対値)とを対応付けて格納している。   FIG. 3 is an explanatory diagram showing an example of the data structure of the viewing time table 116a. As shown in the figure, the viewing time table 116a has entered the viewing area, the viewing status ID for uniquely identifying the viewing status, the content ID, the viewer ID for uniquely identifying the viewer. The position (relative value with respect to the length of the content) and the position (relative value with respect to the length of the content) exiting from the viewing area are stored in association with each other.

例えば、同図においては、コンテンツID=0001で識別されるコンテンツの表示中に、視聴者ID=1001で識別される視聴者が、コンテンツの最初(視聴領域入場=0分)から、コンテンツの最後(視聴領域退場=15分は、コンテンツの長さ=15分と同一)まで、視聴領域にいた場合に、視聴時間テーブル116aに格納されるデータが示されている。   For example, in the figure, during the display of the content identified by the content ID = 0001, the viewer identified by the viewer ID = 1001 starts from the beginning of the content (viewing area entry = 0 minutes) to the end of the content. The data stored in the viewing time table 116a when the user is in the viewing area until the viewing area exit = 15 minutes is the same as the content length = 15 minutes is shown.

図4は、視聴状況テーブル116bのデータ構造の一例を示す説明図である。同図に示すように、視聴状況テーブル116bは、視聴状況を一意に識別するための視聴状況IDと、視聴を開始した位置(コンテンツの長さに対する相対値)と、視聴を終了した位置(コンテンツの長さに対する相対値)と、視聴状況とを対応付けて格納している。   FIG. 4 is an explanatory diagram showing an example of the data structure of the viewing situation table 116b. As shown in the figure, the viewing status table 116b includes a viewing status ID for uniquely identifying the viewing status, a position where viewing is started (relative value to the length of the content), and a position where viewing is ended (content) Relative to the length of the video) and the viewing status are stored in association with each other.

例えば、同図においては、視聴時間テーブル116aの視聴状況ID=2001で表されるデータに対応して、視聴開始位置が0分、5分、および10分の3つに細分化された時間における視聴状況が格納されている。具体的には、視聴開始・終了が0分から5分の場合は、表示装置101に視聴者の視線が向いていなかったことから「視聴していない」という視聴状況が、5分から10分の場合は、顔の表情から「悲しみ」という視聴状況が、10分から15分の場合は、顔の表情から「驚き」という視聴状況がそれぞれ格納されている。   For example, in the figure, the viewing start position is divided into three parts of 0 minutes, 5 minutes, and 10 minutes corresponding to the data represented by the viewing state ID = 2001 in the viewing time table 116a. The viewing status is stored. Specifically, when the viewing start / end is from 0 to 5 minutes, the viewing status “not viewing” is indicated because the viewer's line of sight is not facing the display device 101. When the viewing situation “sadness” is 10 to 15 minutes from the facial expression, the viewing situation “surprise” is stored from the facial expression.

図5は、音声テーブル116cのデータ構造の一例を示す説明図である。同図に示すように、音声テーブル116cは、コンテンツIDと、視聴者IDと、音声認識開始位置(コンテンツの長さに対する相対値)と、音声認識終了位置(コンテンツの長さに対する相対値)と、音声認識結果とを対応付けて格納している。   FIG. 5 is an explanatory diagram showing an example of the data structure of the voice table 116c. As shown in the figure, the voice table 116c includes a content ID, a viewer ID, a voice recognition start position (a relative value with respect to the length of the content), and a voice recognition end position (a relative value with respect to the length of the content). The voice recognition result is stored in association with each other.

例えば、同図においては、コンテンツID=0001で表されるコンテンツを、視聴者ID=1001で表される視聴者が視聴し、コンテンツ表示開始から3分の時点から4分の時点において歓声が沸いたという視聴状況が格納されている。   For example, in the same figure, the content represented by content ID = 0001 is viewed by the viewer represented by viewer ID = 1001, and cheers scream from 3 minutes to 4 minutes from the start of content display. The viewing status is stored.

次に、このように構成された第1の実施の形態にかかるコンテンツ管理システム100によるコンテンツ表示・視聴状況記憶処理について説明する。図6は、第1の実施の形態におけるコンテンツ表示・視聴状況記憶処理の全体の流れを示すフローチャートである。   Next, content display / viewing status storage processing by the content management system 100 according to the first embodiment configured as described above will be described. FIG. 6 is a flowchart showing an overall flow of the content display / viewing status storage process according to the first embodiment.

まず、視聴者識別装置102が、表示装置101の前にいる視聴者、すなわち、表示装置101の視聴領域に入っている視聴者を、当該視聴者が保有しているIDカード120に記憶された情報を読み取ることにより識別する(ステップS601)。例えば、IDカード120に視聴者IDを記憶しておくことにより、視聴者識別装置102が、視聴者IDを読み取って視聴者を識別することができる。   First, the viewer identification device 102 stores the viewer in front of the display device 101, that is, the viewer in the viewing area of the display device 101, in the ID card 120 held by the viewer. Identification is made by reading the information (step S601). For example, by storing the viewer ID in the ID card 120, the viewer identification device 102 can identify the viewer by reading the viewer ID.

次に、表示制御装置110の判断部113が、ステップS601で認識された視聴者の視聴状況を、視聴者IDを検索キーとして視聴状況記憶部116から抽出する(ステップS602)。具体的には、ステップS601で認識された視聴者の視聴者IDと一致する視聴者IDを含むデータを、視聴時間テーブル116aから検索し、検索したデータに含まれる視聴状況IDを含むデータを、視聴状況テーブル116bから抽出する。   Next, the determination unit 113 of the display control apparatus 110 extracts the viewing status of the viewer recognized in step S601 from the viewing status storage unit 116 using the viewer ID as a search key (step S602). Specifically, data including a viewer ID that matches the viewer ID of the viewer recognized in step S601 is retrieved from the viewing time table 116a, and data including the viewing status ID included in the retrieved data is obtained. Extracted from the viewing status table 116b.

次に、判断部113が、ステップS602において抽出した視聴状況と、コンテンツ管理テーブル115aに格納されたコンテンツ表示の優先順位とから、表示装置101に表示すべきコンテンツを判断する(ステップS603)。   Next, the determination unit 113 determines the content to be displayed on the display device 101 from the viewing status extracted in step S602 and the content display priority stored in the content management table 115a (step S603).

例えば、図2から4に示す例では、視聴者ID=1001の視聴者は、コンテンツID=0001のコンテンツの0分から5分の内容を「視聴していない」という視聴状況が抽出されるため、コンテンツID=0001のコンテンツを再度表示すべきと判断するように構成することができる。なお、例えばコンテンツID=0002のコンテンツも「視聴していない」と判断されたときは、コンテンツ管理テーブル115aに格納された優先順位の高いコンテンツID=0001(優先順位=1)を、表示すべきコンテンツとして選択する。   For example, in the example shown in FIGS. 2 to 4, since the viewer with viewer ID = 1001 is extracted from the viewing status of “not viewing” content from 0 minutes to 5 minutes of the content with content ID = 0001, It can be configured to determine that the content with content ID = 0001 should be displayed again. For example, when it is determined that the content with content ID = 0002 is “not viewed”, content ID = 0001 (priority = 1) stored in the content management table 115a should be displayed. Select as content.

このように、視聴状況認識部111が認識した視聴者の顔の向き・視線から、「視聴していない」などの視聴状況を得て、得られた視聴状況により、どのコンテンツを次に表示すべきか判断するように構成することができる。なお、ここでは過去の視聴状況を用いて表示するコンテンツを判断したが、視聴者が現在、表示装置101に対して視線を向けているか否かを認識し、その結果により、視線を向けている視聴者を対象として表示すべきコンテンツを判断するように構成してもよい。   In this way, the viewing status such as “not viewing” is obtained from the viewer's face orientation / gaze recognized by the viewing status recognition unit 111, and which content is to be displayed next depending on the obtained viewing status. It can be configured to determine whether or not. Here, the content to be displayed is determined using the past viewing situation. However, the viewer recognizes whether or not the viewer is currently looking at the display device 101, and the view is turned according to the result. The content to be displayed for the viewer may be determined.

また、視聴時間テーブル116aのみを用いて表示すべきコンテンツを判断するように構成してもよい。例えば、図3に示すように、コンテンツID=0001かつ視聴者ID=1003で表されるデータが視聴時間テーブル116aに存在しない場合、当該視聴者IDで識別される視聴者は、コンテンツID=0001で識別されるコンテンツ表示時に視聴領域に存在しなかった、すなわち、当該コンテンツを全く視聴していないことを意味する。   Further, the content to be displayed may be determined using only the viewing time table 116a. For example, as shown in FIG. 3, when data represented by content ID = 0001 and viewer ID = 1003 does not exist in the viewing time table 116a, the viewer identified by the viewer ID is content ID = 0001. Means that the content is not present in the viewing area at the time of displaying the content identified by, that is, the content is not viewed at all.

したがって、視聴者ID=1003で識別される視聴者に対し、コンテンツID=0001で識別されるコンテンツを次に表示すべきと判断してもよい。この際、視聴者ID=1003で識別される視聴者が、現在、表示装置101に対して視線を向けているか否かに関係なく、そのコンテンツを表示するように構成してもよい。既に視聴したコンテンツが表示されているため、当該視聴者が表示装置101に対して視線をむけていない場合もあるからである。   Therefore, it may be determined that the content identified by the content ID = 0001 should be displayed next for the viewer identified by the viewer ID = 1003. At this time, the content identified by the viewer identified by the viewer ID = 1003 may be displayed regardless of whether the viewer is currently looking at the display device 101 or not. This is because, since the content that has already been viewed is displayed, the viewer may not be looking at the display device 101 in some cases.

このように、視聴者が視聴領域に存在したか否かのみにより、どのコンテンツを次に表示すべきか判断するように構成することができる。この他、視聴者の顔の表情、または、音声認識の結果得られた視聴者の反応により、どのコンテンツを次に表示すべきか判断するように構成してもよい。   In this way, it can be configured to determine which content should be displayed next only by whether or not the viewer is in the viewing area. In addition, the content to be displayed next may be determined based on the facial expression of the viewer or the viewer's reaction obtained as a result of voice recognition.

例えば、他の視聴者があるコンテンツに対して示した顔の表情や、歓声・拍手といった音声による反応から、最も視聴者の興味を引くコンテンツを選択し、当該コンテンツをまだ見ていない視聴者に対し優先して表示するように構成することができる。   For example, select the content that most appeals to the viewer from the facial expressions of other viewers and the voice response such as cheers and applause. However, it can be configured to display with priority.

ステップS603において、判断部113が表示すべきコンテンツを判断した後、記憶制御部112が、そのコンテンツをコンテンツ記憶部115から取得し、表示装置101に対して出力する(ステップS604)。   In step S603, after the determination unit 113 determines the content to be displayed, the storage control unit 112 acquires the content from the content storage unit 115 and outputs the content to the display device 101 (step S604).

次に、表示装置101が、記憶制御部112から出力されたコンテンツを表示し(ステップS605)、撮像装置103が、当該コンテンツを視聴している視聴者を撮影するとともに(ステップS606)、音声入力装置104が、視聴者の発する音声を入力する(ステップS607)。   Next, the display device 101 displays the content output from the storage control unit 112 (step S605), and the imaging device 103 captures a viewer who is viewing the content (step S606), and voice input is performed. The device 104 inputs a voice uttered by the viewer (step S607).

次に、視聴状況認識部111が、撮像装置103により撮影された画像と、音声入力装置104により入力された音声とから、視聴者の視聴状況を認識する(ステップS608)。具体的には、上述のように、画像から視聴者の顔の向き・視線を認識して実際に視聴しているか否かを判定するとともに、視聴者の顔の表情を認識する。また、音声から視聴者がコンテンツに対して示す歓声・拍手といった反応を認識する。   Next, the viewing status recognition unit 111 recognizes the viewing status of the viewer from the image captured by the imaging device 103 and the audio input by the audio input device 104 (step S608). Specifically, as described above, the orientation and line of sight of the viewer's face are recognized from the image to determine whether or not the viewer is actually viewing, and the facial expression of the viewer is recognized. In addition, the voice recognizes a reaction such as cheers / applauses shown to the content by the viewer.

また、コンテンツを表示中に視聴者が視聴領域を立ち去った場合には、視聴状況認識部111は、視聴者識別装置102が当該視聴者を識別できなくなったという結果を用いて、視聴者が視聴領域に存在しなくなったという視聴状況を認識することができる。   When the viewer leaves the viewing area while displaying the content, the viewing state recognition unit 111 uses the result that the viewer identification device 102 can no longer identify the viewer, It is possible to recognize the viewing situation that the area no longer exists.

次に、記憶制御部112が、表示しているコンテンツのコンテンツIDと、視聴領域に存在する視聴者の視聴者IDと、視聴状況認識部111が認識した視聴状況とを対応付けて、視聴状況記憶部116に記憶する(ステップS609)。このようにして、表示したコンテンツの視聴状況を個々の視聴者ごとに正確に記憶することができ、コンテンツ内容の評価や、次にコンテンツを表示する際の判断の基準とすることが可能となる。   Next, the storage control unit 112 associates the content ID of the displayed content, the viewer ID of the viewer existing in the viewing area, and the viewing status recognized by the viewing status recognition unit 111, thereby viewing the viewing status. It memorize | stores in the memory | storage part 116 (step S609). In this way, the viewing status of the displayed content can be accurately stored for each individual viewer, and can be used as a reference for evaluation of the content content and determination when the content is next displayed. .

例えば、コンテンツ表示中に視聴者が立ち去ったこと、視聴者の顔の表情、音声による反応を認識し、それを記憶することができるため、コンテンツのどの部分が視聴者の興味を引いたのか、どの部分を改善すべきかなどを判断することができる。   For example, it is possible to recognize and memorize that the viewer has gone away while the content is displayed, the facial expression of the viewer, the voice response, which part of the content attracted the viewer's interest, It is possible to determine which part should be improved.

次に、視聴者識別装置102が、表示装置101の前、すなわち、視聴領域に視聴者が存在するか否かを判断し(ステップS610)、存在する場合は(ステップS610:YES)、ステップS601に戻り処理を繰り返す。視聴者が存在しない場合は(ステップS610:NO)、コンテンツ表示・視聴状況記憶処理を終了する。   Next, the viewer identification device 102 determines whether or not there is a viewer in front of the display device 101, that is, in the viewing area (step S610), and if present (step S610: YES), step S601. Return to and repeat the process. If there is no viewer (step S610: NO), the content display / viewing status storage process is terminated.

なお、判断部113が表示すべきと判断したコンテンツの視聴を促す情報を、通知部114が、視聴者にメールなどにより通知するように構成してもよい。例えば、ステップS603において表示すべきコンテンツを判断してから、ステップS605において表示装置101に表示するまでの間に、当該コンテンツを視聴すべき視聴者に対してこれからコンテンツの表示が開始される旨を記載したメールを通知部114が送信するように構成することができる。この際、優先順位が一定の閾値より高い場合にのみメールを送信するように構成してもよい。   Note that the notification unit 114 may notify the viewer of information that prompts viewing of the content that the determination unit 113 determines to display by mail or the like. For example, after the content to be displayed is determined in step S603 and until it is displayed on the display device 101 in step S605, the display of the content will be started for the viewer who should view the content. The notification mail 114 can be configured to transmit the described mail. At this time, the mail may be transmitted only when the priority is higher than a certain threshold.

このような通知機能を持たせることにより、視聴状況を正確に記憶して視聴者に対して表示すべきコンテンツを的確に判断できるだけでなく、重要なコンテンツの視聴を徹底させることができるという利点がある。   By providing such a notification function, it is possible not only to accurately store the viewing status and accurately determine the content to be displayed to the viewer, but also to ensure that important content can be viewed thoroughly. is there.

また、表示装置101の前に複数の視聴者が存在する場合は、個々の視聴者ごとに表示すべきコンテンツを判断し、最も多くの視聴者に対して表示すべきと判断されたコンテンツを次に表示すべきコンテンツとして選択するように構成してもよい。この他、優先順位の高いコンテンツが存在するときは、表示すべきと判断された視聴者の数に関わらず優先して表示するように構成してもよい。   If there are a plurality of viewers in front of the display device 101, the content to be displayed is determined for each viewer, and the content determined to be displayed to the largest number of viewers is next. The content may be selected as content to be displayed on the screen. In addition, when there is content with a high priority, the content may be displayed with priority regardless of the number of viewers determined to be displayed.

以上のように、第1の実施の形態にかかるコンテンツ管理システムにおいては、表示装置に表示したコンテンツの視聴状況を、撮像装置で撮影した画像から認識した顔の向き・視線、顔の表情や、音声入力装置から認識した歓声・拍手などの視聴者のコンテンツに対する反応として得ることができ、これらを視聴者識別装置により個別に識別した視聴者ごとにコンテンツと対応付けて正確に記憶することができる。また、記憶した個々の視聴者の視聴状況を用いて次に表示すべきコンテンツを的確に判断することができる。   As described above, in the content management system according to the first embodiment, the viewing status of the content displayed on the display device, the face direction / line of sight recognized from the image captured by the imaging device, facial expression, It can be obtained as a response to the viewer's content such as cheers and applause recognized from the voice input device, and these can be accurately stored in association with the content for each viewer individually identified by the viewer identification device. . Further, the content to be displayed next can be accurately determined using the stored viewing status of each individual viewer.

(第2の実施の形態)
第2の実施の形態にかかるコンテンツ管理システムは、一組の表示装置、視聴者識別装置、撮像装置、音声入力装置ごとに一つの通信装置を備え、複数の通信装置から送信された視聴状況を受信する通信手段を備えた表示制御装置により、複数の表示装置におけるコンテンツの視聴状況をまとめて管理するとともに、複数の表示装置におけるコンテンツの表示内容を的確に制御するものである。
(Second Embodiment)
The content management system according to the second exemplary embodiment includes one communication device for each set of display device, viewer identification device, imaging device, and audio input device, and displays viewing statuses transmitted from a plurality of communication devices. The display control device provided with the receiving communication means collectively manages the viewing status of the content on the plurality of display devices and accurately controls the display contents of the content on the plurality of display devices.

図7は、本発明の第2の実施の形態にかかるコンテンツ管理システム700の構成を示すブロック図である。同図に示すように、コンテンツ管理システム700は、表示装置101と、視聴者識別装置102と、撮像装置103と、音声入力装置104と、通信装置705と、表示制御装置710と、IDカード120とを備えている。また、通信装置705と、表示制御装置710とは、ネットワーク730を介して接続されている。なお、同図に示すように、第2の実施の形態においては、表示装置101、視聴者識別装置102、撮像装置103、音声入力装置104、通信装置705の5つの装置を一組とし、複数の組が1つの表示制御装置710に接続されるような構成となっている。   FIG. 7 is a block diagram showing a configuration of a content management system 700 according to the second embodiment of the present invention. As shown in the figure, the content management system 700 includes a display device 101, a viewer identification device 102, an imaging device 103, a voice input device 104, a communication device 705, a display control device 710, and an ID card 120. And. Further, the communication device 705 and the display control device 710 are connected via a network 730. As shown in the figure, in the second embodiment, a set of five devices, a display device 101, a viewer identification device 102, an imaging device 103, a voice input device 104, and a communication device 705, is provided. Are connected to one display control device 710.

表示制御装置710は、視聴状況認識部111と、記憶制御部112と、判断部113と、通知部114と、コンテンツ記憶部115と、視聴状況記憶部116と、通信部717とを備えている。   The display control device 710 includes a viewing status recognition unit 111, a storage control unit 112, a determination unit 113, a notification unit 114, a content storage unit 115, a viewing status storage unit 116, and a communication unit 717. .

第2の実施の形態におけるコンテンツ管理システム700は、通信装置705を追加したこと、表示制御装置710に通信部717を追加したことが第1の実施の形態におけるコンテンツ管理システム100と異なっている。その他の構成および機能は、第1の実施の形態にかかる構成を表すブロック図である図1と同様であるので、同一符号を付し、ここでの説明は省略する。   The content management system 700 in the second embodiment differs from the content management system 100 in the first embodiment in that a communication device 705 is added and a communication unit 717 is added to the display control device 710. Other configurations and functions are the same as those in FIG. 1, which is a block diagram showing the configuration according to the first embodiment, and thus are denoted by the same reference numerals and description thereof is omitted here.

通信装置705は、視聴者識別装置102が識別した視聴者の情報、撮像装置103が撮影した視聴者の画像、音声入力装置104が入力した視聴者が発した音声を、表示制御装置710に送信するものである。また、表示制御装置710から送信された、表示するコンテンツのデータを受信するものである。   The communication device 705 transmits the viewer information identified by the viewer identification device 102, the viewer's image captured by the imaging device 103, and the voice uttered by the viewer input by the audio input device 104 to the display control device 710. To do. In addition, it receives content data to be displayed transmitted from the display control device 710.

通信部717は、通信装置705が送信した視聴者の情報、画像、音声を受信するとともに、表示するコンテンツのデータを通信装置705に送信するものである。また、通信部717は、複数の通信装置からのデータの受信、複数の通信装置に対するデータの送信を行うものである。   The communication unit 717 receives viewer information, images, and sound transmitted from the communication device 705 and transmits data of content to be displayed to the communication device 705. The communication unit 717 receives data from a plurality of communication devices and transmits data to the plurality of communication devices.

なお、ネットワーク730は、有線LAN(Local Area Network)、または無線LAN、またはインターネットでもよいし、これら以外のあらゆるネットワーク構成を適用することができる。また、通信装置705と通信部717との間の通信プロトコルは、TCP/IP(Transmission Control Protocol/Internet Protocol)などの一般的に用いられているあらゆるプロトコルを適用することができる。   Note that the network 730 may be a wired LAN (Local Area Network), a wireless LAN, or the Internet, or any other network configuration may be applied. As a communication protocol between the communication device 705 and the communication unit 717, any generally used protocol such as TCP / IP (Transmission Control Protocol / Internet Protocol) can be applied.

次に、このように構成された第2の実施の形態にかかるコンテンツ管理システム700によるコンテンツ表示・視聴状況記憶処理について説明する。図8は、第2の実施の形態におけるコンテンツ表示・視聴状況記憶処理の全体の流れを示すフローチャートである。第2の実施の形態においては、表示制御装置710に対するデータの送受信を、通信装置705を介して行う点が、第1の実施の形態におけるコンテンツ表示・視聴状況記憶処理と異なっている。   Next, content display / viewing status storage processing by the content management system 700 according to the second embodiment configured as described above will be described. FIG. 8 is a flowchart showing the overall flow of the content display / viewing status storage process in the second embodiment. The second embodiment is different from the content display / viewing status storage processing in the first embodiment in that data is transmitted to and received from the display control device 710 via the communication device 705.

具体的には、まず、ステップS801において視聴者識別装置102が識別した視聴者の情報を、通信装置705が表示制御装置710に送信し(ステップS802)、表示制御装置710の通信部717がそれを受信する点(ステップS803)が異なる。   Specifically, first, the communication device 705 transmits the viewer information identified by the viewer identification device 102 in step S801 to the display control device 710 (step S802), and the communication unit 717 of the display control device 710 then transmits it. Is different (step S803).

また、ステップS806において記憶制御部112が出力したコンテンツを、通信部717が各表示装置に対して送信し(ステップS807)、各表示装置に対応する通信装置705がそれを受信する点(ステップS808)が異なる。   In addition, the communication unit 717 transmits the content output by the storage control unit 112 in step S806 to each display device (step S807), and the communication device 705 corresponding to each display device receives the content (step S808). ) Is different.

さらに、ステップS810およびステップS811において撮像装置103が撮影した画像および音声入力装置104が入力した音声を、通信装置705が送信し(ステップS812)、それを通信部717が受信する点(ステップS813)が異なる。   Further, the communication device 705 transmits the image captured by the imaging device 103 in step S810 and step S811 and the sound input by the audio input device 104 (step S812), and the communication unit 717 receives it (step S813). Is different.

これ以外の処理は、ステップS801はステップS601、ステップS804〜ステップS806はステップS602〜ステップS604、ステップS809〜ステップS811はステップS605〜ステップS607、ステップS814〜ステップS815はステップS608〜ステップS609、ステップS816はステップS610に、それぞれ対応しており、その処理内容は同様であるのでその説明を省略する。   Other processes include step S601 in step S801, steps S604 to S806 in steps S602 to S604, steps S809 to S811 in steps S605 to S607, steps S814 to S815 in steps S608 to S609, and steps S816. Corresponds to step S610, and the processing contents thereof are the same, and the description thereof is omitted.

以上のように、第2の実施の形態においては、複数の通信装置705および表示制御装置710の通信部717により、コンテンツ表示に関する情報の送受信を行うため、複数の通信装置705により認識された個々の視聴者の視聴状況をまとめて管理することが可能となる。したがって、ある表示装置で表示したコンテンツを、別の表示装置で重複して表示しないようにするといった表示内容の制御ができるようになるという利点がある。   As described above, in the second embodiment, the communication units 717 of the plurality of communication devices 705 and the display control device 710 transmit and receive information related to content display. It is possible to manage the viewing status of the viewers collectively. Therefore, there is an advantage that the display content can be controlled such that the content displayed on one display device is not displayed on another display device.

また、複数の表示装置で同じ内容のコンテンツを表示するのではなく、各表示装置の視聴領域に存在する視聴者を視聴者識別装置102により識別し、識別した視聴者に応じて、各表示装置に表示するコンテンツを変更するといった表示制御が可能となる。   In addition, instead of displaying the same content on a plurality of display devices, viewers present in the viewing area of each display device are identified by the viewer identification device 102, and each display device is identified according to the identified viewer. Display control such as changing the content to be displayed on the screen is possible.

(変形例)
なお、本発明は、上述した第1の実施の形態および第2の実施の形態に限定されるものではなく、以下に例示するような種々の変形が可能である。
(Modification)
The present invention is not limited to the first embodiment and the second embodiment described above, and can be variously modified as exemplified below.

これまでは、視聴状況を管理する単位としてコンテンツを1単位として考えていたが、以下のように、コンテンツをさらに細分化したシーンを1単位として視聴状況を管理するように構成してもよい。これにより、各コンテンツに対する個々の視聴者の視聴状況をさらに正確に把握することが可能となる。   Up to now, the content was considered as one unit as a unit for managing the viewing situation, but as described below, the viewing situation may be managed with a scene obtained by further subdividing the content as one unit. This makes it possible to more accurately grasp the viewing status of each viewer for each content.

図9〜図11は、シーンごとに視聴状況を管理する場合の、コンテンツ記憶部115および視聴状況記憶部116の一例を示した説明図である。図9は、コンテンツ管理テーブル915aのデータ構造の一例を示す説明図である。   9 to 11 are explanatory diagrams illustrating examples of the content storage unit 115 and the viewing state storage unit 116 when the viewing state is managed for each scene. FIG. 9 is an explanatory diagram showing an example of the data structure of the content management table 915a.

図9に示すように、コンテンツ管理テーブル915aは、コンテンツを一意に識別するためのコンテンツIDと、当該コンテンツに含まれるシーンを一意に識別するためのシーンIDと、シーン名と、シーンの長さと、優先順位とを対応付けて格納している。このように、コンテンツ管理テーブル915aは、1つのコンテンツをシーンIDで識別される複数のシーンに分割し、シーンごとに名称、長さ、優先順位を管理する点が、上述したコンテンツ管理テーブル115aと異なっている。なお、コンテンツ単位にコンテンツ名、コンテンツの長さ、および優先順位を管理するテーブルを別に設けるように構成してもよい。   As shown in FIG. 9, the content management table 915a includes a content ID for uniquely identifying content, a scene ID for uniquely identifying a scene included in the content, a scene name, a scene length, and the like. , And the priority order are stored in association with each other. In this way, the content management table 915a divides one content into a plurality of scenes identified by scene IDs, and manages the name, length, and priority for each scene. Is different. Note that a table for managing the content name, content length, and priority order may be provided separately for each content.

図10は、視聴時間テーブル1016aのデータ構造の一例を示す説明図である。同図に示すように、視聴時間テーブル1016aは、視聴状況を一意に識別するための視聴状況IDと、シーンIDと、視聴者を一意に識別するための視聴者IDと、視聴領域に入場した位置と、視聴領域から退場した位置とを対応付けて格納している。上述した視聴時間テーブル116aとは、コンテンツIDの代わりにシーンIDを格納している点が異なっている。このようなデータ構造とすることにより、シーンごとの視聴状況の格納が可能となる。   FIG. 10 is an explanatory diagram showing an example of the data structure of the viewing time table 1016a. As shown in the figure, the viewing time table 1016a has entered the viewing area, the viewing status ID for uniquely identifying the viewing status, the scene ID, the viewer ID for uniquely identifying the viewer. The position and the position where the user leaves the viewing area are stored in association with each other. It differs from the viewing time table 116a described above in that a scene ID is stored instead of a content ID. With such a data structure, it is possible to store the viewing status for each scene.

図11は、音声テーブル1116cのデータ構造の一例を示す説明図である。同図に示すように、音声テーブル1116cは、シーンIDと、視聴者IDと、音声認識開始位置と、音声認識終了位置と、音声認識結果とを対応付けて格納している。上述した音声テーブル116cとは、コンテンツIDの代わりにシーンIDを格納している点が異なっている。このようなデータ構造とすることにより、シーンごとの音声認識結果の格納が可能となる。   FIG. 11 is an explanatory diagram showing an example of the data structure of the voice table 1116c. As shown in the figure, the voice table 1116c stores a scene ID, a viewer ID, a voice recognition start position, a voice recognition end position, and a voice recognition result in association with each other. It differs from the audio table 116c described above in that a scene ID is stored instead of a content ID. With such a data structure, it is possible to store a speech recognition result for each scene.

図12は、第1および第2の実施の形態にかかる表示制御装置のハードウェア構成を示す説明図である。同図に示すように、第1および第2の実施の形態の表示制御装置は、CPU(Central Processing Unit)1201などの制御装置と、ROM(Read Only Memory)1202やRAM(Random Access Memory)1203などの記憶装置と、通信I/F1204と、これら各部を接続するバス1210とを備えるほか、HDD、CDドライブ装置などの外部記憶装置と、ディスプレイ装置などの表示装置と、キーボードやマウスなどの入力装置を備えており、通常のコンピュータを利用したハードウェア構成となっている。   FIG. 12 is an explanatory diagram illustrating a hardware configuration of the display control device according to the first and second embodiments. As shown in the figure, a display control device according to the first and second embodiments includes a control device such as a CPU (Central Processing Unit) 1201, a ROM (Read Only Memory) 1202, and a RAM (Random Access Memory) 1203. In addition to a storage device such as a communication I / F 1204 and a bus 1210 for connecting these components, an external storage device such as an HDD and a CD drive device, a display device such as a display device, and an input such as a keyboard and a mouse The apparatus is provided with a hardware configuration using a normal computer.

第1および第2の実施の形態の表示制御装置で実行される表示制御プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。   The display control program executed by the display control apparatus according to the first and second embodiments is a file in an installable format or an executable format, and is a CD-ROM, flexible disk (FD), CD-R, DVD ( The program is recorded on a computer-readable recording medium such as Digital Versatile Disk).

また、第1および第2の実施の形態の表示制御装置で実行される表示制御プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、第1および第2の実施の形態の表示制御装置で実行される表示制御プログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。   The display control program executed by the display control apparatus according to the first and second embodiments is stored on a computer connected to a network such as the Internet, and is provided by being downloaded via the network. You may do it. Further, the display control program executed by the display control devices of the first and second embodiments may be provided or distributed via a network such as the Internet.

また、第1および第2の実施の形態の表示制御プログラムを、ROM等に予め組み込んで提供するように構成してもよい。   Further, the display control programs of the first and second embodiments may be provided by being incorporated in advance in a ROM or the like.

第1および第2の実施の形態の表示制御装置で実行される表示制御プログラムは、上述した各部(視聴状況認識部、判断部、記憶制御部、通知部、通信部)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記記憶媒体から表示制御プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ主記憶装置上に生成されるようになっている。   The display control program executed by the display control devices of the first and second embodiments has a module configuration including the above-described units (viewing state recognition unit, determination unit, storage control unit, notification unit, communication unit). As actual hardware, a CPU (processor) reads out and executes a display control program from the storage medium, so that each unit is loaded onto the main storage device and generated on the main storage device. Yes.

以上のように、本発明にかかるコンテンツ管理システム、表示制御装置、表示制御方法、および表示制御プログラムは、コンテンツの視聴状況を管理し、視聴状況に応じて表示するコンテンツを制御するコンテンツ管理システム、表示制御装置に適している。   As described above, the content management system, the display control apparatus, the display control method, and the display control program according to the present invention manage the content viewing status and control the content to be displayed according to the viewing status, Suitable for display control device.

第1の実施の形態にかかるコンテンツ管理システムの構成を示すブロック図である。It is a block diagram which shows the structure of the content management system concerning 1st Embodiment. コンテンツ管理テーブルのデータ構造の一例を示す説明図である。It is explanatory drawing which shows an example of the data structure of a content management table. 視聴時間テーブルのデータ構造の一例を示す説明図である。It is explanatory drawing which shows an example of the data structure of a viewing-and-listening time table. 視聴状況テーブルのデータ構造の一例を示す説明図である。It is explanatory drawing which shows an example of the data structure of a viewing condition table. 音声テーブルのデータ構造の一例を示す説明図である。It is explanatory drawing which shows an example of the data structure of an audio | voice table. 第1の実施の形態におけるコンテンツ表示・視聴状況記憶処理の全体の流れを示すフローチャートである。It is a flowchart which shows the whole flow of the content display and viewing condition memory | storage process in 1st Embodiment. 第2の実施の形態にかかるコンテンツ管理システムの構成を示すブロック図である。It is a block diagram which shows the structure of the content management system concerning 2nd Embodiment. 第2の実施の形態におけるコンテンツ表示・視聴状況記憶処理の全体の流れを示すフローチャートである。It is a flowchart which shows the flow of the whole content display and viewing condition memory | storage process in 2nd Embodiment. コンテンツ管理テーブルのデータ構造の一例を示す説明図である。It is explanatory drawing which shows an example of the data structure of a content management table. 視聴時間テーブルのデータ構造の一例を示す説明図である。It is explanatory drawing which shows an example of the data structure of a viewing-and-listening time table. 音声テーブルのデータ構造の一例を示す説明図である。It is explanatory drawing which shows an example of the data structure of an audio | voice table. 表示制御装置のハードウェア構成を示す説明図である。It is explanatory drawing which shows the hardware constitutions of a display control apparatus.

符号の説明Explanation of symbols

100 コンテンツ管理システム
101 表示装置
102 視聴者識別装置
103 撮像装置
104 音声入力装置
110 表示制御装置
111 視聴状況認識部
112 記憶制御部
113 判断部
114 通知部
115 コンテンツ記憶部
115a コンテンツ管理テーブル
116 視聴状況記憶部
116a 視聴時間テーブル
116b 視聴状況テーブル
116c 音声テーブル
120 IDカード
700 コンテンツ管理システム
705 通信装置
710 表示制御装置
717 通信部
730 ネットワーク
915a コンテンツ管理テーブル
1016a 視聴時間テーブル
1116c 音声テーブル
1201 CPU
1202 ROM
1203 RAM
1204 通信I/F
1210 バス
DESCRIPTION OF SYMBOLS 100 Content management system 101 Display apparatus 102 Viewer identification apparatus 103 Imaging apparatus 104 Audio | voice input apparatus 110 Display control apparatus 111 Viewing condition recognition part 112 Storage control part 113 Judgment part 114 Notification part 115 Content storage part 115a Content management table 116 Viewing condition memory | storage Unit 116a Viewing time table 116b Viewing status table 116c Audio table 120 ID card 700 Content management system 705 Communication device 710 Display control device 717 Communication unit 730 Network 915a Content management table 1016a Viewing time table 1116c Audio table 1201 CPU
1202 ROM
1203 RAM
1204 Communication I / F
1210 Bus

Claims (26)

コンテンツを表示する表示装置と、
前記表示装置に表示されたコンテンツの視聴が可能な領域である視聴領域に存在する視聴者を、前記視聴者が保有する携帯型情報記憶媒体により識別する視聴者識別装置と、
前記視聴者識別装置が識別した前記視聴者を撮影する撮像装置と、
前記表示装置に表示するコンテンツを管理し、コンテンツの表示を制御する表示制御装置と、を備えたコンテンツ管理システムにおいて、
前記表示制御装置は、
前記視聴者識別装置が識別した前記視聴者の情報および前記撮像装置が撮影した画像に基づき、前記視聴者の視聴状況を認識する視聴状況認識手段と、
前記表示装置が表示しているコンテンツと、前記視聴状況認識手段が認識した前記視聴状況とを対応付けて記憶する視聴状況記憶手段と、
を備えたことを特徴とするコンテンツ管理システム。
A display device for displaying content;
A viewer identification device for identifying a viewer existing in a viewing area, which is an area where the content displayed on the display device is viewable, by a portable information storage medium held by the viewer;
An imaging device for photographing the viewer identified by the viewer identification device;
In a content management system comprising: a display control device that manages content displayed on the display device and controls display of the content;
The display control device includes:
Viewing status recognition means for recognizing the viewing status of the viewer based on the information of the viewer identified by the viewer identification device and the image taken by the imaging device;
Viewing status storage means for storing the content displayed by the display device and the viewing status recognized by the viewing status recognition means in association with each other;
A content management system comprising:
コンテンツを表示する表示装置と、
前記表示装置に表示されたコンテンツの視聴が可能な領域である視聴領域に存在する視聴者を、前記視聴者が保有する携帯型情報記憶媒体により識別する視聴者識別装置と、
前記視聴者識別装置が識別した前記視聴者を撮影する撮像装置と、
前記表示装置に表示するコンテンツを管理し、コンテンツの表示を制御する表示制御装置と、
前記視聴者識別装置が識別した前記視聴者の情報および前記撮像装置が撮影した画像および表示するコンテンツを含むコンテンツに関する情報の送受信を行う通信装置と、を備えたコンテンツ管理システムにおいて、
前記表示制御装置は、
少なくとも1つの前記通信装置との間で前記コンテンツに関する情報の送受信を行う通信手段をさらに備え、
前記通信手段が受信した前記視聴者の情報および前記撮像装置が撮影した画像に基づき、前記視聴者の視聴状況を認識する視聴状況認識手段と、
前記表示装置が表示しているコンテンツと、前記視聴状況認識手段が認識した前記視聴状況とを対応付けて記憶する視聴状況記憶手段と、
を備えたことを特徴とするコンテンツ管理システム。
A display device for displaying content;
A viewer identification device for identifying a viewer existing in a viewing area, which is an area where the content displayed on the display device is viewable, by a portable information storage medium held by the viewer;
An imaging device for photographing the viewer identified by the viewer identification device;
A display control device that manages content to be displayed on the display device and controls display of the content;
In a content management system comprising: a communication device that transmits and receives information about content including the information of the viewer identified by the viewer identification device and the image captured by the imaging device and the content to be displayed;
The display control device includes:
Communication means for transmitting / receiving information related to the content with at least one of the communication devices;
Viewing status recognition means for recognizing the viewing status of the viewer based on the information of the viewer received by the communication means and the image taken by the imaging device;
Viewing status storage means for storing the content displayed by the display device and the viewing status recognized by the viewing status recognition means in association with each other;
A content management system comprising:
前記表示制御装置は、前記視聴状況記憶手段に記憶された前記視聴状況に基づいて前記表示装置に表示すべきコンテンツを判断する判断手段をさらに備えたことを特徴とする請求項1または2に記載のコンテンツ管理システム。   3. The display control device according to claim 1, further comprising a determination unit that determines a content to be displayed on the display device based on the viewing status stored in the viewing status storage unit. Content management system. 前記視聴状況認識手段は、前記視聴状況として前記視聴者の顔の向きまたは視線の方向を認識し、
前記判断手段は、前記視聴状況記憶手段に記憶された前記視聴者の顔の向きまたは視線の方向に基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする請求項3に記載のコンテンツ管理システム。
The viewing status recognition means recognizes the viewer's face direction or line-of-sight direction as the viewing status,
The said determination means determines the content which should be displayed on the said display apparatus based on the direction of the said viewer's face memorize | stored in the said viewing condition memory | storage means, or the direction of eyes | visual_axis. Content management system.
前記視聴状況認識手段は、前記視聴状況として前記視聴者が前記視聴領域に存在するか否かを認識し、
前記判断手段は、前記視聴者が前記視聴領域に存在するか否かに基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする請求項3に記載のコンテンツ管理システム。
The viewing status recognition means recognizes whether the viewer exists in the viewing area as the viewing status,
The content management system according to claim 3, wherein the determination unit determines content to be displayed on the display device based on whether or not the viewer exists in the viewing area.
前記視聴状況認識手段は、前記視聴状況として前記視聴者の顔の表情を認識し、
前記判断手段は、前記視聴状況記憶手段に記憶された前記視聴者の顔の表情に基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする請求項3に記載のコンテンツ管理システム。
The viewing status recognition means recognizes the facial expression of the viewer as the viewing status,
The content management system according to claim 3, wherein the determination unit determines a content to be displayed on the display device based on the facial expression of the viewer stored in the viewing state storage unit.
コンテンツを視聴している視聴者が発する音声を入力する音声入力装置をさらに備え、
前記視聴状況認識手段は、前記音声入力装置が入力した音声に基づき、前記視聴状況として前記視聴者のコンテンツに対する反応を認識し、
前記判断手段は、前記視聴状況記憶手段に記憶された前記視聴者のコンテンツに対する反応に基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする請求項3に記載のコンテンツ管理システム。
A voice input device for inputting voice uttered by a viewer who is watching the content;
The viewing status recognition means recognizes a reaction to the viewer's content as the viewing status based on the voice input by the voice input device;
The content management system according to claim 3, wherein the determination unit determines a content to be displayed on the display device based on a reaction to the content of the viewer stored in the viewing state storage unit.
前記表示制御装置は、前記表示装置に表示するコンテンツと、コンテンツを表示する優先順位とを対応付けて記憶するコンテンツ記憶手段をさらに備え、
前記判断手段は、前記コンテンツ記憶手段に記憶された前記優先順位と、前記視聴状況とに基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする請求項3〜7のいずれか1つに記載のコンテンツ管理システム。
The display control device further includes content storage means for storing the content to be displayed on the display device and the priority order for displaying the content in association with each other,
8. The determination unit according to claim 3, wherein the determination unit determines a content to be displayed on the display device based on the priority order stored in the content storage unit and the viewing status. The content management system described in 1.
前記表示制御装置は、前記判断手段が表示すべきと判断したコンテンツの視聴を促す情報を視聴者に通知する通知手段をさらに備えたことを特徴とする請求項3〜8のいずれか1つに記載のコンテンツ管理システム。   9. The display control apparatus according to claim 3, further comprising notification means for notifying a viewer of information prompting the viewer to view content that the determination means determines to display. The content management system described. 表示装置に表示するコンテンツの視聴が可能な領域である視聴領域に存在する視聴者を、前記視聴者が保有する携帯型情報記憶媒体により識別する視聴者識別装置が識別した前記視聴者の情報および前記視聴者を撮影する撮像装置が撮影した画像の入力を受付け、受付けた前記視聴者の情報および前記撮影した画像に基づき、前記視聴者の視聴状況を認識する視聴状況認識手段と、
前記表示装置が表示しているコンテンツと、前記視聴状況認識手段が認識した前記視聴状況とを対応付けて記憶する視聴状況記憶手段と、
前記視聴状況記憶手段に記憶された前記視聴状況に基づいて前記表示装置に表示すべきコンテンツを判断する判断手段と、
前記判断手段が表示すべきと判断したコンテンツを出力する出力手段と、
を備えたことを特徴とする表示制御装置。
Information of the viewer identified by the viewer identifying device that identifies a viewer existing in a viewing area, which is an area where content displayed on the display device can be viewed, by a portable information storage medium possessed by the viewer; and Viewing status recognition means for receiving an input of an image captured by an imaging device that captures the viewer, and recognizing the viewing status of the viewer based on the received viewer information and the captured image;
Viewing status storage means for storing the content displayed by the display device and the viewing status recognized by the viewing status recognition means in association with each other;
Determination means for determining content to be displayed on the display device based on the viewing situation stored in the viewing situation storage means;
Output means for outputting the content determined by the determination means to be displayed;
A display control apparatus comprising:
前記視聴者識別装置が識別した前記視聴者の情報および前記撮像装置が撮影した画像の送受信を行う通信手段をさらに備え、
前記視聴状況認識手段は、前記通信手段が受信した前記視聴者の情報および前記撮像装置が撮影した画像の入力を受付け、受付けた前記視聴者の情報および前記撮影した画像に基づき、前記視聴者の視聴状況を認識することを特徴とする請求項10に記載の表示制御装置。
Further comprising communication means for transmitting and receiving information of the viewer identified by the viewer identification device and an image captured by the imaging device;
The viewing status recognition means receives the viewer information received by the communication means and the input of the image taken by the imaging device, and based on the received viewer information and the taken image, the viewer's information The display control apparatus according to claim 10, wherein a viewing situation is recognized.
前記視聴状況認識手段は、前記視聴状況として前記視聴者の顔の向きまたは視線の方向を認識し、
前記判断手段は、前記視聴状況記憶手段に記憶された前記視聴者の顔の向きまたは視線の方向に基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする請求項10または11に記載の表示制御装置。
The viewing status recognition means recognizes the viewer's face direction or line-of-sight direction as the viewing status,
The said determination means determines the content which should be displayed on the said display apparatus based on the direction of the said viewer's face memorize | stored in the said viewing condition memory | storage means, or the direction of eyes | visual_axis. The display control apparatus described.
前記視聴状況認識手段は、前記視聴状況として前記視聴者が前記視聴領域に存在するか否かを認識し、
前記判断手段は、前記視聴者が前記視聴領域に存在するか否かに基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする請求項10または11に記載の表示制御装置。
The viewing status recognition means recognizes whether the viewer exists in the viewing area as the viewing status,
The display control apparatus according to claim 10, wherein the determination unit determines a content to be displayed on the display device based on whether or not the viewer exists in the viewing area.
前記視聴状況認識手段は、前記視聴状況として前記視聴者の顔の表情を認識し、
前記判断手段は、前記視聴状況記憶手段に記憶された前記視聴者の顔の表情に基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする請求項10または11に記載の表示制御装置。
The viewing status recognition means recognizes the facial expression of the viewer as the viewing status,
The display control according to claim 10 or 11, wherein the determination unit determines a content to be displayed on the display device based on a facial expression of the viewer stored in the viewing state storage unit. apparatus.
前記視聴状況認識手段は、音声入力装置が入力したコンテンツを視聴している視聴者が発する音声の入力を受付け、受付けた音声に基づいて前記視聴状況として前記視聴者のコンテンツに対する反応を認識し、
前記判断手段は、前記視聴状況記憶手段に記憶された前記視聴者のコンテンツに対する反応に基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする請求項10または11に記載の表示制御装置。
The viewing status recognition means accepts an input of audio uttered by a viewer who is viewing content input by an audio input device, recognizes a reaction to the viewer's content as the viewing status based on the received audio,
The display control according to claim 10 or 11, wherein the determination unit determines a content to be displayed on the display device based on a reaction to the content of the viewer stored in the viewing state storage unit. apparatus.
前記表示装置に表示するコンテンツと、コンテンツを表示する優先順位とを対応付けて記憶するコンテンツ記憶手段をさらに備え、
前記判断手段は、前記コンテンツ記憶手段に記憶された前記優先順位と、前記視聴状況とに基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする請求項10〜15のいずれか1つに記載の表示制御装置。
Content storage means for storing the content to be displayed on the display device and the priority for displaying the content in association with each other;
16. The determination unit according to claim 10, wherein the determination unit determines a content to be displayed on the display device based on the priority order stored in the content storage unit and the viewing status. The display control device according to one.
前記判断手段が表示すべきと判断したコンテンツの視聴を促す情報を視聴者に通知する通知手段をさらに備えたことを特徴とする請求項10〜16のいずれか1つに記載の表示制御装置。   The display control apparatus according to any one of claims 10 to 16, further comprising notification means for notifying a viewer of information prompting the viewer to view content determined to be displayed by the determination means. 表示装置に表示するコンテンツの視聴が可能な領域である視聴領域に存在する視聴者を、前記視聴者が保有する携帯型情報記憶媒体により識別する視聴者識別装置が識別した前記視聴者の情報および前記視聴者を撮影する撮像装置が撮影した画像の入力を受付け、受付けた前記視聴者の情報および前記撮影した画像に基づき、前記視聴者の視聴状況を認識する視聴状況認識ステップと、
前記表示装置が表示しているコンテンツと、前記視聴状況認識ステップが認識した前記視聴状況とを対応付けて記憶する視聴状況記憶手段に記憶された前記視聴状況に基づいて前記表示装置に表示すべきコンテンツを判断する判断ステップと、
前記判断ステップが表示すべきと判断したコンテンツを出力する出力ステップと、
を備えたことを特徴とする表示制御方法。
Information of the viewer identified by the viewer identifying device that identifies a viewer existing in a viewing area, which is an area where content displayed on the display device can be viewed, by a portable information storage medium possessed by the viewer; and A viewing state recognition step of receiving an input of an image captured by the imaging device that captures the viewer and recognizing the viewing state of the viewer based on the received information of the viewer and the captured image;
The content displayed on the display device and the viewing status recognized in the viewing status recognition step should be displayed on the display device based on the viewing status stored in the viewing status storage means for storing the content in association with each other. A determination step for determining content;
An output step for outputting the content determined to be displayed by the determination step;
A display control method comprising:
前記視聴者識別装置が識別した前記視聴者の情報および前記撮像装置が撮影した画像の送受信を行う通信ステップをさらに備え、
前記視聴状況認識ステップは、前記通信ステップが受信した前記視聴者の情報および前記撮像装置が撮影した画像の入力を受付け、受付けた前記視聴者の情報および前記撮影した画像に基づき、前記視聴者の視聴状況を認識することを特徴とする請求項18に記載の表示制御方法。
A communication step of performing transmission / reception of the information of the viewer identified by the viewer identification device and the image captured by the imaging device;
The viewing status recognition step receives the viewer information received in the communication step and the input of the image captured by the imaging device, and based on the received viewer information and the captured image, the viewer's information The display control method according to claim 18, wherein a viewing situation is recognized.
前記視聴状況認識ステップは、前記視聴状況として前記視聴者の顔の向きまたは視線の方向を認識し、
前記判断ステップは、前記視聴状況記憶手段に記憶された前記視聴者の顔の向きまたは視線の方向に基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする請求項18または19に記載の表示制御方法。
The viewing status recognition step recognizes the viewer's face direction or line-of-sight direction as the viewing status,
20. The determination step according to claim 18 or 19, wherein the content to be displayed on the display device is determined based on a direction of a face or a line of sight of the viewer stored in the viewing status storage unit. The display control method described.
前記視聴状況認識ステップは、前記視聴状況として前記視聴者が前記視聴領域に存在するか否かを認識し、
前記判断ステップは、前記視聴者が前記視聴領域に存在するか否かに基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする請求項18または19に記載の表示制御方法。
The viewing status recognition step recognizes whether the viewer exists in the viewing area as the viewing status,
The display control method according to claim 18, wherein the determination step determines content to be displayed on the display device based on whether or not the viewer exists in the viewing area.
前記視聴状況認識ステップは、前記視聴状況として前記視聴者の顔の表情を認識し、
前記判断ステップは、前記視聴状況記憶手段に記憶された前記視聴者の顔の表情に基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする請求項18または19に記載の表示制御方法。
The viewing status recognition step recognizes facial expressions of the viewer as the viewing status,
20. The display control according to claim 18, wherein the determination step determines content to be displayed on the display device based on facial expressions of the viewer stored in the viewing status storage unit. Method.
前記視聴状況認識ステップは、音声入力装置が入力したコンテンツを視聴している視聴者が発する音声の入力を受付け、受付けた音声に基づいて前記視聴状況として前記視聴者のコンテンツに対する反応を認識し、
前記判断ステップは、前記視聴状況記憶手段に記憶された前記視聴者のコンテンツに対する反応に基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする請求項18または19に記載の表示制御方法。
The viewing status recognition step accepts an audio input from a viewer who is viewing the content input by the audio input device, recognizes a reaction to the viewer's content as the viewing status based on the received audio,
The display control according to claim 18 or 19, wherein the determination step determines a content to be displayed on the display device based on a reaction to the content of the viewer stored in the viewing status storage unit. Method.
前記判断ステップは、前記表示装置に表示するコンテンツとコンテンツを表示する優先順位とを対応付けて記憶するコンテンツ記憶手段に記憶された前記優先順位と、前記視聴状況とに基づいて前記表示装置に表示すべきコンテンツを判断することを特徴とする請求項18〜23のいずれか1つに記載の表示制御方法。   The determining step displays the content on the display device based on the priority order stored in the content storage means for storing the content to be displayed on the display device and the priority order for displaying the content in association with each other. The display control method according to any one of claims 18 to 23, wherein content to be determined is determined. 前記判断ステップが表示すべきと判断したコンテンツの視聴を促す情報を視聴者に通知する通知ステップをさらに備えたことを特徴とする請求項18〜24のいずれか1つに記載の表示制御方法。   The display control method according to any one of claims 18 to 24, further comprising a notification step of notifying a viewer of information that prompts viewing of the content that is determined to be displayed by the determination step. 請求項18〜25のいずれか1つに記載の表示制御方法をコンピュータに実行させるプログラム。   A program for causing a computer to execute the display control method according to any one of claims 18 to 25.
JP2005077884A 2005-03-17 2005-03-17 Content management system, display control device, display control method and display control program Pending JP2006260275A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005077884A JP2006260275A (en) 2005-03-17 2005-03-17 Content management system, display control device, display control method and display control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005077884A JP2006260275A (en) 2005-03-17 2005-03-17 Content management system, display control device, display control method and display control program

Publications (1)

Publication Number Publication Date
JP2006260275A true JP2006260275A (en) 2006-09-28

Family

ID=37099434

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005077884A Pending JP2006260275A (en) 2005-03-17 2005-03-17 Content management system, display control device, display control method and display control program

Country Status (1)

Country Link
JP (1) JP2006260275A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010509685A (en) * 2006-11-07 2010-03-25 アービトロン インコーポレイテッド Survey data collection using portable monitors and installation equipment
JP2010233143A (en) * 2009-03-30 2010-10-14 Fujitsu Ltd Device for recording/reproducing video and program for searching contents
JP2011054078A (en) * 2009-09-04 2011-03-17 Casio Computer Co Ltd Electronic photo frame, and control method and program thereof
JP2012244362A (en) * 2011-05-18 2012-12-10 Nippon Hoso Kyokai <Nhk> Receiver and program
JP2013153470A (en) * 2008-09-02 2013-08-08 Qualcomm Inc Methods and apparatus for enhanced media content rating system
JP2014060491A (en) * 2012-09-14 2014-04-03 Nippon Telegr & Teleph Corp <Ntt> Viewing situation determination device, identifier construction device, viewing situation determination method, identifier construction method, and program
JP2014529133A (en) * 2011-09-12 2014-10-30 インテル・コーポレーション Promote TV-based interaction with social networking tools
US9055336B2 (en) 2006-03-31 2015-06-09 The Nielsen Company (Us), Llc Methods, systems and apparatus for multi-purpose metering
US9265081B2 (en) 2011-12-16 2016-02-16 The Nielsen Company (Us), Llc Media exposure and verification utilizing inductive coupling
US9313286B2 (en) 2011-12-16 2016-04-12 The Nielsen Company (Us), Llc Media exposure linking utilizing bluetooth signal characteristics
US9326034B2 (en) 2002-04-22 2016-04-26 The Nielsen Company (Us), Llc Methods and apparatus to collect audience information associated with a media presentation
US9426525B2 (en) 2013-12-31 2016-08-23 The Nielsen Company (Us), Llc. Methods and apparatus to count people in an audience
WO2022123912A1 (en) * 2020-12-10 2022-06-16 インフォームシステム株式会社 Video viewing providing device, video viewing providing method, and video viewing providing program
JP2022092560A (en) * 2020-12-10 2022-06-22 インフォームシステム株式会社 Moving image viewing providing device, moving image viewing providing method, and moving image viewing providing program

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001148841A (en) * 1999-11-19 2001-05-29 Nec Corp Method and system for forming television community
JP2002349904A (en) * 2001-05-22 2002-12-04 Ohbayashi Corp Desiccant air-conditioning device
JP2003167900A (en) * 2001-11-29 2003-06-13 Ntt Docomo Inc Push type information providing method, push type information providing system and user information control device
JP2003179594A (en) * 2001-12-13 2003-06-27 Nissan Motor Co Ltd Information presenting system, information presenting device and information presenting method
JP2003179901A (en) * 2001-12-10 2003-06-27 Sony Corp Program-distributing system and additional information- inserting method
JP2003304460A (en) * 2003-02-24 2003-10-24 Hitachi Ltd Information service system and broadcast reception system
JP2003323520A (en) * 2002-04-30 2003-11-14 Omron Corp Image distribution system and method
JP2004194135A (en) * 2002-12-13 2004-07-08 Haruhiko Onozato Attribute identifying method for video subject
JP2004229948A (en) * 2003-01-31 2004-08-19 Hitachi Ltd Learning situation determination program and user situation determination system
JP2004274257A (en) * 2003-03-06 2004-09-30 Nippon Hoso Kyokai <Nhk> Transmitter, receiver, and viewing history information utilization type broadcasting system in data broadcasting

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001148841A (en) * 1999-11-19 2001-05-29 Nec Corp Method and system for forming television community
JP2002349904A (en) * 2001-05-22 2002-12-04 Ohbayashi Corp Desiccant air-conditioning device
JP2003167900A (en) * 2001-11-29 2003-06-13 Ntt Docomo Inc Push type information providing method, push type information providing system and user information control device
JP2003179901A (en) * 2001-12-10 2003-06-27 Sony Corp Program-distributing system and additional information- inserting method
JP2003179594A (en) * 2001-12-13 2003-06-27 Nissan Motor Co Ltd Information presenting system, information presenting device and information presenting method
JP2003323520A (en) * 2002-04-30 2003-11-14 Omron Corp Image distribution system and method
JP2004194135A (en) * 2002-12-13 2004-07-08 Haruhiko Onozato Attribute identifying method for video subject
JP2004229948A (en) * 2003-01-31 2004-08-19 Hitachi Ltd Learning situation determination program and user situation determination system
JP2003304460A (en) * 2003-02-24 2003-10-24 Hitachi Ltd Information service system and broadcast reception system
JP2004274257A (en) * 2003-03-06 2004-09-30 Nippon Hoso Kyokai <Nhk> Transmitter, receiver, and viewing history information utilization type broadcasting system in data broadcasting

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9326034B2 (en) 2002-04-22 2016-04-26 The Nielsen Company (Us), Llc Methods and apparatus to collect audience information associated with a media presentation
US9317865B2 (en) 2004-03-26 2016-04-19 The Nielsen Company (Us), Llc Research data gathering with a portable monitor and a stationary device
US8738763B2 (en) 2004-03-26 2014-05-27 The Nielsen Company (Us), Llc Research data gathering with a portable monitor and a stationary device
US9055336B2 (en) 2006-03-31 2015-06-09 The Nielsen Company (Us), Llc Methods, systems and apparatus for multi-purpose metering
US9185457B2 (en) 2006-03-31 2015-11-10 The Nielsen Company (Us), Llc Methods, systems and apparatus for multi-purpose metering
JP2010509685A (en) * 2006-11-07 2010-03-25 アービトロン インコーポレイテッド Survey data collection using portable monitors and installation equipment
JP2013153470A (en) * 2008-09-02 2013-08-08 Qualcomm Inc Methods and apparatus for enhanced media content rating system
US9178632B2 (en) 2008-09-02 2015-11-03 Qualcomm Incorporated Methods and apparatus for an enhanced media content rating system
JP2010233143A (en) * 2009-03-30 2010-10-14 Fujitsu Ltd Device for recording/reproducing video and program for searching contents
JP2011054078A (en) * 2009-09-04 2011-03-17 Casio Computer Co Ltd Electronic photo frame, and control method and program thereof
JP2012244362A (en) * 2011-05-18 2012-12-10 Nippon Hoso Kyokai <Nhk> Receiver and program
JP2014529133A (en) * 2011-09-12 2014-10-30 インテル・コーポレーション Promote TV-based interaction with social networking tools
US10524005B2 (en) 2011-09-12 2019-12-31 Intel Corporation Facilitating television based interaction with social networking tools
US10939165B2 (en) 2011-09-12 2021-03-02 Intel Corporation Facilitating television based interaction with social networking tools
US9265081B2 (en) 2011-12-16 2016-02-16 The Nielsen Company (Us), Llc Media exposure and verification utilizing inductive coupling
US9386111B2 (en) 2011-12-16 2016-07-05 The Nielsen Company (Us), Llc Monitoring media exposure using wireless communications
US9894171B2 (en) 2011-12-16 2018-02-13 The Nielsen Company (Us), Llc Media exposure and verification utilizing inductive coupling
US9313286B2 (en) 2011-12-16 2016-04-12 The Nielsen Company (Us), Llc Media exposure linking utilizing bluetooth signal characteristics
JP2014060491A (en) * 2012-09-14 2014-04-03 Nippon Telegr & Teleph Corp <Ntt> Viewing situation determination device, identifier construction device, viewing situation determination method, identifier construction method, and program
US10560741B2 (en) 2013-12-31 2020-02-11 The Nielsen Company (Us), Llc Methods and apparatus to count people in an audience
US9918126B2 (en) 2013-12-31 2018-03-13 The Nielsen Company (Us), Llc Methods and apparatus to count people in an audience
US9426525B2 (en) 2013-12-31 2016-08-23 The Nielsen Company (Us), Llc. Methods and apparatus to count people in an audience
US11197060B2 (en) 2013-12-31 2021-12-07 The Nielsen Company (Us), Llc Methods and apparatus to count people in an audience
US11711576B2 (en) 2013-12-31 2023-07-25 The Nielsen Company (Us), Llc Methods and apparatus to count people in an audience
WO2022123912A1 (en) * 2020-12-10 2022-06-16 インフォームシステム株式会社 Video viewing providing device, video viewing providing method, and video viewing providing program
JP2022092560A (en) * 2020-12-10 2022-06-22 インフォームシステム株式会社 Moving image viewing providing device, moving image viewing providing method, and moving image viewing providing program
JP7158666B2 (en) 2020-12-10 2022-10-24 インフォームシステム株式会社 Video viewing providing device, video viewing providing method, and video viewing providing program
JP7387114B2 (en) 2020-12-10 2023-11-28 インフォームシステム株式会社 Video viewing providing device, video viewing providing method, and video viewing providing program

Similar Documents

Publication Publication Date Title
JP2006260275A (en) Content management system, display control device, display control method and display control program
EP1443465B1 (en) Face information transmission system
US20140059577A1 (en) Method and apparatus for generating meta data of content
US20100060713A1 (en) System and Method for Enhancing Noverbal Aspects of Communication
JP5004845B2 (en) Monitoring terminal device and display processing method thereof, program, memory
CN101489073B (en) Information processing device, information processing method
US11281707B2 (en) System, summarization apparatus, summarization system, and method of controlling summarization apparatus, for acquiring summary information
KR20120102043A (en) Automatic labeling of a video session
KR102330637B1 (en) System, server, method and recording medium for providing augmented reality photocard
US20190348043A1 (en) Information processing terminal, information processing apparatus, and information processing method
CN112306442A (en) Cross-device content screen projection method, device, equipment and storage medium
US20170185365A1 (en) System and method for screen sharing
TW201724038A (en) Monitoring service system, computer program product, method for service providing by video monitoring and method for service activating by video monitoring
US20120242860A1 (en) Arrangement and method relating to audio recognition
JP4543694B2 (en) COMMUNICATION SYSTEM, COMMUNICATION SYSTEM SERVER, AND SERVER PROCESSING METHOD
US11689694B2 (en) Information processing apparatus and computer readable medium
US7984033B2 (en) Data control system capable of present current image of writer with data
US20230396739A1 (en) Processing apparatus, and processing method
US20190104249A1 (en) Server apparatus, distribution system, distribution method, and program
KR20090116325A (en) System and method for training interview
JP2010093583A (en) Conference support apparatus
JP6496220B2 (en) Information distribution apparatus and information distribution program
JP2004259198A (en) Information management apparatus, information management system and program
JP2022048092A (en) Information processing system, information processing method, and program
US20200034408A1 (en) Dynamic management of content in an electronic presentation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080312

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101117

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110517