JP2010078867A - Video display device and video information generating method - Google Patents

Video display device and video information generating method Download PDF

Info

Publication number
JP2010078867A
JP2010078867A JP2008246703A JP2008246703A JP2010078867A JP 2010078867 A JP2010078867 A JP 2010078867A JP 2008246703 A JP2008246703 A JP 2008246703A JP 2008246703 A JP2008246703 A JP 2008246703A JP 2010078867 A JP2010078867 A JP 2010078867A
Authority
JP
Japan
Prior art keywords
content
unit
detection
log file
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008246703A
Other languages
Japanese (ja)
Inventor
Noriaki Tsutsumi
憲亮 堤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Development and Engineering Corp
Original Assignee
Toshiba Digital Media Engineering Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Digital Media Engineering Corp filed Critical Toshiba Digital Media Engineering Corp
Priority to JP2008246703A priority Critical patent/JP2010078867A/en
Publication of JP2010078867A publication Critical patent/JP2010078867A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a video display device and a video information generating method that generate data for analyzing advertisement effect in detail. <P>SOLUTION: A human detection sensor 180 monitors humans gathering nearby a display unit 120, and a control unit 110 gathers an increase or decrease of head-count and user information on gathering humans on the basis of monitoring results, and associates these pieces of information with identification information on contents being reproduced to store the resultant information as log files in an internal storage unit 140. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

この発明は、例えば公共の場の展示用として用いられる映像表示装置に関する。   The present invention relates to a video display device used for display in a public place, for example.

周知のように、大型のディスプレイを公共の場に設置して広告などの表示を映示し、不特定多数の人に、商業的な広告や公共的に有益な情報を提供している。このような映像表示装置は、消費電力が大きいため、ディスプレイの周囲に人が居るか否かを判定し、居ない場合にはディスプレイの電源を切るなどすることで、消費電力を削減しつつ広告効果を発揮するとされる技術がある(例えば、特許文献1参照)。   As is well known, a large display is installed in a public place to display advertisements and the like to provide commercial advertisements and publicly useful information to an unspecified number of people. Since such a video display device consumes a large amount of power, it is determined whether or not there are people around the display. If there is no such person, the display is turned off to reduce the power consumption. There is a technique that is said to be effective (see, for example, Patent Document 1).

しかしながら、従来の映像表示装置では、複数のカテゴリ別に人間の存在を検出してそれを記憶するようにしているが、広告内容は多岐にわたるため、詳細に広告効果を分析するためのデータを収集することはできないという問題があった。
特開2006−039028公報
However, in the conventional video display device, human presence is detected and stored in a plurality of categories. However, since the contents of advertisements are diverse, data for analyzing advertisement effects in detail is collected. There was a problem that we couldn't.
JP 2006-039028 A

従来の映像表示装置では、複数のカテゴリ別に人間の存在を検出してそれを記憶するようにしているが、提供されるコンテンツは多岐にわたるため、コンテンツ毎に分析するためのデータを収集することはできないという問題があった。
この発明は上記の問題を解決すべくなされたもので、コンテンツ毎に分析するためのデータを収集することが可能な映像表示装置および映示情報生成方法を提供することを目的とする。
In conventional video display devices, human presence is detected and stored in a plurality of categories. However, since the content provided is diverse, it is not possible to collect data for analysis for each content. There was a problem that I could not.
The present invention has been made to solve the above-described problems, and an object thereof is to provide a video display device and a display information generation method capable of collecting data for analysis for each content.

上記の目的を達成するために、この発明は、コンテンツの再生映像を表示する表示手段と、この表示手段の近傍に存在する人間を検出する検出手段と、表示手段が表示しているコンテンツを識別するコンテンツ識別情報と、検出手段の検出結果とを対応付けたログファイルを作成する作成手段とを具備して構成するようにした。   In order to achieve the above object, the present invention identifies display means for displaying a playback video of content, detection means for detecting a person in the vicinity of the display means, and content displayed by the display means. And creating means for creating a log file that associates the content identification information to be detected with the detection result of the detecting means.

以上述べたように、この発明では、表示手段の近傍に存在する人間を検出し、この検出結果と、表示手段が表示しているコンテンツの識別情報とを対応付けたログファイルを作成して作成するようにしている。
したがって、この発明によれば、コンテンツ毎に、人間の集まり状況が分析できるデータ(ログファイル)を作成することが可能な映像表示装置および映示情報生成方法を提供できる。
As described above, in the present invention, a person existing in the vicinity of the display means is detected, and a log file is created by associating the detection result with the identification information of the content displayed on the display means. Like to do.
Therefore, according to the present invention, it is possible to provide a video display device and a display information generation method capable of creating data (log file) that can analyze the gathering situation of people for each content.

以下、図面を参照して、この発明の一実施形態について説明する。
図1は、この発明の一実施形態に係わる映像表示装置100の構成を示すものである。この映像表示装置100は、制御部110と、表示部120と、音声出力部130と、内部記憶部140と、外部記憶装置インタフェース(I/F)150と、通信部160と、入力部170と、人感センサ180とを備えている。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 shows a configuration of a video display apparatus 100 according to an embodiment of the present invention. The video display device 100 includes a control unit 110, a display unit 120, an audio output unit 130, an internal storage unit 140, an external storage device interface (I / F) 150, a communication unit 160, and an input unit 170. The human sensor 180 is provided.

表示部120は、LCD(Liquid Crystal Display)や有機EL(Electro Luminescence)ディスプレイ、プラズマディスプレイなどの表示デバイスを用いて、視覚的な情報を映示する。
音声出力部130は、スピーカを備えて、音楽や音声を拡声出力する。
The display unit 120 displays visual information using a display device such as an LCD (Liquid Crystal Display), an organic EL (Electro Luminescence) display, or a plasma display.
The audio output unit 130 includes a speaker and outputs a loud sound of music or audio.

内部記憶部140は、制御部110の制御プログラムや制御データの他に、音声と映像の情報を含む広告などのコンテンツデータを、このデータを識別するための識別情報に対応付けて記憶したり、後述する映示ログ生成処理によって生成した映示ログや、予め準備した表示制御情報などを記憶するもので、フラッシュメモリやHDD(Hard Disk Drive)などで構成される。なお、表示制御情報は、人数と、音量や画面の輝度などの再生設定などを対応付けたテーブルである。   In addition to the control program and control data of the control unit 110, the internal storage unit 140 stores content data such as advertisements including audio and video information in association with identification information for identifying this data, It stores a display log generated by a display log generation process, which will be described later, display control information prepared in advance, and the like, and includes a flash memory, a hard disk drive (HDD), and the like. The display control information is a table in which the number of people is associated with reproduction settings such as volume and screen brightness.

外部記憶装置インタフェース150は、フラッシュメモリなどの記憶媒体を接続して、この記憶媒体から情報を読み出す。また半導体メモリからの読み出しに限らず、DVD(Digital Versatile Disc)などの光学記録媒体から情報を読み出す読出装置であってもよい。なお、これらの記憶媒体には、音声と映像の情報を含む広告などのコンテンツデータと、このデータを識別するための識別データが対応付けられて記憶されている。   The external storage device interface 150 connects a storage medium such as a flash memory and reads information from the storage medium. The reading device is not limited to reading from a semiconductor memory, and may be a reading device that reads information from an optical recording medium such as a DVD (Digital Versatile Disc). In these storage media, content data such as advertisements including audio and video information and identification data for identifying this data are stored in association with each other.

通信部160は、インターネットなどのネットワークNWを通じて、外部に準備されたサーバ200や、その他の装置301,302,…と通信し、上記音声と映像の情報を含む広告などのコンテンツデータと、このデータを識別するための識別データを合わせて取得したり、上記映示ログを送信する。なお、その他の装置301,302,…の例としては、表示部120よりも大きな表示領域を有する超大型のディスプレイ装置や、遠隔監視者などがモニタするための表示部120よりも小さな表示領域を有するディスプレイ装置など考えられる。   The communication unit 160 communicates with an externally prepared server 200 and other devices 301, 302,... Via a network NW such as the Internet, and content data such as advertisements including the audio and video information and the data. The identification data for identifying the video is acquired together or the above-mentioned movie log is transmitted. As other examples of the devices 301, 302,..., An ultra-large display device having a display area larger than the display unit 120, or a display area smaller than the display unit 120 for monitoring by a remote monitor or the like. A display device having the like can be considered.

入力部170は、表示部120の近傍に設けられたキースイッチや、表示部120の表示面上に透明な感圧素子などを配設したタッチパネル式の入力装置であって、例えば利用者から再生するコンテンツの指定を受け付ける。   The input unit 170 is a touch panel type input device in which a key switch provided in the vicinity of the display unit 120 or a transparent pressure-sensitive element is disposed on the display surface of the display unit 120. It accepts the specification of the content to be performed.

人感センサ180は、赤外線などを用いたセンサと、利用者が身につけたネームプレートのバーコードを読み取るバーコードリーダあるいは利用者がそれぞれ所持する非接触型ICタグを読み取る無線読み取り装置を組み合わせたものであって、表示部120が設置される所定の範囲(以下、検知範囲と称する)内に人間が居るか否か、人間が上記検知範囲内に進入したか、既に上記検知範囲内に居る人間が検知範囲外に離脱したか等を検出し、この検出結果に基づいて、上記検知範囲内に存在する人間の数を検出するとともに、バーコードや非接触型ICタグに含まれる利用者情報(例えば、氏名、年齢、性別、国籍、職種、役職など)を取得する。   The human sensor 180 is a combination of a sensor using infrared light and a barcode reader that reads a barcode on a name plate worn by a user or a wireless reader that reads a non-contact IC tag possessed by each user. Whether or not there is a person within a predetermined range (hereinafter referred to as a detection range) where the display unit 120 is installed, whether a person has entered the detection range, or is already within the detection range. Detects whether a person has left the detection range, etc., and based on the detection result, detects the number of humans existing within the detection range, and also includes user information included in a barcode or a non-contact IC tag (For example, name, age, gender, nationality, occupation, title).

制御部110は、当該映像表示装置の各部を統括して制御するものであって、内部記憶部140に記憶されるコンテンツデータや、外部記憶装置インタフェース150が読み出したコンテンツデータ、通信部160がネットワークNWを通じて取得したコンテンツデータなどに基づいて、表示部120に映像を表示するとともに、音声を音声出力部130から拡声出力する。なお、この動作を以下ではコンテンツ再生と称することにする。   The control unit 110 controls the respective units of the video display device. The content data stored in the internal storage unit 140, the content data read by the external storage device interface 150, and the communication unit 160 is a network. Based on the content data acquired through the NW, the video is displayed on the display unit 120, and the sound is output from the audio output unit 130 as a loud sound. This operation is hereinafter referred to as content reproduction.

また制御部110は、時刻を計時する機能を備える他に、コンテンツ再生で再生しているコンテンツデータの識別情報と、人感センサ180の検出結果に基づいて、後述する映示ログ生成処理によって映示ログを生成する。   Further, the control unit 110 has a function of measuring time, and based on the identification information of the content data being reproduced in the content reproduction and the detection result of the human sensor 180, the control unit 110 performs a projection log generation process to be described later. Generate an indication log.

次に、上記構成の映像表示装置による映示ログ生成処理の動作について説明する。この動作を説明するためのフローチャートを図2乃至図6に示す。図2に示す処理がメインルーチンを示しており、図3乃至図6はサブルーチンを示している。これらに示す処理は、制御部110が内部記憶部140に記憶される制御プログラムや制御データにしたがって動作することにより実現する。   Next, the operation of the display log generation process by the video display device having the above configuration will be described. Flowcharts for explaining this operation are shown in FIGS. The process shown in FIG. 2 shows a main routine, and FIGS. 3 to 6 show subroutines. The processing shown in these figures is realized by the control unit 110 operating according to a control program and control data stored in the internal storage unit 140.

図2に示す処理は、当該映像表示装置の電源が投入されると、所定の周期で繰り返し実行される。なお、この処理に並行して、制御部110は、複数あるコンテンツデータを、順次再生する処理をくり返し実行したり、あるいは、入力部170を通じた利用者からの要求に応じたコンテンツの再生処理を実行している。   The process shown in FIG. 2 is repeatedly executed at a predetermined cycle when the video display device is powered on. In parallel with this process, the control unit 110 repeatedly executes a process of sequentially reproducing a plurality of content data, or performs a process of reproducing a content in response to a request from the user via the input unit 170. Running.

ステップ201において制御部110は、人感センサ180の検出結果を参照し、人感センサ180が検知範囲内について人間の動きを検出したか否かを判定する。ここで、人間の動きを検出した場合には、ステップ202に移行し、一方、人の動きを検出していない場合には、ステップ203に移行する。ステップ203において制御部110は、現在のコンテンツ再生をそのまま継続し、当該処理を終了する。
ステップ202では、図3に示すサブルーチン処理(人検出時処理)を実行した後、当該映示ログ生成処理を終了する。
In step 201, the control unit 110 refers to the detection result of the human sensor 180 and determines whether or not the human sensor 180 has detected a human movement within the detection range. Here, if a human motion is detected, the process proceeds to step 202. On the other hand, if a human motion is not detected, the process proceeds to step 203. In step 203, the control unit 110 continues the current content reproduction as it is and ends the processing.
In step 202, after executing the subroutine process (person detection process) shown in FIG. 3, the projection log generation process is terminated.

次に、図3を参照して、人検出時処理について説明する。
ステップ301において制御部110は、人感センサ180の検出結果を参照し、人感センサ180が検知範囲内に人間が進入したことを検出したか否かを判定する。ここで、検知範囲内に人間が進入したことを検出した場合には、ステップ302に移行し、一方、進入したことを検出していない場合には、ステップ306に移行する。
Next, with reference to FIG. 3, the process at the time of human detection will be described.
In step 301, the control unit 110 refers to the detection result of the human sensor 180 and determines whether or not the human sensor 180 has detected that a human has entered the detection range. If it is detected that a person has entered the detection range, the process proceeds to step 302. On the other hand, if it is not detected that the person has entered, the process proceeds to step 306.

ステップ302において制御部110は、人感センサ180の検出結果を参照し、人感センサ180が検知範囲内で既に人間の存在を検出していたか否かを判定する。ここで、検知範囲内で人間を既に検出していた場合には、ステップ304に移行し、一方、存在を検出していなかった場合には、ステップ303に移行する。   In step 302, the control unit 110 refers to the detection result of the human sensor 180 and determines whether or not the human sensor 180 has already detected the presence of a human being within the detection range. If a person has already been detected within the detection range, the process proceeds to step 304. On the other hand, if the presence has not been detected, the process proceeds to step 303.

ステップ303において制御部110は、現在再生しているコンテンツデータを、その先頭から再生し直し、ステップ311に移行する。
ステップ304において制御部110は、人感センサ180の検出結果を参照し、人感センサ180が検出した検知範囲内に存在する人間の数が、予め設定した値P未満か否かを判定する。ここで、検知範囲内に存在する人間の数が、予め設定した値P未満の場合には、ステップ311に移行し、一方、予め設定した値P以上の場合には、ステップ305に移行する。
In step 303, the control unit 110 reproduces the currently reproduced content data from the beginning, and proceeds to step 311.
In step 304, the control unit 110 refers to the detection result of the human sensor 180 and determines whether or not the number of humans existing within the detection range detected by the human sensor 180 is less than a preset value P. Here, when the number of persons existing in the detection range is less than the preset value P, the process proceeds to step 311. On the other hand, when the number is greater than the preset value P, the process proceeds to step 305.

ステップ305において制御部110は、内部記憶部140が記憶する表示制御情報を参照し、人感センサ180が検出した人間の数に対応する音量や画面の輝度などの再生設定を読み出す。そして制御部110は、この読み出した再生設定に基づいて、音声出力部130から拡声出力している音声の音量を制御するとともに、表示部120の輝度などの表示設定を行い、ステップ311に移行する。   In step 305, the control unit 110 refers to the display control information stored in the internal storage unit 140 and reads out reproduction settings such as volume and screen brightness corresponding to the number of people detected by the human sensor 180. Based on the read reproduction setting, the control unit 110 controls the sound volume output from the audio output unit 130 and performs display settings such as the brightness of the display unit 120, and the process proceeds to step 311. .

ステップ306において制御部110は、人感センサ180の検出結果を参照し、人感センサ180が検知範囲内に居る人間がその外に離脱したことを検出したか否かを判定する。ここで、検知範囲外への離脱を検出した場合には、ステップ307に移行し、一方、離脱を検出していない場合には、ステップ311に移行する。   In step 306, the control unit 110 refers to the detection result of the human sensor 180 and determines whether or not the human sensor 180 has detected that a person who is within the detection range has left. Here, when the departure from the detection range is detected, the process proceeds to step 307. On the other hand, when the separation is not detected, the process proceeds to step 311.

ステップ307において制御部110は、人感センサ180の検出結果を参照し、人感センサ180が検知範囲内に人間が存在することを検出している(検知範囲内に居る人間の数が0でない)か否かを判定する。ここで、検知範囲内で人間がいることを検出している場合には、ステップ309に移行し、一方、存在を検出していない場合には、ステップ308に移行する。   In step 307, the control unit 110 refers to the detection result of the human sensor 180 and detects that the human sensor 180 exists in the detection range (the number of humans in the detection range is not zero). ) Or not. If it is detected that a person is present within the detection range, the process proceeds to step 309. On the other hand, if the presence is not detected, the process proceeds to step 308.

ステップ308において制御部110は、現在の再生音量や画面の輝度などの再生設定を初期設定に戻し、ステップ311に移行する。
ステップ309において制御部110は、人感センサ180の検出結果を参照し、人感センサ180が検出した検知範囲内に存在する人間の数が、予め設定した値P以上か否かを判定する。ここで、検知範囲内に存在する人間の数が、予め設定した値P以上の場合には、ステップ311に移行し、一方、予め設定した値P未満の場合には、ステップ310に移行する。
In step 308, the control unit 110 returns the playback settings such as the current playback volume and screen brightness to the initial settings, and proceeds to step 311.
In step 309, the control unit 110 refers to the detection result of the human sensor 180 and determines whether or not the number of humans existing within the detection range detected by the human sensor 180 is equal to or greater than a preset value P. Here, when the number of persons existing in the detection range is equal to or larger than the preset value P, the process proceeds to step 311. On the other hand, when the number is less than the preset value P, the process proceeds to step 310.

ステップ310において制御部110は、内部記憶部140が記憶する表示制御情報を参照し、人感センサ180が検出した人間の数に対応する音量や画面の輝度などの再生設定を読み出す。そして制御部110は、この読み出した再生設定に基づいて、音声出力部130から拡声出力している音声の音量を制御するとともに、表示部120の輝度などの表示設定を行い、ステップ311に移行する。   In step 310, the control unit 110 refers to the display control information stored in the internal storage unit 140 and reads out reproduction settings such as volume and screen brightness corresponding to the number of people detected by the human sensor 180. Based on the read reproduction setting, the control unit 110 controls the sound volume output from the audio output unit 130 and performs display settings such as the brightness of the display unit 120, and the process proceeds to step 311. .

ステップ311において制御部110は、図4に示すサブルーチン処理(ログ記録処理)を実施し、この処理を完了すると、当該サブルーチン処理(人検出時処理)を終了して図2に示した処理に戻り、この結果、映示ログ生成が終了する。   In step 311, the control unit 110 performs a subroutine process (log recording process) shown in FIG. 4. When this process is completed, the subroutine process (person detection process) is terminated and the process returns to the process shown in FIG. 2. As a result, the production log generation ends.

次に、図4を参照して、ログ記録処理について説明する。
ステップ401において制御部110は、ステップ301と同様にして、人感センサ180の検出結果を参照し、人感センサ180が検知範囲内に人間が進入したことを検出したか否かを判定する。ここで、検知範囲内に人間が進入したことを検出した場合には、ステップ402に移行し、一方、進入したことを検出していない場合には、ステップ403に移行する。
Next, the log recording process will be described with reference to FIG.
In step 401, similarly to step 301, the control unit 110 refers to the detection result of the human sensor 180 and determines whether or not the human sensor 180 has detected that a person has entered the detection range. If it is detected that a person has entered the detection range, the process proceeds to step 402. If it is not detected that a person has entered, the process proceeds to step 403.

ステップ402において制御部110は、図5に示すサブルーチン処理(進入時のログ記録処理)を実施し、この処理を完了すると、当該サブルーチン処理(ログ記録処理)を終了して図3に示した処理に戻る。この結果、映示ログ生成処理が終了する。   In step 402, the control unit 110 performs the subroutine process (log recording process at the time of entry) shown in FIG. 5. When this process is completed, the subroutine process (log recording process) is terminated and the process shown in FIG. Return to. As a result, the projection log generation process ends.

ステップ403において制御部110は、ステップ306と同様にして、人感センサ180の検出結果を参照し、人感センサ180が検知範囲内に居る人間がその外に離脱したことを検出したか否かを判定する。ここで、検知範囲外への離脱を検出した場合には、ステップ404に移行する。一方、離脱を検出していない場合には、当該サブルーチン処理(ログ記録処理)を終了して図3に示した処理に戻る。この結果、当該コンテンツ再生処理が終了する。   In step 403, similarly to step 306, the control unit 110 refers to the detection result of the human sensor 180 and determines whether or not the human sensor 180 has detected that a person who is within the detection range has left. Determine. Here, when the departure from the detection range is detected, the process proceeds to step 404. On the other hand, if no separation is detected, the subroutine processing (log recording processing) is terminated and the processing returns to the processing shown in FIG. As a result, the content reproduction process ends.

ステップ404において制御部110は、図6に示すサブルーチン処理(離脱時のログ記録処理)を実施し、この処理を完了すると、当該サブルーチン処理(ログ記録処理)を終了して図3に示した処理に戻る。この結果、映示ログ生成処理を終了する。   In step 404, the control unit 110 performs the subroutine processing (log recording processing at the time of leaving) shown in FIG. 6, and when this processing is completed, the subroutine processing (log recording processing) is terminated and the processing shown in FIG. Return to. As a result, the projection log generation process is terminated.

次に、図5を参照して、進入時のログ記録処理について説明する。
ステップ501において制御部110は、1つの映示ログのファイル(以下、ログファイルと称する)を内部記憶部140上に生成するとともに、現在の時刻を検出し、この時刻を進入時刻として上記ログファイルに記録し、ステップ502に移行する。
Next, the log recording process at the time of entry will be described with reference to FIG.
In step 501, the control unit 110 generates one file of the viewing log (hereinafter referred to as a log file) on the internal storage unit 140, detects the current time, and sets the time as the entry time to the log file. And the process proceeds to step 502.

ステップ502において制御部110は、人感センサ180の検出結果に基づいて、新たに進入した者の利用者情報を人感センサ180から取得し、この利用者情報を上記ログファイルに追加記録し、ステップ503に移行する。
ステップ503において制御部110は、進入時に再生していたコンテンツデータの識別情報を、進入時再生コンテンツとして上記ログファイルに追加記録し、ステップ504に移行する。
In step 502, the control unit 110 acquires user information of a newly entered person from the human sensor 180 based on the detection result of the human sensor 180, and additionally records the user information in the log file. Control goes to step 503.
In step 503, the control unit 110 additionally records the identification information of the content data reproduced at the time of entry into the log file as the content reproduced at the time of entry, and proceeds to step 504.

ステップ504において制御部110は、検知範囲に居る人間の数を1加算し、当該処理を終了して、図4に示した処理に戻る。この結果、映示ログ生成処理を終了する。   In step 504, the control unit 110 adds 1 to the number of people in the detection range, ends the process, and returns to the process shown in FIG. As a result, the projection log generation process is terminated.

次に、図6を参照して、離脱時のログ記録処理について説明する。
ステップ601において制御部110は、人感センサ180の検出結果に基づいて、検知範囲で検出できなくなった利用者情報を検出し、離脱者を特定する。そして、制御部110は、この離脱者の利用者情報が記録されたログファイルを内部記憶部140から検出し、ステップ602に移行する。
Next, with reference to FIG. 6, the log recording process at the time of withdrawal will be described.
In step 601, based on the detection result of the human sensor 180, the control unit 110 detects user information that can no longer be detected in the detection range, and identifies a leaving person. Then, the control unit 110 detects the log file in which the user information of the leaver is recorded from the internal storage unit 140, and proceeds to step 602.

ステップ602において制御部110は、現在の時刻を検出し、この時刻を離脱時刻としてステップ601で検出したログファイルに追加記録するとともに、このログファイルに記憶される進入時刻と上記離脱時刻との差から、滞在時間を検出する。そして制御部110は、この滞在時間を、ステップ601で検出したログファイルに追加記録し、ステップ603に移行する。   In step 602, the control unit 110 detects the current time, and additionally records this time as the departure time in the log file detected in step 601, and the difference between the entry time stored in the log file and the departure time. From this, the stay time is detected. Then, the control unit 110 additionally records this staying time in the log file detected in step 601 and proceeds to step 603.

ステップ603において制御部110は、離脱時に再生していたコンテンツデータの識別情報を、離脱時再生コンテンツとして、ステップ601で検出したログファイルに追加記録し、ステップ604に移行する。   In step 603, the control unit 110 additionally records the identification information of the content data reproduced at the time of withdrawal as the content reproduced at the time of withdrawal in the log file detected in step 601, and proceeds to step 604.

ステップ604において制御部110は、検知範囲に居る人間の数を1減算し、当該処理を終了して、図4に示した処理に戻る。この結果、映示ログ生成処理を終了する。   In step 604, the control unit 110 subtracts 1 from the number of people in the detection range, ends the process, and returns to the process shown in FIG. As a result, the projection log generation process is terminated.

次に、図2乃至図6に示した処理によって生成したログファイルに基づいて、コンテンツの表示順序を最適化する処理について説明する。   Next, a process for optimizing the content display order based on the log files generated by the processes shown in FIGS. 2 to 6 will be described.

内部記憶部140は、図7に示すように、表示順序記憶エリア141に、コンテンツの再生順序を示す情報と、常に再生させるコンテンツであることを示す特定フラグを記憶している。すなわち、この表示順序記憶エリア141は、再生可能なコンテンツデータの識別情報C1〜C5を、再生コンテンツグループ141aと、待機コンテンツグループ141bに分けて、それぞれグループ化して記憶している。図7の例では、説明を簡明にするために、5つのコンテンツデータが存在する場合を例にしている。   As shown in FIG. 7, the internal storage unit 140 stores information indicating the content reproduction order and a specific flag indicating that the content is always reproduced in the display order storage area 141. That is, the display order storage area 141 stores identification information C1 to C5 of reproducible content data divided into a reproduction content group 141a and a standby content group 141b, and is stored in groups. In the example of FIG. 7, for the sake of simplicity, the case where there are five content data is taken as an example.

そして、制御部110は、再生コンテンツグループ141aを参照して、ここに記憶される識別情報のコンテンツデータについて、その順序に従って、繰り返し再生を行う。すなわち、図7に示す例では、識別情報C1〜C3に対応するコンテンツデータをこの順序で繰り返し再生する。   Then, the control unit 110 refers to the playback content group 141a and repeatedly plays back the content data of the identification information stored here in the order. That is, in the example shown in FIG. 7, the content data corresponding to the identification information C1 to C3 is repeatedly reproduced in this order.

また制御部110は、図2乃至図6に示した処理によって生成したログファイル(以下、ログファイルと略称する)に基づいて、コンテンツの表示順序を最適化、すなわち、表示順序の入れ替え処理を実行する。この処理を図8に示す。この処理は、制御部110がコンテンツの再生を行いながら、予め設定した時間が経過するなど、定期的に実行される。以下の説明では、説明を簡明にするために、図7に示した例に基づいて説明する。   Further, the control unit 110 optimizes the content display order based on the log file (hereinafter abbreviated as a log file) generated by the processes shown in FIGS. 2 to 6, that is, executes the display order switching process. To do. This process is shown in FIG. This process is periodically executed such that a preset time elapses while the control unit 110 reproduces the content. In the following description, the description will be made based on the example shown in FIG. 7 in order to simplify the description.

まずステップ8aにおいて制御部110は、ログファイルを参照し、再生コンテンツグループ141aに識別情報が記憶されるコンテンツについて、人間の集まり具合に基づく注目度を点数として算出し、ステップ8bに移行する。この点数計算では、各コンテンツについて、例えば、検出した人数×1、進入者数×2、離脱者数×(−1)を計算して合計する。   First, in step 8a, the control unit 110 refers to the log file, calculates the degree of attention based on the degree of human gathering as a score for the content whose identification information is stored in the reproduction content group 141a, and proceeds to step 8b. In this score calculation, for each content, for example, the number of detected people × 1, the number of intruders × 2, and the number of leavers × (−1) are calculated and totaled.

ステップ8bにおいて制御部110は、ステップ8aで計算した結果に基づいて、再生コンテンツグループ141aに識別情報が記憶されるコンテンツC1〜C3の点数の平均値を求め、ステップ8cに移行する。   In step 8b, the control unit 110 obtains the average value of the scores of the contents C1 to C3 whose identification information is stored in the reproduction content group 141a based on the result calculated in step 8a, and proceeds to step 8c.

ステップ8cにおいて制御部110は、コンテンツC1〜C3のうち、その点数がステップ8bで求めた平均値×0.75を満たさない点数のコンテンツを降格コンテンツとして検出し、ステップ8dに移行する。   In step 8c, the control unit 110 detects content having a score that does not satisfy the average value x 0.75 obtained in step 8b among the contents C1 to C3 as demoted content, and proceeds to step 8d.

ステップ8dにおいて制御部110は、ステップ8cで検出した降格コンテンツに、特定フラグが付与されているか否か、すなわち、常に再生するコンテンツとして指定されているコンテンツであるか否かを判定する。ここで、特定フラグが付与されている降格コンテンツについては、降格コンテンツから除外し、ステップ8eに移行する。   In step 8d, the control unit 110 determines whether or not a specific flag is assigned to the demoted content detected in step 8c, that is, whether or not the content is always designated as content to be played back. Here, the demoted content to which the specific flag is assigned is excluded from the demoted content, and the process proceeds to step 8e.

ステップ8eにおいて制御部110は、降格コンテンツがあるか否かを判定する。ここで、降格コンテンツがある場合には、ステップ8fに移行し、一方、降格コンテンツがない場合には、当該処理を終了する。   In step 8e, the control unit 110 determines whether there is demoted content. Here, if there is demoted content, the process proceeds to step 8f. On the other hand, if there is no demoted content, the processing ends.

ステップ8fにおいて制御部110は、降格コンテンツの表示対象から外して、代わりに別のコンテンツを表示対象として昇格するために、表示順序記憶エリア141が記憶するコンテンツデータの識別情報C1〜C5の入れ替えを行う。   In step 8f, the control unit 110 replaces the identification information C1 to C5 of the content data stored in the display order storage area 141 in order to remove the demoted content from the display target and instead promote another content as the display target. Do.

図9にその一例を示す。図9に示す例では、コンテンツC2の点数が平均値×0.75を満たさない場合、すなわちコンテンツC2が降格コンテンツ(特定フラグなし)であった場合を例にしている。   An example is shown in FIG. In the example shown in FIG. 9, the case where the score of the content C2 does not satisfy the average value × 0.75, that is, the case where the content C2 is demoted content (no specific flag) is taken as an example.

最適化処理を行う前においては、図9(a)に示すように、再生コンテンツグループ141aに識別情報が記憶されるコンテンツC1〜C3を繰り返し再生している。その後、コンテンツC2が降格コンテンツ(特定フラグなし)として検出されると、図9(b)に示すように、コンテンツC2の識別情報は、再生コンテンツグループ141aから削除されて、代わりに待機コンテンツグループ141bに記録される。   Before performing the optimization process, as shown in FIG. 9A, the contents C1 to C3 whose identification information is stored in the reproduction content group 141a are repeatedly reproduced. Thereafter, when the content C2 is detected as demoted content (no specific flag), as shown in FIG. 9B, the identification information of the content C2 is deleted from the reproduction content group 141a, and instead the standby content group 141b. To be recorded.

またコンテンツC3が再生コンテンツグループ141a内で、表示順序が1つ昇格するとともに、待機コンテンツグループ141bのコンテンツC4が昇格して、その識別情報が新たに再生コンテンツグループ141aに記録されて、制御部110の制御により再生されるようになる。待機コンテンツグループ141bでは、コンテンツC5が1つ昇格するが、現時点では再生対象とはならない。   Further, the content C3 is promoted by one in the reproduction content group 141a, the content C4 of the standby content group 141b is promoted, and the identification information is newly recorded in the reproduction content group 141a, and the control unit 110 It will be played back by the control of. In the standby content group 141b, one content C5 is promoted, but it is not a reproduction target at the present time.

以上のように、上記構成の映像表示装置では、表示部120の近くに集まる人間を人感センサ180で監視して、人数の増減や集まった人間の利用者情報を収集し、これらの情報と再生中のコンテンツの識別情報を対応づけて、ログファイルとして保存するようにしている。
したがって、上記構成の映像表示装置によれば、詳細に広告効果を分析することが可能なログファイルを収集することができ、このログファイルを分析することで、利用者の関心の高いコンテンツがわかる。例えば、滞在時間などから、最適なコンテンツ再生時間を推定することができる。
As described above, in the video display device having the above-described configuration, the human sensor 180 monitors the person gathering near the display unit 120, collects the increase / decrease in the number of people and the collected human user information, The identification information of the content being reproduced is associated and saved as a log file.
Therefore, according to the video display device having the above-described configuration, it is possible to collect log files that can analyze the advertising effect in detail, and by analyzing the log files, it is possible to understand content that is highly interested by the user. . For example, the optimal content playback time can be estimated from the staying time and the like.

また上記構成の映像表示装置では、作成したログファイルに基づいて、注目度の低いコンテンツについては、再生対象から外して、代わりに別のコンテンツを再生するようにしている。したがって、上記構成の映像表示装置によれば、再生するコンテンツを見直して、注目度の高いコンテンツを常に再生することができる。   Further, in the video display device having the above-described configuration, based on the created log file, content with a low degree of attention is excluded from the reproduction target and another content is reproduced instead. Therefore, according to the video display device having the above configuration, it is possible to review content to be played back and always play content with a high degree of attention.

なお、この発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また上記実施形態に開示されている複数の構成要素を適宜組み合わせることによって種々の発明を形成できる。また例えば、実施形態に示される全構成要素からいくつかの構成要素を削除した構成も考えられる。さらに、異なる実施形態に記載した構成要素を適宜組み合わせてもよい。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. Further, for example, a configuration in which some components are deleted from all the components shown in the embodiment is also conceivable. Furthermore, you may combine suitably the component described in different embodiment.

その一例として例えば、上記実施の形態では、制御部110は、検知範囲内に新たな進入者を検出した場合に、新たな進入者についてログファイルを作成し、離脱者を検出した場合に、上記ログファイルに追加記録するようにしたが、これに代わって例えば、定期的に検知範囲内の利用者情報を検出し、新たな進入者を発見した場合に、その進入者についてログファイルを作成し、その後の定期的な検出で、離脱者を発見した場合に、上記ログファイルに追記するようにしてもよい。   As an example thereof, in the above-described embodiment, the control unit 110 creates a log file for a new intruder when a new intruder is detected within the detection range, and The log file is additionally recorded, but instead, for example, when user information within the detection range is periodically detected and a new intruder is found, a log file is created for that intruder. Then, when a leaver is found by periodic detection thereafter, it may be added to the log file.

また、検知範囲の人間の数が変動した場合に、制御部110がログファイルを作成し、そのログファイルに時刻情報と、検出した人間の数、再生中のコンテンツ識別情報を対応付けて内部記憶部140に記録するようにしてもよい。   Further, when the number of people in the detection range fluctuates, the control unit 110 creates a log file, and associates time information, the number of detected people, and content identification information being played back with the log file, and stores them internally. It may be recorded in the unit 140.

そしてまた、定期的に時刻情報に基づく時刻毎のログファイルを作成し、その時刻に検知範囲内に居る人間の数やその人間の利用者情報を検出し、これに再生中のコンテンツ識別情報を対応付けて内部記憶部140に記録するようにしてもよい。すなわち、時刻毎のログファイルを作成し、これに人間の数やその人間の利用者情報、再生コンテンツ識別情報を記録するようにしてもよい。   In addition, a log file for each time based on the time information is periodically created to detect the number of people who are within the detection range and the user information of the people at that time, and the content identification information being reproduced is added to this. The information may be recorded in the internal storage unit 140 in association with each other. That is, a log file for each time may be created, and the number of people, user information of the people, and reproduction content identification information may be recorded on the log file.

また、上記実施の形態では、利用者の関心の高いコンテンツを分析することが可能なログファイルを作成するようにしたが、制御部110が収集したファイルを分析して、利用者の関心の高いコンテンツを検出し、このようなコンテンツ優先的に再生するようにしてもよい。このような構成によれば、利用者のニーズに沿ったコンテンツ再生が行える。またこのような優先再生を行う場合に、制御部110が再生しているコンテンツに広告コンテンツをインポーズしたり、定期的(周期的)に広告コンテンツに切り替えて表示することによって、より大きな広告効果を期待することができる。   In the above embodiment, the log file that can analyze the content of high interest of the user is created. However, the file collected by the control unit 110 is analyzed, and the user is highly interested. Content may be detected and such content may be played preferentially. According to such a configuration, it is possible to perform content reproduction in accordance with user needs. In addition, when such priority playback is performed, the advertising content is imposed on the content being played back by the control unit 110, or the advertising content is periodically (periodically) switched to be displayed and displayed. Can be expected.

さらにまた、人感センサ180が検知範囲内に予め設定した閾値以上の人数を検出した場合など、利用者の関心が高いコンテンツを再生する場合には、制御部110が通信部160を制御して、そのコンテンツデータをネットワークNWを通じて、大型ディスプレイ装置などの他装置301,302…に出力して、表示部120と合わせて再生するようにしてもよい。これによれば、関心の高いコンテンツを多くのユーザに映示することができ、表示部120が比較的小さい場合でも、混雑することを軽減することができる。   Furthermore, when the human sensor 180 detects a number of people equal to or greater than a preset threshold value within the detection range, for example, when the content with high user interest is played back, the control unit 110 controls the communication unit 160. The content data may be output to other devices 301, 302,... Such as a large display device through the network NW and reproduced together with the display unit 120. According to this, content of high interest can be displayed to many users, and congestion can be reduced even when the display unit 120 is relatively small.

また、利用者情報の国籍や年齢、性別に基づいて、制御部110が多数決判定し、国籍に応じた言語の音声に切り替えたり、年齢や性別に応じた関心の高いコンテンツに切り替えて再生するようにしてもよい。   In addition, the control unit 110 may make a majority decision based on the nationality, age, and gender of the user information, and switch to language-specific audio according to nationality, or switch to content with high interest according to age and gender and play back. It may be.

さらにまた、制御部110は、人感センサ180の検出結果を参照し、近くに利用者が居ない場合には、音声出力部130の再生音量や、表示部120の画面輝度を下げて、消費電力を抑えるようにしてもよい。   Furthermore, the control unit 110 refers to the detection result of the human sensor 180, and when there is no user nearby, the control unit 110 reduces the playback volume of the audio output unit 130 and the screen brightness of the display unit 120 to reduce the consumption. You may make it suppress electric power.

そしてまた、制御部110が、人感センサ180の検出結果に基づいて、検知エリアに滞在する時間が所定時間以上に達する利用者が存在する場合には、表示部120を通じてアンケート入力を要請し、入力部170を通じてアンケート情報を収集するようにしてもよい。これによれば、関心の高い利用者に対してアンケートが行えるので、効果的なアンケートを行うことができる。   In addition, based on the detection result of the human sensor 180, the control unit 110 requests a questionnaire input through the display unit 120 when there is a user who stays in the detection area for a predetermined time or more. You may make it collect questionnaire information through the input part 170. FIG. According to this, since a questionnaire can be performed with respect to a user with high interest, an effective questionnaire can be performed.

また上記実施の形態では、バーコードや非接触型ICタグから利用者情報を取得するものとして説明したが、これに代わって例えば、バーコードや非接触型ICタグからは、利用者を識別する利用者識別情報だけを取得し、別に予め内部記憶部140に記憶しておいた利用者情報(上記利用者識別情報と、例えば、氏名、年齢、性別、国籍、職種、役職などを対応付けたもの)に含まれる情報をログファイルに記録するようにしてもよい。   In the above embodiment, the user information is acquired from the barcode or the non-contact type IC tag. Instead, for example, the user is identified from the barcode or the non-contact type IC tag. Only the user identification information is acquired and separately stored in advance in the internal storage unit 140 (the user identification information is associated with, for example, name, age, gender, nationality, occupation, job title, etc.) Information) may be recorded in a log file.

そしてまた、上記実施の形態では、図8および図9に示したように、コンテンツ単位で再生対象とするコンテンツを最適化するようにしたが、これに代わり、もしくはこれに加えて、再生対象とするコンテンツ、すなわち再生コンテンツグループ141aに識別情報が記憶されるコンテンツを全て降格するようにしてもよい。この制御は、制御部110により、ステップ8bで求めた平均値が、予め設定した閾値よりも低かった場合に行う。   In the above embodiment, as shown in FIG. 8 and FIG. 9, the content to be played back is optimized on a content basis, but instead of or in addition to this, The content to be reproduced, that is, the content whose identification information is stored in the reproduction content group 141a may be demoted. This control is performed when the average value obtained in step 8b by the control unit 110 is lower than a preset threshold value.

図10に、一例を示す。図10(a)に示すように、再生コンテンツグループ141aにコンテンツC1〜C3の識別情報が記憶される場合に、ステップ8bで求めた平均値が、予め設定した閾値よりも低いと、図10(b)に示すように、コンテンツC1〜C3を降格させる。   FIG. 10 shows an example. As shown in FIG. 10A, when the identification information of the contents C1 to C3 is stored in the reproduction content group 141a, if the average value obtained in step 8b is lower than a preset threshold value, FIG. As shown in b), the contents C1 to C3 are demoted.

なお、図10の例では、再生コンテンツグループ141aのコンテンツ数が3であり、待機コンテンツグループ141bのコンテンツ数が2であることより、1つのコンテンツC3だけが再生コンテンツグループ141aに残留することになっているが、待機コンテンツグループ141bのコンテンツ数が3以上であれば、すべてのコンテンツを入れ替えることができる。   In the example of FIG. 10, since the number of contents of the reproduction content group 141a is 3 and the number of contents of the standby content group 141b is 2, only one content C3 remains in the reproduction content group 141a. However, if the number of contents in the standby content group 141b is 3 or more, all the contents can be replaced.

その他、この発明の要旨を逸脱しない範囲で種々の変形を施しても同様に実施可能であることはいうまでもない。   In addition, it goes without saying that the present invention can be similarly implemented even if various modifications are made without departing from the gist of the present invention.

この発明に係わる映像表示装置の一実施形態の構成を示す回路ブロック図。1 is a circuit block diagram showing a configuration of an embodiment of a video display apparatus according to the present invention. 図1に示した映像表示装置の映示ログ生成処理を説明するためのフローチャート。The flowchart for demonstrating the display log production | generation process of the video display apparatus shown in FIG. 図1に示した映像表示装置の映示ログ生成処理を説明するためのフローチャート。The flowchart for demonstrating the display log production | generation process of the video display apparatus shown in FIG. 図1に示した映像表示装置の映示ログ生成処理を説明するためのフローチャート。The flowchart for demonstrating the display log production | generation process of the video display apparatus shown in FIG. 図1に示した映像表示装置の映示ログ生成処理を説明するためのフローチャート。The flowchart for demonstrating the display log production | generation process of the video display apparatus shown in FIG. 図1に示した映像表示装置の映示ログ生成処理を説明するためのフローチャート。The flowchart for demonstrating the display log production | generation process of the video display apparatus shown in FIG. 図1に示した映像表示装置の内部記憶部が記憶する再生順序を示す情報を説明するための図。The figure for demonstrating the information which shows the reproduction | regeneration order which the internal memory part of the video display apparatus shown in FIG. 1 memorize | stores. 図1に示した映像表示装置の最適化処理を説明するためのフローチャート。The flowchart for demonstrating the optimization process of the video display apparatus shown in FIG. 図1に示した映像表示装置の内部記憶部が記憶する再生順序を示す情報を説明するための図。The figure for demonstrating the information which shows the reproduction | regeneration order which the internal memory part of the video display apparatus shown in FIG. 1 memorize | stores. 図1に示した映像表示装置の内部記憶部が記憶する再生順序を示す情報を説明するための図。The figure for demonstrating the information which shows the reproduction | regeneration order which the internal memory part of the video display apparatus shown in FIG. 1 memorize | stores.

符号の説明Explanation of symbols

100…映像表示装置、110…制御部、120…表示部、130…音声出力部、140…内部記憶部、150…外部記憶装置インタフェース、160…通信部、170…入力部、180…人感センサ、200…サーバ、301,302…他装置、NW…ネットワーク。   DESCRIPTION OF SYMBOLS 100 ... Image | video display apparatus, 110 ... Control part, 120 ... Display part, 130 ... Audio | voice output part, 140 ... Internal storage part, 150 ... External storage device interface, 160 ... Communication part, 170 ... Input part, 180 ... Human sensor , 200 ... server, 301, 302 ... other devices, NW ... network.

Claims (10)

コンテンツの再生映像を表示する表示手段と、
この表示手段の近傍に存在する人間を検出する検出手段と、
前記表示手段が表示しているコンテンツを識別するコンテンツ識別情報と、前記検出手段の検出結果とを対応付けたログファイルを作成する作成手段とを具備することを特徴とする映像表示装置。
Display means for displaying the playback video of the content;
Detecting means for detecting a person existing in the vicinity of the display means;
An image display apparatus comprising: a creation unit that creates content log information that identifies content displayed by the display unit and a detection result of the detection unit.
前記作成手段は、前記検出手段が新たに人間を検出した場合に、時刻情報と、前記コンテンツ識別情報とを対応付けたログファイルを作成することを特徴とする請求項1に記載の映像表示装置。   The video display device according to claim 1, wherein the creation unit creates a log file in which time information is associated with the content identification information when the detection unit newly detects a person. . 前記作成手段は、定期的に、時刻情報と、前記検出手段が検出した人間の数と、前記コンテンツ識別情報とを対応付けたログファイルを作成することを特徴とする請求項1に記載の映像表示装置。   The video according to claim 1, wherein the creation unit periodically creates a log file in which time information, the number of people detected by the detection unit, and the content identification information are associated with each other. Display device. 前記検出手段は、人間を識別する人間識別情報を取得し、
前記作成手段は、前記ログファイルに、前記検出手段が取得した人間識別情報を記録することを特徴とする請求項1乃至請求項3のいずれかに記載の映像表示装置。
The detection means acquires human identification information for identifying a human,
The video display device according to claim 1, wherein the creation unit records the human identification information acquired by the detection unit in the log file.
さらに、前記検出手段が取得した人間識別情報検出結果に基づいて、検出した人間毎に、検出した時刻と検出できなくなった時刻を求め、これらの時刻から滞在時間を求める滞在時間検出手段を備え、
前記作成手段は、前記ログファイルに、前記滞在時間検出手段が求めた滞在時間を記録することを特徴とする請求項4に記載の映像表示装置。
Furthermore, based on the human identification information detection result obtained by the detection means, for each detected person, a detected time and a time when it can no longer be detected, and a stay time detection means for obtaining a stay time from these times,
The video display device according to claim 4, wherein the creation unit records the stay time obtained by the stay time detection unit in the log file.
さらに、前記作成手段が作成したログファイルに基づいて、コンテンツの再生順序を決定する決定手段を備えることを特徴とする請求項1に記載の映像表示装置。   The video display apparatus according to claim 1, further comprising a determining unit that determines a reproduction order of contents based on the log file created by the creating unit. 前記作成手段は、コンテンツ毎に、前記検出手段が検出した人間の数を、前記コンテンツ識別情報に対応付けたログファイルを作成し、
前記決定手段は、前記作成手段が作成したログファイルに基づいて、前記検出手段が検出した人間の数の平均値を求め、この平均値とコンテンツ毎に検出した人間の数を比較して、予め設定した条件を満たさないコンテンツを再生対象から外すことを特徴とする請求項6に記載の映像表示装置。
The creation means creates a log file in which the number of people detected by the detection means is associated with the content identification information for each content,
The determination means obtains an average value of the number of people detected by the detection means based on the log file created by the creation means, compares the average value with the number of people detected for each content, The video display device according to claim 6, wherein content that does not satisfy the set condition is excluded from playback targets.
前記作成手段は、コンテンツ毎に、前記検出手段が検出した人間の数を、前記コンテンツ識別情報に対応付けたログファイルを作成し、
前記決定手段は、前記作成手段が作成したログファイルに基づいて、前記検出手段が検出した人間の数の平均値を求め、この平均値が予め設定した閾値未満の場合に、再生したコンテンツを再生対象から外すことを特徴とする請求項6に記載の映像表示装置。
The creation means creates a log file in which the number of people detected by the detection means is associated with the content identification information for each content,
The determination unit obtains an average value of the number of people detected by the detection unit based on the log file created by the creation unit, and reproduces the reproduced content when the average value is less than a preset threshold value. The video display device according to claim 6, wherein the video display device is excluded from the target.
さらに、前記コンテンツの再生映像を表示する外部表示手段に接続する外部インタフェース手段と、
前記検出手段が検出する人間の数が予め設定した値を超えた場合に、前記外部インタフェースを通じて前記外部表示手段に前記コンテンツの再生映像を表示させる外部表示制御手段とを備えることを特徴とする請求項1に記載の映像表示装置。
Furthermore, external interface means connected to external display means for displaying the playback video of the content,
And an external display control unit configured to display a playback video of the content on the external display unit through the external interface when the number of persons detected by the detection unit exceeds a preset value. Item 2. The video display device according to Item 1.
コンテンツの再生映像を表示する表示手段の近傍に存在する人間を検出する検出工程と、
前記表示手段が表示しているコンテンツを識別するコンテンツ識別情報と、前記検出工程の検出結果とを対応付けたログファイルを作成する作成工程とを具備することを特徴とする映示情報生成方法。
A detection step of detecting a person existing in the vicinity of the display means for displaying the reproduced video of the content;
A display information generation method comprising: a creation step of creating a log file in which content identification information for identifying content displayed by the display means and a detection result of the detection step are associated with each other.
JP2008246703A 2008-09-25 2008-09-25 Video display device and video information generating method Withdrawn JP2010078867A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008246703A JP2010078867A (en) 2008-09-25 2008-09-25 Video display device and video information generating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008246703A JP2010078867A (en) 2008-09-25 2008-09-25 Video display device and video information generating method

Publications (1)

Publication Number Publication Date
JP2010078867A true JP2010078867A (en) 2010-04-08

Family

ID=42209404

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008246703A Withdrawn JP2010078867A (en) 2008-09-25 2008-09-25 Video display device and video information generating method

Country Status (1)

Country Link
JP (1) JP2010078867A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013152277A (en) * 2012-01-24 2013-08-08 Toshiba Tec Corp Apparatus, program, and system for providing information
JP2015045733A (en) * 2013-08-28 2015-03-12 株式会社リコー Image display device, image display control method, and image display control program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013152277A (en) * 2012-01-24 2013-08-08 Toshiba Tec Corp Apparatus, program, and system for providing information
JP2015045733A (en) * 2013-08-28 2015-03-12 株式会社リコー Image display device, image display control method, and image display control program

Similar Documents

Publication Publication Date Title
JP5057918B2 (en) Electronic device and scene type display method
US8604328B2 (en) Method and system for generating data for controlling a system for rendering at least one signal
JP5355399B2 (en) Gaze interaction for displaying information on the gazeed product
JP2005267611A (en) Display device
JP2011217209A (en) Electronic apparatus, content recommendation method, and program
JP2009076982A (en) Electronic apparatus, and face image display method
JP2012532491A5 (en)
JP2012160788A (en) Broadcast program processor, broadcast program processing method, and program
US8976109B2 (en) Content output system, output control device and output control method
JP2007528063A (en) Tutorial generation unit
JP2009277097A (en) Information processor
JPWO2018235595A1 (en) Information providing apparatus, information providing method, and program
US20140188876A1 (en) Information processing device, information processing method and computer program
JP2007141092A (en) Device, method and program for presenting information and information recording medium
JP2010078867A (en) Video display device and video information generating method
JP2018032252A (en) Viewing user log accumulation system, viewing user log accumulation server, and viewing user log accumulation method
JP4709929B2 (en) Electronic device and display control method
US20160048271A1 (en) Information processing device and information processing method
JP2009284103A (en) Video image viewing history acquisition apparatus, method, and program
KR20110028067A (en) Apparatus and method for scheduling contents reflecting engagement level of user
TW201424352A (en) Marketing method and computer system thereof for cloud system
JP5542469B2 (en) Information presentation apparatus, method, and program
JP2015146528A (en) content evaluation device and content evaluation program
JP5232291B2 (en) Electronic device and face image display method
JP7102826B2 (en) Information processing method and information processing equipment

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20111206