JP2013074551A - Image display apparatus and image display program - Google Patents

Image display apparatus and image display program Download PDF

Info

Publication number
JP2013074551A
JP2013074551A JP2011213576A JP2011213576A JP2013074551A JP 2013074551 A JP2013074551 A JP 2013074551A JP 2011213576 A JP2011213576 A JP 2011213576A JP 2011213576 A JP2011213576 A JP 2011213576A JP 2013074551 A JP2013074551 A JP 2013074551A
Authority
JP
Japan
Prior art keywords
image
information
unit
user
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011213576A
Other languages
Japanese (ja)
Other versions
JP5861360B2 (en
JP2013074551A5 (en
Inventor
Kazunori Kita
一記 喜多
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2011213576A priority Critical patent/JP5861360B2/en
Publication of JP2013074551A publication Critical patent/JP2013074551A/en
Publication of JP2013074551A5 publication Critical patent/JP2013074551A5/en
Application granted granted Critical
Publication of JP5861360B2 publication Critical patent/JP5861360B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image display apparatus which can prevent the display of an image from becoming monotonous more than before, and to provide an image display program.SOLUTION: An image display apparatus 100 comprises an information acquisition section 109 which acquires first image information from an image information storage section 108. The image display apparatus 100 also comprises an information input section 103 which inputs output second image information from an image output section OT that outputs the second image information that is different from the first image information. The image display apparatus 100 also comprises: a determination section 107 which determines a display start timing for starting displaying the image expressed by the second image information input by the information input section 103; and a display section 110 that displays the image expressed by the second image information input by the information input section 103 at the display start timing determined by the determination section 107, which is at least one of before and after the timing for sequentially displaying the image expressed by the first image information acquired by the information acquisition section 109.

Description

本発明は、画像表示装置及び画像表示プログラムに関する。   The present invention relates to an image display device and an image display program.

従来から、撮像日時に対応付けて記憶された複数の画像の内で、現在日時から所定期間内の撮像日時と対応付けられた複数画像をスライドショー形式で再生表示する画像再生装置が知られている(例えば、特許文献1)。   2. Description of the Related Art Conventionally, there has been known an image reproducing apparatus that reproduces and displays a plurality of images associated with an imaging date and time within a predetermined period from a current date and time in a slide show format among a plurality of images stored in association with the imaging date and time. (For example, patent document 1).

特開2006−54736号公報JP 2006-54736 A

ここで、特許文献1の画像再生装置では、予め記憶された画像が表示され続けるので、画像の表示が単調であるという問題があった。   Here, the image reproduction apparatus of Patent Document 1 has a problem that the image display is monotonous because the image stored in advance is continuously displayed.

本発明は、このような点に鑑みてなされたものであり、その目的とするところは、画像の表示が単調になることを従来よりも防止できる画像表示装置及び画像表示プログラムを提供することにある。   The present invention has been made in view of the above points, and an object of the present invention is to provide an image display device and an image display program that can prevent the display of an image from becoming monotonous. is there.

上記目的を達成するため、本発明に係る画像表示装置は、
画像の第一画像情報を記憶する画像情報記憶部と、
前記画像情報記憶部から、前記第一画像情報を取得する情報取得部と、
前記第一画像情報と異なる第二画像情報を出力する画像出力部と、
前記画像出力部から出力された前記第二画像情報を入力する情報入力部と、
前記情報入力部が入力した前記第二画像情報で表される画像の表示が開始される表示開始タイミングを決定する決定部と、
前記情報取得部で取得された前記第一画像情報で表される前記画像を表示するタイミングの前及び後の少なくとも一方である、前記決定部で決定された表示開始タイミングになると、前記情報入力部で入力された前記第二画像情報で表される画像を表示する表示部と、を備える、
ことを特徴とする。
In order to achieve the above object, an image display device according to the present invention provides:
An image information storage unit for storing first image information of the image;
An information acquisition unit for acquiring the first image information from the image information storage unit;
An image output unit for outputting second image information different from the first image information;
An information input unit for inputting the second image information output from the image output unit;
A determination unit that determines a display start timing at which display of an image represented by the second image information input by the information input unit is started;
When the display start timing determined by the determination unit is at least one of before and after the timing of displaying the image represented by the first image information acquired by the information acquisition unit, the information input unit A display unit for displaying an image represented by the second image information input in
It is characterized by that.

本発明の画像表示装置及び画像表示プログラムによれば、画像の表示が単調になることを従来よりも防止できる。   According to the image display device and the image display program of the present invention, it is possible to prevent the display of an image from becoming monotonous than in the past.

本発明の実施形態1に係る画像表示装置の一例を示す斜視図である。It is a perspective view which shows an example of the image display apparatus which concerns on Embodiment 1 of this invention. 画像表示装置の一構成例を表すハードウェア構成図である。It is a hardware block diagram showing the example of 1 structure of an image display apparatus. 画像表示装置が実行する伝言保存処理の一例を表すフローチャートである。It is a flowchart showing an example of the message preservation | save process which an image display apparatus performs. 実施形態1の画像表示装置が有する機能の一例を表す機能ブロック図である。3 is a functional block diagram illustrating an example of functions that the image display apparatus according to the first embodiment has. FIG. 画像表示装置が記憶する伝言テーブルの一例を表す図である。It is a figure showing an example of the message table which an image display apparatus memorize | stores. 画像表示装置が実行する宛先ユーザ検出処理の一例を表すフローチャートである。It is a flowchart showing an example of the destination user detection process which an image display apparatus performs. 画像表示装置が記憶するユーザテーブルの一例を表す図である。It is a figure showing an example of the user table which an image display apparatus memorizes. 画像表示装置が実行する第1決定処理の一例を表すフローチャートである。It is a flowchart showing an example of the 1st determination process which an image display apparatus performs. 画像表示装置が実行する画像表示処理の一例を表すフローチャートである。It is a flowchart showing an example of the image display process which an image display apparatus performs. 画像表示装置が記憶する予定テーブルの一例を表す図である。It is a figure showing an example of the schedule table which an image display device memorizes. 画像表示装置が実行する予定実行ユーザ検出処理の一例を表すフローチャートである。It is a flowchart showing an example of the scheduled execution user detection process which an image display apparatus performs. 画像表示装置が実行する第2決定処理の一例を表すフローチャートである。It is a flowchart showing an example of the 2nd determination process which an image display apparatus performs. 本発明の実施形態2に係る画像表示装置で構成される画像表示システムの一例を示す図である。It is a figure which shows an example of the image display system comprised with the image display apparatus which concerns on Embodiment 2 of this invention. 実施形態2の画像表示装置が有する機能の一例を表す機能ブロック図である。FIG. 10 is a functional block diagram illustrating an example of functions that the image display apparatus according to the second embodiment has. 画像表示装置が実行する第3決定処理の一例を表すフローチャートである。It is a flowchart showing an example of the 3rd determination process which an image display apparatus performs. 本発明の実施形態3に係る画像表示装置で構成される画像表示システムの一例を示す図である。It is a figure which shows an example of the image display system comprised with the image display apparatus which concerns on Embodiment 3 of this invention. 画像表示装置が記憶するアップロード画像テーブルの一例を表す図である。It is a figure showing an example of the upload image table which an image display apparatus memorize | stores. 実施形態3の画像表示装置が有する機能の一例を表す機能ブロック図である。FIG. 10 is a functional block diagram illustrating an example of functions that an image display apparatus according to a third embodiment has. 画像表示装置が記憶する受信画像テーブルの一例を表す図である。It is a figure showing an example of the received image table which an image display apparatus memorize | stores. 画像表示装置が実行する第4決定処理の一例を表すフローチャートである。It is a flowchart showing an example of the 4th determination process which an image display apparatus performs. 実施形態3の画像表示装置が実行するユーザ検出処理の一例を表すフローチャートである。14 is a flowchart illustrating an example of a user detection process executed by the image display apparatus according to the third embodiment. 実施形態4の画像表示装置が有する機能の一例を表す機能ブロック図である。FIG. 10 is a functional block diagram illustrating an example of functions included in an image display device according to a fourth embodiment. 画像表示装置が記憶する視聴者層テーブルの一例を表す図である。It is a figure showing an example of the audience layer table which an image display device memorizes. 実施形態4の画像表示装置が実行するユーザ検出処理の一例を表すフローチャートである。14 is a flowchart illustrating an example of a user detection process executed by the image display apparatus according to the fourth embodiment. 画像表示装置が実行する第5決定処理の一例を表すフローチャートである。It is a flowchart showing an example of the 5th determination process which an image display apparatus performs. 画像表示装置が記憶するアプリケーションテーブルの一例を表す図である。It is a figure showing an example of the application table which an image display apparatus memorize | stores. 実施形態5の画像表示装置が有する機能の一例を表す機能ブロック図である。FIG. 10 is a functional block diagram illustrating an example of functions included in an image display device according to a fifth embodiment. 画像表示装置が記憶するアプリケーション画像テーブルの一例を表す図である。It is a figure showing an example of the application image table which an image display apparatus memorize | stores.

(実施形態1)
以下、本発明の実施形態1に係る画像表示装置100について、添付図面を参照しつつ説明する。
(Embodiment 1)
Hereinafter, an image display apparatus 100 according to Embodiment 1 of the present invention will be described with reference to the accompanying drawings.

画像表示装置100は、図1に示すような、画像を表示するLCD(Liquid Crystal Display)100hと、LCD100hの表示方向Psに略平行な方向Pcを撮像するCMOS(Complementary Metal Oxide Semiconductor)センサ100kと、スピーカ100jと、マイクロフォン(以下、マイクという)100lとを正面に備えるデジタルフォトフレームである。尚、スピーカ100j、及びマイク100lは、背面又は側面に搭載されても良い。画像表示装置100は、記憶している複数の画像情報でそれぞれ表される画像を順次表示するスライドショーを実行する。   The image display device 100 includes an LCD (Liquid Crystal Display) 100h that displays an image, and a CMOS (Complementary Metal Oxide Semiconductor) sensor 100k that captures a direction Pc substantially parallel to the display direction Ps of the LCD 100h, as shown in FIG. , A digital photo frame provided with a speaker 100j and a microphone (hereinafter referred to as a microphone) 100l in front. The speaker 100j and the microphone 100l may be mounted on the back surface or the side surface. The image display apparatus 100 executes a slide show that sequentially displays images represented by a plurality of stored image information.

画像表示装置100は、図1のLCD100h、スピーカ100j、及びCMOSセンサ100kと、図2に示すようなバス100zで互いに接続されたCPU(Central Processing Unit)100a、ROM(Read Only Memory)100b、RAM(Random Access Memory)100c、ハードディスク100d、メディアコントローラ100e、無線LANカード(Local Area Network)100f、ビデオカード100g、及び操作ボタン100iで構成される。   The image display apparatus 100 includes an LCD 100h, a speaker 100j, and a CMOS sensor 100k shown in FIG. 1, a CPU (Central Processing Unit) 100a, a ROM (Read Only Memory) 100b, a RAM connected to each other via a bus 100z as shown in FIG. (Random Access Memory) 100c, hard disk 100d, media controller 100e, wireless LAN card (Local Area Network) 100f, video card 100g, and operation buttons 100i.

CPU100aは、ROM100b又はハードディスク100dに保存されたプログラムに従ってソフトウェア処理を実行することで、画像表示装置100の全体制御を行う。RAM100cは、CPU100aによるプログラムの実行時において、処理対象とする情報(つまり、データ)を一時的に記憶する。   The CPU 100a performs overall control of the image display device 100 by executing software processing according to a program stored in the ROM 100b or the hard disk 100d. The RAM 100c temporarily stores information (that is, data) to be processed when the CPU 100a executes the program.

ハードディスク100dは、各種の情報(つまり、データ)を保存した表(つまり、テーブル)を記憶する。尚、画像表示装置100は、ハードディスク100dの代わりに、フラッシュメモリを備えても良い。   The hard disk 100d stores a table (that is, a table) that stores various types of information (that is, data). Note that the image display apparatus 100 may include a flash memory instead of the hard disk 100d.

メディアコントローラ100eは、フラッシュメモリ、CD(Compact Disc)、DVD(Digital Versatile Disc)、及びブルーレイディスク(Blu-ray Disc)(登録商標)等を含む記録媒体から各種のデータ及びプログラムを読み出す。   The media controller 100e reads various data and programs from a recording medium including a flash memory, a CD (Compact Disc), a DVD (Digital Versatile Disc), a Blu-ray Disc (registered trademark), and the like.

無線LANカード100fは、不図示の通信網を介して接続する各種装置との間で各種情報を無線通信する。操作ボタン100iは、ユーザの操作に応じた信号又は情報を入力する。   The wireless LAN card 100f wirelessly communicates various information with various devices connected via a communication network (not shown). The operation button 100i inputs a signal or information corresponding to a user operation.

ビデオカード100gは、CPU100aから出力されたデジタル信号に基づいて画像を描画(つまり、レンダリング)すると共に、描画された画像を表す画像信号を出力する。LCD100hは、ビデオカード100gから出力された画像信号に従って画像を表示する。尚、画像表示装置100は、LCD100hの代わりに、PDP(Plasma Display Panel)又はEL(Electroluminescence)ディスプレイを備えても良い。スピーカ100jは、CPU100aから出力された信号に基づいて音声を出力する。マイク100lは、音声を収集し、収集した音声を表す電気信号をCPU100aへ入力する。   The video card 100g draws (that is, renders) an image based on the digital signal output from the CPU 100a, and outputs an image signal representing the drawn image. The LCD 100h displays an image according to the image signal output from the video card 100g. The image display device 100 may include a PDP (Plasma Display Panel) or an EL (Electroluminescence) display instead of the LCD 100h. The speaker 100j outputs sound based on the signal output from the CPU 100a. The microphone 100l collects sound and inputs an electric signal representing the collected sound to the CPU 100a.

先ず、画像表示装置100が、伝言を話す様子を撮像した撮像画像(以下、伝言画像という)を、スライドショーの実行中に表示するための処理について説明する。   First, a process for displaying a captured image (hereinafter referred to as a message image) in which the image display apparatus 100 captures a message is displayed while a slide show is being executed.

CPU100aは、図2のハードウェアを用いて、図3に示すような伝言保存処理を実行することで、図4に示すような情報入力部103として機能する。また、CPU100aは、図2のCMOSセンサ100kと協働することで、図4の撮像部102として機能し、マイク100lと協働することで音声収集部101として機能し、ハードディスク100d又はメディアコントローラ100eによって情報の読み書きが行われる記録媒体と協働することで、一時記憶部104として機能する。   The CPU 100a functions as the information input unit 103 as shown in FIG. 4 by executing the message storing process as shown in FIG. 3 using the hardware of FIG. Further, the CPU 100a functions as the imaging unit 102 in FIG. 4 by cooperating with the CMOS sensor 100k in FIG. 2, and functions as the sound collecting unit 101 by cooperating with the microphone 100l, and the hard disk 100d or the media controller 100e. By cooperating with a recording medium on / from which information is read and written, it functions as the temporary storage unit 104.

一時記憶部104は、図5に示すような伝言テーブルを記憶している。この伝言テーブルには、伝言を聞かせる相手(以下、伝言の宛先という)として指定されたユーザを識別する情報(以下、宛先ユーザIDという)と、当該ユーザを指定したユーザが当該伝言を話す様子を撮像した撮像画像(つまり、伝言画像)を表す情報(以下、伝言画像情報という)と、伝言を伝える音声(以下、伝言音声という)を表す情報(以下、伝言音声情報という)とが対応付けられて保存されている。   The temporary storage unit 104 stores a message table as shown in FIG. In this message table, information (hereinafter referred to as a destination user ID) for identifying a user designated as a partner to whom the message is heard (hereinafter referred to as a message destination), and a state in which the user who has designated the user speaks the message Is associated with information (hereinafter referred to as message image information) representing a captured image (that is, message image information) and information (hereinafter referred to as message voice information) representing a voice conveying the message (hereinafter referred to as message voice information). Has been saved.

CPU100aは、ユーザに操作された操作ボタン100iによって伝言の保存を開始するように命じる信号を入力されると、当該信号に従って図3の伝言保存処理を開始する。伝言保存処理を開始すると、図4の情報入力部103は、宛先ユーザIDを、ユーザに操作された操作ボタン100iから入力する(ステップS01)。次に、撮像部102は、伝言を話すユーザの撮像を開始し、当該ユーザの伝言画像を表す画像情報(つまり、伝言画像情報)の出力を開始する。このため、情報入力部103へ画像情報を出力する撮像部102は、画像出力部OTと称される。   When the CPU 100a receives a signal for instructing to start storing the message by the operation button 100i operated by the user, the CPU 100a starts the message storing process of FIG. 3 according to the signal. When the message storing process is started, the information input unit 103 in FIG. 4 inputs the destination user ID from the operation button 100i operated by the user (step S01). Next, the imaging unit 102 starts imaging a user who speaks a message, and starts outputting image information representing the message image of the user (that is, message image information). For this reason, the imaging unit 102 that outputs image information to the information input unit 103 is referred to as an image output unit OT.

次に、情報入力部103は、撮像部102から出力される画像情報を入力する(ステップS02)。さらに、音声収集部101は、当該ユーザの伝言音声を収集し、収集した伝言音声を表す音声情報の出力を開始する。また、情報入力部103は、音声収集部101から出力される音声情報を入力する(ステップS03)。その後、撮像部102が撮像を終了すると、音声収集部101は、音声の収集を終了する。次に、情報入力部103は、図5の伝言テーブルへ、入力された宛先ユーザIDと、伝言画像情報と、伝言音声情報と、を対応付けて保存した後に(ステップS04)、伝言保存処理の実行を終了する。   Next, the information input unit 103 inputs image information output from the imaging unit 102 (step S02). Furthermore, the voice collection unit 101 collects the message voice of the user and starts outputting voice information representing the collected message voice. Further, the information input unit 103 inputs voice information output from the voice collection unit 101 (step S03). Thereafter, when the imaging unit 102 finishes imaging, the audio collection unit 101 ends the collection of audio. Next, the information input unit 103 stores the input destination user ID, message image information, and message voice information in the message table of FIG. 5 in association with each other (step S04), and then performs message storage processing. End execution.

伝言保存処理の実行が終了すると、CPU100aは、図2のハードウェアを用いて、図6に示すような宛先ユーザ検出処理を実行することで、図4に示すようなユーザ検出部105として機能する。また、CPU100aは、ハードディスク100d又はメディアコントローラ100eによって情報の読み書きが行われる記録媒体と協働することで、ユーザ情報記憶部106として機能する。   When the execution of the message storage process is completed, the CPU 100a functions as the user detection unit 105 as shown in FIG. 4 by executing the destination user detection process as shown in FIG. 6 using the hardware of FIG. . The CPU 100a functions as the user information storage unit 106 by cooperating with a recording medium in which information is read and written by the hard disk 100d or the media controller 100e.

ユーザ情報記憶部106は、図7に示すようなユーザテーブルを記憶している。このユーザテーブルには、ユーザを識別するユーザIDと、当該ユーザの特徴を表す特徴情報とが対応付けられて保存されている。尚、ユーザの特徴は、当該ユーザを表す画像に対して公知の解析処理を実行することで特定され、例えば、肌の色、髪の色、又は顔に対する目、鼻、若しくは口の位置、大きさ、若しくは形状を表す情報で表される。   The user information storage unit 106 stores a user table as shown in FIG. In this user table, a user ID for identifying a user and feature information representing the feature of the user are stored in association with each other. The characteristics of the user are specified by executing a known analysis process on the image representing the user. For example, the color of the skin, the color of the hair, the position of the eyes, nose, or mouth relative to the face, the size Or represented by information representing the shape.

図6の宛先ユーザ検出処理を開始すると、図4のユーザ検出部105は、情報入力部103から宛先ユーザIDを取得する(ステップS11)。次に、ユーザ検出部105は、図7のユーザテーブルから、入力された宛先ユーザIDと同じユーザIDに対応付けて保存された特徴情報を取得する(ステップS12)。その後、撮像部102は撮像を開始し、情報入力部103は、撮像部102から撮像画像を表す画像情報(以下、撮像画像情報という)を入力する(ステップS13)。   When the destination user detection process in FIG. 6 is started, the user detection unit 105 in FIG. 4 acquires a destination user ID from the information input unit 103 (step S11). Next, the user detection unit 105 acquires feature information stored in association with the same user ID as the input destination user ID from the user table in FIG. 7 (step S12). Thereafter, the imaging unit 102 starts imaging, and the information input unit 103 inputs image information representing a captured image (hereinafter referred to as captured image information) from the imaging unit 102 (step S13).

次に、ユーザ検出部105は、入力された撮像画像情報で表される撮像画像に対して公知のユーザ領域検出処理と公知のユーザ識別処理とを実行する(ステップS14)。次に、ユーザ検出部105は、ステップS01で入力された宛先ユーザIDで識別される宛先ユーザが、ステップS13で入力された情報で表される撮像画像から検出されたか否かを判別する(ステップS15)。具体的には、ユーザ検出部105は、公知のユーザ領域検出処理の実行によって、撮像画像からユーザが表された領域(以下、ユーザ領域という)が検出されたか否かを判別する。このとき、ユーザ検出部105は、ユーザ領域が検出されなかったと判別した場合には、宛先ユーザが検出されなかったと判別する。これに対して、ユーザ検出部105は、撮像画像からユーザ領域が検出されたと判別すると、当該検出されたユーザ領域における部分画像を解析することで当該ユーザの特徴を表す特徴情報を取得する。その後、ユーザ検出部105は、図7のユーザテーブルから、ユーザ領域の部分画像から取得した特徴情報と対応付けられたユーザIDを取得し、取得したユーザIDがステップS01で入力された宛先ユーザIDと一致する否かを判別する。このとき、ユーザ検出部105は、ユーザIDが一致しないと判別すると、撮像画像から宛先ユーザが検出されなかったと判別する。これに対して、ユーザ検出部105は、ユーザIDが一致したと判別すると、撮像画像から宛先ユーザが検出されたと判別する。   Next, the user detection unit 105 performs a known user area detection process and a known user identification process on the captured image represented by the input captured image information (step S14). Next, the user detection unit 105 determines whether or not the destination user identified by the destination user ID input in step S01 has been detected from the captured image represented by the information input in step S13 (step S13). S15). Specifically, the user detection unit 105 determines whether or not an area in which the user is represented (hereinafter referred to as a user area) is detected from the captured image by executing a known user area detection process. At this time, if the user detection unit 105 determines that the user area has not been detected, the user detection unit 105 determines that the destination user has not been detected. On the other hand, when the user detection unit 105 determines that the user area is detected from the captured image, the user detection unit 105 analyzes the partial image in the detected user area to acquire feature information representing the feature of the user. After that, the user detection unit 105 acquires a user ID associated with the feature information acquired from the partial image of the user area from the user table of FIG. 7, and the acquired user ID is the destination user ID input in step S01. To determine whether or not they match. At this time, if the user detection unit 105 determines that the user IDs do not match, it determines that the destination user has not been detected from the captured image. In contrast, if the user detection unit 105 determines that the user IDs match, the user detection unit 105 determines that the destination user is detected from the captured image.

図6のステップS15において、ユーザ検出部105は、撮像画像から宛先ユーザが検出されなかったと判別すると(ステップS15;No)、ステップS13に戻り上記処理を繰り返す。これに対して、ユーザ検出部105は、撮像画像から宛先ユーザが検出されたと判別すると(ステップS15;Yes)、宛先ユーザが検出されたことを、図4の決定部107へ報告した後に(ステップS16)、ステップS13に戻り上記処理を繰り返す。具体的には、ユーザ検出部105は、決定部107と共同で使用する共有メモリにおけるフラグを用いて宛先ユーザの検出を決定部107へ報告しても良いし、パイプラインを用いても良い。   In step S15 of FIG. 6, when the user detection unit 105 determines that the destination user is not detected from the captured image (step S15; No), the process returns to step S13 and repeats the above processing. On the other hand, when the user detection unit 105 determines that the destination user is detected from the captured image (step S15; Yes), after reporting that the destination user is detected to the determination unit 107 in FIG. S16) Returning to step S13, the above processing is repeated. Specifically, the user detection unit 105 may report the detection of the destination user to the determination unit 107 using a flag in the shared memory that is used jointly with the determination unit 107, or may use a pipeline.

また伝言保存処理の実行が終了すると、図2のCPU100aは、画像情報を出力した出力先(つまり、画像出力部OT)に応じて、当該画像情報で表される画像の表示を開始するタイミング(以下、表示開始タイミングという)を決定する処理を選択し、当該選択した処理を実行する。ここでは、CPU100aは、図2のハードウェアを用いて、撮像部102から出力された伝言画像の表示開始タイミングを決定する、図8に示すような第1決定処理を実行する。これにより、CPU100aは、図4に示すような決定部107として機能する。   When the execution of the message storage process is completed, the CPU 100a in FIG. 2 starts to display the image represented by the image information according to the output destination (that is, the image output unit OT) that has output the image information ( Hereinafter, a process for determining the display start timing) is selected, and the selected process is executed. Here, the CPU 100a executes the first determination process as shown in FIG. 8 that determines the display start timing of the message image output from the imaging unit 102 using the hardware of FIG. Thereby, the CPU 100a functions as the determination unit 107 as shown in FIG.

図8の第1決定処理を開始すると、図4の決定部107は、ユーザ検出部105から宛先ユーザの検出を報告されたか否かを判別する(ステップS21)。このとき、決定部107は、宛先ユーザの検出を報告されなかったと判別すると(ステップS21;No)、ユーザに操作された操作ボタン100iから、伝言の読み出しを開始するように指示する信号(以下、伝言読出開始指示信号という)を取得したか否かを判別する(ステップS22)。このとき、決定部107は、伝言読出開始指示信号を取得しなかったと判別すると(ステップS22;No)、ステップS21に戻り上記処理を繰り返す。   When the first determination process in FIG. 8 is started, the determination unit 107 in FIG. 4 determines whether or not the detection of the destination user is reported from the user detection unit 105 (step S21). At this time, if the determination unit 107 determines that the detection of the destination user has not been reported (step S21; No), a signal (hereinafter, referred to as an instruction to start reading the message from the operation button 100i operated by the user). It is determined whether or not a message reading start instruction signal has been acquired (step S22). At this time, if the determination unit 107 determines that the message reading start instruction signal has not been acquired (step S22; No), the determination unit 107 returns to step S21 and repeats the above processing.

ステップS21において、決定部107が、宛先ユーザの検出を報告されたと判別した場合(ステップS21;Yes)、又はステップS22において、伝言読出開始指示信号を取得したと判別した場合には(ステップS22;Yes)、例えば、OS(Operating System)からシステム日時を取得し、取得したシステム日時から、所定時間以内のタイミングを表示開始タイミングとし、この表示開始タイミングを次回に伝言画像が表示されるタイミング(以下、表示タイミングという)とする(ステップS23)。   If the determination unit 107 determines in step S21 that the detection of the destination user has been reported (step S21; Yes), or if it is determined in step S22 that the message reading start instruction signal has been acquired (step S22; Yes), for example, the system date and time is acquired from the OS (Operating System), and the timing within the predetermined time from the acquired system date and time is set as the display start timing. (Referred to as display timing) (step S23).

尚、ステップS23で用いられる所定時間を表す情報は、図2のハードディスク100dなどに予め記憶されている。本実施形態において、ステップS23で用いられる所定時間は、伝言画像の表示用に予め定められた時間であり、例えば、「1」秒であるとして説明するが、これに限定される訳ではなく、当業者は、より好適な値を実験により定めることができる。   Information representing the predetermined time used in step S23 is stored in advance in the hard disk 100d in FIG. In the present embodiment, the predetermined time used in step S23 is a predetermined time for displaying the message image. For example, the predetermined time is “1” seconds. However, the predetermined time is not limited thereto. One skilled in the art can determine more suitable values by experimentation.

次に、決定部107は、ユーザに操作された操作ボタン100iから、伝言の読み出しを終了するように指示する信号(以下、伝言読出終了指示信号という)を取得したか否かを判別する(ステップS24)。このとき、決定部107は、伝言読出終了指示信号を取得しなかったと判別すると(ステップS24;No)、システム日時を再度取得する。次に、決定部107は、システム日時に基づいて、ステップS23又は以降のステップS26で既に決められた表示タイミングが到来したか否かを判別する(ステップS25)。このとき、決定部107は、表示タイミングが到来していないと判別すると(ステップS25;No)、ステップS24に戻り上記処理を繰り返す。これに対して、決定部107は、表示タイミングが到来したと判別すると(ステップS25;Yes)、表示タイミングを、システム日時から所定の間欠時間後(又は間欠時間前)のタイミングとした後に(ステップS26)、ステップS24に戻り上記処理を繰り返す。   Next, the determination unit 107 determines whether or not a signal for instructing to end the reading of the message (hereinafter referred to as a message reading end instruction signal) has been acquired from the operation button 100i operated by the user (Step S100). S24). At this time, when determining unit 107 determines that the message reading end instruction signal has not been acquired (step S24; No), it acquires the system date and time again. Next, the determination unit 107 determines whether or not the display timing already determined in step S23 or the subsequent step S26 has arrived based on the system date and time (step S25). At this time, when the determination unit 107 determines that the display timing has not arrived (step S25; No), the determination unit 107 returns to step S24 and repeats the above processing. On the other hand, when the determination unit 107 determines that the display timing has arrived (step S25; Yes), the display timing is set to a timing after a predetermined intermittent time (or before the intermittent time) from the system date and time (step S25). S26) Returning to step S24, the above processing is repeated.

尚、ステップS25で用いられる間欠時間を表す情報は、図2のハードディスク100dなどに予め記憶されている。本実施形態において、ステップS23で用いられる間欠時間は、伝言用に予め定められた時間であり、例えば、「10」秒であるとして説明するが、これに限定される訳ではなく、当業者は、より好適な値を実験により定めることができる。   Information indicating the intermittent time used in step S25 is stored in advance in the hard disk 100d in FIG. In the present embodiment, the intermittent time used in step S23 is a predetermined time for a message, and is described as being, for example, “10” seconds, but is not limited thereto, and those skilled in the art A more suitable value can be determined by experiment.

ステップS24において、決定部107は、伝言読出終了指示信号を取得したと判別すると(ステップS24;Yes)、図5の伝言テーブルに保存された情報を削除した後に第1決定処理を終了する。   If the determination unit 107 determines in step S24 that the message reading end instruction signal has been acquired (step S24; Yes), the information stored in the message table in FIG. 5 is deleted, and then the first determination process ends.

画像表示装置100が起動すると(つまり、電源ONされると)、図2のCPU100aは、図9に示すような画像表示処理を実行することで、図4に示すような情報取得部109、表示部110、及び音声出力部111として機能する。また、CPU100aは、ハードディスク100d又はメディアコントローラ100eによって情報の読み書きが行われる記録媒体と協働することで、画像情報記憶部108として機能する。   When the image display apparatus 100 is activated (that is, when the power is turned on), the CPU 100a in FIG. 2 executes an image display process as shown in FIG. Functions as the unit 110 and the audio output unit 111. The CPU 100a functions as the image information storage unit 108 by cooperating with a recording medium in which information is read and written by the hard disk 100d or the media controller 100e.

図9の画像表示処理を開始すると、図4の情報取得部109は、画像情報記憶部108から複数の画像情報を取得する(ステップS31)。次に、情報取得部109は、取得した複数の画像情報でそれぞれ表される画像を、スライドショーされる画像(つまり、スライドショーの対象)と決定する(ステップS32)。   When the image display process of FIG. 9 is started, the information acquisition unit 109 of FIG. 4 acquires a plurality of pieces of image information from the image information storage unit 108 (step S31). Next, the information acquisition unit 109 determines the images respectively represented by the acquired plurality of pieces of image information as images to be slide show (that is, slide show targets) (step S32).

その後、表示部110は、システム日時を取得し、取得したシステム日時が、図8のステップS23又はステップS26で決定された表示タイミングが到来したか否かを判別する(ステップS33)。このとき、表示部110は、表示タイミングが到来していないと判別すると(ステップS33;No)、スライドショーの対象とされた画像からランダムに1枚の画像を選択し、選択した画像を表示する(つまり、スライドショーを行う)(ステップS34)。その後、ステップS33から上記処理が繰り返される。   Thereafter, the display unit 110 acquires the system date and time, and determines whether or not the display timing determined in step S23 or step S26 of FIG. 8 has arrived (step S33). At this time, if the display unit 110 determines that the display timing has not arrived (step S33; No), the display unit 110 randomly selects one image from the images targeted for the slide show and displays the selected image ( That is, a slide show is performed) (step S34). Thereafter, the above process is repeated from step S33.

ステップS33において、表示部110は、表示タイミングが到来したと判別すると(ステップS33;Yes)、図5の伝言テーブルに保存された伝言画像情報を読み出し、読み出した情報で表される伝言画像(つまり、撮像画像)を表示部110に表示する(ステップS35)。また、図4の音声出力部111は、図5の伝言テーブルに当該伝言画像の画像情報(つまり、伝言画像情報)と対応付けて保存された伝言音声情報を読み出し、伝言画像が表示されている間、読み出された情報で表される伝言音声を出力する(ステップS36)。その後、ステップS33に戻り上記処理が繰り返される。   In step S33, when the display unit 110 determines that the display timing has arrived (step S33; Yes), the message image information stored in the message table of FIG. 5 is read, and the message image represented by the read information (that is, the message image) , The captured image) is displayed on the display unit 110 (step S35). Also, the voice output unit 111 in FIG. 4 reads the message voice information stored in the message table in FIG. 5 in association with the image information (that is, message image information) of the message image, and the message image is displayed. Meanwhile, the message voice represented by the read information is output (step S36). Then, it returns to step S33 and the said process is repeated.

これらの構成によれば、画像情報記憶部108に記憶された複数の画像情報で表される画像を順次表示するスライドショーが実行されると、スライドショーされる画像と異なる撮像画像が、当該撮像画像の出力元(つまり、図4の画像出力部OT)に応じて決定された表示開始タイミングから間欠的に表示される。このため、画像の表示が単調になることを従来よりも防止できる。   According to these configurations, when a slide show that sequentially displays images represented by a plurality of pieces of image information stored in the image information storage unit 108 is executed, a captured image that is different from the image to be displayed is displayed on the captured image. Displayed intermittently from the display start timing determined according to the output source (that is, the image output unit OT in FIG. 4). For this reason, it is possible to prevent the display of an image from becoming monotonous than in the past.

またこれらの構成によれば、画像が表示される方向を撮像した画像から、撮像画像の表示先として指定された宛先ユーザが検出されてから所定時間以内に当該撮像画像が表示される。このため、表示先として指定された宛先ユーザに対して当該撮像画像を確実に表示できる。またスライドショーが行われると、スライドショーを視ているユーザに対して、当該ユーザを表示先として指定された撮像画像が表示されるので、ユーザに対して新鮮味や感動を与え、画像の表示が単調になることを防止できる。   According to these configurations, the captured image is displayed within a predetermined time after the destination user designated as the display destination of the captured image is detected from the image captured in the direction in which the image is displayed. For this reason, the captured image can be reliably displayed to the destination user designated as the display destination. In addition, when a slide show is performed, a captured image designated with the user as a display destination is displayed for a user who is viewing the slide show, so that the user is given freshness and impression and the image display is monotonous. Can be prevented.

さらにこれらの構成によれば、画像が表示される方向を撮像した画像から、伝言を聞かせる相手として指定された宛先ユーザが検出されると当該伝言が出力され、かつ当該伝言の収集時に撮像された画像が表示される。このため、伝言を聞かせる相手として指定されたユーザに対して当該音声を従来よりも確実に聞かせることができるだけでなく、当該伝言の収集時に撮像された画像をも当該ユーザに表示できる。また、画像が表示される方向にユーザが位置すれば、ユーザに宛てた伝言が出力され、当該伝言の収集中に撮像された画像が表示される場合があるので、表示される画像を見る動機をユーザに与えることができる。   Furthermore, according to these configurations, when a destination user designated as a partner who hears a message is detected from an image obtained by capturing the direction in which the image is displayed, the message is output and captured when the message is collected. The displayed image is displayed. For this reason, it is possible not only to make the voice specified to the user designated as the other party to listen to the message more reliable than before, but also to display the image captured at the time of collecting the message to the user. If the user is positioned in the direction in which the image is displayed, a message addressed to the user is output, and an image captured during collection of the message may be displayed. Can be given to the user.

尚、本実施形態の第1決定処理において、決定部107は、間欠時間を、表示タイミングが到来する毎(つまり、撮像画像が表示される毎)に長くしても良い。一度伝言を聞いたユーザは、当該伝言に対して興味を失うことが多いが、一度で伝言を覚えられなかった場合や忘れてしまった場合には、ユーザは、再度伝言を聞きたく思う場合が多い。このため、この構成によれば、伝言の出力回数と撮像画像の表示回数が増加するにつれて伝言の出力頻度と撮像画像の表示頻度とが低下するので、既にユーザが興味を失った撮像画像の表示や伝言の出力を防止しながら、ユーザが伝言を覚えられなかったり忘れたりすることを防止できる。   In the first determination process of the present embodiment, the determination unit 107 may lengthen the intermittent time every time the display timing arrives (that is, every time a captured image is displayed). A user who has heard a message often loses interest in the message. However, if the user cannot remember a message or forgets it once, the user may want to listen to the message again. Many. For this reason, according to this configuration, the message output frequency and the captured image display frequency decrease as the message output count and the captured image display count increase, so that the captured image that the user has already lost interest in can be displayed. It is possible to prevent the user from remembering or forgetting the message while preventing the output of the message.

尚、画像表示装置100は、伝言保存処理の実行を終了すると、伝言読出終了指示信号が入力されるまで、不図示のLED(Light Emitting Diode)ランプを点滅させることで、伝言が有る(つまり、伝言音声情報が保存されている)ことを報知しても良い。   Note that when the message storage process is finished, the image display apparatus 100 blinks an LED (Light Emitting Diode) lamp (not shown) until a message reading end instruction signal is input (that is, there is a message (that is, The message voice information may be stored).

次に、画像表示装置100が、ユーザの予定を表す画像(以下、予定画像という)を表示する場合において実行される処理について説明する。   Next, processing executed when the image display apparatus 100 displays an image representing a user's schedule (hereinafter referred to as a scheduled image) will be described.

CPU100aは、図2のハードディスク100d又はメディアコントローラ100eによって情報の読み書きが行われる記録媒体と協働することで、図4に示すような予定情報記憶部112として機能する。予定情報記憶部112は、図10に示すような予定テーブルを記憶している。予定テーブルには、予定を実行するユーザ(以下、予定実行ユーザという)のユーザID(以下、予定実行ユーザIDという)と、当該予定を表す予定情報と、当該予定の開始日時を表す情報(以下、開始日時情報という)と、当該予定の終了日時を表す情報(以下、終了日時情報という)とが対応付けられて保存されている。   The CPU 100a functions as a schedule information storage unit 112 as shown in FIG. 4 by cooperating with a recording medium in which information is read and written by the hard disk 100d or the media controller 100e in FIG. The schedule information storage unit 112 stores a schedule table as shown in FIG. The schedule table includes a user ID (hereinafter referred to as a schedule execution user ID) of a user who executes the schedule (hereinafter referred to as a schedule execution user ID), schedule information indicating the schedule, and information (hereinafter referred to as start date and time of the schedule). , Start date / time information) and information indicating the end date / time of the schedule (hereinafter referred to as end date / time information) are stored in association with each other.

CPU100aは、図10の予定テーブルに保存された予定情報で表される予定を表す画像(以下、予定画像という)を生成する、不図示の予定画像生成処理を実行することで、図4に示す予定画像生成部113として機能する。この予定画像生成処理が開始されると、予定画像生成部113は、システム日時を取得した後に、図10の予定テーブルから、取得されたシステム日時から第一時間後の日時までの開始時刻を表す開始時刻情報と、当該開始時刻情報に対応付けられた予定情報と、予定実行ユーザIDとを検索する。   The CPU 100a executes a schedule image generation process (not shown) that generates an image representing a schedule (hereinafter referred to as a schedule image) represented by schedule information stored in the schedule table of FIG. It functions as the scheduled image generation unit 113. When the scheduled image generation process is started, the scheduled image generation unit 113 obtains the start time from the acquired system date and time to the date and time after the first time from the schedule table in FIG. 10 after acquiring the system date and time. The start time information, the schedule information associated with the start time information, and the schedule execution user ID are searched.

尚、本実施形態において、第一時間を表す情報は、図2のハードディスク100dなどに予め記憶されており、第一時間は、「30」分であるとして説明するが、これに限定される訳ではなく、当業者は最適な値を実験により定めることができる。また、この第一時間は、ユーザによって指定されても良い。   In the present embodiment, the information representing the first time is stored in advance in the hard disk 100d of FIG. 2 and the like, and the first time is described as being “30”. However, the present invention is not limited to this. Rather, those skilled in the art can determine the optimum value by experimentation. The first time may be specified by the user.

その後、予定画像生成部113は、検索された予定情報で表される予定を表す予定画像を生成し、生成された予定画像を表す画像情報と、検索された予定実行ユーザIDと、当該予定の開始時刻を表す予定開始時刻情報とを、図4の情報入力部103へ出力した後に、不図示の予定画像生成処理の実行を終了する。このため、予定画像生成部113を、音声収集部101及び撮像部102と同様に、画像出力部OTと称する。   Thereafter, the schedule image generation unit 113 generates a schedule image representing the schedule represented by the searched schedule information, the image information representing the generated schedule image, the searched schedule execution user ID, and the schedule After the scheduled start time information indicating the start time is output to the information input unit 103 in FIG. 4, the execution of the scheduled image generation process (not shown) is terminated. For this reason, the scheduled image generation unit 113 is referred to as an image output unit OT, similar to the sound collection unit 101 and the imaging unit 102.

その後、情報入力部103は、予定画像生成部113から出力された予定画像の画像情報と、予定実行ユーザIDと、予定開始時刻情報とを入力する。次に、情報入力部103は、入力した予定画像の画像情報を、図4の一時記憶部104へ一時的に保存し、予定実行ユーザIDと、予定開始時刻情報と、をユーザ検出部105へ出力する。これらの情報を入力するユーザ検出部105は、撮像部102が撮像した撮像画像から予定実行ユーザを検出する、図11に示すような予定実行ユーザ検出処理を実行する。   Thereafter, the information input unit 103 inputs the image information of the scheduled image output from the scheduled image generation unit 113, the scheduled execution user ID, and the scheduled start time information. Next, the information input unit 103 temporarily stores the input image information of the scheduled image in the temporary storage unit 104 of FIG. 4, and stores the scheduled execution user ID and the scheduled start time information to the user detection unit 105. Output. The user detection unit 105 that inputs these pieces of information executes a scheduled execution user detection process as shown in FIG. 11 for detecting a scheduled execution user from the captured image captured by the imaging unit 102.

図11の予定実行ユーザ検出処理が開始されると、ユーザ検出部105は、情報入力部103から予定実行ユーザIDと、開始日時情報と、を取得する(ステップS41)。次に、ユーザ検出部105は、図6のステップS12と同様に、図7のユーザテーブルから、予定実行ユーザIDと同じユーザIDと対応付けた特徴情報を取得する(ステップS42)。その後、ユーザ検出部105は、システム日時を取得し、取得したシステム日時に基づいて、開始日時情報で表される予定の開始時刻が到来したか否かを判別する(ステップS43)。   When the scheduled execution user detection process in FIG. 11 is started, the user detection unit 105 acquires the scheduled execution user ID and the start date / time information from the information input unit 103 (step S41). Next, the user detection unit 105 acquires feature information associated with the same user ID as the scheduled execution user ID from the user table of FIG. 7 as in step S12 of FIG. 6 (step S42). Thereafter, the user detection unit 105 acquires the system date and time, and determines whether or not the scheduled start time represented by the start date and time information has arrived based on the acquired system date and time (step S43).

ステップS43において、ユーザ検出部105は、システム日時に基づいて予定の開始時刻が到来していないと判別すると(ステップS43;No)、ステップS41で取得された予定実行ユーザIDを用いて、図6のステップS13からステップS16と同様の処理を実行することで、撮像部102で撮像された撮像画像から予定実行ユーザを検出する処理を実行した後に(ステップS44からステップS47)、ステップS43に戻り上記処理を繰り返す。   In step S43, when the user detection unit 105 determines that the scheduled start time has not arrived based on the system date and time (step S43; No), the user execution unit 105 uses the scheduled execution user ID acquired in step S41 to perform FIG. Steps S13 to S16 are executed to execute a process for detecting the scheduled execution user from the captured image captured by the imaging unit 102 (from Step S44 to Step S47), and then return to Step S43 and return to Step S43. Repeat the process.

ステップS43において、ユーザ検出部105は、システム日時に基づいて予定の開始時刻が経過したと判別すると(ステップS43;Yes)、予定実行ユーザ検出処理の実行を終了する。   In step S43, when determining that the scheduled start time has elapsed based on the system date and time (step S43; Yes), the user detecting unit 105 ends the execution of the scheduled execution user detection process.

また、情報入力部103は、予定開始時刻情報を決定部107へ出力する。次に、図4の決定部107は、予定画像生成部113から出力された予定画像の表示開始タイミングを決定する、図12に示すような第2決定処理を実行する。   Further, the information input unit 103 outputs the scheduled start time information to the determination unit 107. Next, the determination unit 107 in FIG. 4 performs a second determination process as illustrated in FIG. 12 that determines the display start timing of the planned image output from the planned image generation unit 113.

図12の第2決定処理を開始すると、図4の決定部107は、図8のステップS21と同様に、ユーザ検出部105から予定実行ユーザの検出を報告されたか否かを判別する(ステップS51)。このとき、決定部107は、予定実行ユーザの検出を報告されなかったと判別すると(ステップS51;No)、システム日時を取得する。次に、決定部107は、取得したシステム日時に基づいて、情報入力部103から出力された開始日時情報で表される開始日時が到来したか否かを判別する(ステップS52)。このとき、開始日時が経過していないと判別すると(ステップS52;No)、ステップS51から上記処理を繰り返す。これに対して、開始日時が経過したと判別すると(ステップS52;Yes)、第2決定処理の実行を終了する。   When the second determination process in FIG. 12 is started, the determination unit 107 in FIG. 4 determines whether or not the detection of the scheduled execution user is reported from the user detection unit 105, similarly to step S21 in FIG. 8 (step S51). ). At this time, when determining that the detection of the scheduled execution user has not been reported (step S51; No), the determination unit 107 acquires the system date and time. Next, the determination unit 107 determines whether or not the start date and time represented by the start date and time information output from the information input unit 103 has arrived based on the acquired system date and time (step S52). At this time, if it is determined that the start date / time has not elapsed (step S52; No), the above processing is repeated from step S51. On the other hand, if it is determined that the start date has passed (step S52; Yes), the execution of the second determination process is terminated.

ステップS51において、決定部107が、予定実行ユーザの検出を報告されたと判別した場合に(ステップS51;Yes)、図8のステップS23と同様に、システム日時から所定時間以内のタイミングを表示開始タイミングとし、この表示開始タイミングを予定画像の次回の表示タイミングとする(ステップS53)。   In step S51, when the determination unit 107 determines that the detection of the scheduled execution user has been reported (step S51; Yes), the timing within the predetermined time from the system date and time is displayed as the display start timing as in step S23 of FIG. The display start timing is set as the next display timing of the scheduled image (step S53).

尚、ステップS53で用いられる所定時間を表す情報は、図2のハードディスク100dなどに予め記憶されている。本実施形態において、ステップS53で用いられる所定時間は、予定画像の表示用に予め定められた時間であり、例えば、「1」秒であるとして説明するが、これに限定される訳ではなく、当業者は、より好適な値を実験により定めることができる。   Information indicating the predetermined time used in step S53 is stored in advance in the hard disk 100d in FIG. In the present embodiment, the predetermined time used in step S53 is a predetermined time for displaying the scheduled image, and for example, is described as being “1” seconds, but is not limited thereto. One skilled in the art can determine more suitable values by experimentation.

ステップS53の後に、決定部107は、ステップS52と同様に、開始日時が到来したか否かを判別する(ステップS54)。このとき、決定部107は、予定の開始日時が到来していないと判別すると(ステップS54;No)、図8のステップS25と同様の判定を行うことで、表示タイミングが到来したか否かを判別する(ステップS55)。このとき、決定部107は、表示タイミングが到来していないと判別すると(ステップS55;No)、ステップS54に戻り上記処理を繰り返す。これに対して、決定部107は、表示タイミングが到来したと判別すると(ステップS55;Yes)、間欠時間を表す値を格納した変数の値を、予め定められた予定画像用のデクリメント値だけデクリメントする(ステップS56a)。時間の経過とともに、予定画像の表示頻度を上昇させるためである。   After step S53, the determination unit 107 determines whether or not the start date / time has arrived, similarly to step S52 (step S54). At this time, when the determination unit 107 determines that the scheduled start date / time has not arrived (step S54; No), the determination unit 107 performs the same determination as step S25 in FIG. 8 to determine whether the display timing has arrived. A determination is made (step S55). At this time, when the determination unit 107 determines that the display timing has not come (step S55; No), the determination unit 107 returns to step S54 and repeats the above processing. On the other hand, when determining that the display timing has arrived (step S55; Yes), the determination unit 107 decrements the value of the variable storing the value representing the intermittent time by a predetermined decrement value for the scheduled image. (Step S56a). This is to increase the display frequency of the scheduled image as time passes.

尚、間欠時間を表す値を格納した変数の値は、第2決定処理の開始時において、予め定められた予定画像用の間欠時間の初期値を表す値で初期化される。この予定画像用の間欠時間の初期値を表す情報と、予定画像用のデクリメント値を表す情報は、例えば、図2のハードディスク100dに保存されている。本実施形態において、予定画像用の間欠時間の初期値は「7」分であり、予定画像用のデクリメント値は「1」分であるとして説明するが、これに限定される訳ではなく、当業者は、実験により最適な値を定めることができる。   Note that the value of the variable storing the value representing the intermittent time is initialized with a value representing the predetermined initial value of the intermittent time for the scheduled image at the start of the second determination process. Information indicating the initial value of the intermittent time for the scheduled image and information indicating the decrement value for the scheduled image are stored, for example, in the hard disk 100d in FIG. In this embodiment, the initial value of the intermittent time for the scheduled image is “7”, and the decrement value for the scheduled image is “1”. However, the present invention is not limited to this. The trader can determine the optimum value by experiment.

その後、決定部107は、表示タイミングを、システム日時から上記変数の値で表される間欠時間後(又は間欠時間前)のタイミングとした後に(ステップS56b)、ステップS54から上記処理を繰り返す。   Thereafter, the determination unit 107 repeats the above-described processing from step S54 after the display timing is set to the timing after the intermittent time (or before the intermittent time) represented by the value of the variable from the system date and time (step S56b).

ステップS54において、決定部107は、システム日時に基づいて予定の開始日時が到来したと判別すると(ステップS54;Yes)、図4の一時記憶部104に記憶された予定画像の画像情報を削除した後に第2決定処理を終了する。   When determining that the scheduled start date / time has arrived based on the system date / time in step S54 (step S54; Yes), the determining unit 107 deletes the image information of the scheduled image stored in the temporary storage unit 104 of FIG. The second determination process is finished later.

これらの構成によれば、ある予定の開始日時の第一時間前から当該開始日時までの間に、予定画像が表示される方向を撮像した画像から当該予定を実行するユーザが検出されると当該予定画像が表示される。また、予定画像は予定の開始日時に近づくにつれてより高い頻度で表示される。このため、予定を実行するユーザに対して予定開始日時の前において従来よりも確実に当該予定を表す画像を表示できる一方で、当該予定を実行しないユーザに対して予定画像を表示することを従来よりも防止できる。また、画像が表示される方向にユーザが位置すれば、ユーザの予定を表す画像が表示されることがあるので、表示される画像を見る動機をユーザに与えることができる。   According to these configurations, when a user who executes the schedule is detected from an image obtained by capturing the direction in which the schedule image is displayed between the first hour before the start date and time of the schedule and the start date and time, The scheduled image is displayed. Further, the schedule image is displayed at a higher frequency as it approaches the start date and time of the schedule. For this reason, it is possible to display an image representing the schedule more reliably than before in the past before the schedule start date and time for a user who executes the schedule, while displaying a schedule image to a user who does not execute the schedule Can prevent more. Also, if the user is positioned in the direction in which the image is displayed, an image representing the user's schedule may be displayed, so that the user can be motivated to view the displayed image.

尚、画像表示装置100は、通信網10を介して、ユーザが使用する携帯電話などの端末装置から、当該ユーザのユーザID(つまり、予定実行ユーザID)、予定情報、予定開始日時情報、及び予定終了日時情報を受信し、受信した情報で、図10の予定テーブルを更新しても良い。また、画像表示装置100は、ユーザに操作された操作ボタン100iから、予定実行ユーザID、予定情報、予定開始日時情報、及び予定終了日時情報を入力し、入力した情報で、図10の予定テーブルを更新しても良い。   Note that the image display device 100 receives, from the terminal device such as a mobile phone used by the user via the communication network 10, the user ID of the user (that is, the scheduled execution user ID), schedule information, schedule start date / time information, and The schedule end date / time information may be received, and the schedule table of FIG. 10 may be updated with the received information. Further, the image display apparatus 100 inputs the schedule execution user ID, the schedule information, the schedule start date / time information, and the schedule end date / time information from the operation button 100i operated by the user, and the schedule table of FIG. May be updated.

(実施形態2)
次に、本発明の実施形態2について説明する。本実施形態において、画像表示装置100は、スライドショーの実行中に、インターフォン画像又はセキュリティ画像を表示する。
(Embodiment 2)
Next, Embodiment 2 of the present invention will be described. In the present embodiment, the image display apparatus 100 displays an interphone image or a security image during a slide show.

本発明の実施形態2に係る画像表示装置100は、図13に示すような画像表示システム1を構成する。画像表示システム1は、コンピュータ通信網10(以下単に、通信網10という)、画像表示装置100、インターフォン201、及びセキュリティ装置202で構成されている。   An image display apparatus 100 according to Embodiment 2 of the present invention constitutes an image display system 1 as shown in FIG. The image display system 1 includes a computer communication network 10 (hereinafter simply referred to as the communication network 10), an image display device 100, an interphone 201, and a security device 202.

通信網10は、例えば、インタネットで構成される。通信網10は、LAN(Local Area Network)又は公衆回線網であっても良い。   The communication network 10 is constituted by the Internet, for example. The communication network 10 may be a LAN (Local Area Network) or a public line network.

インターフォン201は、画像表示装置100が設置された建物に訪れた来訪者によって操作されると、例えば、CMOSセンサなどで当該来訪者を撮像し、撮像した画像(以下、インターフォン画像という)を表す情報を、通信網10を介して画像表示装置100へ送信する。   When the interphone 201 is operated by a visitor who has visited a building in which the image display device 100 is installed, for example, the visitor is imaged with a CMOS sensor or the like, and information representing the captured image (hereinafter referred to as an interphone image). Is transmitted to the image display apparatus 100 via the communication network 10.

セキュリティ装置202は、例えば、ドップラレーダなどを用いて、当該建物へ侵入した又は侵入を試みている移動体を検知すると、例えば、CMOSセンサなどで当該侵入者を撮像する。その後、セキュリティ装置202は、インターフォン201と同様に、撮像された画像(以下、セキュリティ画像という)を表す情報を画像表示装置100へ送信する。   When the security device 202 detects a moving body that has entered or is attempting to enter the building using, for example, Doppler radar, the security device 202 images the intruder using, for example, a CMOS sensor. Thereafter, similarly to the interphone 201, the security device 202 transmits information representing a captured image (hereinafter referred to as a security image) to the image display device 100.

実施形態2の画像表示装置100は、図14に示すような情報入力部103、一時記憶部104、ユーザ検出部105、決定部107、画像情報記憶部108、情報取得部109、及び表示部110で構成される。これらの機能部は、実施形態1で説明した機能部と同様であるので重複した説明を省略する。   The image display apparatus 100 according to the second embodiment includes an information input unit 103, a temporary storage unit 104, a user detection unit 105, a determination unit 107, an image information storage unit 108, an information acquisition unit 109, and a display unit 110 as illustrated in FIG. Consists of. Since these functional units are the same as the functional units described in the first embodiment, redundant description is omitted.

画像表示装置100のCPU100aは、図2の無線LANカード100fと協働することで、図14の受信部114として機能する。受信部114は、図1の通信網10を介して接続するインターフォン201から、インターフォン画像を表す画像情報を受信した後にシステム日時を取得し、取得した日時をインターフォン画像の撮像日時とする。その後、受信部114は、インターフォン画像の画像情報及び当該インターフォン画像の撮像日時を表す情報(以下、撮像日時情報という)を情報入力部103へ出力する。このため、受信部114を画像出力部OTと称する。尚、図14には、画像出力部OTと称される受信部114のみが図示されているが、画像表示装置100は、実施形態1で説明した撮像部102のような画像出力部OTと称される他の機能部を備える。   The CPU 100a of the image display device 100 functions as the receiving unit 114 of FIG. 14 in cooperation with the wireless LAN card 100f of FIG. The receiving unit 114 acquires the system date and time after receiving image information representing an interphone image from the interphone 201 connected via the communication network 10 in FIG. 1, and sets the acquired date and time as the imaging date and time of the interphone image. Thereafter, the reception unit 114 outputs image information of the interphone image and information indicating the imaging date / time of the interphone image (hereinafter referred to as imaging date / time information) to the information input unit 103. For this reason, the receiving unit 114 is referred to as an image output unit OT. FIG. 14 shows only the receiving unit 114 called the image output unit OT, but the image display device 100 is called an image output unit OT like the imaging unit 102 described in the first embodiment. Other functional units are provided.

インターフォン画像の画像情報と撮像日時情報とを受信部114が出力すると、情報入力部103は、受信部114からインターフォン画像の画像情報及び当該インターフォン画像の撮像日時情報を入力する。次に、情報入力部103は、入力したインターフォン画像の画像情報を、図14の一時記憶部104へ一時的に保存し、撮像日時情報を決定部107へ出力する。   When the reception unit 114 outputs the image information of the interphone image and the imaging date / time information, the information input unit 103 inputs the image information of the interphone image and the imaging date / time information of the interphone image from the reception unit 114. Next, the information input unit 103 temporarily stores the image information of the input interphone image in the temporary storage unit 104 in FIG. 14 and outputs the imaging date / time information to the determination unit 107.

また、受信部114は、セキュリティ装置202からセキュリティ画像を受信した後にシステム日時を取得し、取得した日時をセキュリティ画像の撮像日時とする。その後、受信部114は、セキュリティ画像を表す画像情報及び当該セキュリティ画像の撮像日時情報を情報入力部103へ出力する。   Further, the receiving unit 114 acquires the system date after receiving the security image from the security device 202, and sets the acquired date as the imaging date of the security image. Thereafter, the reception unit 114 outputs image information representing the security image and imaging date / time information of the security image to the information input unit 103.

その後、情報入力部103は、受信部114からセキュリティ画像の画像情報及び当該セキュリティ画像の撮像日時情報を入力する。次に、情報入力部103は、入力したセキュリティ画像の画像情報を、図14の一時記憶部104へ一時的に保存し、撮像日時情報を決定部107へ出力する。   Thereafter, the information input unit 103 inputs the image information of the security image and the imaging date / time information of the security image from the receiving unit 114. Next, the information input unit 103 temporarily stores the input image information of the security image in the temporary storage unit 104 in FIG. 14 and outputs the imaging date / time information to the determination unit 107.

次に、図14の決定部107は、受信部114から出力されたインターフォン画像又はセキュリティ画像の表示開始タイミングを決定する、図15に示すような第3決定処理を実行する。   Next, the determination unit 107 in FIG. 14 performs a third determination process as illustrated in FIG. 15 that determines the display start timing of the intercom image or security image output from the reception unit 114.

図15の第3決定処理を開始すると、図14の決定部107は、情報入力部103から出力された撮像日時情報で表される撮像日時から、所定時間以内のタイミングを表示開始タイミングとし、この表示開始タイミングを、インターフォン画像又はセキュリティ画像の次回の表示タイミングとする(ステップS61)。   When the third determination process in FIG. 15 is started, the determination unit 107 in FIG. 14 sets the timing within the predetermined time from the imaging date and time represented by the imaging date and time information output from the information input unit 103 as the display start timing. The display start timing is set as the next display timing of the interphone image or the security image (step S61).

尚、ステップS61で用いられる所定時間を表す情報は、図2のハードディスク100dなどに予め記憶されておいる。ステップS61で用いられる所定時間は、インターフォン画像又はセキュリティ画像の表示用に予め定められた時間であり、本実施形態において、例えば、「1」秒であるとして説明するが、これに限定される訳ではなく、当業者は、より好適な値を実験により定めることができる。   Note that information representing the predetermined time used in step S61 is stored in advance in the hard disk 100d of FIG. The predetermined time used in step S61 is a predetermined time for displaying the interphone image or the security image. In the present embodiment, for example, the predetermined time is described as being “1” seconds. However, the predetermined time is not limited thereto. Rather, those skilled in the art can determine more suitable values by experimentation.

ステップS61の後に、決定部107は、インターフォン画像又はセキュリティ画像の表示回数を表す値が格納された変数に基づいて、インターフォン画像又はセキュリティ画像を所定回数表示したか否かを判別する(ステップS62)。この所定回数を表す情報は、図2のハードディスク100dなどに予め記憶されており、本実施形態において、例えば、「10」回であるとして説明するが、これに限定される訳ではなく、当業者は、より好適な値を実験により定めることができる。尚、表示回数を表す値が格納される変数は、第3決定処理の開始時に値「0」で初期化される。   After step S61, the determination unit 107 determines whether or not the interphone image or the security image has been displayed a predetermined number of times based on the variable in which the value indicating the number of display times of the interphone image or the security image is stored (step S62). . The information representing the predetermined number of times is stored in advance in the hard disk 100d of FIG. 2 and the like, and in the present embodiment, for example, it is described as “10” times. However, the number of times is not limited to this. Can determine a more suitable value by experiment. Note that the variable storing the value representing the number of times of display is initialized with the value “0” at the start of the third determination process.

ステップS62において、決定部107は、インターフォン画像又はセキュリティ画像が所定回数表示されていないと判別すると(ステップS62;No)、図8のステップS25と同様に、表示タイミングが到来したか否かを判別する(ステップS63)。このとき、決定部107は、表示タイミングが到来していないと判別すると(ステップS63;No)、ステップS62に戻り上記処理を繰り返す。これに対して、決定部107は、表示タイミングが到来したと判別すると(ステップS63;Yes)、間欠時間を表す値を格納した変数の値を、予め定められたインクリメント値だけインクリメントする(ステップS64a)。時間の経過とともに、予定画像の表示頻度を低下させるためである。   In step S62, when the determination unit 107 determines that the interphone image or the security image is not displayed a predetermined number of times (step S62; No), the determination unit 107 determines whether or not the display timing has arrived, as in step S25 of FIG. (Step S63). At this time, if the determination unit 107 determines that the display timing has not arrived (step S63; No), the determination unit 107 returns to step S62 and repeats the above processing. On the other hand, when determining that the display timing has arrived (step S63; Yes), the determination unit 107 increments the value of the variable storing the value representing the intermittent time by a predetermined increment value (step S64a). ). This is to reduce the display frequency of the scheduled image as time passes.

尚、ステップS64aで用いられる間欠時間を表す値を格納した変数の値は、第3決定処理の開始時において、予め定められたインターフォン画像及びセキュリティ画像用の間欠時間の初期値を表す値で初期化される。このインターフォン画像及びセキュリティ画像用の間欠時間の初期値を表す情報と、インターフォン画像及びセキュリティ画像用のインクリメント値を表す情報は、例えば、図2のハードディスク100dに保存されている。本実施形態において、インターフォン画像及びセキュリティ画像用の間欠時間の初期値は「20」秒であり、予定画像用のデクリメント値は「10」秒であるとして説明するが、これに限定される訳ではなく、当業者は、実験により最適な値を定めることができる。   Note that the value of the variable storing the value representing the intermittent time used in step S64a is initially set to a value representing the initial value of the intermittent time for a predetermined interphone image and security image at the start of the third determination process. It becomes. The information indicating the initial value of the intermittent time for the interphone image and the security image and the information indicating the increment value for the interphone image and the security image are stored in, for example, the hard disk 100d in FIG. In this embodiment, the initial value of the intermittent time for the interphone image and the security image is “20” seconds, and the decrement value for the scheduled image is “10” seconds. However, the present invention is not limited to this. Rather, those skilled in the art can determine the optimum value by experiment.

その後、決定部107は、表示タイミングを、システム日時から上記変数の値で表される間欠時間後(又は間欠時間前)のタイミングとした後に(ステップS64b)、ステップS62に戻り上記処理を繰り返す。   Thereafter, the determination unit 107 sets the display timing to the timing after the intermittent time (or before the intermittent time) represented by the value of the variable from the system date and time (step S64b), and then returns to step S62 and repeats the above processing.

ステップS62において、決定部107は、インターフォン画像又はセキュリティ画像を所定回数表示したと判別すると(ステップS62;Yes)、図14の一時記憶部104に記憶されたインターフォン画像又はセキュリティ画像の画像情報を削除した後に第3決定処理を終了する。   In step S62, when determining unit 107 determines that the interphone image or security image has been displayed a predetermined number of times (step S62; Yes), the image information of the interphone image or security image stored in temporary storage unit 104 in FIG. 14 is deleted. After that, the third determination process is terminated.

画像表示装置100が起動すると、図14の表示部110は、図9と同様の処理を実行することで、画像情報記憶部108に記憶された複数の画像情報で表される画像の表示を開始する。この際、表示部110は、図15の決定処理で決定された表示タイミングになると、インターフォン画像又はセキュリティ画像を表示する。   When the image display apparatus 100 is activated, the display unit 110 in FIG. 14 starts displaying an image represented by a plurality of pieces of image information stored in the image information storage unit 108 by executing the same processing as in FIG. To do. At this time, the display unit 110 displays the interphone image or the security image at the display timing determined in the determination process of FIG.

これらの構成によれば、インターフォン201が来訪者を撮像してから所定時間以内又はセキュリティ装置202が侵入者を撮像してから所定時間以内に、来訪者又は侵入者を撮像した撮像画像が表示される。また、撮像画像は、撮像日時から遠ざかるにつれてより表示される頻度が低くなる。このため、撮像された来訪者又は侵入者がいる可能性の高い間は撮像画像を高頻度で表示し、来訪者又は侵入者が立ち去った可能性が高くなると撮像画像を低頻度で表示できる。   According to these configurations, a captured image of the visitor or the intruder is displayed within a predetermined time after the interphone 201 images the visitor or within a predetermined time after the security device 202 images the intruder. The In addition, the frequency with which the captured image is displayed decreases as the distance from the imaging date / time increases. For this reason, the captured image can be displayed at a high frequency while there is a high possibility that an imaged visitor or intruder is present, and the captured image can be displayed at a low frequency when the possibility that the visitor or the intruder has left is high.

(実施形態3)
次に、本発明の実施形態3について説明する。本実施形態において、画像表示装置100は、サーバから受信した受信画像をスライドショーの実行中に表示する。
(Embodiment 3)
Next, a third embodiment of the present invention will be described. In the present embodiment, the image display apparatus 100 displays the received images received from the server during the slide show.

本発明の実施形態3に係る画像表示装置100は、図16に示すような画像表示システム1を構成する。この画像表示システム1は、通信網10、画像表示装置100、及びサーバ300で構成されている。   An image display apparatus 100 according to Embodiment 3 of the present invention constitutes an image display system 1 as shown in FIG. The image display system 1 includes a communication network 10, an image display device 100, and a server 300.

サーバ300は、ユーザにアップロードされた画像(以下、アップロード画像とい)を表す画像情報を複数記憶している。サーバ300は、画像表示装置100からのリクエストに応じて、アップロード画像の画像情報を返信する。   The server 300 stores a plurality of pieces of image information representing images uploaded to the user (hereinafter referred to as uploaded images). In response to the request from the image display device 100, the server 300 returns image information of the uploaded image.

また、サーバ300は、図17に示すようなアップロード画像テーブルを記憶している。このアップロード画像テーブルには、アップロード画像を識別する情報(以下、アップロード画像IDという)と、アップロード画像の画像情報(以下、アップロード画像情報という)と、当該アップロード画像をアップロードしたユーザのユーザID(以下、アップロードユーザIDという)と、当該ユーザのポイント数を表すポイント数情報と、当該アップロード画像の評価を表す評価情報とが対応付けられて保存されている。   The server 300 stores an upload image table as shown in FIG. The upload image table includes information for identifying an upload image (hereinafter referred to as upload image ID), image information of the upload image (hereinafter referred to as upload image information), and a user ID of the user who uploaded the upload image (hereinafter referred to as upload image ID). , Referred to as upload user ID), point number information representing the number of points of the user, and evaluation information representing the evaluation of the uploaded image are stored in association with each other.

尚、ユーザのポイント数とは、例えば、サービスや商品などと交換可能なポイントの数をいう。サーバ300は、ポイント数の代わりに電子マネーの残高を表す情報を記憶していても良い。また、アップロード画像の評価は、アップロード画像の人気の高低で表される。本実施形態において、アップロード画像の人気は、アップロード画像をユーザが視認した回数が多い程高いとして説明する。   Note that the number of user points refers to, for example, the number of points that can be exchanged for services or products. The server 300 may store information representing the balance of electronic money instead of the number of points. The evaluation of the uploaded image is expressed by the popularity of the uploaded image. In the present embodiment, it is assumed that the popularity of an uploaded image is higher as the number of times the user has viewed the uploaded image is higher.

実施形態3の画像表示装置100は、図18に示すような撮像部102、情報入力部103、一時記憶部104、ユーザ検出部105、決定部107、画像情報記憶部108、情報取得部109、表示部110、及び受信部114で構成される。これらの機能部は、実施形態1及び実施形態2で説明した機能部と同様であるので重複した説明を省略する。   An image display apparatus 100 according to the third embodiment includes an imaging unit 102, an information input unit 103, a temporary storage unit 104, a user detection unit 105, a determination unit 107, an image information storage unit 108, an information acquisition unit 109, as illustrated in FIG. A display unit 110 and a reception unit 114 are included. Since these functional units are the same as the functional units described in the first and second embodiments, redundant description will be omitted.

画像表示装置100のCPU100aは、図2の無線LANカード100fと協働することで、図18の送信部115として機能する。送信部115が、サーバ300に対してアップロード画像の送信を求めるリクエストを送信すると、受信部114は、サーバ300からアップロード画像の画像情報と、当該アップロード画像のアップロード画像IDとを受信する。その後、受信部114は、システム日時を取得し、取得したシステム日時を受信日時とする。次に、受信部114は、受信された画像情報で表されるアップロード画像を受信画像とし、アップロード画像IDを、受信画像を識別する情報(以下、受信画像の画像ID)とする。   The CPU 100a of the image display device 100 functions as the transmission unit 115 in FIG. 18 by cooperating with the wireless LAN card 100f in FIG. When the transmission unit 115 transmits a request for transmitting an upload image to the server 300, the reception unit 114 receives the image information of the upload image and the upload image ID of the upload image from the server 300. Thereafter, the receiving unit 114 acquires the system date and time, and uses the acquired system date and time as the reception date and time. Next, the reception unit 114 sets the upload image represented by the received image information as the received image, and sets the upload image ID as information for identifying the received image (hereinafter, image ID of the received image).

図18の一時記憶部104は、図19に示すような受信画像テーブルを記憶する。受信画像テーブルには、受信画像の画像ID(以下、受信画像IDという)と、当該受信画像の画像情報(以下、受信画像情報という)と、当該受信画像の表示中に撮像部102で撮像した画像からユーザが検出された検出回数(以下、ユーザ検出回数という)を表す情報とが対応付けられて保存されている。   The temporary storage unit 104 in FIG. 18 stores a received image table as shown in FIG. In the received image table, an image ID of the received image (hereinafter referred to as a received image ID), image information of the received image (hereinafter referred to as received image information), and an image captured by the imaging unit 102 while the received image is displayed. Information indicating the number of times the user has been detected from the image (hereinafter referred to as the number of user detections) is stored in association with each other.

情報入力部103は、受信部114から受信画像の画像情報(以下、受信画像情報という)と、受信画像の画像ID(以下、受信画像IDという)と、受信日時を表す情報(以下、受信日時情報という)を入力する。このため、実施形態2と同様に、受信部114を画像出力部OTと称する。また、図18には、画像出力部OTと称される受信部114のみが図示されているが、画像表示装置100は、画像出力部OTと称される他の機能部を備える。   The information input unit 103 receives image information (hereinafter referred to as reception image information) from the reception unit 114, an image ID of the reception image (hereinafter referred to as reception image ID), and information indicating the reception date and time (hereinafter referred to as reception date and time). Information). For this reason, as in the second embodiment, the reception unit 114 is referred to as an image output unit OT. FIG. 18 shows only the receiving unit 114 called the image output unit OT, but the image display device 100 includes another functional unit called the image output unit OT.

次に、情報入力部103は、入力した受信画像情報と、受信画像IDと、検出回数が「0」数であることを表す情報とを、図19の受信画像テ−ブルへ一時的に保存し、受信日時情報を決定部107へ出力する。   Next, the information input unit 103 temporarily stores the input received image information, received image ID, and information indicating that the number of detections is “0” in the received image table of FIG. The reception date / time information is output to the determination unit 107.

次に、図18の決定部107は、情報入力部103から出力された受信画像の表示開始タイミングを決定する、図20に示すような第4決定処理を実行する。   Next, the determination unit 107 in FIG. 18 performs a fourth determination process as illustrated in FIG. 20 that determines the display start timing of the received image output from the information input unit 103.

図20の第4決定処理を開始すると、図18の決定部107は、図15のステップS61と同様に、情報入力部103から出力された受信日時情報で表される受信日時から、所定時間以内のタイミングを表示開始タイミングとし、この表示開始タイミングを、受信画像の次回の表示タイミングとする(ステップS71)。   When the fourth determination process of FIG. 20 is started, the determination unit 107 of FIG. 18 is within a predetermined time from the reception date and time represented by the reception date and time information output from the information input unit 103, as in step S61 of FIG. Is the display start timing, and this display start timing is the next display timing of the received image (step S71).

尚、ステップS71で用いられる所定時間を表す情報は、図2のハードディスク100dなどに予め記憶されている。本実施形態において、ステップS71で用いられる所定時間は、受信画像の表示用に予め定められた時間であり、例えば、「10」秒であるとして説明するが、これに限定される訳ではなく、当業者は、より好適な値を実験により定めることができる。   Information indicating the predetermined time used in step S71 is stored in advance in the hard disk 100d in FIG. In the present embodiment, the predetermined time used in step S71 is a predetermined time for displaying the received image, and is described as being, for example, “10” seconds, but is not limited thereto. One skilled in the art can determine more suitable values by experimentation.

ステップS71の後に、決定部107は、図15のステップS62と同様の処理を実行することで、受信画像を所定回数表示したか否かを判別する(ステップS72)。このとき、決定部107は、受信画像を所定回数表示していないと判別すると(ステップS72;No)、図15のステップS63と同様の処理を実行することで、表示タイミングが到来したか否かを判別する(ステップS73)。このとき、決定部107は、表示タイミングが到来したと判別すると(ステップS73;Yes)、図19の受信画像テーブルに保存された情報で表されるユーザ検出回数に基づいて間欠時間を決定する(ステップS74a)。具体的には、決定部107は、ユーザ検出回数が多い程間欠時間を短くする。ユーザ検出回数が多い画像程、表示頻度を高くするためである。   After step S71, the determination unit 107 determines whether the received image has been displayed a predetermined number of times by executing the same process as step S62 of FIG. 15 (step S72). At this time, if the determination unit 107 determines that the received image has not been displayed a predetermined number of times (step S72; No), it performs a process similar to step S63 in FIG. 15 to determine whether the display timing has arrived. Is determined (step S73). At this time, when the determination unit 107 determines that the display timing has arrived (step S73; Yes), the determination unit 107 determines the intermittent time based on the number of times of user detection represented by the information stored in the received image table of FIG. Step S74a). Specifically, the determination unit 107 shortens the intermittent time as the number of user detections increases. This is because an image with a larger number of user detections has a higher display frequency.

その後、決定部107は、表示タイミングを、システム日時から上記変数の値で表される間欠時間後(又は間欠時間前)のタイミングとした後に(ステップS74b)、ステップS72から上記処理を繰り返す。   Thereafter, the determination unit 107 repeats the above-described processing from step S72 after setting the display timing to the timing after the intermittent time (or before the intermittent time) represented by the value of the variable from the system date and time (step S74b).

ステップS72において、決定部107は、受信画像を所定回数表示したと判別すると(ステップS72;Yes)、図19の受信画像テーブルに保存された情報を削除した後に第4決定処理を終了する。   In step S72, when the determination unit 107 determines that the received image has been displayed a predetermined number of times (step S72; Yes), the information stored in the received image table in FIG. 19 is deleted, and the fourth determination process ends.

画像表示装置100が起動すると、図18の表示部110は、図9と同様の処理を実行することで、スライドショーの実行を開始する。この際、表示部110は、表示タイミングが到来したと判別して受信画像の表示を開始すると、ユーザ検出部105へ受信画像の表示を開始したことを表す信号(以下、受信画像表示開始信号という)を出力する。その後、表示部110は、受信画像の表示を終了すると、ユーザ検出部105へ受信画像の表示を終了したことを表す信号(以下、受信画像表示終了信号という)を出力する。   When the image display device 100 is activated, the display unit 110 in FIG. 18 starts execution of the slide show by executing the same processing as in FIG. At this time, when the display unit 110 determines that the display timing has come and starts displaying the received image, the display unit 110 starts displaying the received image on the user detection unit 105 (hereinafter referred to as a received image display start signal). ) Is output. Thereafter, when the display of the received image is finished, the display unit 110 outputs a signal indicating that the display of the received image is finished to the user detecting unit 105 (hereinafter referred to as a received image display end signal).

これらの信号を入力するユーザ検出部105は、受信画像の表示中に撮像部102が撮像した撮像画像からユーザを検出する、図21に示すようなユーザ検出処理を実行する。   The user detection unit 105 that inputs these signals executes a user detection process as shown in FIG. 21 for detecting a user from a captured image captured by the imaging unit 102 during display of a received image.

図21のユーザ検出処理が開始されると、ユーザ検出部105は、表示部110から入力した信号に基づいて受信画像の表示中か否かを判別する(ステップS81)。具体的には、ユーザ検出部105は、受信画像表示開始信号の受信から受信画像表示終了信号の受信までの間を受信画像の表示中と判別する。このとき、受信画像の表示中でないと判別すると(ステップS81;No)、ステップS81から処理を繰り返す。これに対して、受信画像の表示中であると判別すると(ステップS81;Yes)、図6のステップS13及びステップS14のユーザ領域検出処理と同様の処理を実行することで、撮像部102から撮像画像を表す画像情報を入力し(ステップS82)、入力された撮像画像からユーザ領域を検出することでユーザを検出する(ステップS83)。その後、ユーザ検出部105は、ユーザが検出されたか否かを判別し(ステップS84)、ユーザが検出されなかったと判別すると(ステップS84;No)、ステップS81から上記処理を繰り返す。これにたいして、ユーザが検出されたと判別すると(ステップS84;Yes)、図19の受信画像テーブルに保存されたユーザ検出回数情報を、当該検出回数情報で表される回数を値「1」だけインクリメントした値を表す情報に更新した後に(ステップS85)、ステップS81に戻り上記処理を繰り返す。   When the user detection process in FIG. 21 is started, the user detection unit 105 determines whether a received image is being displayed based on a signal input from the display unit 110 (step S81). Specifically, the user detection unit 105 determines that the reception image is being displayed from the reception of the reception image display start signal to the reception of the reception image display end signal. At this time, if it is determined that the received image is not being displayed (step S81; No), the processing is repeated from step S81. On the other hand, if it is determined that the received image is being displayed (step S81; Yes), the imaging unit 102 performs imaging by executing the same processing as the user area detection processing in steps S13 and S14 in FIG. Image information representing an image is input (step S82), and a user is detected by detecting a user area from the input captured image (step S83). Thereafter, the user detection unit 105 determines whether or not a user has been detected (step S84). If it is determined that a user has not been detected (step S84; No), the above processing is repeated from step S81. On the other hand, if it is determined that the user has been detected (step S84; Yes), the number of times indicated by the detection number information is incremented by the value “1” in the user detection number information stored in the received image table of FIG. After updating to the information indicating the value (step S85), the process returns to step S81 and the above processing is repeated.

図18の送信部115は、例えば、1日などの所定周期で、図19の受信画像テーブルに保存されたユーザ検出回数を表す情報と、受信画像IDとを取得した後に、取得した情報で表されるユーザ検出回数に基づいて当該受信画像IDで識別される画像の評価を決定する。具体的には、送信部115は、予め定められた閾値Th1を表す情報と閾値Th2を表す情報とを、例えば、図2のハードディスク100dから読み出し、ユーザ検出回数が「0」以上閾値Th1未満である場合に一つ星の評価と決定し、ユーザ検出回数がTh1以上から閾値Th2未満である場合に一つ星よりも評価の高いニつ星の評価と決定し、ユーザ検出回数がTh2以上である場合にニつ星よりも評価の高い三つ星の評価と決定する。その後、送信部115は、受信画像の受信画像IDと、当該受信画像の評価を表す評価情報とをサーバ300へ送信する。   The transmission unit 115 in FIG. 18 acquires the information indicating the number of times of user detection stored in the reception image table in FIG. 19 and the reception image ID in a predetermined cycle such as one day, and then displays the acquired information. The evaluation of the image identified by the received image ID is determined based on the number of times the user is detected. Specifically, the transmission unit 115 reads information representing the predetermined threshold Th1 and information representing the threshold Th2, for example, from the hard disk 100d in FIG. 2, and the number of times of user detection is “0” or more and less than the threshold Th1. In some cases, the rating is determined as one star, and when the number of user detections is greater than or equal to Th1 and less than the threshold Th2, the rating is determined as a two-star rating that is higher than one star. In some cases, a three-star rating that is higher than the two-star rating is determined. Thereafter, the transmitting unit 115 transmits the received image ID of the received image and the evaluation information indicating the evaluation of the received image to the server 300.

尚、サーバ300は、受信画像IDと、評価情報とを受信すると、図17のアップロード画像テーブルに保存された評価情報であって、受信した受信画像IDと同じアップロード画像IDに対応付けられた評価を表す評価情報を、受信された評価情報で更新する。また、サーバ300は、更新後の評価情報で表される評価が、更新前の情報で表される評価よりも高い場合には、更新前の評価と更新後の評価との差異に応じて、加算ポイント数を決定する。具体的には、サーバ300は、更新前の評価よりも更新後の評価が高い程、加算ポイント数を多く決定する。次に、サーバ300は、受信した受信画像IDと同じアップロード画像IDに対応付けられたポイント数情報を、当該ポイント数情報で表されるポイント数に対して、加算ポイント数を加算した数を表す情報に更新する。   When the server 300 receives the received image ID and the evaluation information, the server 300 receives the evaluation information stored in the upload image table of FIG. 17 and is associated with the same upload image ID as the received image ID. Is updated with the received evaluation information. Further, when the evaluation represented by the evaluation information after the update is higher than the evaluation represented by the information before the update, the server 300, depending on the difference between the evaluation before the update and the evaluation after the update, Determine the number of points to add. Specifically, the server 300 determines a larger number of addition points as the evaluation after the update is higher than the evaluation before the update. Next, the server 300 represents the number of points associated with the same upload image ID as the received received image ID by adding the number of added points to the number of points represented by the point number information. Update to information.

これらの構成によれば、サーバ300から受信した受信画像が表示されている間に撮像された撮像画像からユーザが検出された回数に基づいて決定された評価を表す情報を、当該受信画像を識別する画像識別情報(つまり、受信画像ID)とともにサーバへ送信する。このため、サーバは、送信した画像の内で評価の高い(つまり、ユーザに視認された回数の多い)画像を容易に特定できる。   According to these configurations, the information representing the evaluation determined based on the number of times the user is detected from the captured image captured while the received image received from the server 300 is displayed is identified with the received image. Image identification information (that is, received image ID) to be transmitted to the server. For this reason, the server can easily specify an image having a high evaluation (that is, a number of times viewed by the user) among the transmitted images.

これらの構成によれば、サーバ300は、アップロードされた画像の内で、画像表示装置100へ送信した画像の評価を表す評価情報を受信すると、受信した評価情報に基づいて当該画像の評価を表す評価情報を更新し、受信した情報で表される評価に基づいて当該画像をアップロードしたユーザの有するポイント数を更新する。このため、サーバ300は、評価が高いためにユーザに興味を引く画像を容易に特定できるだけでなく、評価の高い画像をアップロードする動機をユーザに与えることができる。   According to these configurations, when the server 300 receives the evaluation information representing the evaluation of the image transmitted to the image display device 100 among the uploaded images, the server 300 represents the evaluation of the image based on the received evaluation information. The evaluation information is updated, and the number of points of the user who uploaded the image is updated based on the evaluation represented by the received information. Therefore, the server 300 can easily identify an image that attracts the user because the evaluation is high, and can give the user a motivation to upload an image with a high evaluation.

本実施形態において、画像表示装置100は、所定の評価よりも高い評価を表す評価情報に対応付けられたアップロード画像の画像情報を受信する構成を採用できる。この構成によれば、画像表示装置100は、アップロードされた画像の内で、他のユーザの評価が所定の評価よりも高い評価の画像を受信し、受信された画像を表示するので、従来よりも表示される画像が単調になることを防止できる。   In the present embodiment, the image display device 100 can employ a configuration that receives image information of an uploaded image associated with evaluation information that represents an evaluation higher than a predetermined evaluation. According to this configuration, the image display apparatus 100 receives an image with an evaluation of other users higher than a predetermined evaluation among the uploaded images, and displays the received image. Can also prevent the displayed image from becoming monotonous.

(実施形態4)
次に、本発明の実施形態4について説明する。本実施形態において、画像表示装置100は、スライドショーの実行中に、ニュースを表すニュース画像又は広告を表す広告画像を表示する。
(Embodiment 4)
Next, a fourth embodiment of the present invention will be described. In the present embodiment, the image display device 100 displays a news image representing news or an advertisement image representing an advertisement during execution of a slide show.

本発明の実施形態4に係る画像表示装置100は、実施形態3の画像表示装置100と同様に、図16に示すような画像表示システム1を構成する。この画像表示システム1を構成するサーバ300は、ニュースを表すニュース画像と、当該ニュースを伝える対象とする視聴者層(以下、対象視聴者層という)を表す情報とを対応付けて記憶している。また、サーバ300は、広告を表す広告画像と、当該広告の対象とする視聴者層(同様に、対象視聴者層という)を表す視聴者層情報とを対応付けて記憶している。サーバ300は、画像表示装置100に対して、広告画像の画像情報と当該広告画像で表される広告の対象視聴者層を表す情報とを送信する。また、サーバ300は、ニュース画像の画像情報と当該ニュース画像で表されるニュースの対象視聴者層を表す情報とを送信する。   The image display apparatus 100 according to Embodiment 4 of the present invention constitutes an image display system 1 as shown in FIG. 16, similarly to the image display apparatus 100 of Embodiment 3. The server 300 constituting the image display system 1 stores a news image representing news and information representing a viewer layer (hereinafter referred to as a target viewer layer) as a target for transmitting the news in association with each other. . Further, the server 300 stores an advertisement image representing an advertisement in association with viewer layer information representing a viewer layer targeted for the advertisement (also referred to as a target viewer layer). The server 300 transmits the image information of the advertisement image and information representing the target audience layer of the advertisement represented by the advertisement image to the image display device 100. In addition, the server 300 transmits image information of the news image and information indicating the target audience of the news represented by the news image.

尚、これらの広告画像及びニュース画像は、CG(Computer Graphics)、写真、及び絵画のいずれであっても良い。また広告画像及びニュース画像は、静止画像であっても、動画映像であってもCF映像であっても良い。また、サーバ300は、無償、有償、又は所定のサービスの提供若しくは料金割引を条件として、広告画像の画像情報又はニュース画像の画像情報を送信しても良い。   These advertisement images and news images may be any of CG (Computer Graphics), photographs, and paintings. The advertisement image and the news image may be a still image, a moving image, or a CF image. Further, the server 300 may transmit the image information of the advertisement image or the image information of the news image on the condition of free of charge, for a fee, provision of a predetermined service, or discount of the fee.

さらに、視聴者層は、年齢層と性別とで区分された、「4」歳から「12」歳の男女が属するC層、「13」歳から「19」歳の男女が属するT層、「20」歳から「34」歳の女性が属するF1層、「35」歳から「49」歳の女性が属するF2層、「50」歳以上の女性が属するF3層、「20」歳から「34」歳の男性が属するM1層、「35」歳から「49」歳の男性が属するM2層、及び「50」歳以上の男性が属するM3層を含むとして説明するが、これに限定される訳ではない。   Further, the viewer group is divided into an age group and a gender, a C group to which men and women from “4” to “12” belong, a T group to which men and women from “13” to “19” belong, F1 layer to which women from 20 to 34 years old belong, F2 layer to which women from 35 to 49 years old belong, F3 layer to which women over 50 years old belong, and from “20” to “34 "M1 layer to which a man aged" belongs, M2 layer to which a man aged from "35" to "49" belongs, and M3 layer to which a man aged "50" or older belongs, but is not limited to this. is not.

実施形態4の画像表示装置100は、図22に示すような撮像部102、情報入力部103、一時記憶部104、ユーザ検出部105、ユーザ情報記憶部106、決定部107、画像情報記憶部108、情報取得部109、表示部110、及び受信部114で構成される。これらの機能部は、実施形態1から実施形態3で説明した機能部と同様であるので重複した説明を省略する。   An image display apparatus 100 according to the fourth embodiment includes an imaging unit 102, an information input unit 103, a temporary storage unit 104, a user detection unit 105, a user information storage unit 106, a determination unit 107, and an image information storage unit 108 as illustrated in FIG. , An information acquisition unit 109, a display unit 110, and a reception unit 114. Since these functional units are the same as the functional units described in the first to third embodiments, redundant description is omitted.

図22の受信部114は、サーバ300からニュース画像の画像情報又は広告画像の画像情報と、視聴者層情報とを受信する。その後、受信部114は、受信したニュース画像の画像情報又は広告画像の画像情報と、視聴者層情報とを情報入力部103へ出力する。このため、受信部114を画像出力部OTと称する。尚、図22には、画像出力部OTと称される受信部114のみが図示されているが、画像表示装置100は、実施形態1で説明した撮像部102のような画像出力部OTと称される他の機能部を備える。   22 receives the image information of the news image or the image information of the advertisement image and the audience layer information from the server 300. Thereafter, the reception unit 114 outputs the received image information of the news image or the image information of the advertisement image and the audience layer information to the information input unit 103. For this reason, the receiving unit 114 is referred to as an image output unit OT. In FIG. 22, only the receiving unit 114 called the image output unit OT is shown, but the image display device 100 is called an image output unit OT like the imaging unit 102 described in the first embodiment. Other functional units are provided.

図22の情報入力部103は、受信部114からニュース画像の画像情報又は広告画像の画像情報と、視聴者層情報とを入力する。次に、情報入力部103は、入力したニュース画像の画像情報又は広告画像の画像情報を、図22の一時記憶部104へ一時的に保存し、視聴者層情報をユーザ検出部105へ出力する。   The information input unit 103 in FIG. 22 inputs image information of a news image or image information of an advertisement image and viewer layer information from the receiving unit 114. Next, the information input unit 103 temporarily stores the input image information of the news image or the image information of the advertisement image in the temporary storage unit 104 of FIG. 22 and outputs the audience layer information to the user detection unit 105. .

図22のユーザ情報記憶部106は、図23に示すような視聴者層テーブルを記憶している。この視聴者層テーブルには、視聴者層を表す視聴者層情報と、当該視聴者層に属するユーザの年齢層を表す情報と、当該視聴者層に属するユーザの性別を表す情報と、当該視聴者層に属するユーザの特徴を表す特徴情報とが対応付けられて保存されている。   The user information storage unit 106 in FIG. 22 stores a viewer layer table as shown in FIG. The viewer layer table includes viewer layer information representing the viewer layer, information representing the age group of the user belonging to the viewer layer, information representing the gender of the user belonging to the viewer layer, and the viewing And feature information representing the features of the users belonging to the user group are stored in association with each other.

視聴者層情報を入力されるユーザ検出部105は、撮像部102が撮像した撮像画像から、当該視聴者層情報で表される視聴者層に属するユーザを検出する、図24に示すようなユーザ検出処理を実行する。   The user detection unit 105 to which viewer layer information is input detects a user belonging to the viewer layer represented by the viewer layer information from the captured image captured by the imaging unit 102, as shown in FIG. Perform detection processing.

図24の予定実行ユーザ検出処理が開始されると、ユーザ検出部105は、情報入力部103から対象視聴者層を表す情報(以下、対象視聴者層情報という)を取得する。次に、ユーザ検出部105は、図23の視聴者層テーブルから視聴者層情報に基づき特徴情報を取得する(ステップS91)。その後、ユーザ検出部105は、撮像部102から撮像画像の画像情報(つまり、撮像画像情報)を入力し(ステップS92)、入力された画像情報で表される撮像画像に対して視聴者層検出処理を実行する(ステップS93)。次に、ユーザ検出部105は、対象視聴者層のユーザを撮像画像から検出したか否かを判別する(ステップS94)。   When the scheduled execution user detection process of FIG. 24 is started, the user detection unit 105 acquires information representing the target audience group (hereinafter referred to as target audience group information) from the information input unit 103. Next, the user detection unit 105 acquires feature information from the viewer layer table of FIG. 23 based on the viewer layer information (step S91). Thereafter, the user detection unit 105 inputs image information of the captured image (that is, captured image information) from the imaging unit 102 (step S92), and detects a viewer layer for the captured image represented by the input image information. Processing is executed (step S93). Next, the user detection unit 105 determines whether or not the user of the target viewer group has been detected from the captured image (step S94).

具体的には、ユーザ検出部105は、公知のユーザ領域検出処理の実行によって、撮像画像からユーザ領域が検出されたか否かを判別する。このとき、ユーザ検出部105は、ユーザ領域が検出されなかったと判別した場合には、対象視聴者層のユーザが検出されなかったと判別する。これに対して、ユーザ検出部105は、撮像画像からユーザ領域が検出されたと判別すると、当該検出されたユーザ領域における部分画像を解析することで当該ユーザの特徴を表す特徴情報を取得する。その後、ユーザ検出部105は、図23の視聴者層テーブルから、取得した特徴情報と対応付けられた視聴者層情報を取得し、取得した視聴者層情報がステップS91で入力された視聴者層情報と一致する否かを判別する。このとき、ユーザ検出部105は、視聴者層情報が一致しないと判別すると、撮像画像から対象視聴者層のユーザが検出されなかったと判別する。これに対して、ユーザ検出部105は、視聴者層情報が一致したと判別すると、撮像画像から対象視聴者層のユーザが検出されたと判別する。   Specifically, the user detection unit 105 determines whether or not a user area has been detected from the captured image by executing a known user area detection process. At this time, if the user detection unit 105 determines that the user area has not been detected, the user detection unit 105 determines that the user of the target audience has not been detected. On the other hand, when the user detection unit 105 determines that the user area is detected from the captured image, the user detection unit 105 analyzes the partial image in the detected user area to acquire feature information representing the feature of the user. Thereafter, the user detection unit 105 acquires viewer layer information associated with the acquired feature information from the viewer layer table of FIG. 23, and the viewer layer in which the acquired viewer layer information is input in step S91. It is determined whether or not the information matches. At this time, if the user detection unit 105 determines that the audience layer information does not match, the user detection unit 105 determines that the user of the target viewer group has not been detected from the captured image. On the other hand, when the user detection unit 105 determines that the audience layer information matches, the user detection unit 105 determines that the user of the target viewer group is detected from the captured image.

ステップS94において、ユーザ検出部105は、対象視聴者層のユーザを撮像画像から検出しなかったと判別すると(ステップS94;No)、ステップS92へ戻り上記処理を繰り返す。これに対して、ユーザ検出部105は、対象視聴者層のユーザを撮像画像から検出したと判別すると(ステップS94;Yes)、図6のステップS16と同様に、ユーザの検出を決定部107へ報告した後に(ステップS95)、ステップS92に戻り上記処理を繰り返す。   In step S94, when the user detection unit 105 determines that the user of the target audience group has not been detected from the captured image (step S94; No), the user detection unit 105 returns to step S92 and repeats the above processing. On the other hand, when the user detection unit 105 determines that the user of the target viewer group has been detected from the captured image (step S94; Yes), the user detection is determined to the determination unit 107 as in step S16 of FIG. After reporting (step S95), the process returns to step S92 and the above process is repeated.

図22の情報入力部103は、受信部114から出力された広告画像又はニュース画像の表示開始タイミングを決定する、図25に示すような第5決定処理を実行する。   The information input unit 103 in FIG. 22 executes a fifth determination process as illustrated in FIG. 25 that determines the display start timing of the advertisement image or news image output from the reception unit 114.

図25の第5決定処理を開始すると、図22の決定部107は、図8のステップS21と同様に、ユーザ検出部105から対象視聴者層に属するユーザの検出を報告されたか否かを判別する(ステップS101)。このとき、決定部107は、ユーザの検出を報告されなかったと判別すると(ステップS101;No)、ステップS101に戻り上記処理を繰り返す。これに対して、決定部107は、ユーザの検出を報告されたと判別すると(ステップS101;Yes)、システム日時から所定時間以内のタイミングを表示開始タイミングとし、この表示開始タイミングをニュース画像又は広告画像の次回の表示タイミングとする(ステップS102)。   When the fifth determination process of FIG. 25 is started, the determination unit 107 of FIG. 22 determines whether or not the detection of the user belonging to the target audience is reported from the user detection unit 105, similarly to step S21 of FIG. (Step S101). At this time, if the determination unit 107 determines that the user detection is not reported (step S101; No), the determination unit 107 returns to step S101 and repeats the above processing. On the other hand, when determining that the detection of the user has been reported (step S101; Yes), the determination unit 107 sets a timing within a predetermined time from the system date and time as a display start timing, and the display start timing is a news image or an advertisement image. Next display timing (step S102).

尚、ステップS102で用いられる所定時間を表す情報は、図2のハードディスク100dなどに予め記憶されている。本実施形態において、ステップS102で用いられる所定時間は、ニュース画像及び広告画像の表示用に予め定められた時間であり、例えば、「1」秒であるとして説明するが、これに限定される訳ではなく、当業者は、より好適な値を実験により定めることができる。   Note that information representing the predetermined time used in step S102 is stored in advance in the hard disk 100d in FIG. In the present embodiment, the predetermined time used in step S102 is a predetermined time for displaying a news image and an advertisement image. For example, the predetermined time is described as being “1” seconds. However, the predetermined time is not limited thereto. Rather, those skilled in the art can determine more suitable values by experimentation.

ステップS102の後に、決定部107は、図15のステップS62と同様に、広告画像又はニュース画像を所定回数表示したか否かを判別する(ステップS103)。このとき、決定部107は、広告画像又はニュース画像が所定回数表示されていないと判別すると(ステップS103;No)、表示タイミングが到来したか否かを判別する(ステップS104)。このとき、決定部107は、表示タイミングが到来していないと判別すると(ステップS104;No)、ステップS103に戻り上記処理を繰り返す。これに対して、決定部107は、表示タイミングが到来したと判別すると(ステップS104;Yes)、間欠時間を表す値を格納した変数の値を、予め定められたインクリメント値だけインクリメントする(ステップS105a)。時間の経過とともに、広告画像又はニュース画像の表示頻度を低下させるためである。   After step S102, the determination unit 107 determines whether or not the advertisement image or the news image has been displayed a predetermined number of times as in step S62 of FIG. 15 (step S103). At this time, when determining that the advertisement image or news image is not displayed a predetermined number of times (step S103; No), the determination unit 107 determines whether or not the display timing has arrived (step S104). At this time, when the determination unit 107 determines that the display timing has not arrived (step S104; No), the determination unit 107 returns to step S103 and repeats the above processing. On the other hand, when determining that the display timing has arrived (step S104; Yes), the determination unit 107 increments the value of the variable storing the value representing the intermittent time by a predetermined increment value (step S105a). ). This is to reduce the display frequency of the advertisement image or the news image with the passage of time.

尚、ステップS105aで用いられる間欠時間を表す値を格納した変数の値は、第5決定処理の開始時において、予め定められた広告画像及びニュース画像用の間欠時間の初期値を表す値で初期化される。この広告画像及びニュース画像用の間欠時間の初期値を表す情報と、広告画像及びニュース画像用のインクリメント値を表す情報は、例えば、図2のハードディスク100dに保存されている。本実施形態において、広告画像及びニュース画像用の間欠時間の初期値は「10」分であり、予定画像用のデクリメント値は「5」分であるとして説明するが、これに限定される訳ではなく、当業者は、実験により最適な値を定めることができる。   Note that the value of the variable storing the value representing the intermittent time used in step S105a is initially set to a value representing the initial value of the predetermined intermittent time for advertisement images and news images at the start of the fifth determination process. It becomes. The information indicating the initial value of the intermittent time for the advertisement image and the news image and the information indicating the increment value for the advertisement image and the news image are stored, for example, in the hard disk 100d in FIG. In this embodiment, the initial value of the intermittent time for the advertisement image and the news image is “10”, and the decrement value for the scheduled image is “5”. However, the present invention is not limited to this. Rather, those skilled in the art can determine the optimum value by experiment.

その後、決定部107は、表示タイミングを、システム日時から上記変数の値で表される間欠時間後(又は間欠時間前)のタイミングとした後に(ステップS105b)、ステップS103に戻り上記処理を繰り返す。   Thereafter, the determination unit 107 sets the display timing to the timing after the intermittent time (or before the intermittent time) represented by the value of the variable from the system date and time (step S105b), and then returns to step S103 and repeats the above processing.

ステップS103において、決定部107は、広告画像又はニュース画像を所定回数表示したと判別すると(ステップS103;Yes)、図22の一時記憶部104に記憶されたニュース画像又は広告画像の画像情報を削除した後に第5決定処理を終了する。   In step S103, when the determination unit 107 determines that the advertisement image or news image has been displayed a predetermined number of times (step S103; Yes), the image information of the news image or advertisement image stored in the temporary storage unit 104 of FIG. 22 is deleted. After that, the fifth determination process is terminated.

図22の表示部110は、画像情報記憶部108に記憶された画像情報で表される画像であって、スライドショーの対象とされた画像を順次表示するスライドショーを実行する間、表示タイミングが到来すると、当該スライドショーの対象とされた画像の上に、広告画像又はニュース画像を構成する文字画像又はキャラクタ画像を合成された合成画像を表示する。この合成画像は、例えば、時刻表示のように、スライドショーの対象とされた画像の左上若しくは右上に文字画像又はキャラクタ画像を合成した画像、又は、例えば、字幕表示のようにスライドショーの対象とされた画像の下側に文字画像又はキャラクタ画像を合成した画像であって良い。   The display unit 110 in FIG. 22 is an image represented by the image information stored in the image information storage unit 108, and when the display timing comes during execution of the slide show that sequentially displays the images targeted for the slide show. The synthesized image obtained by synthesizing the character image or the character image constituting the advertisement image or the news image is displayed on the image to be the target of the slide show. This synthesized image is, for example, an image obtained by synthesizing a character image or a character image on the upper left or upper right of an image targeted for a slide show, such as a time display, or, for example, a slide show, such as a caption display. It may be an image obtained by synthesizing a character image or a character image below the image.

これらの構成によれば、広告画像で表される広告の対象とされる視聴者層又はニュース画像で表されるニュースの対象とされる視聴者層が撮像画像から検出されると広告画像又はニュース画像が表示される。このため、広告の対象とされたユーザ又はニュースを伝える対象とされたユーザに対して従来よりも確実に広告できる又はニュースを伝えることができる一方で、当該対象とされていないユーザに対して広告したり、ニュースを伝えたりすることを従来よりも防止できる。また、広告画像又はニュース画像の表示回数が少ないほど、表示頻度が高くなるので、ユーザが見慣れていない広告画像又はニュース画像を優先的に表示できるため、ユーザに対して新鮮味を与えたり、効率的に広告したり、ユーザが知らないニュースを優先的に伝えたりできる。さらに、画像が表示される方向にユーザが位置すれば、ユーザを対象とする広告画像やニュース画像が表示されるので、表示される画像を見る動機をユーザに与えることができる。   According to these configurations, when the viewer layer targeted for the advertisement represented by the advertisement image or the viewer layer targeted for the news represented by the news image is detected from the captured image, the advertisement image or news An image is displayed. For this reason, while being able to advertise more reliably or communicate news to users who are targeted for advertisement or users who are to be notified of news, it is possible to advertise to users who are not targeted. And transmitting news can be prevented more than before. In addition, since the display frequency increases as the number of display times of the advertisement image or news image decreases, it is possible to preferentially display the advertisement image or news image that the user is not familiar with. Can be advertised and news that the user does not know can be preferentially communicated. Furthermore, if the user is positioned in the direction in which the image is displayed, an advertisement image or a news image targeted for the user is displayed, so that the user can be motivated to view the displayed image.

尚、画像表示装置100は、例えば、電源OFFの状態であっても、サーバからニュース画像又は広告画像の定期的な配信又はプッシュ受信が行われると、自動的に電源ONの状態に遷移した後に、ニュース画像又は広告画像を間欠的に表示するスライドショーを開始しても良い。また、サーバ300は、アップロード画像をアップロードしたユーザが使用する端末装置へ、当該アップロード画像の評価情報又は当該ユーザのポイント数情報を送信しても良い。   For example, even when the image display device 100 is in a power-off state, if a news image or an advertisement image is periodically distributed or received by a push from a server, the image display device 100 automatically transitions to a power-on state. A slide show that intermittently displays news images or advertisement images may be started. Further, the server 300 may transmit evaluation information of the uploaded image or point number information of the user to a terminal device used by the user who uploaded the uploaded image.

(実施形態5)
次に、本発明の実施形態5について説明する。本実施形態において、画像表示装置100は、スライドショーの実行中に、アプリケーションプログラムの実行により生成されたアプリケーション画像を表示する。
(Embodiment 5)
Next, a fifth embodiment of the present invention will be described. In the present embodiment, the image display apparatus 100 displays an application image generated by executing an application program during a slide show.

本発明の実施形態5に係る画像表示装置100は、実施形態3の画像表示装置100と同様に、図16に示すような画像表示システム1を構成する。この画像表示システム1を構成するサーバ300は、ユーザにアップロードされたアプリケーションプログラム(以下単に、アプリという)を記憶している。サーバ300は、画像表示装置100からのリクエストに応じて、アプリケーションプログラムを返信する。   An image display device 100 according to Embodiment 5 of the present invention constitutes an image display system 1 as shown in FIG. 16, similarly to the image display device 100 of Embodiment 3. The server 300 constituting the image display system 1 stores an application program (hereinafter simply referred to as an application) uploaded to the user. The server 300 returns an application program in response to a request from the image display device 100.

また、サーバ300は、図26に示すようなアプリケーションテーブルを記憶している。このアプリケーションテーブルには、アプリ(つまり、アプリケーションプログラム)と、当該アプリを識別する情報(以下、アプリケーションIDという)と、当該アプリの機能を拡張するデータ(以下、拡張データという)と、当該アプリをアップロードしたユーザのユーザID(以下、アップロードユーザIDという)と、当該ユーザのポイント数を表すポイント数情報と、当該アプリの評価を表す評価情報とが対応付けられて保存されている。   The server 300 stores an application table as shown in FIG. The application table includes an application (that is, an application program), information for identifying the application (hereinafter referred to as an application ID), data for expanding the function of the application (hereinafter referred to as extension data), and the application. A user ID of the uploaded user (hereinafter referred to as an upload user ID), point number information indicating the number of points of the user, and evaluation information indicating the evaluation of the application are stored in association with each other.

尚、サーバ300が記憶するアプリは、例えば、フォトフレームの額縁を表示するプログラム、カレンダーを表示するプログラム、時計を表示するプログラム、及び伝言掲示板を表示及び編集するプログラムを含む。また、サーバ300が記憶するアプリは、例えば、クイズを表示した後に回答を入力してから正否を表示するプログラム、仮想ペットの育成プログラム、人形遊びのプログラム、及び住宅若しくは庭園造りのプログラムなど遊技ゲームのプログラムを含む。   The application stored in the server 300 includes, for example, a program that displays a frame of a photo frame, a program that displays a calendar, a program that displays a clock, and a program that displays and edits a message bulletin board. The application stored in the server 300 is a game game such as a program for displaying correctness after displaying an answer after displaying a quiz, a virtual pet training program, a doll play program, and a house or garden building program, for example. Including programs.

また、アプリの拡張データは、当該アプリの実行により生成される画像(以下、アプリケーション画像という)の表示態様を変更するデータを含む。具体的には、フォトフレームの額縁を表示するプログラムの拡張データは、フォトフレームの額縁の種類を拡張する(つまり、増やす)データを含み、カレンダー又は時計を表示するプログラムの拡張データは、カレンダー若しくは時計のデザイン又は背景画像の種類を増やすデータを含む。さらに、クイズを表示などするプログラムの拡張データは、クイズ数(つまり、問題数)を増やすデータを含み、仮想ペットの育成プログラム又は人形遊びのプログラムの拡張データは、仮想ペット又は仮想人形の着替え衣装、ヘアスタイル、アクセサリ、若しくは持ち物具の種類を増やすデータを含む。またさらに、住宅若しくは庭園造りのプログラムの拡張データは、家具の種類又は庭園のエクステリア若しくは植物の種類を増やすデータを含む。   Further, the extension data of the application includes data for changing a display mode of an image generated by executing the application (hereinafter referred to as an application image). Specifically, the extended data of the program that displays the frame of the photo frame includes data that expands (that is, increases) the type of the frame of the photo frame, and the extended data of the program that displays the calendar or the clock includes Includes data to increase the design of the watch or the type of background image. Further, the extended data of the program for displaying the quiz includes data for increasing the number of quizzes (that is, the number of problems), and the extended data of the virtual pet training program or the doll play program is a virtual pet or virtual doll dressing costume. , Data to increase the type of hairstyles, accessories, or belongings. Still further, the extended data for the housing or gardening program includes data that increases the type of furniture or garden exterior or plant type.

実施形態5の画像表示装置100は、図27に示すような撮像部102、情報入力部103、一時記憶部104、ユーザ検出部105、決定部107、画像情報記憶部108、情報取得部109、表示部110、受信部114、送信部115で構成される。これらの機能部は、実施形態1から実施形態4で説明した機能部と同様であるので重複した説明を省略する。   The image display apparatus 100 according to the fifth embodiment includes an imaging unit 102, an information input unit 103, a temporary storage unit 104, a user detection unit 105, a determination unit 107, an image information storage unit 108, an information acquisition unit 109, as illustrated in FIG. A display unit 110, a reception unit 114, and a transmission unit 115 are included. Since these functional units are the same as the functional units described in the first to fourth embodiments, a duplicate description is omitted.

図27の送信部115が、サーバ300に対してアプリの送信を求めるリクエストを送信すると、受信部114は、サーバ300からアプリ及び当該アプリのアプリケーションIDを受信する。その後、受信部114は、受信したアプリとアプリケーションIDとをアプリケーション画像生成部116へ出力する。   When the transmission unit 115 in FIG. 27 transmits a request for transmission of an application to the server 300, the reception unit 114 receives the application and the application ID of the application from the server 300. Thereafter, the reception unit 114 outputs the received application and application ID to the application image generation unit 116.

画像表示装置100のCPU100aは、受信部114で受信されたアプリを実行することで、図27のアプリケーション画像生成部116として機能する。アプリケーション画像生成部116は、出力されたアプリを実行によりアプリケーション画像を生成し、生成したアプリケーション画像を表す画像情報と、当該アプリのアプリケーションIDとを情報入力部103へ出力する。このため、アプリケーション画像生成部116は、画像出力部OTと称される。尚、図27には、アプリケーション画像生成部116だけでなく、同じく画像出力部OTと称される受信部114及び撮像部102も図示されているが、画像表示装置100は、画像出力部OTと称される他の機能部をさらに備える。   The CPU 100a of the image display device 100 functions as the application image generation unit 116 in FIG. 27 by executing the application received by the reception unit 114. The application image generation unit 116 generates an application image by executing the output application, and outputs image information representing the generated application image and the application ID of the application to the information input unit 103. For this reason, the application image generation unit 116 is referred to as an image output unit OT. In FIG. 27, not only the application image generation unit 116 but also a reception unit 114 and an imaging unit 102, which are also referred to as an image output unit OT, are illustrated. However, the image display apparatus 100 includes an image output unit OT. It is further provided with other functional parts called.

一時記憶部104は、図28に示すようなアプリーション画像テーブルを記憶する。アプリーション画像テーブルには、アプリケーションIDと、アプリケーション画像の画像情報(以下、アプリケーション画像情報という)と、表示態様を変更されたアプリケーション画像(以下、変更画像という)の画像情報(以下、変更画像情報という)と、当該変更画像の表示中に撮像部102で撮像した画像からユーザが検出された検出回数(つまり、ユーザ検出回数)を表す情報とが対応付けられて保存されている。   The temporary storage unit 104 stores an application image table as shown in FIG. The application image table includes an application ID, image information of the application image (hereinafter referred to as application image information), and image information of the application image whose display mode has been changed (hereinafter referred to as changed image) (hereinafter referred to as changed image information). And information indicating the number of detections of the user detected from the image captured by the imaging unit 102 during the display of the changed image (that is, the number of times of user detection) are stored in association with each other.

情報入力部103は、アプリケーション画像生成部116からアプリケーション画像情報と、アプリケーションIDとを入力する。次に、情報入力部103は、入力したアプリケーション画像情報と、アプリケーションIDと、検出回数が「0」数であることを表す情報とを、図28のアプリケーション画像テ−ブルへ一時的に保存する。   The information input unit 103 inputs application image information and an application ID from the application image generation unit 116. Next, the information input unit 103 temporarily stores the input application image information, application ID, and information indicating that the number of detections is “0” in the application image table of FIG. .

ユーザ検出部105は、図21のユーザ検出処理と同様の処理を実行することで、アプリケーション画像の表示中に撮像部101で撮像された画像からユーザを検出し、図28のアプリケーション画像テーブルに保存されたユーザ検出回数を表す情報を、当該情報で表されるユーザ検出回数を値「1」インクリメントした回数を表す情報に更新する。   The user detection unit 105 detects the user from the image captured by the imaging unit 101 during the display of the application image by executing the same process as the user detection process of FIG. 21, and stores it in the application image table of FIG. The updated information indicating the number of times of user detection is updated to information indicating the number of times that the number of times of user detection indicated by the information is incremented by “1”.

情報入力部103は、アプリケーション画像生成部116からアプリケーション画像情報を入力すると、システム日時を取得し、取得したシステム日時をアプリケーション画像の入力日時とする。その後、情報入力部103は、入力日時を表す入力日時情報を決定部107へ出力する。   When the application image information is input from the application image generation unit 116, the information input unit 103 acquires the system date and time, and sets the acquired system date and time as the input date and time of the application image. Thereafter, the information input unit 103 outputs input date / time information representing the input date / time to the determination unit 107.

決定部107は、不図示の第6決定処理を実行する。第6決定処理を開始すると、決定部107は、情報入力部103から入力された入力日時情報で表される入力日時から所定時間以内のタイミングを、アプリケーション画像の表示開始タイミングとし、この表示開始タイミングを、アプリケーション画像の次回の表示タイミングとする。その後、図20のステップ72からステップ74bの処理を実行した後に、第6決定処理の実行を終了する。   The determination unit 107 executes a sixth determination process (not shown). When the sixth determination process is started, the determination unit 107 sets the timing within the predetermined time from the input date and time represented by the input date and time information input from the information input unit 103 as the display start timing of the application image. Is the next display timing of the application image. Then, after executing the processing from step 72 to step 74b in FIG. 20, the execution of the sixth determination processing is terminated.

尚、第6決定処理で用いられる所定時間を表す情報は、図2のハードディスク100dなどに予め記憶されている。本実施形態において、第6決定処理で用いられる所定時間は、アプリケーション画像の表示用に予め定められた時間であり、例えば、「1」秒であるとして説明するが、これに限定される訳ではなく、当業者は、より好適な値を実験により定めることができる。   Information representing a predetermined time used in the sixth determination process is stored in advance in the hard disk 100d in FIG. In the present embodiment, the predetermined time used in the sixth determination process is a predetermined time for displaying the application image, and is described as being, for example, “1” seconds, but is not limited thereto. Rather, those skilled in the art can determine a more suitable value by experimentation.

図27の送信部115は、例えば、1日などの所定周期で、図28のアプリケーション画像テーブルに保存されたユーザ検出回数を表す情報と、アプリケーション画像IDとを取得した後に、取得した情報で表されるユーザ検出回数に基づいて当該アプリケーションIDで識別されるアプリの評価を決定する。その後、送信部115は、アプリケーションIDと、当該決定された評価を表す評価情報とをサーバ300へ送信する。   27 obtains the information indicating the number of times of user detection stored in the application image table in FIG. 28 and the application image ID in a predetermined cycle such as one day, and then displays the obtained information. The evaluation of the application identified by the application ID is determined based on the number of user detections performed. Thereafter, the transmission unit 115 transmits the application ID and evaluation information representing the determined evaluation to the server 300.

サーバ300は、アプリケーションIDと、評価情報とを受信すると、受信したアプリケーションIDに対応付けられた評価情報を、受信された評価情報で更新し、更新前の評価と更新後の評価との差異に応じて加算ポイント数を決定する。次に、サーバ300は、受信したアプリケーションIDに対応付けられたポイント数情報を、当該ポイント数情報で表されるポイント数に対して、加算ポイント数を加算した数を表す情報に更新する。   When the server 300 receives the application ID and the evaluation information, the server 300 updates the evaluation information associated with the received application ID with the received evaluation information, and determines the difference between the evaluation before the update and the evaluation after the update. The number of points to be added is determined accordingly. Next, the server 300 updates the point number information associated with the received application ID to information representing the number obtained by adding the added point number to the point number represented by the point number information.

また送信部115は、所定周期で、又はユーザに操作された図2の操作ボタン100iから出力された信号に応じて、サーバ300に対して拡張データの送信を依頼するリクエストを送信する。具体的には、送信部115は、図28のアプリケーション画像テーブルから、所定回数より大きいユーザ検出回数を表す情報を検索し、検索された情報に対応付けられたアプリケーションIDを取得する。次に、送信部115は、取得したアプリケーションIDと、当該アプリケーションIDで識別されるアプリの拡張データの送信を依頼するリクエストとをサーバ300へ送信する。   Further, the transmission unit 115 transmits a request for requesting transmission of extension data to the server 300 in a predetermined cycle or in response to a signal output from the operation button 100i of FIG. 2 operated by the user. Specifically, the transmission unit 115 searches the application image table of FIG. 28 for information indicating the number of times of user detection greater than a predetermined number of times, and acquires an application ID associated with the searched information. Next, the transmission unit 115 transmits the acquired application ID and a request for requesting transmission of extension data of the application identified by the application ID to the server 300.

サーバ300は、アプリケーションIDとリクエストとを画像表示装置100から受信すると、受信したアプリケーションIDに対応付けられた拡張データを、図26のアプリケーションテーブルから検索し、検索された拡張データとアプリケーションIDとを画像表示装置100へ返信する。   When the server 300 receives the application ID and the request from the image display apparatus 100, the server 300 searches the application table in FIG. 26 for extension data associated with the received application ID, and uses the searched extension data and application ID. It returns to the image display apparatus 100.

画像表示装置100の受信部114は、拡張データを受信すると、受信した拡張データをアプリケーション画像生成部116へ出力する。アプリケーション画像生成部116は、出力された拡張データを用いてアプリケーションを実行することで、拡張データを用いずに生成されたアプリケーション画像の表示態様と異なる態様のアプリケーション画像を生成する。具体的には、フォトフレームの額縁を表示するアプリケーションプログラム(つまり、アプリ)を、拡張データを用いて実行することで、拡張データを用いずに生成された額縁を表す画像よりも立派な額縁を表す画像に変更する。また、アプリケーション画像生成部116は、拡張データで新たに追加された種類の額縁の内で、ユーザに選択された額縁を、図2の操作ボタン100iから出力された信号に基づいて特定し、特定した額縁を表す画像を生成してもよい。   When receiving the extension data, the reception unit 114 of the image display apparatus 100 outputs the received extension data to the application image generation unit 116. The application image generation unit 116 generates an application image having a mode different from the display mode of the application image generated without using the extended data by executing the application using the output extended data. Specifically, by executing an application program (that is, an application) that displays a frame of a photo frame using the extended data, a frame that is more excellent than an image that represents a frame generated without using the extended data. Change the image to represent. Further, the application image generation unit 116 identifies the frame selected by the user from among the types of frames newly added in the extended data based on the signal output from the operation button 100i in FIG. An image representing the framed image may be generated.

同様に、アプリケーション画像生成部116は、拡張データで新たに追加されたデザインであって、ユーザに選択されたカレンダー若しくは時計を表すアプリケーション画像を生成しても良いし、拡張データで新たに追加された衣装であって、ユーザに選択された衣装を着た仮想ペット又は仮想人形を表すアプリケーション画像を生成しても良い。   Similarly, the application image generation unit 116 may newly generate an application image representing a calendar or a clock selected by the user, which is a design newly added with the extended data, or may be newly added with the extended data. An application image representing a virtual pet or virtual doll wearing the costume selected by the user may be generated.

アプリケーション画像生成部116は、拡張データを用いて生成されたアプリケーション画像(つまり、変更画像)の画像情報を、アプリケーションIDともに情報入力部103へ出力する。情報入力部103は、アプリケーション画像生成部116からアプリケーションIDと、変更画像の画像情報(つまり、変更画像情報)とを入力し、入力したアプリケーションIDと、変更画像情報とを、図28のアプリケーション画像テーブルへ対応付けて保存する。   The application image generation unit 116 outputs the image information of the application image (that is, the changed image) generated using the extension data to the information input unit 103 together with the application ID. The information input unit 103 inputs the application ID and the image information of the changed image (that is, the changed image information) from the application image generation unit 116, and the input application ID and the changed image information are input to the application image shown in FIG. Save it in association with the table.

図27の表示部110は、画像情報記憶部108に記憶された画像情報で表される画像であって、スライドショーの対象とされた画像を順次表示するスライドショーを実行する。表示部110は、スライドショーを実行する間、表示タイミングが到来すると、図28のアプリケーション画像テーブルに変更画像情報が保存されている場合には、変更画像情報で表される変更画像を表示し、変更画像情報が保存されていない場合には、アプリケーション画像情報で表される変更前のアプリケーション画像を表示する。表示部110は、変更前のアプリケーション画像及び変更後のアプリケーション画像(つまり、変更画像)を、スライドショーの対象とされた画像とは別個に表示しても良いし、スライドショーの対象とされた画像の上に、アプリケーション画像を合成された合成画像を表示しても良い。   The display unit 110 in FIG. 27 executes a slide show that sequentially displays images that are images represented by the image information stored in the image information storage unit 108 and that are targeted for the slide show. When the display timing comes during execution of the slide show, the display unit 110 displays the changed image represented by the changed image information when the changed image information is stored in the application image table of FIG. When the image information is not stored, the application image before change represented by the application image information is displayed. The display unit 110 may display the application image before the change and the application image after the change (that is, the changed image) separately from the image that is the target of the slide show, or the image that is the target of the slide show. In addition, a composite image obtained by combining the application images may be displayed.

これらの構成によれば、アプリケーション画像が表示される間に撮像された撮像画像からユーザが検出された回数に応じてアプリケーション画像の表示態様を変更し、変更された表示態様でアプリケーション画像を表示する。このため、ユーザがアプリケーション画像を視認するとアプリケーション画像の表示態様が変更されることがあるため、表示される画像が単調になることを従来よりも防止できるだけでなく、表示されるアプリケーション画像を見る動機をユーザに与えることができる。   According to these configurations, the display mode of the application image is changed according to the number of times the user is detected from the captured image captured while the application image is displayed, and the application image is displayed in the changed display mode. . For this reason, since the display mode of the application image may be changed when the user visually recognizes the application image, it is possible not only to prevent the displayed image from becoming monotonous but also to motivate the user to view the displayed application image. Can be given to the user.

本発明の実施形態1から5は、それぞれ互いに組み合わせることができる。
尚、実施形態1から5に係る機能を実現するための構成を予め備えた画像表示装置100として提供できることはもとより、プログラムの適用により、既存の画像表示装置を実施形態1から5に係る画像表示装置100として機能させることもできる。すなわち、実施形態1から5で例示した画像表示装置100による各機能構成を実現させるための画像表示プログラムを、既存の画像表示装置を制御するコンピュータ(CPUなど)が実行できるように適用することで、実施形態1から5に係る画像表示装置100として機能させることができる。
Embodiments 1 to 5 of the present invention can be combined with each other.
It should be noted that the image display apparatus 100 having the configuration for realizing the functions according to the first to fifth embodiments can be provided in advance, and an existing image display apparatus according to the first to fifth embodiments can be displayed by applying a program. It can also function as the device 100. That is, by applying an image display program for realizing each functional configuration by the image display apparatus 100 exemplified in the first to fifth embodiments so that a computer (CPU or the like) that controls the existing image display apparatus can be executed. The image display device 100 according to the first to fifth embodiments can be made to function.

このようなプログラムの配布方法は任意であり、例えば、メモリカード、CD−ROM、又はDVD−ROMなどの記録媒体に格納して配布できる他、インタネットなどの通信媒体を介して配布することもできる。   Such a program distribution method is arbitrary. For example, the program can be distributed by being stored in a recording medium such as a memory card, a CD-ROM, or a DVD-ROM, or via a communication medium such as the Internet. .

また、本発明は、本発明の広義の精神と範囲を逸脱することなく、様々な実施形態及び変形が可能とされるものである。つまり、本発明のいくつかの実施形態を説明したが、上述した実施形態は本発明を説明するためのものであり、本発明の範囲を限定するものではない。本発明の範囲は、実施形態ではなく、特許請求の範囲に記載された発明とその均等の範囲を含む。
以下に本願出願の当初の特許請求の範囲に記載された発明を付記する。
Various embodiments and modifications of the present invention are possible without departing from the broad spirit and scope of the present invention. That is, although several embodiments of the present invention have been described, the above-described embodiments are for explaining the present invention and do not limit the scope of the present invention. The scope of the present invention includes the invention described in the scope of claims and its equivalents, not the embodiments.
The invention described in the scope of claims of the present application is appended below.

(付記1)
画像の第一画像情報を記憶する画像情報記憶部と、
前記画像情報記憶部から、前記第一画像情報を取得する情報取得部と、
前記第一画像情報と異なる第二画像情報を出力する画像出力部と、
前記画像出力部から出力された前記第二画像情報を入力する情報入力部と、
前記情報入力部が入力した前記第二画像情報で表される画像の表示が開始される表示開始タイミングを決定する決定部と、
前記情報取得部で取得された前記第一画像情報で表される前記画像を表示するタイミングの前及び後の少なくとも一方である、前記決定部で決定された表示開始タイミングになると、前記情報入力部で入力された前記第二画像情報で表される画像を表示する表示部と、を備える、
ことを特徴とする画像表示装置。
(Appendix 1)
An image information storage unit for storing first image information of the image;
An information acquisition unit for acquiring the first image information from the image information storage unit;
An image output unit for outputting second image information different from the first image information;
An information input unit for inputting the second image information output from the image output unit;
A determination unit that determines a display start timing at which display of an image represented by the second image information input by the information input unit is started;
When the display start timing determined by the determination unit is at least one of before and after the timing of displaying the image represented by the first image information acquired by the information acquisition unit, the information input unit A display unit for displaying an image represented by the second image information input in
An image display device characterized by that.

(付記2)
前記画像出力部は、前記表示部の表示方向に向けて撮像する撮像部を備え、
前記第二画像情報は、前記撮像部が撮像した撮像画像を表す情報を含むことを特徴とする付記1に記載の画像表示装置。
(Appendix 2)
The image output unit includes an imaging unit that captures an image in the display direction of the display unit,
The image display apparatus according to appendix 1, wherein the second image information includes information representing a captured image captured by the imaging unit.

(付記3)
前記撮像画像からユーザを検出するユーザ検出部をさらに備え、
前記情報入力部は、前記第二画像情報と、前記第二画像情報で表される画像を表示する表示先として指定されたユーザを識別するユーザ識別情報と、を入力し、
前記ユーザ検出部は、前記情報入力部で入力されたユーザ識別情報で識別されるユーザを前記撮像画像から検出し、
前記決定部は、前記ユーザ検出部が前記ユーザ識別情報で識別されるユーザを検出してから所定時間以内のタイミングを、前記表示開始タイミングとする、
ことを特徴とする付記2に記載の画像表示装置。
(Appendix 3)
A user detection unit for detecting a user from the captured image;
The information input unit inputs the second image information and user identification information for identifying a user designated as a display destination for displaying the image represented by the second image information,
The user detection unit detects a user identified by the user identification information input by the information input unit from the captured image,
The determination unit sets a timing within a predetermined time after the user detection unit detects a user identified by the user identification information as the display start timing.
The image display device as set forth in appendix 2, wherein:

(付記4)
前記画像出力部は、前記撮像部が撮像を行う間、伝言音声を収集する音声収集部をさらに備え、
前記情報入力部は、前記音声収集部が収集した音声を表す音声情報と、前記音声が収集されている間において撮像された前記撮像画像表す情報を含む前記第二画像情報と、を入力し、
前記情報入力部が入力するユーザ識別情報で識別されるユーザは、前記音声を聞かせる相手として指定されたユーザでもあり、
前記決定部は、前記音声を聞かせる相手として指定されたユーザが検出されてから所定時間以内のタイミングを、前記音声が収集されている間において撮像された前記撮像画像の表示開始タイミングとし、
前記音声が収集されている間において前記撮像された撮像画像が前記表示部で表示されている間、前記情報入力部で入力された音声情報で表される音声を出力する音声出力部をさらに備える、
ことを特徴とする付記2又は3に記載の画像表示装置。
(Appendix 4)
The image output unit further includes a voice collection unit that collects a message voice while the imaging unit performs imaging,
The information input unit inputs sound information representing the sound collected by the sound collection unit, and the second image information including the information representing the captured image captured while the sound is collected,
The user identified by the user identification information input by the information input unit is also a user designated as a partner to hear the voice,
The determination unit sets a timing within a predetermined time after a user designated as a partner to hear the sound is detected as a display start timing of the captured image captured while the sound is collected,
A voice output unit that outputs a voice represented by the voice information input by the information input unit while the captured image is displayed on the display unit while the voice is collected is further provided. ,
The image display device according to appendix 2 or 3, characterized by the above.

(付記5)
ユーザを識別するユーザ識別情報と、当該ユーザの予定を表す予定情報と、当該予定の開始日時を表す開始日時情報と、を対応付けて記憶する予定情報記憶部を備え、
前記画像出力部は、前記予定情報記憶部に記憶された予定情報で表される予定を表す予定画像を生成する予定画像生成部をさらに備え、
前記情報入力部は、前記予定情報記憶部から、当該予定を実行するユーザのユーザ識別情報と、当該予定の開始日時を表す開始日時情報と、を入力し、前記予定画像生成部から、当該予定を表す予定画像の画像情報を入力し、
前記決定部は、前記予定の開始日時から第一時間前までのタイミングであって、前記撮像画像から前記予定を実行するユーザが検出されてから第二時間以内のタイミングを前記予定画像の表示開始タイミングとし、前記予定画像を表示する頻度を、前記予定画像の表示日時が前記予定の開始日時よりも前であり、当該表示日時が当該予定の開始日時に近いほど高く決定する、
ことを特徴とする付記2又は3に記載の画像表示装置。
(Appendix 5)
A schedule information storage unit that stores user identification information for identifying a user, schedule information that represents the schedule of the user, and start date and time information that represents the start date and time of the schedule,
The image output unit further includes a schedule image generation unit that generates a schedule image representing a schedule represented by the schedule information stored in the schedule information storage unit,
The information input unit inputs, from the schedule information storage unit, user identification information of a user who executes the schedule and start date / time information indicating a start date / time of the schedule, and receives the schedule from the schedule image generation unit. Enter the image information of the scheduled image that represents
The determination unit is a timing from the start date and time of the schedule to a first time before, and a timing within a second time after the user who executes the schedule is detected from the captured image starts to display the schedule image The timing and the frequency of displaying the schedule image are determined such that the display date and time of the schedule image is earlier than the start date and time of the schedule, and the display date and time is closer to the start date and time of the schedule.
The image display device according to appendix 2 or 3, characterized by the above.

(付記6)
前記情報入力部は、インターフォン又は防犯装置から、前記インターフォン又は前記防犯装置が撮像した撮像画像を表す画像情報を入力し、
前記決定部は、前記撮像画像の表示開始タイミングを、前記情報入力部で入力された撮像日時情報で表される撮像日時から所定時間以内のタイミングとし、前記表示部による前記撮像画像の表示日時が、前記情報入力部で入力された撮像日時情報で表される撮像日時から遠くなるほど当該撮像画像が表示される頻度を低く決定する、
ことを特徴とする付記1に記載の画像表示装置。
(Appendix 6)
The information input unit inputs image information representing a captured image captured by the interphone or the security device from the interphone or the security device,
The determination unit sets the display start timing of the captured image as a timing within a predetermined time from the imaging date and time represented by the imaging date and time information input by the information input unit, and the display date and time of the captured image by the display unit is The frequency with which the captured image is displayed decreases as the distance from the imaging date / time represented by the imaging date / time information input by the information input unit increases.
The image display device according to appendix 1, wherein

(付記7)
前記画像出力部は、前記表示部の表示方向に向けて撮像する撮像部を備え、
前記撮像部が撮像した撮像画像に表されたユーザを検出するユーザ検出部と、をさらに備え、
前記情報入力部は、サーバから受信された画像情報と、前記画像情報を識別する画像識別情報とを入力し、
前記表示部が前記受信画像を表示している間に前記撮像部で撮像された撮像画像から前記ユーザ検出部がユーザを検出した検出回数に基づいて当該受信画像の評価を決定し、当該決定された評価を表す評価情報と、前記受信画像を識別する画像識別情報と、を前記サーバへ送信する送信部をさらに備え、
前記決定部は、前記検出回数が高いほど前記受信画像が表示される頻度を高く決定する、
ことを特徴とする付記1に記載の画像表示装置。
(Appendix 7)
The image output unit includes an imaging unit that captures an image in the display direction of the display unit,
A user detection unit that detects a user represented in the captured image captured by the imaging unit;
The information input unit inputs image information received from a server and image identification information for identifying the image information,
An evaluation of the received image is determined based on the number of times the user detection unit has detected the user from the captured image captured by the imaging unit while the display unit is displaying the received image. A transmission unit that transmits the evaluation information indicating the evaluation and the image identification information for identifying the received image to the server;
The determination unit determines the frequency with which the received image is displayed higher as the number of detections is higher.
The image display device according to appendix 1, wherein

(付記8)
コンピュータを、
画像の第一画像情報を記憶する画像情報記憶部、
前記画像情報記憶部から、前記第一画像情報を取得する情報取得部、
前記第一画像情報と異なる第二画像情報を出力する画像出力部、
前記画像出力部から出力された前記第二画像情報を入力する情報入力部、
前記情報入力部が入力した前記第二画像情報で表される画像の表示が開始される表示開始タイミングを決定する決定部、
前記情報取得部で取得された前記第一画像情報で表される前記画像を表示するタイミングの前及び後の少なくとも一方である、前記決定部で決定された表示開始タイミングになると、前記情報入力部で入力された前記第二画像情報で表される画像を表示する表示部、として機能させる、
ことを特徴とする画像表示プログラム。
(Appendix 8)
Computer
An image information storage unit for storing first image information of the image;
An information acquisition unit for acquiring the first image information from the image information storage unit;
An image output unit that outputs second image information different from the first image information;
An information input unit for inputting the second image information output from the image output unit;
A determination unit that determines a display start timing at which display of an image represented by the second image information input by the information input unit is started;
When the display start timing determined by the determination unit is at least one of before and after the timing of displaying the image represented by the first image information acquired by the information acquisition unit, the information input unit Function as a display unit that displays an image represented by the second image information input in
An image display program characterized by that.

1・・・画像表示システム、10・・・通信網、100・・・画像表示装置、100a・・・CPU、100b・・・ROM、100c・・・RAM、100d・・・ハードディスク、100e・・・メディアコントローラ、100f・・・無線LANカード、100g・・・ビデオカード、100h・・・LCD、100i・・・操作ボタン、100j・・・スピーカ、100k・・・CMOSセンサ、100l・・・マイクロフォン、100z・・・バス、101・・・音声収集部、102・・・撮像部、103・・・情報入力部、104・・・一時記憶部、105・・・ユーザ検出部、106・・・ユーザ情報記憶部、107・・・決定部、108・・・画像情報記憶部、109・・・情報取得部、110・・・表示部、111・・・音声出力部、112・・・予定情報記憶部、113・・・予定画像生成部、114・・・受信部、115・・・送信部、116・・・アプリケーション画像生成部、201・・・インターフォン、202・・・セキュリティ装置、OT・・・画像出力部 DESCRIPTION OF SYMBOLS 1 ... Image display system, 10 ... Communication network, 100 ... Image display apparatus, 100a ... CPU, 100b ... ROM, 100c ... RAM, 100d ... Hard disk, 100e ... Media controller, 100f ... Wireless LAN card, 100g ... Video card, 100h ... LCD, 100i ... Operation buttons, 100j ... Speaker, 100k ... CMOS sensor, 100l ... Microphone , 100z ... bus, 101 ... sound collecting unit, 102 ... imaging unit, 103 ... information input unit, 104 ... temporary storage unit, 105 ... user detection unit, 106 ... User information storage unit 107 ... Determination unit 108 ... Image information storage unit 109 ... Information acquisition unit 110 ... Display unit 111 ... Voice output unit, 112 ... Schedule information storage unit, 113 ... Schedule image generation unit, 114 ... Reception unit, 115 ... Transmission unit, 116 ... Application image generation unit, 201 ... Interphone 202: Security device, OT: Image output unit

Claims (8)

画像の第一画像情報を記憶する画像情報記憶部と、
前記画像情報記憶部から、前記第一画像情報を取得する情報取得部と、
前記第一画像情報と異なる第二画像情報を出力する画像出力部と、
前記画像出力部から出力された前記第二画像情報を入力する情報入力部と、
前記情報入力部が入力した前記第二画像情報で表される画像の表示が開始される表示開始タイミングを決定する決定部と、
前記情報取得部で取得された前記第一画像情報で表される前記画像を表示するタイミングの前及び後の少なくとも一方である、前記決定部で決定された表示開始タイミングになると、前記情報入力部で入力された前記第二画像情報で表される画像を表示する表示部と、を備える、
ことを特徴とする画像表示装置。
An image information storage unit for storing first image information of the image;
An information acquisition unit for acquiring the first image information from the image information storage unit;
An image output unit for outputting second image information different from the first image information;
An information input unit for inputting the second image information output from the image output unit;
A determination unit that determines a display start timing at which display of an image represented by the second image information input by the information input unit is started;
When the display start timing determined by the determination unit is at least one of before and after the timing of displaying the image represented by the first image information acquired by the information acquisition unit, the information input unit A display unit for displaying an image represented by the second image information input in
An image display device characterized by that.
前記画像出力部は、前記表示部の表示方向に向けて撮像する撮像部を備え、
前記第二画像情報は、前記撮像部が撮像した撮像画像を表す情報を含むことを特徴とする請求項1に記載の画像表示装置。
The image output unit includes an imaging unit that captures an image in the display direction of the display unit,
The image display apparatus according to claim 1, wherein the second image information includes information representing a captured image captured by the imaging unit.
前記撮像画像からユーザを検出するユーザ検出部をさらに備え、
前記情報入力部は、前記第二画像情報と、前記第二画像情報で表される画像を表示する表示先として指定されたユーザを識別するユーザ識別情報と、を入力し、
前記ユーザ検出部は、前記情報入力部で入力されたユーザ識別情報で識別されるユーザを前記撮像画像から検出し、
前記決定部は、前記ユーザ検出部が前記ユーザ識別情報で識別されるユーザを検出してから所定時間以内のタイミングを、前記表示開始タイミングとする、
ことを特徴とする請求項2に記載の画像表示装置。
A user detection unit for detecting a user from the captured image;
The information input unit inputs the second image information and user identification information for identifying a user designated as a display destination for displaying the image represented by the second image information,
The user detection unit detects a user identified by the user identification information input by the information input unit from the captured image,
The determination unit sets a timing within a predetermined time after the user detection unit detects a user identified by the user identification information as the display start timing.
The image display device according to claim 2.
前記画像出力部は、前記撮像部が撮像を行う間、伝言音声を収集する音声収集部をさらに備え、
前記情報入力部は、前記音声収集部が収集した音声を表す音声情報と、前記音声が収集されている間において撮像された前記撮像画像表す情報を含む前記第二画像情報と、を入力し、
前記情報入力部が入力するユーザ識別情報で識別されるユーザは、前記音声を聞かせる相手として指定されたユーザでもあり、
前記決定部は、前記音声を聞かせる相手として指定されたユーザが検出されてから所定時間以内のタイミングを、前記音声が収集されている間において撮像された前記撮像画像の表示開始タイミングとし、
前記音声が収集されている間において前記撮像された撮像画像が前記表示部で表示されている間、前記情報入力部で入力された音声情報で表される音声を出力する音声出力部をさらに備える、
ことを特徴とする請求項2又は3に記載の画像表示装置。
The image output unit further includes a voice collection unit that collects a message voice while the imaging unit performs imaging,
The information input unit inputs sound information representing the sound collected by the sound collection unit, and the second image information including the information representing the captured image captured while the sound is collected,
The user identified by the user identification information input by the information input unit is also a user designated as a partner to hear the voice,
The determination unit sets a timing within a predetermined time after a user designated as a partner to hear the sound is detected as a display start timing of the captured image captured while the sound is collected,
A voice output unit that outputs a voice represented by the voice information input by the information input unit while the captured image is displayed on the display unit while the voice is collected is further provided. ,
The image display device according to claim 2, wherein the image display device is an image display device.
ユーザを識別するユーザ識別情報と、当該ユーザの予定を表す予定情報と、当該予定の開始日時を表す開始日時情報と、を対応付けて記憶する予定情報記憶部を備え、
前記画像出力部は、前記予定情報記憶部に記憶された予定情報で表される予定を表す予定画像を生成する予定画像生成部をさらに備え、
前記情報入力部は、前記予定情報記憶部から、当該予定を実行するユーザのユーザ識別情報と、当該予定の開始日時を表す開始日時情報と、を入力し、前記予定画像生成部から、当該予定を表す予定画像の画像情報を入力し、
前記決定部は、前記予定の開始日時から第一時間前までのタイミングであって、前記撮像画像から前記予定を実行するユーザが検出されてから第二時間以内のタイミングを前記予定画像の表示開始タイミングとし、前記予定画像を表示する頻度を、前記予定画像の表示日時が前記予定の開始日時よりも前であり、当該表示日時が当該予定の開始日時に近いほど高く決定する、
ことを特徴とする請求項2又は3に記載の画像表示装置。
A schedule information storage unit that stores user identification information for identifying a user, schedule information that represents the schedule of the user, and start date and time information that represents the start date and time of the schedule,
The image output unit further includes a schedule image generation unit that generates a schedule image representing a schedule represented by the schedule information stored in the schedule information storage unit,
The information input unit inputs, from the schedule information storage unit, user identification information of a user who executes the schedule and start date / time information indicating a start date / time of the schedule, and from the schedule image generation unit, the schedule Enter the image information of the scheduled image that represents
The determination unit is a timing from the start date and time of the schedule to a first time before, and a timing within a second time after the user who executes the schedule is detected from the captured image starts to display the schedule image The timing and the frequency of displaying the schedule image are determined such that the display date and time of the schedule image is earlier than the start date and time of the schedule, and the display date and time is closer to the start date and time of the schedule.
The image display device according to claim 2, wherein the image display device is an image display device.
前記情報入力部は、インターフォン又は防犯装置から、前記インターフォン又は前記防犯装置が撮像した撮像画像を表す画像情報を入力し、
前記決定部は、前記撮像画像の表示開始タイミングを、前記情報入力部で入力された撮像日時情報で表される撮像日時から所定時間以内のタイミングとし、前記表示部による前記撮像画像の表示日時が、前記情報入力部で入力された撮像日時情報で表される撮像日時から遠くなるほど当該撮像画像が表示される頻度を低く決定する、
ことを特徴とする請求項1に記載の画像表示装置。
The information input unit inputs image information representing a captured image captured by the interphone or the security device from the interphone or the security device,
The determination unit sets the display start timing of the captured image as a timing within a predetermined time from the imaging date and time represented by the imaging date and time information input by the information input unit, and the display date and time of the captured image by the display unit is The frequency with which the captured image is displayed decreases as the distance from the imaging date / time represented by the imaging date / time information input by the information input unit increases.
The image display apparatus according to claim 1.
前記画像出力部は、前記表示部の表示方向に向けて撮像する撮像部を備え、
前記撮像部が撮像した撮像画像に表されたユーザを検出するユーザ検出部と、をさらに備え、
前記情報入力部は、サーバから受信された画像情報と、前記画像情報を識別する画像識別情報とを入力し、
前記表示部が前記受信画像を表示している間に前記撮像部で撮像された撮像画像から前記ユーザ検出部がユーザを検出した検出回数に基づいて当該受信画像の評価を決定し、当該決定された評価を表す評価情報と、前記受信画像を識別する画像識別情報と、を前記サーバへ送信する送信部をさらに備え、
前記決定部は、前記検出回数が高いほど前記受信画像が表示される頻度を高く決定する、
ことを特徴とする請求項1に記載の画像表示装置。
The image output unit includes an imaging unit that captures an image in the display direction of the display unit,
A user detection unit that detects a user represented in the captured image captured by the imaging unit;
The information input unit inputs image information received from a server and image identification information for identifying the image information,
An evaluation of the received image is determined based on the number of times the user detection unit has detected the user from the captured image captured by the imaging unit while the display unit is displaying the received image. A transmission unit that transmits the evaluation information indicating the evaluation and the image identification information for identifying the received image to the server;
The determination unit determines the frequency with which the received image is displayed higher as the number of detections is higher.
The image display apparatus according to claim 1.
コンピュータを、
画像の第一画像情報を記憶する画像情報記憶部、
前記画像情報記憶部から、前記第一画像情報を取得する情報取得部、
前記第一画像情報と異なる第二画像情報を出力する画像出力部、
前記画像出力部から出力された前記第二画像情報を入力する情報入力部、
前記情報入力部が入力した前記第二画像情報で表される画像の表示が開始される表示開始タイミングを決定する決定部、
前記情報取得部で取得された前記第一画像情報で表される前記画像を表示するタイミングの前及び後の少なくとも一方である、前記決定部で決定された表示開始タイミングになると、前記情報入力部で入力された前記第二画像情報で表される画像を表示する表示部、として機能させる、
ことを特徴とする画像表示プログラム。
Computer
An image information storage unit for storing first image information of the image;
An information acquisition unit for acquiring the first image information from the image information storage unit;
An image output unit that outputs second image information different from the first image information;
An information input unit for inputting the second image information output from the image output unit;
A determination unit that determines a display start timing at which display of an image represented by the second image information input by the information input unit is started;
When the display start timing determined by the determination unit is at least one of before and after the timing of displaying the image represented by the first image information acquired by the information acquisition unit, the information input unit Function as a display unit that displays an image represented by the second image information input in
An image display program characterized by that.
JP2011213576A 2011-09-28 2011-09-28 Image display device, image display program, and image display method Expired - Fee Related JP5861360B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011213576A JP5861360B2 (en) 2011-09-28 2011-09-28 Image display device, image display program, and image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011213576A JP5861360B2 (en) 2011-09-28 2011-09-28 Image display device, image display program, and image display method

Publications (3)

Publication Number Publication Date
JP2013074551A true JP2013074551A (en) 2013-04-22
JP2013074551A5 JP2013074551A5 (en) 2014-10-30
JP5861360B2 JP5861360B2 (en) 2016-02-16

Family

ID=48478670

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011213576A Expired - Fee Related JP5861360B2 (en) 2011-09-28 2011-09-28 Image display device, image display program, and image display method

Country Status (1)

Country Link
JP (1) JP5861360B2 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007306403A (en) * 2006-05-12 2007-11-22 Nikon Corp Image reproducer and camera
JP2009204817A (en) * 2008-02-27 2009-09-10 Seiko Epson Corp Image display device and control method thereof
JP2010004118A (en) * 2008-06-18 2010-01-07 Olympus Corp Digital photograph frame, information processing system, control method, program, and information storage medium
JP2010067104A (en) * 2008-09-12 2010-03-25 Olympus Corp Digital photo-frame, information processing system, control method, program, and information storage medium
JP2010239586A (en) * 2009-03-31 2010-10-21 Brother Ind Ltd Playback device, playback method, and program used for playback
JP2011010007A (en) * 2009-06-25 2011-01-13 Sony Corp Electronic apparatus, image output method, and program
JP2011061341A (en) * 2009-09-08 2011-03-24 Casio Computer Co Ltd Electrophotography display device, control method for the same, and program
JP2011128885A (en) * 2009-12-17 2011-06-30 Toshiba Corp Information display apparatus and method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007306403A (en) * 2006-05-12 2007-11-22 Nikon Corp Image reproducer and camera
JP2009204817A (en) * 2008-02-27 2009-09-10 Seiko Epson Corp Image display device and control method thereof
JP2010004118A (en) * 2008-06-18 2010-01-07 Olympus Corp Digital photograph frame, information processing system, control method, program, and information storage medium
JP2010067104A (en) * 2008-09-12 2010-03-25 Olympus Corp Digital photo-frame, information processing system, control method, program, and information storage medium
JP2010239586A (en) * 2009-03-31 2010-10-21 Brother Ind Ltd Playback device, playback method, and program used for playback
JP2011010007A (en) * 2009-06-25 2011-01-13 Sony Corp Electronic apparatus, image output method, and program
JP2011061341A (en) * 2009-09-08 2011-03-24 Casio Computer Co Ltd Electrophotography display device, control method for the same, and program
JP2011128885A (en) * 2009-12-17 2011-06-30 Toshiba Corp Information display apparatus and method

Also Published As

Publication number Publication date
JP5861360B2 (en) 2016-02-16

Similar Documents

Publication Publication Date Title
CN106507207B (en) The method and device interacted in live streaming application
WO2019128787A1 (en) Network video live broadcast method and apparatus, and electronic device
CN103237248B (en) Media program is controlled based on media reaction
US20210200423A1 (en) Information processing apparatus, method, and non-transitory computer readable medium that controls a representation of a user object in a virtual space
CN103207675A (en) Producing collection of media programs or expanding media programs
CN102346898A (en) Automatic customized advertisement generation system
CN110570698A (en) Online teaching control method and device, storage medium and terminal
JP2017010516A (en) Method, apparatus, and terminal device for human-computer interaction based on artificial intelligence
KR20160011613A (en) Method and device for information acquisition
CN104756510A (en) Communication terminal, communication method, program, and communication system
CN102595212A (en) Simulated group interaction with multimedia content
CN104769564A (en) Communication terminal, communication method, program, and communication system
CN100538823C (en) Language aided expression system and method
US20180158102A1 (en) Advertising display system using smart film screen
US20150092038A1 (en) Editing image data
CN104756157A (en) Image processing device, image processing method, and program
CN104769589A (en) Communication terminal, information processing device, communication method, information processing method, program, and communication system
JPWO2017029848A1 (en) Information processing system and information processing method
CN115190366B (en) Information display method, device, electronic equipment and computer readable medium
CN111327916A (en) Live broadcast management method, device and equipment based on geographic object and storage medium
CN111176837A (en) Information display method and device, electronic equipment and storage medium
JP5861360B2 (en) Image display device, image display program, and image display method
JP2015031996A (en) Portable movement detection device, emotion information tabulation device, emotion information acquisition and notification system, emotion information acquisition and notification method, and computer program
CN111382355A (en) Live broadcast management method, device and equipment based on geographic object and storage medium
JP2019114272A (en) Terminal apparatus, system, information presentation method and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140910

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151207

R150 Certificate of patent or registration of utility model

Ref document number: 5861360

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees