JP2011203975A - Display device, display method, and program - Google Patents

Display device, display method, and program Download PDF

Info

Publication number
JP2011203975A
JP2011203975A JP2010070212A JP2010070212A JP2011203975A JP 2011203975 A JP2011203975 A JP 2011203975A JP 2010070212 A JP2010070212 A JP 2010070212A JP 2010070212 A JP2010070212 A JP 2010070212A JP 2011203975 A JP2011203975 A JP 2011203975A
Authority
JP
Japan
Prior art keywords
display
image
time
gaze
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010070212A
Other languages
Japanese (ja)
Other versions
JP5556296B2 (en
Inventor
Yosuke Senda
陽介 千田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2010070212A priority Critical patent/JP5556296B2/en
Publication of JP2011203975A publication Critical patent/JP2011203975A/en
Application granted granted Critical
Publication of JP5556296B2 publication Critical patent/JP5556296B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To display an image so that a user may not lose an interest in viewing the image in which the use is liable to take an interest without generating a load on the user, in a display device, a display method, and a program.SOLUTION: The display device includes an image selection part for selecting image data stored in a storage part, a display part for displaying the image data selected by the image selection part for a given period of time, a close attention detection part for detecting that a user has paid close attention to the image data displayed by the display part, and an update part for updating an attention time and a display time for the image data to which close attention has been paid in a database in which the attention time and the display time for a plurality of image data are stored when the close attention detection part has detected that the user has paid close attention. The image selection part is constituted so as to succeedingly select image data to be selected and displayed in the display part based on the attention time and the display time stored in the database.

Description

本発明は、記憶装置に記憶されている画像を表示する表示装置、表示方法及びプログラムに関する。本発明は、コンピュータにこのような表示方法の手順を実行させるプログラムが格納されたコンピュータ読み取り可能な記憶媒体にも関する。   The present invention relates to a display device that displays an image stored in a storage device, a display method, and a program. The present invention also relates to a computer-readable storage medium storing a program for causing a computer to execute the procedure of such a display method.

本明細書では、表示装置の「ユーザ」とは、表示装置が表示する画像を鑑賞する任意の鑑賞者を含み、表示装置の所有者に限定されるものではない。   In this specification, the “user” of the display device includes an arbitrary viewer who views an image displayed on the display device, and is not limited to the owner of the display device.

デジタルカメラは、撮像した画像をメモリ等の記憶装置に記憶しておけるので、撮像済みの画像を保管するために従来の銀塩カメラのようにネガを劣化しないよう保管する等の手間がかからない。このため、デジタルカメラは急速に普及している。又、デジタルカメラは、従来のアルバムの代わりに、デジタルフォトフレームと呼ばれる表示装置を用いることにより、記憶装置に記憶された画像を簡単に表示することができる。デジタルフォトフレームは、ユーザ(又は、鑑賞者)が選択した画像を表示したり、撮像順序等の情報に応じた順番で画像を自動的に選択して表示したり、画像をランダムに選択して表示したりすることができる。   Since the digital camera can store the captured image in a storage device such as a memory, it does not take time and effort to store the captured image without degrading the negative as in the case of a conventional silver salt camera. For this reason, digital cameras are rapidly spreading. In addition, the digital camera can easily display the image stored in the storage device by using a display device called a digital photo frame instead of the conventional album. The digital photo frame displays images selected by the user (or viewer), automatically selects and displays images in an order according to information such as the imaging order, or selects images randomly. Can be displayed.

撮像順序に応じた順番で画像を選択して表示した場合、常に同じ画像が同じ順序で表示されるため、特に記憶している画像数が比較的少ない場合にはユーザが早く飽きてしまう。一方、記憶している画像数が比較的多い場合には、同じ撮像時期又は現場の画像が多く続き、次の撮像時期又は現場の画像がなかなか現れないので、ユーザが興味を持ち易い画像を表示することは難しい。   When images are selected and displayed in the order corresponding to the imaging order, the same images are always displayed in the same order, so that the user gets bored quickly especially when the number of stored images is relatively small. On the other hand, when the number of stored images is relatively large, images of the same imaging time or on-site continue many times, and the next imaging time or on-site image does not appear easily, so an image that is likely to be of interest to the user is displayed. Difficult to do.

画像をランダムに選択して表示した場合、順番に画像を選択して表示する場合と比べるとユーザが飽きてしまう可能性は低減する。しかし、比較的長時間の単位で見ると、なかなか表示されない画像が発生したり、逆に頻繁に表示される画像が発生したりする。これは、画像をランダムに選択して表示する場合、数学的には全ての画像が同じ確率で選択されるものの、ユーザが興味を持たない画像はユーザの記憶に残りにくいのでなかなか表示されないように感じられ、ユーザが興味を持つ画像はユーザの記憶に残り易いため頻繁に表示されているように感じられるからである。   When images are selected and displayed at random, the possibility that the user gets bored is reduced as compared with the case where images are selected and displayed in order. However, when viewed in units of a relatively long time, an image that is not easily displayed is generated, or on the contrary, an image that is frequently displayed is generated. This is because when images are selected and displayed at random, all images are selected with the same probability, but images that are not of interest to the user are difficult to remain in the user's memory so that they are not easily displayed. This is because an image that is felt and is of interest to the user is likely to remain in the user's memory, and thus appears to be displayed frequently.

又、ユーザが過去に選択した画像の履歴等のユーザの各画像に対する興味の度合いを示す情報に応じた順番で画像を自動的に選択して表示することも提案されている(例えば、特許文献1及び特許文献2)。しかし、この提案方法では、ユーザが手動で画像を選択して初めて選択履歴等の興味の度合いを示す情報が生成可能となるため、ユーザへの負荷が生じてしまう。更に、例えばユーザが2年前に興味を持っていた画像であっても、現在はそれ程興味がない可能性があるため、この提案方法では常にユーザが興味を持ち易い画像を飽きないように表示することはできない。   It has also been proposed to automatically select and display images in an order according to information indicating the degree of interest of each image of the user, such as a history of images selected by the user in the past (for example, Patent Documents). 1 and Patent Document 2). However, in this proposed method, information indicating the degree of interest such as a selection history can be generated only after the user manually selects an image, which causes a load on the user. Furthermore, for example, even if an image was a user's interest two years ago, there is a possibility that the user is not so interested now, so this proposed method always displays an image that the user is likely to be interested in. I can't do it.

ユーザの目線が表示されている画像から外れると表示する画像を切り替えることも提案されている(例えば、特許文献3)。しかし、この提案方法では、ユーザの目線が画像から外れると異なる画像を表示するにすぎないため、常にユーザが興味を持ち易い画像を飽きないように表示することはできない。   It has also been proposed to switch an image to be displayed when the user's line of sight deviates from the displayed image (for example, Patent Document 3). However, in this proposed method, only a different image is displayed when the user's line of sight deviates from the image, and therefore, it is not possible to always display an image that the user is likely to be interested in.

尚、電子看板、或いは、デジタルサイネージ(Digital Signage)は、デジタル技術を活用してディスプレイやプロジェクタ等により画像や情報を表示する表示装置(広告媒体とも言う)であるが、上記のフォトフレームと同様の問題が生じる。   A digital signage or digital signage is a display device (also referred to as an advertising medium) that displays images and information on a display, projector, etc. using digital technology, but is similar to the above photo frame. Problem arises.

特開2006−173983号公報JP 2006-173983 A 特開2006−157324号公報JP 2006-157324 A 特開2008−219286号公報JP 2008-219286 A 特開平8−76006号公報JP-A-8-76006

従来の表示方法では、ユーザへの負荷を生じることなくユーザが興味を持ち易い画像を飽きないように表示することは難しいという問題があった。   In the conventional display method, there is a problem that it is difficult to display an image that the user is likely to be interested in without getting tired without causing a load on the user.

そこで、本発明は、ユーザへの負荷を生じることなくユーザが興味を持ち易い画像を飽きないように表示することが可能な表示装置、表示方法及びプログラムを提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides a display device, a display method, and a program that can display an image that is easy for a user to be interested without causing a load on the user.

本発明の一観点によれば、第1の記憶部に記憶された画像データを選択する画像選択部と、前記画像選択部により選択された画像データを一定時間表示する表示部と、ユーザが前記表示部が表示している画像データを注視したことを検出する注視検出部と、前記注視検出部が前記ユーザの注視を検出すると、複数の画像データに対する注視時刻及び表示時刻を格納したデータベースに対して、注視された画像データの注視時刻と表示時刻を更新する更新部を備え、前記画像選択部は、前記データベースに格納された注視時刻及び表示時刻に基づいて次に選択して前記表示部に表示するべき画像データを選択する表示装置が提供される。   According to one aspect of the present invention, an image selection unit that selects image data stored in the first storage unit, a display unit that displays the image data selected by the image selection unit for a certain period of time, and the user A gaze detection unit that detects that the image data displayed on the display unit has been gaze, and a database that stores gaze times and display times for a plurality of image data when the gaze detection unit detects gaze of the user An update unit that updates a gaze time and a display time of the gaze image data, and the image selection unit selects next based on the gaze time and the display time stored in the database, and A display device for selecting image data to be displayed is provided.

本発明の一観点によれば、記憶部に記憶された画像データを選択する画像選択工程と、前記画像選択工程により選択された画像データを一定時間表示部に表示する表示工程と、ユーザが前記表示部が表示している画像データを注視したことを検出する注視検出工程と、前記注視検出工程が前記ユーザの注視を検出すると、複数の画像データに対する注視時刻及び表示時刻を格納したデータベースに対して、注視された画像データの注視時刻と表示時刻を更新する更新工程を含み、前記画像選択工程は、前記データベースに格納された注視時刻及び表示時刻に基づいて次に選択して前記表示部に表示するべき画像データを選択する表示方法が提供される。   According to one aspect of the present invention, an image selection step of selecting image data stored in a storage unit, a display step of displaying the image data selected in the image selection step on a display unit for a predetermined time, and a user A gaze detection step for detecting that the image data displayed on the display unit has been gaze and a database storing gaze times and display times for a plurality of image data when the gaze detection step detects the gaze of the user An update step of updating a gaze time and a display time of the gaze image data, and the image selection step selects next on the display unit based on the gaze time and the display time stored in the database. A display method for selecting image data to be displayed is provided.

本発明の一観点によれば、コンピュータに、記憶部に記憶された画像データを選択して一定時間表示部に表示させるプログラムであって、ユーザが前記表示部が表示している画像データを注視したことを検出する注視検出手順と、前記注視検出手順が前記ユーザの注視を検出すると、複数の画像データに対する注視時刻及び表示時刻を格納したデータベースに対して、注視された画像データの注視時刻と表示時刻を更新する更新手順を前記コンピュータに実行させ、前記画像選択手順は、前記コンピュータに、前記データベースに格納された注視時刻及び表示時刻に基づいて次に選択して前記表示部に表示するべき画像データを選択させるプログラムが提供される。   According to one aspect of the present invention, there is provided a program for causing a computer to select image data stored in a storage unit and display the image data on a display unit for a certain period of time, wherein the user gazes at the image data displayed on the display unit. A gaze detection procedure for detecting the gaze time of the image data that has been gazeed with respect to a database that stores gaze times and display times for a plurality of image data when the gaze detection procedure detects gaze of the user; An update procedure for updating a display time is caused to be executed by the computer, and the image selection procedure should be selected by the computer based on the gaze time and the display time stored in the database and displayed on the display unit. A program for selecting image data is provided.

開示の表示装置、表示方法及びプログラムによれば、ユーザへの負荷を生じることなくユーザが興味を持ち易い画像を飽きないように表示することができる。   According to the disclosed display device, display method, and program, it is possible to display an image that the user is likely to be interested in without getting bored without causing a load on the user.

表示装置の一例を示す斜視図である。It is a perspective view which shows an example of a display apparatus. 本発明の第1実施例における表示装置の一例を示すブロック図である。It is a block diagram which shows an example of the display apparatus in 1st Example of this invention. 第1実施例における画像選択処理の一例を説明するフローチャートである。It is a flowchart explaining an example of the image selection process in 1st Example. 注視時刻と表示時刻を説明する図である。It is a figure explaining gaze time and display time. 注視検出処理の一例を説明する図である。It is a figure explaining an example of a gaze detection process. 注視検出処理の他の例を説明する図である。It is a figure explaining the other example of a gaze detection process. 図6の注視検出処理を説明するフローチャートである。It is a flowchart explaining the gaze detection process of FIG. 注視及び表示回数更新処理の一例を説明するフローチャートである。It is a flowchart explaining an example of a gaze and display frequency update process. フラグ設定処理の一例を説明するフローチャートである。It is a flowchart explaining an example of a flag setting process. データベース内のデータを説明する図である。It is a figure explaining the data in a database. ファイル削除処理の一例を説明するフローチャートである。It is a flowchart explaining an example of a file deletion process. 本発明の第2実施例における表示装置の一例を示すブロック図である。It is a block diagram which shows an example of the display apparatus in 2nd Example of this invention. 第2実施例における画像選択処理の一例を説明するフローチャートである。It is a flowchart explaining an example of the image selection process in 2nd Example. データベース内のデータを説明する図である。It is a figure explaining the data in a database. アルゴリズム選択処理の一例を説明するフローチャートである。It is a flowchart explaining an example of an algorithm selection process. コンピュータシステムの一例を示すブロック図である。It is a block diagram which shows an example of a computer system.

開示の表示装置、表示方法及びプログラムでは、データベースに記憶されている画像を選択的に表示する際に、各画像がユーザにより注視された時刻と各画像が表示された時刻に基づいて次に選択して表示する画像を決定する。   In the disclosed display device, the display method, and the program, when the image stored in the database is selectively displayed, the next selection is based on the time when each image is watched by the user and the time when each image is displayed. The image to be displayed.

以下に、開示の表示装置、表示方法及びプログラムの各実施例を図面と共に説明する。   Embodiments of the disclosed display device, display method, and program will be described below with reference to the drawings.

(第1実施例)
図1は、表示装置の一例を示す斜視図である。この例では、表示装置はデジタルフォトフレームに適用されている。表示装置1は、筐体11を有し、筐体11には支持部11A、表示部12及びカメラ13が設けられている。後述するように、表示部12は、各画像が注視された時刻と各画像が表示された時刻に基づいて次に選択して表示する画像を決定することで、記憶部(図示せず)に記憶された画像を選択的に表示する。カメラ13は、ユーザが表示部12に表示された画像を注視したか否かを検出するのに用いられる。尚、表示部12及びカメラ13は筐体11に一体的に設けられているが、表示部12及びカメラ13は別々にもうけられていても良い。
(First embodiment)
FIG. 1 is a perspective view illustrating an example of a display device. In this example, the display device is applied to a digital photo frame. The display device 1 includes a housing 11, and the housing 11 is provided with a support portion 11 </ b> A, a display portion 12, and a camera 13. As will be described later, the display unit 12 determines an image to be selected and displayed next on the basis of the time when each image is watched and the time when each image is displayed, thereby allowing the storage unit (not shown) to display. The stored image is selectively displayed. The camera 13 is used to detect whether or not the user has gazed at the image displayed on the display unit 12. In addition, although the display part 12 and the camera 13 are integrally provided in the housing | casing 11, the display part 12 and the camera 13 may be provided separately.

図2は、本発明の第1実施例における表示装置の一例を示すブロック図である。表示装置1は、図2に示す如く接続された表示部12、カメラ13、注視検出部14、画像選択部15−1、表示画像決定部16、時計(又は、タイマ)17、読み込み部18、例えばテーブルで形成されたデータベースを記憶する記憶部21−1、及び画像データを記憶する記憶部22を有する。表示部12は、液晶表示装置(LCD:Liquid Crystal Display)等により形成可能であり、カメラ13は、CCD(Charge Coupled Device)カメラ等により形成可能である。尚、少なくとも各記憶部21−1,22は、表示装置1内に設けられていても、表示装置1に外部接続されていても良い。例えば、記憶部22はネットワーク(図示せず)を介して表示装置1に対して外部接続されていても良い。記憶部21−1,22は、単一の記憶部で形成可能である。一方、記憶部22をSDメモリカード(Secure Digital Memory Card)等のメモリカード表示装置1に対して着脱可能に設けても良い。   FIG. 2 is a block diagram showing an example of a display device in the first embodiment of the present invention. The display device 1 includes a display unit 12, a camera 13, a gaze detection unit 14, an image selection unit 15-1, a display image determination unit 16, a clock (or timer) 17, a reading unit 18, which are connected as shown in FIG. For example, it has a storage unit 21-1 that stores a database formed by a table, and a storage unit 22 that stores image data. The display unit 12 can be formed by a liquid crystal display (LCD) or the like, and the camera 13 can be formed by a CCD (Charge Coupled Device) camera or the like. Note that at least the storage units 21-1 and 21-22 may be provided in the display device 1 or may be externally connected to the display device 1. For example, the storage unit 22 may be externally connected to the display device 1 via a network (not shown). The storage units 21-1 and 21 can be formed by a single storage unit. On the other hand, the storage unit 22 may be detachably attached to the memory card display device 1 such as an SD memory card (Secure Digital Memory Card).

記憶部21−1に記憶されたデータベースには、画像のファイル名、注視時刻、表示時刻等が格納されている。画像選択部15−1は、後述するように各画像の注視時刻及び表示時刻に基づいて表示するべき画像を選択し、選択された画像のファイル名を表示画像決定部16に供給する。表示画像決定部16は、選択された画像のファイル名を表示が決定された画像のファイル名として読み込み部18に供給し、読み込み部18は、供給されたファイル名の画像に関する画像データを記憶部22から読み込んで表示部12に表示する。   The database stored in the storage unit 21-1 stores image file names, gaze times, display times, and the like. As will be described later, the image selection unit 15-1 selects an image to be displayed based on the gaze time and display time of each image, and supplies the file name of the selected image to the display image determination unit 16. The display image determination unit 16 supplies the file name of the selected image to the reading unit 18 as the file name of the image determined to be displayed, and the reading unit 18 stores image data related to the image with the supplied file name. 22 and displayed on the display unit 12.

一方、カメラ13は、表示装置1の表示部12を鑑賞しているユーザを撮像して撮像データを注視検出部14に供給する。注視検出部14は、表示部12に表示されている画像(以下、表示画像とも言う)を鑑賞しているユーザが表示画像を注視したか否かを検出する。注視とは、ユーザが表示画像に視線を向けて見ている状態を意味し、瞬間的に表示画像を見る状態も含む。注視検出部14がユーザの注視を検出すると、その時点の表示画像のファイル名は表示画像決定部16において認識されているので、その時点の表示画像のファイル名を時計17に供給する。時計17は、注視検出部14がユーザの注視を検出した時点の時刻(即ち、現在時刻)を注視時刻及び表示時刻として、記憶部21−1内のデータベースに対してその時点の表示画像のファイル名の注視時刻及び表示時刻を更新する更新部として機能する。各ファイル名の画像の注視時刻は、ユーザがそのファイル名の表示画像を注視した時刻を示し、各ファイル名の画像の表示時刻は、そのファイル名の表示画像が表示部12に表示された時刻を示す。   On the other hand, the camera 13 images a user who is viewing the display unit 12 of the display device 1 and supplies the imaged data to the gaze detection unit 14. The gaze detection unit 14 detects whether or not a user who is viewing an image displayed on the display unit 12 (hereinafter also referred to as a display image) gazes at the display image. Gaze means a state in which the user looks at the display image with a line of sight, and includes a state in which the display image is instantaneously viewed. When the gaze detection unit 14 detects the user's gaze, the display image determination unit 16 recognizes the file name of the display image at that time, and supplies the file name of the display image at that time to the clock 17. The clock 17 uses the time at which the gaze detection unit 14 detects the user's gaze (that is, the current time) as the gaze time and the display time, and the display image file at that time with respect to the database in the storage unit 21-1. It functions as an update unit that updates the watch time and display time of the name. The gaze time of the image of each file name indicates the time when the user gazes at the display image of the file name, and the display time of the image of each file name is the time when the display image of the file name is displayed on the display unit 12. Indicates.

図3は、第1実施例における画像選択処理の一例を説明するフローチャートである。図3の画像選択処理は、画像選択部15−1、表示画像決定部16及び時計17により実行できる。図3において、ステップS1は、記憶部21−1内のデータベースからランダムに3枚の画像のファイル名を選択する。ステップS2は、選択した3枚の画像の中で表示時刻が一番新しい画像のファイル名を選択候補から外す。ステップS2は、例えば注視の検出漏れが発生した場合に同じ画像が比較的短時間の間に繰り返し表示されることを防ぐために実行するが、省略しても良い。ステップS3は、選択した残りの2枚の画像のうち注視時刻が古い方のファイル名を選択する。ステップS3は、同じ画像が比較的短時間の間に繰り返し表示されることを防ぐために実行するが、省略しても良い。ステップS4は、選択した画像のファイル名を表示画像決定部16を介して読み込み部18に供給することで、選択された画像の画像データを記憶部22から読み取って一定時間の間表示部12に表示する。一定時間は、一般的なデジタルフォトフレームの場合は例えば15秒〜5分程度であるが、このような範囲に限定されるものではない。   FIG. 3 is a flowchart illustrating an example of image selection processing in the first embodiment. The image selection processing in FIG. 3 can be executed by the image selection unit 15-1, the display image determination unit 16, and the clock 17. In FIG. 3, step S1 randomly selects three image file names from the database in the storage unit 21-1. In step S2, the file name of the image having the newest display time among the three selected images is removed from the selection candidates. Step S2 is executed in order to prevent the same image from being repeatedly displayed in a relatively short time when, for example, a gaze detection failure occurs, but may be omitted. In step S3, the file name with the older gaze time is selected from the remaining two selected images. Step S3 is executed to prevent the same image from being repeatedly displayed in a relatively short time, but may be omitted. In step S4, the file name of the selected image is supplied to the reading unit 18 via the display image determining unit 16, so that the image data of the selected image is read from the storage unit 22 and is displayed on the display unit 12 for a predetermined time. indicate. The fixed time is, for example, about 15 seconds to 5 minutes in the case of a general digital photo frame, but is not limited to such a range.

ステップS5は、ユーザが表示部12に表示中の表示画像を注視したことを検出したか否かを注視検出部14の検出出力から判断する。ステップS5の判断結果がYESであると、ステップS6は、注視検出部14がユーザの注視を検出した時点の時刻(即ち、現在時刻)を表示画像決定部16により表示が決定された画像の注視時刻として、記憶部21−1内のデータベースに対してその時点の表示画像のファイル名の注視時刻を更新する。一方、ステップS5の判断結果がNOであるか、或いは、ステップS6の後、ステップS7は、注視検出部14がユーザの注視を検出した時点の時刻(即ち、現在時刻)を表示画像決定部16により表示が決定された画像の表示時刻として、記憶部21−1内のデータベースに対してその時点の表示画像のファイル名の表示時刻を更新する。ステップS7の後、処理はステップS1へ戻る。   In step S <b> 5, it is determined from the detection output of the gaze detection unit 14 whether or not it has been detected that the user gazes at the display image being displayed on the display unit 12. If the decision result in the step S5 is YES, a step S6 is a gaze of the image whose display is determined by the display image determination unit 16 at the time when the gaze detection unit 14 detects the user's gaze (that is, the current time). As the time, the gaze time of the file name of the display image at that time is updated with respect to the database in the storage unit 21-1. On the other hand, whether the determination result in step S5 is NO, or after step S6, step S7 is the display image determination unit 16 indicating the time (ie, the current time) when the gaze detection unit 14 detects the user's gaze. As the display time of the image determined to be displayed, the display time of the file name of the display image at that time is updated with respect to the database in the storage unit 21-1. After step S7, the process returns to step S1.

これにより、画像を表示部12に表示している間、ユーザが表示画像を注視したことが注視検出部14により検出されると、その時点の時刻が表示画像のファイル名に対する注視時刻に上書きされて更新される。一方、ユーザが表示画像を注視したか否かにかかわらず、表示画像の表示が終了して次に選択された画像を表示する際には、その時点の時刻が表示画像のファイル名に対する表示時刻に上書きされて更新される。従って、図3の画像選択処理を繰り返すことで、常に、ユーザが比較的長時間の間鑑賞していない画像を、適切なランダム要素を交えながら表示部12に表示することができる。   Thus, when the gaze detection unit 14 detects that the user gazes at the display image while the image is displayed on the display unit 12, the time at that time is overwritten with the gaze time for the file name of the display image. Updated. On the other hand, regardless of whether or not the user gazes at the display image, when the display of the display image is finished and the next selected image is displayed, the time at that time is the display time for the file name of the display image. It is overwritten and updated. Therefore, by repeating the image selection process of FIG. 3, an image that the user has not viewed for a relatively long time can always be displayed on the display unit 12 with appropriate random elements.

図4は、注視時刻と表示時刻を説明する図である。図4は、画像Aが表示時刻10:00に表示部12に表示され、画像Bが表示時刻10:05に表示部12に表示され、画像Cが表示時刻10:10に表示部12に表示された場合を示す。この場合、例えばユーザが時刻10:08に表示部12に表示された画像Bを注視すると、画像Bの注視時刻は10:08のまま維持され、画像A,Cの注視時刻は更新されない。このため、前回の注視時刻がそのまま維持される。新たな画像の画像データが記憶部22に記憶されると、この新たな画像に対する表示時刻及び注視時刻は無いので、例えば予め設定されている基準時刻等の十分古い時刻を新たな画像に対する表示時刻及び注視時刻の初期値として設定可能である。尚、図4では説明の便宜上画像A〜Cの表示時刻及び注視時刻を示したが、記憶部21−1内のデータベースには画像のファイル名に対する注視時刻、表示時刻等が格納される。又、時刻は時:分で示したが、時刻の表示方法は時刻を表示できる表示方法であれば特に限定されない。例えば、時刻は2010年3月1日10:00、予め設定された基準時刻からの経過時間等によっても表示可能である。   FIG. 4 is a diagram for explaining the gaze time and the display time. In FIG. 4, the image A is displayed on the display unit 12 at the display time 10:00, the image B is displayed on the display unit 12 at the display time 10:05, and the image C is displayed on the display unit 12 at the display time 10:10. The case where it was done is shown. In this case, for example, when the user gazes at the image B displayed on the display unit 12 at time 10:08, the gaze time of the image B is maintained at 10:08, and the gaze times of the images A and C are not updated. For this reason, the last gaze time is maintained as it is. When the image data of the new image is stored in the storage unit 22, there is no display time and gaze time for the new image, so that a sufficiently old time such as a preset reference time is set as the display time for the new image. And the initial value of the gaze time can be set. 4 shows the display time and the gaze time of the images A to C for convenience of explanation, the gaze time and the display time for the image file name are stored in the database in the storage unit 21-1. Although the time is shown in hours: minutes, the time display method is not particularly limited as long as the time can be displayed. For example, the time can be displayed by 1 March 2010, 10:00, an elapsed time from a preset reference time, or the like.

次に、注視検出部14による注視検出処理を、図5乃至図7と共に説明する。ユーザが表示部12に表示された画像を注視しているか否かを検出する注視検出処理自体は、特許文献4を含み、様々な注視検出処理が提案されている。多くの注視検出処理は、ユーザがどこを見ているかをユーザの視線等を観察して、計算により目標を注視している確率を求めるものである。本実施例における注視検出処理は、特に限定されないが、以下に注視検出処理の例を説明する。   Next, gaze detection processing by the gaze detection unit 14 will be described with reference to FIGS. The gaze detection process itself that detects whether or not the user is gazing at the image displayed on the display unit 12 includes Patent Document 4, and various gaze detection processes have been proposed. In many gaze detection processes, the user's line of sight is observed to determine where the user is looking, and the probability of gazing at the target is calculated. Although the gaze detection process in a present Example is not specifically limited, The example of a gaze detection process is demonstrated below.

図5は、注視検出処理の一例を説明する図である。この例では、表示装置1のカメラ13−1がユーザの眼球500を観察し、注視検出部14がカメラ13−1で観察された眼球500の向きからユーザが表示装置1の表示部12を注視しているか否かを判断する。   FIG. 5 is a diagram illustrating an example of gaze detection processing. In this example, the camera 13-1 of the display device 1 observes the user's eyeball 500, and the gaze detection unit 14 gazes at the display unit 12 of the display device 1 from the direction of the eyeball 500 observed by the camera 13-1. Judge whether or not.

図6は、注視検出処理の他の例を説明する図である。この例では、表示装置1に設けられた発光ダイオード(LED:Light Emitting Diode)等の発光素子13−3から赤外線をユーザの眼球500に照射し、発光素子13−1の横に設けられたカメラ13−2により眼球500に写るプルキニエ(Purkyne)像、即ち、角膜反射像を確認する。図6中、(a)は表示装置1とユーザの眼球500の関係を示し、(b)は赤外線の照射によりユーザの眼球500に写るプルキニエ像511を目501及び黒目502と共に示す。   FIG. 6 is a diagram illustrating another example of gaze detection processing. In this example, the user's eyeball 500 is irradiated with infrared rays from a light emitting element 13-3 such as a light emitting diode (LED) provided in the display device 1, and a camera provided beside the light emitting element 13-1. A Purkyne image reflected on the eyeball 500, that is, a corneal reflection image is confirmed by 13-2. 6A shows the relationship between the display device 1 and the user's eyeball 500, and FIG. 6B shows a Purkinje image 511 that appears on the user's eyeball 500 by infrared irradiation, together with the eyes 501 and black eyes 502. FIG.

図7は、図6の注視検出処理を説明するフローチャートである。図7において、ステップS31は、カメラ13−2からの撮像画像を入力し、ステップS32は、入力撮像画像にユーザの顔領域があるか否かを周知の方法で判断する。顔領域は、入力撮像画像に目が2つ、鼻筋が通って鼻の下に口があるといったテンプレートを用意し、入力撮像画像に対してテンプレートマッチングを行うことで検出可能である。ステップS32の判断結果がYESであると、ステップS33は、ステップS32で検出した顔領域から眼球500の領域RBを抽出する。ステップS34は、ステップS32に抽出した顔領域から黒目502の領域を計算する。ステップS32の判断結果がNOであると、処理は終了する。   FIG. 7 is a flowchart illustrating the gaze detection process of FIG. In FIG. 7, a captured image from the camera 13-2 is input in Step S <b> 31, and Step S <b> 32 determines whether there is a user's face area in the input captured image by a known method. The face area can be detected by preparing a template in which the input captured image has two eyes, the nasal muscles pass and the mouth is under the nose, and template matching is performed on the input captured image. If the decision result in the step S32 is YES, a step S33 extracts the region RB of the eyeball 500 from the face region detected in the step S32. In step S34, the area of the black eye 502 is calculated from the face area extracted in step S32. The process ends if the decision result in the step S32 is NO.

ステップS32において顔領域があるか否かを判断する際に、目501及び目501の位置は判断を左右する情報であるため、ステップS33において入力撮像画像中の目501の位置は周知の方法により比較的容易に抽出可能である。又、抽出した目501の位置を二値化して更に閾値処理等を施すことにより、ステップS34において入力撮像画像中の黒目502の領域を比較的容易に計算可能である。   When determining whether or not there is a face area in step S32, the positions of the eyes 501 and 501 are information that determines the determination. Therefore, in step S33, the position of the eyes 501 in the input captured image is determined by a known method. Extraction is relatively easy. Further, by binarizing the position of the extracted eye 501 and further performing threshold processing or the like, the area of the black eye 502 in the input captured image can be calculated relatively easily in step S34.

ステップS35は、発光素子13−3を点灯して赤外線をユーザの眼球500に照射する。ステップS35は、ステップS33における眼球500の領域RBの抽出からできるだけ直ちに行うことが望ましい。ステップS36は、カメラ13−2により眼球500を含むユーザを撮像する。ステップS37は、カメラ13−2からの撮像画像から眼球500の領域RAを抽出する。ステップS38は、発光素子13−3を消灯する。   In step S35, the light emitting element 13-3 is turned on to irradiate the user's eyeball 500 with infrared rays. It is desirable to perform step S35 as soon as possible from the extraction of the region RB of the eyeball 500 in step S33. In step S36, the user including the eyeball 500 is imaged by the camera 13-2. In step S37, the region RA of the eyeball 500 is extracted from the captured image from the camera 13-2. In step S38, the light emitting element 13-3 is turned off.

ステップS39は、眼球500の領域RA,RBの差分からプルキニエ像の位置を計算する。撮像環境によっては、眼球500に照明等のノイズが写り込む可能性があるが、プルキニエ像が写り込まない眼球500の領域RBとプルキニエ像が写り込む眼球500の領域RAの差分を計算することにより、ノイズを相殺して赤外線の写り込みのみを求めることができる。ステップS40はプルキニエの位置が黒目502の領域の中心か否かを判断し、判断結果がYESであると処理はステップS41へ進み、判断結果がNOであると処理はステップS42へ進む。ステップS41は、ユーザが表示装置1の表示部12に表示された画像を注視していると判断し、処理は終了する。一方、ステップS42は、ユーザが表示装置1の表示部12に表示された画像に注視していないと判断し、処理は終了する。   In step S39, the position of the Purkinje image is calculated from the difference between the regions RA and RB of the eyeball 500. Depending on the imaging environment, noise such as illumination may appear in the eyeball 500, but by calculating the difference between the region RB of the eyeball 500 where the Purkinje image does not appear and the region RA of the eyeball 500 where the Purkinje image appears. It is possible to cancel out noise and obtain only infrared reflection. In step S40, it is determined whether or not the position of Purkinje is the center of the area of the black eye 502. If the determination result is YES, the process proceeds to step S41, and if the determination result is NO, the process proceeds to step S42. In step S41, it is determined that the user is gazing at the image displayed on the display unit 12 of the display device 1, and the process ends. On the other hand, step S42 determines that the user is not gazing at the image displayed on the display unit 12 of the display device 1, and the process ends.

尚、ユーザの白目中の黒目の位置等に基づいてユーザが表示装置1の表示部12に表示された画像を注視しているか否かを判断するようにしても良いことは言うまでもない。   Needless to say, it may be determined whether or not the user is gazing at the image displayed on the display unit 12 of the display device 1 based on the position of the black eye in the user's white eye.

図2では、記憶部21−1内のデータベースには各画像のファイル名に対して注視時刻及び表示時刻が格納されているが、データベースに注視回数や表示回数等の情報を更に格納するようにしても良い。   In FIG. 2, the gaze time and the display time are stored for the file name of each image in the database in the storage unit 21-1, but information such as the number of gazes and the number of display times is further stored in the database. May be.

図8は、注視及び表示回数更新処理の一例を説明するフローチャートである。図8の注視及び表示回数更新処理は、図2の画像選択部15−1、表示画像決定部16及び時計17により実行できる。図8において、ステップS51は、カメラ13からの撮像画像に基づいて、表示装置1の表示部12を鑑賞可能な位置にユーザがいるか否かを判断し、判断結果がNOであると処理は終了する。上記の如く、注視検出処理では顔領域を抽出したりするので、顔領域が抽出されたか否か等に基づいて表示装置1の表示部12を鑑賞可能な位置にユーザがいるか否かを判断することも可能である。ステップS51の判断結果がYESであると、ステップS52は、表示部12に表示する画像を選択する。又、ステップS53は、ステップS52で選択された画像を表示部12に表示する。ステップS52は図3のステップS1〜S3に相当し、ステップS53は図3のステップS4に相当する。   FIG. 8 is a flowchart illustrating an example of gaze and display count update processing. The gaze and display count update processing in FIG. 8 can be executed by the image selection unit 15-1, the display image determination unit 16, and the clock 17 in FIG. In FIG. 8, step S51 determines whether or not there is a user at a position where the display unit 12 of the display device 1 can be viewed based on the captured image from the camera 13, and the process ends when the determination result is NO. To do. As described above, in the gaze detection process, a face area is extracted. Therefore, based on whether the face area is extracted or the like, it is determined whether or not the user is at a position where the display unit 12 of the display device 1 can be viewed. It is also possible. If the decision result in the step S51 is YES, a step S52 selects an image to be displayed on the display unit 12. In step S53, the image selected in step S52 is displayed on the display unit 12. Step S52 corresponds to steps S1 to S3 in FIG. 3, and step S53 corresponds to step S4 in FIG.

ステップS54は、例えば図7の注視検出処理によりユーザが表示部12に表示された画像を注視したか否かを判断する。ステップS54の判断結果がYESであると、ステップS55は、表示画像の注視時刻を更新する。ステップS54,55は図3のステップS5,S6に相当する。ステップS55の後、ステップS56は、記憶部21−1内のデータベースに対して表示画像の注視回数をインクリメントすることで更新する。   In step S54, for example, it is determined whether or not the user gazes at the image displayed on the display unit 12 by the gaze detection process of FIG. If the decision result in the step S54 is YES, a step S55 updates the gaze time of the display image. Steps S54 and 55 correspond to steps S5 and S6 in FIG. After step S55, step S56 updates the database in the storage unit 21-1 by incrementing the number of gazes of the display image.

ステップS54の判定結果がNO、或いは、ステップS56の後、ステップS57は、表示画像の表示時刻を更新する。ステップS54は、図3のステップS7に相当する。ステップS58は、記憶部21−1内のデータベースに対して表示画像の表示回数をインクリメントすることで更新し、処理は終了する。   If the determination result in step S54 is NO, or after step S56, step S57 updates the display time of the display image. Step S54 corresponds to step S7 in FIG. In step S58, the database in the storage unit 21-1 is updated by incrementing the display image display count, and the process ends.

図9は、フラグ設定処理の一例を説明するフローチャートである。図9のフラグ設定処理は、図8のステップS56が終了した段階で、或いは、ユーザが何らかの操作を行った場合に、或いは、一定時間間隔で行うことができる。   FIG. 9 is a flowchart for explaining an example of the flag setting process. The flag setting process in FIG. 9 can be performed when step S56 in FIG. 8 is completed, when the user performs some operation, or at regular time intervals.

図9において、表示回数が閾値を超えないと統計的に誤差が比較的大きくなり興味度(又は、興味の度合い)Xの信頼度が低下するため、ステップS61は、表示画像のファイル名に対して記憶部21−1内のデータベースに格納されている表示回数が閾値、例えば10000回を超えるか否かを判断し、判断結果がNOであると処理は終了する。一方、ステップS61の判断結果がYESであると、ステップS62は、X=(注視回数)/(表示回数)で表される興味度Xを計算する。尚、興味度Xの計算式は、本実施例の式に限定されるものではなく、ユーザの表示画像への興味の有無を断定できるパラメータを計算するものであれば良い。ステップS63は、興味度Xが第1の興味度閾値より大きいか否か、例えばX>0.9であるか否かを判断する。ステップS63の判断結果がYESであると、ステップS64は、ユーザが表示画像に興味があると断定し、印刷フラグを立てる等の適切な処理を行い、処理は終了する。印刷フラグは、例えばユーザが表示画像に興味がありプリンタ(図示せず)で印刷する予定であることを示す。一方、ステップS63の判断結果がNOであると、ステップS65は、興味度Xが第2の興味度閾値より小さいか否か、例えばX<0.1であるか否かを判断し、判断結果がNOであると処理は終了する。ステップS65の判断結果がYESであると、ステップS66は、ユーザは表示画像に興味がないと断定し、削除フラグを立てる等の適切な処理を行い、処理は終了する。削除フラグは、例えばユーザが表示画像に興味がなく記憶部21−1(又は、22)からの削除を予定していることを示す。   In FIG. 9, if the number of times of display does not exceed the threshold value, the error is statistically relatively large and the reliability of the degree of interest (or the degree of interest) X decreases, so step S61 is performed on the file name of the display image. Then, it is determined whether or not the number of display times stored in the database in the storage unit 21-1 exceeds a threshold value, for example, 10,000 times, and the process ends if the determination result is NO. On the other hand, if the decision result in the step S61 is YES, a step S62 calculates an interest degree X represented by X = (number of times of gaze) / (number of times of display). The expression for calculating the degree of interest X is not limited to the expression in this embodiment, and any expression that can determine whether or not the user is interested in the display image may be used. In step S63, it is determined whether or not the interest degree X is larger than the first interest degree threshold, for example, X> 0.9. If the decision result in the step S63 is YES, a step S64 determines that the user is interested in the display image, performs an appropriate process such as setting a print flag, and the process ends. The print flag indicates, for example, that the user is interested in the display image and intends to print with a printer (not shown). On the other hand, if the decision result in the step S63 is NO, a step S65 decides whether or not the interest degree X is smaller than the second interest degree threshold, for example, X <0.1, and the decision result If NO is NO, the process ends. If the decision result in the step S65 is YES, a step S66 decides that the user is not interested in the display image, performs an appropriate process such as setting a deletion flag, and the process ends. The deletion flag indicates, for example, that the user is not interested in the display image and plans to delete from the storage unit 21-1 (or 22).

図10は、記憶部21−1内のデータベースに格納されたデータを説明する図である。図10は、各画像のファイル名に対し、注視時刻、表示時刻、注視回数、表示回数、興味度(X)、印刷フラグ及び削除フラグが格納されている場合を示す。又、○印が付けられている印刷フラグ及び削除フラグは、夫々立てられた(又は、オンに設定された)フラグを示す。図10に示す如きデータを記憶部21−1内のデータベースに格納しておくことで、ユーザは印刷フラグを参照することで印刷を予定していた画像を容易に確認することができ、又、削除フラグを参照することで削除を予定していた画像を容易に確認することができる。   FIG. 10 is a diagram for explaining data stored in the database in the storage unit 21-1. FIG. 10 shows a case in which a gaze time, a display time, a gaze count, a display count, an interest level (X), a print flag, and a deletion flag are stored for the file name of each image. Also, the print flag and the delete flag that are marked with a circle indicate the flags that are set (or set to ON), respectively. By storing the data as shown in FIG. 10 in the database in the storage unit 21-1, the user can easily confirm the image scheduled to be printed by referring to the print flag, By referring to the deletion flag, the image scheduled for deletion can be easily confirmed.

図11は、ファイル削除処理の一例を説明するフローチャートである。図11のファイル削除処理は、図2の画像選択部15−1、表示画像決定部16及び時計17により実行できる。図11において、ステップS71は、カウントiをi=0に初期化する。ステップS72は、iが記憶部21−1に記憶されている画像数(即ち、保有画像数)以上であるか否かを判断し、判断結果がYESであると処理は終了する。一方、ステップS72の判断結果がNOであると、ステップS73は、記憶部22に記憶されているi番目のファイルの画像に対して削除フラグが立っているか否かを判断する。ステップS73の判断結果がYESであると処理は終了であると、ステップS74は、i番目のファイルの画像を表示部12に表示する。又、ステップS75は、ユーザにi番目のファイルの画像の削除確認を求める。ユーザが入力装置(図示せず)からi番目のファイルの画像の削除を確認してステップS75の判断結果がYESになると、ステップS76は、i番目のファイルの画像を記憶部21−1内のデータベースから削除する。ステップS73又はステップS75の判断結果がNO、或いは、ステップS76の後、処理はステップS77へ進む。ステップS77は、カウントiをi=i+1にインクリメントし、処理はステップS72へ戻る。   FIG. 11 is a flowchart for explaining an example of the file deletion process. The file deletion process in FIG. 11 can be executed by the image selection unit 15-1, the display image determination unit 16, and the clock 17 in FIG. In FIG. 11, step S71 initializes count i to i = 0. In step S72, it is determined whether i is equal to or greater than the number of images stored in the storage unit 21-1 (that is, the number of retained images). If the determination result is YES, the process ends. On the other hand, if the decision result in the step S72 is NO, a step S73 decides whether or not a deletion flag is set for the image of the i-th file stored in the storage unit 22. If the decision result in the step S73 is YES, the process is ended, and a step S74 displays the image of the i-th file on the display unit 12. In step S75, the user is asked to confirm the deletion of the image of the i-th file. When the user confirms deletion of the image of the i-th file from the input device (not shown) and the determination result in step S75 is YES, step S76 displays the image of the i-th file in the storage unit 21-1. Delete from the database. The determination result in step S73 or step S75 is NO, or after step S76, the process proceeds to step S77. In step S77, the count i is incremented to i = i + 1, and the process returns to step S72.

削除フラグを用いたファイル削除処理により、比較的簡単な処理で記憶部21−1(又は、22)の使用可能な記憶容量を確保することができる。   By the file deletion process using the deletion flag, the usable storage capacity of the storage unit 21-1 (or 22) can be ensured by a relatively simple process.

図11のファイル削除処理からも明らかなように、ファイル印刷処理も印刷フラグを参照することで同様に行うことが可能である。ファイル印刷処理の場合、確認するのが削除フラグではなく印刷フラグであり、ステップS76の代わりにファイルを印刷して印刷フラグを消すステップが行われる。又、プリンタへは、表示部12に供給される画像を出力すれば良い。   As is apparent from the file deletion process in FIG. 11, the file print process can be similarly performed by referring to the print flag. In the case of the file printing process, it is not the deletion flag but the print flag that is confirmed, and a step of printing the file and deleting the print flag is performed instead of step S76. Further, an image supplied to the display unit 12 may be output to the printer.

削除フラグを設けることにより、特に記憶部21−1内のデータベースに大量の画像のファイルが記憶されており整理が望まれる場合等であっても、ユーザが不要と判断した画像のファイルを簡単に検索して削除することができる。又、印刷フラグを設けることにより、特に記憶部21−1内のデータベースに大量の画像のファイルが記憶されており特定の画像のみの印刷が望まれる場合等であっても、ユーザが印刷を予定した画像のファイルを簡単に検索して印刷することができる。   By providing a deletion flag, even if a large number of image files are stored in the database in the storage unit 21-1 and organization is desired, it is possible to easily delete image files that the user has determined unnecessary. Can be searched and deleted. In addition, by providing a print flag, the user plans to print even when a large number of image files are stored in the database in the storage unit 21-1 and only a specific image is desired to be printed. You can easily search for and print the image file you have created.

(第2実施例)
図12は、本発明の第2実施例における表示装置の一例を示すブロック図である。図12中、図2と同一部分には同一符号を付し、その説明は省略する。本実施例では、記憶部21−2は、複数のユーザの各々に対して1つのデータベースを記憶する。又、個人同定部19は、カメラ13から入力される撮像画像に基づいて表示装置1Aの表示部12に表示された画像を鑑賞しているユーザ個人をテンプレートマッチング等の周知の同定方法により同定する個人同定処理を行う。個人同定部19は、記憶部21−2内の複数のデータベースのうち同定されたユーザ個人に対応する1つのデータベースを選択する。このように選択されたデータベースが、表示するべき画像の選択及び画像の注視時刻及び表示時刻の更新に用いられる。画像選択部15−2は、選択されたデータベースに格納された各画像の注視時刻及び表示時刻に基づいて表示するべき画像を選択し、選択された画像のファイル名を表示画像決定部16に供給する。尚、各データベースには、図10と同様に注視回数、表示回数、興味度X、印刷フラグ、削除フラグ等を格納しても良いことは言うまでもない。
(Second embodiment)
FIG. 12 is a block diagram showing an example of a display device in the second embodiment of the present invention. In FIG. 12, the same parts as those in FIG. In the present embodiment, the storage unit 21-2 stores one database for each of a plurality of users. The personal identification unit 19 identifies a user individual who is viewing the image displayed on the display unit 12 of the display device 1A based on a captured image input from the camera 13 by a known identification method such as template matching. Perform personal identification processing. The personal identification unit 19 selects one database corresponding to the identified user individual among the plurality of databases in the storage unit 21-2. The database selected in this way is used for selecting an image to be displayed and updating the gaze time and display time of the image. The image selection unit 15-2 selects an image to be displayed based on the gaze time and display time of each image stored in the selected database, and supplies the file name of the selected image to the display image determination unit 16 To do. Needless to say, each database may store the number of gazes, the number of times of display, the degree of interest X, the print flag, the deletion flag, and the like, as in FIG.

個人同定部19で採用する同定方法は、カメラ13から入力される撮像画像に基づく同定方法に限定されない。又、複数のユーザが同時に表示画像を鑑賞している場合には、ユーザ個人に付けられた優先順位等に基づいて1人のユーザを選択し、選択されたユーザに対する画像表示を制御すれば良い。   The identification method employed by the personal identification unit 19 is not limited to the identification method based on the captured image input from the camera 13. In addition, when a plurality of users are viewing a display image at the same time, one user may be selected based on the priority order assigned to each individual user, and the image display for the selected user may be controlled. .

図13は、第2実施例における画像選択処理の一例を説明するフローチャートである。図13の画像選択処理は、個人同定部19により同定されたユーザ個人のデータベースに対して、画像選択部15−2、表示画像決定部16及び時計17により実行できる。図13において、ステップS11は、記憶部21−2内のデータベースからランダムに4枚の画像のファイル名を選択する。ステップS12は、選択した4枚の画像の中で表示時刻が一番新しい画像のファイル名を選択候補から外す。ステップS12は、例えば注視の検出漏れが発生した場合に同じ画像が比較的短時間の間に繰り返し表示されることを防ぐために実行するが、省略しても良い。ステップS13は、選択した残りの3枚の画像の中で表示時刻が一番新しい画像のファイル名を選択候補から外す。ステップS14は、選択した残りの2枚の画像のうち、他のユーザのデータベースにおいて注視時刻が一番新しい画像のファイル名を選択する。ステップS14は、複数のユーザのうち1人が最近注視した画像を選択することで、複数のユーザ間(例えば、家族間)で共通の話題を提供するために実行するが、省略しても良い。ステップS15は、選択した画像のファイル名を表示画像決定部16を介して読み込み部18に供給することで、選択された画像の画像データを記憶部22から読み取って一定時間の間表示部12に表示する。一定時間は、一般的なデジタルフォトフレームの場合は例えば15秒〜5分程度であるが、このような範囲に限定されるものではない。   FIG. 13 is a flowchart illustrating an example of image selection processing in the second embodiment. The image selection processing of FIG. 13 can be executed by the image selection unit 15-2, the display image determination unit 16, and the clock 17 for the user personal database identified by the personal identification unit 19. In FIG. 13, in step S11, file names of four images are randomly selected from the database in the storage unit 21-2. In step S12, the file name of the image having the latest display time among the four selected images is excluded from the selection candidates. Step S12 is executed in order to prevent the same image from being repeatedly displayed in a relatively short time when, for example, a gaze detection failure occurs, but may be omitted. In step S13, the file name of the image with the newest display time among the remaining three selected images is removed from the selection candidates. In step S14, the file name of the image with the latest gaze time in the other user's database is selected from the remaining two selected images. Step S14 is executed in order to provide a common topic among a plurality of users (for example, between families) by selecting an image that one of the plurality of users has recently watched, but may be omitted. . In step S15, the file name of the selected image is supplied to the reading unit 18 via the display image determining unit 16, so that the image data of the selected image is read from the storage unit 22 and displayed on the display unit 12 for a predetermined time. indicate. The fixed time is, for example, about 15 seconds to 5 minutes in the case of a general digital photo frame, but is not limited to such a range.

ステップS16は、ユーザが表示部12に表示中の表示画像を注視したことを検出したか否かを注視検出部14の検出出力から判断する。ステップS16の判断結果がYESであると、ステップS17は、注視検出部14がユーザの注視を検出した時点の時刻(即ち、現在時刻)を表示画像決定部16により表示が決定された画像の注視時刻として、記憶部21−2内のデータベースに対してその時点の表示画像のファイル名の注視時刻を更新する。一方、ステップS16の判断結果がNOであるか、或いは、ステップS17の後、ステップS18は、注視検出部14がユーザの注視を検出した時点の時刻(即ち、現在時刻)を表示画像決定部16により表示が決定された画像の表示時刻として、記憶部21−2内のデータベースに対してその時点の表示画像のファイル名の表示時刻を更新する。ステップS18の後、処理はステップS11へ戻る。   In step S <b> 16, it is determined from the detection output of the gaze detection unit 14 whether or not it has been detected that the user gazes at the display image being displayed on the display unit 12. If the decision result in the step S16 is YES, a step S17 gazes the image whose display is determined by the display image determining unit 16 at the time when the gaze detecting unit 14 detects the user's gaze (that is, the current time). As the time, the gaze time of the file name of the display image at that time is updated with respect to the database in the storage unit 21-2. On the other hand, whether the determination result in step S16 is NO, or after step S17, step S18 is a display image determination unit 16 that indicates the time when the gaze detection unit 14 detects the user's gaze (that is, the current time). As the display time of the image determined to be displayed, the display time of the file name of the display image at that time is updated in the database in the storage unit 21-2. After step S18, the process returns to step S11.

これにより、画像を表示部12に表示している間、ユーザが表示画像を注視したことが注視検出部14により検出されると、その時点の時刻が表示画像のファイル名に対する注視時刻に上書きされて更新される。一方、ユーザが表示画像を注視したか否かにかかわらず、表示画像の表示が終了して次に選択された画像を表示する際には、その時点の時刻が表示画像のファイル名に対する表示時刻に上書きされて更新される。従って、図13の画像選択処理を繰り返すことで、常に、ユーザが比較的長時間の間鑑賞していない画像や、他のユーザとの共通の話題を提供するための画像を、適切なランダム要素を交えながら表示部12に表示することができる。   Thus, when the gaze detection unit 14 detects that the user gazes at the display image while the image is displayed on the display unit 12, the time at that time is overwritten with the gaze time for the file name of the display image. Updated. On the other hand, regardless of whether or not the user gazes at the display image, when the display of the display image is finished and the next selected image is displayed, the time at that time is the display time for the file name of the display image. It is overwritten and updated. Therefore, by repeating the image selection process of FIG. 13, an image that the user has not watched for a relatively long time or an image for providing a common topic with other users is always displayed as an appropriate random element. Can be displayed on the display unit 12.

図14は、記憶部21−2内のデータベースに格納されたデータを説明する図である。ここでは説明の便宜上、N人(Nは2以上の自然数)のユーザがおり、記憶部21−2にはN人のユーザに対してデータベースD1,D2,...,DN(D4までしか図示せず)が記憶されているものとする。図14中、図10と同一部分には同一符号を付す。図14は、各データベースD1〜DNにおいて、各画像のファイル名に対し、注視時刻、表示時刻、注視回数、表示回数、興味度(X)、印刷フラグ及び削除フラグが格納されている場合を示す。又、○印が付けられている印刷フラグ及び削除フラグは、夫々立てられた(又は、オンに設定された)フラグを示す。図14に示す如きデータを記憶部21−2内のデータベースに格納しておくことで、各ユーザは印刷フラグを参照することで印刷を予定していた画像を容易に確認することができ、又、削除フラグを参照することで削除を予定していた画像を容易に確認することができる。   FIG. 14 is a diagram for explaining data stored in a database in the storage unit 21-2. Here, for convenience of explanation, there are N users (N is a natural number of 2 or more), and the storage unit 21-2 stores databases D1, D2,. . . , DN (only D4 is shown) is stored. In FIG. 14, the same parts as those of FIG. FIG. 14 shows a case where a gaze time, a display time, a gaze count, a display count, an interest level (X), a print flag, and a deletion flag are stored for each image file name in each of the databases D1 to DN. . Also, the print flag and the delete flag that are marked with a circle indicate the flags that are set (or set to ON), respectively. By storing the data as shown in FIG. 14 in the database in the storage unit 21-2, each user can easily confirm the image scheduled to be printed by referring to the print flag. By referring to the deletion flag, the image scheduled for deletion can be easily confirmed.

削除フラグを参照して画像を削除したり、印刷フラグを参照して画像を印刷したりする処理は、上記第1実施例の場合と同様に行える。又、N人のユーザのうち、少なくとも1人のユーザに対するデータベースに削除フラグが立っている画像を表示して1人のユーザ又は管理者に確認を求めた上でその画像のファイルを削除したり、N人全てのユーザに対するデータベースで削除フラグが立っている1つの画像がある場合にのみその画像を表示して管理者に確認を求めた上その画像のファイルを削除したり、N人全てのユーザに対するデータベースで削除フラグが立っている1つの画像がある場合にはその画像のファイルを自動的に削除する等の処理を行うこともできる。   Processing for deleting an image with reference to a deletion flag and printing an image with reference to a print flag can be performed in the same manner as in the first embodiment. In addition, an image with a deletion flag is displayed in the database for at least one of the N users, and the user deletes the image file after asking confirmation from one user or administrator. , Only when there is one image that is flagged for deletion in the database for all N users, that image is displayed and the administrator is asked to confirm and delete the file of that image, If there is one image that is flagged for deletion in the database for the user, processing such as automatically deleting the image file can be performed.

図13の画像選択処理の場合、複数のユーザ全員から一番長い時間注視されない画像は、ステップS14において必ず選択候補から外されるので、永久に表示装置に表示されない可能性がある。そこで、画像の選択候補を複数の選択アルゴリズムにより選択可能とすることにより、ユーザの好みに応じた選択アルゴリズムを選択するようにしても良い。このように選択アルゴリズムをユーザの好みに応じて選択可能とすることにより、ユーザが興味ある画像を優先的に表示したり、ユーザが興味のある画像は比較的長い時間表示してユーザが興味のない画像は比較的短い時間表示する(或いは、その逆)といった、柔軟性の高い画像の選択表示が可能となる。   In the case of the image selection process of FIG. 13, the image that has not been watched for the longest time from all of the plurality of users is always excluded from the selection candidates in step S <b> 14 and may not be permanently displayed on the display device. Therefore, a selection algorithm according to the user's preference may be selected by enabling selection of image selection candidates by a plurality of selection algorithms. In this way, by making the selection algorithm selectable according to the user's preference, the user's interested image is displayed preferentially, or the user's interested image is displayed for a relatively long time. It is possible to select and display highly flexible images, such as displaying images that are not present for a relatively short time (or vice versa).

図15は、アルゴリズム選択処理の一例を説明するフローチャートである。図15のアルゴリズム選択処理は、図2の画像選択部15−1(又は、15−2)、表示画像決定部16及び時計17により実行できる。図15において、ステップ81は、変数Rを生成する。例えば、変数Rは、乱数を用いて生成しても、値を1づつインクリメントして所定値に達するとリセットするように生成しても良い。M個(Mは2以上の自然数)の互いに異なる画像選択アルゴリズムALG1,ALG2,...,ALGM(ALG4までしか図示せず)は、変数Rの値に応じてステップS82−1〜S82−M(S82−4までしか図示せず)により実行される。例えば、R=1〜5の場合はステップS82−1が実行され、R=6,7の場合はステップS82−2が実行され、R=8の場合はステップS82−3が実行され、R=9の場合はステップS82−4が実行される。M個の選択アルゴリズムALG1〜ALGMの中には、例えば全てのデータベースから全てのファイルの画像を選択する画像選択アルゴリズム、図3のような画像選択アルゴリズム、図13のような画像選択アルゴリズム等が含まれる。ステップS81,S82−1〜S82−Mは、画像選択部15−1(又は、15−2)により実行できる。   FIG. 15 is a flowchart illustrating an example of algorithm selection processing. The algorithm selection process in FIG. 15 can be executed by the image selection unit 15-1 (or 15-2), the display image determination unit 16, and the clock 17 in FIG. In FIG. 15, step 81 generates a variable R. For example, the variable R may be generated using a random number or may be generated so as to be reset when the value reaches a predetermined value after incrementing by one. M (M is a natural number of 2 or more) different image selection algorithms ALG1, ALG2,. . . , ALGM (only shown up to ALG4) are executed by steps S82-1 to S82-M (only shown up to S82-4) according to the value of the variable R. For example, if R = 1 to 5, step S82-1 is executed, if R = 6, 7, step S82-2 is executed, if R = 8, step S82-3 is executed, and R = In case of 9, step S82-4 is executed. Among the M selection algorithms ALG1 to ALGM, for example, an image selection algorithm for selecting images of all files from all databases, an image selection algorithm as shown in FIG. 3, an image selection algorithm as shown in FIG. It is. Steps S81 and S82-1 to S82-M can be executed by the image selection unit 15-1 (or 15-2).

ステップS83は、変数Rの値に応じて選択された画像選択アルゴリズムにより選択した画像のファイル名を表示画像決定部16を介して読み込み部18に供給することで、選択された画像の画像データを記憶部22から読み取って一定時間の間表示部12に表示する。一定時間は、一般的なデジタルフォトフレームの場合は例えば15秒〜5分程度であるが、このような範囲に限定されるものではない。ステップS84は、ユーザが表示部12に表示中の表示画像を注視したことを検出したか否かを注視検出部14の検出出力から判断する。ステップS84の判断結果がYESであると、ステップS85は、注視検出部14がユーザの注視を検出した時点の時刻(即ち、現在時刻)を表示画像決定部16により表示が決定された画像の注視時刻として、記憶部21−1(又は、21−2)内のデータベースに対してその時点の表示画像のファイル名の注視時刻を更新する。一方、ステップS84の判断結果がNOであるか、或いは、ステップS85の後、ステップS86は、注視検出部14がユーザの注視を検出した時点の時刻(即ち、現在時刻)を表示画像決定部16により表示が決定された画像の表示時刻として、記憶部21−1(又は、21−2)内のデータベースに対してその時点の表示画像のファイル名の表示時刻を更新する。ステップS86の後、処理はステップS81へ戻る。   The step S83 supplies the image data of the selected image by supplying the file name of the image selected by the image selection algorithm selected according to the value of the variable R to the reading unit 18 via the display image determining unit 16. The data is read from the storage unit 22 and displayed on the display unit 12 for a predetermined time. The fixed time is, for example, about 15 seconds to 5 minutes in the case of a general digital photo frame, but is not limited to such a range. In step S84, it is determined from the detection output of the gaze detection unit 14 whether it has been detected that the user gazes at the display image being displayed on the display unit 12. If the decision result in the step S84 is YES, a step S85 gazes the image whose display is determined by the display image determining unit 16 at the time when the gaze detecting unit 14 detects the user's gaze (that is, the current time). As the time, the gaze time of the file name of the display image at that time is updated with respect to the database in the storage unit 21-1 (or 21-2). On the other hand, the determination result in step S84 is NO, or after step S85, step S86 shows the time when the gaze detection unit 14 detects the user's gaze (that is, the current time) as the display image determination unit 16. The display time of the file name of the display image at that time is updated with respect to the database in the storage unit 21-1 (or 21-2) as the display time of the image determined to be displayed by the above. After step S86, the process returns to step S81.

このように、図15のアルゴリズム選択処理を採用することにより、よりユーザの好みに合わせた画像の選択及び表示が可能となる。   In this way, by adopting the algorithm selection process of FIG. 15, it is possible to select and display an image more suited to the user's preference.

図16は、コンピュータシステムの一例を示すブロック図である。図16に示すコンピュータシステム100は、CPU101、記憶部102、インタフェース(I/F)103、入力装置104、及び表示部105がバス106により接続された構成を有する。CPU101は、記憶部102に格納されたプログラムを実行することによりコンピュータシステム100全体を制御する。記憶部102は、半導体記憶装置、磁気記録媒体、光記録媒体、光磁気記録媒体等で形成可能であり、上記のプログラムや上記データベースを含む各種データを格納すると共に、CPU101が実行する演算の中間結果や演算結果等を一時的に格納する一時メモリとしても機能する。記憶部102は、記憶部21−1(又は21−2)及び記憶部22のち少なくとも一方に相当する。I/F103は、カメラ13からの撮像画像を受信したり、記憶部102に格納するデータをネットワーク(図示せず)から受信することができる。入力装置104は、キーボード等により形成可能である。表示部105は、ディスプレイ等により形成可能であり、上記の表示部12に相当する。入力装置104及び表示部105は、タッチパネルのように入力装置と表示部の両方の機能を有する入出力装置で形成しても良い。   FIG. 16 is a block diagram illustrating an example of a computer system. A computer system 100 illustrated in FIG. 16 has a configuration in which a CPU 101, a storage unit 102, an interface (I / F) 103, an input device 104, and a display unit 105 are connected by a bus 106. The CPU 101 controls the entire computer system 100 by executing a program stored in the storage unit 102. The storage unit 102 can be formed of a semiconductor storage device, a magnetic recording medium, an optical recording medium, a magneto-optical recording medium, and the like, stores various types of data including the above-described program and the above-described database, and performs intermediate operations performed by the CPU 101. It also functions as a temporary memory for temporarily storing results and calculation results. The storage unit 102 corresponds to at least one of the storage unit 21-1 (or 21-2) and the storage unit 22. The I / F 103 can receive a captured image from the camera 13 and can receive data stored in the storage unit 102 from a network (not shown). The input device 104 can be formed by a keyboard or the like. The display unit 105 can be formed by a display or the like, and corresponds to the display unit 12 described above. The input device 104 and the display unit 105 may be formed of an input / output device having functions of both the input device and the display unit, such as a touch panel.

CPU101は、記憶部102に格納されたプログラムを実行することにより、コンピュータシステム100を表示装置1(又は、1A)として機能させる。つまり、プログラムは、CPU101に表示装置1(又は、1A)の注視検出部14、画像選択部15−1(又は、15−2)、及び表示画像決定部16の機能を実現させる。プログラムは、CPU101に更に時計17及び読み込み部18の機能や、個人同定部19の機能を実現させるものであっても良い。言い換えると、プログラムは、CPU101に表示装置1(又は、1A)の処理の手順を実行させるものであり、記憶部102を含む適切なコンピュータ読み取り可能な記憶媒体に格納されていても良い。   The CPU 101 causes the computer system 100 to function as the display device 1 (or 1A) by executing a program stored in the storage unit 102. That is, the program causes the CPU 101 to realize the functions of the gaze detection unit 14, the image selection unit 15-1 (or 15-2), and the display image determination unit 16 of the display device 1 (or 1A). The program may further cause the CPU 101 to realize the functions of the clock 17 and the reading unit 18 and the function of the personal identification unit 19. In other words, the program causes the CPU 101 to execute the processing procedure of the display device 1 (or 1A), and may be stored in an appropriate computer-readable storage medium including the storage unit 102.

従って、CPU101は、図3、図7、図8、図11、図13、及び図15の処理を実行可能である。又、CPU101が図11のファイル削除処理を実行する場合、ステップS75においてユーザにi番目のファイルの画像の削除確認を求めた際、ユーザは入力装置104からi番目のファイルの画像の削除を確認することができる。   Therefore, the CPU 101 can execute the processes of FIGS. 3, 7, 8, 11, 13, and 15. When the CPU 101 executes the file deletion process of FIG. 11, when the user asks the user to confirm the deletion of the image of the i-th file in step S75, the user confirms the deletion of the image of the i-th file from the input device 104. can do.

上記の各実施例では、表示装置が表示する画像は静止画像であるが、動画像(映像)を表示するようにしても良い。この場合、動画像は、所定数の連続する静止画像で形成される。又、表示装置に音声再生部及びスピーカを設けることにより、記憶部に記憶されている画像の表示と同時に、記憶部に画像と共に記憶されている対応する音声データを出力するようにしても良い。更に、予め記憶部に記憶されている音声データの出力を、表示画面の切り替えに同期して切り替えるようにしても良い。   In each of the embodiments described above, the image displayed by the display device is a still image, but a moving image (video) may be displayed. In this case, the moving image is formed by a predetermined number of continuous still images. Further, by providing the display device with an audio reproduction unit and a speaker, the corresponding audio data stored together with the image in the storage unit may be output simultaneously with the display of the image stored in the storage unit. Furthermore, the output of audio data stored in the storage unit in advance may be switched in synchronization with the switching of the display screen.

以上の実施例を含む実施形態に関し、更に以下の付記を開示する。
(付記1)
第1の記憶部に記憶された画像データを選択する画像選択部と、
前記画像選択部により選択された画像データを一定時間表示する表示部と、
ユーザが前記表示部が表示している画像データを注視したことを検出する注視検出部と、
前記注視検出部が前記ユーザの注視を検出すると、複数の画像データに対する注視時刻及び表示時刻を格納したデータベースに対して、注視された画像データの注視時刻と表示時刻を更新する更新部を備え、
前記画像選択部は、前記データベースに格納された注視時刻及び表示時刻に基づいて次に選択して前記表示部に表示するべき画像データを選択する、表示装置。
(付記2)
前記データベースは、複数のユーザの各々に対して設けられており、
前記表示部に表示された画像データを鑑賞しているユーザを同定し、同定されたユーザに対応するデータベースを前記更新部による更新及び前記画像選択部による選択に用いるデータベースとして選択する個人同定部を更に備えた、付記1記載の表示装置。
(付記3)
前記画像選択部は、前記表示部が表示している画像データに対して前記同定されたユーザに対応するデータベースに格納された注視時刻及び表示時刻と前記同定されたユーザ以外のユーザに対応するデータベースに格納された注視時刻及び表示時刻に基づいて次に選択して前記表示部に表示するべき画像データを選択する、付記2記載の表示装置。
(付記4)
前記画像選択部は、次に選択して前記表示部に表示するべき画像データを複数の互いに異なる画像選択アルゴリズムの中から選択する、付記1乃至3のいずれか1項記載の表示装置。
(付記5)
前記データベースは、前記複数の画像データに対する注視時刻及び表示時刻に加え、前記ユーザの前記複数の画像データに対する興味度、前記ユーザが印刷する予定である画像データを示す印刷フラグ、及び前記ユーザが前記データベースからの削除を予定していることを示す削除フラグのうち少なくとも1つの情報を格納している、付記1乃至4のいずれか1項記載の表示装置。
(付記6)
前記データベースを格納する第2の記憶部を更に備えた、付記1乃至5のいずれか1項記載の表示装置。
(付記7)
前記第1の記憶部は、前記表示装置に対して脱着可能に設けられている、付記1乃至6のいずれか1項記載の表示装置。
(付記8)
記憶部に記憶された画像データを選択する画像選択工程と、
前記画像選択工程により選択された画像データを一定時間表示部に表示する表示工程と、
ユーザが前記表示部が表示している画像データを注視したことを検出する注視検出工程と、
前記注視検出工程が前記ユーザの注視を検出すると、複数の画像データに対する注視時刻及び表示時刻を格納したデータベースに対して、注視された画像データの注視時刻と表示時刻を更新する更新工程を含み、
前記画像選択工程は、前記データベースに格納された注視時刻及び表示時刻に基づいて次に選択して前記表示部に表示するべき画像データを選択する、表示方法。
(付記9)
前記データベースは、複数のユーザの各々に対して設けられており、
前記表示部に表示された画像データを鑑賞しているユーザを同定し、同定されたユーザに対応するデータベースを前記更新工程による更新及び前記画像選択工程による選択に用いるデータベースとして選択する個人同定工程を更に含む、付記8記載の表示方法。
(付記10)
前記画像選択工程は、前記表示部が表示している画像データに対して前記同定されたユーザに対応するデータベースに格納された注視時刻及び表示時刻と前記同定されたユーザ以外のユーザに対応するデータベースに格納された注視時刻及び表示時刻に基づいて次に選択して前記表示部に表示するべき画像データを選択する、付記9記載の表示方法。
(付記11)
前記画像選択工程は、次に選択して前記表示部に表示するべき画像データを複数の互いに異なる画像選択アルゴリズムの中から選択する、付記8乃至10のいずれか1項記載の表示方法。
(付記12)
前記データベースは、前記複数の画像データに対する注視時刻及び表示時刻に加え、前記ユーザの前記複数の画像データに対する興味度、前記ユーザが印刷する予定である画像データを示す印刷フラグ、及び前記ユーザが前記データベースからの削除を予定していることを示す削除フラグのうち少なくとも1つの情報を格納している、付記8乃至11のいずれか1項記載の表示方法。
(付記13)
コンピュータに、記憶部に記憶された画像データを選択して一定時間表示部に表示させるプログラムであって、
ユーザが前記表示部が表示している画像データを注視したことを検出する注視検出手順と、
前記注視検出手順が前記ユーザの注視を検出すると、複数の画像データに対する注視時刻及び表示時刻を格納したデータベースに対して、注視された画像データの注視時刻と表示時刻を更新する更新手順
を前記コンピュータに実行させ、
前記画像選択手順は、前記コンピュータに、前記データベースに格納された注視時刻及び表示時刻に基づいて次に選択して前記表示部に表示するべき画像データを選択させる、プログラム。
(付記14)
前記データベースは、複数のユーザの各々に対して設けられており、
前記表示部に表示された画像データを鑑賞しているユーザを同定し、同定されたユーザに対応するデータベースを前記更新手順による更新及び前記画像選択手順による選択に用いるデータベースとして選択する個人同定手順を更に前記コンピュータに実行させる、付記13記載のプログラム。
(付記15)
前記画像選択手順は、前記表示部が表示している画像データに対して前記同定されたユーザに対応するデータベースに格納された注視時刻及び表示時刻と前記同定されたユーザ以外のユーザに対応するデータベースに格納された注視時刻及び表示時刻に基づいて次に選択して前記表示部に表示するべき画像データを選択する、付記14記載のプログラム。
(付記16)
前記画像選択手順は、次に選択して前記表示部に表示するべき画像データを複数の互いに異なる画像選択アルゴリズムの中から選択する、付記13乃至15のいずれか1項記載のプログラム。
(付記17)
付記13乃至16のいずれか1項記載のプログラムを格納した、コンピュータ読み取り可能な記憶媒体。
The following additional notes are further disclosed with respect to the embodiment including the above examples.
(Appendix 1)
An image selection unit for selecting image data stored in the first storage unit;
A display unit for displaying the image data selected by the image selection unit for a certain period of time;
A gaze detection unit that detects that the user gazes at the image data displayed on the display unit;
When the gaze detection unit detects the gaze of the user, an update unit that updates the gaze time and display time of the gaze image data with respect to a database that stores gaze time and display time for a plurality of image data,
The display device, wherein the image selection unit selects image data to be next selected and displayed on the display unit based on a gaze time and a display time stored in the database.
(Appendix 2)
The database is provided for each of a plurality of users,
A personal identification unit for identifying a user who is viewing image data displayed on the display unit, and selecting a database corresponding to the identified user as a database used for updating by the updating unit and selection by the image selecting unit; The display device according to appendix 1, further provided.
(Appendix 3)
The image selection unit includes a gaze time and a display time stored in a database corresponding to the identified user with respect to the image data displayed on the display unit, and a database corresponding to a user other than the identified user. The display device according to appendix 2, wherein image data to be selected next and displayed on the display unit is selected based on the gaze time and the display time stored in.
(Appendix 4)
The display device according to any one of appendices 1 to 3, wherein the image selection unit selects image data to be selected next and displayed on the display unit from among a plurality of different image selection algorithms.
(Appendix 5)
The database includes a gaze time and a display time for the plurality of image data, a degree of interest of the user for the plurality of image data, a print flag indicating image data that the user intends to print, and the user The display device according to any one of appendices 1 to 4, which stores at least one piece of information among deletion flags indicating that deletion from the database is scheduled.
(Appendix 6)
The display device according to any one of appendices 1 to 5, further comprising a second storage unit that stores the database.
(Appendix 7)
The display device according to any one of appendices 1 to 6, wherein the first storage unit is detachably attached to the display device.
(Appendix 8)
An image selection step of selecting image data stored in the storage unit;
A display step of displaying the image data selected by the image selection step on the display unit for a certain period of time;
A gaze detection step of detecting that the user gazes at the image data displayed on the display unit;
When the gaze detection step detects the gaze of the user, it includes an update step of updating the gaze time and display time of the gaze image data with respect to a database storing gaze time and display time for a plurality of image data,
The said image selection process is a display method which selects the image data which should be selected next and displayed on the said display part based on the gaze time and display time which were stored in the said database.
(Appendix 9)
The database is provided for each of a plurality of users,
Identifying a user who is viewing the image data displayed on the display unit, and selecting a database corresponding to the identified user as a database to be used for updating by the updating step and selection by the image selecting step. The display method according to appendix 8, further including:
(Appendix 10)
The image selection step includes a gaze time and display time stored in a database corresponding to the identified user with respect to the image data displayed by the display unit, and a database corresponding to a user other than the identified user. The display method according to appendix 9, wherein image data to be selected next and displayed on the display unit is selected based on the gaze time and the display time stored in.
(Appendix 11)
The display method according to any one of appendices 8 to 10, wherein in the image selection step, image data to be selected next and displayed on the display unit is selected from a plurality of different image selection algorithms.
(Appendix 12)
The database includes a gaze time and a display time for the plurality of image data, a degree of interest of the user for the plurality of image data, a print flag indicating image data that the user intends to print, and the user 12. The display method according to any one of appendices 8 to 11, wherein at least one piece of information among deletion flags indicating that deletion from the database is scheduled is stored.
(Appendix 13)
A program for causing a computer to select image data stored in a storage unit and display it on a display unit for a certain period of time,
A gaze detection procedure for detecting that the user gazes at the image data displayed on the display unit;
When the gaze detection procedure detects the gaze of the user, an update procedure for updating the gaze time and display time of the gaze image data with respect to a database storing gaze time and display time for a plurality of image data To run
The image selection procedure is a program for causing the computer to select image data to be next selected and displayed on the display unit based on a gaze time and a display time stored in the database.
(Appendix 14)
The database is provided for each of a plurality of users,
A personal identification procedure for identifying a user who is viewing the image data displayed on the display unit, and selecting a database corresponding to the identified user as a database used for updating by the updating procedure and selection by the image selecting procedure. The program according to appendix 13, which is further executed by the computer.
(Appendix 15)
The image selection procedure includes a gaze time and display time stored in a database corresponding to the identified user for the image data displayed on the display unit, and a database corresponding to a user other than the identified user. 15. The program according to appendix 14, wherein the image data to be selected next and displayed on the display unit is selected based on the gaze time and display time stored in.
(Appendix 16)
The program according to any one of appendices 13 to 15, wherein in the image selection procedure, image data to be selected next and displayed on the display unit is selected from a plurality of different image selection algorithms.
(Appendix 17)
A computer-readable storage medium storing the program according to any one of appendices 13 to 16.

以上、開示の表示装置、表示方法及びプログラムを実施例により説明したが、本発明は上記実施例に限定されるものではなく、本発明の範囲内で種々の変形及び改良が可能であることは言うまでもない。   The disclosed display device, display method, and program have been described above by way of examples. However, the present invention is not limited to the above examples, and various modifications and improvements can be made within the scope of the present invention. Needless to say.

1,1A 表示装置
12 表示部
13,13−1,13−2 カメラ
14 注視検出部
15−1,15−2 画像選択部
16 表示画像決定部
17 時計
18 読み込み部
21−1,21−2,22 記憶部
1, 1A Display device 12 Display unit 13, 13-1, 13-2 Camera 14 Gaze detection unit 15-1, 15-2 Image selection unit 16 Display image determination unit 17 Clock 18 Reading unit 21-1, 21-2 22 Memory unit

Claims (5)

第1の記憶部に記憶された画像データを選択する画像選択部と、
前記画像選択部により選択された画像データを一定時間表示する表示部と、
ユーザが前記表示部が表示している画像データを注視したことを検出する注視検出部と、
前記注視検出部が前記ユーザの注視を検出すると、複数の画像データに対する注視時刻及び表示時刻を格納したデータベースに対して、注視された画像データの注視時刻と表示時刻を更新する更新部を備え、
前記画像選択部は、前記データベースに格納された注視時刻及び表示時刻に基づいて次に選択して前記表示部に表示するべき画像データを選択する、表示装置。
An image selection unit for selecting image data stored in the first storage unit;
A display unit for displaying the image data selected by the image selection unit for a certain period of time;
A gaze detection unit that detects that the user gazes at the image data displayed on the display unit;
When the gaze detection unit detects the gaze of the user, an update unit that updates the gaze time and display time of the gaze image data with respect to a database that stores gaze time and display time for a plurality of image data,
The display device, wherein the image selection unit selects image data to be next selected and displayed on the display unit based on a gaze time and a display time stored in the database.
前記データベースは、複数のユーザの各々に対して設けられており、
前記表示部に表示された画像データを鑑賞しているユーザを同定し、同定されたユーザに対応するデータベースを前記更新部による更新及び前記画像選択部による選択に用いるデータベースとして選択する個人同定部を更に備えた、請求項1記載の表示装置。
The database is provided for each of a plurality of users,
A personal identification unit for identifying a user who is viewing image data displayed on the display unit, and selecting a database corresponding to the identified user as a database used for updating by the updating unit and selection by the image selecting unit; The display device according to claim 1, further comprising:
前記画像選択部は、前記表示部が表示している画像データに対して前記同定されたユーザに対応するデータベースに格納された注視時刻及び表示時刻と前記同定されたユーザ以外のユーザに対応するデータベースに格納された注視時刻及び表示時刻に基づいて次に選択して前記表示部に表示するべき画像データを選択する、請求項2記載の表示装置。   The image selection unit includes a gaze time and a display time stored in a database corresponding to the identified user with respect to the image data displayed on the display unit, and a database corresponding to a user other than the identified user. The display device according to claim 2, wherein image data to be selected next and displayed on the display unit is selected based on a gaze time and a display time stored in the display. 記憶部に記憶された画像データを選択する画像選択工程と、
前記画像選択工程により選択された画像データを一定時間表示部に表示する表示工程と、
ユーザが前記表示部が表示している画像データを注視したことを検出する注視検出工程と、
前記注視検出工程が前記ユーザの注視を検出すると、複数の画像データに対する注視時刻及び表示時刻を格納したデータベースに対して、注視された画像データの注視時刻と表示時刻を更新する更新工程を含み、
前記画像選択工程は、前記データベースに格納された注視時刻及び表示時刻に基づいて次に選択して前記表示部に表示するべき画像データを選択する、表示方法。
An image selection step of selecting image data stored in the storage unit;
A display step of displaying the image data selected by the image selection step on the display unit for a certain period of time;
A gaze detection step of detecting that the user gazes at the image data displayed on the display unit;
When the gaze detection step detects the gaze of the user, it includes an update step of updating the gaze time and display time of the gaze image data with respect to a database storing gaze time and display time for a plurality of image data,
The said image selection process is a display method which selects the image data which should be selected next and displayed on the said display part based on the gaze time and display time which were stored in the said database.
コンピュータに、記憶部に記憶された画像データを選択して一定時間表示部に表示させるプログラムであって、
ユーザが前記表示部が表示している画像データを注視したことを検出する注視検出手順と、
前記注視検出手順が前記ユーザの注視を検出すると、複数の画像データに対する注視時刻及び表示時刻を格納したデータベースに対して、注視された画像データの注視時刻と表示時刻を更新する更新手順
を前記コンピュータに実行させ、
前記画像選択手順は、前記コンピュータに、前記データベースに格納された注視時刻及び表示時刻に基づいて次に選択して前記表示部に表示するべき画像データを選択させる、プログラム。
A program for causing a computer to select image data stored in a storage unit and display it on a display unit for a certain period of time,
A gaze detection procedure for detecting that the user gazes at the image data displayed on the display unit;
When the gaze detection procedure detects the gaze of the user, an update procedure for updating the gaze time and display time of the gaze image data with respect to a database storing gaze time and display time for a plurality of image data To run
The image selection procedure is a program for causing the computer to select image data to be next selected and displayed on the display unit based on a gaze time and a display time stored in the database.
JP2010070212A 2010-03-25 2010-03-25 Display device, display method, and program Expired - Fee Related JP5556296B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010070212A JP5556296B2 (en) 2010-03-25 2010-03-25 Display device, display method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010070212A JP5556296B2 (en) 2010-03-25 2010-03-25 Display device, display method, and program

Publications (2)

Publication Number Publication Date
JP2011203975A true JP2011203975A (en) 2011-10-13
JP5556296B2 JP5556296B2 (en) 2014-07-23

Family

ID=44880557

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010070212A Expired - Fee Related JP5556296B2 (en) 2010-03-25 2010-03-25 Display device, display method, and program

Country Status (1)

Country Link
JP (1) JP5556296B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013145468A (en) * 2012-01-13 2013-07-25 Sony Corp Information processing apparatus and information processing method, and computer program
JP2013257697A (en) * 2012-06-12 2013-12-26 Toshiba Tec Corp Signage system and program
JP2014236447A (en) * 2013-06-04 2014-12-15 富士通株式会社 Information processor and information processing program
JP2016177845A (en) * 2016-06-22 2016-10-06 ソニー株式会社 Information processing apparatus, information processing method, and computer program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004318861A (en) * 2003-03-31 2004-11-11 Seiko Epson Corp Image viewer, its image display program and image display method
WO2009116317A1 (en) * 2008-03-18 2009-09-24 ブラザー工業株式会社 Information providing device
JP2010016432A (en) * 2008-07-01 2010-01-21 Olympus Corp Digital photograph frame, information processing system, control method, program, and information storage medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004318861A (en) * 2003-03-31 2004-11-11 Seiko Epson Corp Image viewer, its image display program and image display method
WO2009116317A1 (en) * 2008-03-18 2009-09-24 ブラザー工業株式会社 Information providing device
JP2010016432A (en) * 2008-07-01 2010-01-21 Olympus Corp Digital photograph frame, information processing system, control method, program, and information storage medium

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013145468A (en) * 2012-01-13 2013-07-25 Sony Corp Information processing apparatus and information processing method, and computer program
US10261589B2 (en) 2012-01-13 2019-04-16 Saturn Licensing Llc Information processing apparatus, information processing method, and computer program
JP2013257697A (en) * 2012-06-12 2013-12-26 Toshiba Tec Corp Signage system and program
JP2014236447A (en) * 2013-06-04 2014-12-15 富士通株式会社 Information processor and information processing program
US9839355B2 (en) 2013-06-04 2017-12-12 Fujitsu Limited Method of processing information, and information processing apparatus
JP2016177845A (en) * 2016-06-22 2016-10-06 ソニー株式会社 Information processing apparatus, information processing method, and computer program

Also Published As

Publication number Publication date
JP5556296B2 (en) 2014-07-23

Similar Documents

Publication Publication Date Title
JP6850506B2 (en) Devices and methods for capturing, analyzing, and transmitting still and video images of the fundus during examination with an ophthalmoscope.
KR20210046085A (en) Wearable apparatus and methods for analyzing images
JP2013225327A (en) Camera user input based image value index
JP5556296B2 (en) Display device, display method, and program
US8712110B2 (en) Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
Adams et al. A qualitative study to support a blind photography mobile application
US9875719B2 (en) Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US20190034455A1 (en) Dynamic Glyph-Based Search
JPWO2015145769A1 (en) Imaging apparatus, information processing apparatus, photographing assistance system, photographing assistance program, and photographing assistance method
US20110150298A1 (en) Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
JP2011101251A (en) Electronic apparatus and image display method
US20210027451A1 (en) Photography session assistant
JP2016161835A (en) Display device, control program, and control method
CN105229999A (en) Image recording structure, image recording process and program
JP2011061341A (en) Electrophotography display device, control method for the same, and program
JP2023014402A (en) Information processing apparatus, information presentation system, information processing method, and information processing program
JP4864282B2 (en) Image projection device
JP2004214759A (en) Method and apparatus of classifying image, and program
JP2019023887A (en) Server, communication terminal, privacy protection device, information management method, and information management program
JP6482261B2 (en) Image search apparatus, image search method, and image search program
JP6865537B2 (en) Information processing equipment, information processing methods, and programs
US11704433B2 (en) Dynamic photograph classification
JP2010278926A (en) Image display, image display method, and image display program
JP5302740B2 (en) Image display device
JP2008083889A (en) Image evaluation device and method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140520

R150 Certificate of patent or registration of utility model

Ref document number: 5556296

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees