JP2010067104A - Digital photo-frame, information processing system, control method, program, and information storage medium - Google Patents

Digital photo-frame, information processing system, control method, program, and information storage medium Download PDF

Info

Publication number
JP2010067104A
JP2010067104A JP2008234102A JP2008234102A JP2010067104A JP 2010067104 A JP2010067104 A JP 2010067104A JP 2008234102 A JP2008234102 A JP 2008234102A JP 2008234102 A JP2008234102 A JP 2008234102A JP 2010067104 A JP2010067104 A JP 2010067104A
Authority
JP
Japan
Prior art keywords
user
display
unit
touch panel
operation icon
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008234102A
Other languages
Japanese (ja)
Inventor
Ryohei Sugihara
良平 杉原
Seiji Tatsuta
成示 龍田
Yoichi Iba
陽一 井場
Miho Kameyama
未帆 亀山
Isato Fujigaki
勇人 藤垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2008234102A priority Critical patent/JP2010067104A/en
Publication of JP2010067104A publication Critical patent/JP2010067104A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Television Signal Processing For Recording (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a digital photo-frame, an information processing system, a control method, a program and an information storage medium for achieving an interface environment which is highly convenient for a user. <P>SOLUTION: A digital photo-frame includes: a display part for displaying an image; a display control part for performing the display control of the display part; and a detection information acquisition part for acquiring detection information detected by a sensor. The display part is configured of a touch panel display. The display control part performs display control to change the display configurations of an operation icon for a touch panel according to the obtained detection information. The display configurations of the operation icon for the touch panel are changed according to at least one of a position relation between a user and the display part, the visualizing state of the user, the utterance state of the user, the recognition result of the number of persons of the user, and the person identification result of the user. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、デジタルフォトフレーム、情報処理システム、制御方法、プログラム及び情報記憶媒体等に関する。   The present invention relates to a digital photo frame, an information processing system, a control method, a program, an information storage medium, and the like.

近年、デジタルスチルカメラなどのデジタルカメラで撮影した画像を手軽に再生できる装置として、デジタルフォトフレームが脚光を浴びている。このデジタルフォトフレームは、フォトスタンドの写真を入れる部分が液晶ディスプレイに置き換えられた形態の装置であり、メモリカードや通信装置を介して読み込まれたデジタルの画像データ(電子写真)の再生処理を行う。   In recent years, a digital photo frame has been spotlighted as a device that can easily reproduce an image taken by a digital camera such as a digital still camera. This digital photo frame is a device in which a portion for putting a photo on a photo stand is replaced with a liquid crystal display, and performs reproduction processing of digital image data (electrophotography) read via a memory card or a communication device. .

デジタルフォトフレームの従来技術としては例えば特許文献1に開示される技術がある。この従来技術では、電話回線接続装置を、デジタルフォトフレームであるデジタルフォトスタンドに具備させて、フォトスタンドと有線又は無線の電話回線との間の伝送路の形成を実現している。   As a conventional technique of a digital photo frame, for example, there is a technique disclosed in Patent Document 1. In this prior art, a telephone line connection device is provided in a digital photo stand, which is a digital photo frame, to form a transmission path between the photo stand and a wired or wireless telephone line.

しかしながら、これまでのデジタルフォトフレームは、メモリに蓄積された一連の画像を単に再生するだけであり、表示画像の選択や表示方法の変更等などをユーザが行うための適切なインターフェースを備えていなかった。このため再生画像が単調であると共に、ユーザに対して使いやすいインターフェース環境を提供することができなかった。   However, conventional digital photo frames simply reproduce a series of images stored in the memory, and do not have an appropriate interface for a user to select a display image, change a display method, or the like. It was. Therefore, the reproduced image is monotonous and an interface environment that is easy to use cannot be provided to the user.

特開2000−324473号公報JP 2000-324473 A

本発明の幾つかの態様によれば、ユーザにとって利便性の高いインターフェース環境を実現できるデジタルフォトフレーム、情報処理システム、制御方法、プログラム及び情報記憶媒体を提供できる。   According to some aspects of the present invention, it is possible to provide a digital photo frame, an information processing system, a control method, a program, and an information storage medium that can realize an interface environment that is highly convenient for the user.

本発明は、画像が表示される表示部と、前記表示部の表示制御を行う表示制御部と、センサにより検知された検知情報を取得する検知情報取得部とを含み、前記表示部はタッチパネルディスプレイにより構成され、前記表示制御部は、取得された前記検知情報に応じてタッチパネル用操作アイコンの表示態様を変化させる表示制御を行うデジタルフォトフレームに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。   The present invention includes a display unit that displays an image, a display control unit that performs display control of the display unit, and a detection information acquisition unit that acquires detection information detected by a sensor, and the display unit is a touch panel display. The display control unit relates to a digital photo frame that performs display control for changing a display mode of the operation icon for the touch panel according to the acquired detection information. The present invention also relates to a program that causes a computer to function as each of the above-described units, or a computer-readable information storage medium that stores the program.

本発明によれば、デジタルフォトフレームの表示部がタッチパネルディスプレイにより構成される。これにより利便性の高いデジタルフォトフレームのインターフェース環境をユーザに提供できる。そして本発明によれば、センサにより検知された検知情報が取得され、取得された検知情報に応じてタッチパネル用操作アイコンの表示態様が変化する表示制御が行われる。このようにすれば、タッチパネル用操作アイコンのタッチ操作による好適なインターフェース環境をユーザに提供でき、これまでにないタイプのインターフェースを有するデジタルフォトフレームを提供できる。   According to the present invention, the display unit of the digital photo frame is configured by a touch panel display. As a result, a highly convenient digital photo frame interface environment can be provided to the user. According to the present invention, the detection information detected by the sensor is acquired, and display control is performed in which the display mode of the operation icon for the touch panel changes according to the acquired detection information. In this way, it is possible to provide the user with a suitable interface environment by touching the touch panel operation icon, and to provide a digital photo frame having an unprecedented type of interface.

また本発明では、取得された前記検知情報に基づいて、ユーザと前記表示部との位置関係の判断、前記表示部に対するユーザの視認状態の判断、ユーザの発話状態の判断、ユーザの人数の認識、及びユーザの人物認証の少なくとも1つを行うユーザ状態判断部を含み、前記表示制御部は、ユーザと前記表示部との前記位置関係、ユーザの前記視認状態、ユーザの前記発話状態、ユーザの人数の認識結果、及びユーザの人物認証結果の少なくとも1つに応じて、タッチパネル用操作アイコンの表示態様を変化させる表示制御を行ってもよい。   Further, in the present invention, based on the acquired detection information, determination of the positional relationship between the user and the display unit, determination of the user's visual status with respect to the display unit, determination of the user's utterance state, recognition of the number of users And a user state determination unit that performs at least one of user authentication of the user, the display control unit, the positional relationship between the user and the display unit, the user's visual recognition state, the user's utterance state, Display control for changing the display mode of the operation icons for the touch panel may be performed in accordance with at least one of the recognition result of the number of people and the result of user authentication of the user.

本発明によれば、センサにより検知された検知情報が取得され、取得された検知情報に基づいて、ユーザ状態が判断されたり、ユーザ認識が行われる。そして、ユーザとの位置関係、ユーザの視認状態、ユーザの発話状態、ユーザの人数、或いはユーザの人物認証結果などに応じて、タッチパネル用操作アイコンの表示態様が変化する。このようにすればユーザとの位置関係、ユーザの視認状態や発話状態、ユーザの人数、人物認証結果等が反映されたタッチパネル用操作アイコンがデジタルフォトフレームの表示部に表示されるようになり、これまでにないタイプのインターフェース環境を提供できる。   According to the present invention, detection information detected by a sensor is acquired, and a user state is determined or user recognition is performed based on the acquired detection information. And the display mode of the operation icon for touch panels changes according to the positional relationship with the user, the user's visual recognition state, the user's utterance state, the number of users, or the user authentication result. In this way, the operation icon for the touch panel reflecting the positional relationship with the user, the user's visual state and speech state, the number of users, the person authentication result, etc. is displayed on the display unit of the digital photo frame, An unprecedented type of interface environment can be provided.

また本発明では、前記ユーザ状態判断部は、ユーザと前記表示部との前記位置関係として、ユーザと前記表示部との間の距離を判断し、前記表示制御部は、ユーザと前記表示部との間の距離に応じて、タッチパネル用操作アイコンの表示制御を行ってもよい。   In the present invention, the user state determination unit determines a distance between the user and the display unit as the positional relationship between the user and the display unit, and the display control unit includes the user and the display unit. Display control of the operation icon for the touch panel may be performed according to the distance between the two.

このようにすれば、ユーザとの距離の大小に応じて、タッチパネル用操作アイコンの表示態様等が変化するようになり、ユーザとの距離を反映させたインターフェース環境を提供できる。   In this way, the display mode of the touch panel operation icon changes according to the distance from the user, and an interface environment reflecting the distance from the user can be provided.

また本発明では、前記表示制御部は、ユーザと前記表示部との間の距離が所定距離内である場合に、タッチパネル用操作アイコンの表示をオンにしてもよい。   In the present invention, the display control unit may turn on the display of the operation icon for the touch panel when the distance between the user and the display unit is within a predetermined distance.

このようにすれば、ユーザが接近した場合に、タッチパネル用操作アイコンの表示がオンになるため、コンテンツ画像の鑑賞と、タッチパネル用操作アイコンを用いたインターフェース環境とを両立できる。   In this way, when the user approaches, the display of the touch panel operation icon is turned on, so that both viewing of the content image and the interface environment using the touch panel operation icon can be achieved.

また本発明では、前記表示制御部は、ユーザと前記表示部との間の距離が所定距離より大きいと判断された場合には、第1〜第N(Nは2以上の整数)のコンテンツ画像を前記表示部にスライド表示する制御を行い、前記第1〜第Nのコンテンツ画像のうちの第K(1≦K≦N)のコンテンツ画像が表示されている時に、ユーザと前記表示部との間の距離が所定距離内であると判断された場合には、前記第Kのコンテンツ画像に対応するタッチパネル用操作アイコンを表示する制御を行ってもよい。   Further, in the present invention, the display control unit, when it is determined that the distance between the user and the display unit is larger than a predetermined distance, the first to Nth (N is an integer of 2 or more) content images. Is displayed on the display unit, and when the Kth (1 ≦ K ≦ N) content image among the first to Nth content images is displayed, the user and the display unit When it is determined that the distance between them is within a predetermined distance, control for displaying a touch panel operation icon corresponding to the Kth content image may be performed.

このようにすれば、第1〜第Nのコンテンツ画像のうちの第Kのコンテンツ画像が表示されている時にユーザが接近した場合に、その第Kのコンテンツ画像に好適なタッチパネル用操作アイコンを表示できるようになる。   In this way, when the user approaches when the K-th content image among the first to N-th content images is displayed, an operation icon for a touch panel suitable for the K-th content image is displayed. become able to.

また本発明では、前記センサは、ユーザを撮像する撮像センサであり、前記ユーザ状態判断部は、前記撮像センサからの撮像情報に基づいて、ユーザの顔領域を検出し、検出された前記顔領域のサイズに基づいて、ユーザと前記表示部との間の距離を判断してもよい。   In the present invention, the sensor is an imaging sensor that images a user, and the user state determination unit detects a user's face area based on imaging information from the imaging sensor, and the detected face area The distance between the user and the display unit may be determined based on the size of the display.

このようにすれば、顔領域のサイズを検出するだけで、ユーザとの距離を判断できると共に、ユーザの視線が表示部の方に向いていることも担保できるようになる。   In this way, it is possible to determine the distance from the user only by detecting the size of the face area, and to ensure that the user's line of sight is directed toward the display unit.

また本発明では、前記センサは、ユーザを撮像する撮像センサであり、前記ユーザ状態判断部は、ユーザに対する自動焦点合わせ処理により、ユーザと前記表示部との間の距離を判断してもよい。   In the present invention, the sensor may be an imaging sensor that captures an image of the user, and the user state determination unit may determine a distance between the user and the display unit by an automatic focusing process for the user.

このようにすれば、既存の自動焦点合わせを利用して、ユーザとの距離等を判断することが可能になる。   In this way, it is possible to determine the distance to the user and the like using the existing automatic focusing.

また本発明では、前記センサは超音波センサであり、前記ユーザ状態判断部は、前記超音波センサにより、ユーザと前記表示部との間の距離を判断してもよい。   In the present invention, the sensor may be an ultrasonic sensor, and the user state determination unit may determine the distance between the user and the display unit using the ultrasonic sensor.

このようにすれば、超音波センサを活用して、ユーザとの距離等を判断することが可能になる。   In this way, it is possible to determine the distance to the user and the like using the ultrasonic sensor.

また本発明では、前記ユーザ状態判断部は、ユーザの前記視認状態として、ユーザが前記表示部を注視している状態か否かを判断し、前記表示制御部は、ユーザが前記表示部を注視しているか否かに応じて、タッチパネル用操作アイコンの表示制御を行ってもよい。   Further, in the present invention, the user state determination unit determines whether the user is gazing at the display unit as the user's visual recognition state, and the display control unit is gazed at the display unit by the user. Display control of the operation icon for the touch panel may be performed depending on whether or not it is performed.

このようにすれば、ユーザが注視しているか否かに応じて、タッチパネル用操作アイコンの表示態様が変化するようになり、ユーザの注視状態を反映させたインターフェース環境を提供できる。   In this way, the display mode of the touch panel operation icon changes depending on whether or not the user is gazing, and an interface environment reflecting the gazing state of the user can be provided.

また本発明では、前記表示制御部は、ユーザが前記表示部を注視していると判断された場合に、タッチパネル用操作アイコンの表示をオンにしてもよい。   In the present invention, the display control unit may turn on the display of the touch panel operation icon when it is determined that the user is gazing at the display unit.

このようにすれば、ユーザが表示部を注視した場合に、タッチパネル用操作アイコンの表示がオンになるため、ユーザの注視状態を反映させたタッチパネル用操作アイコンの表示のオン・オフ制御を実現できる。   In this way, when the user gazes at the display unit, the display of the operation icon for the touch panel is turned on, and thus the on / off control of the display of the operation icon for the touch panel reflecting the user's gaze state can be realized. .

また本発明では、前記表示制御部は、ユーザが注視しているコンテンツ画像に対応するタッチパネル用操作アイコンを表示する制御を行ってもよい。   In the present invention, the display control unit may perform control to display a touch panel operation icon corresponding to the content image that the user is gazing at.

このようにすれば、ユーザが注視しているコンテンツ画像に好適なタッチパネル用操作アイコンを表示できるようになる。   In this way, it is possible to display a touch panel operation icon suitable for the content image being watched by the user.

また本発明では、前記表示制御部は、ユーザが前記表示部を注視していないと判断された場合には、第1〜第N(Nは2以上の整数)のコンテンツ画像を前記表示部にスライド表示する制御を行い、前記第1〜第Nのコンテンツ画像のうちの第K(1≦K≦N)のコンテンツ画像が表示されている時にユーザが前記表示部を注視していると判断された場合には、前記第Kのコンテンツ画像に対応するタッチパネル用操作アイコンを表示する制御を行ってもよい。   In the present invention, when it is determined that the user is not gazing at the display unit, the display control unit displays the first to Nth (N is an integer of 2 or more) content images on the display unit. The slide display control is performed, and it is determined that the user is gazing at the display unit when the Kth (1 ≦ K ≦ N) content image among the first to Nth content images is displayed. In such a case, control for displaying a touch panel operation icon corresponding to the Kth content image may be performed.

このようにすれば、第1〜第Nのコンテンツ画像のうちの第Kのコンテンツ画像をユーザが注視した場合に、その第Kのコンテンツ画像に好適なタッチパネル用操作アイコンを表示できるようになる。   In this way, when the user gazes at the Kth content image among the first to Nth content images, a touch panel operation icon suitable for the Kth content image can be displayed.

また本発明では、前記ユーザ状態判断部は、ユーザの発話状態を音声認識により判断し、前記表示制御部は、前記音声認識の結果に応じて、タッチパネル用操作アイコンの表示制御を行ってもよい。   In the present invention, the user state determination unit may determine a user's utterance state by voice recognition, and the display control unit may perform display control of a touch panel operation icon according to the result of the voice recognition. .

このようにすれば、ユーザの発話状態の音声認識結果を反映させたタッチパネル用操作アイコンの表示制御を実現できる。   In this way, it is possible to realize display control of the operation icon for the touch panel reflecting the voice recognition result of the user's utterance state.

また本発明では、前記表示制御部は、前記音声認識により抽出されたユーザの音声を構成する単語が、前記表示部に表示されているコンテンツ画像にタグとして設定されたキーワードと一致又は類似した場合に、一致又は類似したキーワードに対応するタッチパネル用操作アイコンを表示する制御を行ってもよい。   Further, in the present invention, the display control unit is configured such that a word constituting the user's voice extracted by the voice recognition matches or is similar to a keyword set as a tag in the content image displayed on the display unit. In addition, control for displaying a touch panel operation icon corresponding to a matching or similar keyword may be performed.

このようにすれば、ユーザが発話した単語に応じたタッチパネル用操作アイコンを表示できるようになり、ユーザにとって直感的なインターフェース環境を提供できる。   In this way, it becomes possible to display a touch panel operation icon corresponding to a word spoken by the user, and an intuitive interface environment for the user can be provided.

また本発明では、前記ユーザ状態判断部は、検知されたユーザの人数を認識し、前記表示制御部は、検知されたユーザの人数が一人であると判断された場合と複数人であると判断された場合とで、前記表示部に表示されるタッチパネル用操作アイコンの表示態様を異ならせる表示制御を行ってもよい。   In the present invention, the user state determination unit recognizes the number of detected users, and the display control unit determines that the number of detected users is one and a plurality of users. The display control may be performed so that the display mode of the operation icon for the touch panel displayed on the display unit is different depending on the case.

このようにすれば、検知されたユーザの人数に応じて、タッチパネル用操作アイコンの表示態様が変化するようになり、ユーザの人数を考慮したインターフェース環境を提供できる。   In this way, the display mode of the operation icons for the touch panel changes according to the detected number of users, and an interface environment considering the number of users can be provided.

また本発明では、前記表示制御部は、検知されたユーザの人数が一人であると判断された場合には、検知された一人のユーザに対応する個人モード用のタッチパネル用操作アイコンを表示する制御を行ってもよい。   In the present invention, the display control unit is configured to display a touch panel operation icon for a personal mode corresponding to one detected user when it is determined that the number of detected users is one. May be performed.

このようにすれば、ユーザが一人である場合には、そのユーザに対応した個人モード用のタッチパネル用操作アイコンが表示されるため、そのユーザに対応したタッチパネル用操作アイコンを表示できるようになる。   In this way, when the user is alone, the touch panel operation icon for the personal mode corresponding to the user is displayed, so that the touch panel operation icon corresponding to the user can be displayed.

また本発明では、前記表示制御部は、検知されたユーザの人数が複数人であると判断された場合には、検知された複数人のユーザに対応する共有モード用のタッチパネル用操作アイコンを表示する制御を行ってもよい。   Further, in the present invention, when it is determined that the number of detected users is plural, the display control unit displays an operation icon for a touch panel for a sharing mode corresponding to the detected plural users. Control may be performed.

このようにすれば、ユーザが複数人である場合には、複数のユーザに対応する共有モード用のタッチパネル用操作アイコンが表示されるため、複数のユーザが存在する場合に好適なインターフェース環境を提供できる。   In this way, when there are a plurality of users, the touch panel operation icons for the sharing mode corresponding to the plurality of users are displayed, so that an interface environment suitable for a case where there are a plurality of users is provided. it can.

また本発明では、前記表示制御部は、検知されたユーザが第1のユーザであると判断された場合には、第1のユーザ用のタッチパネル用操作アイコンを表示する制御を行い、検知されたユーザが第2のユーザであると判断された場合には、第2のユーザ用のタッチパネル用操作アイコンを表示する制御を行ってもよい。   In the present invention, when the detected user is determined to be the first user, the display control unit performs control to display a touch panel operation icon for the first user, and is detected. When it is determined that the user is the second user, control for displaying a touch panel operation icon for the second user may be performed.

このようにすれば、各ユーザに対応したタッチパネル用操作アイコンが表示されるようになるため、各ユーザに応じた好適なインターフェース環境を提供できる。   In this way, since the touch panel operation icon corresponding to each user is displayed, a suitable interface environment corresponding to each user can be provided.

また本発明では、ユーザの登録処理を行う登録処理部を含み、前記ユーザ状態判断部は、検知されたユーザが登録ユーザであるか否かの人物認証を行い、前記表示制御部は、検知されたユーザが登録ユーザであると判断された場合には、登録ユーザに対応する個人モード用のタッチパネル用操作アイコンを表示する制御を行ってもよい。   The present invention further includes a registration processing unit for performing user registration processing, wherein the user state determination unit performs person authentication as to whether or not the detected user is a registered user, and the display control unit is detected. If it is determined that the registered user is a registered user, control for displaying a personal mode touch panel operation icon corresponding to the registered user may be performed.

このようにすれば、検知されたユーザが登録ユーザである場合には、ユーザの登録処理を反映させた個人モード用のタッチパネル用操作アイコンの表示が可能になり、各登録ユーザに応じた好適なインターフェース環境を提供できる。   In this way, when the detected user is a registered user, it becomes possible to display a touch panel operation icon for personal mode reflecting the user's registration process, which is suitable for each registered user. An interface environment can be provided.

また本発明では、前記ユーザ状態判断部は、検知されたユーザの年齢認識を行い、前記表示制御部は、検知されたユーザの年齢認識結果に基づいて、タッチパネル用操作アイコンの表示制御を行ってもよい。   In the present invention, the user state determination unit performs age recognition of the detected user, and the display control unit performs display control of the operation icon for the touch panel based on the detected age recognition result of the user. Also good.

このようにすればユーザの年齢の認識結果が反映されたタッチパネル用操作アイコンが表示部に表示されるようになり、ユーザの年齢に応じた好適なインターフェース環境を提供できる。   In this way, the touch panel operation icon reflecting the recognition result of the user's age is displayed on the display unit, and a suitable interface environment according to the user's age can be provided.

また本発明では、前記表示制御部は、検知されたユーザの年齢認識結果に基づいて、ユーザの年齢層が所定年齢層であると判断された場合には、前記所定年齢層用のタッチパネル用操作アイコンを表示する制御を行ってもよい。   In the present invention, when the display control unit determines that the user's age group is the predetermined age group based on the detected age recognition result of the user, the operation for the touch panel for the predetermined age group is performed. You may perform control which displays an icon.

このようにすれば、所定年齢層のユーザの各々に対して、そのユーザに適した所定年齢層用のタッチパネル用操作アイコンを表示できるようになる。   If it does in this way, the operation icon for touchscreens for predetermined age groups suitable for the user can be displayed to each user of the predetermined age group.

また本発明では、検知されたユーザの人数及び人物認証結果の少なくとも一方に応じて、タッチパネル用操作アイコンの表示モードを切り替える表示モード切り替え部を含んでもよい。   Further, the present invention may include a display mode switching unit that switches a display mode of the touch panel operation icon according to at least one of the detected number of users and the person authentication result.

このようにすれば、表示モードを切り替えるという簡素な処理で、ユーザの人数や人物認証結果に応じてタッチパネル用操作アイコンの表示態様を変化させることが可能になる。   In this way, it is possible to change the display mode of the operation icons for the touch panel according to the number of users and the result of person authentication by a simple process of switching the display mode.

また本発明では、前記表示制御部は、前記表示部に表示される画像が第1のコンテンツ画像である場合には、前記第1のコンテンツ画像に対応づけられたタッチパネル用操作アイコンを表示し、前記表示部に表示される画像が第2のコンテンツ画像である場合には、前記第2のコンテンツ画像に対応づけられたタッチパネル用操作アイコンを表示する制御を行ってもよい。   In the present invention, when the image displayed on the display unit is a first content image, the display control unit displays a touch panel operation icon associated with the first content image, When the image displayed on the display unit is the second content image, control for displaying a touch panel operation icon associated with the second content image may be performed.

このようにすれば、各コンテンツ画像の表示時に、各コンテンツ画像に対応づけられたタッチパネル用操作アイコンが表示されるため、コンテンツ画像の内容に応じた好適なインターフェース環境を提供できる。   In this way, since the touch panel operation icon associated with each content image is displayed when each content image is displayed, a suitable interface environment corresponding to the content of the content image can be provided.

また本発明では、前記表示制御部は、タッチパネル用操作アイコンの表示をオンにした後、所定時間が経過してもユーザの操作が行われなかった場合には、タッチパネル用操作アイコンの表示をオフにしてもよい。   According to the present invention, the display control unit turns off the display of the touch panel operation icon when the user does not perform an operation after a predetermined time has elapsed after the display of the touch panel operation icon is turned on. It may be.

このようにすれば、タッチパネル用操作アイコンがコンテンツ画像の鑑賞等の妨げとなってしまう事態を防止できる。;
また本発明では、前記表示部に表示されたタッチパネル用操作アイコンに対するユーザの操作履歴を、個人情報記憶部に書き込んでユーザの個人情報を更新する情報更新部を含んでもよい。
In this way, it is possible to prevent a situation in which the touch panel operation icon hinders viewing of the content image or the like. ;
Further, the present invention may include an information update unit that writes the user's operation history for the touch panel operation icon displayed on the display unit into the personal information storage unit to update the user's personal information.

このようにすれば、タッチパネル用操作アイコンに対するユーザの操作履歴が、ユーザの個人情報として個人情報記憶部に書き込まれるようになるため、操作履歴を反映させた表示制御等が可能になる。   In this way, the user's operation history for the touch panel operation icon is written in the personal information storage unit as the user's personal information, so that display control reflecting the operation history can be performed.

また本発明は、デジタルフォトフレームの表示部に表示される画像の表示指示を行う表示指示部と、センサにより検知された検知情報を取得する検知情報取得部とを含み、前記表示部はタッチパネルディスプレイにより構成され、前記表示指示部は、取得された前記検知情報に応じてタッチパネル用操作アイコンの表示態様を変化させる表示指示を行う情報処理システムに関係する。   The present invention also includes a display instruction unit for instructing display of an image displayed on the display unit of the digital photo frame, and a detection information acquisition unit for acquiring detection information detected by the sensor, wherein the display unit is a touch panel display. The display instruction unit is related to an information processing system that issues a display instruction to change the display mode of the touch panel operation icon in accordance with the acquired detection information.

また本発明は、デジタフフォトフレームの制御方法であって、表示部の表示制御を行い、センサにより検知された検知情報を取得すると共に、前記表示部はタッチパネルディスプレイにより構成され、取得された前記検知情報に応じて、前記表示部に表示されるタッチパネル用操作アイコンの表示態様を変化させる表示制御を行う制御方法に関係する。   The present invention is also a method for controlling a digital tough photo frame, wherein display control of a display unit is performed, detection information detected by a sensor is acquired, and the display unit is configured by a touch panel display. The present invention relates to a control method for performing display control for changing a display mode of a touch panel operation icon displayed on the display unit according to detection information.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.構成
図1(A)に本実施形態のデジタルフォトフレーム300(デジタルフォトプレーヤ、画像再生装置)の例を示す。図1(A)は、いわゆるフォトスタンドタイプのデジタルフォトフレームの例である。このデジタルフォトフレーム300は、家の中などの任意の場所にユーザにより設置される。そして、デジタルの画像データや音データなどのコンテンツ情報の再生処理(画像再生、音再生)を実行する。デジタルフォトフレーム300は、例えばユーザの明示的な再生指示がなくても、画像等のコンテンツ情報(メディア情報)を自動的に再生することができる。例えば写真のスライドショーを自動的に実行したり、映像の自動再生を行う。
1. Configuration FIG. 1A shows an example of a digital photo frame 300 (digital photo player, image reproduction apparatus) of this embodiment. FIG. 1A illustrates an example of a so-called photo stand type digital photo frame. The digital photo frame 300 is installed by a user in an arbitrary place such as a house. Then, reproduction processing (image reproduction, sound reproduction) of content information such as digital image data and sound data is executed. The digital photo frame 300 can automatically play back content information (media information) such as an image without an explicit playback instruction from the user, for example. For example, a photo slideshow is automatically executed, or an image is automatically reproduced.

なお図1(A)はフォトスタンドタイプのデジタルフォトフレームの例であるが、例えば図1(B)に示すように、壁掛けタイプのものであってもよい。この壁掛けタイプのデジタルフォトフレームとしては、例えば電気泳動型ディスプレイ等により実現される電子ペーパなどを用いることができる。また、デジタルフォトフレーム300に、コンテンツ情報の再生指示ボタンなどを設けたり、リモコンを用いて再生指示ができるようにしてもよい。   Although FIG. 1A shows an example of a photo stand type digital photo frame, for example, as shown in FIG. As this wall-mounted digital photo frame, for example, electronic paper realized by an electrophoretic display or the like can be used. The digital photo frame 300 may be provided with a content information reproduction instruction button or the like, or a reproduction instruction may be performed using a remote controller.

デジタルフォトフレーム300は、例えばSDカード等のメモリカードのインターフェースを備えることができる。或いは、無線LAN、ブルートゥースなどの無線通信のインターフェースや、USB等の有線の通信インターフェースを備えることができる。例えばユーザが、メモリカードにコンテンツ情報を保存して、デジタルフォトフレーム300のメモリカードインターフェースに装着すると、デジタルフォトフレーム300は、メモリカードに保存されたコンテンツ情報の自動再生(スライドショー等)を実行する。或いは、デジタルフォトフレーム300は、無線通信や有線通信によりに外部からコンテンツ情報を受信すると、このコンテンツ情報の再生処理(自動再生処理)を実行する。例えば、ユーザが所持するデジタルカメラや携帯電話機などの携帯型電子機器がブルートゥース等の無線機能を有する場合には、この無線機能を利用して、携帯型電子機器からデジタルフォトフレーム300にコンテンツ情報を転送する。すると、デジタルフォトフレーム300は、転送されたコンテンツ情報の再生処理を実行する。   The digital photo frame 300 can include a memory card interface such as an SD card, for example. Alternatively, a wireless communication interface such as a wireless LAN or Bluetooth, or a wired communication interface such as USB can be provided. For example, when a user saves content information in a memory card and attaches it to the memory card interface of the digital photo frame 300, the digital photo frame 300 executes automatic reproduction (slideshow or the like) of the content information saved in the memory card. . Alternatively, when the digital photo frame 300 receives content information from the outside through wireless communication or wired communication, the digital photo frame 300 executes a reproduction process (automatic reproduction process) of the content information. For example, when a portable electronic device such as a digital camera or a mobile phone possessed by a user has a wireless function such as Bluetooth, content information is transferred from the portable electronic device to the digital photo frame 300 using this wireless function. Forward. Then, the digital photo frame 300 executes a reproduction process of the transferred content information.

図2にデジタルフォトフレーム300の構成例を示す。このデジタルフォトフレーム300は、処理部302、記憶部320、通信部338、表示部340、センサ350、操作部360を含む。なおこれらの一部の構成要素(例えば通信部、操作部、センサ)を省略したり、他の構成要素(例えばスピーカ)を追加するなどの種々の変形実施が可能である。   FIG. 2 shows a configuration example of the digital photo frame 300. The digital photo frame 300 includes a processing unit 302, a storage unit 320, a communication unit 338, a display unit 340, a sensor 350, and an operation unit 360. Various modifications such as omitting some of these components (for example, a communication unit, an operation unit, and a sensor) and adding other components (for example, a speaker) are possible.

処理部302は、各種の制御処理や演算処理を行う。例えばデジタルフォトフレーム300の各部の制御を行ったり全体的な制御を行う。この処理部302の機能は、各種プロセッサ(CPU等)、ASIC(ゲートアレイ等)などのハードウェアや、情報記憶媒体330に記憶されたプログラムなどにより実現できる。   The processing unit 302 performs various control processes and arithmetic processes. For example, each part of the digital photo frame 300 is controlled or overall control is performed. The function of the processing unit 302 can be realized by hardware such as various processors (CPU and the like), ASIC (gate array and the like), a program stored in the information storage medium 330, and the like.

記憶部320は、処理部302、通信部338などのワーク領域となるものであり、その機能はRAMなどのメモリやHDD(ハードディスクドライブ)などにより実現できる。この記憶部320は、画像や音などのコンテンツ情報を記憶するコンテンツ情報記憶部322、取得された検知情報を記憶する検知情報記憶部324、ユーザ登録情報を記憶するユーザ登録情報記憶部325、特定されたユーザ状態やユーザの認識処理の結果を記憶するユーザ状態記憶部326、表示モードの切り替えフラグを記憶する切り替えフラグ記憶部328、ユーザの個人情報を記憶する個人情報記憶部(感性モデル記憶部)332、複数のユーザに共有(共通)の情報を記憶するユーザ共有情報記憶部(共有感性モデル記憶部)334を含む。   The storage unit 320 serves as a work area for the processing unit 302, the communication unit 338, and the like, and its functions can be realized by a memory such as a RAM, an HDD (hard disk drive), or the like. The storage unit 320 includes a content information storage unit 322 that stores content information such as images and sounds, a detection information storage unit 324 that stores acquired detection information, a user registration information storage unit 325 that stores user registration information, and a specific information. User state storage unit 326 for storing the user status and the result of user recognition processing, a switching flag storage unit 328 for storing a display mode switching flag, and a personal information storage unit (sensitivity model storage unit for storing user personal information) 332, a user shared information storage unit (shared sensibility model storage unit) 334 that stores information shared (shared) among a plurality of users.

情報記憶媒体330(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、メモリカードや光ディスクなどにより実現できる。処理部302は、情報記憶媒体330に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体330には、本実施形態の各部としてコンピュータ(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。   The information storage medium 330 (a computer-readable medium) stores programs, data, and the like, and its function can be realized by a memory card, an optical disk, or the like. The processing unit 302 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 330. That is, in the information storage medium 330, a program for causing a computer (an apparatus including an operation unit, a processing unit, a storage unit, and an output unit) to function as each unit of the present embodiment (a program for causing the computer to execute processing of each unit). Is memorized.

通信部338(通信インターフェース)は、無線や有線の通信などにより外部デバイス(例えばサーバ、携帯型電子機器)との間で情報のやり取りを行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。   The communication unit 338 (communication interface) exchanges information with an external device (for example, a server or a portable electronic device) by wireless or wired communication, and functions as a communication ASIC or communication. This can be realized by hardware such as a processor or communication firmware.

表示部340は、コンテンツ情報である画像を表示するためのものであり、例えば液晶ディスプレイや、有機ELなどの発光素子を用いたディスプレイや、電気泳動型ディスプレイなどにより実現できる。   The display unit 340 is for displaying an image as content information, and can be realized by, for example, a liquid crystal display, a display using a light emitting element such as an organic EL, an electrophoretic display, or the like.

本実施形態ではこの表示部340がタッチパネルディスプレイ(タッチスクリーン)により構成される。タッチパネルディスプレイは、例えば、液晶パネルなどのディスプレイとタッチパッドのような入力装置を組み合わせた装置であり、画面上の操作アイコン等に指や専用のペン(スタイラス)でタッチすることで、操作情報を入力できる装置である。タッチパネル方式としては、抵抗膜方式(4線式、5線式)、静電容量方式、電磁誘導方式、表面弾性波方式(超音波方式)、赤外線走査方式などの種々の方式を採用できる。抵抗膜方式では、例えば、対向する2枚の抵抗膜(透明電極を構成する金属薄膜)のうちの一方の抵抗膜に電圧に印加し、タッチした位置に応じて他方の抵抗膜に発生した電圧を検知して、タッチ位置を検出する。静電容量方式では、指先等と導電膜との間での静電容量の変化を検知して、タッチ位置を検出するものであり、指等がガラス面に近づいたときに発生する静電結合を利用する。静電容量方式としては表面型や投影型などがある。電磁誘導方式は電磁誘導の原理を利用してタッチ位置を検出する方式であり、表面弾性波方式は、超音波表面弾性波を利用した方式である。   In the present embodiment, the display unit 340 includes a touch panel display (touch screen). For example, a touch panel display is a device that combines a display such as a liquid crystal panel and an input device such as a touch pad. By touching operation icons on the screen with a finger or a dedicated pen (stylus), operation information is displayed. It is a device that can input. As the touch panel method, various methods such as a resistive film method (4-wire type, 5-wire type), a capacitance method, an electromagnetic induction method, a surface acoustic wave method (ultrasonic wave method), an infrared scanning method, and the like can be adopted. In the resistance film method, for example, a voltage is applied to one resistance film of two opposing resistance films (metal thin film constituting a transparent electrode), and a voltage generated in the other resistance film according to the touched position. To detect the touch position. In the capacitive method, a change in capacitance between a fingertip or the like and a conductive film is detected to detect a touch position, and electrostatic coupling that occurs when a finger or the like approaches the glass surface. Is used. As the electrostatic capacity method, there are a surface type and a projection type. The electromagnetic induction method is a method that detects the touch position using the principle of electromagnetic induction, and the surface acoustic wave method is a method that uses ultrasonic surface acoustic waves.

センサ350(ユーザ検知センサ、ユーザ認識センサ、モーションセンサ等)は、検知結果に基づいて検知情報を出力するデバイスである。本実施形態では、このセンサ350からの検知情報を、例えばユーザ(人物)と表示部340(表示画面、デジタルフォトフレーム)との位置関係の判断、表示部340に対するユーザの視認状態の判断、ユーザの発話状態(発話内容、会話内容、音声状態)の判断、ユーザの人数の認識、或いはユーザの人物認証(例えば年齢認識)に利用している。なお、検知情報をこれら以外の判断処理や認識処理に利用してもよい。   A sensor 350 (a user detection sensor, a user recognition sensor, a motion sensor, or the like) is a device that outputs detection information based on a detection result. In the present embodiment, the detection information from the sensor 350 is used to determine, for example, the positional relationship between the user (person) and the display unit 340 (display screen, digital photo frame), the user's visual status with respect to the display unit 340, the user Utterance state (speech content, conversation content, voice state), recognition of the number of users, or user authentication (for example, age recognition). The detection information may be used for determination processing and recognition processing other than these.

センサ350としては、例えば焦電センサなどの人感センサを用いることができる。焦電センサは、人等が発生する赤外線を受光し、赤外線を熱に変換し、その熱を素子の焦電効果で電荷に変えるセンサである。この焦電センサを用いることで、検知範囲(検知エリア)にユーザ(人)が存在するか否かや、検知範囲に存在するユーザの動きや、検知範囲内に存在するユーザの人数などを検知できる。   As the sensor 350, for example, a human sensor such as a pyroelectric sensor can be used. The pyroelectric sensor is a sensor that receives infrared rays generated by a person or the like, converts the infrared rays into heat, and converts the heat into electric charges by the pyroelectric effect of the element. By using this pyroelectric sensor, it is detected whether there is a user (person) in the detection range (detection area), the movement of the user in the detection range, the number of users in the detection range, etc. it can.

またセンサ350としては、例えばCCDやCMOSセンサなどの撮像センサを用いるとことができる。撮像センサ(イメージセンサ)は、1次元又は2次元の光学情報を、時系列の電気信号に変換する光センサである。この撮像センサを用いることで、検知範囲にユーザが存在するか否かや、検知範囲に存在するユーザの動きや、検知範囲内に存在するユーザの人数などを検知できる。また撮像センサを用いた顔画像認識により、ユーザの人物認証(年齢認識等)を実現できる。また撮像センサを用いた顔検出により、ユーザと表示部340との距離や表示部340に対するユーザの視線の角度などの位置関係を検出できる。或いは、ユーザの視野範囲内に表示部340が入っている状態か否かや、ユーザが表示部340を注視している状態か否かなどのユーザの視認状態を検出できる。或いはユーザが接近中なのか否かなども検出できる。   As the sensor 350, for example, an image sensor such as a CCD or a CMOS sensor can be used. An imaging sensor (image sensor) is an optical sensor that converts one-dimensional or two-dimensional optical information into a time-series electrical signal. By using this image sensor, it is possible to detect whether or not there is a user in the detection range, user movements in the detection range, the number of users in the detection range, and the like. Further, user authentication (age recognition, etc.) can be realized by face image recognition using an image sensor. Further, the positional relationship such as the distance between the user and the display unit 340 and the angle of the user's line of sight with respect to the display unit 340 can be detected by face detection using an imaging sensor. Alternatively, it is possible to detect a user's visual state such as whether or not the display unit 340 is in the user's visual field range and whether or not the user is gazing at the display unit 340. Alternatively, whether or not the user is approaching can also be detected.

またセンサ350としては、例えば超音波センサなどの距離センサを用いることができる。超音波距離センサは、超音波パルスを射出し、人等により反射した超音波パルスを受信することで、その時間から距離を測定するセンサである。   As the sensor 350, for example, a distance sensor such as an ultrasonic sensor can be used. The ultrasonic distance sensor is a sensor that measures the distance from the time by emitting an ultrasonic pulse and receiving the ultrasonic pulse reflected by a person or the like.

更にセンサ350としては、ユーザの動作状態(手や体の動き)を検知するモーションセンサなどの種々のセンサを用いることができる。   Further, as the sensor 350, various sensors such as a motion sensor that detects the user's operation state (movement of a hand or body) can be used.

なおセンサ350は、センサデバイス自体であってもよいし、センサデバイスの他に制御部や通信部等を含むセンサ機器であってもよい。また検知情報は、センサから直接得られる1次情報であってもよいし、1次情報を加工処理(情報処理)することで得られる2次情報であってもよい。   The sensor 350 may be the sensor device itself, or may be a sensor device including a control unit, a communication unit, and the like in addition to the sensor device. The detection information may be primary information obtained directly from the sensor, or may be secondary information obtained by processing (information processing) the primary information.

またセンサ350は、デジタルフォトフレーム300に直接に取り付けてもよいし、ホームセンサなどをセンサ350として利用してもよい。センサ350をデジタルフォトフレーム300に取り付ける場合には、図1(A)に示すように、センサ350をデジタルフォトフレーム300の例えば枠の部分に取り付けることができる。或いは有線のケーブル等を用いてセンサ350とデジタルフォトフレーム300を接続する形態にしてもよい。   The sensor 350 may be directly attached to the digital photo frame 300, or a home sensor or the like may be used as the sensor 350. When the sensor 350 is attached to the digital photo frame 300, the sensor 350 can be attached to, for example, a frame portion of the digital photo frame 300 as shown in FIG. Alternatively, the sensor 350 and the digital photo frame 300 may be connected using a wired cable or the like.

操作部360は、ユーザが各種情報を入力するためのものであり、例えば操作ボタンやリモコン装置などにより実現できる。ユーザは、この操作部360やタッチパネルディスプレイを用いて、ユーザ登録を行ったり、自身が所望する再生コンテンツ(お気に入り画像)の登録などを行うことができる。例えばユーザは、操作部360やタッチパネルディスプレイを用いて、ユーザ登録情報を入力することができる。   The operation unit 360 is used by the user to input various types of information, and can be realized by, for example, an operation button or a remote control device. The user can perform user registration or registration of playback content (favorite image) desired by the user using the operation unit 360 or the touch panel display. For example, the user can input user registration information using the operation unit 360 or the touch panel display.

処理部302は、検知情報取得部304、ユーザ状態判断部306、登録処理部314、表示モード切り替え部316、情報更新部317、表示制御部318を含む。なお、これらの一部の構成要素(例えばユーザ状態判断部、表示モード切り替え部、情報更新部等)を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。   The processing unit 302 includes a detection information acquisition unit 304, a user state determination unit 306, a registration processing unit 314, a display mode switching unit 316, an information update unit 317, and a display control unit 318. Note that various modifications may be made such as omitting some of these components (for example, the user state determination unit, the display mode switching unit, the information updating unit, etc.) or adding other components.

検知情報取得部304は、センサ350により検知された検知情報を取得する処理を行う。例えばセンサ350によりユーザの状態等が検知されて、検知情報(撮像情報)が出力されると、検知情報取得部304は、その検知情報を取り込む。そして取り込まれた検知情報は記憶部320の検知情報記憶部324に記憶される。なおセンサ350として、ホームセンサ等の外部のセンサを用いる場合には、通信部338がその検知情報を受信し、検知情報取得部304は、受信した検知情報を取得することになる。   The detection information acquisition unit 304 performs processing for acquiring detection information detected by the sensor 350. For example, when the sensor 350 detects the user state and the like and outputs detection information (imaging information), the detection information acquisition unit 304 takes in the detection information. The captured detection information is stored in the detection information storage unit 324 of the storage unit 320. When an external sensor such as a home sensor is used as the sensor 350, the communication unit 338 receives the detection information, and the detection information acquisition unit 304 acquires the received detection information.

ユーザ状態判断部306(ユーザ認識部)は、検知情報取得部304により取得された検知情報に基づいてユーザ状態等を判断する。例えば、取得された検知情報に基づいて、ユーザ(人物)と表示部340との位置関係の判断や、表示部340に対するユーザの視認状態の判断や、ユーザの発話状態(発話内容)の判断や、ユーザの人数の認識や、ユーザの人物認証を行う。   The user state determination unit 306 (user recognition unit) determines the user state and the like based on the detection information acquired by the detection information acquisition unit 304. For example, based on the acquired detection information, the determination of the positional relationship between the user (person) and the display unit 340, the determination of the user's visual status with respect to the display unit 340, the determination of the user's utterance state (utterance content), Recognize the number of users and perform user authentication.

ここでユーザと表示部340の位置関係は、ユーザと表示部340との距離や、表示部340に対するユーザの視線方向や、表示部340に対して設定された検知範囲内にユーザが存在するか否かなどである。ユーザと表示部340との位置関係は、位置関係判断部307が判断する。例えば、ユーザと表示部340との位置関係として、ユーザと表示部340との間の距離(距離情報、距離パラメータ)を判断する。   Here, the positional relationship between the user and the display unit 340 is that the user exists within the distance between the user and the display unit 340, the user's line-of-sight direction with respect to the display unit 340, and the detection range set for the display unit 340. Or not. The positional relationship determination unit 307 determines the positional relationship between the user and the display unit 340. For example, as a positional relationship between the user and the display unit 340, a distance (distance information, distance parameter) between the user and the display unit 340 is determined.

視認状態は、ユーザの視野範囲の状態や注視状態などであり、具体的には、ユーザの視野範囲(ビューボリューム)に表示部340が入っているか否かや、ユーザが表示部340を注視しているか否かなどである。このユーザの視認状態は視認状態判断部308が判断する。例えばユーザの視認状態として、ユーザが表示部340を注視している状態か否かを判断する。   The visual recognition state is a state of the user's visual field range, a gaze state, and the like. Specifically, whether or not the display unit 340 is in the user's visual field range (view volume), and the user watches the display unit 340. Or not. The visual recognition state determination unit 308 determines the visual recognition state of the user. For example, it is determined whether the user is gazing at the display unit 340 as the user's viewing state.

例えばセンサ350として、ユーザを撮像する撮像センサが設けられたとする。この場合には、ユーザ状態判断部306(位置関係判断部)は、撮像センサからの撮像情報に基づいて、ユーザの顔領域(矩形の枠領域)を検出する。そして検出された顔領域のサイズに基づいて、ユーザと表示部340との間の距離を判断(推定)する。またユーザ状態判断部306は、検出された顔領域を内包し顔領域よりもサイズが大きな計測領域を設定する。即ち顔領域にオーバーラップする計測領域を設定する。そして計測領域内に顔領域が存在する時間を計測し、計測された時間に基づいて、ユーザが表示部340を注視しているか否かを判断する。例えば計測領域内への存在時間が所定時間以上であった場合に、ユーザが注視していたと判断する。   For example, it is assumed that an imaging sensor for imaging the user is provided as the sensor 350. In this case, the user state determination unit 306 (positional relationship determination unit) detects the user's face area (rectangular frame area) based on the imaging information from the imaging sensor. Based on the detected size of the face area, the distance between the user and the display unit 340 is determined (estimated). Also, the user state determination unit 306 sets a measurement area that includes the detected face area and is larger in size than the face area. That is, a measurement area that overlaps the face area is set. Then, the time during which the face area exists in the measurement area is measured, and based on the measured time, it is determined whether or not the user is gazing at the display unit 340. For example, when the presence time in the measurement area is a predetermined time or more, it is determined that the user is gazing.

或いはユーザ状態判断部306は、ユーザに対する自動焦点合わせ処理(オートフォーカス機能)により、ユーザと表示部340との間の距離を判断してもよい。例えばアクティブ方式を採用した場合には、デジタルフォトフレーム300等に赤外線や超音波を射出するデバイスを設けると共に、センサ350として赤外線や超音波の受光センサを設ける。そしてユーザからの反射光を受光センサにより検知することで、ユーザとの距離等を検出すればよい。またパッシブ方式を採用した場合には、センサ350として撮像センサを設け、撮像画像に対して、位相差検出方式やコントラスト検出方式による画像処理を行うことで、ユーザとの距離等を検出すればよい。   Alternatively, the user state determination unit 306 may determine the distance between the user and the display unit 340 by an automatic focusing process (autofocus function) for the user. For example, when the active method is adopted, a device for emitting infrared rays or ultrasonic waves is provided on the digital photo frame 300 or the like, and an infrared or ultrasonic light receiving sensor is provided as the sensor 350. And what is necessary is just to detect the distance with a user, etc. by detecting the reflected light from a user with a light receiving sensor. When the passive method is adopted, an image sensor is provided as the sensor 350, and the distance to the user or the like may be detected by performing image processing on the captured image using a phase difference detection method or a contrast detection method. .

ユーザの発話状態は、ユーザが発話した音声を構成する単語や音声の状態(トーン、周波数、大きさ)や発話スピードなどである。具体的には、ユーザの発話状態は音声認識により判断(解析)できる。このユーザの発話状態は発話状態判断部(音声判断部)309が判断する。   The utterance state of the user is a word constituting the voice uttered by the user, a voice state (tone, frequency, size), an utterance speed, or the like. Specifically, the user's speech state can be determined (analyzed) by voice recognition. The utterance state determination unit (voice determination unit) 309 determines the utterance state of the user.

ユーザの人数は、例えばセンサ350である焦電センサ(人感センサ)を用いて認識(特定)したり、センサ350である撮像センサを用いて認識できる。このユーザの人数の認識はユーザ人数認識部310により行われる。   The number of users can be recognized (identified) using, for example, a pyroelectric sensor (human sensor) that is the sensor 350, or can be recognized using an imaging sensor that is the sensor 350. Recognition of the number of users is performed by the user number recognition unit 310.

ユーザの人物認証は、例えば撮像センサを用いた顔認識処理により実現できる。このユーザの人物認証は人物認証部311により行われる。なお、目の網膜にある毛細血管の模様である網膜を用いたり、黒目の中の放射状の紋様である虹彩を用いて人物認証を行ってもよい。   User authentication of a user can be realized, for example, by face recognition processing using an image sensor. The user authentication of the user is performed by the person authentication unit 311. Note that human authentication may be performed using a retina that is a capillary blood vessel pattern in the retina of an eye or an iris that is a radial pattern in a black eye.

なお、ユーザの人物認証として年齢認識を行ってもよい。例えば大人用の顔パターンや子供用の顔パターンというように年齢層毎の顔パターンを用意し、これらの顔パターンの照合処理により年齢認識を行う。或いは顔認識処理によりユーザのしわを認識し、認識されたしわの数等に基づいてユーザの年齢を判断する。   It should be noted that age recognition may be performed as user personal authentication. For example, face patterns for each age group such as a face pattern for adults and a face pattern for children are prepared, and age recognition is performed by collating these face patterns. Alternatively, the user's wrinkle is recognized by face recognition processing, and the user's age is determined based on the number of recognized wrinkles and the like.

ユーザの位置関係や視認状態や発話状態や人数認識結果や人物認証結果の情報は、ユーザ状態記憶部(認識結果記憶部)326に記憶される。例えば検知範囲内でのユーザの人数が認識された場合には、ユーザの人数が、ユーザ状態記憶部326に記憶される。また例えば撮像センサによりユーザの顔認識処理が行われた場合には、画像認識の結果(例えばユーザの顔画像等の特徴点情報)が、ユーザ状態記憶部326に記憶される。この場合に、これらの状態情報や認識結果情報は、例えばユーザ登録情報に関連づけて記憶される。   Information on the user's positional relationship, viewing state, speech state, number of people recognition result, and person authentication result is stored in the user state storage unit (recognition result storage unit) 326. For example, when the number of users within the detection range is recognized, the number of users is stored in the user state storage unit 326. For example, when the user's face recognition process is performed by the imaging sensor, the result of image recognition (for example, feature point information such as the user's face image) is stored in the user state storage unit 326. In this case, these state information and recognition result information are stored in association with the user registration information, for example.

登録処理部314はユーザの登録処理を行う。例えばユーザ登録情報の設定処理を行う。具体的には、ユーザ登録画面等においてユーザが、操作部360やタッチパネルディスプレイを用いてユーザ登録情報を入力した場合に、入力されたユーザ登録情報をユーザに関連づけてユーザ登録情報記憶部325に記憶する。ここでユーザ登録情報は、例えばユーザのID、パスワードや、表示部340に表示される画像やタッチパネル用操作アイコンのカスタマイズ情報などを含むことができる。そして表示部340にはユーザ登録情報を反映させたコンテンツ画像やタッチパネル用操作アイコンが表示されることになる。   The registration processing unit 314 performs user registration processing. For example, user registration information setting processing is performed. Specifically, when the user inputs user registration information using the operation unit 360 or the touch panel display on the user registration screen or the like, the input user registration information is stored in the user registration information storage unit 325 in association with the user. To do. Here, the user registration information can include, for example, a user ID, password, customization information for an image displayed on the display unit 340, an operation icon for the touch panel, and the like. The display unit 340 displays a content image reflecting the user registration information and a touch panel operation icon.

表示モード切り替え部316は、表示モードの切り替え処理を行う。例えば、検知されたユーザの人数及び人物認証結果の少なくとも一方に応じて、タッチパネル用操作アイコンやコンテンツ画像の表示モードを切り替える。具体的には、ユーザの人数や人物認証結果に基づいて、タッチパネル用操作アイコンやコンテンツ画像の表示モードを、個人モードや共有モードや通常モードに切り替える。ここで、個人モードは、一人のユーザに関連づけられた個人モード用の表示制御を行うモードであり、そのユーザ用のタッチパネル用操作アイコンやコンテンツ画像を表示するモードである。共有モードは、複数人のユーザに関連づけられた共有モード用の表示制御を行うモードであり、例えば複数人のユーザに共有のタッチパネル用操作アイコンやコンテンツ画像を表示するモードである。通常モードは、通常モード用で表示制御を行うモードであり、例えば一般的(デフォルト)なタッチパネル用操作アイコンやコンテンツ画像を表示するモードであり、例えば個人モードや共有モードではない場合には通常モードに設定される。なお表示モード切り替え部316は、例えばユーザと表示部340との位置関係やユーザの視認状態などのユーザ状態に応じて表示モードを切り替えてもよい。   The display mode switching unit 316 performs display mode switching processing. For example, the operation mode for the touch panel and the display mode of the content image are switched according to at least one of the detected number of users and the person authentication result. Specifically, the display mode of the touch panel operation icon and the content image is switched to the personal mode, the sharing mode, and the normal mode based on the number of users and the person authentication result. Here, the personal mode is a mode in which display control for a personal mode associated with one user is performed, and a touch panel operation icon and a content image for the user are displayed. The sharing mode is a mode in which display control for a sharing mode associated with a plurality of users is performed. For example, a shared touch panel operation icon and a content image are displayed to a plurality of users. The normal mode is a mode in which display control is performed for the normal mode, for example, a mode for displaying general (default) touch panel operation icons and content images. For example, when the mode is not the personal mode or the sharing mode, the normal mode is used. Set to Note that the display mode switching unit 316 may switch the display mode according to a user state such as a positional relationship between the user and the display unit 340 and a user's viewing state.

なお表示モードの切り替えは、切り替えフラグ記憶部328に記憶される切り替えフラグを用いて行われる。具体的には、ユーザ状態判断部306によりユーザの人数が認識されたり、人物認証が行われると、その結果に応じて表示モードの切り替えフラグが設定され、設定された切り替えフラグが切り替えフラグ記憶部328に記憶される。またユーザ状態判断部306により、位置関係や視認状態や発話状態などのユーザ状態が判断されると、そのユーザ状態に応じて表示モードの切り替えフラグが設定され、設定された切り替えフラグが切り替えフラグ記憶部328に記憶される。   The display mode is switched using a switching flag stored in the switching flag storage unit 328. Specifically, when the number of users is recognized by the user state determination unit 306 or person authentication is performed, a display mode switching flag is set according to the result, and the set switching flag is displayed as a switching flag storage unit. Stored in 328. Further, when the user state determination unit 306 determines a user state such as a positional relationship, a visual recognition state, and an utterance state, a display mode switching flag is set according to the user state, and the set switching flag is stored in the switching flag storage. Stored in the unit 328.

またコンテンツ情報記憶部322に記憶されるコンテンツ画像には、タグが付与されている。具体的には、各コンテンツ画像には、そのコンテンツに対応するキーワードのタグや、個人モード用タグ、共有モード用タグ等の各種の表示モード用のタグ等が付与されている。例えばユーザが発話した音声から抽出された単語と、コンテンツ画像のタグとの比較を行うことで、タッチパネル用操作アイコンの表示制御を実現できる。或いは、各コンテンツ画像に付与されているタグを用いることで、表示モードの切り替え時等において、各種の表示モードに対応した表示制御を行い、その表示制御に応じたコンテンツ画像をコンテンツ情報記憶部322から読み出して、表示部340に表示できる。   A tag is assigned to the content image stored in the content information storage unit 322. Specifically, each content image is provided with a keyword tag corresponding to the content, various display mode tags such as a personal mode tag and a shared mode tag. For example, the display control of the operation icon for the touch panel can be realized by comparing the word extracted from the voice uttered by the user with the tag of the content image. Alternatively, by using a tag attached to each content image, display control corresponding to various display modes is performed at the time of switching the display mode, and the content image corresponding to the display control is stored in the content information storage unit 322. Can be displayed on the display unit 340.

情報更新部317は、個人情報(感性モデル)記憶部332やユーザ共有情報(共有感性モデル)記憶部334の情報の更新処理を行う。例えば表示部340に表示されたタッチパネル用操作アイコンに対するユーザの操作履歴を、個人情報記憶部332に書き込んでユーザの個人情報等を更新する。   The information update unit 317 updates information in the personal information (sensitivity model) storage unit 332 and the user shared information (shared sensitivity model) storage unit 334. For example, the user's operation history for the touch panel operation icon displayed on the display unit 340 is written in the personal information storage unit 332 to update the user's personal information and the like.

ここで操作履歴は、ユーザが行った各種操作の履歴であり、例えばユーザの画像の閲覧操作、画像のスキップ操作、或いは前の画像に戻る操作等の履歴である。具体的には、これらの各操作に対応するタッチパネル用操作アイコンのタッチ操作等の履歴である。   Here, the operation history is a history of various operations performed by the user, for example, a history of a user's image browsing operation, image skip operation, or operation to return to the previous image. Specifically, it is a history of touch operations of touch panel operation icons corresponding to these operations.

表示制御部318は、表示部340の表示制御を行う。例えばコンテンツ情報記憶部322に記憶されたコンテンツ画像の情報に基づいて、表示部340に画像を表示するための制御(描画バッファへの書き込み処理等)を行う。   The display control unit 318 performs display control of the display unit 340. For example, based on the content image information stored in the content information storage unit 322, control for displaying an image on the display unit 340 (such as a writing process to a drawing buffer) is performed.

具体的には本実施形態では表示部340がタッチパネルディスプレイにより構成される。そして表示制御部318は、検知情報取得部304により取得されたセンサ350(タッチパネルセンサ以外のセンサ)からの検知情報に応じて、タッチパネル用操作アイコンの表示態様を変化させる表示制御を行う。具体的には、取得された検知情報に基づいて、ユーザと表示部340との位置関係の判断、表示部340に対するユーザの視認状態の判断、ユーザの発話状態の判断、ユーザの人数の認識、及びユーザの人物認証の少なくとも1つが行われる。そして表示制御部318は、ユーザと表示部340との位置関係、ユーザの視認状態、ユーザの発話状態、ユーザの人数の認識結果、及びユーザの人物認証結果の少なくとも1つに応じて、タッチパネル用操作アイコンの表示態様を変化させる表示制御を行う。例えば、表示されるタッチパネル用操作アイコンの画像そのものを変化させたり、タッチパネル用操作アイコンの表示タイミング、表示時間、文字サイズ、文字フォント、色、透明度、輝度、コントラスト、サイズ、或いは表示方法等を変化させる。   Specifically, in the present embodiment, the display unit 340 is configured by a touch panel display. The display control unit 318 performs display control to change the display mode of the touch panel operation icon according to the detection information from the sensor 350 (sensor other than the touch panel sensor) acquired by the detection information acquisition unit 304. Specifically, based on the acquired detection information, determination of the positional relationship between the user and the display unit 340, determination of the user's visual status with respect to the display unit 340, determination of the user's utterance state, recognition of the number of users, And at least one of user authentication is performed. The display control unit 318 uses the touch panel for at least one of the positional relationship between the user and the display unit 340, the user's viewing state, the user's utterance state, the user's number of people recognition result, and the user's person authentication result. Display control for changing the display mode of the operation icon is performed. For example, changing the displayed image of the touch panel operation icon itself, changing the display timing, display time, character size, character font, color, transparency, brightness, contrast, size, or display method of the touch panel operation icon Let

なお、取得された検知情報に応じて、コンテンツ画像の表示態様を変化させる制御を行ってもよい。例えば表示されるコンテンツ画像そのものを変化させたり、コンテンツ画像の表示タイミング、表示時間、或いは表示方法等を変化させる。   In addition, you may perform control which changes the display mode of a content image according to the acquired detection information. For example, the displayed content image itself is changed, or the display timing, display time, or display method of the content image is changed.

またタッチパネル用操作アイコン(操作メニュー)は、タッチパネルディスプレイにおけるユーザのタッチ対象となるアイコン(絵や文字で表される画像)であり、各操作アイコンは各種の操作に対応している。例えば、詳細情報の表示、前の画像の表示、次の画像の表示、コンテンツに関する各種情報の表示、画像の保存、画像の破棄、情報の入力等の各種の操作に対応づけられている。そして操作アイコンにユーザがタッチすると、その操作アイコンに対応づけられた操作が実行される。   The touch panel operation icons (operation menus) are icons (images represented by pictures and characters) that are touched by the user on the touch panel display, and each operation icon corresponds to various operations. For example, it is associated with various operations such as display of detailed information, display of the previous image, display of the next image, display of various information related to the content, storage of the image, destruction of the image, input of information, and the like. When the user touches the operation icon, an operation associated with the operation icon is executed.

例えばユーザ状態判断部306が、ユーザと表示部340との位置関係として、ユーザと表示部340との間の距離を判断したとする。この場合には表示制御部318は、ユーザと表示部340との間の距離に応じて、タッチパネル用操作アイコンの表示制御を行う。例えばユーザと表示部340との間の距離が所定距離内である場合(ユーザが接近した場合)に、タッチパネル用操作アイコンの表示をオンにする。そしてタッチパネル用操作アイコンの表示をオンにした後、所定時間が経過してもユーザの操作が行われなかった場合(操作アイコンへのタッチ等が行われなかった場合)には、タッチパネル用操作アイコンの表示をオフにする。   For example, it is assumed that the user state determination unit 306 determines the distance between the user and the display unit 340 as the positional relationship between the user and the display unit 340. In this case, the display control unit 318 performs display control of the touch panel operation icon according to the distance between the user and the display unit 340. For example, when the distance between the user and the display unit 340 is within a predetermined distance (when the user approaches), the display of the touch panel operation icon is turned on. Then, after the display of the operation icon for the touch panel is turned on, if no user operation is performed after a predetermined time has passed (when the operation icon is not touched), the operation icon for the touch panel is displayed. Turn off the display.

また表示制御部318は、ユーザと表示部340との間の距離が所定距離より大きいと判断された場合(ユーザが接近していないと判断された場合)には、第1〜第N(Nは2以上の整数)のコンテンツ画像を表示部340にスライド表示する(シーケンシャルに表示する)。例えば第1〜第Nのコンテンツ画像とは、それぞれ異なるジャンル又は異なるカテゴリのコンテンツ画像である。一方、第1〜第Nのコンテンツ画像のうちの第K(1≦K≦N)のコンテンツ画像が表示されている時に、ユーザと表示部340との間の距離が所定距離内であると判断された場合(ユーザが接近したと判断された場合)には、第Kのコンテンツ画像に対応するタッチパネル用操作アイコンを表示する。   In addition, when it is determined that the distance between the user and the display unit 340 is greater than the predetermined distance (when it is determined that the user is not approaching), the display control unit 318 first to Nth (N Is displayed as a slide on the display unit 340 (displayed sequentially). For example, the first to Nth content images are content images of different genres or different categories. On the other hand, when the Kth (1 ≦ K ≦ N) content image among the first to Nth content images is displayed, it is determined that the distance between the user and the display unit 340 is within a predetermined distance. If it is determined (when it is determined that the user has approached), a touch panel operation icon corresponding to the Kth content image is displayed.

なお、ユーザと表示部340との間の距離に応じて、タッチパネル用操作アイコンの色、輝度、透明度、コントラスト、又は大きさ等を変化させてもよい。また表示制御部318は、距離そのものに基づいてタッチパネル用操作アイコンの表示態様を変化させる必要はなく、距離と等価なパラメータ(例えば顔領域のサイズ等)に基づいて表示態様を変化させてもよい。また表示制御部318は、ユーザが検知範囲内に存在しないと判断された場合には、表示部340の表示をオフにする。例えば通常モードから省電力モードに切り替えて、消費電力を節約する。   Note that the color, brightness, transparency, contrast, size, or the like of the touch panel operation icon may be changed in accordance with the distance between the user and the display unit 340. The display control unit 318 does not need to change the display mode of the touch panel operation icon based on the distance itself, and may change the display mode based on a parameter equivalent to the distance (for example, the size of the face area). . The display control unit 318 turns off the display of the display unit 340 when it is determined that the user does not exist within the detection range. For example, the power consumption is saved by switching from the normal mode to the power saving mode.

またユーザ状態判断部306が、ユーザの視認状態として、ユーザが表示部340を注視しているか否かを判断したとする。この場合には表示制御部318は、ユーザが表示部340を注視しているか否かに応じて、タッチパネル用操作アイコンの表示制御を行う。例えばユーザが表示部340を注視していると判断された場合に、タッチパネル用操作アイコンの表示をオンにする。具体的には、ユーザが注視しているコンテンツ画像に対応するタッチパネル用操作アイコンを表示する。例えばユーザが第1のコンテンツ画像を注視した場合には、第1のコンテンツ画像に対応づけられた第1のタッチパネル用操作アイコンを表示し、第2のコンテンツ画像を注視した場合には、第2のコンテンツ画像に対応づけられた第2のタッチパネル用操作アイコンを表示する。そして例えば、所定時間が経過してもユーザの操作が行われなかった場合には、タッチパネル用操作アイコンの表示をオフにする。   Further, it is assumed that the user state determination unit 306 determines whether the user is gazing at the display unit 340 as the user's visual recognition state. In this case, the display control unit 318 performs display control of the touch panel operation icon depending on whether or not the user is watching the display unit 340. For example, when it is determined that the user is gazing at the display unit 340, the display of the operation icon for the touch panel is turned on. Specifically, a touch panel operation icon corresponding to the content image being watched by the user is displayed. For example, when the user gazes at the first content image, the first touch panel operation icon associated with the first content image is displayed, and when the user gazes at the second content image, the second content image is displayed. The second touch panel operation icon associated with the content image is displayed. For example, when the user does not perform an operation even after a predetermined time has elapsed, the display of the touch panel operation icon is turned off.

また表示制御部318は、ユーザが前記表示部を注視していないと判断された場合には、第1〜第Nのコンテンツ画像を表示部340にスライド表示する。一方、第1〜第Nのコンテンツ画像のうちの第Kのコンテンツ画像が表示されている時にユーザが表示部340(第Kのコンテンツ画像)を注視していると判断された場合には、第Kのコンテンツ画像に対応するタッチパネル用操作アイコンを表示する。   In addition, when it is determined that the user is not gazing at the display unit, the display control unit 318 slides the first to Nth content images on the display unit 340. On the other hand, if it is determined that the user is gazing at the display unit 340 (Kth content image) when the Kth content image among the first to Nth content images is being displayed, A touch panel operation icon corresponding to the K content image is displayed.

またユーザ状態判断部306が、ユーザの発話状態を音声認識により判断したとする。この場合には表示制御部318は、音声認識の結果に応じて、タッチパネル用操作アイコンの表示制御を行う。具体的には、音声認識により抽出されたユーザの音声を構成する単語(ワード)が、表示部340に表示されているコンテンツ画像にタグとして設定されたキーワード(1又は複数のキーワードのいずれか)と一致又は類似するか否かを判断する。そして一致又は類似した場合には、一致又は類似したキーワードに対応するタッチパネル用操作アイコンを表示する。例えば、発話された単語が第1のキーワードに一致又は類似している場合には第1のキーワードに対応する第1のタッチパネル用操作アイコンを表示し、第2のキーワードに一致又は類似している場合には第2のキーワードに対応する第2のタッチパネル用操作アイコンを表示する。   Further, it is assumed that the user state determination unit 306 determines the user's utterance state by voice recognition. In this case, the display control unit 318 performs display control of the touch panel operation icon according to the result of the speech recognition. Specifically, a word (word) constituting a user's voice extracted by voice recognition is a keyword (either one or a plurality of keywords) set as a tag in the content image displayed on the display unit 340. It is judged whether or not it matches. If they match or are similar, a touch panel operation icon corresponding to the matching or similar keyword is displayed. For example, when the spoken word matches or is similar to the first keyword, the first touch panel operation icon corresponding to the first keyword is displayed and matches or is similar to the second keyword. In this case, a second touch panel operation icon corresponding to the second keyword is displayed.

またユーザ状態判断部306が、ユーザの人数を認識(特定)したとする。この場合には、表示制御部318は、検知されたユーザの人数が一人であると判断された場合と複数人であると判断された場合とで、表示部340に表示されるタッチパネル用操作アイコンの表示態様を異ならせる表示制御を行う。具体的には、検知されたユーザの人数が一人であると判断された場合には、検知された一人のユーザに対応する(関連づけられた)個人モード用のタッチパネル用操作アイコンを表示する。例えばその一人のユーザに対して登録されたユーザ登録情報などに基づいて、個人モード(プライベートモード)用の操作アイコンを表示する。一方、検知されたユーザの人数が複数人であると判断された場合には、検知された複数人のユーザに対応する(関連づけられた)共有モード用のタッチパネル用操作アイコンを表示する。例えばその複数人のユーザに対して登録されたユーザ登録情報(グループ登録情報)等に基づいて、共有モード(グループモード、家族モード)で表示動作を行い、共有モード用の操作アイコンを表示する。   Further, it is assumed that the user state determination unit 306 recognizes (identifies) the number of users. In this case, the display control unit 318 displays the touch panel operation icon displayed on the display unit 340 when the number of detected users is determined to be one and when it is determined that there are a plurality of users. Display control is performed to change the display mode. Specifically, when it is determined that the number of detected users is one, a touch panel operation icon for personal mode corresponding to (associated with) the detected one user is displayed. For example, an operation icon for the personal mode (private mode) is displayed based on the user registration information registered for the one user. On the other hand, when it is determined that there are a plurality of detected users, a touch panel operation icon for the sharing mode corresponding to (associated with) the detected plurality of users is displayed. For example, based on user registration information (group registration information) registered for the plurality of users, a display operation is performed in the sharing mode (group mode, family mode), and an operation icon for the sharing mode is displayed.

また表示制御部318は、検知されたユーザが第1のユーザであると判断された場合には、第1のユーザ用のタッチパネル用操作アイコンを表示し、検知されたユーザが第2のユーザであると判断された場合には、第2のユーザ用のタッチパネル用操作アイコンを表示する制御を行う。例えば登録処理部314が、ユーザの登録処理を行い、ユーザ状態判断部306が、検知されたユーザが登録ユーザであるか否かの人物認証を行う。すると、表示制御部318は、検知されたユーザが登録ユーザであると判断された場合には、登録ユーザに対応する個人モード用のタッチパネル用操作アイコンを表示する制御を行う。即ち、ユーザ登録情報記憶部325に記憶されたユーザ登録情報にしたがって、そのユーザに対応する個人モード用の操作アイコンを表示する。   Further, when it is determined that the detected user is the first user, the display control unit 318 displays a touch panel operation icon for the first user, and the detected user is the second user. If it is determined that there is a touch panel operation icon for the second user, control is performed. For example, the registration processing unit 314 performs user registration processing, and the user state determination unit 306 performs person authentication to determine whether or not the detected user is a registered user. Then, when it is determined that the detected user is a registered user, the display control unit 318 performs control to display a personal mode touch panel operation icon corresponding to the registered user. That is, according to the user registration information stored in the user registration information storage unit 325, an operation icon for the personal mode corresponding to the user is displayed.

またユーザ状態判断部306が、ユーザの年齢認識を行った場合には、表示制御部318は、ユーザの年齢認識結果(年齢層の認識結果)に基づき、タッチパネル用操作アイコンの表示制御を行う。具体的には、検知されたユーザの年齢認識結果に基づいて、ユーザの年齢層が所定年齢層であると判断された場合には、所定年齢層用のタッチパネル用操作アイコンを表示する。例えば、ユーザの年齢層が第1の年齢層(例えば子供の年齢層)であると判断された場合には、第1の年齢層用の操作アイコンを表示し、ユーザの年齢層が第2の年齢層(例えば老人や大人の年齢層)であると判断された場合には、第2の年齢層用の操作アイコンを表示する。或いは、コンテンツ画像の内容等を、年齢認識結果(年齢層)に基づいて変化させてもよい。   When the user state determination unit 306 recognizes the user's age, the display control unit 318 performs display control of the operation icon for the touch panel based on the user's age recognition result (age group recognition result). Specifically, when it is determined that the user's age group is a predetermined age group based on the detected age recognition result of the user, a touch panel operation icon for the predetermined age group is displayed. For example, when it is determined that the user's age group is a first age group (for example, a child's age group), an operation icon for the first age group is displayed, and the user's age group is the second age group. When it is determined that it is an age group (for example, an elderly person or an adult age group), an operation icon for the second age group is displayed. Or you may change the content of a content image, etc. based on an age recognition result (age group).

なお表示制御部318は、表示部340に表示される画像が第1のコンテンツ画像である場合には、第1のコンテンツ画像に対応づけられたタッチパネル用操作アイコンを表示する制御を行う。一方、表示部340に表示される画像が第2のコンテンツ画像である場合には、第2のコンテンツ画像に対応づけられたタッチパネル用操作アイコンを表示する制御を行う。即ち表示されるコンテンツ画像に応じて、それに対応する操作アイコンを表示するようにする。   In addition, when the image displayed on the display unit 340 is the first content image, the display control unit 318 performs control to display the touch panel operation icon associated with the first content image. On the other hand, when the image displayed on the display unit 340 is the second content image, control is performed to display a touch panel operation icon associated with the second content image. That is, an operation icon corresponding to the displayed content image is displayed.

2.位置関係に応じた操作アイコンの表示制御
本実施形態では、センサ350により取得された検知情報に応じてタッチパネル用の操作アイコンの表示態様を変化させている。具体的にはユーザと表示部340の位置関係に応じて操作アイコンを変化させている。
2. In this embodiment, the display mode of the operation icons for the touch panel is changed according to the detection information acquired by the sensor 350. Specifically, the operation icon is changed according to the positional relationship between the user and the display unit 340.

例えば図3(A)、図3(B)では、ユーザと表示部340(デジタルフォトフレーム)との間の距離(広義には位置関係)に応じて操作アイコンを変化させている。具体的には図3(A)において、ユーザUAは、デジタルフォトフレーム300のスライドショーによりコンテンツ画像である写真を鑑賞している。そして図3(A)では、ユーザUAと表示部340との間の距離が遠くなっており、所定距離以上になっている。この場合には、操作アイコンは表示オフになる。   For example, in FIGS. 3A and 3B, the operation icon is changed in accordance with the distance (positional relationship in a broad sense) between the user and the display unit 340 (digital photo frame). Specifically, in FIG. 3A, the user UA is viewing a photo that is a content image through a slide show of the digital photo frame 300. In FIG. 3A, the distance between the user UA and the display unit 340 is long, and is greater than or equal to a predetermined distance. In this case, the operation icon is turned off.

一方、図3(B)では、ユーザUAと表示部340との間の距離が近くなっており、所定距離よりも小さくなっている。即ちユーザUAが表示部340の表示内容を見るためや操作を行うために近づいている。この場合には、A1〜A3に示すタッチパネル用の操作アイコン(タッチパネル操作メニュー)を表示する。即ちコンテンツ画像に重畳するように操作アイコンを表示する。   On the other hand, in FIG. 3B, the distance between the user UA and the display unit 340 is close, and is smaller than the predetermined distance. That is, the user UA is approaching to see the display content of the display unit 340 or to perform an operation. In this case, operation icons (touch panel operation menu) for the touch panel shown in A1 to A3 are displayed. That is, an operation icon is displayed so as to be superimposed on the content image.

ここでA1の操作アイコンは、スライド表示等における前のコンテンツ画像の表示を指示するアイコンであり、A2の操作アイコンは、次のコンテンツ画像の表示を指示するアイコンである。またA3のアイコンは、表示されているコンテンツ画像の詳細情報の表示を指示するアイコンである。   Here, the operation icon A1 is an icon for instructing the display of the previous content image in the slide display or the like, and the operation icon A2 is an icon for instructing the display of the next content image. The icon A3 is an icon for instructing display of detailed information of the displayed content image.

このような操作アイコンを表示することで、ユーザは、タッチパネルディスプレイの操作アイコンにタッチすることで、その操作アイコンに対応づけられた操作を実行できるようになる。例えば写真のスライド表示の最中に、A1の操作アイコンにタッチすることで前の写真を見たり、A2の操作アイコンにタッチすることで次の写真を早送りして見ることが可能になる。またA3の操作アイコンをタッチすることで、その写真の撮影時の状況や記録(例えば撮影時間等の撮影時に設定されたタグ情報)などを確認できるようになる。   By displaying such an operation icon, the user can perform an operation associated with the operation icon by touching the operation icon on the touch panel display. For example, during the slide display of a photo, it is possible to view the previous photo by touching the operation icon A1, or to fast-forward and view the next photo by touching the operation icon A2. Further, by touching the operation icon A3, it becomes possible to confirm the situation and recording (for example, tag information set at the time of photographing such as the photographing time) of the photograph.

これまでのデジタルフォトフレームでは、写真等を自動的にスライド表示するだけの機能しか持たないものが多く、表示画像が単調であり、変化に乏しかった。また、ユーザにとって利便性の高いインターフェースを備えていなかった。   Many digital photo frames so far have only a function of automatically displaying photographs and the like, and the displayed images are monotonous and scarcely changed. Moreover, it did not have a highly convenient interface for the user.

この点、本実施形態のデジタルフォトフレームでは表示部がタッチパネルディスプレイにより構成される。従って、ユーザは、画面の操作アイコンにタッチするだけで自身が所望する操作を行うことができ、ユーザにとって利便性の高いインターフェース環境を提供できる。   In this regard, in the digital photo frame of the present embodiment, the display unit is configured by a touch panel display. Therefore, the user can perform an operation desired by simply touching an operation icon on the screen, and an interface environment that is highly convenient for the user can be provided.

また例えばナビゲーション装置などにおいては、操作アイコンを常時表示しても、それほど問題はない。しかしながら、デジタルフォトフレームでは、その主眼は写真等の鑑賞にあるため、操作アイコンが常時表示されていると、写真等の鑑賞の妨げになってしまう。   Further, for example, in a navigation device or the like, there is no problem even if the operation icon is always displayed. However, since the main focus of the digital photo frame is to appreciate a photograph or the like, if the operation icon is always displayed, the viewing of the photograph or the like is hindered.

この点、本実施形態では、センサからの検知情報に基づいて操作アイコンの表示態様が変化し、例えばユーザが接近した場合に操作アイコンの表示がオンになる。そしてユーザが一定時間操作しないなどの所定条件が成立すると、操作アイコンの表示がオフになる。従ってユーザは、図3(A)の状態で写真等を鑑賞しながら、操作を所望するときにはデジタルフォトフレームに近づき、操作アイコンにタッチすることで所望の操作を実行できる。従って本実施形態によれば、操作アイコンが表示されていない状態での写真等の鑑賞と、タッチパネルを用いた簡便なインターフェースの提供とを両立できる。   In this regard, in the present embodiment, the display mode of the operation icon changes based on the detection information from the sensor. For example, when the user approaches, the display of the operation icon is turned on. When a predetermined condition such as the user not operating for a certain time is satisfied, the operation icon display is turned off. Accordingly, the user can execute a desired operation by viewing a photograph or the like in the state of FIG. 3A and approaching the digital photo frame and touching an operation icon when an operation is desired. Therefore, according to this embodiment, it is possible to achieve both viewing of a photograph or the like in a state where no operation icon is displayed and provision of a simple interface using a touch panel.

なお操作アイコンの表示態様としては種々のものを想定できる。例えば図4(A)、図4(B)に他の表示態様の例を示す。   Various display modes of operation icons can be assumed. For example, FIGS. 4A and 4B show examples of other display modes.

図4(A)ではコンテンツ画像として、カメラの商品広告情報が表示されている。この場合にユーザUAがデジタルフォトフレーム300に近づくと、図4(B)のB1〜B4に示すように、コンテンツ画像に対応したタッチパネル用操作アイコンが表示される。例えばユーザUAがB1、B2の操作アイコンにタッチすると、商品であるカメラの仕様、口コミ情報が表示される。またユーザUAは、B3の操作アイコンにタッチしてこの商品にチェックマークを付けたり、B4の操作アイコンにタッチしてこの商品をインターネット等を介して購入することが可能になる。   In FIG. 4A, product advertisement information of a camera is displayed as a content image. In this case, when the user UA approaches the digital photo frame 300, a touch panel operation icon corresponding to the content image is displayed as shown in B1 to B4 of FIG. For example, when the user UA touches the operation icons B1 and B2, the specifications of the camera as a product and word-of-mouth information are displayed. Further, the user UA can touch the operation icon B3 to put a check mark on the product, or touch the operation icon B4 to purchase the product via the Internet or the like.

このように本実施形態によれば、各コンテンツ画像に対応したタッチパネル用操作アイコンを表示できる。例えば第1のコンテンツ画像が表示されている時にユーザが接近すると第1のコンテンツ画像に対応する第1のタッチパネル用操作アイコンが表示され、第2のコンテンツ画像が表示されている時にユーザが接近すると第2のコンテンツ画像に対応する第2のタッチパネル用操作アイコンが表示される。従って、図3(A)、図3(B)に示すような撮影写真のコンテンツでは、写真の鑑賞を容易化する操作アイコンを表示でき、図4(A)、図4(B)に示すような商品広告のコンテンツでは、商品の情報収集や購入を容易化する操作アイコンを表示できる。従って、各コンテンツに応じた適切なインターフェース環境をユーザに提供できると共にデジタルフォトフレームを用いた多様な情報提示を実現できる。   Thus, according to the present embodiment, it is possible to display the touch panel operation icons corresponding to the respective content images. For example, when the user approaches when the first content image is displayed, the first touch panel operation icon corresponding to the first content image is displayed, and when the user approaches when the second content image is displayed. A second touch panel operation icon corresponding to the second content image is displayed. 3A and 3B, operation icons for facilitating the viewing of photos can be displayed, as shown in FIGS. 4A and 4B. In the product advertisement content, operation icons that facilitate the collection and purchase of product information can be displayed. Therefore, it is possible to provide a user with an appropriate interface environment according to each content and realize various information presentations using a digital photo frame.

なお各コンテンツ画像に対応した操作アイコンを表示するためには、各コンテンツ画像に対して、対応する操作アイコンを指示するためのタグを対応づけておけばよい。即ち図2のコンテンツ情報記憶部322が、各コンテンツ画像に対応づけて、対応する操作アイコンの指示情報をタグとして記憶する。この操作アイコンの指示情報のタグは、例えばユーザ登録情報としてユーザが設定したり、コンテンツ提供者がコンテンツ情報として設定したり、所定のアルゴリズムに従って自動的に設定される。   In order to display an operation icon corresponding to each content image, a tag for instructing the corresponding operation icon may be associated with each content image. That is, the content information storage unit 322 in FIG. 2 stores the instruction information of the corresponding operation icon as a tag in association with each content image. The operation information instruction information tag is set by the user as user registration information, set by the content provider as content information, or automatically set according to a predetermined algorithm.

また、ユーザとの距離に応じて操作アイコン等の表示態様を切り替える場合、この距離は、ユーザと表示部340との直線距離であってもよいし、奥行き方向での距離(Z方向の距離)であってもよい。またこの場合の距離は、距離と数学的な等価なパラメータ(例えば後述する顔領域の面積等)も含み、例えば距離の変化に応じて変化するパラメータであればよい。またユーザとの位置関係は、距離に限定されず、例えばユーザの視線方向と表示部340の表示画面とのなす角度などであってもよい。   When the display mode of the operation icon or the like is switched according to the distance to the user, this distance may be a linear distance between the user and the display unit 340, or a distance in the depth direction (distance in the Z direction). It may be. In addition, the distance in this case includes a parameter mathematically equivalent to the distance (for example, the area of a face area described later), and may be a parameter that changes according to a change in distance, for example. The positional relationship with the user is not limited to the distance, and may be, for example, an angle formed by the user's line-of-sight direction and the display screen of the display unit 340.

また図3(A)〜図4(B)では、ユーザと表示部340との位置関係に応じてタッチパネル用操作アイコンの表示態様を変化させる場合について説明したが、ユーザとの位置関係に応じてコンテンツ画像の表示態様を変化させてもよい。例えばユーザとの位置関係に応じて、コンテンツ画像の詳細度や画面分割数や文字サイズを変化させる。具体的には、ユーザとの距離が近づくにつれて、コンテンツ画像の詳細度を高くしたり、画面分割数を大きくしたり、文字サイズを小さくする。この場合の詳細度や画面分割数や文字サイズの切り替えは2段階でもよいし、3段階以上であってもよい。或いは、ユーザとの位置関係に応じて関連画像を表示したり、表示部の表示をオン・オフすることで、コンテンツ画像の表示態様を変化させてもよい。   3A to 4B, the case where the display mode of the operation icons for the touch panel is changed according to the positional relationship between the user and the display unit 340 has been described. However, according to the positional relationship with the user. The display mode of the content image may be changed. For example, the detail level of the content image, the number of screen divisions, and the character size are changed according to the positional relationship with the user. Specifically, as the distance from the user approaches, the level of detail of the content image is increased, the number of screen divisions is increased, and the character size is decreased. In this case, the level of detail, the number of screen divisions, and the character size may be switched in two stages or in three or more stages. Or you may change the display mode of a content image by displaying a related image according to the positional relationship with a user, or turning ON / OFF the display of a display part.

このようにユーザとの位置関係に応じてコンテンツ画像の表示態様を変化させれば、例えばコンテンツ画像に興味を持って近づいて来たユーザに対して、より詳細な情報を提供することなどが可能になり、ユーザとの距離に応じた適切なコンテンツ画像の表示を実現できる。   If the display mode of the content image is changed in accordance with the positional relationship with the user in this way, for example, more detailed information can be provided to a user who has approached the content image with interest. Thus, it is possible to display an appropriate content image according to the distance to the user.

次に図5(A)、図5(B)を用いて、ユーザと表示部340の間の距離(位置関係)の検出手法の一例について説明する。図5(A)、図5(B)では、センサ350として、CCD、CMOSセンサなどの撮像センサ(カメラ)を用いる。そして撮像センサからの撮像情報に基づいて、矩形の枠領域である顔領域FARを検出し、検出された顔領域FARのサイズを求める。そして求められたサイズに基づいて、ユーザと表示部340との間の距離を判断する。   Next, an example of a method for detecting the distance (positional relationship) between the user and the display unit 340 will be described with reference to FIGS. 5A and 5B, an image sensor (camera) such as a CCD or CMOS sensor is used as the sensor 350. Based on the imaging information from the imaging sensor, a face area FAR that is a rectangular frame area is detected, and the size of the detected face area FAR is obtained. Based on the obtained size, the distance between the user and the display unit 340 is determined.

例えば図5(A)では、顔領域FARのサイズが小さいため(所定サイズ以下であるため)、ユーザとの距離は遠いと判断される。従って、この場合には図3(A)、図4(A)に示すようにタッチパネル用操作アイコンの表示をオフにする。一方、図5(B)では、顔領域FARのサイズが大きいため(所定サイズよりも大きいため)、ユーザとの距離は近いと判断される。従って、この場合には図3(B)、図4(B)に示すようにタッチパネル用操作アイコンの表示をオンにする。   For example, in FIG. 5A, since the size of the face area FAR is small (below a predetermined size), it is determined that the distance from the user is long. Therefore, in this case, the display of the touch panel operation icon is turned off as shown in FIGS. On the other hand, in FIG. 5B, since the size of the face area FAR is large (because it is larger than the predetermined size), it is determined that the distance to the user is short. Accordingly, in this case, the display of the touch panel operation icon is turned on as shown in FIGS.

ここで顔領域の検出手法としては種々の手法が考えられる。例えば、顔検出を行うためには、撮像センサで撮影された撮像画像において、顔がある場所と他の物体とを区別して、顔領域を切り出す必要がある。顔は、目、鼻、口等から構成され、これらの形状・位置関係は個人差はあるものの、ほぼ共通した特徴を有する。そこで、この共通な特徴を用いて、顔を他の物体から識別して画面の中から切り出す。このための手がかりとしては、肌の色、顔の動き、形、大きさ等がある。肌の色を用いる場合には、RGBデータを色相・輝度・彩度からなるHSVデータに変換し、人の肌の色相を抽出する手法を採用する。   Here, various methods can be considered as a method for detecting a face region. For example, in order to perform face detection, it is necessary to cut out a face region by distinguishing a place where the face is from another object in a captured image captured by an image sensor. The face is composed of eyes, nose, mouth and the like, and these shapes and positional relationships have almost common characteristics, although there are individual differences. Therefore, using this common feature, the face is identified from other objects and cut out from the screen. Clues for this include skin color, facial movement, shape, size, and the like. In the case of using skin color, a method of converting RGB data into HSV data composed of hue, luminance, and saturation and extracting a human skin hue is adopted.

或いは、多数の人の顔パターンから生成した平均顔パターンを顔テンプレートとして作成してもよい。そして、この顔テンプレートを撮像画像の画面上で走査して、撮像画像との相関を求め、最も相関値が高い領域を顔領域として検出する。   Or you may produce the average face pattern produced | generated from the face pattern of many people as a face template. Then, this face template is scanned on the screen of the captured image to obtain a correlation with the captured image, and an area having the highest correlation value is detected as a face area.

なお検出精度を高めるため、複数の顔テンプレートを辞書データとして用意し、これらの複数の顔テンプレートを用いて顔領域を検出してもよい。或いは目、鼻、口の特徴や、これらの位置関係や、顔の中のコントラストなどの情報も考慮して、顔領域を検出してもよい。或いは、ニューラルネットワークモデルを用いた統計的なパターン認識により顔領域を検出することも可能である。   In order to improve the detection accuracy, a plurality of face templates may be prepared as dictionary data, and a face area may be detected using the plurality of face templates. Alternatively, the face area may be detected in consideration of the characteristics of the eyes, nose, mouth, the positional relationship between these, and the contrast in the face. Alternatively, the face area can be detected by statistical pattern recognition using a neural network model.

図5(A)、図5(B)の検出手法によれば、顔領域FARのサイズによりユーザと表示部340の距離を検出できるのみならず、ユーザが表示部340を見ているか否かも同時に検出できるという利点がある。即ち、ユーザの視線が表示部340の方に向いていなかった場合には、顔テンプレートとの相関値が低くなるため、顔領域FARは非検出になる。従って、顔領域FARが検出されたということは、ユーザの視線が表示部340の方に向いており、ユーザの視野範囲内に表示部340が入っていることと等価になる。そして、この状態で、顔領域FARのサイズを検出して、図3(A)〜図4(B)に示すように操作アイコン等の表示態様を変化させれば、表示部340のコンテンツ画像を見ているユーザに対して適切な操作アイコンを表示できるようになる。これにより、これまでにないデジタルフォトフレーム300を提供できる。   5A and 5B, not only the distance between the user and the display unit 340 can be detected based on the size of the face area FAR, but also whether or not the user is looking at the display unit 340 at the same time. There is an advantage that it can be detected. That is, when the user's line of sight is not directed toward the display unit 340, the correlation value with the face template is low, and the face area FAR is not detected. Therefore, the detection of the face area FAR is equivalent to the fact that the user's line of sight is directed toward the display unit 340 and the display unit 340 is within the visual field range of the user. In this state, if the size of the face area FAR is detected and the display mode of the operation icon or the like is changed as shown in FIGS. 3A to 4B, the content image on the display unit 340 is displayed. Appropriate operation icons can be displayed for the viewing user. As a result, the digital photo frame 300 that has never existed can be provided.

なおユーザの検知手法は、図5(A)、図5(B)の手法に限定されない。例えば一般的なカメラや携帯電話機のカメラ等に実装されているオートフォーカス機能を有効活用してユーザを検知してもよい。このオートフォーカス機能を用いれば、デジタルフォトフレーム300の前にユーザ(人物)が存在するか否かや、そのユーザと表示部340との距離などの位置関係を判断できる。   Note that the user detection method is not limited to the method shown in FIGS. 5 (A) and 5 (B). For example, the user may be detected by effectively utilizing an autofocus function mounted on a general camera or a camera of a mobile phone. By using this autofocus function, it is possible to determine whether or not a user (person) exists in front of the digital photo frame 300 and the positional relationship such as the distance between the user and the display unit 340.

例えば部屋の中に誰も居ない状態では、オートフォーカスの焦点はほとんど固定されるが、デジタルフォトフレーム300の表示部340の前をユーザが横切った場合等には、オートフォーカス機能が働き、これによりユーザが存在するか否かを判断できる。またデジタルフォトフレーム300の表示部340をユーザが見ている場合には、そのユーザに反応してオートフォーカスが作動して、焦点をそのユーザに自動的に合わせるため、ユーザと表示部340とのだいたいの距離を検出できる。   For example, when there is no one in the room, the focus of autofocus is almost fixed. However, when the user crosses the display unit 340 of the digital photo frame 300, the autofocus function works, It can be determined whether or not the user exists. In addition, when the user is viewing the display unit 340 of the digital photo frame 300, the autofocus is activated in response to the user, and the user and the display unit 340 are automatically focused on the user. Can detect the approximate distance.

なおオートフォーカスの方式としては、アクティブ方式やパッシブ方式がある。アクティブ方式では、赤外線や超音波などを射出して、ユーザ等の被写体との距離を測定する。即ち反射波が戻ってくるまでの時間等を測定することで、被写体との距離を測定する。このアクティブ方式によれば、暗い場所でも焦点を簡単に合わせることができるという利点がある。   As an autofocus method, there are an active method and a passive method. In the active method, infrared rays or ultrasonic waves are emitted to measure the distance from a subject such as a user. That is, the distance to the subject is measured by measuring the time until the reflected wave returns. This active method has an advantage that the focus can be easily adjusted even in a dark place.

一方、パッシブ方式では、被写体の輝度情報をCCDセンサ等の撮像センサで受光して、電気処理により被写体との距離(焦点位置)を検出する。即ち撮影された画像を用いて距離を測定する。このパッシブ方式には、輝度信号の横ずれを検出する位相差検出方式や、輝度信号のコントラストを検出するコントラスト検出方式などがある。   On the other hand, in the passive method, the luminance information of the subject is received by an imaging sensor such as a CCD sensor, and the distance (focus position) from the subject is detected by electrical processing. That is, the distance is measured using the photographed image. The passive method includes a phase difference detection method for detecting a lateral shift of a luminance signal, a contrast detection method for detecting a contrast of the luminance signal, and the like.

次に図6のフローチャートを用いて、ユーザとの位置関係に応じた操作アイコンの表示制御の具体的な処理例について説明する。   Next, a specific processing example of the display control of the operation icon according to the positional relationship with the user will be described using the flowchart of FIG.

まずセンサの1つである焦電センサを用いて、検知範囲内にユーザ(人物)が存在するか否かを判断する(ステップS1)。即ち、デジタルフォトフレームの周辺にユーザが存在するか否かを広範囲に大雑把に検知するために、焦電センサを使用する。このようにセンサとして、焦電センサと撮像センサを使い分けることで、ユーザ状態の効率的な検出が可能になる。   First, a pyroelectric sensor, which is one of the sensors, is used to determine whether or not a user (person) exists within the detection range (step S1). That is, a pyroelectric sensor is used to roughly detect whether or not a user exists around the digital photo frame. Thus, by efficiently using the pyroelectric sensor and the image sensor as the sensors, the user state can be efficiently detected.

そして、ユーザが存在しないと判断された場合には(ステップS2)、表示部の表示をオフにして省電力モードに設定する(ステップS3)。一方、ユーザが存在すると判断された場合には、表示部の表示をオンにして、コンテンツ画像を表示する(ステップS4)。このようにすることで、デジタルフォトフレームの近くにユーザがいないのに、表示部に画像が表示されて電力が無駄に消費されてしまう事態を防止できる。   If it is determined that there is no user (step S2), the display on the display unit is turned off and the power saving mode is set (step S3). On the other hand, if it is determined that there is a user, the display of the display unit is turned on and the content image is displayed (step S4). By doing so, it is possible to prevent a situation where an image is displayed on the display unit and power is wasted even when there is no user near the digital photo frame.

次に、センサの1つである撮像センサ(カメラ)を用いた顔検出により、ユーザの視野範囲内に表示部が入っているか否かを判断する(ステップS5)。そして視野範囲内に入っていると判断された場合には(ステップS6)、ユーザと表示部(表示画面)との距離を、顔領域(枠領域)のサイズから判断する(ステップS7)。例えば図5(A)、図5(B)に示すように顔領域が検出された場合には、ユーザの視野範囲内に表示部が入っていると判断される。そして顔領域のサイズを検出して、ユーザと表示部との距離を判断(推定)する。   Next, it is determined whether or not the display unit is within the visual field range of the user by face detection using an imaging sensor (camera) that is one of the sensors (step S5). If it is determined that it is within the visual field range (step S6), the distance between the user and the display unit (display screen) is determined from the size of the face area (frame area) (step S7). For example, when a face area is detected as shown in FIGS. 5A and 5B, it is determined that the display unit is within the visual field range of the user. Then, the size of the face area is detected, and the distance between the user and the display unit is determined (estimated).

ユーザと表示部との距離が所定距離以内であると判断された場合には(ステップS8)、タッチパネル用操作アイコンの表示をオンにする(ステップS9)。この際に例えばコンテンツ画像の詳細表示モードをオンにしてもよい。そしてこのようにタッチパネル用操作アイコンの表示をオンにした後、ユーザの操作が行われずに所定時間が経過した場合には(ステップS10)、タッチパネル用操作アイコンの表示をオフにする(ステップS11)。以上のようにすることで、図3(A)〜図4(B)で説明したように、距離等の位置関係に応じたタッチパネル用操作アイコンの表示のオン・オフ制御を実現できる。   When it is determined that the distance between the user and the display unit is within a predetermined distance (step S8), the display of the touch panel operation icon is turned on (step S9). At this time, for example, the detailed display mode of the content image may be turned on. Then, after the display of the touch panel operation icon is turned on in this way, when a predetermined time has passed without any user operation (step S10), the display of the touch panel operation icon is turned off (step S11). . As described above, as described with reference to FIGS. 3A to 4B, the on / off control of the display of the operation icon for the touch panel according to the positional relationship such as the distance can be realized.

3.視認状態に応じた操作アイコンの表示制御
本実施形態では、ユーザの視認状態に応じてタッチパネル用操作アイコンの表示態様を変化させている。具体的には、ユーザが表示部340を注視しているか否かや、ユーザの視野範囲内に表示部340が入っているか否かなどに応じて表示態様を変化させる。
3. Display control of operation icon according to visual recognition state In this embodiment, the display mode of the operation icon for touch panels is changed according to the visual recognition state of the user. Specifically, the display mode is changed according to whether or not the user is gazing at the display unit 340, whether or not the display unit 340 is within the visual field range of the user, and the like.

例えば図7(A)、図7(B)では、ユーザUAが表示部340を注視しているか否かに応じて、操作アイコンの表示態様を変化させている。具体的には図7(A)では、ユーザUAの視線方向は表示部340の方向に向いておらず、表示部340を注視していない。この場合には、コンテンツ画像のみを表示し、操作アイコンは表示オフにする。   For example, in FIGS. 7A and 7B, the display mode of the operation icon is changed depending on whether or not the user UA is gazing at the display unit 340. Specifically, in FIG. 7A, the line of sight of the user UA does not face the direction of the display unit 340, and the display unit 340 is not watched. In this case, only the content image is displayed and the operation icon is turned off.

一方、図7(B)では、ユーザが表示部340を注視している。例えば表示部340がユーザUAの視野範囲内に一定時間以上入っている。この場合には、C1〜C4に示すように操作アイコンの表示をオンにする。具体的にはコンテンツであるカメラの商品情報の提供や商品購入のための操作アイコンを、カメラのコンテンツ画像に対して重畳して表示する。   On the other hand, in FIG. 7B, the user is watching the display unit 340. For example, the display unit 340 is within the visual field range of the user UA for a predetermined time or more. In this case, the operation icon display is turned on as indicated by C1 to C4. Specifically, an operation icon for providing product information of a camera as a content or purchasing a product is displayed superimposed on a content image of the camera.

例えば図7(A)のようにユーザがカメラのコンテンツ画像を注視していない場合には、ユーザはそのカメラの購入等にそれほど興味がないと考えられる。一方、図7(B)に示すようにユーザが注視している場合には、そのカメラの興味を持っており、購入に意欲的であると考えられる。従って、この場合にはC1〜C4に示すような操作アイコンを表示して、ユーザがカメラの情報を調べたり、購入するための適切なインターフェース環境を提供する。このようにすることで、ユーザにとって利便性の高いインターフェース環境を実現できる。   For example, when the user is not gazing at the content image of the camera as shown in FIG. 7A, it is considered that the user is not so interested in purchasing the camera. On the other hand, when the user is gazing as shown in FIG. 7B, he / she is interested in the camera and is willing to purchase. Therefore, in this case, the operation icons as shown in C1 to C4 are displayed to provide an appropriate interface environment for the user to check the camera information or purchase. By doing so, an interface environment that is highly convenient for the user can be realized.

図8に、視認状態に応じて操作アイコンの表示態様を変化させる他の例を示す。   FIG. 8 shows another example in which the display mode of the operation icon is changed according to the visual recognition state.

図8に示すように、ユーザが表示部340を注視していないと判断されて、注視モードがオフに設定された場合には、コンテンツ画像IM1〜IM5(広義には第1〜第Nのコンテンツ画像)のスライド表示が行われる。即ち、コンテンツ画像IM1〜IM5の各コンテンツ画像が所定時間毎にシーケンシャルに表示される。ここでコンテンツ画像IM1〜IM5は、そのコンテンツ内容(テーマ)が異なっている。具体的には、コンテンツ画像IM1、IM2、IM3、IM4、IM5は、各々、ニュース、天気、株価、風景の写真、動物の写真を表すコンテンツとなっている。   As shown in FIG. 8, when it is determined that the user is not gazing at the display unit 340 and the gazing mode is set to off, content images IM1 to IM5 (first to Nth contents in a broad sense) Image) slide display. That is, the content images IM1 to IM5 are displayed sequentially every predetermined time. Here, the content contents (themes) of the content images IM1 to IM5 are different. Specifically, the content images IM1, IM2, IM3, IM4, and IM5 are contents representing news, weather, stock prices, landscape photos, and animal photos, respectively.

このようにコンテンツ画像IM1〜IM5がスライド表示され、例えば天気のコンテンツ画像IM2(広義には第Kのコンテンツ画像)が表示されている時にユーザが表示部340を注視し、注視モードがオンになったとする。この場合には、D1、D2に示すような天気のコンテンツに対応する操作アイコンの表示がオンになったコンテンツ画像IM21Aを表示する。そしてD1に示す詳細表示指示の操作アイコンにユーザがタッチすると、今日の天気の詳細情報が示されるコンテンツ画像IM21Bが表示される。一方、D2に示す操作アイコンにユーザがタッチすると、今日の降水確率の情報が示される次のコンテンツ画像IM22Aが表示される。   Thus, the content images IM1 to IM5 are slide-displayed. For example, when the weather content image IM2 (K-th content image in a broad sense) is displayed, the user gazes at the display unit 340, and the gaze mode is turned on. Suppose. In this case, the content image IM21A in which the operation icon corresponding to the weather content as indicated by D1 and D2 is turned on is displayed. When the user touches the operation icon for the detailed display instruction shown in D1, the content image IM21B showing the detailed information of today's weather is displayed. On the other hand, when the user touches the operation icon indicated by D2, the next content image IM22A indicating information on the probability of today's precipitation is displayed.

そして、このコンテンツ画像IM22Aにおいて、D3の操作アイコンにユーザがタッチすると、今日の降水確率の詳細情報が示されるコンテンツ画像IM22Bが表示される。一方、D4の操作アイコンにタッチすると、花粉情報が示される次のコンテンツ画像IM23Aが表示される。   Then, in this content image IM22A, when the user touches the operation icon D3, a content image IM22B showing detailed information on today's precipitation probability is displayed. On the other hand, when the operation icon D4 is touched, the next content image IM23A showing pollen information is displayed.

そして、このコンテンツ画像IM23Aにおいて、D5の操作アイコンにユーザがタッチすると、花粉の詳細情報が示されるコンテンツ画像IM23Bが表示される。一方、D6の操作アイコンにタッチすると、今日の天気情報が示されるコンテンツ画像IM21Aの表示に戻る。   Then, in the content image IM23A, when the user touches the operation icon D5, the content image IM23B showing the detailed information of the pollen is displayed. On the other hand, when the operation icon D6 is touched, the display returns to the display of the content image IM21A showing today's weather information.

また詳細表示のコンテンツ画像IM21B、IM22B、IM23Bにおいて、D7、D9、D11に示す簡略表示指示の操作アイコンにタッチすると、簡略表示のコンテンツ画像IM21A、IM22A、IM23Aの表示に戻る。一方、コンテンツ画像IM21B、IM22B、IM23Bにおいて、D8、D10、D12に示す次のコンテンツ表示指示の操作アイコンにタッチすると、次のコンテンツ画像IM22B、IM23B、IM21Bが表示されるようになる。   Further, in the detailed display content images IM21B, IM22B, and IM23B, when the operation icons for simple display instructions shown in D7, D9, and D11 are touched, the display returns to the display of the simple display content images IM21A, IM22A, and IM23A. On the other hand, in the content images IM21B, IM22B, IM23B, when the operation icon for the next content display instruction shown in D8, D10, D12 is touched, the next content images IM22B, IM23B, IM21B are displayed.

図8の表示制御手法によれば、コンテンツ画像IM1〜IM5がスライド表示されている時に、ユーザが興味を持つコンテンツ画像を注視すると、そのコンテンツ画像に対応する操作アイコンが表示されるようになる。そして、表示された操作アイコンにユーザがタッチすることで、コンテンツ画像の詳細画像や関連画像が表示されるようになる。例えばコンテンツ画像IM21AにおいてD1の操作アイコンにタッチすることで、IM21Aの詳細画像であるコンテンツ画像IM21Bが表示される。またD2の操作アイコンにタッチすることで、IM21Aの関連画像であるコンテンツ画像IM22Aが表示される。従って、ユーザの興味に応じたコンテンツ画像を効率的に表示できると共に、ユーザが操作アイコンにタッチすることでその詳細画像や関連画像を表示できるようになる。これにより、コンテンツ画像の表示態様を多様に変化させることが可能になり、これまでにないタイプのデジタルフォトフレームを提供できる。   According to the display control method of FIG. 8, when content images IM1 to IM5 are slide-displayed, if a content image in which the user is interested is watched, an operation icon corresponding to the content image is displayed. Then, when the user touches the displayed operation icon, a detailed image of the content image and a related image are displayed. For example, the content image IM21B, which is a detailed image of IM21A, is displayed by touching the operation icon D1 on the content image IM21A. Further, by touching the operation icon D2, a content image IM22A that is a related image of IM21A is displayed. Therefore, the content image according to the user's interest can be efficiently displayed, and the detailed image and the related image can be displayed when the user touches the operation icon. As a result, the display mode of the content image can be changed in various ways, and an unprecedented type of digital photo frame can be provided.

なお図8において、ユーザと表示部340との間の距離が所定距離より大きいと判断された場合(接近していないと判断された場合)には、コンテンツ画像IM1〜IM5をスライド表示し、コンテンツ画像IM2(第Kのコンテンツ画像)が表示されている時に、ユーザと表示部340との間の距離が所定距離内であると判断された場合(接近していると判断された場合)には、タッチパネル用操作アイコンの表示をオンにするようにしてもよい。   In FIG. 8, when it is determined that the distance between the user and the display unit 340 is larger than the predetermined distance (when it is determined that the user is not approaching), the content images IM1 to IM5 are displayed in a slide manner, and the content is displayed. When it is determined that the distance between the user and the display unit 340 is within a predetermined distance when the image IM2 (Kth content image) is displayed (when it is determined that the user is approaching) The display of the touch panel operation icon may be turned on.

また図7(A)〜図8では、ユーザの視認状態に応じてタッチパネル用操作アイコンの表示態様を変化させる場合について説明したが、ユーザの視認状態に応じてコンテンツ画像の表示態様を変化させてもよい。例えばユーザの視認状態に応じて、コンテンツ画像の詳細度や画面分割数や文字サイズを変化させる。具体的には、ユーザがコンテンツ画像を注視すると、コンテンツ画像の詳細度を高くしたり、画面分割数を大きくしたり、文字サイズを小さくする。この場合の詳細度や画面分割数や文字サイズの切り替えは2段階でもよいし、3段階以上であってもよい。或いは、ユーザの視認状態に応じて関連画像を表示したり、表示部の表示をオン・オフすることで、コンテンツ画像の表示態様を変化させてもよい。このようにすれば、ユーザの注視等の視認状態が検出されると、それに応じて表示画像の表示態様が変化するようになる。従って、ユーザに提供する表示画像のバラエティを増すと共に効率的な情報伝達が可能になり、これまでにないタイプのデジタルフォトフレームの提供が可能になる。   7A to 8 illustrate the case where the display mode of the operation icon for the touch panel is changed according to the user's visual state, but the display mode of the content image is changed according to the user's visual state. Also good. For example, the level of detail of the content image, the number of screen divisions, and the character size are changed according to the user's visual recognition state. Specifically, when the user gazes at the content image, the detail level of the content image is increased, the number of screen divisions is increased, or the character size is reduced. In this case, the level of detail, the number of screen divisions, and the character size may be switched in two stages or in three or more stages. Or you may change the display mode of a content image by displaying a related image according to a user's visual recognition state, or turning on and off the display of a display part. In this way, when a visual state such as a user's gaze is detected, the display mode of the display image changes accordingly. Accordingly, it is possible to increase the variety of display images provided to the user and to efficiently transmit information, and to provide a digital photo frame of an unprecedented type.

次に図9(A)を用いて、ユーザの注視状態の検出手法の一例について説明する。図9(A)では、センサ350として撮像センサを用いる。そして図5(A)、図5(B)で説明したように、撮像センサからの撮像情報に基づいて、ユーザの顔領域FARを検出する。   Next, an example of a method for detecting a user's gaze state will be described with reference to FIG. In FIG. 9A, an image sensor is used as the sensor 350. Then, as described with reference to FIGS. 5A and 5B, the user's face area FAR is detected based on the imaging information from the imaging sensor.

次に検出された顔領域FARに対応する計測領域SARを設定する。この計測領域SARは、顔領域FARを内包し、顔領域FARよりもサイズが大きな領域である。この計測領域SARは、例えば顔領域FARをオーバーサイジングすることで設定できる。そして、この計測領域SAR内に顔領域FARが存在する時間を計測し、計測された時間に基づいて、ユーザが表示部340を注視しているか否かを判断する。例えば顔領域FARが計測領域SAR内に一定時間以上位置していた場合には、ユーザが表示部340を注視していると判断する。そして図7(A)〜図8に示すように操作アイコンの表示態様を変化させる。   Next, a measurement area SAR corresponding to the detected face area FAR is set. This measurement area SAR is an area that includes the face area FAR and is larger in size than the face area FAR. This measurement area SAR can be set, for example, by oversizing the face area FAR. Then, the time during which the face area FAR exists in the measurement area SAR is measured, and it is determined whether the user is gazing at the display unit 340 based on the measured time. For example, when the face area FAR is located in the measurement area SAR for a certain time or more, it is determined that the user is gazing at the display unit 340. Then, the display mode of the operation icon is changed as shown in FIGS.

図9(A)の検出手法によれば、図5(A)、図5(B)の手法によるユーザとの距離の検出と、注視状態の検出の両方を、撮像センサを用いて実現できるようになる。これにより、センサの部品点数を減らしたり、効率的な処理が可能になる。   According to the detection method of FIG. 9A, both the detection of the distance to the user and the detection of the gaze state by the method of FIG. 5A and FIG. 5B can be realized using the imaging sensor. become. Thereby, the number of parts of the sensor can be reduced and efficient processing can be performed.

なお注視状態の検出手法は図9(A)の手法に限定されない。例えば図9(B)では、赤外光を照射し、ユーザの赤目を検出することで注視状態を検出している。具体的には赤外線デバイス354により照射された赤外線は、ハーフミラー353により反射されてユーザの目に到達する。そしてユーザの赤目状態を、撮像センサが設けられたカメラ352により撮影して検出することで、ユーザの目の瞳孔の位置を検出して、ユーザの視線方向を検出し、ユーザが注視状態か否かを判断する。また図9(C)では、2台のカメラ356、357(ステレオカメラ)で撮影されたユーザの顔画像の目周辺の画像領域の明暗から、瞳孔の位置を検出する。そして、検出された瞳孔の中心位置と眼球の中心位置から、ユーザの視線方向を検出し、ユーザが注視状態か否かを判断する。このようにユーザの注視状態の検出手法としては種々の手法を採用できる。   Note that the gaze state detection method is not limited to the method shown in FIG. For example, in FIG. 9B, the gaze state is detected by irradiating infrared light and detecting the user's red eyes. Specifically, the infrared light irradiated by the infrared device 354 is reflected by the half mirror 353 and reaches the eyes of the user. The user's red-eye state is captured and detected by a camera 352 provided with an imaging sensor, thereby detecting the position of the pupil of the user's eyes, detecting the user's gaze direction, and determining whether the user is in the gaze state. Determine whether. In FIG. 9C, the position of the pupil is detected from the brightness and darkness of the image area around the eyes of the user's face image captured by the two cameras 356 and 357 (stereo cameras). Then, the user's line-of-sight direction is detected from the detected center position of the pupil and the center position of the eyeball, and it is determined whether or not the user is in a gaze state. As described above, various methods can be adopted as a method for detecting the user's gaze state.

また以上では、ユーザとの距離やユーザの注視状態を検出して操作アイコンやコンテンツ画像の表示態様を変化させる場合について説明したが、本実施形態はこれに限定されない。例えば検知範囲内でのユーザの接近の度合いを検出して、操作アイコンやコンテンツ画像の表示態様を変化させてもよい。例えば図5(A)の顔領域FARのサイズの時間に対する変化率を求める。そしてサイズの変化率が一定値以上である場合には、ユーザの接近の度合いが高いと判断して、図3(A)〜図4(B)、図7(A)〜図8と同様の手法で操作アイコンやコンテンツ画像の表示態様を変化させる。こうすることで、デジタルフォトフレームに興味を持って近づいてきたユーザに対して、様々な表示態様の操作アイコンやコンテンツ画像を表示できるようになる。   Moreover, although the case where the distance to the user and the user's gaze state are detected and the display mode of the operation icon and the content image is changed has been described above, the present embodiment is not limited to this. For example, the display state of the operation icon or the content image may be changed by detecting the degree of approach of the user within the detection range. For example, the rate of change of the size of the face area FAR in FIG. When the rate of change in size is equal to or greater than a certain value, it is determined that the degree of approach of the user is high, and the same as in FIGS. 3 (A) to 4 (B) and FIGS. 7 (A) to 8. The display mode of the operation icon and the content image is changed by the technique. In this way, operation icons and content images in various display modes can be displayed for a user who is approaching with interest in the digital photo frame.

またユーザが検知範囲内に存在したか否かをセンサ350により検知し、ユーザが存在すると判断された場合に、表示部340の表示をオフからオンに切り替えてもよい。例えば省電力モードから通常モードに切り替えて、表示部340に画像を表示する。また表示部340の表示がオンの状態で、ユーザが検知範囲内から出て、ユーザが存在しないと判断された場合には、表示部340の表示をオンからオフに切り替える。このようにすれば、ユーザが近くにいない時にデジタルフォトフレームに画像が表示されて、無駄に電力が消費されてしまう事態を防止できる。   Further, whether or not the user is within the detection range is detected by the sensor 350, and when it is determined that the user exists, the display of the display unit 340 may be switched from off to on. For example, the image is displayed on the display unit 340 by switching from the power saving mode to the normal mode. In addition, when the display of the display unit 340 is on and the user leaves the detection range and it is determined that no user exists, the display of the display unit 340 is switched from on to off. In this way, it is possible to prevent a situation where an image is displayed on the digital photo frame when the user is not nearby and power is consumed wastefully.

またユーザが表示部340を注視していることを検知した場合に、1回の注視が検知されたことを条件に、操作アイコンやコンテンツ画像の表示態様を変化させてもよいし、複数回の注視が検知されたことを条件に、操作アイコンやコンテンツ画像の表示態様を変化させてもよい。具体的には、所定時間内にユーザが表示部340を注視した回数である注視回数をカウントして記録する。そして、所定時間内での注視回数が、しきい値となる所定回数(例えば2〜5回)を超えるまでは、表示態様を変化させない。一方、所定時間内での注視回数が所定回数を超えると、表示モードを例えば注視モード等に切り替えて、表示態様を変化させる。   Further, when it is detected that the user is gazing at the display unit 340, the display mode of the operation icon or the content image may be changed on the condition that one gazing is detected, or a plurality of times The display mode of the operation icon and the content image may be changed on condition that gaze is detected. Specifically, the number of gazes, which is the number of times the user gazes the display unit 340 within a predetermined time, is counted and recorded. Then, the display mode is not changed until the number of gazes within a predetermined time exceeds a predetermined number of times (for example, 2 to 5 times) serving as a threshold value. On the other hand, when the number of gazes within a predetermined time exceeds the predetermined number, the display mode is changed to, for example, the gaze mode, and the display mode is changed.

次に図10のフローチャートを用いて、ユーザの視認状態に応じた操作アイコンの表示制御の具体的な処理例について説明する。図10のステップS21〜S25は図6のステップS1〜S5と同様であるため説明を省略する。   Next, a specific processing example of operation icon display control according to the user's visual recognition state will be described using the flowchart of FIG. Steps S21 to S25 in FIG. 10 are the same as steps S1 to S5 in FIG.

図10のステップS26においてユーザの視野範囲内に表示部が入っていると判断された場合には、撮像センサ等を用いた注視検出により、ユーザが表示部を注視しているか否かを判断する(ステップS27)。そして注視していると判断された場合には、図7(B)等で説明したように注視モードをオンにして、タッチパネル用操作アイコンの表示をオンにする(ステップS29)。この際に例えばコンテンツ画像として注視モード用の画像(詳細画像、関連画像等)を表示するようにしてもよい。そしてこのようにタッチパネル用操作アイコンの表示をオンにした後、ユーザの操作が行われずに所定時間が経過した場合には(ステップS30)、タッチパネル用操作アイコンの表示をオフにする(ステップS31)。以上のようにすることで、図7(A)〜図8で説明したように、注視等のユーザの視認状態に応じたタッチパネル用操作アイコンの表示のオン・オフ制御を実現できる。   If it is determined in step S26 in FIG. 10 that the display unit is within the visual field range of the user, it is determined whether or not the user is gazing at the display unit by gaze detection using an imaging sensor or the like. (Step S27). If it is determined that the user is gazing, the gazing mode is turned on as described with reference to FIG. 7B and the touch panel operation icon is turned on (step S29). At this time, for example, an image for a gaze mode (detailed image, related image, etc.) may be displayed as a content image. Then, after the display of the touch panel operation icon is turned on in this way, when a predetermined time has passed without any user operation (step S30), the display of the touch panel operation icon is turned off (step S31). . As described above, as described with reference to FIGS. 7A to 8, it is possible to realize the on / off control of the display of the operation icons for the touch panel according to the user's visual state such as gaze.

次に図11のフローチャートを用いて、図9(A)で説明した注視状態の検出処理の詳細について説明する。   Next, details of the gaze state detection process described with reference to FIG. 9A will be described with reference to the flowchart of FIG.

まず、撮像センサ(カメラ)を用いた顔検出により、顔領域(枠領域)を検出する(ステップS41)。即ち図5(A)、図5(B)で説明した手法により顔領域を検出する。次に、検出された顔領域を内包し、顔領域よりもサイズが大きな計測領域を設定する(ステップS42)。即ち図9(A)に示すように、顔領域をオーバーサイジングした計測領域を設定する。そして計測領域内に顔領域が存在する時間をタイマを用いて計測する(ステップS43)。即ち計測領域の設定後、タイマの計測を開始し、顔領域が計測領域内に位置する時間を計測する。そして所定時間以上、経過したか否かを判断し(ステップS44)、経過した場合には注視モードをオンにする(ステップS45)。これにより、タッチパネル用操作アイコンの表示がオンになったり、注視用画像が表示されるようになる。一方、経過しなかった場合には、注視モードをオフのままにする(ステップS46)。このようにすることでユーザの注視状態の検出と、それに応じた注視モードの設定が可能になる。   First, a face area (frame area) is detected by face detection using an imaging sensor (camera) (step S41). That is, the face area is detected by the method described with reference to FIGS. Next, a measurement area that includes the detected face area and is larger than the face area is set (step S42). That is, as shown in FIG. 9A, a measurement area oversized from the face area is set. Then, the time during which the face area exists in the measurement area is measured using a timer (step S43). That is, after setting the measurement area, timer measurement is started and the time during which the face area is located within the measurement area is measured. Then, it is determined whether or not a predetermined time or more has elapsed (step S44), and when it has elapsed, the gaze mode is turned on (step S45). As a result, the display of the operation icon for the touch panel is turned on, or a gaze image is displayed. On the other hand, if it has not elapsed, the gaze mode is kept off (step S46). By doing so, it becomes possible to detect the user's gaze state and set the gaze mode accordingly.

4.発話状態に応じた操作アイコンの表示制御
本実施形態では、ユーザの発話状態(会話状態)に応じてタッチパネル用操作アイコンの表示態様を変化させている。具体的には、ユーザが発話した音声を構成する単語を抽出し、抽出した単語とコンテンツ画像のキーワードの一致判定(類似判定)を行って、操作アイコンを表示する。
4). Operation Icon Display Control According to Speech State In this embodiment, the display mode of the touch panel operation icon is changed according to the user's speech state (conversation state). Specifically, the words constituting the speech uttered by the user are extracted, the extracted words are matched with the keywords of the content image (similarity determination), and the operation icon is displayed.

例えば図12(A)において、ユーザUAは、スライドショーによりコンテンツ画像である写真を見ている。そして図12(A)の写真を見て、「いい景色だな〜。場所はどこなんだろう?」と発話している。するとこのユーザUAの発話が音声認識により解析され、「景色」「場所」「どこ」などの単語が抽出される。   For example, in FIG. 12A, the user UA sees a photo that is a content image by a slide show. Then, looking at the picture in FIG. 12 (A), he says, “It ’s a nice scenery. Where is the place?” Then, the speech of the user UA is analyzed by voice recognition, and words such as “scenery”, “location”, and “where” are extracted.

一方、図12(A)において表示されている写真のコンテンツ画像にはコンテンツの内容に応じた様々なキーワードがタグとして設定されている。そして音声認識により抽出されたユーザの音声を構成する「景色」「場所」「どこなんだろう」などの単語が、コンテンツ画像のタグとして設定されたキーワードと一致(類似)するか否かが判断される。そして図12(A)の場合には、「場所」という単語が、コンテンツ画像に設定された「場所」というキーワードと一致している。従って図12(B)では、一致した「場所」というキーワードに対応するタッチパネル用操作アイコンが表示される。具体的にはE1に示すように「撮影場所:地図へ」という操作アイコンが表示される。そしてユーザUAがE1の操作アイコンにタッチすると、写真の撮影場所の地図がデジタルフォトフレーム300に表示される。これによりユーザUAは写真の撮影場所を知ることができる。また自身が撮った写真である場合には、その撮影場所を思い出すことが可能になる。   On the other hand, various keywords corresponding to the content are set as tags in the content image of the photograph displayed in FIG. Then, it is determined whether or not words such as “scenery”, “location”, and “where is it” that constitute the user's voice extracted by voice recognition match (similar) the keyword set as the tag of the content image Is done. In the case of FIG. 12A, the word “location” matches the keyword “location” set in the content image. Accordingly, in FIG. 12B, a touch panel operation icon corresponding to the matched keyword “place” is displayed. Specifically, an operation icon “shooting location: to map” is displayed as indicated by E1. Then, when the user UA touches the operation icon E1, a map of the photo shooting location is displayed on the digital photo frame 300. As a result, the user UA can know the shooting location of the photograph. Also, if it is a picture taken by itself, it becomes possible to remember the place where the picture was taken.

図13(A)ではユーザUAは、スライドショーにより表示されている写真を見て「いい景色だな〜。この山は何かな?」と発話している。するとこのユーザUAの発話が音声認識により解析され、「景色」「山」「何かな」などの単語が抽出される。そしてこの場合には、抽出された「山」という単語が、コンテンツ画像の「山」というキーワードと一致しているため、図12(B)に示すように「山」というキーワードに対応するタッチパネル用操作アイコンが表示される。具体的にはE2に示すように「山情報へ」という操作アイコンが表示される。そしてユーザUAがE2の操作アイコンにタッチすると、写真に写っている山の情報がデジタルフォトフレーム300に表示される。これによりユーザUAは写真に映っている山の情報を詳しく知ることが可能になる。   In FIG. 13 (A), the user UA sees the photos displayed by the slide show and says, "It's a nice scenery. What is this mountain?" Then, the speech of the user UA is analyzed by voice recognition, and words such as “scenery”, “mountain”, and “something” are extracted. In this case, since the extracted word “mountain” matches the keyword “mountain” in the content image, the touch panel corresponding to the keyword “mountain” as shown in FIG. An operation icon is displayed. Specifically, an operation icon “To mountain information” is displayed as indicated by E2. Then, when the user UA touches the operation icon E2, information on the mountains shown in the photograph is displayed on the digital photo frame 300. As a result, the user UA can know the mountain information shown in the photograph in detail.

このように本実施形態では、ユーザの発話状態が解析され、ユーザの発話状態に応じたタッチパネル用の操作アイコンが表示される。従って、ユーザは、自身が感じたことを発話するだけで、その発話内容に応じた操作アイコンが表示され、その操作アイコンを操作することで、自身が知りたい情報を容易に知ることができる。この場合に、ユーザが無意識に発話した単語に応じた操作アイコンが表示されるため、ユーザは、自身が知りたい情報に直感的にたどり着くことができるという利点がある。   Thus, in this embodiment, the user's utterance state is analyzed, and the operation icons for the touch panel corresponding to the user's utterance state are displayed. Therefore, the user simply speaks what he / she feels, and an operation icon corresponding to the content of the utterance is displayed. By operating the operation icon, the user can easily know information he / she wants to know. In this case, since the operation icon corresponding to the word that the user uttered unconsciously is displayed, there is an advantage that the user can intuitively reach the information he / she wants to know.

なお図12(A)〜図13(B)では、ユーザが発話した単語を抽出して、抽出された単語に応じた操作アイコンを表示しているが、本実施形態はこれに限定されない。例えばユーザの音声の状態(トーン、大きさ、速度)からユーザの感情等を類推して、その感情等に応じた操作アイコンを表示するようにしてもよい。   In FIGS. 12A to 13B, words uttered by the user are extracted and operation icons corresponding to the extracted words are displayed. However, the present embodiment is not limited to this. For example, the user's emotion or the like may be inferred from the user's voice state (tone, size, speed), and an operation icon corresponding to the emotion or the like may be displayed.

また音声認識処理は、ユーザ(人間)の話す音声言語をコンピュータにより解析し、テキストデータとして抽出する処理である。音声認識処理は、音響分析、認識デコーダ、音響モデル、辞書、言語モデルにより実現される。音響分析では、ユーザの音声をフーリエ解析等の信号処理により特徴量情報に変換する。認識デコーダでは、特徴量情報に基づいてテキストデータを出力する。具体的には音響情報と言語情報を総合的に判断して音声をテキストデータに変換する。この認識デコーダでの判断処理は、隠れマルコフモデルや動的時間伸縮法などの統計的手法により実現される。辞書は、認識対象の単語(ワード)をデータ化したものであり、音素列と単語を関連づけるものである。言語モデルは、辞書の単語についての確率をデータ化したものである。具体的には各単語の出現確率や接続確率をデータ化する。このような音響分析、認識デコーダ、音響モデル、辞書、言語モデルを用いることで、図12(A)〜図13(B)に示すようなユーザの音声を適正に認識して、キーワードとの一致判定を実現できる。   The voice recognition process is a process in which a voice language spoken by a user (human) is analyzed by a computer and extracted as text data. The speech recognition process is realized by acoustic analysis, a recognition decoder, an acoustic model, a dictionary, and a language model. In acoustic analysis, a user's voice is converted into feature amount information by signal processing such as Fourier analysis. The recognition decoder outputs text data based on the feature amount information. Specifically, sound is converted into text data by comprehensively determining acoustic information and language information. The determination process in the recognition decoder is realized by a statistical method such as a hidden Markov model or a dynamic time expansion / contraction method. A dictionary is a data of words (words) to be recognized, and associates phoneme strings with words. The language model is a data of probabilities for words in the dictionary. Specifically, the appearance probability and connection probability of each word are converted into data. By using such an acoustic analysis, recognition decoder, acoustic model, dictionary, and language model, the user's voice as shown in FIGS. 12 (A) to 13 (B) is properly recognized and matched with the keyword. Judgment can be realized.

次に図14のフローチャートを用いて、ユーザの発話状態に応じた操作アイコンの表示制御の具体的な処理例について説明する。   Next, a specific processing example of operation icon display control according to the user's utterance state will be described with reference to the flowchart of FIG.

まずユーザの発話を音声認識する(ステップS51)。この音声認識としては公知の種々の手法を採用できる。そして、ユーザが発話した音声の単語を抽出する(ステップS52)。この場合に適正な単語抽出を実現するために、ユーザの音声の学習処理を行うことが望ましい。   First, the user's speech is recognized by speech (step S51). Various known methods can be employed for this voice recognition. And the word of the voice which the user uttered is extracted (step S52). In this case, in order to realize proper word extraction, it is desirable to perform a user's voice learning process.

次に、ユーザの発話時に表示されているコンテンツ画像にタグとして設定されたキーワードを取得する(ステップS53)。具体的には図2のコンテンツ情報記憶部322においてコンテンツ画像に関連づけられたキーワードのタグを取得する。そしてステップS52で抽出された単語に一致するキーワードを検索する(ステップS54)。そして単語に一致したキーワードが検索された場合には、そのキーワードに対応するタッチパネル用操作アイコンを表示する(ステップS56)。なお完全に一致するキーワードが無かった場合には、単語に類似するキーワードに対応する操作アイコンを表示すればよい。   Next, a keyword set as a tag in the content image displayed when the user speaks is acquired (step S53). Specifically, the keyword tag associated with the content image is acquired in the content information storage unit 322 of FIG. Then, a keyword matching the word extracted in step S52 is searched (step S54). If a keyword matching the word is searched, a touch panel operation icon corresponding to the keyword is displayed (step S56). If there is no completely matching keyword, an operation icon corresponding to the keyword similar to the word may be displayed.

5.ユーザの人数や人物認証に応じた操作アイコンの表示制御
本実施形態では、ユーザの人数の認識結果に応じてタッチパネル用操作アイコンの表示態様を変化させている。具体的には、ユーザの人数が一人であると判断された場合と複数人であると判断された場合とで、操作アイコンの表示態様を異ならせる。
5). In this embodiment, the display mode of the operation icons for the touch panel is changed according to the recognition result of the number of users. Specifically, the display mode of the operation icon is different depending on whether it is determined that the number of users is one or more than one.

例えば図15(A)では、一人のユーザUAだけがセンサ350により検知されている。この場合には、検知された一人のユーザUAに対応する個人モード用の操作アイコンが表示される。具体的には図15(A)では未整理の写真のコンテンツ画像が表示されている。ユーザUAは、G1、G2、G3、G4に示す操作アイコンにタッチすることで、各々、個人モード用、共有(家族)モード用、通常用、来客用のコンテンツ画像のいずれかであるかを選択・分類し、G5の操作アイコンにタッチして決定する。なおこのコンテンツ画像を破棄する場合には、G6の操作アイコンにタッチする。   For example, in FIG. 15A, only one user UA is detected by the sensor 350. In this case, an operation icon for personal mode corresponding to one detected user UA is displayed. Specifically, in FIG. 15A, a content image of an unorganized photo is displayed. The user UA touches the operation icons shown in G1, G2, G3, and G4, and selects one of the content images for personal mode, shared (family) mode, normal use, or visitor, respectively.・ Classify and touch the G5 operation icon. When discarding the content image, the G6 operation icon is touched.

一方、図15(B)では、複数人のユーザUA、UB、UCがセンサ350により検知されている。この場合には、複数人のユーザUA、UB、UCに対応する共有モード(グループモード)用の操作アイコンが表示される。そして例えばG7の操作アイコンにタッチすることで、その写真の撮影日における別の家族写真等が表示される。またG8の操作アイコンにタッチすることで、その写真に類似する家族写真等が類似画像検索等により検索されて表示される。このようにすることで、家族が集まった時に、家族に共有の写真をデジタルフォトフレーム300に表示して楽しむことができる共に、このような状況に好適なタッチパネルを用いたインターフェース環境を提供できる。   On the other hand, in FIG. 15B, a plurality of users UA, UB, and UC are detected by the sensor 350. In this case, operation icons for a sharing mode (group mode) corresponding to a plurality of users UA, UB, and UC are displayed. Then, for example, by touching the operation icon of G7, another family photo on the shooting date of the photo is displayed. Further, by touching the G8 operation icon, a family photo or the like similar to the photo is searched and displayed by a similar image search or the like. In this way, when a family gathers, it is possible to display and enjoy shared photos on the digital photo frame 300, and to provide an interface environment using a touch panel suitable for such a situation.

また本実施形態では、ユーザの人物認証の結果に応じてタッチパネル用操作アイコンの表示態様を変化させることができる。具体的には、人物認証により、ユーザが登録ユーザであると判断された場合には、登録ユーザの個人モード用の操作アイコンを表示したり。ユーザの年齢認識結果に基づいて、操作アイコンの表示態様を変化させる。   Moreover, in this embodiment, the display mode of the operation icon for touch panels can be changed according to the result of user authentication of the user. Specifically, when it is determined by personal authentication that the user is a registered user, an operation icon for the registered user's personal mode is displayed. The display mode of the operation icon is changed based on the user's age recognition result.

図16(A)にユーザ登録情報の入力画面の一例を示す。ユーザは、図16(A)のようにデジタルフォトフレーム300の表示部340に表示されたユーザ登録画面を見ながら、操作部やタッチパネルディスプレイを用いてユーザ登録情報を入力する。これによりユーザ登録処理が実現される。なお、ユーザ登録情報をPC(パーソナルコンピュータ)等を用いて設定し、設定されたユーザ登録情報を、直接に或いはホームサーバ等を介してデジタルフォトフレーム300に転送するようにしてもよい。   FIG. 16A shows an example of an input screen for user registration information. The user inputs user registration information using the operation unit or the touch panel display while viewing the user registration screen displayed on the display unit 340 of the digital photo frame 300 as shown in FIG. Thereby, user registration processing is realized. The user registration information may be set using a PC (personal computer) or the like, and the set user registration information may be transferred to the digital photo frame 300 directly or via a home server or the like.

図16(A)では、ユーザ登録情報として、ユーザのID、パスワード、ユーザの趣味・嗜好等が入力される。例えば図16(A)では、ユーザの趣味・嗜好が投資であることが入力されている。なお趣味・嗜好等以外にも、ユーザのお気に入りの情報、画面モードの設定、画面分割数、注視制御のオン・オフ、表示時間、スライド表示方法、文字フォント、文字サイズ、言語等を、ユーザ登録情報として入力できるようにしてもよい。   In FIG. 16A, the user ID, password, user hobbies / preferences, and the like are input as the user registration information. For example, in FIG. 16A, it is input that the user's hobbies / preferences are investments. In addition to hobbies and preferences, user registration includes user favorite information, screen mode settings, number of screen divisions, gaze control on / off, display time, slide display method, character font, character size, language, etc. You may enable it to input as information.

このようなユーザ登録情報を入力した後に、図16(B)に示すように、ユーザの顔画像の認識結果を登録する。具体的には、顔検出を行い、顔領域FARを検出する。次に顔領域FARに映ったユーザの画像に対する画像認識処理を行い、ユーザの顔画像の特徴点データを抽出する。そして、抽出された特徴点データを顔画像の認識結果として、例えば図16(A)で説明したユーザ登録情報と関連づけて登録する。このようにして、登録処理部314によりユーザの登録処理が実現される。   After inputting such user registration information, the recognition result of the user's face image is registered as shown in FIG. Specifically, face detection is performed and a face area FAR is detected. Next, image recognition processing is performed on the user image shown in the face area FAR, and feature point data of the user face image is extracted. Then, the extracted feature point data is registered as a face image recognition result in association with, for example, the user registration information described with reference to FIG. In this way, the registration processing unit 314 implements user registration processing.

次に図17(A)に示すように、大人であるユーザUBがデジタルフォトフレーム300に近づくと、撮像センサ等のセンサ350により、検知されたユーザUBが登録ユーザであるか否かの人物認証が行われる。そして、検知されたユーザUBは、図16(A)、図16(B)のようなユーザ登録を行っているため、登録ユーザであると判断される。従って図17(A)のF1、F2に示すように、検知されたユーザUBに対応する個人モード用の操作アイコンが表示される。   Next, as shown in FIG. 17A, when an adult user UB approaches the digital photo frame 300, the person authentication whether the detected user UB is a registered user by a sensor 350 such as an image sensor is detected. Is done. The detected user UB is determined to be a registered user because the user registration as shown in FIGS. 16A and 16B is performed. Therefore, as shown by F1 and F2 in FIG. 17A, operation icons for personal mode corresponding to the detected user UB are displayed.

具体的には、ユーザUBの趣味・嗜好は図16(A)のように投資であると設定されている。従って図17(A)のF1、F2では、ユーザUBの個人モード用の操作アイコンとして、投資に関連する操作アイコンが表示される。例えばユーザUBがF1の操作アイコンにタッチすると、コンテンツであるデジタルカメラ関連の企業情報がデジタルフォトフレーム300に表示される。またF2の操作アイコンにタッチすると、デジタルカメラのメーカ別シェア推移が表示される。これにより、投資に興味があるユーザUBは、コンテンツ画像に関連する有益な情報を得ることが可能になる。   Specifically, the hobby / preference of the user UB is set as investment as shown in FIG. Therefore, in F1 and F2 of FIG. 17A, operation icons related to investment are displayed as operation icons for the personal mode of the user UB. For example, when the user UB touches the operation icon F1, the company information related to the digital camera, which is the content, is displayed on the digital photo frame 300. Further, when the operation icon F2 is touched, a share transition of the digital camera by manufacturer is displayed. Thereby, the user UB who is interested in investment can obtain useful information related to the content image.

一方、図17(B)では、子供であるユーザUCがデジタルフォトフレーム300に近づいており、センサ350により検知されたユーザUCが登録ユーザであるか否かの人物認証が行われる。このユーザUCは、ユーザ登録画面において、趣味・嗜好が機械であると設定されている。従って、図17(B)のF3、F4に示すように、検知されたユーザUCの趣味・嗜好に対応する個人モード用の操作アイコンが表示される。例えばユーザUCがF3の操作アイコンにタッチすると、カメラの仕組みに関する情報がデジタルフォトフレーム300に表示される。またF4の操作アイコンにタッチすると、カメラの歴史に関する情報が表示される。   On the other hand, in FIG. 17B, the user UC as a child is approaching the digital photo frame 300, and person authentication is performed to determine whether or not the user UC detected by the sensor 350 is a registered user. This user UC is set to have a hobby / preference as a machine on the user registration screen. Therefore, as shown in F3 and F4 of FIG. 17B, operation icons for personal mode corresponding to the detected hobbies and preferences of the user UC are displayed. For example, when the user UC touches the operation icon F <b> 3, information about the camera mechanism is displayed on the digital photo frame 300. When the F4 operation icon is touched, information about the history of the camera is displayed.

以上のように登録ユーザであるか否かに応じて操作アイコンの表示態様を変化させれば、ユーザにカスタマイズされたユーザ登録に応じた操作アイコンを登録ユーザに表示できるようになる。   As described above, if the display mode of the operation icon is changed according to whether or not the user is a registered user, the operation icon corresponding to the user registration customized for the user can be displayed to the registered user.

また図17(A)、図17(B)では、撮像センサ等のセンサ350からの検知情報に基づいて、ユーザの年齢認識処理も行われる。そして図17(B)ではセンサ350を用いた年齢認識処理により、ユーザUCの年齢層が子供(広義には所定年齢層)であると判断されている。この場合には、子供用の操作アイコン(広義には所定年齢層用の操作アイコン)を表示する。具体的には、操作アイコンの難しい漢字等に振り仮名が振られている。なお、操作アイコンの難しい漢字をひらがなで表示したり、ひらがなのみを用いて表示したり、子供が好む色やフォントを使用するようにしてもよい。またユーザの年齢層が老人(所定年齢層)であると判断された場合には、老人用の操作アイコン(所定年齢層用の操作アイコン)を表示してもよい。具体的には、大きく見やすい文字を使用したり、太字の文字を使用したり、老人が好む色やフォントを使用する。   In FIG. 17A and FIG. 17B, user age recognition processing is also performed based on detection information from a sensor 350 such as an imaging sensor. In FIG. 17B, it is determined by age recognition processing using the sensor 350 that the age group of the user UC is a child (predetermined age group in a broad sense). In this case, an operation icon for children (in a broad sense, an operation icon for a predetermined age group) is displayed. Specifically, a kana is assigned to a kanji or the like whose operation icon is difficult. It should be noted that difficult kanji characters for operation icons may be displayed in hiragana, displayed using only hiragana, or may use colors and fonts preferred by children. When it is determined that the user's age group is an elderly person (predetermined age group), an operation icon for the elderly (operation icon for the predetermined age group) may be displayed. Specifically, large and easy-to-read characters are used, bold characters are used, and colors and fonts preferred by the elderly are used.

以上のように年齢認識結果に応じて操作アイコンの表示態様を変化させれば、ユーザの年齢層に応じた適正な表示態様で操作アイコンを表示できるようになる。   As described above, if the display mode of the operation icon is changed according to the age recognition result, the operation icon can be displayed in an appropriate display mode according to the age group of the user.

なおユーザの年齢認識処理としては種々の処理が考えられる。例えば多数の子供の顔パターンから生成した平均顔パターンを子供用顔テンプレートとして作成し、多数の大人(或いは老人)の顔パターンから生成した平均顔パターンを大人用顔テンプレートとして作成する。そして、子供用テンプレートを撮像画像の画面上で走査して、撮像画像との相関を求め、その相関値に基づいて子供を検知し、大人用テンプレートを撮像画像の画面上で走査して、撮像画像との相関を求め、その相関値に基づいて大人を検知する。或いは、顔画像認識によりしわの数を特定し、しわの数が少ない場合には子供であると判断し、しわの数が多い場合には大人であると判断し、しわの数が更に多い場合には老人であると判断してもよい。   Various processes can be considered as the user's age recognition process. For example, an average face pattern generated from a large number of child face patterns is created as a child face template, and an average face pattern generated from a large number of adult (or elderly) face patterns is created as an adult face template. Then, the child template is scanned on the screen of the captured image, the correlation with the captured image is obtained, the child is detected based on the correlation value, and the adult template is scanned on the screen of the captured image to capture the image. A correlation with an image is obtained, and an adult is detected based on the correlation value. Or, if the number of wrinkles is specified by face image recognition, if the number of wrinkles is small, it is determined that the child is a child, if the number of wrinkles is large, it is determined that the child is an adult, and the number of wrinkles is larger You may decide that you are an old man.

次に、ユーザの人数や人物認証の結果に応じた操作アイコンの表示制御の具体的な処理例について説明する。   Next, a specific processing example of display control of operation icons according to the number of users and the result of person authentication will be described.

図18はユーザ登録処理のフローチャートである。まず図16(A)に示すようなユーザ登録画面を表示する(ステップS61)。これによりユーザはユーザ登録情報の入力が可能になる。そしてユーザ登録情報の入力が完了したか否かを判断し(ステップS62)、完了した場合には、図16(B)で説明したように、撮像センサ(カメラ)を用いてユーザの顔領域の検出を行う(ステップS63)。そして撮像センサを用いてユーザの顔画像認識を行い(ステップS64)、認識された顔画像をユーザ登録情報に関連づけて記憶する(ステップS65)。   FIG. 18 is a flowchart of the user registration process. First, a user registration screen as shown in FIG. 16A is displayed (step S61). As a result, the user can input user registration information. Then, it is determined whether or not the input of the user registration information has been completed (step S62). If it has been completed, as described with reference to FIG. 16B, an image sensor (camera) is used to detect the face area of the user. Detection is performed (step S63). Then, the face image of the user is recognized using the imaging sensor (step S64), and the recognized face image is stored in association with the user registration information (step S65).

図19は、ユーザ認識結果に基づく操作アイコンの表示制御の詳細な処理例を示すフローチャートである。図19のステップS71〜S74は図6のステップS1〜S4と同様であるため説明を省略する。   FIG. 19 is a flowchart illustrating a detailed processing example of display control of an operation icon based on a user recognition result. Steps S71 to S74 in FIG. 19 are the same as steps S1 to S4 in FIG.

図19のステップS74でコンテンツ画像を表示した後、焦電センサ又は撮像センサを用いて、ユーザ(人物)の人数を認識する(ステップS75)。そして、人数が一人である場合には(ステップS76)、撮像センサを用いた顔画像認識によりユーザの人物認証を行う(ステップS77)。そして人物認証に成功した場合には(ステップS78)、認証されたユーザのユーザ登録情報を用いて、図15(A)に示すように個人モードのタッチパネル用操作アイコンを表示する(ステップS79)。なおこの際に、個人モード用のコンテンツ画像を表示すようにしてもよい。一方、人物認証に失敗した場合には、通常モード(デフォルト設定)のタッチパネル用操作アイコンを表示する(ステップS80)。   After the content image is displayed in step S74 of FIG. 19, the number of users (persons) is recognized using a pyroelectric sensor or an imaging sensor (step S75). If the number of persons is one (step S76), the user is authenticated by face image recognition using an image sensor (step S77). When the person authentication is successful (step S78), the personal mode touch panel operation icon is displayed as shown in FIG. 15A using the user registration information of the authenticated user (step S79). At this time, a content image for personal mode may be displayed. On the other hand, if the person authentication fails, a touch panel operation icon in the normal mode (default setting) is displayed (step S80).

またステップS76でユーザの人数が複数人であると判断された場合には、撮像センサを用いた顔画像認識によりユーザの人物認証を行う(ステップS81)。そして人物認証に成功した場合には(ステップS82)、図15(B)に示すように、認証された複数人のユーザの共有モードのタッチパネル用操作アイコンを表示する(ステップS83)。なおこの際に、共有モード用のコンテンツ画像を表示するようにしてもよい。一方、人物認証に失敗した場合には、通常モード(デフォルト設定)のタッチパネル用操作アイコンを表示する(ステップS84)。   If it is determined in step S76 that there are a plurality of users, the user is authenticated by face image recognition using an image sensor (step S81). When the person authentication is successful (step S82), as shown in FIG. 15B, the operation icons for the touch panel in the shared mode of the plurality of authenticated users are displayed (step S83). At this time, a content image for the sharing mode may be displayed. On the other hand, if the person authentication fails, a touch panel operation icon in the normal mode (default setting) is displayed (step S84).

以上のようにすることで、ユーザの人数の認識結果や人物認証の結果に応じた適切なタッチパネル用操作アイコンの表示が可能になる。   By doing as described above, it is possible to display an appropriate touch panel operation icon according to the recognition result of the number of users and the result of person authentication.

6.感性モデルの構築
さて、ユーザの嗜好や行動の傾向等を反映させた表示制御を行うためには、そのユーザの感性モデルの構築が効果的である。このような感性モデルの構築等のためには、表示モードが個人モードや共有モードである場合に、ユーザの各種状態を記録しておくことが望ましい。
6). Construction of Kansei Model Now, in order to perform display control that reflects the user's preference and behavioral tendency, it is effective to construct the user's Kansei model. In order to construct such a sensitivity model, it is desirable to record various states of the user when the display mode is the personal mode or the sharing mode.

例えば図20において、表示モード切り替え部316により、表示モードが個人モードに切り替わったとする。そして、この個人モード時において、ユーザが、タッチパネル用操作アイコンにタッチして各種操作を行った場合には、その操作履歴を、個人情報として個人情報記憶部332に書き込む。例えば、個人モード時に表示されているコンテンツ画像に関連づけて、ユーザの操作履歴の情報を書き込む。   For example, in FIG. 20, it is assumed that the display mode switching unit 316 switches the display mode to the personal mode. In the personal mode, when the user performs various operations by touching the touch panel operation icon, the operation history is written in the personal information storage unit 332 as personal information. For example, the user operation history information is written in association with the content image displayed in the personal mode.

そして、このようにして記憶されたユーザの個人情報に基づいて、そのユーザの感性モデル(個人モデル)を更新する。このようにすれば、ユーザが意識することなく、各ユーザ毎の感性モデルを構築することが可能になる。そして、このようにして更新された感性モデルを用いて、その後のタッチパネル用操作アイコンの表示制御を行えば、ユーザの感性に適合した操作アイコンの表示制御を実現でき、これまでにないタイプのデジタルフォトフレームを提供できる。例えばユーザが、その個人モード時に頻繁に選ぶ操作アイコンを優先的に表示部340に表示したり、ユーザがその操作アイコンを選択し易くなるような表示制御を実現できる。   And based on the user's personal information stored in this way, the user's sensitivity model (personal model) is updated. In this way, it becomes possible to construct a sensitivity model for each user without the user being aware of it. Then, by using the sensitivity model updated in this way, and then performing display control of the operation icons for the touch panel, it is possible to realize the display control of the operation icons suitable for the user's sensitivity, and an unprecedented type of digital Photo frames can be provided. For example, it is possible to realize display control in which an operation icon frequently selected by the user in the personal mode is preferentially displayed on the display unit 340, or the user can easily select the operation icon.

或いは、図20において、表示モード切り替え部316により、表示モードが共有モードに切り替わったとする。この場合には、情報更新部317は、複数のユーザについての操作履歴を、複数人のユーザの共有情報としてユーザ共有情報記憶部334に書き込む。例えば、共有モード時に表示されているコンテンツ画像に関連づけて、操作履歴の情報を書き込む。   Alternatively, in FIG. 20, it is assumed that the display mode is switched to the shared mode by the display mode switching unit 316. In this case, the information update unit 317 writes operation histories for a plurality of users in the user shared information storage unit 334 as shared information of the plurality of users. For example, the operation history information is written in association with the content image displayed in the sharing mode.

そして、このようにして記憶されたユーザ共有情報に基づいて、複数のユーザの共有感性モデルを更新する。このようにすれば、複数のユーザの共有モード時に行った操作等が反映された共有感性モデルを構築できる。これにより、共有モード時にだけ特徴的に見られるような使い方が反映されるようになり、これまでにないタイプのデジタルフォトフレームを提供できる。例えば、2人のユーザが一緒に居る時にだけ選択される操作アイコンを、優先的に表示部340に表示したり、その操作アイコンを選択し易くなるような表示制御を実現できる。   And based on the user share information memorize | stored in this way, the share sensitivity model of a some user is updated. In this way, it is possible to construct a shared sensibility model in which operations performed in the sharing mode of a plurality of users are reflected. As a result, usage that is characteristically seen only in the sharing mode is reflected, and an unprecedented type of digital photo frame can be provided. For example, an operation icon that is selected only when two users are together can be preferentially displayed on the display unit 340, or display control that facilitates selection of the operation icon can be realized.

なお、感性モデルとしては確率モデルを用いることができ、このような確率モデルとしては例えば隠れマルコフモデル(Hidden Markov Model)がある。この隠れマルコフモデル(HMM)では、システムが、パラメータが未知のマルコフ過程であると仮定して、観測可能な情報からその未知のパラメータを推定する。即ち、HMMは、あるシステムがマルコフ過程に従って遷移する内部状態を持ち、各状態に応じた記号を確率的に出力すると考えた場合に、記号の出現確率分布からシステム内部の状態遷移を推定する確率モデルである。外部から観測できるのは記号の系列だけであり、内部の状態遷移が直接観測できないところから「隠れ」と呼ばれる。   Note that a probability model can be used as the sensitivity model, and an example of such a probability model is a hidden Markov model. In this hidden Markov model (HMM), the system assumes that the parameter is an unknown Markov process and estimates the unknown parameter from observable information. That is, the HMM has a probability that a certain system has an internal state that transitions according to a Markov process and estimates the state transition inside the system from the appearance probability distribution of the symbol when it is considered that a symbol corresponding to each state is output stochastically. It is a model. Only a series of symbols can be observed from the outside, and it is called “hidden” because the internal state transition cannot be observed directly.

7.変形例
次に本実施形態の変形例について説明する。図21に本実施形態の第1の変形例を示す。この第1の変形例のシステムでは、ホームサーバ200(広義には情報処理システム)が設けられている。このホームサーバ200は、処理部202、記憶部220、通信部238、操作部260を含む。なおこれらの一部の構成要素を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。なお、図2と同様の構成要素については、同様の符号を付してその説明を省略する。
7). Modified Example Next, a modified example of the present embodiment will be described. FIG. 21 shows a first modification of the present embodiment. In the system of the first modification, a home server 200 (information processing system in a broad sense) is provided. The home server 200 includes a processing unit 202, a storage unit 220, a communication unit 238, and an operation unit 260. Various modifications may be made such as omitting some of these components or adding other components. In addition, about the component similar to FIG. 2, the same code | symbol is attached | subjected and the description is abbreviate | omitted.

処理部202は、管理処理などの各種の処理を行うものであり、CPU等のプロセッサやASICなどにより実現できる。記憶部220は、処理部202や通信部238のワーク領域となるものであり、例えばRAMやHDD等により実現できる。通信部238は、デジタルフォトフレーム300や外部サーバ600と有線又は無線で通信を行うためのものであり、通信用ASIC又は通信用プロセッサなどにより実現できる。操作部260は、サーバの管理者が各種情報を入力するためのものである。   The processing unit 202 performs various types of processing such as management processing, and can be realized by a processor such as a CPU or an ASIC. The storage unit 220 is a work area for the processing unit 202 and the communication unit 238, and can be realized by, for example, a RAM or an HDD. The communication unit 238 is for performing wired or wireless communication with the digital photo frame 300 or the external server 600, and can be realized by a communication ASIC or a communication processor. The operation unit 260 is for the server administrator to input various information.

図21では、デジタルフォトフレーム300とホームサーバ200は、例えば無線LAN等のネットワークで通信接続される。また図21では、センサ250として、家の各場所に設置されるホームセンサが用いられる。そして、ホームサーバ200の検知情報取得部204が、ホームセンサであるセンサ250からの検知情報を取得し、取得された検知情報は検知情報記憶部224に記憶される。   In FIG. 21, the digital photo frame 300 and the home server 200 are communicatively connected via a network such as a wireless LAN. In FIG. 21, home sensors installed at various places in the house are used as the sensors 250. Then, the detection information acquisition unit 204 of the home server 200 acquires detection information from the sensor 250 that is a home sensor, and the acquired detection information is stored in the detection information storage unit 224.

またホームサーバ200で取得された検知情報は、転送部205により、通信部238、338を介して、デジタルフォトフレーム300に転送される。すると、デジタルフォトフレーム300の検知情報取得部304は、転送された検知情報を取得し、取得された検知情報は検知情報記憶部324に記憶される。   The detection information acquired by the home server 200 is transferred to the digital photo frame 300 by the transfer unit 205 via the communication units 238 and 338. Then, the detection information acquisition unit 304 of the digital photo frame 300 acquires the transferred detection information, and the acquired detection information is stored in the detection information storage unit 324.

ユーザ状態判断部306は、取得された検知情報に基づいて、ユーザとの位置関係、ユーザの視認状態や発話状態を判断する。また取得された検知情報に基づいて、ユーザの人数の認識やユーザの人物認証などの認識処理を行う。そして表示モード切り替え部316は、位置関係・視認状態・発話状態・人数認識結果・人物認証結果等に応じて操作アイコンやコンテンツ画像の表示モードを切り替える。また情報更新部317は、操作履歴等に基づいて、個人情報記憶部332やユーザ共有情報記憶部334の情報の更新処理を行う。   The user state determination unit 306 determines a positional relationship with the user, a user's visual recognition state, and an utterance state based on the acquired detection information. Further, based on the acquired detection information, recognition processing such as recognition of the number of users and user authentication of the user is performed. The display mode switching unit 316 switches the display mode of operation icons and content images according to the positional relationship, the visual recognition state, the speech state, the number of people recognition result, the person authentication result, and the like. The information update unit 317 updates information in the personal information storage unit 332 and the user shared information storage unit 334 based on the operation history and the like.

表示制御部318は、操作アイコンやコンテンツ画像を表示部340に表示する制御を行う。例えば、位置関係・視認状態・発話状態・人数認識結果・人物認証結果等に応じた操作アイコンやコンテンツ画像を表示する制御を行う。   The display control unit 318 performs control to display operation icons and content images on the display unit 340. For example, control is performed to display operation icons and content images according to the positional relationship, visual recognition state, speech state, number of people recognition result, person authentication result, and the like.

なお、これらコンテンツ画像等のコンテンツ情報は、ホームサーバ200のコンテンツ情報記憶部222からデジタルフォトフレーム300のコンテンツ情報記憶部322にダウンロードされる。或いは外部サーバ600のコンテンツ情報記憶部622からダウンロードしてもよい。またデジタルフォトフレーム300の処理部302を実現するためのプログラムも、外部サーバ600やホームサーバ200から、デジタルフォトフレーム300にダウンロードするようにしてもよい。   The content information such as the content image is downloaded from the content information storage unit 222 of the home server 200 to the content information storage unit 322 of the digital photo frame 300. Alternatively, it may be downloaded from the content information storage unit 622 of the external server 600. A program for realizing the processing unit 302 of the digital photo frame 300 may also be downloaded from the external server 600 or the home server 200 to the digital photo frame 300.

図22に、センサ250であるホームセンサの設置例を示す。図22では、ホームセンサとして、撮像センサを有するカメラ251、252、253、254が、例えば部屋の天井の四隅に設置されている。そして、これらのカメラ251〜254を用いてユーザ10やデジタルフォトフレーム300を撮影することで、ユーザ10とデジタルフォトフレーム300の表示部340との位置関係や、表示部340に対するユーザ10の視認状態などを判断するための検知情報が取得される。またユーザ10の人数の特定や、ユーザ10の人物認証が行われる。そして取得された検知情報が、ホームサーバ200からデジタルフォトフレーム300に転送され、デジタルフォトフレーム300が、検知情報に基づいて、ユーザ状態を判断したり、ユーザ認識を行い、ユーザ状態やユーザ認識結果に応じた操作アイコンやコンテンツ画像を表示部340に表示する。なお、ホームセンサは、カメラ251〜254の撮像センサに限定されず、焦電センサや超音波センサなどの種々のセンサを用いることができる。   FIG. 22 shows an installation example of a home sensor that is the sensor 250. In FIG. 22, cameras 251, 252, 253, and 254 having imaging sensors are installed as home sensors at, for example, four corners of a room ceiling. Then, by photographing the user 10 and the digital photo frame 300 using these cameras 251 to 254, the positional relationship between the user 10 and the display unit 340 of the digital photo frame 300, and the visual state of the user 10 with respect to the display unit 340 Detection information for determining the above is acquired. In addition, identification of the number of users 10 and person authentication of the users 10 are performed. The acquired detection information is transferred from the home server 200 to the digital photo frame 300, and the digital photo frame 300 determines the user state or performs user recognition based on the detection information, and the user state and the user recognition result. An operation icon or a content image corresponding to is displayed on the display unit 340. The home sensor is not limited to the imaging sensors of the cameras 251 to 254, and various sensors such as a pyroelectric sensor and an ultrasonic sensor can be used.

図21の第1の変形例を用いれば、例えばホームセキュリティ等のために設けられたホームセンサを有効活用して、検知情報を取得し、この検知情報に基づいて、ユーザ状態を判断したり、ユーザ認識を行い、ユーザ状態やユーザ認識結果に応じた操作アイコンやコンテンツ画像をデジタルフォトフレーム300の表示部340に表示できるようになる。   If the 1st modification of FIG. 21 is used, for example, the home sensor provided for home security etc. will be used effectively, detection information will be acquired, a user state may be judged based on this detection information, User recognition is performed, and operation icons and content images corresponding to the user state and the user recognition result can be displayed on the display unit 340 of the digital photo frame 300.

図23に本実施形態の第2の変形例を示す。図23では、ホームサーバ200の処理部202が、検知情報取得部204、転送部205に加えて、ユーザ状態判断部206、登録処理部214、表示モード切り替え部216、情報更新部217を含む。また、デジタルフォトフレーム300に対して表示の指示を行う表示指示部218を含む。またホームサーバ200の記憶部220は、コンテンツ情報記憶部222、検知情報記憶部224に加えて、ユーザ登録情報記憶部225、ユーザ状態記憶部226、切り替えフラグ記憶部228、個人情報(感性モデル)記憶部332、ユーザ共有情報(共有感性モデル)記憶部334を含む。   FIG. 23 shows a second modification of the present embodiment. In FIG. 23, the processing unit 202 of the home server 200 includes a user status determination unit 206, a registration processing unit 214, a display mode switching unit 216, and an information update unit 217 in addition to the detection information acquisition unit 204 and transfer unit 205. Also included is a display instruction unit 218 that instructs the digital photo frame 300 to display. In addition to the content information storage unit 222 and the detection information storage unit 224, the storage unit 220 of the home server 200 includes a user registration information storage unit 225, a user state storage unit 226, a switching flag storage unit 228, personal information (sensitivity model). A storage unit 332 and a user shared information (shared sensitivity model) storage unit 334 are included.

図23では、センサ250であるホームセンサからの検知情報に基づいて、ホームサーバ200のユーザ状態判断部206が、位置関係や視認状態や発話状態等を判断したり、ユーザの人数の認識や人物認証などを行う。なおユーザの登録処理もホームサーバ200の登録処理部214が行う。   In FIG. 23, based on the detection information from the home sensor, which is the sensor 250, the user state determination unit 206 of the home server 200 determines the positional relationship, the visual recognition state, the utterance state, etc. Perform authentication. The registration processing unit 214 of the home server 200 also performs user registration processing.

そして表示モード切り替え部216は、ユーザ状態やユーザ認識結果に応じて表示モードを切り替える処理を行う。例えばユーザとの位置関係や視認状態等に応じて、表示モードを切り替える。或いは、ユーザの人数や人物認証の結果等に応じて表示モードを切り替える。   The display mode switching unit 216 performs processing for switching the display mode according to the user state and the user recognition result. For example, the display mode is switched according to the positional relationship with the user, the visual recognition state, and the like. Alternatively, the display mode is switched according to the number of users, the result of person authentication, and the like.

表示指示部218は、センサ250により取得された検知情報に応じてタッチパネル用操作アイコンやコンテンツ画像の表示態様を変化させる表示指示を行う。具体的には、ユーザと表示部340との位置関係や、ユーザの視認状態、発話状態の少なくとも1つに応じて、表示部340に表示される操作アイコンやコンテンツ画像の表示態様を変化させる表示指示を行う。或いは、検知されたユーザの人数及び人物認証結果の少なくとも一方に応じて、操作アイコンやコンテンツ画像の表示態様を変化させる表示指示を行う。   The display instruction unit 218 issues a display instruction to change the display mode of the touch panel operation icon and the content image in accordance with the detection information acquired by the sensor 250. Specifically, a display that changes the display mode of operation icons and content images displayed on the display unit 340 according to at least one of the positional relationship between the user and the display unit 340, the user's visual recognition state, and the speech state. Give instructions. Alternatively, a display instruction for changing the display mode of the operation icon or the content image is performed according to at least one of the detected number of users and the person authentication result.

デジタルフォトフレーム300の表示制御部318は、表示指示部218からの指示にしたがって、表示部340の表示制御を行う。これにより、ユーザとの位置関係、ユーザの視認状態や発話状態、ユーザの人数、人物認証結果などに応じて、表示部340での操作アイコンやコンテンツ画像の表示態様が変化する。   The display control unit 318 of the digital photo frame 300 performs display control of the display unit 340 in accordance with an instruction from the display instruction unit 218. As a result, the display mode of the operation icon and the content image on the display unit 340 changes according to the positional relationship with the user, the user's visual state and speech state, the number of users, the person authentication result, and the like.

図23の第2の変形例によれば、ユーザ状態の判断処理やユーザの認識処理や表示モードの切り替え処理をホームサーバ200が行うため、デジタルフォトフレーム300の処理負荷を軽減できる。従って、デジタルフォトフレーム300の処理部302(CPU)の処理能力が低い場合も、本実施形態の処理を実現できるようになる。なお、これらの処理を、ホームサーバ200とデジタルフォトフレーム300の分散処理により実現してもよい。   According to the second modified example of FIG. 23, the home server 200 performs a user state determination process, a user recognition process, and a display mode switching process, so that the processing load on the digital photo frame 300 can be reduced. Therefore, even when the processing capability of the processing unit 302 (CPU) of the digital photo frame 300 is low, the processing of this embodiment can be realized. Note that these processes may be realized by distributed processing of the home server 200 and the digital photo frame 300.

なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(位置関係、視認状態等)と共に記載された用語(距離、注視状態等)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。またデジタルフォトフレーム、情報処理システムの構成、動作や、操作アイコンの表示制御手法、ユーザ状態の判断手法、ユーザの認識手法、位置関係の検出手法、視認状態の検出手法等も本実施形態で説明したものに限定に限定されず、種々の変形実施が可能である。   Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, a term (distance, gaze state, etc.) described together with a different term (positional relationship, viewing state, etc.) in a broader sense or the same meaning at least once in the specification or drawing, It can be replaced by that different term. This embodiment also describes the configuration and operation of digital photo frames, information processing systems, operation icon display control methods, user state determination methods, user recognition methods, positional relationship detection methods, visual state detection methods, and the like. However, the present invention is not limited to the above, and various modifications can be made.

図1(A)、図1(B)はデジタルフォトフレームの例を示す図。1A and 1B are diagrams illustrating examples of digital photo frames. 本実施形態のデジタルフォトフレームの構成例。2 is a configuration example of a digital photo frame according to the present embodiment. 図3(A)、図3(B)はユーザとの位置関係に応じた操作アイコンの表示制御手法の説明図。FIG. 3A and FIG. 3B are explanatory diagrams of a display control method for operation icons according to the positional relationship with the user. 図4(A)、図4(B)もユーザとの位置関係に応じた操作アイコンの表示制御手法の説明図。FIG. 4A and FIG. 4B are also explanatory diagrams of a display control method for operation icons in accordance with the positional relationship with the user. 図5(A)、図5(B)はユーザと表示部との距離の検出手法の説明図。5A and 5B are explanatory diagrams of a method for detecting the distance between the user and the display unit. ユーザとの位置関係に応じた操作アイコンの表示制御処理のフローチャート。The flowchart of the display control process of the operation icon according to the positional relationship with a user. 図7(A)、図7(B)はユーザの視認状態に応じた操作アイコンの表示制御手法の説明図。FIG. 7A and FIG. 7B are explanatory diagrams of a display control method of operation icons according to the user's visual recognition state. ユーザの視認状態に応じた操作アイコンの表示制御手法の説明図。Explanatory drawing of the display control method of the operation icon according to a user's visual recognition state. 図9(A)〜図9(C)はユーザの注視状態の検出手法の説明図。FIGS. 9A to 9C are explanatory diagrams of a method for detecting a user's gaze state. ユーザの視認状態に応じた操作アイコンの表示制御処理のフローチャート。The flowchart of the display control process of the operation icon according to a user's visual recognition state. 注視状態の検出処理を説明するためのフローチャート。The flowchart for demonstrating the detection process of a gaze state. 図12(A)、図12(B)はユーザの発話状態に応じた操作アイコンの表示制御手法の説明図。FIGS. 12A and 12B are explanatory diagrams of a display control method of operation icons according to the user's utterance state. 図13(A)、図13(B)はユーザの発話状態に応じた操作アイコンの表示制御手法の説明図。FIGS. 13A and 13B are explanatory diagrams of a display control method of operation icons according to the user's utterance state. ユーザの発話状態に応じた操作アイコンの表示制御処理のフローチャート。The flowchart of the display control process of the operation icon according to a user's utterance state. 図15(A)、図15(B)はユーザの人数の認識結果に応じた操作アイコンの表示制御手法の説明図。FIG. 15A and FIG. 15B are explanatory diagrams of operation icon display control methods according to the recognition result of the number of users. 図16(A)、図16(B)はユーザ登録処理の説明図。16A and 16B are explanatory diagrams of user registration processing. 図17(A)、図17(B)はユーザの人物認証結果に応じた操作アイコンの表示制御手法の説明図。FIG. 17A and FIG. 17B are explanatory diagrams of a display control method of operation icons according to a user person authentication result. ユーザ登録処理を説明するためのフローチャート。The flowchart for demonstrating a user registration process. ユーザの人数や人物認証結果に応じた操作アイコンの表示制御処理のフローチャート。The flowchart of the display control process of the operation icon according to the number of users and a person authentication result. 個人情報やユーザ共有情報の更新手法の説明図。Explanatory drawing of the update method of personal information or user shared information. 本実施形態の第1の変形例。The 1st modification of this embodiment. ホームセンサの設置例。Home sensor installation example. 本実施形態の第2の変形例。The 2nd modification of this embodiment.

符号の説明Explanation of symbols

200 サーバ、202 処理部、204 検知情報取得部、205 転送部、
206 ユーザ状態判断部、214 登録処理部、216 表示モード切り替え部、
217 情報更新部、218 表示指示部、220 記憶部、
222 コンテンツ情報記憶部、224 検知情報記憶部、
225 ユーザ登録情報記憶部、226 ユーザ状態記憶部、
228 切り替えフラグ記憶部、238 通信部、
250 センサ(ホームセンサ)、260 操作部、
300 デジタルフォトフレーム、302 処理部、304 検知情報取得部、
306 ユーザ状態判断部、307 位置関係判断部、308 視認状態判断部、
309 発話状態判断部、310 ユーザ人数認識部、311 人物認証部、
316 表示モード切り替え部、317 情報更新部、318 表示制御部、
320 記憶部、322 コンテンツ情報記憶部、324 検知情報記憶部、
325 ユーザ登録情報記憶部、326 ユーザ状態記憶部、
328 切り替えフラグ記憶部、330 情報記憶媒体、
338 通信部、340 表示部、350 センサ、360 操作部
200 server, 202 processing unit, 204 detection information acquisition unit, 205 transfer unit,
206 user status determination unit, 214 registration processing unit, 216 display mode switching unit,
217 information update unit, 218 display instruction unit, 220 storage unit,
222 content information storage unit, 224 detection information storage unit,
225 user registration information storage unit, 226 user status storage unit,
228 switching flag storage unit, 238 communication unit,
250 sensors (home sensors), 260 operation units,
300 digital photo frame, 302 processing unit, 304 detection information acquisition unit,
306 user state determination unit, 307 positional relationship determination unit, 308 visual recognition state determination unit,
309 Utterance state determination unit, 310 User number recognition unit, 311 Person authentication unit,
316 display mode switching unit, 317 information updating unit, 318 display control unit,
320 storage unit, 322 content information storage unit, 324 detection information storage unit,
325 user registration information storage unit, 326 user state storage unit,
328 switching flag storage unit, 330 information storage medium,
338 communication unit, 340 display unit, 350 sensor, 360 operation unit

Claims (29)

画像が表示される表示部と、
前記表示部の表示制御を行う表示制御部と、
センサにより検知された検知情報を取得する検知情報取得部とを含み、
前記表示部はタッチパネルディスプレイにより構成され、
前記表示制御部は、
取得された前記検知情報に応じてタッチパネル用操作アイコンの表示態様を変化させる表示制御を行うことを特徴とするデジタルフォトフレーム。
A display for displaying images;
A display control unit that performs display control of the display unit;
A detection information acquisition unit for acquiring detection information detected by the sensor,
The display unit includes a touch panel display,
The display control unit
A digital photo frame characterized by performing display control for changing a display mode of a touch panel operation icon in accordance with the acquired detection information.
請求項1において、
取得された前記検知情報に基づいて、ユーザと前記表示部との位置関係の判断、前記表示部に対するユーザの視認状態の判断、ユーザの発話状態の判断、ユーザの人数の認識、及びユーザの人物認証の少なくとも1つを行うユーザ状態判断部を含み、
前記表示制御部は、
ユーザと前記表示部との前記位置関係、ユーザの前記視認状態、ユーザの前記発話状態、ユーザの人数の認識結果、及びユーザの人物認証結果の少なくとも1つに応じて、タッチパネル用操作アイコンの表示態様を変化させる表示制御を行うことを特徴とするデジタルフォトフレーム。
In claim 1,
Based on the acquired detection information, determination of the positional relationship between the user and the display unit, determination of the user's visual status with respect to the display unit, determination of the user's utterance state, recognition of the number of users, and the user's person Including a user state determination unit that performs at least one of authentication,
The display control unit
Display of touch panel operation icons in accordance with at least one of the positional relationship between the user and the display unit, the user's visual recognition state, the user's speech state, the number of users' recognition result, and the user's person authentication result A digital photo frame characterized by performing display control for changing a mode.
請求項2において、
前記ユーザ状態判断部は、
ユーザと前記表示部との前記位置関係として、ユーザと前記表示部との間の距離を判断し、
前記表示制御部は、
ユーザと前記表示部との間の距離に応じて、タッチパネル用操作アイコンの表示制御を行うことを特徴とするデジタルフォトフレーム。
In claim 2,
The user status determination unit
As the positional relationship between the user and the display unit, the distance between the user and the display unit is determined,
The display control unit
A digital photo frame which performs display control of an operation icon for a touch panel in accordance with a distance between a user and the display unit.
請求項3において、
前記表示制御部は、
ユーザと前記表示部との間の距離が所定距離内である場合に、タッチパネル用操作アイコンの表示をオンにすることを特徴とするデジタルフォトフレーム。
In claim 3,
The display control unit
A digital photo frame that turns on display of an operation icon for a touch panel when a distance between a user and the display unit is within a predetermined distance.
請求項3又は4において、
前記表示制御部は、
ユーザと前記表示部との間の距離が所定距離より大きいと判断された場合には、第1〜第N(Nは2以上の整数)のコンテンツ画像を前記表示部にスライド表示する制御を行い、前記第1〜第Nのコンテンツ画像のうちの第K(1≦K≦N)のコンテンツ画像が表示されている時に、ユーザと前記表示部との間の距離が所定距離内であると判断された場合には、前記第Kのコンテンツ画像に対応するタッチパネル用操作アイコンを表示する制御を行うことを特徴とするデジタルフォトフレーム。
In claim 3 or 4,
The display control unit
When it is determined that the distance between the user and the display unit is greater than a predetermined distance, control is performed to slide-display the first to Nth (N is an integer of 2 or more) content images on the display unit. When the Kth (1 ≦ K ≦ N) content image among the first to Nth content images is displayed, it is determined that the distance between the user and the display unit is within a predetermined distance. If so, the digital photo frame is controlled to display a touch panel operation icon corresponding to the Kth content image.
請求項3乃至5のいずれかにおいて、
前記センサは、ユーザを撮像する撮像センサであり、
前記ユーザ状態判断部は、
前記撮像センサからの撮像情報に基づいて、ユーザの顔領域を検出し、検出された前記顔領域のサイズに基づいて、ユーザと前記表示部との間の距離を判断することを特徴とするデジタルフォトフレーム。
In any of claims 3 to 5,
The sensor is an imaging sensor that images a user;
The user status determination unit
A digital device that detects a user's face area based on imaging information from the imaging sensor and determines a distance between the user and the display unit based on the detected size of the face area. Photo frame.
請求項3乃至5のいずれかにおいて、
前記センサは、ユーザを撮像する撮像センサであり、
前記ユーザ状態判断部は、
ユーザに対する自動焦点合わせ処理により、ユーザと前記表示部との間の距離を判断することを特徴とするデジタルフォトフレーム。
In any of claims 3 to 5,
The sensor is an imaging sensor that images a user;
The user status determination unit
A digital photo frame, wherein a distance between a user and the display unit is determined by an automatic focusing process for the user.
請求項3乃至5のいずれかにおいて、
前記センサは超音波センサであり、
前記ユーザ状態判断部は、
前記超音波センサにより、ユーザと前記表示部との間の距離を判断することを特徴とするデジタルフォトフレーム。
In any of claims 3 to 5,
The sensor is an ultrasonic sensor;
The user status determination unit
A digital photo frame, wherein a distance between a user and the display unit is determined by the ultrasonic sensor.
請求項2乃至8のいずれかにおいて、
前記ユーザ状態判断部は、
ユーザの前記視認状態として、ユーザが前記表示部を注視している状態か否かを判断し、
前記表示制御部は、
ユーザが前記表示部を注視しているか否かに応じて、タッチパネル用操作アイコンの表示制御を行うことを特徴とするデジタルフォトフレーム。
In any of claims 2 to 8,
The user status determination unit
As the user's visual state, it is determined whether or not the user is gazing at the display unit,
The display control unit
A digital photo frame, wherein display control of an operation icon for a touch panel is performed according to whether or not a user is gazing at the display unit.
請求項9において、
前記表示制御部は、
ユーザが前記表示部を注視していると判断された場合に、タッチパネル用操作アイコンの表示をオンにすることを特徴とするデジタルフォトフレーム。
In claim 9,
The display control unit
A digital photo frame that turns on display of a touch panel operation icon when it is determined that a user is gazing at the display unit.
請求項9又は10において、
前記表示制御部は、
ユーザが注視しているコンテンツ画像に対応するタッチパネル用操作アイコンを表示する制御を行うことを特徴とするデジタルフォトフレーム。
In claim 9 or 10,
The display control unit
A digital photo frame that performs control to display an operation icon for a touch panel corresponding to a content image that a user is gazing at.
請求項9乃至11のいずれかにおいて、
前記表示制御部は、
ユーザが前記表示部を注視していないと判断された場合には、第1〜第N(Nは2以上の整数)のコンテンツ画像を前記表示部にスライド表示する制御を行い、前記第1〜第Nのコンテンツ画像のうちの第K(1≦K≦N)のコンテンツ画像が表示されている時にユーザが前記表示部を注視していると判断された場合には、前記第Kのコンテンツ画像に対応するタッチパネル用操作アイコンを表示する制御を行うことを特徴とするデジタルフォトフレーム。
In any of claims 9 to 11,
The display control unit
When it is determined that the user is not gazing at the display unit, the first to Nth (N is an integer of 2 or more) content images are controlled to be slid on the display unit. When it is determined that the user is gazing at the display unit when the Kth (1 ≦ K ≦ N) content image among the Nth content images is displayed, the Kth content image A digital photo frame that performs control to display an operation icon for a touch panel corresponding to.
請求項2乃至12のいずれかにおいて、
前記ユーザ状態判断部は、
ユーザの発話状態を音声認識により判断し、
前記表示制御部は、
前記音声認識の結果に応じて、タッチパネル用操作アイコンの表示制御を行うことを特徴とするデジタルフォトフレーム。
In any of claims 2 to 12,
The user status determination unit
The user's utterance state is judged by voice recognition,
The display control unit
A digital photo frame which performs display control of an operation icon for a touch panel according to the result of the voice recognition.
請求項13において、
前記表示制御部は、
前記音声認識により抽出されたユーザの音声を構成する単語が、前記表示部に表示されているコンテンツ画像にタグとして設定されたキーワードと一致又は類似した場合に、一致又は類似したキーワードに対応するタッチパネル用操作アイコンを表示する制御を行うことを特徴とするデジタルフォトフレーム。
In claim 13,
The display control unit
A touch panel corresponding to a matched or similar keyword when a word constituting the user's voice extracted by the voice recognition matches or is similar to a keyword set as a tag in the content image displayed on the display unit A digital photo frame characterized by performing control to display an operation icon.
請求項2乃至14のいずれかにおいて、
前記ユーザ状態判断部は、
検知されたユーザの人数を認識し、
前記表示制御部は、
検知されたユーザの人数が一人であると判断された場合と複数人であると判断された場合とで、前記表示部に表示されるタッチパネル用操作アイコンの表示態様を異ならせる表示制御を行うことを特徴とするデジタルフォトフレーム。
In any of claims 2 to 14,
The user status determination unit
Recognize the number of detected users,
The display control unit
Display control is performed so that the display mode of the operation icons for the touch panel displayed on the display unit is different depending on whether the number of detected users is determined to be one or more than one. A digital photo frame characterized by
請求項15において、
前記表示制御部は、
検知されたユーザの人数が一人であると判断された場合には、検知された一人のユーザに対応する個人モード用のタッチパネル用操作アイコンを表示する制御を行うことを特徴とするデジタルフォトフレーム。
In claim 15,
The display control unit
A digital photo frame characterized in that, when it is determined that the number of detected users is one, control for displaying an operation icon for a personal mode touch panel corresponding to the detected one user is performed.
請求項15又は16において、
前記表示制御部は、
検知されたユーザの人数が複数人であると判断された場合には、検知された複数人のユーザに対応する共有モード用のタッチパネル用操作アイコンを表示する制御を行うことを特徴とするデジタルフォトフレーム。
In claim 15 or 16,
The display control unit
When the detected number of users is determined to be plural, the digital photo is controlled to display an operation icon for a shared mode touch panel corresponding to the detected plural users. flame.
請求項15において、
前記表示制御部は、
検知されたユーザが第1のユーザであると判断された場合には、第1のユーザ用のタッチパネル用操作アイコンを表示する制御を行い、検知されたユーザが第2のユーザであると判断された場合には、第2のユーザ用のタッチパネル用操作アイコンを表示する制御を行うことを特徴とするデジタルフォトフレーム。
In claim 15,
The display control unit
When it is determined that the detected user is the first user, control for displaying a touch panel operation icon for the first user is performed, and the detected user is determined to be the second user. If so, a digital photo frame that performs control to display a touch panel operation icon for a second user.
請求項2乃至18のいずれかにおいて、
ユーザの登録処理を行う登録処理部を含み、
前記ユーザ状態判断部は、
検知されたユーザが登録ユーザであるか否かの人物認証を行い、
前記表示制御部は、
検知されたユーザが登録ユーザであると判断された場合には、登録ユーザに対応する個人モード用のタッチパネル用操作アイコンを表示する制御を行うことを特徴とするデジタルフォトフレーム。
In any of claims 2 to 18,
Including a registration processing unit for performing user registration processing;
The user status determination unit
Performs person authentication to determine whether the detected user is a registered user,
The display control unit
A digital photo frame, wherein when it is determined that a detected user is a registered user, control for displaying an operation icon for a personal mode touch panel corresponding to the registered user is performed.
請求項2乃至19のいずれかにおいて、
前記ユーザ状態判断部は、
検知されたユーザの年齢認識を行い、
前記表示制御部は、
検知されたユーザの年齢認識結果に基づいて、タッチパネル用操作アイコンの表示制御を行うことを特徴とするデジタルフォトフレーム。
In any of claims 2 to 19,
The user status determination unit
Recognize the age of the detected user,
The display control unit
A digital photo frame, wherein display control of an operation icon for a touch panel is performed based on a detected age recognition result of a user.
請求項20において、
前記表示制御部は、
検知されたユーザの年齢認識結果に基づいて、ユーザの年齢層が所定年齢層であると判断された場合には、前記所定年齢層用のタッチパネル用操作アイコンを表示する制御を行うことを特徴とするデジタルフォトフレーム。
In claim 20,
The display control unit
Based on the detected age recognition result of the user, when it is determined that the user's age group is a predetermined age group, control is performed to display the operation icon for the touch panel for the predetermined age group. Digital photo frame.
請求項2乃至21のいずれかにおいて、
検知されたユーザの人数及び人物認証結果の少なくとも一方に応じて、タッチパネル用操作アイコンの表示モードを切り替える表示モード切り替え部を含むことを特徴とするデジタルフォトフレーム。
Any one of claims 2 to 21
A digital photo frame comprising a display mode switching unit for switching a display mode of a touch panel operation icon in accordance with at least one of the detected number of users and a person authentication result.
請求項1乃至22のいずれかにおいて、
前記表示制御部は、
前記表示部に表示される画像が第1のコンテンツ画像である場合には、前記第1のコンテンツ画像に対応づけられたタッチパネル用操作アイコンを表示し、前記表示部に表示される画像が第2のコンテンツ画像である場合には、前記第2のコンテンツ画像に対応づけられたタッチパネル用操作アイコンを表示する制御を行うことを特徴とするデジタルフォトフレーム。
In any one of Claims 1 thru | or 22.
The display control unit
When the image displayed on the display unit is the first content image, a touch panel operation icon associated with the first content image is displayed, and the image displayed on the display unit is the second content image. In the case of a content image, the digital photo frame is controlled to display a touch panel operation icon associated with the second content image.
請求項1乃至23のいずれかにおいて、
前記表示制御部は、
タッチパネル用操作アイコンの表示をオンにした後、所定時間が経過してもユーザの操作が行われなかった場合には、タッチパネル用操作アイコンの表示をオフにすることを特徴とするデジタルフォトフレーム。
In any one of Claims 1 thru | or 23.
The display control unit
A digital photo frame that turns off the display of a touch panel operation icon when a user operation is not performed after a predetermined time has elapsed after the display of the touch panel operation icon is turned on.
請求項1乃至24のいずれかにおいて、
前記表示部に表示されたタッチパネル用操作アイコンに対するユーザの操作履歴を、個人情報記憶部に書き込んでユーザの個人情報を更新する情報更新部を含むことを特徴とするデジタルフォトフレーム。
In any one of Claims 1 thru | or 24.
A digital photo frame comprising: an information updating unit for updating a user's personal information by writing a user's operation history for the touch panel operation icon displayed on the display unit into a personal information storage unit.
デジタルフォトフレームの表示部に表示される画像の表示指示を行う表示指示部と、
センサにより検知された検知情報を取得する検知情報取得部とを含み、
前記表示部はタッチパネルディスプレイにより構成され、
前記表示指示部は、
取得された前記検知情報に応じて、前記表示部に表示されるタッチパネル用操作アイコンの表示態様を変化させる表示指示を行うことを特徴とする情報処理システム。
A display instruction unit for instructing display of an image displayed on the display unit of the digital photo frame;
A detection information acquisition unit for acquiring detection information detected by the sensor,
The display unit includes a touch panel display,
The display instruction unit
An information processing system that performs a display instruction to change a display mode of an operation icon for a touch panel displayed on the display unit in accordance with the acquired detection information.
デジタフフォトフレームの制御方法であって、
表示部の表示制御を行い、
センサにより検知された検知情報を取得すると共に、
前記表示部はタッチパネルディスプレイにより構成され、
取得された前記検知情報に応じてタッチパネル用操作アイコンの表示態様を変化させる表示制御を行うことを特徴とする制御方法。
A digital tough photo frame control method comprising:
Perform display control of the display,
While obtaining the detection information detected by the sensor,
The display unit includes a touch panel display,
A control method for performing display control for changing a display mode of a touch panel operation icon in accordance with the acquired detection information.
画像が表示される表示部の表示制御を行う表示制御部と、
センサにより検知された検知情報を取得する検知情報取得部として、
コンピュータを機能させ、
前記表示部はタッチパネルディスプレイにより構成され、
前記表示制御部は、
取得された前記検知情報に応じてタッチパネル用操作アイコンの表示態様を変化させる表示制御を行うことを特徴とするプログラム。
A display control unit that performs display control of a display unit on which an image is displayed;
As a detection information acquisition unit that acquires detection information detected by the sensor,
Make the computer work,
The display unit includes a touch panel display,
The display control unit
The program which performs the display control which changes the display mode of the operation icon for touchscreens according to the acquired said detection information.
コンピュータ読み取り可能な情報記憶媒体であって、請求項28に記載のプログラムを記憶したことを特徴とする情報記憶媒体。   A computer-readable information storage medium, wherein the program according to claim 28 is stored.
JP2008234102A 2008-09-12 2008-09-12 Digital photo-frame, information processing system, control method, program, and information storage medium Pending JP2010067104A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008234102A JP2010067104A (en) 2008-09-12 2008-09-12 Digital photo-frame, information processing system, control method, program, and information storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008234102A JP2010067104A (en) 2008-09-12 2008-09-12 Digital photo-frame, information processing system, control method, program, and information storage medium

Publications (1)

Publication Number Publication Date
JP2010067104A true JP2010067104A (en) 2010-03-25

Family

ID=42192623

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008234102A Pending JP2010067104A (en) 2008-09-12 2008-09-12 Digital photo-frame, information processing system, control method, program, and information storage medium

Country Status (1)

Country Link
JP (1) JP2010067104A (en)

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110110564A1 (en) * 2009-11-06 2011-05-12 Kabushiki Kaisha Toshiba Electronic apparatus and image display
JP2012010212A (en) * 2010-06-28 2012-01-12 Casio Comput Co Ltd Image display device and program
WO2012014593A1 (en) * 2010-07-26 2012-02-02 日本電気株式会社 Presence determination device, method of determining presence, and program
JP2012034126A (en) * 2010-07-29 2012-02-16 Casio Comput Co Ltd Digital photograph frame, image display method and program
JP2012103800A (en) * 2010-11-08 2012-05-31 Sharp Corp Display device
JP2012123727A (en) * 2010-12-10 2012-06-28 Hitachi Solutions Ltd Advertising effect measurement server, advertising effect measurement device, program and advertising effect measurement system
JP2012133524A (en) * 2010-12-21 2012-07-12 Sony Corp Image display controller and image display control method
JP2013003650A (en) * 2011-06-13 2013-01-07 Sony Corp Information processing apparatus and program
JP2013020366A (en) * 2011-07-08 2013-01-31 Namco Bandai Games Inc Game system, program, and information storage medium
JP2013074551A (en) * 2011-09-28 2013-04-22 Casio Comput Co Ltd Image display apparatus and image display program
JP2013161406A (en) * 2012-02-08 2013-08-19 Sharp Corp Data input device, display device, data input method, and data input program
JP2013206068A (en) * 2012-03-28 2013-10-07 Kyocera Corp Display device, portable terminal, display method, and display program
WO2013176265A1 (en) * 2012-05-25 2013-11-28 国立大学法人静岡大学 Pupil detection method, corneal reflex detection method, facial posture detection method, and pupil tracking method
JP2014523012A (en) * 2011-07-01 2014-09-08 エンパイア テクノロジー ディベロップメント エルエルシー Adaptive user interface
JP2014207572A (en) * 2013-04-12 2014-10-30 キヤノン株式会社 Image processing device and control method for image processing device
JP2014219747A (en) * 2013-05-02 2014-11-20 三菱電機株式会社 Map drawing device
JP2015015031A (en) * 2014-08-12 2015-01-22 株式会社日立ソリューションズ Advertising effect measurement server, advertising effect measurement system, and program
WO2015022498A1 (en) * 2013-08-15 2015-02-19 Elliptic Laboratories As Touchless user interfaces
JP5769277B2 (en) * 2011-04-27 2015-08-26 Necソリューションイノベータ株式会社 Input device, input method, and program
JP2015167045A (en) * 2015-06-15 2015-09-24 Kddi株式会社 User interface making it possible to switch active states with depressing maneuver, and active state switching method and program
WO2015140972A1 (en) * 2014-03-19 2015-09-24 三菱電機株式会社 Remote controller
JP2016001388A (en) * 2014-06-11 2016-01-07 西日本電信電話株式会社 Terminal device, control method, and computer program
JP2016519377A (en) * 2013-05-09 2016-06-30 アマゾン・テクノロジーズ、インコーポレイテッド Recognition interface for computing devices
JP2016207153A (en) * 2015-04-28 2016-12-08 京セラドキュメントソリューションズ株式会社 Electronic apparatus and operation screen display program
JP2017129934A (en) * 2016-01-18 2017-07-27 富士通株式会社 Electronic instrument and operation control program
US10033973B1 (en) 2017-01-25 2018-07-24 Honeywell International Inc. Systems and methods for customizing a personalized user interface using face recognition
JP2018180776A (en) * 2017-04-07 2018-11-15 京セラドキュメントソリューションズ株式会社 Display input device
JP2019139701A (en) * 2018-02-15 2019-08-22 京セラドキュメントソリューションズ株式会社 Electronic apparatus
JP2020503599A (en) * 2016-12-14 2020-01-30 サムスン エレクトロニクス カンパニー リミテッド Display device and control method thereof
WO2020022039A1 (en) * 2018-07-25 2020-01-30 ソニー株式会社 Information processing device, information processing method, and program
JP2021093026A (en) * 2019-12-11 2021-06-17 大日本印刷株式会社 Information processing apparatus, information processing method, and program
CN114003163A (en) * 2021-10-27 2022-02-01 腾讯科技(深圳)有限公司 Image processing method and apparatus, storage medium, and electronic device
WO2022114177A1 (en) * 2020-11-30 2022-06-02 株式会社Jvcケンウッド Display device, display method, and program
JP2022120500A (en) * 2021-02-05 2022-08-18 Necパーソナルコンピュータ株式会社 Learning support system, learning support method, and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006048644A (en) * 2004-07-06 2006-02-16 Matsushita Electric Ind Co Ltd Image display device and viewing intention judging device
JP2007264006A (en) * 2006-03-27 2007-10-11 Seiko Epson Corp Image admiration system, image display device, electronic photograph stand, data handling device, image display method, data handling method, image display program, and data handling program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006048644A (en) * 2004-07-06 2006-02-16 Matsushita Electric Ind Co Ltd Image display device and viewing intention judging device
JP2007264006A (en) * 2006-03-27 2007-10-11 Seiko Epson Corp Image admiration system, image display device, electronic photograph stand, data handling device, image display method, data handling method, image display program, and data handling program

Cited By (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011101251A (en) * 2009-11-06 2011-05-19 Toshiba Corp Electronic apparatus and image display method
US8244005B2 (en) 2009-11-06 2012-08-14 Kabushiki Kaisha Toshiba Electronic apparatus and image display method
US20110110564A1 (en) * 2009-11-06 2011-05-12 Kabushiki Kaisha Toshiba Electronic apparatus and image display
JP2012010212A (en) * 2010-06-28 2012-01-12 Casio Comput Co Ltd Image display device and program
US8963711B2 (en) 2010-07-26 2015-02-24 Nec Corporation Presence decision apparatus, presence decision method, and program
WO2012014593A1 (en) * 2010-07-26 2012-02-02 日本電気株式会社 Presence determination device, method of determining presence, and program
JP2012034126A (en) * 2010-07-29 2012-02-16 Casio Comput Co Ltd Digital photograph frame, image display method and program
JP2012103800A (en) * 2010-11-08 2012-05-31 Sharp Corp Display device
JP2012123727A (en) * 2010-12-10 2012-06-28 Hitachi Solutions Ltd Advertising effect measurement server, advertising effect measurement device, program and advertising effect measurement system
JP2012133524A (en) * 2010-12-21 2012-07-12 Sony Corp Image display controller and image display control method
US9703403B2 (en) 2010-12-21 2017-07-11 Sony Corporation Image display control apparatus and image display control method
JP5769277B2 (en) * 2011-04-27 2015-08-26 Necソリューションイノベータ株式会社 Input device, input method, and program
JP2013003650A (en) * 2011-06-13 2013-01-07 Sony Corp Information processing apparatus and program
JP2014523012A (en) * 2011-07-01 2014-09-08 エンパイア テクノロジー ディベロップメント エルエルシー Adaptive user interface
JP2013020366A (en) * 2011-07-08 2013-01-31 Namco Bandai Games Inc Game system, program, and information storage medium
JP2013074551A (en) * 2011-09-28 2013-04-22 Casio Comput Co Ltd Image display apparatus and image display program
JP2013161406A (en) * 2012-02-08 2013-08-19 Sharp Corp Data input device, display device, data input method, and data input program
JP2013206068A (en) * 2012-03-28 2013-10-07 Kyocera Corp Display device, portable terminal, display method, and display program
WO2013176265A1 (en) * 2012-05-25 2013-11-28 国立大学法人静岡大学 Pupil detection method, corneal reflex detection method, facial posture detection method, and pupil tracking method
US9514538B2 (en) 2012-05-25 2016-12-06 National University Corporation Shizuoka University Pupil detection method, corneal reflex detection method, facial posture detection method, and pupil tracking method
JPWO2013176265A1 (en) * 2012-05-25 2016-01-14 国立大学法人静岡大学 Pupil detection method, corneal reflection detection method, face posture detection method, and pupil tracking method
JP2014207572A (en) * 2013-04-12 2014-10-30 キヤノン株式会社 Image processing device and control method for image processing device
JP2014219747A (en) * 2013-05-02 2014-11-20 三菱電機株式会社 Map drawing device
US9927949B2 (en) 2013-05-09 2018-03-27 Amazon Technologies, Inc. Recognition interfaces for computing devices
JP2016519377A (en) * 2013-05-09 2016-06-30 アマゾン・テクノロジーズ、インコーポレイテッド Recognition interface for computing devices
WO2015022498A1 (en) * 2013-08-15 2015-02-19 Elliptic Laboratories As Touchless user interfaces
WO2015140972A1 (en) * 2014-03-19 2015-09-24 三菱電機株式会社 Remote controller
JPWO2015140972A1 (en) * 2014-03-19 2017-04-06 三菱電機株式会社 Remote controller
JP2016001388A (en) * 2014-06-11 2016-01-07 西日本電信電話株式会社 Terminal device, control method, and computer program
JP2015015031A (en) * 2014-08-12 2015-01-22 株式会社日立ソリューションズ Advertising effect measurement server, advertising effect measurement system, and program
JP2016207153A (en) * 2015-04-28 2016-12-08 京セラドキュメントソリューションズ株式会社 Electronic apparatus and operation screen display program
JP2015167045A (en) * 2015-06-15 2015-09-24 Kddi株式会社 User interface making it possible to switch active states with depressing maneuver, and active state switching method and program
JP2017129934A (en) * 2016-01-18 2017-07-27 富士通株式会社 Electronic instrument and operation control program
JP7050067B2 (en) 2016-12-14 2022-04-07 サムスン エレクトロニクス カンパニー リミテッド Display device and its control method
JP2020503599A (en) * 2016-12-14 2020-01-30 サムスン エレクトロニクス カンパニー リミテッド Display device and control method thereof
US10033973B1 (en) 2017-01-25 2018-07-24 Honeywell International Inc. Systems and methods for customizing a personalized user interface using face recognition
JP2018180776A (en) * 2017-04-07 2018-11-15 京セラドキュメントソリューションズ株式会社 Display input device
JP2019139701A (en) * 2018-02-15 2019-08-22 京セラドキュメントソリューションズ株式会社 Electronic apparatus
JP7069795B2 (en) 2018-02-15 2022-05-18 京セラドキュメントソリューションズ株式会社 Electronics
JPWO2020022039A1 (en) * 2018-07-25 2021-08-02 ソニーグループ株式会社 Information processing equipment, information processing methods and programs
WO2020022039A1 (en) * 2018-07-25 2020-01-30 ソニー株式会社 Information processing device, information processing method, and program
JP7444060B2 (en) 2018-07-25 2024-03-06 ソニーグループ株式会社 Information processing device, information processing method and program
JP2021093026A (en) * 2019-12-11 2021-06-17 大日本印刷株式会社 Information processing apparatus, information processing method, and program
WO2022114177A1 (en) * 2020-11-30 2022-06-02 株式会社Jvcケンウッド Display device, display method, and program
JP2022120500A (en) * 2021-02-05 2022-08-18 Necパーソナルコンピュータ株式会社 Learning support system, learning support method, and program
CN114003163A (en) * 2021-10-27 2022-02-01 腾讯科技(深圳)有限公司 Image processing method and apparatus, storage medium, and electronic device
CN114003163B (en) * 2021-10-27 2023-10-24 腾讯科技(深圳)有限公司 Image processing method and device, storage medium and electronic equipment

Similar Documents

Publication Publication Date Title
JP2010067104A (en) Digital photo-frame, information processing system, control method, program, and information storage medium
US11470385B2 (en) Method and apparatus for filtering video
CN109683716B (en) Visibility improvement method based on eye tracking and electronic device
KR102559028B1 (en) Method and apparatus for recognizing handwriting
CN107003827B (en) Image display method and apparatus performed by an apparatus including a switchable mirror
US9900498B2 (en) Glass-type terminal and method for controlling the same
EP2680110B1 (en) Method and apparatus for processing multiple inputs
US8700392B1 (en) Speech-inclusive device interfaces
US20160093081A1 (en) Image display method performed by device including switchable mirror and the device
JP2010016432A (en) Digital photograph frame, information processing system, control method, program, and information storage medium
KR102092931B1 (en) Method for eye-tracking and user terminal for executing the same
US11317018B2 (en) Camera operable using natural language commands
JP2010004118A (en) Digital photograph frame, information processing system, control method, program, and information storage medium
JP2010181461A (en) Digital photograph frame, information processing system, program, and information storage medium
KR20190035116A (en) Method and apparatus for displaying an ar object
JP7151959B2 (en) Image alignment method and apparatus
US20180196503A1 (en) Information processing device, information processing method, and program
CN112585566A (en) Hand-covering face input sensing for interacting with device having built-in camera
KR20180109499A (en) Method and apparatus for providng response to user&#39;s voice input
JP2010224715A (en) Image display system, digital photo-frame, information processing system, program, and information storage medium
KR102208256B1 (en) Smart doll performing the reading function
WO2019007236A1 (en) Input method, device, and machine-readable medium
KR20140132906A (en) Device and method for mobile tooltip using eye detecting
JP7468360B2 (en) Information processing device and information processing method
JP5330005B2 (en) Digital photo frame, information processing system and control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110829

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120724

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120920

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130312