JP2010067104A - Digital photo-frame, information processing system, control method, program, and information storage medium - Google Patents
Digital photo-frame, information processing system, control method, program, and information storage medium Download PDFInfo
- Publication number
- JP2010067104A JP2010067104A JP2008234102A JP2008234102A JP2010067104A JP 2010067104 A JP2010067104 A JP 2010067104A JP 2008234102 A JP2008234102 A JP 2008234102A JP 2008234102 A JP2008234102 A JP 2008234102A JP 2010067104 A JP2010067104 A JP 2010067104A
- Authority
- JP
- Japan
- Prior art keywords
- user
- display
- unit
- touch panel
- operation icon
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Television Signal Processing For Recording (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、デジタルフォトフレーム、情報処理システム、制御方法、プログラム及び情報記憶媒体等に関する。 The present invention relates to a digital photo frame, an information processing system, a control method, a program, an information storage medium, and the like.
近年、デジタルスチルカメラなどのデジタルカメラで撮影した画像を手軽に再生できる装置として、デジタルフォトフレームが脚光を浴びている。このデジタルフォトフレームは、フォトスタンドの写真を入れる部分が液晶ディスプレイに置き換えられた形態の装置であり、メモリカードや通信装置を介して読み込まれたデジタルの画像データ(電子写真)の再生処理を行う。 In recent years, a digital photo frame has been spotlighted as a device that can easily reproduce an image taken by a digital camera such as a digital still camera. This digital photo frame is a device in which a portion for putting a photo on a photo stand is replaced with a liquid crystal display, and performs reproduction processing of digital image data (electrophotography) read via a memory card or a communication device. .
デジタルフォトフレームの従来技術としては例えば特許文献1に開示される技術がある。この従来技術では、電話回線接続装置を、デジタルフォトフレームであるデジタルフォトスタンドに具備させて、フォトスタンドと有線又は無線の電話回線との間の伝送路の形成を実現している。
As a conventional technique of a digital photo frame, for example, there is a technique disclosed in
しかしながら、これまでのデジタルフォトフレームは、メモリに蓄積された一連の画像を単に再生するだけであり、表示画像の選択や表示方法の変更等などをユーザが行うための適切なインターフェースを備えていなかった。このため再生画像が単調であると共に、ユーザに対して使いやすいインターフェース環境を提供することができなかった。 However, conventional digital photo frames simply reproduce a series of images stored in the memory, and do not have an appropriate interface for a user to select a display image, change a display method, or the like. It was. Therefore, the reproduced image is monotonous and an interface environment that is easy to use cannot be provided to the user.
本発明の幾つかの態様によれば、ユーザにとって利便性の高いインターフェース環境を実現できるデジタルフォトフレーム、情報処理システム、制御方法、プログラム及び情報記憶媒体を提供できる。 According to some aspects of the present invention, it is possible to provide a digital photo frame, an information processing system, a control method, a program, and an information storage medium that can realize an interface environment that is highly convenient for the user.
本発明は、画像が表示される表示部と、前記表示部の表示制御を行う表示制御部と、センサにより検知された検知情報を取得する検知情報取得部とを含み、前記表示部はタッチパネルディスプレイにより構成され、前記表示制御部は、取得された前記検知情報に応じてタッチパネル用操作アイコンの表示態様を変化させる表示制御を行うデジタルフォトフレームに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。 The present invention includes a display unit that displays an image, a display control unit that performs display control of the display unit, and a detection information acquisition unit that acquires detection information detected by a sensor, and the display unit is a touch panel display. The display control unit relates to a digital photo frame that performs display control for changing a display mode of the operation icon for the touch panel according to the acquired detection information. The present invention also relates to a program that causes a computer to function as each of the above-described units, or a computer-readable information storage medium that stores the program.
本発明によれば、デジタルフォトフレームの表示部がタッチパネルディスプレイにより構成される。これにより利便性の高いデジタルフォトフレームのインターフェース環境をユーザに提供できる。そして本発明によれば、センサにより検知された検知情報が取得され、取得された検知情報に応じてタッチパネル用操作アイコンの表示態様が変化する表示制御が行われる。このようにすれば、タッチパネル用操作アイコンのタッチ操作による好適なインターフェース環境をユーザに提供でき、これまでにないタイプのインターフェースを有するデジタルフォトフレームを提供できる。 According to the present invention, the display unit of the digital photo frame is configured by a touch panel display. As a result, a highly convenient digital photo frame interface environment can be provided to the user. According to the present invention, the detection information detected by the sensor is acquired, and display control is performed in which the display mode of the operation icon for the touch panel changes according to the acquired detection information. In this way, it is possible to provide the user with a suitable interface environment by touching the touch panel operation icon, and to provide a digital photo frame having an unprecedented type of interface.
また本発明では、取得された前記検知情報に基づいて、ユーザと前記表示部との位置関係の判断、前記表示部に対するユーザの視認状態の判断、ユーザの発話状態の判断、ユーザの人数の認識、及びユーザの人物認証の少なくとも1つを行うユーザ状態判断部を含み、前記表示制御部は、ユーザと前記表示部との前記位置関係、ユーザの前記視認状態、ユーザの前記発話状態、ユーザの人数の認識結果、及びユーザの人物認証結果の少なくとも1つに応じて、タッチパネル用操作アイコンの表示態様を変化させる表示制御を行ってもよい。 Further, in the present invention, based on the acquired detection information, determination of the positional relationship between the user and the display unit, determination of the user's visual status with respect to the display unit, determination of the user's utterance state, recognition of the number of users And a user state determination unit that performs at least one of user authentication of the user, the display control unit, the positional relationship between the user and the display unit, the user's visual recognition state, the user's utterance state, Display control for changing the display mode of the operation icons for the touch panel may be performed in accordance with at least one of the recognition result of the number of people and the result of user authentication of the user.
本発明によれば、センサにより検知された検知情報が取得され、取得された検知情報に基づいて、ユーザ状態が判断されたり、ユーザ認識が行われる。そして、ユーザとの位置関係、ユーザの視認状態、ユーザの発話状態、ユーザの人数、或いはユーザの人物認証結果などに応じて、タッチパネル用操作アイコンの表示態様が変化する。このようにすればユーザとの位置関係、ユーザの視認状態や発話状態、ユーザの人数、人物認証結果等が反映されたタッチパネル用操作アイコンがデジタルフォトフレームの表示部に表示されるようになり、これまでにないタイプのインターフェース環境を提供できる。 According to the present invention, detection information detected by a sensor is acquired, and a user state is determined or user recognition is performed based on the acquired detection information. And the display mode of the operation icon for touch panels changes according to the positional relationship with the user, the user's visual recognition state, the user's utterance state, the number of users, or the user authentication result. In this way, the operation icon for the touch panel reflecting the positional relationship with the user, the user's visual state and speech state, the number of users, the person authentication result, etc. is displayed on the display unit of the digital photo frame, An unprecedented type of interface environment can be provided.
また本発明では、前記ユーザ状態判断部は、ユーザと前記表示部との前記位置関係として、ユーザと前記表示部との間の距離を判断し、前記表示制御部は、ユーザと前記表示部との間の距離に応じて、タッチパネル用操作アイコンの表示制御を行ってもよい。 In the present invention, the user state determination unit determines a distance between the user and the display unit as the positional relationship between the user and the display unit, and the display control unit includes the user and the display unit. Display control of the operation icon for the touch panel may be performed according to the distance between the two.
このようにすれば、ユーザとの距離の大小に応じて、タッチパネル用操作アイコンの表示態様等が変化するようになり、ユーザとの距離を反映させたインターフェース環境を提供できる。 In this way, the display mode of the touch panel operation icon changes according to the distance from the user, and an interface environment reflecting the distance from the user can be provided.
また本発明では、前記表示制御部は、ユーザと前記表示部との間の距離が所定距離内である場合に、タッチパネル用操作アイコンの表示をオンにしてもよい。 In the present invention, the display control unit may turn on the display of the operation icon for the touch panel when the distance between the user and the display unit is within a predetermined distance.
このようにすれば、ユーザが接近した場合に、タッチパネル用操作アイコンの表示がオンになるため、コンテンツ画像の鑑賞と、タッチパネル用操作アイコンを用いたインターフェース環境とを両立できる。 In this way, when the user approaches, the display of the touch panel operation icon is turned on, so that both viewing of the content image and the interface environment using the touch panel operation icon can be achieved.
また本発明では、前記表示制御部は、ユーザと前記表示部との間の距離が所定距離より大きいと判断された場合には、第1〜第N(Nは2以上の整数)のコンテンツ画像を前記表示部にスライド表示する制御を行い、前記第1〜第Nのコンテンツ画像のうちの第K(1≦K≦N)のコンテンツ画像が表示されている時に、ユーザと前記表示部との間の距離が所定距離内であると判断された場合には、前記第Kのコンテンツ画像に対応するタッチパネル用操作アイコンを表示する制御を行ってもよい。 Further, in the present invention, the display control unit, when it is determined that the distance between the user and the display unit is larger than a predetermined distance, the first to Nth (N is an integer of 2 or more) content images. Is displayed on the display unit, and when the Kth (1 ≦ K ≦ N) content image among the first to Nth content images is displayed, the user and the display unit When it is determined that the distance between them is within a predetermined distance, control for displaying a touch panel operation icon corresponding to the Kth content image may be performed.
このようにすれば、第1〜第Nのコンテンツ画像のうちの第Kのコンテンツ画像が表示されている時にユーザが接近した場合に、その第Kのコンテンツ画像に好適なタッチパネル用操作アイコンを表示できるようになる。 In this way, when the user approaches when the K-th content image among the first to N-th content images is displayed, an operation icon for a touch panel suitable for the K-th content image is displayed. become able to.
また本発明では、前記センサは、ユーザを撮像する撮像センサであり、前記ユーザ状態判断部は、前記撮像センサからの撮像情報に基づいて、ユーザの顔領域を検出し、検出された前記顔領域のサイズに基づいて、ユーザと前記表示部との間の距離を判断してもよい。 In the present invention, the sensor is an imaging sensor that images a user, and the user state determination unit detects a user's face area based on imaging information from the imaging sensor, and the detected face area The distance between the user and the display unit may be determined based on the size of the display.
このようにすれば、顔領域のサイズを検出するだけで、ユーザとの距離を判断できると共に、ユーザの視線が表示部の方に向いていることも担保できるようになる。 In this way, it is possible to determine the distance from the user only by detecting the size of the face area, and to ensure that the user's line of sight is directed toward the display unit.
また本発明では、前記センサは、ユーザを撮像する撮像センサであり、前記ユーザ状態判断部は、ユーザに対する自動焦点合わせ処理により、ユーザと前記表示部との間の距離を判断してもよい。 In the present invention, the sensor may be an imaging sensor that captures an image of the user, and the user state determination unit may determine a distance between the user and the display unit by an automatic focusing process for the user.
このようにすれば、既存の自動焦点合わせを利用して、ユーザとの距離等を判断することが可能になる。 In this way, it is possible to determine the distance to the user and the like using the existing automatic focusing.
また本発明では、前記センサは超音波センサであり、前記ユーザ状態判断部は、前記超音波センサにより、ユーザと前記表示部との間の距離を判断してもよい。 In the present invention, the sensor may be an ultrasonic sensor, and the user state determination unit may determine the distance between the user and the display unit using the ultrasonic sensor.
このようにすれば、超音波センサを活用して、ユーザとの距離等を判断することが可能になる。 In this way, it is possible to determine the distance to the user and the like using the ultrasonic sensor.
また本発明では、前記ユーザ状態判断部は、ユーザの前記視認状態として、ユーザが前記表示部を注視している状態か否かを判断し、前記表示制御部は、ユーザが前記表示部を注視しているか否かに応じて、タッチパネル用操作アイコンの表示制御を行ってもよい。 Further, in the present invention, the user state determination unit determines whether the user is gazing at the display unit as the user's visual recognition state, and the display control unit is gazed at the display unit by the user. Display control of the operation icon for the touch panel may be performed depending on whether or not it is performed.
このようにすれば、ユーザが注視しているか否かに応じて、タッチパネル用操作アイコンの表示態様が変化するようになり、ユーザの注視状態を反映させたインターフェース環境を提供できる。 In this way, the display mode of the touch panel operation icon changes depending on whether or not the user is gazing, and an interface environment reflecting the gazing state of the user can be provided.
また本発明では、前記表示制御部は、ユーザが前記表示部を注視していると判断された場合に、タッチパネル用操作アイコンの表示をオンにしてもよい。 In the present invention, the display control unit may turn on the display of the touch panel operation icon when it is determined that the user is gazing at the display unit.
このようにすれば、ユーザが表示部を注視した場合に、タッチパネル用操作アイコンの表示がオンになるため、ユーザの注視状態を反映させたタッチパネル用操作アイコンの表示のオン・オフ制御を実現できる。 In this way, when the user gazes at the display unit, the display of the operation icon for the touch panel is turned on, and thus the on / off control of the display of the operation icon for the touch panel reflecting the user's gaze state can be realized. .
また本発明では、前記表示制御部は、ユーザが注視しているコンテンツ画像に対応するタッチパネル用操作アイコンを表示する制御を行ってもよい。 In the present invention, the display control unit may perform control to display a touch panel operation icon corresponding to the content image that the user is gazing at.
このようにすれば、ユーザが注視しているコンテンツ画像に好適なタッチパネル用操作アイコンを表示できるようになる。 In this way, it is possible to display a touch panel operation icon suitable for the content image being watched by the user.
また本発明では、前記表示制御部は、ユーザが前記表示部を注視していないと判断された場合には、第1〜第N(Nは2以上の整数)のコンテンツ画像を前記表示部にスライド表示する制御を行い、前記第1〜第Nのコンテンツ画像のうちの第K(1≦K≦N)のコンテンツ画像が表示されている時にユーザが前記表示部を注視していると判断された場合には、前記第Kのコンテンツ画像に対応するタッチパネル用操作アイコンを表示する制御を行ってもよい。 In the present invention, when it is determined that the user is not gazing at the display unit, the display control unit displays the first to Nth (N is an integer of 2 or more) content images on the display unit. The slide display control is performed, and it is determined that the user is gazing at the display unit when the Kth (1 ≦ K ≦ N) content image among the first to Nth content images is displayed. In such a case, control for displaying a touch panel operation icon corresponding to the Kth content image may be performed.
このようにすれば、第1〜第Nのコンテンツ画像のうちの第Kのコンテンツ画像をユーザが注視した場合に、その第Kのコンテンツ画像に好適なタッチパネル用操作アイコンを表示できるようになる。 In this way, when the user gazes at the Kth content image among the first to Nth content images, a touch panel operation icon suitable for the Kth content image can be displayed.
また本発明では、前記ユーザ状態判断部は、ユーザの発話状態を音声認識により判断し、前記表示制御部は、前記音声認識の結果に応じて、タッチパネル用操作アイコンの表示制御を行ってもよい。 In the present invention, the user state determination unit may determine a user's utterance state by voice recognition, and the display control unit may perform display control of a touch panel operation icon according to the result of the voice recognition. .
このようにすれば、ユーザの発話状態の音声認識結果を反映させたタッチパネル用操作アイコンの表示制御を実現できる。 In this way, it is possible to realize display control of the operation icon for the touch panel reflecting the voice recognition result of the user's utterance state.
また本発明では、前記表示制御部は、前記音声認識により抽出されたユーザの音声を構成する単語が、前記表示部に表示されているコンテンツ画像にタグとして設定されたキーワードと一致又は類似した場合に、一致又は類似したキーワードに対応するタッチパネル用操作アイコンを表示する制御を行ってもよい。 Further, in the present invention, the display control unit is configured such that a word constituting the user's voice extracted by the voice recognition matches or is similar to a keyword set as a tag in the content image displayed on the display unit. In addition, control for displaying a touch panel operation icon corresponding to a matching or similar keyword may be performed.
このようにすれば、ユーザが発話した単語に応じたタッチパネル用操作アイコンを表示できるようになり、ユーザにとって直感的なインターフェース環境を提供できる。 In this way, it becomes possible to display a touch panel operation icon corresponding to a word spoken by the user, and an intuitive interface environment for the user can be provided.
また本発明では、前記ユーザ状態判断部は、検知されたユーザの人数を認識し、前記表示制御部は、検知されたユーザの人数が一人であると判断された場合と複数人であると判断された場合とで、前記表示部に表示されるタッチパネル用操作アイコンの表示態様を異ならせる表示制御を行ってもよい。 In the present invention, the user state determination unit recognizes the number of detected users, and the display control unit determines that the number of detected users is one and a plurality of users. The display control may be performed so that the display mode of the operation icon for the touch panel displayed on the display unit is different depending on the case.
このようにすれば、検知されたユーザの人数に応じて、タッチパネル用操作アイコンの表示態様が変化するようになり、ユーザの人数を考慮したインターフェース環境を提供できる。 In this way, the display mode of the operation icons for the touch panel changes according to the detected number of users, and an interface environment considering the number of users can be provided.
また本発明では、前記表示制御部は、検知されたユーザの人数が一人であると判断された場合には、検知された一人のユーザに対応する個人モード用のタッチパネル用操作アイコンを表示する制御を行ってもよい。 In the present invention, the display control unit is configured to display a touch panel operation icon for a personal mode corresponding to one detected user when it is determined that the number of detected users is one. May be performed.
このようにすれば、ユーザが一人である場合には、そのユーザに対応した個人モード用のタッチパネル用操作アイコンが表示されるため、そのユーザに対応したタッチパネル用操作アイコンを表示できるようになる。 In this way, when the user is alone, the touch panel operation icon for the personal mode corresponding to the user is displayed, so that the touch panel operation icon corresponding to the user can be displayed.
また本発明では、前記表示制御部は、検知されたユーザの人数が複数人であると判断された場合には、検知された複数人のユーザに対応する共有モード用のタッチパネル用操作アイコンを表示する制御を行ってもよい。 Further, in the present invention, when it is determined that the number of detected users is plural, the display control unit displays an operation icon for a touch panel for a sharing mode corresponding to the detected plural users. Control may be performed.
このようにすれば、ユーザが複数人である場合には、複数のユーザに対応する共有モード用のタッチパネル用操作アイコンが表示されるため、複数のユーザが存在する場合に好適なインターフェース環境を提供できる。 In this way, when there are a plurality of users, the touch panel operation icons for the sharing mode corresponding to the plurality of users are displayed, so that an interface environment suitable for a case where there are a plurality of users is provided. it can.
また本発明では、前記表示制御部は、検知されたユーザが第1のユーザであると判断された場合には、第1のユーザ用のタッチパネル用操作アイコンを表示する制御を行い、検知されたユーザが第2のユーザであると判断された場合には、第2のユーザ用のタッチパネル用操作アイコンを表示する制御を行ってもよい。 In the present invention, when the detected user is determined to be the first user, the display control unit performs control to display a touch panel operation icon for the first user, and is detected. When it is determined that the user is the second user, control for displaying a touch panel operation icon for the second user may be performed.
このようにすれば、各ユーザに対応したタッチパネル用操作アイコンが表示されるようになるため、各ユーザに応じた好適なインターフェース環境を提供できる。 In this way, since the touch panel operation icon corresponding to each user is displayed, a suitable interface environment corresponding to each user can be provided.
また本発明では、ユーザの登録処理を行う登録処理部を含み、前記ユーザ状態判断部は、検知されたユーザが登録ユーザであるか否かの人物認証を行い、前記表示制御部は、検知されたユーザが登録ユーザであると判断された場合には、登録ユーザに対応する個人モード用のタッチパネル用操作アイコンを表示する制御を行ってもよい。 The present invention further includes a registration processing unit for performing user registration processing, wherein the user state determination unit performs person authentication as to whether or not the detected user is a registered user, and the display control unit is detected. If it is determined that the registered user is a registered user, control for displaying a personal mode touch panel operation icon corresponding to the registered user may be performed.
このようにすれば、検知されたユーザが登録ユーザである場合には、ユーザの登録処理を反映させた個人モード用のタッチパネル用操作アイコンの表示が可能になり、各登録ユーザに応じた好適なインターフェース環境を提供できる。 In this way, when the detected user is a registered user, it becomes possible to display a touch panel operation icon for personal mode reflecting the user's registration process, which is suitable for each registered user. An interface environment can be provided.
また本発明では、前記ユーザ状態判断部は、検知されたユーザの年齢認識を行い、前記表示制御部は、検知されたユーザの年齢認識結果に基づいて、タッチパネル用操作アイコンの表示制御を行ってもよい。 In the present invention, the user state determination unit performs age recognition of the detected user, and the display control unit performs display control of the operation icon for the touch panel based on the detected age recognition result of the user. Also good.
このようにすればユーザの年齢の認識結果が反映されたタッチパネル用操作アイコンが表示部に表示されるようになり、ユーザの年齢に応じた好適なインターフェース環境を提供できる。 In this way, the touch panel operation icon reflecting the recognition result of the user's age is displayed on the display unit, and a suitable interface environment according to the user's age can be provided.
また本発明では、前記表示制御部は、検知されたユーザの年齢認識結果に基づいて、ユーザの年齢層が所定年齢層であると判断された場合には、前記所定年齢層用のタッチパネル用操作アイコンを表示する制御を行ってもよい。 In the present invention, when the display control unit determines that the user's age group is the predetermined age group based on the detected age recognition result of the user, the operation for the touch panel for the predetermined age group is performed. You may perform control which displays an icon.
このようにすれば、所定年齢層のユーザの各々に対して、そのユーザに適した所定年齢層用のタッチパネル用操作アイコンを表示できるようになる。 If it does in this way, the operation icon for touchscreens for predetermined age groups suitable for the user can be displayed to each user of the predetermined age group.
また本発明では、検知されたユーザの人数及び人物認証結果の少なくとも一方に応じて、タッチパネル用操作アイコンの表示モードを切り替える表示モード切り替え部を含んでもよい。 Further, the present invention may include a display mode switching unit that switches a display mode of the touch panel operation icon according to at least one of the detected number of users and the person authentication result.
このようにすれば、表示モードを切り替えるという簡素な処理で、ユーザの人数や人物認証結果に応じてタッチパネル用操作アイコンの表示態様を変化させることが可能になる。 In this way, it is possible to change the display mode of the operation icons for the touch panel according to the number of users and the result of person authentication by a simple process of switching the display mode.
また本発明では、前記表示制御部は、前記表示部に表示される画像が第1のコンテンツ画像である場合には、前記第1のコンテンツ画像に対応づけられたタッチパネル用操作アイコンを表示し、前記表示部に表示される画像が第2のコンテンツ画像である場合には、前記第2のコンテンツ画像に対応づけられたタッチパネル用操作アイコンを表示する制御を行ってもよい。 In the present invention, when the image displayed on the display unit is a first content image, the display control unit displays a touch panel operation icon associated with the first content image, When the image displayed on the display unit is the second content image, control for displaying a touch panel operation icon associated with the second content image may be performed.
このようにすれば、各コンテンツ画像の表示時に、各コンテンツ画像に対応づけられたタッチパネル用操作アイコンが表示されるため、コンテンツ画像の内容に応じた好適なインターフェース環境を提供できる。 In this way, since the touch panel operation icon associated with each content image is displayed when each content image is displayed, a suitable interface environment corresponding to the content of the content image can be provided.
また本発明では、前記表示制御部は、タッチパネル用操作アイコンの表示をオンにした後、所定時間が経過してもユーザの操作が行われなかった場合には、タッチパネル用操作アイコンの表示をオフにしてもよい。 According to the present invention, the display control unit turns off the display of the touch panel operation icon when the user does not perform an operation after a predetermined time has elapsed after the display of the touch panel operation icon is turned on. It may be.
このようにすれば、タッチパネル用操作アイコンがコンテンツ画像の鑑賞等の妨げとなってしまう事態を防止できる。;
また本発明では、前記表示部に表示されたタッチパネル用操作アイコンに対するユーザの操作履歴を、個人情報記憶部に書き込んでユーザの個人情報を更新する情報更新部を含んでもよい。
In this way, it is possible to prevent a situation in which the touch panel operation icon hinders viewing of the content image or the like. ;
Further, the present invention may include an information update unit that writes the user's operation history for the touch panel operation icon displayed on the display unit into the personal information storage unit to update the user's personal information.
このようにすれば、タッチパネル用操作アイコンに対するユーザの操作履歴が、ユーザの個人情報として個人情報記憶部に書き込まれるようになるため、操作履歴を反映させた表示制御等が可能になる。 In this way, the user's operation history for the touch panel operation icon is written in the personal information storage unit as the user's personal information, so that display control reflecting the operation history can be performed.
また本発明は、デジタルフォトフレームの表示部に表示される画像の表示指示を行う表示指示部と、センサにより検知された検知情報を取得する検知情報取得部とを含み、前記表示部はタッチパネルディスプレイにより構成され、前記表示指示部は、取得された前記検知情報に応じてタッチパネル用操作アイコンの表示態様を変化させる表示指示を行う情報処理システムに関係する。 The present invention also includes a display instruction unit for instructing display of an image displayed on the display unit of the digital photo frame, and a detection information acquisition unit for acquiring detection information detected by the sensor, wherein the display unit is a touch panel display. The display instruction unit is related to an information processing system that issues a display instruction to change the display mode of the touch panel operation icon in accordance with the acquired detection information.
また本発明は、デジタフフォトフレームの制御方法であって、表示部の表示制御を行い、センサにより検知された検知情報を取得すると共に、前記表示部はタッチパネルディスプレイにより構成され、取得された前記検知情報に応じて、前記表示部に表示されるタッチパネル用操作アイコンの表示態様を変化させる表示制御を行う制御方法に関係する。 The present invention is also a method for controlling a digital tough photo frame, wherein display control of a display unit is performed, detection information detected by a sensor is acquired, and the display unit is configured by a touch panel display. The present invention relates to a control method for performing display control for changing a display mode of a touch panel operation icon displayed on the display unit according to detection information.
以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。 Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.
1.構成
図1(A)に本実施形態のデジタルフォトフレーム300(デジタルフォトプレーヤ、画像再生装置)の例を示す。図1(A)は、いわゆるフォトスタンドタイプのデジタルフォトフレームの例である。このデジタルフォトフレーム300は、家の中などの任意の場所にユーザにより設置される。そして、デジタルの画像データや音データなどのコンテンツ情報の再生処理(画像再生、音再生)を実行する。デジタルフォトフレーム300は、例えばユーザの明示的な再生指示がなくても、画像等のコンテンツ情報(メディア情報)を自動的に再生することができる。例えば写真のスライドショーを自動的に実行したり、映像の自動再生を行う。
1. Configuration FIG. 1A shows an example of a digital photo frame 300 (digital photo player, image reproduction apparatus) of this embodiment. FIG. 1A illustrates an example of a so-called photo stand type digital photo frame. The
なお図1(A)はフォトスタンドタイプのデジタルフォトフレームの例であるが、例えば図1(B)に示すように、壁掛けタイプのものであってもよい。この壁掛けタイプのデジタルフォトフレームとしては、例えば電気泳動型ディスプレイ等により実現される電子ペーパなどを用いることができる。また、デジタルフォトフレーム300に、コンテンツ情報の再生指示ボタンなどを設けたり、リモコンを用いて再生指示ができるようにしてもよい。
Although FIG. 1A shows an example of a photo stand type digital photo frame, for example, as shown in FIG. As this wall-mounted digital photo frame, for example, electronic paper realized by an electrophoretic display or the like can be used. The
デジタルフォトフレーム300は、例えばSDカード等のメモリカードのインターフェースを備えることができる。或いは、無線LAN、ブルートゥースなどの無線通信のインターフェースや、USB等の有線の通信インターフェースを備えることができる。例えばユーザが、メモリカードにコンテンツ情報を保存して、デジタルフォトフレーム300のメモリカードインターフェースに装着すると、デジタルフォトフレーム300は、メモリカードに保存されたコンテンツ情報の自動再生(スライドショー等)を実行する。或いは、デジタルフォトフレーム300は、無線通信や有線通信によりに外部からコンテンツ情報を受信すると、このコンテンツ情報の再生処理(自動再生処理)を実行する。例えば、ユーザが所持するデジタルカメラや携帯電話機などの携帯型電子機器がブルートゥース等の無線機能を有する場合には、この無線機能を利用して、携帯型電子機器からデジタルフォトフレーム300にコンテンツ情報を転送する。すると、デジタルフォトフレーム300は、転送されたコンテンツ情報の再生処理を実行する。
The
図2にデジタルフォトフレーム300の構成例を示す。このデジタルフォトフレーム300は、処理部302、記憶部320、通信部338、表示部340、センサ350、操作部360を含む。なおこれらの一部の構成要素(例えば通信部、操作部、センサ)を省略したり、他の構成要素(例えばスピーカ)を追加するなどの種々の変形実施が可能である。
FIG. 2 shows a configuration example of the
処理部302は、各種の制御処理や演算処理を行う。例えばデジタルフォトフレーム300の各部の制御を行ったり全体的な制御を行う。この処理部302の機能は、各種プロセッサ(CPU等)、ASIC(ゲートアレイ等)などのハードウェアや、情報記憶媒体330に記憶されたプログラムなどにより実現できる。
The
記憶部320は、処理部302、通信部338などのワーク領域となるものであり、その機能はRAMなどのメモリやHDD(ハードディスクドライブ)などにより実現できる。この記憶部320は、画像や音などのコンテンツ情報を記憶するコンテンツ情報記憶部322、取得された検知情報を記憶する検知情報記憶部324、ユーザ登録情報を記憶するユーザ登録情報記憶部325、特定されたユーザ状態やユーザの認識処理の結果を記憶するユーザ状態記憶部326、表示モードの切り替えフラグを記憶する切り替えフラグ記憶部328、ユーザの個人情報を記憶する個人情報記憶部(感性モデル記憶部)332、複数のユーザに共有(共通)の情報を記憶するユーザ共有情報記憶部(共有感性モデル記憶部)334を含む。
The
情報記憶媒体330(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、メモリカードや光ディスクなどにより実現できる。処理部302は、情報記憶媒体330に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体330には、本実施形態の各部としてコンピュータ(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。
The information storage medium 330 (a computer-readable medium) stores programs, data, and the like, and its function can be realized by a memory card, an optical disk, or the like. The
通信部338(通信インターフェース)は、無線や有線の通信などにより外部デバイス(例えばサーバ、携帯型電子機器)との間で情報のやり取りを行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。 The communication unit 338 (communication interface) exchanges information with an external device (for example, a server or a portable electronic device) by wireless or wired communication, and functions as a communication ASIC or communication. This can be realized by hardware such as a processor or communication firmware.
表示部340は、コンテンツ情報である画像を表示するためのものであり、例えば液晶ディスプレイや、有機ELなどの発光素子を用いたディスプレイや、電気泳動型ディスプレイなどにより実現できる。
The
本実施形態ではこの表示部340がタッチパネルディスプレイ(タッチスクリーン)により構成される。タッチパネルディスプレイは、例えば、液晶パネルなどのディスプレイとタッチパッドのような入力装置を組み合わせた装置であり、画面上の操作アイコン等に指や専用のペン(スタイラス)でタッチすることで、操作情報を入力できる装置である。タッチパネル方式としては、抵抗膜方式(4線式、5線式)、静電容量方式、電磁誘導方式、表面弾性波方式(超音波方式)、赤外線走査方式などの種々の方式を採用できる。抵抗膜方式では、例えば、対向する2枚の抵抗膜(透明電極を構成する金属薄膜)のうちの一方の抵抗膜に電圧に印加し、タッチした位置に応じて他方の抵抗膜に発生した電圧を検知して、タッチ位置を検出する。静電容量方式では、指先等と導電膜との間での静電容量の変化を検知して、タッチ位置を検出するものであり、指等がガラス面に近づいたときに発生する静電結合を利用する。静電容量方式としては表面型や投影型などがある。電磁誘導方式は電磁誘導の原理を利用してタッチ位置を検出する方式であり、表面弾性波方式は、超音波表面弾性波を利用した方式である。
In the present embodiment, the
センサ350(ユーザ検知センサ、ユーザ認識センサ、モーションセンサ等)は、検知結果に基づいて検知情報を出力するデバイスである。本実施形態では、このセンサ350からの検知情報を、例えばユーザ(人物)と表示部340(表示画面、デジタルフォトフレーム)との位置関係の判断、表示部340に対するユーザの視認状態の判断、ユーザの発話状態(発話内容、会話内容、音声状態)の判断、ユーザの人数の認識、或いはユーザの人物認証(例えば年齢認識)に利用している。なお、検知情報をこれら以外の判断処理や認識処理に利用してもよい。
A sensor 350 (a user detection sensor, a user recognition sensor, a motion sensor, or the like) is a device that outputs detection information based on a detection result. In the present embodiment, the detection information from the
センサ350としては、例えば焦電センサなどの人感センサを用いることができる。焦電センサは、人等が発生する赤外線を受光し、赤外線を熱に変換し、その熱を素子の焦電効果で電荷に変えるセンサである。この焦電センサを用いることで、検知範囲(検知エリア)にユーザ(人)が存在するか否かや、検知範囲に存在するユーザの動きや、検知範囲内に存在するユーザの人数などを検知できる。
As the
またセンサ350としては、例えばCCDやCMOSセンサなどの撮像センサを用いるとことができる。撮像センサ(イメージセンサ)は、1次元又は2次元の光学情報を、時系列の電気信号に変換する光センサである。この撮像センサを用いることで、検知範囲にユーザが存在するか否かや、検知範囲に存在するユーザの動きや、検知範囲内に存在するユーザの人数などを検知できる。また撮像センサを用いた顔画像認識により、ユーザの人物認証(年齢認識等)を実現できる。また撮像センサを用いた顔検出により、ユーザと表示部340との距離や表示部340に対するユーザの視線の角度などの位置関係を検出できる。或いは、ユーザの視野範囲内に表示部340が入っている状態か否かや、ユーザが表示部340を注視している状態か否かなどのユーザの視認状態を検出できる。或いはユーザが接近中なのか否かなども検出できる。
As the
またセンサ350としては、例えば超音波センサなどの距離センサを用いることができる。超音波距離センサは、超音波パルスを射出し、人等により反射した超音波パルスを受信することで、その時間から距離を測定するセンサである。
As the
更にセンサ350としては、ユーザの動作状態(手や体の動き)を検知するモーションセンサなどの種々のセンサを用いることができる。
Further, as the
なおセンサ350は、センサデバイス自体であってもよいし、センサデバイスの他に制御部や通信部等を含むセンサ機器であってもよい。また検知情報は、センサから直接得られる1次情報であってもよいし、1次情報を加工処理(情報処理)することで得られる2次情報であってもよい。
The
またセンサ350は、デジタルフォトフレーム300に直接に取り付けてもよいし、ホームセンサなどをセンサ350として利用してもよい。センサ350をデジタルフォトフレーム300に取り付ける場合には、図1(A)に示すように、センサ350をデジタルフォトフレーム300の例えば枠の部分に取り付けることができる。或いは有線のケーブル等を用いてセンサ350とデジタルフォトフレーム300を接続する形態にしてもよい。
The
操作部360は、ユーザが各種情報を入力するためのものであり、例えば操作ボタンやリモコン装置などにより実現できる。ユーザは、この操作部360やタッチパネルディスプレイを用いて、ユーザ登録を行ったり、自身が所望する再生コンテンツ(お気に入り画像)の登録などを行うことができる。例えばユーザは、操作部360やタッチパネルディスプレイを用いて、ユーザ登録情報を入力することができる。
The
処理部302は、検知情報取得部304、ユーザ状態判断部306、登録処理部314、表示モード切り替え部316、情報更新部317、表示制御部318を含む。なお、これらの一部の構成要素(例えばユーザ状態判断部、表示モード切り替え部、情報更新部等)を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
The
検知情報取得部304は、センサ350により検知された検知情報を取得する処理を行う。例えばセンサ350によりユーザの状態等が検知されて、検知情報(撮像情報)が出力されると、検知情報取得部304は、その検知情報を取り込む。そして取り込まれた検知情報は記憶部320の検知情報記憶部324に記憶される。なおセンサ350として、ホームセンサ等の外部のセンサを用いる場合には、通信部338がその検知情報を受信し、検知情報取得部304は、受信した検知情報を取得することになる。
The detection
ユーザ状態判断部306(ユーザ認識部)は、検知情報取得部304により取得された検知情報に基づいてユーザ状態等を判断する。例えば、取得された検知情報に基づいて、ユーザ(人物)と表示部340との位置関係の判断や、表示部340に対するユーザの視認状態の判断や、ユーザの発話状態(発話内容)の判断や、ユーザの人数の認識や、ユーザの人物認証を行う。
The user state determination unit 306 (user recognition unit) determines the user state and the like based on the detection information acquired by the detection
ここでユーザと表示部340の位置関係は、ユーザと表示部340との距離や、表示部340に対するユーザの視線方向や、表示部340に対して設定された検知範囲内にユーザが存在するか否かなどである。ユーザと表示部340との位置関係は、位置関係判断部307が判断する。例えば、ユーザと表示部340との位置関係として、ユーザと表示部340との間の距離(距離情報、距離パラメータ)を判断する。
Here, the positional relationship between the user and the
視認状態は、ユーザの視野範囲の状態や注視状態などであり、具体的には、ユーザの視野範囲(ビューボリューム)に表示部340が入っているか否かや、ユーザが表示部340を注視しているか否かなどである。このユーザの視認状態は視認状態判断部308が判断する。例えばユーザの視認状態として、ユーザが表示部340を注視している状態か否かを判断する。
The visual recognition state is a state of the user's visual field range, a gaze state, and the like. Specifically, whether or not the
例えばセンサ350として、ユーザを撮像する撮像センサが設けられたとする。この場合には、ユーザ状態判断部306(位置関係判断部)は、撮像センサからの撮像情報に基づいて、ユーザの顔領域(矩形の枠領域)を検出する。そして検出された顔領域のサイズに基づいて、ユーザと表示部340との間の距離を判断(推定)する。またユーザ状態判断部306は、検出された顔領域を内包し顔領域よりもサイズが大きな計測領域を設定する。即ち顔領域にオーバーラップする計測領域を設定する。そして計測領域内に顔領域が存在する時間を計測し、計測された時間に基づいて、ユーザが表示部340を注視しているか否かを判断する。例えば計測領域内への存在時間が所定時間以上であった場合に、ユーザが注視していたと判断する。
For example, it is assumed that an imaging sensor for imaging the user is provided as the
或いはユーザ状態判断部306は、ユーザに対する自動焦点合わせ処理(オートフォーカス機能)により、ユーザと表示部340との間の距離を判断してもよい。例えばアクティブ方式を採用した場合には、デジタルフォトフレーム300等に赤外線や超音波を射出するデバイスを設けると共に、センサ350として赤外線や超音波の受光センサを設ける。そしてユーザからの反射光を受光センサにより検知することで、ユーザとの距離等を検出すればよい。またパッシブ方式を採用した場合には、センサ350として撮像センサを設け、撮像画像に対して、位相差検出方式やコントラスト検出方式による画像処理を行うことで、ユーザとの距離等を検出すればよい。
Alternatively, the user
ユーザの発話状態は、ユーザが発話した音声を構成する単語や音声の状態(トーン、周波数、大きさ)や発話スピードなどである。具体的には、ユーザの発話状態は音声認識により判断(解析)できる。このユーザの発話状態は発話状態判断部(音声判断部)309が判断する。 The utterance state of the user is a word constituting the voice uttered by the user, a voice state (tone, frequency, size), an utterance speed, or the like. Specifically, the user's speech state can be determined (analyzed) by voice recognition. The utterance state determination unit (voice determination unit) 309 determines the utterance state of the user.
ユーザの人数は、例えばセンサ350である焦電センサ(人感センサ)を用いて認識(特定)したり、センサ350である撮像センサを用いて認識できる。このユーザの人数の認識はユーザ人数認識部310により行われる。
The number of users can be recognized (identified) using, for example, a pyroelectric sensor (human sensor) that is the
ユーザの人物認証は、例えば撮像センサを用いた顔認識処理により実現できる。このユーザの人物認証は人物認証部311により行われる。なお、目の網膜にある毛細血管の模様である網膜を用いたり、黒目の中の放射状の紋様である虹彩を用いて人物認証を行ってもよい。
User authentication of a user can be realized, for example, by face recognition processing using an image sensor. The user authentication of the user is performed by the
なお、ユーザの人物認証として年齢認識を行ってもよい。例えば大人用の顔パターンや子供用の顔パターンというように年齢層毎の顔パターンを用意し、これらの顔パターンの照合処理により年齢認識を行う。或いは顔認識処理によりユーザのしわを認識し、認識されたしわの数等に基づいてユーザの年齢を判断する。 It should be noted that age recognition may be performed as user personal authentication. For example, face patterns for each age group such as a face pattern for adults and a face pattern for children are prepared, and age recognition is performed by collating these face patterns. Alternatively, the user's wrinkle is recognized by face recognition processing, and the user's age is determined based on the number of recognized wrinkles and the like.
ユーザの位置関係や視認状態や発話状態や人数認識結果や人物認証結果の情報は、ユーザ状態記憶部(認識結果記憶部)326に記憶される。例えば検知範囲内でのユーザの人数が認識された場合には、ユーザの人数が、ユーザ状態記憶部326に記憶される。また例えば撮像センサによりユーザの顔認識処理が行われた場合には、画像認識の結果(例えばユーザの顔画像等の特徴点情報)が、ユーザ状態記憶部326に記憶される。この場合に、これらの状態情報や認識結果情報は、例えばユーザ登録情報に関連づけて記憶される。
Information on the user's positional relationship, viewing state, speech state, number of people recognition result, and person authentication result is stored in the user state storage unit (recognition result storage unit) 326. For example, when the number of users within the detection range is recognized, the number of users is stored in the user
登録処理部314はユーザの登録処理を行う。例えばユーザ登録情報の設定処理を行う。具体的には、ユーザ登録画面等においてユーザが、操作部360やタッチパネルディスプレイを用いてユーザ登録情報を入力した場合に、入力されたユーザ登録情報をユーザに関連づけてユーザ登録情報記憶部325に記憶する。ここでユーザ登録情報は、例えばユーザのID、パスワードや、表示部340に表示される画像やタッチパネル用操作アイコンのカスタマイズ情報などを含むことができる。そして表示部340にはユーザ登録情報を反映させたコンテンツ画像やタッチパネル用操作アイコンが表示されることになる。
The
表示モード切り替え部316は、表示モードの切り替え処理を行う。例えば、検知されたユーザの人数及び人物認証結果の少なくとも一方に応じて、タッチパネル用操作アイコンやコンテンツ画像の表示モードを切り替える。具体的には、ユーザの人数や人物認証結果に基づいて、タッチパネル用操作アイコンやコンテンツ画像の表示モードを、個人モードや共有モードや通常モードに切り替える。ここで、個人モードは、一人のユーザに関連づけられた個人モード用の表示制御を行うモードであり、そのユーザ用のタッチパネル用操作アイコンやコンテンツ画像を表示するモードである。共有モードは、複数人のユーザに関連づけられた共有モード用の表示制御を行うモードであり、例えば複数人のユーザに共有のタッチパネル用操作アイコンやコンテンツ画像を表示するモードである。通常モードは、通常モード用で表示制御を行うモードであり、例えば一般的(デフォルト)なタッチパネル用操作アイコンやコンテンツ画像を表示するモードであり、例えば個人モードや共有モードではない場合には通常モードに設定される。なお表示モード切り替え部316は、例えばユーザと表示部340との位置関係やユーザの視認状態などのユーザ状態に応じて表示モードを切り替えてもよい。
The display
なお表示モードの切り替えは、切り替えフラグ記憶部328に記憶される切り替えフラグを用いて行われる。具体的には、ユーザ状態判断部306によりユーザの人数が認識されたり、人物認証が行われると、その結果に応じて表示モードの切り替えフラグが設定され、設定された切り替えフラグが切り替えフラグ記憶部328に記憶される。またユーザ状態判断部306により、位置関係や視認状態や発話状態などのユーザ状態が判断されると、そのユーザ状態に応じて表示モードの切り替えフラグが設定され、設定された切り替えフラグが切り替えフラグ記憶部328に記憶される。
The display mode is switched using a switching flag stored in the switching
またコンテンツ情報記憶部322に記憶されるコンテンツ画像には、タグが付与されている。具体的には、各コンテンツ画像には、そのコンテンツに対応するキーワードのタグや、個人モード用タグ、共有モード用タグ等の各種の表示モード用のタグ等が付与されている。例えばユーザが発話した音声から抽出された単語と、コンテンツ画像のタグとの比較を行うことで、タッチパネル用操作アイコンの表示制御を実現できる。或いは、各コンテンツ画像に付与されているタグを用いることで、表示モードの切り替え時等において、各種の表示モードに対応した表示制御を行い、その表示制御に応じたコンテンツ画像をコンテンツ情報記憶部322から読み出して、表示部340に表示できる。
A tag is assigned to the content image stored in the content
情報更新部317は、個人情報(感性モデル)記憶部332やユーザ共有情報(共有感性モデル)記憶部334の情報の更新処理を行う。例えば表示部340に表示されたタッチパネル用操作アイコンに対するユーザの操作履歴を、個人情報記憶部332に書き込んでユーザの個人情報等を更新する。
The
ここで操作履歴は、ユーザが行った各種操作の履歴であり、例えばユーザの画像の閲覧操作、画像のスキップ操作、或いは前の画像に戻る操作等の履歴である。具体的には、これらの各操作に対応するタッチパネル用操作アイコンのタッチ操作等の履歴である。 Here, the operation history is a history of various operations performed by the user, for example, a history of a user's image browsing operation, image skip operation, or operation to return to the previous image. Specifically, it is a history of touch operations of touch panel operation icons corresponding to these operations.
表示制御部318は、表示部340の表示制御を行う。例えばコンテンツ情報記憶部322に記憶されたコンテンツ画像の情報に基づいて、表示部340に画像を表示するための制御(描画バッファへの書き込み処理等)を行う。
The
具体的には本実施形態では表示部340がタッチパネルディスプレイにより構成される。そして表示制御部318は、検知情報取得部304により取得されたセンサ350(タッチパネルセンサ以外のセンサ)からの検知情報に応じて、タッチパネル用操作アイコンの表示態様を変化させる表示制御を行う。具体的には、取得された検知情報に基づいて、ユーザと表示部340との位置関係の判断、表示部340に対するユーザの視認状態の判断、ユーザの発話状態の判断、ユーザの人数の認識、及びユーザの人物認証の少なくとも1つが行われる。そして表示制御部318は、ユーザと表示部340との位置関係、ユーザの視認状態、ユーザの発話状態、ユーザの人数の認識結果、及びユーザの人物認証結果の少なくとも1つに応じて、タッチパネル用操作アイコンの表示態様を変化させる表示制御を行う。例えば、表示されるタッチパネル用操作アイコンの画像そのものを変化させたり、タッチパネル用操作アイコンの表示タイミング、表示時間、文字サイズ、文字フォント、色、透明度、輝度、コントラスト、サイズ、或いは表示方法等を変化させる。
Specifically, in the present embodiment, the
なお、取得された検知情報に応じて、コンテンツ画像の表示態様を変化させる制御を行ってもよい。例えば表示されるコンテンツ画像そのものを変化させたり、コンテンツ画像の表示タイミング、表示時間、或いは表示方法等を変化させる。 In addition, you may perform control which changes the display mode of a content image according to the acquired detection information. For example, the displayed content image itself is changed, or the display timing, display time, or display method of the content image is changed.
またタッチパネル用操作アイコン(操作メニュー)は、タッチパネルディスプレイにおけるユーザのタッチ対象となるアイコン(絵や文字で表される画像)であり、各操作アイコンは各種の操作に対応している。例えば、詳細情報の表示、前の画像の表示、次の画像の表示、コンテンツに関する各種情報の表示、画像の保存、画像の破棄、情報の入力等の各種の操作に対応づけられている。そして操作アイコンにユーザがタッチすると、その操作アイコンに対応づけられた操作が実行される。 The touch panel operation icons (operation menus) are icons (images represented by pictures and characters) that are touched by the user on the touch panel display, and each operation icon corresponds to various operations. For example, it is associated with various operations such as display of detailed information, display of the previous image, display of the next image, display of various information related to the content, storage of the image, destruction of the image, input of information, and the like. When the user touches the operation icon, an operation associated with the operation icon is executed.
例えばユーザ状態判断部306が、ユーザと表示部340との位置関係として、ユーザと表示部340との間の距離を判断したとする。この場合には表示制御部318は、ユーザと表示部340との間の距離に応じて、タッチパネル用操作アイコンの表示制御を行う。例えばユーザと表示部340との間の距離が所定距離内である場合(ユーザが接近した場合)に、タッチパネル用操作アイコンの表示をオンにする。そしてタッチパネル用操作アイコンの表示をオンにした後、所定時間が経過してもユーザの操作が行われなかった場合(操作アイコンへのタッチ等が行われなかった場合)には、タッチパネル用操作アイコンの表示をオフにする。
For example, it is assumed that the user
また表示制御部318は、ユーザと表示部340との間の距離が所定距離より大きいと判断された場合(ユーザが接近していないと判断された場合)には、第1〜第N(Nは2以上の整数)のコンテンツ画像を表示部340にスライド表示する(シーケンシャルに表示する)。例えば第1〜第Nのコンテンツ画像とは、それぞれ異なるジャンル又は異なるカテゴリのコンテンツ画像である。一方、第1〜第Nのコンテンツ画像のうちの第K(1≦K≦N)のコンテンツ画像が表示されている時に、ユーザと表示部340との間の距離が所定距離内であると判断された場合(ユーザが接近したと判断された場合)には、第Kのコンテンツ画像に対応するタッチパネル用操作アイコンを表示する。
In addition, when it is determined that the distance between the user and the
なお、ユーザと表示部340との間の距離に応じて、タッチパネル用操作アイコンの色、輝度、透明度、コントラスト、又は大きさ等を変化させてもよい。また表示制御部318は、距離そのものに基づいてタッチパネル用操作アイコンの表示態様を変化させる必要はなく、距離と等価なパラメータ(例えば顔領域のサイズ等)に基づいて表示態様を変化させてもよい。また表示制御部318は、ユーザが検知範囲内に存在しないと判断された場合には、表示部340の表示をオフにする。例えば通常モードから省電力モードに切り替えて、消費電力を節約する。
Note that the color, brightness, transparency, contrast, size, or the like of the touch panel operation icon may be changed in accordance with the distance between the user and the
またユーザ状態判断部306が、ユーザの視認状態として、ユーザが表示部340を注視しているか否かを判断したとする。この場合には表示制御部318は、ユーザが表示部340を注視しているか否かに応じて、タッチパネル用操作アイコンの表示制御を行う。例えばユーザが表示部340を注視していると判断された場合に、タッチパネル用操作アイコンの表示をオンにする。具体的には、ユーザが注視しているコンテンツ画像に対応するタッチパネル用操作アイコンを表示する。例えばユーザが第1のコンテンツ画像を注視した場合には、第1のコンテンツ画像に対応づけられた第1のタッチパネル用操作アイコンを表示し、第2のコンテンツ画像を注視した場合には、第2のコンテンツ画像に対応づけられた第2のタッチパネル用操作アイコンを表示する。そして例えば、所定時間が経過してもユーザの操作が行われなかった場合には、タッチパネル用操作アイコンの表示をオフにする。
Further, it is assumed that the user
また表示制御部318は、ユーザが前記表示部を注視していないと判断された場合には、第1〜第Nのコンテンツ画像を表示部340にスライド表示する。一方、第1〜第Nのコンテンツ画像のうちの第Kのコンテンツ画像が表示されている時にユーザが表示部340(第Kのコンテンツ画像)を注視していると判断された場合には、第Kのコンテンツ画像に対応するタッチパネル用操作アイコンを表示する。
In addition, when it is determined that the user is not gazing at the display unit, the
またユーザ状態判断部306が、ユーザの発話状態を音声認識により判断したとする。この場合には表示制御部318は、音声認識の結果に応じて、タッチパネル用操作アイコンの表示制御を行う。具体的には、音声認識により抽出されたユーザの音声を構成する単語(ワード)が、表示部340に表示されているコンテンツ画像にタグとして設定されたキーワード(1又は複数のキーワードのいずれか)と一致又は類似するか否かを判断する。そして一致又は類似した場合には、一致又は類似したキーワードに対応するタッチパネル用操作アイコンを表示する。例えば、発話された単語が第1のキーワードに一致又は類似している場合には第1のキーワードに対応する第1のタッチパネル用操作アイコンを表示し、第2のキーワードに一致又は類似している場合には第2のキーワードに対応する第2のタッチパネル用操作アイコンを表示する。
Further, it is assumed that the user
またユーザ状態判断部306が、ユーザの人数を認識(特定)したとする。この場合には、表示制御部318は、検知されたユーザの人数が一人であると判断された場合と複数人であると判断された場合とで、表示部340に表示されるタッチパネル用操作アイコンの表示態様を異ならせる表示制御を行う。具体的には、検知されたユーザの人数が一人であると判断された場合には、検知された一人のユーザに対応する(関連づけられた)個人モード用のタッチパネル用操作アイコンを表示する。例えばその一人のユーザに対して登録されたユーザ登録情報などに基づいて、個人モード(プライベートモード)用の操作アイコンを表示する。一方、検知されたユーザの人数が複数人であると判断された場合には、検知された複数人のユーザに対応する(関連づけられた)共有モード用のタッチパネル用操作アイコンを表示する。例えばその複数人のユーザに対して登録されたユーザ登録情報(グループ登録情報)等に基づいて、共有モード(グループモード、家族モード)で表示動作を行い、共有モード用の操作アイコンを表示する。
Further, it is assumed that the user
また表示制御部318は、検知されたユーザが第1のユーザであると判断された場合には、第1のユーザ用のタッチパネル用操作アイコンを表示し、検知されたユーザが第2のユーザであると判断された場合には、第2のユーザ用のタッチパネル用操作アイコンを表示する制御を行う。例えば登録処理部314が、ユーザの登録処理を行い、ユーザ状態判断部306が、検知されたユーザが登録ユーザであるか否かの人物認証を行う。すると、表示制御部318は、検知されたユーザが登録ユーザであると判断された場合には、登録ユーザに対応する個人モード用のタッチパネル用操作アイコンを表示する制御を行う。即ち、ユーザ登録情報記憶部325に記憶されたユーザ登録情報にしたがって、そのユーザに対応する個人モード用の操作アイコンを表示する。
Further, when it is determined that the detected user is the first user, the
またユーザ状態判断部306が、ユーザの年齢認識を行った場合には、表示制御部318は、ユーザの年齢認識結果(年齢層の認識結果)に基づき、タッチパネル用操作アイコンの表示制御を行う。具体的には、検知されたユーザの年齢認識結果に基づいて、ユーザの年齢層が所定年齢層であると判断された場合には、所定年齢層用のタッチパネル用操作アイコンを表示する。例えば、ユーザの年齢層が第1の年齢層(例えば子供の年齢層)であると判断された場合には、第1の年齢層用の操作アイコンを表示し、ユーザの年齢層が第2の年齢層(例えば老人や大人の年齢層)であると判断された場合には、第2の年齢層用の操作アイコンを表示する。或いは、コンテンツ画像の内容等を、年齢認識結果(年齢層)に基づいて変化させてもよい。
When the user
なお表示制御部318は、表示部340に表示される画像が第1のコンテンツ画像である場合には、第1のコンテンツ画像に対応づけられたタッチパネル用操作アイコンを表示する制御を行う。一方、表示部340に表示される画像が第2のコンテンツ画像である場合には、第2のコンテンツ画像に対応づけられたタッチパネル用操作アイコンを表示する制御を行う。即ち表示されるコンテンツ画像に応じて、それに対応する操作アイコンを表示するようにする。
In addition, when the image displayed on the
2.位置関係に応じた操作アイコンの表示制御
本実施形態では、センサ350により取得された検知情報に応じてタッチパネル用の操作アイコンの表示態様を変化させている。具体的にはユーザと表示部340の位置関係に応じて操作アイコンを変化させている。
2. In this embodiment, the display mode of the operation icons for the touch panel is changed according to the detection information acquired by the
例えば図3(A)、図3(B)では、ユーザと表示部340(デジタルフォトフレーム)との間の距離(広義には位置関係)に応じて操作アイコンを変化させている。具体的には図3(A)において、ユーザUAは、デジタルフォトフレーム300のスライドショーによりコンテンツ画像である写真を鑑賞している。そして図3(A)では、ユーザUAと表示部340との間の距離が遠くなっており、所定距離以上になっている。この場合には、操作アイコンは表示オフになる。
For example, in FIGS. 3A and 3B, the operation icon is changed in accordance with the distance (positional relationship in a broad sense) between the user and the display unit 340 (digital photo frame). Specifically, in FIG. 3A, the user UA is viewing a photo that is a content image through a slide show of the
一方、図3(B)では、ユーザUAと表示部340との間の距離が近くなっており、所定距離よりも小さくなっている。即ちユーザUAが表示部340の表示内容を見るためや操作を行うために近づいている。この場合には、A1〜A3に示すタッチパネル用の操作アイコン(タッチパネル操作メニュー)を表示する。即ちコンテンツ画像に重畳するように操作アイコンを表示する。
On the other hand, in FIG. 3B, the distance between the user UA and the
ここでA1の操作アイコンは、スライド表示等における前のコンテンツ画像の表示を指示するアイコンであり、A2の操作アイコンは、次のコンテンツ画像の表示を指示するアイコンである。またA3のアイコンは、表示されているコンテンツ画像の詳細情報の表示を指示するアイコンである。 Here, the operation icon A1 is an icon for instructing the display of the previous content image in the slide display or the like, and the operation icon A2 is an icon for instructing the display of the next content image. The icon A3 is an icon for instructing display of detailed information of the displayed content image.
このような操作アイコンを表示することで、ユーザは、タッチパネルディスプレイの操作アイコンにタッチすることで、その操作アイコンに対応づけられた操作を実行できるようになる。例えば写真のスライド表示の最中に、A1の操作アイコンにタッチすることで前の写真を見たり、A2の操作アイコンにタッチすることで次の写真を早送りして見ることが可能になる。またA3の操作アイコンをタッチすることで、その写真の撮影時の状況や記録(例えば撮影時間等の撮影時に設定されたタグ情報)などを確認できるようになる。 By displaying such an operation icon, the user can perform an operation associated with the operation icon by touching the operation icon on the touch panel display. For example, during the slide display of a photo, it is possible to view the previous photo by touching the operation icon A1, or to fast-forward and view the next photo by touching the operation icon A2. Further, by touching the operation icon A3, it becomes possible to confirm the situation and recording (for example, tag information set at the time of photographing such as the photographing time) of the photograph.
これまでのデジタルフォトフレームでは、写真等を自動的にスライド表示するだけの機能しか持たないものが多く、表示画像が単調であり、変化に乏しかった。また、ユーザにとって利便性の高いインターフェースを備えていなかった。 Many digital photo frames so far have only a function of automatically displaying photographs and the like, and the displayed images are monotonous and scarcely changed. Moreover, it did not have a highly convenient interface for the user.
この点、本実施形態のデジタルフォトフレームでは表示部がタッチパネルディスプレイにより構成される。従って、ユーザは、画面の操作アイコンにタッチするだけで自身が所望する操作を行うことができ、ユーザにとって利便性の高いインターフェース環境を提供できる。 In this regard, in the digital photo frame of the present embodiment, the display unit is configured by a touch panel display. Therefore, the user can perform an operation desired by simply touching an operation icon on the screen, and an interface environment that is highly convenient for the user can be provided.
また例えばナビゲーション装置などにおいては、操作アイコンを常時表示しても、それほど問題はない。しかしながら、デジタルフォトフレームでは、その主眼は写真等の鑑賞にあるため、操作アイコンが常時表示されていると、写真等の鑑賞の妨げになってしまう。 Further, for example, in a navigation device or the like, there is no problem even if the operation icon is always displayed. However, since the main focus of the digital photo frame is to appreciate a photograph or the like, if the operation icon is always displayed, the viewing of the photograph or the like is hindered.
この点、本実施形態では、センサからの検知情報に基づいて操作アイコンの表示態様が変化し、例えばユーザが接近した場合に操作アイコンの表示がオンになる。そしてユーザが一定時間操作しないなどの所定条件が成立すると、操作アイコンの表示がオフになる。従ってユーザは、図3(A)の状態で写真等を鑑賞しながら、操作を所望するときにはデジタルフォトフレームに近づき、操作アイコンにタッチすることで所望の操作を実行できる。従って本実施形態によれば、操作アイコンが表示されていない状態での写真等の鑑賞と、タッチパネルを用いた簡便なインターフェースの提供とを両立できる。 In this regard, in the present embodiment, the display mode of the operation icon changes based on the detection information from the sensor. For example, when the user approaches, the display of the operation icon is turned on. When a predetermined condition such as the user not operating for a certain time is satisfied, the operation icon display is turned off. Accordingly, the user can execute a desired operation by viewing a photograph or the like in the state of FIG. 3A and approaching the digital photo frame and touching an operation icon when an operation is desired. Therefore, according to this embodiment, it is possible to achieve both viewing of a photograph or the like in a state where no operation icon is displayed and provision of a simple interface using a touch panel.
なお操作アイコンの表示態様としては種々のものを想定できる。例えば図4(A)、図4(B)に他の表示態様の例を示す。 Various display modes of operation icons can be assumed. For example, FIGS. 4A and 4B show examples of other display modes.
図4(A)ではコンテンツ画像として、カメラの商品広告情報が表示されている。この場合にユーザUAがデジタルフォトフレーム300に近づくと、図4(B)のB1〜B4に示すように、コンテンツ画像に対応したタッチパネル用操作アイコンが表示される。例えばユーザUAがB1、B2の操作アイコンにタッチすると、商品であるカメラの仕様、口コミ情報が表示される。またユーザUAは、B3の操作アイコンにタッチしてこの商品にチェックマークを付けたり、B4の操作アイコンにタッチしてこの商品をインターネット等を介して購入することが可能になる。
In FIG. 4A, product advertisement information of a camera is displayed as a content image. In this case, when the user UA approaches the
このように本実施形態によれば、各コンテンツ画像に対応したタッチパネル用操作アイコンを表示できる。例えば第1のコンテンツ画像が表示されている時にユーザが接近すると第1のコンテンツ画像に対応する第1のタッチパネル用操作アイコンが表示され、第2のコンテンツ画像が表示されている時にユーザが接近すると第2のコンテンツ画像に対応する第2のタッチパネル用操作アイコンが表示される。従って、図3(A)、図3(B)に示すような撮影写真のコンテンツでは、写真の鑑賞を容易化する操作アイコンを表示でき、図4(A)、図4(B)に示すような商品広告のコンテンツでは、商品の情報収集や購入を容易化する操作アイコンを表示できる。従って、各コンテンツに応じた適切なインターフェース環境をユーザに提供できると共にデジタルフォトフレームを用いた多様な情報提示を実現できる。 Thus, according to the present embodiment, it is possible to display the touch panel operation icons corresponding to the respective content images. For example, when the user approaches when the first content image is displayed, the first touch panel operation icon corresponding to the first content image is displayed, and when the user approaches when the second content image is displayed. A second touch panel operation icon corresponding to the second content image is displayed. 3A and 3B, operation icons for facilitating the viewing of photos can be displayed, as shown in FIGS. 4A and 4B. In the product advertisement content, operation icons that facilitate the collection and purchase of product information can be displayed. Therefore, it is possible to provide a user with an appropriate interface environment according to each content and realize various information presentations using a digital photo frame.
なお各コンテンツ画像に対応した操作アイコンを表示するためには、各コンテンツ画像に対して、対応する操作アイコンを指示するためのタグを対応づけておけばよい。即ち図2のコンテンツ情報記憶部322が、各コンテンツ画像に対応づけて、対応する操作アイコンの指示情報をタグとして記憶する。この操作アイコンの指示情報のタグは、例えばユーザ登録情報としてユーザが設定したり、コンテンツ提供者がコンテンツ情報として設定したり、所定のアルゴリズムに従って自動的に設定される。
In order to display an operation icon corresponding to each content image, a tag for instructing the corresponding operation icon may be associated with each content image. That is, the content
また、ユーザとの距離に応じて操作アイコン等の表示態様を切り替える場合、この距離は、ユーザと表示部340との直線距離であってもよいし、奥行き方向での距離(Z方向の距離)であってもよい。またこの場合の距離は、距離と数学的な等価なパラメータ(例えば後述する顔領域の面積等)も含み、例えば距離の変化に応じて変化するパラメータであればよい。またユーザとの位置関係は、距離に限定されず、例えばユーザの視線方向と表示部340の表示画面とのなす角度などであってもよい。
When the display mode of the operation icon or the like is switched according to the distance to the user, this distance may be a linear distance between the user and the
また図3(A)〜図4(B)では、ユーザと表示部340との位置関係に応じてタッチパネル用操作アイコンの表示態様を変化させる場合について説明したが、ユーザとの位置関係に応じてコンテンツ画像の表示態様を変化させてもよい。例えばユーザとの位置関係に応じて、コンテンツ画像の詳細度や画面分割数や文字サイズを変化させる。具体的には、ユーザとの距離が近づくにつれて、コンテンツ画像の詳細度を高くしたり、画面分割数を大きくしたり、文字サイズを小さくする。この場合の詳細度や画面分割数や文字サイズの切り替えは2段階でもよいし、3段階以上であってもよい。或いは、ユーザとの位置関係に応じて関連画像を表示したり、表示部の表示をオン・オフすることで、コンテンツ画像の表示態様を変化させてもよい。
3A to 4B, the case where the display mode of the operation icons for the touch panel is changed according to the positional relationship between the user and the
このようにユーザとの位置関係に応じてコンテンツ画像の表示態様を変化させれば、例えばコンテンツ画像に興味を持って近づいて来たユーザに対して、より詳細な情報を提供することなどが可能になり、ユーザとの距離に応じた適切なコンテンツ画像の表示を実現できる。 If the display mode of the content image is changed in accordance with the positional relationship with the user in this way, for example, more detailed information can be provided to a user who has approached the content image with interest. Thus, it is possible to display an appropriate content image according to the distance to the user.
次に図5(A)、図5(B)を用いて、ユーザと表示部340の間の距離(位置関係)の検出手法の一例について説明する。図5(A)、図5(B)では、センサ350として、CCD、CMOSセンサなどの撮像センサ(カメラ)を用いる。そして撮像センサからの撮像情報に基づいて、矩形の枠領域である顔領域FARを検出し、検出された顔領域FARのサイズを求める。そして求められたサイズに基づいて、ユーザと表示部340との間の距離を判断する。
Next, an example of a method for detecting the distance (positional relationship) between the user and the
例えば図5(A)では、顔領域FARのサイズが小さいため(所定サイズ以下であるため)、ユーザとの距離は遠いと判断される。従って、この場合には図3(A)、図4(A)に示すようにタッチパネル用操作アイコンの表示をオフにする。一方、図5(B)では、顔領域FARのサイズが大きいため(所定サイズよりも大きいため)、ユーザとの距離は近いと判断される。従って、この場合には図3(B)、図4(B)に示すようにタッチパネル用操作アイコンの表示をオンにする。 For example, in FIG. 5A, since the size of the face area FAR is small (below a predetermined size), it is determined that the distance from the user is long. Therefore, in this case, the display of the touch panel operation icon is turned off as shown in FIGS. On the other hand, in FIG. 5B, since the size of the face area FAR is large (because it is larger than the predetermined size), it is determined that the distance to the user is short. Accordingly, in this case, the display of the touch panel operation icon is turned on as shown in FIGS.
ここで顔領域の検出手法としては種々の手法が考えられる。例えば、顔検出を行うためには、撮像センサで撮影された撮像画像において、顔がある場所と他の物体とを区別して、顔領域を切り出す必要がある。顔は、目、鼻、口等から構成され、これらの形状・位置関係は個人差はあるものの、ほぼ共通した特徴を有する。そこで、この共通な特徴を用いて、顔を他の物体から識別して画面の中から切り出す。このための手がかりとしては、肌の色、顔の動き、形、大きさ等がある。肌の色を用いる場合には、RGBデータを色相・輝度・彩度からなるHSVデータに変換し、人の肌の色相を抽出する手法を採用する。 Here, various methods can be considered as a method for detecting a face region. For example, in order to perform face detection, it is necessary to cut out a face region by distinguishing a place where the face is from another object in a captured image captured by an image sensor. The face is composed of eyes, nose, mouth and the like, and these shapes and positional relationships have almost common characteristics, although there are individual differences. Therefore, using this common feature, the face is identified from other objects and cut out from the screen. Clues for this include skin color, facial movement, shape, size, and the like. In the case of using skin color, a method of converting RGB data into HSV data composed of hue, luminance, and saturation and extracting a human skin hue is adopted.
或いは、多数の人の顔パターンから生成した平均顔パターンを顔テンプレートとして作成してもよい。そして、この顔テンプレートを撮像画像の画面上で走査して、撮像画像との相関を求め、最も相関値が高い領域を顔領域として検出する。 Or you may produce the average face pattern produced | generated from the face pattern of many people as a face template. Then, this face template is scanned on the screen of the captured image to obtain a correlation with the captured image, and an area having the highest correlation value is detected as a face area.
なお検出精度を高めるため、複数の顔テンプレートを辞書データとして用意し、これらの複数の顔テンプレートを用いて顔領域を検出してもよい。或いは目、鼻、口の特徴や、これらの位置関係や、顔の中のコントラストなどの情報も考慮して、顔領域を検出してもよい。或いは、ニューラルネットワークモデルを用いた統計的なパターン認識により顔領域を検出することも可能である。 In order to improve the detection accuracy, a plurality of face templates may be prepared as dictionary data, and a face area may be detected using the plurality of face templates. Alternatively, the face area may be detected in consideration of the characteristics of the eyes, nose, mouth, the positional relationship between these, and the contrast in the face. Alternatively, the face area can be detected by statistical pattern recognition using a neural network model.
図5(A)、図5(B)の検出手法によれば、顔領域FARのサイズによりユーザと表示部340の距離を検出できるのみならず、ユーザが表示部340を見ているか否かも同時に検出できるという利点がある。即ち、ユーザの視線が表示部340の方に向いていなかった場合には、顔テンプレートとの相関値が低くなるため、顔領域FARは非検出になる。従って、顔領域FARが検出されたということは、ユーザの視線が表示部340の方に向いており、ユーザの視野範囲内に表示部340が入っていることと等価になる。そして、この状態で、顔領域FARのサイズを検出して、図3(A)〜図4(B)に示すように操作アイコン等の表示態様を変化させれば、表示部340のコンテンツ画像を見ているユーザに対して適切な操作アイコンを表示できるようになる。これにより、これまでにないデジタルフォトフレーム300を提供できる。
5A and 5B, not only the distance between the user and the
なおユーザの検知手法は、図5(A)、図5(B)の手法に限定されない。例えば一般的なカメラや携帯電話機のカメラ等に実装されているオートフォーカス機能を有効活用してユーザを検知してもよい。このオートフォーカス機能を用いれば、デジタルフォトフレーム300の前にユーザ(人物)が存在するか否かや、そのユーザと表示部340との距離などの位置関係を判断できる。
Note that the user detection method is not limited to the method shown in FIGS. 5 (A) and 5 (B). For example, the user may be detected by effectively utilizing an autofocus function mounted on a general camera or a camera of a mobile phone. By using this autofocus function, it is possible to determine whether or not a user (person) exists in front of the
例えば部屋の中に誰も居ない状態では、オートフォーカスの焦点はほとんど固定されるが、デジタルフォトフレーム300の表示部340の前をユーザが横切った場合等には、オートフォーカス機能が働き、これによりユーザが存在するか否かを判断できる。またデジタルフォトフレーム300の表示部340をユーザが見ている場合には、そのユーザに反応してオートフォーカスが作動して、焦点をそのユーザに自動的に合わせるため、ユーザと表示部340とのだいたいの距離を検出できる。
For example, when there is no one in the room, the focus of autofocus is almost fixed. However, when the user crosses the
なおオートフォーカスの方式としては、アクティブ方式やパッシブ方式がある。アクティブ方式では、赤外線や超音波などを射出して、ユーザ等の被写体との距離を測定する。即ち反射波が戻ってくるまでの時間等を測定することで、被写体との距離を測定する。このアクティブ方式によれば、暗い場所でも焦点を簡単に合わせることができるという利点がある。 As an autofocus method, there are an active method and a passive method. In the active method, infrared rays or ultrasonic waves are emitted to measure the distance from a subject such as a user. That is, the distance to the subject is measured by measuring the time until the reflected wave returns. This active method has an advantage that the focus can be easily adjusted even in a dark place.
一方、パッシブ方式では、被写体の輝度情報をCCDセンサ等の撮像センサで受光して、電気処理により被写体との距離(焦点位置)を検出する。即ち撮影された画像を用いて距離を測定する。このパッシブ方式には、輝度信号の横ずれを検出する位相差検出方式や、輝度信号のコントラストを検出するコントラスト検出方式などがある。 On the other hand, in the passive method, the luminance information of the subject is received by an imaging sensor such as a CCD sensor, and the distance (focus position) from the subject is detected by electrical processing. That is, the distance is measured using the photographed image. The passive method includes a phase difference detection method for detecting a lateral shift of a luminance signal, a contrast detection method for detecting a contrast of the luminance signal, and the like.
次に図6のフローチャートを用いて、ユーザとの位置関係に応じた操作アイコンの表示制御の具体的な処理例について説明する。 Next, a specific processing example of the display control of the operation icon according to the positional relationship with the user will be described using the flowchart of FIG.
まずセンサの1つである焦電センサを用いて、検知範囲内にユーザ(人物)が存在するか否かを判断する(ステップS1)。即ち、デジタルフォトフレームの周辺にユーザが存在するか否かを広範囲に大雑把に検知するために、焦電センサを使用する。このようにセンサとして、焦電センサと撮像センサを使い分けることで、ユーザ状態の効率的な検出が可能になる。 First, a pyroelectric sensor, which is one of the sensors, is used to determine whether or not a user (person) exists within the detection range (step S1). That is, a pyroelectric sensor is used to roughly detect whether or not a user exists around the digital photo frame. Thus, by efficiently using the pyroelectric sensor and the image sensor as the sensors, the user state can be efficiently detected.
そして、ユーザが存在しないと判断された場合には(ステップS2)、表示部の表示をオフにして省電力モードに設定する(ステップS3)。一方、ユーザが存在すると判断された場合には、表示部の表示をオンにして、コンテンツ画像を表示する(ステップS4)。このようにすることで、デジタルフォトフレームの近くにユーザがいないのに、表示部に画像が表示されて電力が無駄に消費されてしまう事態を防止できる。 If it is determined that there is no user (step S2), the display on the display unit is turned off and the power saving mode is set (step S3). On the other hand, if it is determined that there is a user, the display of the display unit is turned on and the content image is displayed (step S4). By doing so, it is possible to prevent a situation where an image is displayed on the display unit and power is wasted even when there is no user near the digital photo frame.
次に、センサの1つである撮像センサ(カメラ)を用いた顔検出により、ユーザの視野範囲内に表示部が入っているか否かを判断する(ステップS5)。そして視野範囲内に入っていると判断された場合には(ステップS6)、ユーザと表示部(表示画面)との距離を、顔領域(枠領域)のサイズから判断する(ステップS7)。例えば図5(A)、図5(B)に示すように顔領域が検出された場合には、ユーザの視野範囲内に表示部が入っていると判断される。そして顔領域のサイズを検出して、ユーザと表示部との距離を判断(推定)する。 Next, it is determined whether or not the display unit is within the visual field range of the user by face detection using an imaging sensor (camera) that is one of the sensors (step S5). If it is determined that it is within the visual field range (step S6), the distance between the user and the display unit (display screen) is determined from the size of the face area (frame area) (step S7). For example, when a face area is detected as shown in FIGS. 5A and 5B, it is determined that the display unit is within the visual field range of the user. Then, the size of the face area is detected, and the distance between the user and the display unit is determined (estimated).
ユーザと表示部との距離が所定距離以内であると判断された場合には(ステップS8)、タッチパネル用操作アイコンの表示をオンにする(ステップS9)。この際に例えばコンテンツ画像の詳細表示モードをオンにしてもよい。そしてこのようにタッチパネル用操作アイコンの表示をオンにした後、ユーザの操作が行われずに所定時間が経過した場合には(ステップS10)、タッチパネル用操作アイコンの表示をオフにする(ステップS11)。以上のようにすることで、図3(A)〜図4(B)で説明したように、距離等の位置関係に応じたタッチパネル用操作アイコンの表示のオン・オフ制御を実現できる。 When it is determined that the distance between the user and the display unit is within a predetermined distance (step S8), the display of the touch panel operation icon is turned on (step S9). At this time, for example, the detailed display mode of the content image may be turned on. Then, after the display of the touch panel operation icon is turned on in this way, when a predetermined time has passed without any user operation (step S10), the display of the touch panel operation icon is turned off (step S11). . As described above, as described with reference to FIGS. 3A to 4B, the on / off control of the display of the operation icon for the touch panel according to the positional relationship such as the distance can be realized.
3.視認状態に応じた操作アイコンの表示制御
本実施形態では、ユーザの視認状態に応じてタッチパネル用操作アイコンの表示態様を変化させている。具体的には、ユーザが表示部340を注視しているか否かや、ユーザの視野範囲内に表示部340が入っているか否かなどに応じて表示態様を変化させる。
3. Display control of operation icon according to visual recognition state In this embodiment, the display mode of the operation icon for touch panels is changed according to the visual recognition state of the user. Specifically, the display mode is changed according to whether or not the user is gazing at the
例えば図7(A)、図7(B)では、ユーザUAが表示部340を注視しているか否かに応じて、操作アイコンの表示態様を変化させている。具体的には図7(A)では、ユーザUAの視線方向は表示部340の方向に向いておらず、表示部340を注視していない。この場合には、コンテンツ画像のみを表示し、操作アイコンは表示オフにする。
For example, in FIGS. 7A and 7B, the display mode of the operation icon is changed depending on whether or not the user UA is gazing at the
一方、図7(B)では、ユーザが表示部340を注視している。例えば表示部340がユーザUAの視野範囲内に一定時間以上入っている。この場合には、C1〜C4に示すように操作アイコンの表示をオンにする。具体的にはコンテンツであるカメラの商品情報の提供や商品購入のための操作アイコンを、カメラのコンテンツ画像に対して重畳して表示する。
On the other hand, in FIG. 7B, the user is watching the
例えば図7(A)のようにユーザがカメラのコンテンツ画像を注視していない場合には、ユーザはそのカメラの購入等にそれほど興味がないと考えられる。一方、図7(B)に示すようにユーザが注視している場合には、そのカメラの興味を持っており、購入に意欲的であると考えられる。従って、この場合にはC1〜C4に示すような操作アイコンを表示して、ユーザがカメラの情報を調べたり、購入するための適切なインターフェース環境を提供する。このようにすることで、ユーザにとって利便性の高いインターフェース環境を実現できる。 For example, when the user is not gazing at the content image of the camera as shown in FIG. 7A, it is considered that the user is not so interested in purchasing the camera. On the other hand, when the user is gazing as shown in FIG. 7B, he / she is interested in the camera and is willing to purchase. Therefore, in this case, the operation icons as shown in C1 to C4 are displayed to provide an appropriate interface environment for the user to check the camera information or purchase. By doing so, an interface environment that is highly convenient for the user can be realized.
図8に、視認状態に応じて操作アイコンの表示態様を変化させる他の例を示す。 FIG. 8 shows another example in which the display mode of the operation icon is changed according to the visual recognition state.
図8に示すように、ユーザが表示部340を注視していないと判断されて、注視モードがオフに設定された場合には、コンテンツ画像IM1〜IM5(広義には第1〜第Nのコンテンツ画像)のスライド表示が行われる。即ち、コンテンツ画像IM1〜IM5の各コンテンツ画像が所定時間毎にシーケンシャルに表示される。ここでコンテンツ画像IM1〜IM5は、そのコンテンツ内容(テーマ)が異なっている。具体的には、コンテンツ画像IM1、IM2、IM3、IM4、IM5は、各々、ニュース、天気、株価、風景の写真、動物の写真を表すコンテンツとなっている。
As shown in FIG. 8, when it is determined that the user is not gazing at the
このようにコンテンツ画像IM1〜IM5がスライド表示され、例えば天気のコンテンツ画像IM2(広義には第Kのコンテンツ画像)が表示されている時にユーザが表示部340を注視し、注視モードがオンになったとする。この場合には、D1、D2に示すような天気のコンテンツに対応する操作アイコンの表示がオンになったコンテンツ画像IM21Aを表示する。そしてD1に示す詳細表示指示の操作アイコンにユーザがタッチすると、今日の天気の詳細情報が示されるコンテンツ画像IM21Bが表示される。一方、D2に示す操作アイコンにユーザがタッチすると、今日の降水確率の情報が示される次のコンテンツ画像IM22Aが表示される。
Thus, the content images IM1 to IM5 are slide-displayed. For example, when the weather content image IM2 (K-th content image in a broad sense) is displayed, the user gazes at the
そして、このコンテンツ画像IM22Aにおいて、D3の操作アイコンにユーザがタッチすると、今日の降水確率の詳細情報が示されるコンテンツ画像IM22Bが表示される。一方、D4の操作アイコンにタッチすると、花粉情報が示される次のコンテンツ画像IM23Aが表示される。 Then, in this content image IM22A, when the user touches the operation icon D3, a content image IM22B showing detailed information on today's precipitation probability is displayed. On the other hand, when the operation icon D4 is touched, the next content image IM23A showing pollen information is displayed.
そして、このコンテンツ画像IM23Aにおいて、D5の操作アイコンにユーザがタッチすると、花粉の詳細情報が示されるコンテンツ画像IM23Bが表示される。一方、D6の操作アイコンにタッチすると、今日の天気情報が示されるコンテンツ画像IM21Aの表示に戻る。 Then, in the content image IM23A, when the user touches the operation icon D5, the content image IM23B showing the detailed information of the pollen is displayed. On the other hand, when the operation icon D6 is touched, the display returns to the display of the content image IM21A showing today's weather information.
また詳細表示のコンテンツ画像IM21B、IM22B、IM23Bにおいて、D7、D9、D11に示す簡略表示指示の操作アイコンにタッチすると、簡略表示のコンテンツ画像IM21A、IM22A、IM23Aの表示に戻る。一方、コンテンツ画像IM21B、IM22B、IM23Bにおいて、D8、D10、D12に示す次のコンテンツ表示指示の操作アイコンにタッチすると、次のコンテンツ画像IM22B、IM23B、IM21Bが表示されるようになる。 Further, in the detailed display content images IM21B, IM22B, and IM23B, when the operation icons for simple display instructions shown in D7, D9, and D11 are touched, the display returns to the display of the simple display content images IM21A, IM22A, and IM23A. On the other hand, in the content images IM21B, IM22B, IM23B, when the operation icon for the next content display instruction shown in D8, D10, D12 is touched, the next content images IM22B, IM23B, IM21B are displayed.
図8の表示制御手法によれば、コンテンツ画像IM1〜IM5がスライド表示されている時に、ユーザが興味を持つコンテンツ画像を注視すると、そのコンテンツ画像に対応する操作アイコンが表示されるようになる。そして、表示された操作アイコンにユーザがタッチすることで、コンテンツ画像の詳細画像や関連画像が表示されるようになる。例えばコンテンツ画像IM21AにおいてD1の操作アイコンにタッチすることで、IM21Aの詳細画像であるコンテンツ画像IM21Bが表示される。またD2の操作アイコンにタッチすることで、IM21Aの関連画像であるコンテンツ画像IM22Aが表示される。従って、ユーザの興味に応じたコンテンツ画像を効率的に表示できると共に、ユーザが操作アイコンにタッチすることでその詳細画像や関連画像を表示できるようになる。これにより、コンテンツ画像の表示態様を多様に変化させることが可能になり、これまでにないタイプのデジタルフォトフレームを提供できる。 According to the display control method of FIG. 8, when content images IM1 to IM5 are slide-displayed, if a content image in which the user is interested is watched, an operation icon corresponding to the content image is displayed. Then, when the user touches the displayed operation icon, a detailed image of the content image and a related image are displayed. For example, the content image IM21B, which is a detailed image of IM21A, is displayed by touching the operation icon D1 on the content image IM21A. Further, by touching the operation icon D2, a content image IM22A that is a related image of IM21A is displayed. Therefore, the content image according to the user's interest can be efficiently displayed, and the detailed image and the related image can be displayed when the user touches the operation icon. As a result, the display mode of the content image can be changed in various ways, and an unprecedented type of digital photo frame can be provided.
なお図8において、ユーザと表示部340との間の距離が所定距離より大きいと判断された場合(接近していないと判断された場合)には、コンテンツ画像IM1〜IM5をスライド表示し、コンテンツ画像IM2(第Kのコンテンツ画像)が表示されている時に、ユーザと表示部340との間の距離が所定距離内であると判断された場合(接近していると判断された場合)には、タッチパネル用操作アイコンの表示をオンにするようにしてもよい。
In FIG. 8, when it is determined that the distance between the user and the
また図7(A)〜図8では、ユーザの視認状態に応じてタッチパネル用操作アイコンの表示態様を変化させる場合について説明したが、ユーザの視認状態に応じてコンテンツ画像の表示態様を変化させてもよい。例えばユーザの視認状態に応じて、コンテンツ画像の詳細度や画面分割数や文字サイズを変化させる。具体的には、ユーザがコンテンツ画像を注視すると、コンテンツ画像の詳細度を高くしたり、画面分割数を大きくしたり、文字サイズを小さくする。この場合の詳細度や画面分割数や文字サイズの切り替えは2段階でもよいし、3段階以上であってもよい。或いは、ユーザの視認状態に応じて関連画像を表示したり、表示部の表示をオン・オフすることで、コンテンツ画像の表示態様を変化させてもよい。このようにすれば、ユーザの注視等の視認状態が検出されると、それに応じて表示画像の表示態様が変化するようになる。従って、ユーザに提供する表示画像のバラエティを増すと共に効率的な情報伝達が可能になり、これまでにないタイプのデジタルフォトフレームの提供が可能になる。 7A to 8 illustrate the case where the display mode of the operation icon for the touch panel is changed according to the user's visual state, but the display mode of the content image is changed according to the user's visual state. Also good. For example, the level of detail of the content image, the number of screen divisions, and the character size are changed according to the user's visual recognition state. Specifically, when the user gazes at the content image, the detail level of the content image is increased, the number of screen divisions is increased, or the character size is reduced. In this case, the level of detail, the number of screen divisions, and the character size may be switched in two stages or in three or more stages. Or you may change the display mode of a content image by displaying a related image according to a user's visual recognition state, or turning on and off the display of a display part. In this way, when a visual state such as a user's gaze is detected, the display mode of the display image changes accordingly. Accordingly, it is possible to increase the variety of display images provided to the user and to efficiently transmit information, and to provide a digital photo frame of an unprecedented type.
次に図9(A)を用いて、ユーザの注視状態の検出手法の一例について説明する。図9(A)では、センサ350として撮像センサを用いる。そして図5(A)、図5(B)で説明したように、撮像センサからの撮像情報に基づいて、ユーザの顔領域FARを検出する。
Next, an example of a method for detecting a user's gaze state will be described with reference to FIG. In FIG. 9A, an image sensor is used as the
次に検出された顔領域FARに対応する計測領域SARを設定する。この計測領域SARは、顔領域FARを内包し、顔領域FARよりもサイズが大きな領域である。この計測領域SARは、例えば顔領域FARをオーバーサイジングすることで設定できる。そして、この計測領域SAR内に顔領域FARが存在する時間を計測し、計測された時間に基づいて、ユーザが表示部340を注視しているか否かを判断する。例えば顔領域FARが計測領域SAR内に一定時間以上位置していた場合には、ユーザが表示部340を注視していると判断する。そして図7(A)〜図8に示すように操作アイコンの表示態様を変化させる。
Next, a measurement area SAR corresponding to the detected face area FAR is set. This measurement area SAR is an area that includes the face area FAR and is larger in size than the face area FAR. This measurement area SAR can be set, for example, by oversizing the face area FAR. Then, the time during which the face area FAR exists in the measurement area SAR is measured, and it is determined whether the user is gazing at the
図9(A)の検出手法によれば、図5(A)、図5(B)の手法によるユーザとの距離の検出と、注視状態の検出の両方を、撮像センサを用いて実現できるようになる。これにより、センサの部品点数を減らしたり、効率的な処理が可能になる。 According to the detection method of FIG. 9A, both the detection of the distance to the user and the detection of the gaze state by the method of FIG. 5A and FIG. 5B can be realized using the imaging sensor. become. Thereby, the number of parts of the sensor can be reduced and efficient processing can be performed.
なお注視状態の検出手法は図9(A)の手法に限定されない。例えば図9(B)では、赤外光を照射し、ユーザの赤目を検出することで注視状態を検出している。具体的には赤外線デバイス354により照射された赤外線は、ハーフミラー353により反射されてユーザの目に到達する。そしてユーザの赤目状態を、撮像センサが設けられたカメラ352により撮影して検出することで、ユーザの目の瞳孔の位置を検出して、ユーザの視線方向を検出し、ユーザが注視状態か否かを判断する。また図9(C)では、2台のカメラ356、357(ステレオカメラ)で撮影されたユーザの顔画像の目周辺の画像領域の明暗から、瞳孔の位置を検出する。そして、検出された瞳孔の中心位置と眼球の中心位置から、ユーザの視線方向を検出し、ユーザが注視状態か否かを判断する。このようにユーザの注視状態の検出手法としては種々の手法を採用できる。
Note that the gaze state detection method is not limited to the method shown in FIG. For example, in FIG. 9B, the gaze state is detected by irradiating infrared light and detecting the user's red eyes. Specifically, the infrared light irradiated by the
また以上では、ユーザとの距離やユーザの注視状態を検出して操作アイコンやコンテンツ画像の表示態様を変化させる場合について説明したが、本実施形態はこれに限定されない。例えば検知範囲内でのユーザの接近の度合いを検出して、操作アイコンやコンテンツ画像の表示態様を変化させてもよい。例えば図5(A)の顔領域FARのサイズの時間に対する変化率を求める。そしてサイズの変化率が一定値以上である場合には、ユーザの接近の度合いが高いと判断して、図3(A)〜図4(B)、図7(A)〜図8と同様の手法で操作アイコンやコンテンツ画像の表示態様を変化させる。こうすることで、デジタルフォトフレームに興味を持って近づいてきたユーザに対して、様々な表示態様の操作アイコンやコンテンツ画像を表示できるようになる。 Moreover, although the case where the distance to the user and the user's gaze state are detected and the display mode of the operation icon and the content image is changed has been described above, the present embodiment is not limited to this. For example, the display state of the operation icon or the content image may be changed by detecting the degree of approach of the user within the detection range. For example, the rate of change of the size of the face area FAR in FIG. When the rate of change in size is equal to or greater than a certain value, it is determined that the degree of approach of the user is high, and the same as in FIGS. 3 (A) to 4 (B) and FIGS. 7 (A) to 8. The display mode of the operation icon and the content image is changed by the technique. In this way, operation icons and content images in various display modes can be displayed for a user who is approaching with interest in the digital photo frame.
またユーザが検知範囲内に存在したか否かをセンサ350により検知し、ユーザが存在すると判断された場合に、表示部340の表示をオフからオンに切り替えてもよい。例えば省電力モードから通常モードに切り替えて、表示部340に画像を表示する。また表示部340の表示がオンの状態で、ユーザが検知範囲内から出て、ユーザが存在しないと判断された場合には、表示部340の表示をオンからオフに切り替える。このようにすれば、ユーザが近くにいない時にデジタルフォトフレームに画像が表示されて、無駄に電力が消費されてしまう事態を防止できる。
Further, whether or not the user is within the detection range is detected by the
またユーザが表示部340を注視していることを検知した場合に、1回の注視が検知されたことを条件に、操作アイコンやコンテンツ画像の表示態様を変化させてもよいし、複数回の注視が検知されたことを条件に、操作アイコンやコンテンツ画像の表示態様を変化させてもよい。具体的には、所定時間内にユーザが表示部340を注視した回数である注視回数をカウントして記録する。そして、所定時間内での注視回数が、しきい値となる所定回数(例えば2〜5回)を超えるまでは、表示態様を変化させない。一方、所定時間内での注視回数が所定回数を超えると、表示モードを例えば注視モード等に切り替えて、表示態様を変化させる。
Further, when it is detected that the user is gazing at the
次に図10のフローチャートを用いて、ユーザの視認状態に応じた操作アイコンの表示制御の具体的な処理例について説明する。図10のステップS21〜S25は図6のステップS1〜S5と同様であるため説明を省略する。 Next, a specific processing example of operation icon display control according to the user's visual recognition state will be described using the flowchart of FIG. Steps S21 to S25 in FIG. 10 are the same as steps S1 to S5 in FIG.
図10のステップS26においてユーザの視野範囲内に表示部が入っていると判断された場合には、撮像センサ等を用いた注視検出により、ユーザが表示部を注視しているか否かを判断する(ステップS27)。そして注視していると判断された場合には、図7(B)等で説明したように注視モードをオンにして、タッチパネル用操作アイコンの表示をオンにする(ステップS29)。この際に例えばコンテンツ画像として注視モード用の画像(詳細画像、関連画像等)を表示するようにしてもよい。そしてこのようにタッチパネル用操作アイコンの表示をオンにした後、ユーザの操作が行われずに所定時間が経過した場合には(ステップS30)、タッチパネル用操作アイコンの表示をオフにする(ステップS31)。以上のようにすることで、図7(A)〜図8で説明したように、注視等のユーザの視認状態に応じたタッチパネル用操作アイコンの表示のオン・オフ制御を実現できる。 If it is determined in step S26 in FIG. 10 that the display unit is within the visual field range of the user, it is determined whether or not the user is gazing at the display unit by gaze detection using an imaging sensor or the like. (Step S27). If it is determined that the user is gazing, the gazing mode is turned on as described with reference to FIG. 7B and the touch panel operation icon is turned on (step S29). At this time, for example, an image for a gaze mode (detailed image, related image, etc.) may be displayed as a content image. Then, after the display of the touch panel operation icon is turned on in this way, when a predetermined time has passed without any user operation (step S30), the display of the touch panel operation icon is turned off (step S31). . As described above, as described with reference to FIGS. 7A to 8, it is possible to realize the on / off control of the display of the operation icons for the touch panel according to the user's visual state such as gaze.
次に図11のフローチャートを用いて、図9(A)で説明した注視状態の検出処理の詳細について説明する。 Next, details of the gaze state detection process described with reference to FIG. 9A will be described with reference to the flowchart of FIG.
まず、撮像センサ(カメラ)を用いた顔検出により、顔領域(枠領域)を検出する(ステップS41)。即ち図5(A)、図5(B)で説明した手法により顔領域を検出する。次に、検出された顔領域を内包し、顔領域よりもサイズが大きな計測領域を設定する(ステップS42)。即ち図9(A)に示すように、顔領域をオーバーサイジングした計測領域を設定する。そして計測領域内に顔領域が存在する時間をタイマを用いて計測する(ステップS43)。即ち計測領域の設定後、タイマの計測を開始し、顔領域が計測領域内に位置する時間を計測する。そして所定時間以上、経過したか否かを判断し(ステップS44)、経過した場合には注視モードをオンにする(ステップS45)。これにより、タッチパネル用操作アイコンの表示がオンになったり、注視用画像が表示されるようになる。一方、経過しなかった場合には、注視モードをオフのままにする(ステップS46)。このようにすることでユーザの注視状態の検出と、それに応じた注視モードの設定が可能になる。 First, a face area (frame area) is detected by face detection using an imaging sensor (camera) (step S41). That is, the face area is detected by the method described with reference to FIGS. Next, a measurement area that includes the detected face area and is larger than the face area is set (step S42). That is, as shown in FIG. 9A, a measurement area oversized from the face area is set. Then, the time during which the face area exists in the measurement area is measured using a timer (step S43). That is, after setting the measurement area, timer measurement is started and the time during which the face area is located within the measurement area is measured. Then, it is determined whether or not a predetermined time or more has elapsed (step S44), and when it has elapsed, the gaze mode is turned on (step S45). As a result, the display of the operation icon for the touch panel is turned on, or a gaze image is displayed. On the other hand, if it has not elapsed, the gaze mode is kept off (step S46). By doing so, it becomes possible to detect the user's gaze state and set the gaze mode accordingly.
4.発話状態に応じた操作アイコンの表示制御
本実施形態では、ユーザの発話状態(会話状態)に応じてタッチパネル用操作アイコンの表示態様を変化させている。具体的には、ユーザが発話した音声を構成する単語を抽出し、抽出した単語とコンテンツ画像のキーワードの一致判定(類似判定)を行って、操作アイコンを表示する。
4). Operation Icon Display Control According to Speech State In this embodiment, the display mode of the touch panel operation icon is changed according to the user's speech state (conversation state). Specifically, the words constituting the speech uttered by the user are extracted, the extracted words are matched with the keywords of the content image (similarity determination), and the operation icon is displayed.
例えば図12(A)において、ユーザUAは、スライドショーによりコンテンツ画像である写真を見ている。そして図12(A)の写真を見て、「いい景色だな〜。場所はどこなんだろう?」と発話している。するとこのユーザUAの発話が音声認識により解析され、「景色」「場所」「どこ」などの単語が抽出される。 For example, in FIG. 12A, the user UA sees a photo that is a content image by a slide show. Then, looking at the picture in FIG. 12 (A), he says, “It ’s a nice scenery. Where is the place?” Then, the speech of the user UA is analyzed by voice recognition, and words such as “scenery”, “location”, and “where” are extracted.
一方、図12(A)において表示されている写真のコンテンツ画像にはコンテンツの内容に応じた様々なキーワードがタグとして設定されている。そして音声認識により抽出されたユーザの音声を構成する「景色」「場所」「どこなんだろう」などの単語が、コンテンツ画像のタグとして設定されたキーワードと一致(類似)するか否かが判断される。そして図12(A)の場合には、「場所」という単語が、コンテンツ画像に設定された「場所」というキーワードと一致している。従って図12(B)では、一致した「場所」というキーワードに対応するタッチパネル用操作アイコンが表示される。具体的にはE1に示すように「撮影場所:地図へ」という操作アイコンが表示される。そしてユーザUAがE1の操作アイコンにタッチすると、写真の撮影場所の地図がデジタルフォトフレーム300に表示される。これによりユーザUAは写真の撮影場所を知ることができる。また自身が撮った写真である場合には、その撮影場所を思い出すことが可能になる。
On the other hand, various keywords corresponding to the content are set as tags in the content image of the photograph displayed in FIG. Then, it is determined whether or not words such as “scenery”, “location”, and “where is it” that constitute the user's voice extracted by voice recognition match (similar) the keyword set as the tag of the content image Is done. In the case of FIG. 12A, the word “location” matches the keyword “location” set in the content image. Accordingly, in FIG. 12B, a touch panel operation icon corresponding to the matched keyword “place” is displayed. Specifically, an operation icon “shooting location: to map” is displayed as indicated by E1. Then, when the user UA touches the operation icon E1, a map of the photo shooting location is displayed on the
図13(A)ではユーザUAは、スライドショーにより表示されている写真を見て「いい景色だな〜。この山は何かな?」と発話している。するとこのユーザUAの発話が音声認識により解析され、「景色」「山」「何かな」などの単語が抽出される。そしてこの場合には、抽出された「山」という単語が、コンテンツ画像の「山」というキーワードと一致しているため、図12(B)に示すように「山」というキーワードに対応するタッチパネル用操作アイコンが表示される。具体的にはE2に示すように「山情報へ」という操作アイコンが表示される。そしてユーザUAがE2の操作アイコンにタッチすると、写真に写っている山の情報がデジタルフォトフレーム300に表示される。これによりユーザUAは写真に映っている山の情報を詳しく知ることが可能になる。
In FIG. 13 (A), the user UA sees the photos displayed by the slide show and says, "It's a nice scenery. What is this mountain?" Then, the speech of the user UA is analyzed by voice recognition, and words such as “scenery”, “mountain”, and “something” are extracted. In this case, since the extracted word “mountain” matches the keyword “mountain” in the content image, the touch panel corresponding to the keyword “mountain” as shown in FIG. An operation icon is displayed. Specifically, an operation icon “To mountain information” is displayed as indicated by E2. Then, when the user UA touches the operation icon E2, information on the mountains shown in the photograph is displayed on the
このように本実施形態では、ユーザの発話状態が解析され、ユーザの発話状態に応じたタッチパネル用の操作アイコンが表示される。従って、ユーザは、自身が感じたことを発話するだけで、その発話内容に応じた操作アイコンが表示され、その操作アイコンを操作することで、自身が知りたい情報を容易に知ることができる。この場合に、ユーザが無意識に発話した単語に応じた操作アイコンが表示されるため、ユーザは、自身が知りたい情報に直感的にたどり着くことができるという利点がある。 Thus, in this embodiment, the user's utterance state is analyzed, and the operation icons for the touch panel corresponding to the user's utterance state are displayed. Therefore, the user simply speaks what he / she feels, and an operation icon corresponding to the content of the utterance is displayed. By operating the operation icon, the user can easily know information he / she wants to know. In this case, since the operation icon corresponding to the word that the user uttered unconsciously is displayed, there is an advantage that the user can intuitively reach the information he / she wants to know.
なお図12(A)〜図13(B)では、ユーザが発話した単語を抽出して、抽出された単語に応じた操作アイコンを表示しているが、本実施形態はこれに限定されない。例えばユーザの音声の状態(トーン、大きさ、速度)からユーザの感情等を類推して、その感情等に応じた操作アイコンを表示するようにしてもよい。 In FIGS. 12A to 13B, words uttered by the user are extracted and operation icons corresponding to the extracted words are displayed. However, the present embodiment is not limited to this. For example, the user's emotion or the like may be inferred from the user's voice state (tone, size, speed), and an operation icon corresponding to the emotion or the like may be displayed.
また音声認識処理は、ユーザ(人間)の話す音声言語をコンピュータにより解析し、テキストデータとして抽出する処理である。音声認識処理は、音響分析、認識デコーダ、音響モデル、辞書、言語モデルにより実現される。音響分析では、ユーザの音声をフーリエ解析等の信号処理により特徴量情報に変換する。認識デコーダでは、特徴量情報に基づいてテキストデータを出力する。具体的には音響情報と言語情報を総合的に判断して音声をテキストデータに変換する。この認識デコーダでの判断処理は、隠れマルコフモデルや動的時間伸縮法などの統計的手法により実現される。辞書は、認識対象の単語(ワード)をデータ化したものであり、音素列と単語を関連づけるものである。言語モデルは、辞書の単語についての確率をデータ化したものである。具体的には各単語の出現確率や接続確率をデータ化する。このような音響分析、認識デコーダ、音響モデル、辞書、言語モデルを用いることで、図12(A)〜図13(B)に示すようなユーザの音声を適正に認識して、キーワードとの一致判定を実現できる。 The voice recognition process is a process in which a voice language spoken by a user (human) is analyzed by a computer and extracted as text data. The speech recognition process is realized by acoustic analysis, a recognition decoder, an acoustic model, a dictionary, and a language model. In acoustic analysis, a user's voice is converted into feature amount information by signal processing such as Fourier analysis. The recognition decoder outputs text data based on the feature amount information. Specifically, sound is converted into text data by comprehensively determining acoustic information and language information. The determination process in the recognition decoder is realized by a statistical method such as a hidden Markov model or a dynamic time expansion / contraction method. A dictionary is a data of words (words) to be recognized, and associates phoneme strings with words. The language model is a data of probabilities for words in the dictionary. Specifically, the appearance probability and connection probability of each word are converted into data. By using such an acoustic analysis, recognition decoder, acoustic model, dictionary, and language model, the user's voice as shown in FIGS. 12 (A) to 13 (B) is properly recognized and matched with the keyword. Judgment can be realized.
次に図14のフローチャートを用いて、ユーザの発話状態に応じた操作アイコンの表示制御の具体的な処理例について説明する。 Next, a specific processing example of operation icon display control according to the user's utterance state will be described with reference to the flowchart of FIG.
まずユーザの発話を音声認識する(ステップS51)。この音声認識としては公知の種々の手法を採用できる。そして、ユーザが発話した音声の単語を抽出する(ステップS52)。この場合に適正な単語抽出を実現するために、ユーザの音声の学習処理を行うことが望ましい。 First, the user's speech is recognized by speech (step S51). Various known methods can be employed for this voice recognition. And the word of the voice which the user uttered is extracted (step S52). In this case, in order to realize proper word extraction, it is desirable to perform a user's voice learning process.
次に、ユーザの発話時に表示されているコンテンツ画像にタグとして設定されたキーワードを取得する(ステップS53)。具体的には図2のコンテンツ情報記憶部322においてコンテンツ画像に関連づけられたキーワードのタグを取得する。そしてステップS52で抽出された単語に一致するキーワードを検索する(ステップS54)。そして単語に一致したキーワードが検索された場合には、そのキーワードに対応するタッチパネル用操作アイコンを表示する(ステップS56)。なお完全に一致するキーワードが無かった場合には、単語に類似するキーワードに対応する操作アイコンを表示すればよい。
Next, a keyword set as a tag in the content image displayed when the user speaks is acquired (step S53). Specifically, the keyword tag associated with the content image is acquired in the content
5.ユーザの人数や人物認証に応じた操作アイコンの表示制御
本実施形態では、ユーザの人数の認識結果に応じてタッチパネル用操作アイコンの表示態様を変化させている。具体的には、ユーザの人数が一人であると判断された場合と複数人であると判断された場合とで、操作アイコンの表示態様を異ならせる。
5). In this embodiment, the display mode of the operation icons for the touch panel is changed according to the recognition result of the number of users. Specifically, the display mode of the operation icon is different depending on whether it is determined that the number of users is one or more than one.
例えば図15(A)では、一人のユーザUAだけがセンサ350により検知されている。この場合には、検知された一人のユーザUAに対応する個人モード用の操作アイコンが表示される。具体的には図15(A)では未整理の写真のコンテンツ画像が表示されている。ユーザUAは、G1、G2、G3、G4に示す操作アイコンにタッチすることで、各々、個人モード用、共有(家族)モード用、通常用、来客用のコンテンツ画像のいずれかであるかを選択・分類し、G5の操作アイコンにタッチして決定する。なおこのコンテンツ画像を破棄する場合には、G6の操作アイコンにタッチする。
For example, in FIG. 15A, only one user UA is detected by the
一方、図15(B)では、複数人のユーザUA、UB、UCがセンサ350により検知されている。この場合には、複数人のユーザUA、UB、UCに対応する共有モード(グループモード)用の操作アイコンが表示される。そして例えばG7の操作アイコンにタッチすることで、その写真の撮影日における別の家族写真等が表示される。またG8の操作アイコンにタッチすることで、その写真に類似する家族写真等が類似画像検索等により検索されて表示される。このようにすることで、家族が集まった時に、家族に共有の写真をデジタルフォトフレーム300に表示して楽しむことができる共に、このような状況に好適なタッチパネルを用いたインターフェース環境を提供できる。
On the other hand, in FIG. 15B, a plurality of users UA, UB, and UC are detected by the
また本実施形態では、ユーザの人物認証の結果に応じてタッチパネル用操作アイコンの表示態様を変化させることができる。具体的には、人物認証により、ユーザが登録ユーザであると判断された場合には、登録ユーザの個人モード用の操作アイコンを表示したり。ユーザの年齢認識結果に基づいて、操作アイコンの表示態様を変化させる。 Moreover, in this embodiment, the display mode of the operation icon for touch panels can be changed according to the result of user authentication of the user. Specifically, when it is determined by personal authentication that the user is a registered user, an operation icon for the registered user's personal mode is displayed. The display mode of the operation icon is changed based on the user's age recognition result.
図16(A)にユーザ登録情報の入力画面の一例を示す。ユーザは、図16(A)のようにデジタルフォトフレーム300の表示部340に表示されたユーザ登録画面を見ながら、操作部やタッチパネルディスプレイを用いてユーザ登録情報を入力する。これによりユーザ登録処理が実現される。なお、ユーザ登録情報をPC(パーソナルコンピュータ)等を用いて設定し、設定されたユーザ登録情報を、直接に或いはホームサーバ等を介してデジタルフォトフレーム300に転送するようにしてもよい。
FIG. 16A shows an example of an input screen for user registration information. The user inputs user registration information using the operation unit or the touch panel display while viewing the user registration screen displayed on the
図16(A)では、ユーザ登録情報として、ユーザのID、パスワード、ユーザの趣味・嗜好等が入力される。例えば図16(A)では、ユーザの趣味・嗜好が投資であることが入力されている。なお趣味・嗜好等以外にも、ユーザのお気に入りの情報、画面モードの設定、画面分割数、注視制御のオン・オフ、表示時間、スライド表示方法、文字フォント、文字サイズ、言語等を、ユーザ登録情報として入力できるようにしてもよい。 In FIG. 16A, the user ID, password, user hobbies / preferences, and the like are input as the user registration information. For example, in FIG. 16A, it is input that the user's hobbies / preferences are investments. In addition to hobbies and preferences, user registration includes user favorite information, screen mode settings, number of screen divisions, gaze control on / off, display time, slide display method, character font, character size, language, etc. You may enable it to input as information.
このようなユーザ登録情報を入力した後に、図16(B)に示すように、ユーザの顔画像の認識結果を登録する。具体的には、顔検出を行い、顔領域FARを検出する。次に顔領域FARに映ったユーザの画像に対する画像認識処理を行い、ユーザの顔画像の特徴点データを抽出する。そして、抽出された特徴点データを顔画像の認識結果として、例えば図16(A)で説明したユーザ登録情報と関連づけて登録する。このようにして、登録処理部314によりユーザの登録処理が実現される。
After inputting such user registration information, the recognition result of the user's face image is registered as shown in FIG. Specifically, face detection is performed and a face area FAR is detected. Next, image recognition processing is performed on the user image shown in the face area FAR, and feature point data of the user face image is extracted. Then, the extracted feature point data is registered as a face image recognition result in association with, for example, the user registration information described with reference to FIG. In this way, the
次に図17(A)に示すように、大人であるユーザUBがデジタルフォトフレーム300に近づくと、撮像センサ等のセンサ350により、検知されたユーザUBが登録ユーザであるか否かの人物認証が行われる。そして、検知されたユーザUBは、図16(A)、図16(B)のようなユーザ登録を行っているため、登録ユーザであると判断される。従って図17(A)のF1、F2に示すように、検知されたユーザUBに対応する個人モード用の操作アイコンが表示される。
Next, as shown in FIG. 17A, when an adult user UB approaches the
具体的には、ユーザUBの趣味・嗜好は図16(A)のように投資であると設定されている。従って図17(A)のF1、F2では、ユーザUBの個人モード用の操作アイコンとして、投資に関連する操作アイコンが表示される。例えばユーザUBがF1の操作アイコンにタッチすると、コンテンツであるデジタルカメラ関連の企業情報がデジタルフォトフレーム300に表示される。またF2の操作アイコンにタッチすると、デジタルカメラのメーカ別シェア推移が表示される。これにより、投資に興味があるユーザUBは、コンテンツ画像に関連する有益な情報を得ることが可能になる。
Specifically, the hobby / preference of the user UB is set as investment as shown in FIG. Therefore, in F1 and F2 of FIG. 17A, operation icons related to investment are displayed as operation icons for the personal mode of the user UB. For example, when the user UB touches the operation icon F1, the company information related to the digital camera, which is the content, is displayed on the
一方、図17(B)では、子供であるユーザUCがデジタルフォトフレーム300に近づいており、センサ350により検知されたユーザUCが登録ユーザであるか否かの人物認証が行われる。このユーザUCは、ユーザ登録画面において、趣味・嗜好が機械であると設定されている。従って、図17(B)のF3、F4に示すように、検知されたユーザUCの趣味・嗜好に対応する個人モード用の操作アイコンが表示される。例えばユーザUCがF3の操作アイコンにタッチすると、カメラの仕組みに関する情報がデジタルフォトフレーム300に表示される。またF4の操作アイコンにタッチすると、カメラの歴史に関する情報が表示される。
On the other hand, in FIG. 17B, the user UC as a child is approaching the
以上のように登録ユーザであるか否かに応じて操作アイコンの表示態様を変化させれば、ユーザにカスタマイズされたユーザ登録に応じた操作アイコンを登録ユーザに表示できるようになる。 As described above, if the display mode of the operation icon is changed according to whether or not the user is a registered user, the operation icon corresponding to the user registration customized for the user can be displayed to the registered user.
また図17(A)、図17(B)では、撮像センサ等のセンサ350からの検知情報に基づいて、ユーザの年齢認識処理も行われる。そして図17(B)ではセンサ350を用いた年齢認識処理により、ユーザUCの年齢層が子供(広義には所定年齢層)であると判断されている。この場合には、子供用の操作アイコン(広義には所定年齢層用の操作アイコン)を表示する。具体的には、操作アイコンの難しい漢字等に振り仮名が振られている。なお、操作アイコンの難しい漢字をひらがなで表示したり、ひらがなのみを用いて表示したり、子供が好む色やフォントを使用するようにしてもよい。またユーザの年齢層が老人(所定年齢層)であると判断された場合には、老人用の操作アイコン(所定年齢層用の操作アイコン)を表示してもよい。具体的には、大きく見やすい文字を使用したり、太字の文字を使用したり、老人が好む色やフォントを使用する。
In FIG. 17A and FIG. 17B, user age recognition processing is also performed based on detection information from a
以上のように年齢認識結果に応じて操作アイコンの表示態様を変化させれば、ユーザの年齢層に応じた適正な表示態様で操作アイコンを表示できるようになる。 As described above, if the display mode of the operation icon is changed according to the age recognition result, the operation icon can be displayed in an appropriate display mode according to the age group of the user.
なおユーザの年齢認識処理としては種々の処理が考えられる。例えば多数の子供の顔パターンから生成した平均顔パターンを子供用顔テンプレートとして作成し、多数の大人(或いは老人)の顔パターンから生成した平均顔パターンを大人用顔テンプレートとして作成する。そして、子供用テンプレートを撮像画像の画面上で走査して、撮像画像との相関を求め、その相関値に基づいて子供を検知し、大人用テンプレートを撮像画像の画面上で走査して、撮像画像との相関を求め、その相関値に基づいて大人を検知する。或いは、顔画像認識によりしわの数を特定し、しわの数が少ない場合には子供であると判断し、しわの数が多い場合には大人であると判断し、しわの数が更に多い場合には老人であると判断してもよい。 Various processes can be considered as the user's age recognition process. For example, an average face pattern generated from a large number of child face patterns is created as a child face template, and an average face pattern generated from a large number of adult (or elderly) face patterns is created as an adult face template. Then, the child template is scanned on the screen of the captured image, the correlation with the captured image is obtained, the child is detected based on the correlation value, and the adult template is scanned on the screen of the captured image to capture the image. A correlation with an image is obtained, and an adult is detected based on the correlation value. Or, if the number of wrinkles is specified by face image recognition, if the number of wrinkles is small, it is determined that the child is a child, if the number of wrinkles is large, it is determined that the child is an adult, and the number of wrinkles is larger You may decide that you are an old man.
次に、ユーザの人数や人物認証の結果に応じた操作アイコンの表示制御の具体的な処理例について説明する。 Next, a specific processing example of display control of operation icons according to the number of users and the result of person authentication will be described.
図18はユーザ登録処理のフローチャートである。まず図16(A)に示すようなユーザ登録画面を表示する(ステップS61)。これによりユーザはユーザ登録情報の入力が可能になる。そしてユーザ登録情報の入力が完了したか否かを判断し(ステップS62)、完了した場合には、図16(B)で説明したように、撮像センサ(カメラ)を用いてユーザの顔領域の検出を行う(ステップS63)。そして撮像センサを用いてユーザの顔画像認識を行い(ステップS64)、認識された顔画像をユーザ登録情報に関連づけて記憶する(ステップS65)。 FIG. 18 is a flowchart of the user registration process. First, a user registration screen as shown in FIG. 16A is displayed (step S61). As a result, the user can input user registration information. Then, it is determined whether or not the input of the user registration information has been completed (step S62). If it has been completed, as described with reference to FIG. 16B, an image sensor (camera) is used to detect the face area of the user. Detection is performed (step S63). Then, the face image of the user is recognized using the imaging sensor (step S64), and the recognized face image is stored in association with the user registration information (step S65).
図19は、ユーザ認識結果に基づく操作アイコンの表示制御の詳細な処理例を示すフローチャートである。図19のステップS71〜S74は図6のステップS1〜S4と同様であるため説明を省略する。 FIG. 19 is a flowchart illustrating a detailed processing example of display control of an operation icon based on a user recognition result. Steps S71 to S74 in FIG. 19 are the same as steps S1 to S4 in FIG.
図19のステップS74でコンテンツ画像を表示した後、焦電センサ又は撮像センサを用いて、ユーザ(人物)の人数を認識する(ステップS75)。そして、人数が一人である場合には(ステップS76)、撮像センサを用いた顔画像認識によりユーザの人物認証を行う(ステップS77)。そして人物認証に成功した場合には(ステップS78)、認証されたユーザのユーザ登録情報を用いて、図15(A)に示すように個人モードのタッチパネル用操作アイコンを表示する(ステップS79)。なおこの際に、個人モード用のコンテンツ画像を表示すようにしてもよい。一方、人物認証に失敗した場合には、通常モード(デフォルト設定)のタッチパネル用操作アイコンを表示する(ステップS80)。 After the content image is displayed in step S74 of FIG. 19, the number of users (persons) is recognized using a pyroelectric sensor or an imaging sensor (step S75). If the number of persons is one (step S76), the user is authenticated by face image recognition using an image sensor (step S77). When the person authentication is successful (step S78), the personal mode touch panel operation icon is displayed as shown in FIG. 15A using the user registration information of the authenticated user (step S79). At this time, a content image for personal mode may be displayed. On the other hand, if the person authentication fails, a touch panel operation icon in the normal mode (default setting) is displayed (step S80).
またステップS76でユーザの人数が複数人であると判断された場合には、撮像センサを用いた顔画像認識によりユーザの人物認証を行う(ステップS81)。そして人物認証に成功した場合には(ステップS82)、図15(B)に示すように、認証された複数人のユーザの共有モードのタッチパネル用操作アイコンを表示する(ステップS83)。なおこの際に、共有モード用のコンテンツ画像を表示するようにしてもよい。一方、人物認証に失敗した場合には、通常モード(デフォルト設定)のタッチパネル用操作アイコンを表示する(ステップS84)。 If it is determined in step S76 that there are a plurality of users, the user is authenticated by face image recognition using an image sensor (step S81). When the person authentication is successful (step S82), as shown in FIG. 15B, the operation icons for the touch panel in the shared mode of the plurality of authenticated users are displayed (step S83). At this time, a content image for the sharing mode may be displayed. On the other hand, if the person authentication fails, a touch panel operation icon in the normal mode (default setting) is displayed (step S84).
以上のようにすることで、ユーザの人数の認識結果や人物認証の結果に応じた適切なタッチパネル用操作アイコンの表示が可能になる。 By doing as described above, it is possible to display an appropriate touch panel operation icon according to the recognition result of the number of users and the result of person authentication.
6.感性モデルの構築
さて、ユーザの嗜好や行動の傾向等を反映させた表示制御を行うためには、そのユーザの感性モデルの構築が効果的である。このような感性モデルの構築等のためには、表示モードが個人モードや共有モードである場合に、ユーザの各種状態を記録しておくことが望ましい。
6). Construction of Kansei Model Now, in order to perform display control that reflects the user's preference and behavioral tendency, it is effective to construct the user's Kansei model. In order to construct such a sensitivity model, it is desirable to record various states of the user when the display mode is the personal mode or the sharing mode.
例えば図20において、表示モード切り替え部316により、表示モードが個人モードに切り替わったとする。そして、この個人モード時において、ユーザが、タッチパネル用操作アイコンにタッチして各種操作を行った場合には、その操作履歴を、個人情報として個人情報記憶部332に書き込む。例えば、個人モード時に表示されているコンテンツ画像に関連づけて、ユーザの操作履歴の情報を書き込む。
For example, in FIG. 20, it is assumed that the display
そして、このようにして記憶されたユーザの個人情報に基づいて、そのユーザの感性モデル(個人モデル)を更新する。このようにすれば、ユーザが意識することなく、各ユーザ毎の感性モデルを構築することが可能になる。そして、このようにして更新された感性モデルを用いて、その後のタッチパネル用操作アイコンの表示制御を行えば、ユーザの感性に適合した操作アイコンの表示制御を実現でき、これまでにないタイプのデジタルフォトフレームを提供できる。例えばユーザが、その個人モード時に頻繁に選ぶ操作アイコンを優先的に表示部340に表示したり、ユーザがその操作アイコンを選択し易くなるような表示制御を実現できる。
And based on the user's personal information stored in this way, the user's sensitivity model (personal model) is updated. In this way, it becomes possible to construct a sensitivity model for each user without the user being aware of it. Then, by using the sensitivity model updated in this way, and then performing display control of the operation icons for the touch panel, it is possible to realize the display control of the operation icons suitable for the user's sensitivity, and an unprecedented type of digital Photo frames can be provided. For example, it is possible to realize display control in which an operation icon frequently selected by the user in the personal mode is preferentially displayed on the
或いは、図20において、表示モード切り替え部316により、表示モードが共有モードに切り替わったとする。この場合には、情報更新部317は、複数のユーザについての操作履歴を、複数人のユーザの共有情報としてユーザ共有情報記憶部334に書き込む。例えば、共有モード時に表示されているコンテンツ画像に関連づけて、操作履歴の情報を書き込む。
Alternatively, in FIG. 20, it is assumed that the display mode is switched to the shared mode by the display
そして、このようにして記憶されたユーザ共有情報に基づいて、複数のユーザの共有感性モデルを更新する。このようにすれば、複数のユーザの共有モード時に行った操作等が反映された共有感性モデルを構築できる。これにより、共有モード時にだけ特徴的に見られるような使い方が反映されるようになり、これまでにないタイプのデジタルフォトフレームを提供できる。例えば、2人のユーザが一緒に居る時にだけ選択される操作アイコンを、優先的に表示部340に表示したり、その操作アイコンを選択し易くなるような表示制御を実現できる。
And based on the user share information memorize | stored in this way, the share sensitivity model of a some user is updated. In this way, it is possible to construct a shared sensibility model in which operations performed in the sharing mode of a plurality of users are reflected. As a result, usage that is characteristically seen only in the sharing mode is reflected, and an unprecedented type of digital photo frame can be provided. For example, an operation icon that is selected only when two users are together can be preferentially displayed on the
なお、感性モデルとしては確率モデルを用いることができ、このような確率モデルとしては例えば隠れマルコフモデル(Hidden Markov Model)がある。この隠れマルコフモデル(HMM)では、システムが、パラメータが未知のマルコフ過程であると仮定して、観測可能な情報からその未知のパラメータを推定する。即ち、HMMは、あるシステムがマルコフ過程に従って遷移する内部状態を持ち、各状態に応じた記号を確率的に出力すると考えた場合に、記号の出現確率分布からシステム内部の状態遷移を推定する確率モデルである。外部から観測できるのは記号の系列だけであり、内部の状態遷移が直接観測できないところから「隠れ」と呼ばれる。 Note that a probability model can be used as the sensitivity model, and an example of such a probability model is a hidden Markov model. In this hidden Markov model (HMM), the system assumes that the parameter is an unknown Markov process and estimates the unknown parameter from observable information. That is, the HMM has a probability that a certain system has an internal state that transitions according to a Markov process and estimates the state transition inside the system from the appearance probability distribution of the symbol when it is considered that a symbol corresponding to each state is output stochastically. It is a model. Only a series of symbols can be observed from the outside, and it is called “hidden” because the internal state transition cannot be observed directly.
7.変形例
次に本実施形態の変形例について説明する。図21に本実施形態の第1の変形例を示す。この第1の変形例のシステムでは、ホームサーバ200(広義には情報処理システム)が設けられている。このホームサーバ200は、処理部202、記憶部220、通信部238、操作部260を含む。なおこれらの一部の構成要素を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。なお、図2と同様の構成要素については、同様の符号を付してその説明を省略する。
7). Modified Example Next, a modified example of the present embodiment will be described. FIG. 21 shows a first modification of the present embodiment. In the system of the first modification, a home server 200 (information processing system in a broad sense) is provided. The
処理部202は、管理処理などの各種の処理を行うものであり、CPU等のプロセッサやASICなどにより実現できる。記憶部220は、処理部202や通信部238のワーク領域となるものであり、例えばRAMやHDD等により実現できる。通信部238は、デジタルフォトフレーム300や外部サーバ600と有線又は無線で通信を行うためのものであり、通信用ASIC又は通信用プロセッサなどにより実現できる。操作部260は、サーバの管理者が各種情報を入力するためのものである。
The
図21では、デジタルフォトフレーム300とホームサーバ200は、例えば無線LAN等のネットワークで通信接続される。また図21では、センサ250として、家の各場所に設置されるホームセンサが用いられる。そして、ホームサーバ200の検知情報取得部204が、ホームセンサであるセンサ250からの検知情報を取得し、取得された検知情報は検知情報記憶部224に記憶される。
In FIG. 21, the
またホームサーバ200で取得された検知情報は、転送部205により、通信部238、338を介して、デジタルフォトフレーム300に転送される。すると、デジタルフォトフレーム300の検知情報取得部304は、転送された検知情報を取得し、取得された検知情報は検知情報記憶部324に記憶される。
The detection information acquired by the
ユーザ状態判断部306は、取得された検知情報に基づいて、ユーザとの位置関係、ユーザの視認状態や発話状態を判断する。また取得された検知情報に基づいて、ユーザの人数の認識やユーザの人物認証などの認識処理を行う。そして表示モード切り替え部316は、位置関係・視認状態・発話状態・人数認識結果・人物認証結果等に応じて操作アイコンやコンテンツ画像の表示モードを切り替える。また情報更新部317は、操作履歴等に基づいて、個人情報記憶部332やユーザ共有情報記憶部334の情報の更新処理を行う。
The user
表示制御部318は、操作アイコンやコンテンツ画像を表示部340に表示する制御を行う。例えば、位置関係・視認状態・発話状態・人数認識結果・人物認証結果等に応じた操作アイコンやコンテンツ画像を表示する制御を行う。
The
なお、これらコンテンツ画像等のコンテンツ情報は、ホームサーバ200のコンテンツ情報記憶部222からデジタルフォトフレーム300のコンテンツ情報記憶部322にダウンロードされる。或いは外部サーバ600のコンテンツ情報記憶部622からダウンロードしてもよい。またデジタルフォトフレーム300の処理部302を実現するためのプログラムも、外部サーバ600やホームサーバ200から、デジタルフォトフレーム300にダウンロードするようにしてもよい。
The content information such as the content image is downloaded from the content
図22に、センサ250であるホームセンサの設置例を示す。図22では、ホームセンサとして、撮像センサを有するカメラ251、252、253、254が、例えば部屋の天井の四隅に設置されている。そして、これらのカメラ251〜254を用いてユーザ10やデジタルフォトフレーム300を撮影することで、ユーザ10とデジタルフォトフレーム300の表示部340との位置関係や、表示部340に対するユーザ10の視認状態などを判断するための検知情報が取得される。またユーザ10の人数の特定や、ユーザ10の人物認証が行われる。そして取得された検知情報が、ホームサーバ200からデジタルフォトフレーム300に転送され、デジタルフォトフレーム300が、検知情報に基づいて、ユーザ状態を判断したり、ユーザ認識を行い、ユーザ状態やユーザ認識結果に応じた操作アイコンやコンテンツ画像を表示部340に表示する。なお、ホームセンサは、カメラ251〜254の撮像センサに限定されず、焦電センサや超音波センサなどの種々のセンサを用いることができる。
FIG. 22 shows an installation example of a home sensor that is the
図21の第1の変形例を用いれば、例えばホームセキュリティ等のために設けられたホームセンサを有効活用して、検知情報を取得し、この検知情報に基づいて、ユーザ状態を判断したり、ユーザ認識を行い、ユーザ状態やユーザ認識結果に応じた操作アイコンやコンテンツ画像をデジタルフォトフレーム300の表示部340に表示できるようになる。
If the 1st modification of FIG. 21 is used, for example, the home sensor provided for home security etc. will be used effectively, detection information will be acquired, a user state may be judged based on this detection information, User recognition is performed, and operation icons and content images corresponding to the user state and the user recognition result can be displayed on the
図23に本実施形態の第2の変形例を示す。図23では、ホームサーバ200の処理部202が、検知情報取得部204、転送部205に加えて、ユーザ状態判断部206、登録処理部214、表示モード切り替え部216、情報更新部217を含む。また、デジタルフォトフレーム300に対して表示の指示を行う表示指示部218を含む。またホームサーバ200の記憶部220は、コンテンツ情報記憶部222、検知情報記憶部224に加えて、ユーザ登録情報記憶部225、ユーザ状態記憶部226、切り替えフラグ記憶部228、個人情報(感性モデル)記憶部332、ユーザ共有情報(共有感性モデル)記憶部334を含む。
FIG. 23 shows a second modification of the present embodiment. In FIG. 23, the
図23では、センサ250であるホームセンサからの検知情報に基づいて、ホームサーバ200のユーザ状態判断部206が、位置関係や視認状態や発話状態等を判断したり、ユーザの人数の認識や人物認証などを行う。なおユーザの登録処理もホームサーバ200の登録処理部214が行う。
In FIG. 23, based on the detection information from the home sensor, which is the
そして表示モード切り替え部216は、ユーザ状態やユーザ認識結果に応じて表示モードを切り替える処理を行う。例えばユーザとの位置関係や視認状態等に応じて、表示モードを切り替える。或いは、ユーザの人数や人物認証の結果等に応じて表示モードを切り替える。
The display
表示指示部218は、センサ250により取得された検知情報に応じてタッチパネル用操作アイコンやコンテンツ画像の表示態様を変化させる表示指示を行う。具体的には、ユーザと表示部340との位置関係や、ユーザの視認状態、発話状態の少なくとも1つに応じて、表示部340に表示される操作アイコンやコンテンツ画像の表示態様を変化させる表示指示を行う。或いは、検知されたユーザの人数及び人物認証結果の少なくとも一方に応じて、操作アイコンやコンテンツ画像の表示態様を変化させる表示指示を行う。
The
デジタルフォトフレーム300の表示制御部318は、表示指示部218からの指示にしたがって、表示部340の表示制御を行う。これにより、ユーザとの位置関係、ユーザの視認状態や発話状態、ユーザの人数、人物認証結果などに応じて、表示部340での操作アイコンやコンテンツ画像の表示態様が変化する。
The
図23の第2の変形例によれば、ユーザ状態の判断処理やユーザの認識処理や表示モードの切り替え処理をホームサーバ200が行うため、デジタルフォトフレーム300の処理負荷を軽減できる。従って、デジタルフォトフレーム300の処理部302(CPU)の処理能力が低い場合も、本実施形態の処理を実現できるようになる。なお、これらの処理を、ホームサーバ200とデジタルフォトフレーム300の分散処理により実現してもよい。
According to the second modified example of FIG. 23, the
なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(位置関係、視認状態等)と共に記載された用語(距離、注視状態等)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。またデジタルフォトフレーム、情報処理システムの構成、動作や、操作アイコンの表示制御手法、ユーザ状態の判断手法、ユーザの認識手法、位置関係の検出手法、視認状態の検出手法等も本実施形態で説明したものに限定に限定されず、種々の変形実施が可能である。 Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, a term (distance, gaze state, etc.) described together with a different term (positional relationship, viewing state, etc.) in a broader sense or the same meaning at least once in the specification or drawing, It can be replaced by that different term. This embodiment also describes the configuration and operation of digital photo frames, information processing systems, operation icon display control methods, user state determination methods, user recognition methods, positional relationship detection methods, visual state detection methods, and the like. However, the present invention is not limited to the above, and various modifications can be made.
200 サーバ、202 処理部、204 検知情報取得部、205 転送部、
206 ユーザ状態判断部、214 登録処理部、216 表示モード切り替え部、
217 情報更新部、218 表示指示部、220 記憶部、
222 コンテンツ情報記憶部、224 検知情報記憶部、
225 ユーザ登録情報記憶部、226 ユーザ状態記憶部、
228 切り替えフラグ記憶部、238 通信部、
250 センサ(ホームセンサ)、260 操作部、
300 デジタルフォトフレーム、302 処理部、304 検知情報取得部、
306 ユーザ状態判断部、307 位置関係判断部、308 視認状態判断部、
309 発話状態判断部、310 ユーザ人数認識部、311 人物認証部、
316 表示モード切り替え部、317 情報更新部、318 表示制御部、
320 記憶部、322 コンテンツ情報記憶部、324 検知情報記憶部、
325 ユーザ登録情報記憶部、326 ユーザ状態記憶部、
328 切り替えフラグ記憶部、330 情報記憶媒体、
338 通信部、340 表示部、350 センサ、360 操作部
200 server, 202 processing unit, 204 detection information acquisition unit, 205 transfer unit,
206 user status determination unit, 214 registration processing unit, 216 display mode switching unit,
217 information update unit, 218 display instruction unit, 220 storage unit,
222 content information storage unit, 224 detection information storage unit,
225 user registration information storage unit, 226 user status storage unit,
228 switching flag storage unit, 238 communication unit,
250 sensors (home sensors), 260 operation units,
300 digital photo frame, 302 processing unit, 304 detection information acquisition unit,
306 user state determination unit, 307 positional relationship determination unit, 308 visual recognition state determination unit,
309 Utterance state determination unit, 310 User number recognition unit, 311 Person authentication unit,
316 display mode switching unit, 317 information updating unit, 318 display control unit,
320 storage unit, 322 content information storage unit, 324 detection information storage unit,
325 user registration information storage unit, 326 user state storage unit,
328 switching flag storage unit, 330 information storage medium,
338 communication unit, 340 display unit, 350 sensor, 360 operation unit
Claims (29)
前記表示部の表示制御を行う表示制御部と、
センサにより検知された検知情報を取得する検知情報取得部とを含み、
前記表示部はタッチパネルディスプレイにより構成され、
前記表示制御部は、
取得された前記検知情報に応じてタッチパネル用操作アイコンの表示態様を変化させる表示制御を行うことを特徴とするデジタルフォトフレーム。 A display for displaying images;
A display control unit that performs display control of the display unit;
A detection information acquisition unit for acquiring detection information detected by the sensor,
The display unit includes a touch panel display,
The display control unit
A digital photo frame characterized by performing display control for changing a display mode of a touch panel operation icon in accordance with the acquired detection information.
取得された前記検知情報に基づいて、ユーザと前記表示部との位置関係の判断、前記表示部に対するユーザの視認状態の判断、ユーザの発話状態の判断、ユーザの人数の認識、及びユーザの人物認証の少なくとも1つを行うユーザ状態判断部を含み、
前記表示制御部は、
ユーザと前記表示部との前記位置関係、ユーザの前記視認状態、ユーザの前記発話状態、ユーザの人数の認識結果、及びユーザの人物認証結果の少なくとも1つに応じて、タッチパネル用操作アイコンの表示態様を変化させる表示制御を行うことを特徴とするデジタルフォトフレーム。 In claim 1,
Based on the acquired detection information, determination of the positional relationship between the user and the display unit, determination of the user's visual status with respect to the display unit, determination of the user's utterance state, recognition of the number of users, and the user's person Including a user state determination unit that performs at least one of authentication,
The display control unit
Display of touch panel operation icons in accordance with at least one of the positional relationship between the user and the display unit, the user's visual recognition state, the user's speech state, the number of users' recognition result, and the user's person authentication result A digital photo frame characterized by performing display control for changing a mode.
前記ユーザ状態判断部は、
ユーザと前記表示部との前記位置関係として、ユーザと前記表示部との間の距離を判断し、
前記表示制御部は、
ユーザと前記表示部との間の距離に応じて、タッチパネル用操作アイコンの表示制御を行うことを特徴とするデジタルフォトフレーム。 In claim 2,
The user status determination unit
As the positional relationship between the user and the display unit, the distance between the user and the display unit is determined,
The display control unit
A digital photo frame which performs display control of an operation icon for a touch panel in accordance with a distance between a user and the display unit.
前記表示制御部は、
ユーザと前記表示部との間の距離が所定距離内である場合に、タッチパネル用操作アイコンの表示をオンにすることを特徴とするデジタルフォトフレーム。 In claim 3,
The display control unit
A digital photo frame that turns on display of an operation icon for a touch panel when a distance between a user and the display unit is within a predetermined distance.
前記表示制御部は、
ユーザと前記表示部との間の距離が所定距離より大きいと判断された場合には、第1〜第N(Nは2以上の整数)のコンテンツ画像を前記表示部にスライド表示する制御を行い、前記第1〜第Nのコンテンツ画像のうちの第K(1≦K≦N)のコンテンツ画像が表示されている時に、ユーザと前記表示部との間の距離が所定距離内であると判断された場合には、前記第Kのコンテンツ画像に対応するタッチパネル用操作アイコンを表示する制御を行うことを特徴とするデジタルフォトフレーム。 In claim 3 or 4,
The display control unit
When it is determined that the distance between the user and the display unit is greater than a predetermined distance, control is performed to slide-display the first to Nth (N is an integer of 2 or more) content images on the display unit. When the Kth (1 ≦ K ≦ N) content image among the first to Nth content images is displayed, it is determined that the distance between the user and the display unit is within a predetermined distance. If so, the digital photo frame is controlled to display a touch panel operation icon corresponding to the Kth content image.
前記センサは、ユーザを撮像する撮像センサであり、
前記ユーザ状態判断部は、
前記撮像センサからの撮像情報に基づいて、ユーザの顔領域を検出し、検出された前記顔領域のサイズに基づいて、ユーザと前記表示部との間の距離を判断することを特徴とするデジタルフォトフレーム。 In any of claims 3 to 5,
The sensor is an imaging sensor that images a user;
The user status determination unit
A digital device that detects a user's face area based on imaging information from the imaging sensor and determines a distance between the user and the display unit based on the detected size of the face area. Photo frame.
前記センサは、ユーザを撮像する撮像センサであり、
前記ユーザ状態判断部は、
ユーザに対する自動焦点合わせ処理により、ユーザと前記表示部との間の距離を判断することを特徴とするデジタルフォトフレーム。 In any of claims 3 to 5,
The sensor is an imaging sensor that images a user;
The user status determination unit
A digital photo frame, wherein a distance between a user and the display unit is determined by an automatic focusing process for the user.
前記センサは超音波センサであり、
前記ユーザ状態判断部は、
前記超音波センサにより、ユーザと前記表示部との間の距離を判断することを特徴とするデジタルフォトフレーム。 In any of claims 3 to 5,
The sensor is an ultrasonic sensor;
The user status determination unit
A digital photo frame, wherein a distance between a user and the display unit is determined by the ultrasonic sensor.
前記ユーザ状態判断部は、
ユーザの前記視認状態として、ユーザが前記表示部を注視している状態か否かを判断し、
前記表示制御部は、
ユーザが前記表示部を注視しているか否かに応じて、タッチパネル用操作アイコンの表示制御を行うことを特徴とするデジタルフォトフレーム。 In any of claims 2 to 8,
The user status determination unit
As the user's visual state, it is determined whether or not the user is gazing at the display unit,
The display control unit
A digital photo frame, wherein display control of an operation icon for a touch panel is performed according to whether or not a user is gazing at the display unit.
前記表示制御部は、
ユーザが前記表示部を注視していると判断された場合に、タッチパネル用操作アイコンの表示をオンにすることを特徴とするデジタルフォトフレーム。 In claim 9,
The display control unit
A digital photo frame that turns on display of a touch panel operation icon when it is determined that a user is gazing at the display unit.
前記表示制御部は、
ユーザが注視しているコンテンツ画像に対応するタッチパネル用操作アイコンを表示する制御を行うことを特徴とするデジタルフォトフレーム。 In claim 9 or 10,
The display control unit
A digital photo frame that performs control to display an operation icon for a touch panel corresponding to a content image that a user is gazing at.
前記表示制御部は、
ユーザが前記表示部を注視していないと判断された場合には、第1〜第N(Nは2以上の整数)のコンテンツ画像を前記表示部にスライド表示する制御を行い、前記第1〜第Nのコンテンツ画像のうちの第K(1≦K≦N)のコンテンツ画像が表示されている時にユーザが前記表示部を注視していると判断された場合には、前記第Kのコンテンツ画像に対応するタッチパネル用操作アイコンを表示する制御を行うことを特徴とするデジタルフォトフレーム。 In any of claims 9 to 11,
The display control unit
When it is determined that the user is not gazing at the display unit, the first to Nth (N is an integer of 2 or more) content images are controlled to be slid on the display unit. When it is determined that the user is gazing at the display unit when the Kth (1 ≦ K ≦ N) content image among the Nth content images is displayed, the Kth content image A digital photo frame that performs control to display an operation icon for a touch panel corresponding to.
前記ユーザ状態判断部は、
ユーザの発話状態を音声認識により判断し、
前記表示制御部は、
前記音声認識の結果に応じて、タッチパネル用操作アイコンの表示制御を行うことを特徴とするデジタルフォトフレーム。 In any of claims 2 to 12,
The user status determination unit
The user's utterance state is judged by voice recognition,
The display control unit
A digital photo frame which performs display control of an operation icon for a touch panel according to the result of the voice recognition.
前記表示制御部は、
前記音声認識により抽出されたユーザの音声を構成する単語が、前記表示部に表示されているコンテンツ画像にタグとして設定されたキーワードと一致又は類似した場合に、一致又は類似したキーワードに対応するタッチパネル用操作アイコンを表示する制御を行うことを特徴とするデジタルフォトフレーム。 In claim 13,
The display control unit
A touch panel corresponding to a matched or similar keyword when a word constituting the user's voice extracted by the voice recognition matches or is similar to a keyword set as a tag in the content image displayed on the display unit A digital photo frame characterized by performing control to display an operation icon.
前記ユーザ状態判断部は、
検知されたユーザの人数を認識し、
前記表示制御部は、
検知されたユーザの人数が一人であると判断された場合と複数人であると判断された場合とで、前記表示部に表示されるタッチパネル用操作アイコンの表示態様を異ならせる表示制御を行うことを特徴とするデジタルフォトフレーム。 In any of claims 2 to 14,
The user status determination unit
Recognize the number of detected users,
The display control unit
Display control is performed so that the display mode of the operation icons for the touch panel displayed on the display unit is different depending on whether the number of detected users is determined to be one or more than one. A digital photo frame characterized by
前記表示制御部は、
検知されたユーザの人数が一人であると判断された場合には、検知された一人のユーザに対応する個人モード用のタッチパネル用操作アイコンを表示する制御を行うことを特徴とするデジタルフォトフレーム。 In claim 15,
The display control unit
A digital photo frame characterized in that, when it is determined that the number of detected users is one, control for displaying an operation icon for a personal mode touch panel corresponding to the detected one user is performed.
前記表示制御部は、
検知されたユーザの人数が複数人であると判断された場合には、検知された複数人のユーザに対応する共有モード用のタッチパネル用操作アイコンを表示する制御を行うことを特徴とするデジタルフォトフレーム。 In claim 15 or 16,
The display control unit
When the detected number of users is determined to be plural, the digital photo is controlled to display an operation icon for a shared mode touch panel corresponding to the detected plural users. flame.
前記表示制御部は、
検知されたユーザが第1のユーザであると判断された場合には、第1のユーザ用のタッチパネル用操作アイコンを表示する制御を行い、検知されたユーザが第2のユーザであると判断された場合には、第2のユーザ用のタッチパネル用操作アイコンを表示する制御を行うことを特徴とするデジタルフォトフレーム。 In claim 15,
The display control unit
When it is determined that the detected user is the first user, control for displaying a touch panel operation icon for the first user is performed, and the detected user is determined to be the second user. If so, a digital photo frame that performs control to display a touch panel operation icon for a second user.
ユーザの登録処理を行う登録処理部を含み、
前記ユーザ状態判断部は、
検知されたユーザが登録ユーザであるか否かの人物認証を行い、
前記表示制御部は、
検知されたユーザが登録ユーザであると判断された場合には、登録ユーザに対応する個人モード用のタッチパネル用操作アイコンを表示する制御を行うことを特徴とするデジタルフォトフレーム。 In any of claims 2 to 18,
Including a registration processing unit for performing user registration processing;
The user status determination unit
Performs person authentication to determine whether the detected user is a registered user,
The display control unit
A digital photo frame, wherein when it is determined that a detected user is a registered user, control for displaying an operation icon for a personal mode touch panel corresponding to the registered user is performed.
前記ユーザ状態判断部は、
検知されたユーザの年齢認識を行い、
前記表示制御部は、
検知されたユーザの年齢認識結果に基づいて、タッチパネル用操作アイコンの表示制御を行うことを特徴とするデジタルフォトフレーム。 In any of claims 2 to 19,
The user status determination unit
Recognize the age of the detected user,
The display control unit
A digital photo frame, wherein display control of an operation icon for a touch panel is performed based on a detected age recognition result of a user.
前記表示制御部は、
検知されたユーザの年齢認識結果に基づいて、ユーザの年齢層が所定年齢層であると判断された場合には、前記所定年齢層用のタッチパネル用操作アイコンを表示する制御を行うことを特徴とするデジタルフォトフレーム。 In claim 20,
The display control unit
Based on the detected age recognition result of the user, when it is determined that the user's age group is a predetermined age group, control is performed to display the operation icon for the touch panel for the predetermined age group. Digital photo frame.
検知されたユーザの人数及び人物認証結果の少なくとも一方に応じて、タッチパネル用操作アイコンの表示モードを切り替える表示モード切り替え部を含むことを特徴とするデジタルフォトフレーム。 Any one of claims 2 to 21
A digital photo frame comprising a display mode switching unit for switching a display mode of a touch panel operation icon in accordance with at least one of the detected number of users and a person authentication result.
前記表示制御部は、
前記表示部に表示される画像が第1のコンテンツ画像である場合には、前記第1のコンテンツ画像に対応づけられたタッチパネル用操作アイコンを表示し、前記表示部に表示される画像が第2のコンテンツ画像である場合には、前記第2のコンテンツ画像に対応づけられたタッチパネル用操作アイコンを表示する制御を行うことを特徴とするデジタルフォトフレーム。 In any one of Claims 1 thru | or 22.
The display control unit
When the image displayed on the display unit is the first content image, a touch panel operation icon associated with the first content image is displayed, and the image displayed on the display unit is the second content image. In the case of a content image, the digital photo frame is controlled to display a touch panel operation icon associated with the second content image.
前記表示制御部は、
タッチパネル用操作アイコンの表示をオンにした後、所定時間が経過してもユーザの操作が行われなかった場合には、タッチパネル用操作アイコンの表示をオフにすることを特徴とするデジタルフォトフレーム。 In any one of Claims 1 thru | or 23.
The display control unit
A digital photo frame that turns off the display of a touch panel operation icon when a user operation is not performed after a predetermined time has elapsed after the display of the touch panel operation icon is turned on.
前記表示部に表示されたタッチパネル用操作アイコンに対するユーザの操作履歴を、個人情報記憶部に書き込んでユーザの個人情報を更新する情報更新部を含むことを特徴とするデジタルフォトフレーム。 In any one of Claims 1 thru | or 24.
A digital photo frame comprising: an information updating unit for updating a user's personal information by writing a user's operation history for the touch panel operation icon displayed on the display unit into a personal information storage unit.
センサにより検知された検知情報を取得する検知情報取得部とを含み、
前記表示部はタッチパネルディスプレイにより構成され、
前記表示指示部は、
取得された前記検知情報に応じて、前記表示部に表示されるタッチパネル用操作アイコンの表示態様を変化させる表示指示を行うことを特徴とする情報処理システム。 A display instruction unit for instructing display of an image displayed on the display unit of the digital photo frame;
A detection information acquisition unit for acquiring detection information detected by the sensor,
The display unit includes a touch panel display,
The display instruction unit
An information processing system that performs a display instruction to change a display mode of an operation icon for a touch panel displayed on the display unit in accordance with the acquired detection information.
表示部の表示制御を行い、
センサにより検知された検知情報を取得すると共に、
前記表示部はタッチパネルディスプレイにより構成され、
取得された前記検知情報に応じてタッチパネル用操作アイコンの表示態様を変化させる表示制御を行うことを特徴とする制御方法。 A digital tough photo frame control method comprising:
Perform display control of the display,
While obtaining the detection information detected by the sensor,
The display unit includes a touch panel display,
A control method for performing display control for changing a display mode of a touch panel operation icon in accordance with the acquired detection information.
センサにより検知された検知情報を取得する検知情報取得部として、
コンピュータを機能させ、
前記表示部はタッチパネルディスプレイにより構成され、
前記表示制御部は、
取得された前記検知情報に応じてタッチパネル用操作アイコンの表示態様を変化させる表示制御を行うことを特徴とするプログラム。 A display control unit that performs display control of a display unit on which an image is displayed;
As a detection information acquisition unit that acquires detection information detected by the sensor,
Make the computer work,
The display unit includes a touch panel display,
The display control unit
The program which performs the display control which changes the display mode of the operation icon for touchscreens according to the acquired said detection information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008234102A JP2010067104A (en) | 2008-09-12 | 2008-09-12 | Digital photo-frame, information processing system, control method, program, and information storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008234102A JP2010067104A (en) | 2008-09-12 | 2008-09-12 | Digital photo-frame, information processing system, control method, program, and information storage medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010067104A true JP2010067104A (en) | 2010-03-25 |
Family
ID=42192623
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008234102A Pending JP2010067104A (en) | 2008-09-12 | 2008-09-12 | Digital photo-frame, information processing system, control method, program, and information storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010067104A (en) |
Cited By (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110110564A1 (en) * | 2009-11-06 | 2011-05-12 | Kabushiki Kaisha Toshiba | Electronic apparatus and image display |
JP2012010212A (en) * | 2010-06-28 | 2012-01-12 | Casio Comput Co Ltd | Image display device and program |
WO2012014593A1 (en) * | 2010-07-26 | 2012-02-02 | 日本電気株式会社 | Presence determination device, method of determining presence, and program |
JP2012034126A (en) * | 2010-07-29 | 2012-02-16 | Casio Comput Co Ltd | Digital photograph frame, image display method and program |
JP2012103800A (en) * | 2010-11-08 | 2012-05-31 | Sharp Corp | Display device |
JP2012123727A (en) * | 2010-12-10 | 2012-06-28 | Hitachi Solutions Ltd | Advertising effect measurement server, advertising effect measurement device, program and advertising effect measurement system |
JP2012133524A (en) * | 2010-12-21 | 2012-07-12 | Sony Corp | Image display controller and image display control method |
JP2013003650A (en) * | 2011-06-13 | 2013-01-07 | Sony Corp | Information processing apparatus and program |
JP2013020366A (en) * | 2011-07-08 | 2013-01-31 | Namco Bandai Games Inc | Game system, program, and information storage medium |
JP2013074551A (en) * | 2011-09-28 | 2013-04-22 | Casio Comput Co Ltd | Image display apparatus and image display program |
JP2013161406A (en) * | 2012-02-08 | 2013-08-19 | Sharp Corp | Data input device, display device, data input method, and data input program |
JP2013206068A (en) * | 2012-03-28 | 2013-10-07 | Kyocera Corp | Display device, portable terminal, display method, and display program |
WO2013176265A1 (en) * | 2012-05-25 | 2013-11-28 | 国立大学法人静岡大学 | Pupil detection method, corneal reflex detection method, facial posture detection method, and pupil tracking method |
JP2014523012A (en) * | 2011-07-01 | 2014-09-08 | エンパイア テクノロジー ディベロップメント エルエルシー | Adaptive user interface |
JP2014207572A (en) * | 2013-04-12 | 2014-10-30 | キヤノン株式会社 | Image processing device and control method for image processing device |
JP2014219747A (en) * | 2013-05-02 | 2014-11-20 | 三菱電機株式会社 | Map drawing device |
JP2015015031A (en) * | 2014-08-12 | 2015-01-22 | 株式会社日立ソリューションズ | Advertising effect measurement server, advertising effect measurement system, and program |
WO2015022498A1 (en) * | 2013-08-15 | 2015-02-19 | Elliptic Laboratories As | Touchless user interfaces |
JP5769277B2 (en) * | 2011-04-27 | 2015-08-26 | Necソリューションイノベータ株式会社 | Input device, input method, and program |
JP2015167045A (en) * | 2015-06-15 | 2015-09-24 | Kddi株式会社 | User interface making it possible to switch active states with depressing maneuver, and active state switching method and program |
WO2015140972A1 (en) * | 2014-03-19 | 2015-09-24 | 三菱電機株式会社 | Remote controller |
JP2016001388A (en) * | 2014-06-11 | 2016-01-07 | 西日本電信電話株式会社 | Terminal device, control method, and computer program |
JP2016519377A (en) * | 2013-05-09 | 2016-06-30 | アマゾン・テクノロジーズ、インコーポレイテッド | Recognition interface for computing devices |
JP2016207153A (en) * | 2015-04-28 | 2016-12-08 | 京セラドキュメントソリューションズ株式会社 | Electronic apparatus and operation screen display program |
JP2017129934A (en) * | 2016-01-18 | 2017-07-27 | 富士通株式会社 | Electronic instrument and operation control program |
US10033973B1 (en) | 2017-01-25 | 2018-07-24 | Honeywell International Inc. | Systems and methods for customizing a personalized user interface using face recognition |
JP2018180776A (en) * | 2017-04-07 | 2018-11-15 | 京セラドキュメントソリューションズ株式会社 | Display input device |
JP2019139701A (en) * | 2018-02-15 | 2019-08-22 | 京セラドキュメントソリューションズ株式会社 | Electronic apparatus |
JP2020503599A (en) * | 2016-12-14 | 2020-01-30 | サムスン エレクトロニクス カンパニー リミテッド | Display device and control method thereof |
WO2020022039A1 (en) * | 2018-07-25 | 2020-01-30 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2021093026A (en) * | 2019-12-11 | 2021-06-17 | 大日本印刷株式会社 | Information processing apparatus, information processing method, and program |
CN114003163A (en) * | 2021-10-27 | 2022-02-01 | 腾讯科技(深圳)有限公司 | Image processing method and apparatus, storage medium, and electronic device |
WO2022114177A1 (en) * | 2020-11-30 | 2022-06-02 | 株式会社Jvcケンウッド | Display device, display method, and program |
JP2022120500A (en) * | 2021-02-05 | 2022-08-18 | Necパーソナルコンピュータ株式会社 | Learning support system, learning support method, and program |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006048644A (en) * | 2004-07-06 | 2006-02-16 | Matsushita Electric Ind Co Ltd | Image display device and viewing intention judging device |
JP2007264006A (en) * | 2006-03-27 | 2007-10-11 | Seiko Epson Corp | Image admiration system, image display device, electronic photograph stand, data handling device, image display method, data handling method, image display program, and data handling program |
-
2008
- 2008-09-12 JP JP2008234102A patent/JP2010067104A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006048644A (en) * | 2004-07-06 | 2006-02-16 | Matsushita Electric Ind Co Ltd | Image display device and viewing intention judging device |
JP2007264006A (en) * | 2006-03-27 | 2007-10-11 | Seiko Epson Corp | Image admiration system, image display device, electronic photograph stand, data handling device, image display method, data handling method, image display program, and data handling program |
Cited By (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011101251A (en) * | 2009-11-06 | 2011-05-19 | Toshiba Corp | Electronic apparatus and image display method |
US8244005B2 (en) | 2009-11-06 | 2012-08-14 | Kabushiki Kaisha Toshiba | Electronic apparatus and image display method |
US20110110564A1 (en) * | 2009-11-06 | 2011-05-12 | Kabushiki Kaisha Toshiba | Electronic apparatus and image display |
JP2012010212A (en) * | 2010-06-28 | 2012-01-12 | Casio Comput Co Ltd | Image display device and program |
US8963711B2 (en) | 2010-07-26 | 2015-02-24 | Nec Corporation | Presence decision apparatus, presence decision method, and program |
WO2012014593A1 (en) * | 2010-07-26 | 2012-02-02 | 日本電気株式会社 | Presence determination device, method of determining presence, and program |
JP2012034126A (en) * | 2010-07-29 | 2012-02-16 | Casio Comput Co Ltd | Digital photograph frame, image display method and program |
JP2012103800A (en) * | 2010-11-08 | 2012-05-31 | Sharp Corp | Display device |
JP2012123727A (en) * | 2010-12-10 | 2012-06-28 | Hitachi Solutions Ltd | Advertising effect measurement server, advertising effect measurement device, program and advertising effect measurement system |
JP2012133524A (en) * | 2010-12-21 | 2012-07-12 | Sony Corp | Image display controller and image display control method |
US9703403B2 (en) | 2010-12-21 | 2017-07-11 | Sony Corporation | Image display control apparatus and image display control method |
JP5769277B2 (en) * | 2011-04-27 | 2015-08-26 | Necソリューションイノベータ株式会社 | Input device, input method, and program |
JP2013003650A (en) * | 2011-06-13 | 2013-01-07 | Sony Corp | Information processing apparatus and program |
JP2014523012A (en) * | 2011-07-01 | 2014-09-08 | エンパイア テクノロジー ディベロップメント エルエルシー | Adaptive user interface |
JP2013020366A (en) * | 2011-07-08 | 2013-01-31 | Namco Bandai Games Inc | Game system, program, and information storage medium |
JP2013074551A (en) * | 2011-09-28 | 2013-04-22 | Casio Comput Co Ltd | Image display apparatus and image display program |
JP2013161406A (en) * | 2012-02-08 | 2013-08-19 | Sharp Corp | Data input device, display device, data input method, and data input program |
JP2013206068A (en) * | 2012-03-28 | 2013-10-07 | Kyocera Corp | Display device, portable terminal, display method, and display program |
WO2013176265A1 (en) * | 2012-05-25 | 2013-11-28 | 国立大学法人静岡大学 | Pupil detection method, corneal reflex detection method, facial posture detection method, and pupil tracking method |
US9514538B2 (en) | 2012-05-25 | 2016-12-06 | National University Corporation Shizuoka University | Pupil detection method, corneal reflex detection method, facial posture detection method, and pupil tracking method |
JPWO2013176265A1 (en) * | 2012-05-25 | 2016-01-14 | 国立大学法人静岡大学 | Pupil detection method, corneal reflection detection method, face posture detection method, and pupil tracking method |
JP2014207572A (en) * | 2013-04-12 | 2014-10-30 | キヤノン株式会社 | Image processing device and control method for image processing device |
JP2014219747A (en) * | 2013-05-02 | 2014-11-20 | 三菱電機株式会社 | Map drawing device |
US9927949B2 (en) | 2013-05-09 | 2018-03-27 | Amazon Technologies, Inc. | Recognition interfaces for computing devices |
JP2016519377A (en) * | 2013-05-09 | 2016-06-30 | アマゾン・テクノロジーズ、インコーポレイテッド | Recognition interface for computing devices |
WO2015022498A1 (en) * | 2013-08-15 | 2015-02-19 | Elliptic Laboratories As | Touchless user interfaces |
WO2015140972A1 (en) * | 2014-03-19 | 2015-09-24 | 三菱電機株式会社 | Remote controller |
JPWO2015140972A1 (en) * | 2014-03-19 | 2017-04-06 | 三菱電機株式会社 | Remote controller |
JP2016001388A (en) * | 2014-06-11 | 2016-01-07 | 西日本電信電話株式会社 | Terminal device, control method, and computer program |
JP2015015031A (en) * | 2014-08-12 | 2015-01-22 | 株式会社日立ソリューションズ | Advertising effect measurement server, advertising effect measurement system, and program |
JP2016207153A (en) * | 2015-04-28 | 2016-12-08 | 京セラドキュメントソリューションズ株式会社 | Electronic apparatus and operation screen display program |
JP2015167045A (en) * | 2015-06-15 | 2015-09-24 | Kddi株式会社 | User interface making it possible to switch active states with depressing maneuver, and active state switching method and program |
JP2017129934A (en) * | 2016-01-18 | 2017-07-27 | 富士通株式会社 | Electronic instrument and operation control program |
JP7050067B2 (en) | 2016-12-14 | 2022-04-07 | サムスン エレクトロニクス カンパニー リミテッド | Display device and its control method |
JP2020503599A (en) * | 2016-12-14 | 2020-01-30 | サムスン エレクトロニクス カンパニー リミテッド | Display device and control method thereof |
US10033973B1 (en) | 2017-01-25 | 2018-07-24 | Honeywell International Inc. | Systems and methods for customizing a personalized user interface using face recognition |
JP2018180776A (en) * | 2017-04-07 | 2018-11-15 | 京セラドキュメントソリューションズ株式会社 | Display input device |
JP2019139701A (en) * | 2018-02-15 | 2019-08-22 | 京セラドキュメントソリューションズ株式会社 | Electronic apparatus |
JP7069795B2 (en) | 2018-02-15 | 2022-05-18 | 京セラドキュメントソリューションズ株式会社 | Electronics |
JPWO2020022039A1 (en) * | 2018-07-25 | 2021-08-02 | ソニーグループ株式会社 | Information processing equipment, information processing methods and programs |
WO2020022039A1 (en) * | 2018-07-25 | 2020-01-30 | ソニー株式会社 | Information processing device, information processing method, and program |
JP7444060B2 (en) | 2018-07-25 | 2024-03-06 | ソニーグループ株式会社 | Information processing device, information processing method and program |
JP2021093026A (en) * | 2019-12-11 | 2021-06-17 | 大日本印刷株式会社 | Information processing apparatus, information processing method, and program |
WO2022114177A1 (en) * | 2020-11-30 | 2022-06-02 | 株式会社Jvcケンウッド | Display device, display method, and program |
JP2022120500A (en) * | 2021-02-05 | 2022-08-18 | Necパーソナルコンピュータ株式会社 | Learning support system, learning support method, and program |
CN114003163A (en) * | 2021-10-27 | 2022-02-01 | 腾讯科技(深圳)有限公司 | Image processing method and apparatus, storage medium, and electronic device |
CN114003163B (en) * | 2021-10-27 | 2023-10-24 | 腾讯科技(深圳)有限公司 | Image processing method and device, storage medium and electronic equipment |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2010067104A (en) | Digital photo-frame, information processing system, control method, program, and information storage medium | |
US11470385B2 (en) | Method and apparatus for filtering video | |
CN109683716B (en) | Visibility improvement method based on eye tracking and electronic device | |
KR102559028B1 (en) | Method and apparatus for recognizing handwriting | |
CN107003827B (en) | Image display method and apparatus performed by an apparatus including a switchable mirror | |
US9900498B2 (en) | Glass-type terminal and method for controlling the same | |
EP2680110B1 (en) | Method and apparatus for processing multiple inputs | |
US8700392B1 (en) | Speech-inclusive device interfaces | |
US20160093081A1 (en) | Image display method performed by device including switchable mirror and the device | |
JP2010016432A (en) | Digital photograph frame, information processing system, control method, program, and information storage medium | |
KR102092931B1 (en) | Method for eye-tracking and user terminal for executing the same | |
US11317018B2 (en) | Camera operable using natural language commands | |
JP2010004118A (en) | Digital photograph frame, information processing system, control method, program, and information storage medium | |
JP2010181461A (en) | Digital photograph frame, information processing system, program, and information storage medium | |
KR20190035116A (en) | Method and apparatus for displaying an ar object | |
JP7151959B2 (en) | Image alignment method and apparatus | |
US20180196503A1 (en) | Information processing device, information processing method, and program | |
CN112585566A (en) | Hand-covering face input sensing for interacting with device having built-in camera | |
KR20180109499A (en) | Method and apparatus for providng response to user's voice input | |
JP2010224715A (en) | Image display system, digital photo-frame, information processing system, program, and information storage medium | |
KR102208256B1 (en) | Smart doll performing the reading function | |
WO2019007236A1 (en) | Input method, device, and machine-readable medium | |
KR20140132906A (en) | Device and method for mobile tooltip using eye detecting | |
JP7468360B2 (en) | Information processing device and information processing method | |
JP5330005B2 (en) | Digital photo frame, information processing system and control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110829 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120622 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120724 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120920 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130312 |